PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15

Ailuros
2005-05-21, 20:02:20
das sagen sie alle... :rolleyes:

Man ist erstmal schoen bloed wenn man es oeffentlich zugibt.

Ailuros
2005-05-21, 20:27:58
von oktober 2004... :rolleyes:
da gabs noch nichtmal ne PCIe ultra....

NV45 beschreibt auch eine 6800GT PCI-E; der Codename hat ueberhaupt nichts mit der Taktrate zu tun.

Auf Deinen Bildern steht auch nur NV40 drauf.

lalala.... wer wohl recht hatte *sing* lalala.... *sing* :P

Wenn ich bedenke dass sich mein voriger Punkt sowieso nicht aendert ob ich mit 6400 oder 6800 rechne, erscheint es noch kindischer als oben illustriert.

Mal sehen wie lange wurden Ultras mit 400 und wie lange mit 425MHz verkauft und in welchen Quantitaeten genau? So lange NVIDIA die neuen Ultras nicht anders nennt bleibe ich hartnaeckig auf der Frequenz mit der die Karte veroeffentlicht wurde. Sonst haette ich auch 450MHz fuer die ueberseltene Ultra Extreme nehmen koennen die am Anfang nur zu Webseiten fuer Benchmarks verschickt wurden. Aendert aber auch hier nicht meinen originalen Punkt, dass NVIDIA um einiges mehr die Fuellrate mit G70 erhoeht als ATI womoeglich mit R520 (im Vergleich zu den jeweiligen Vorgaengern).

Koennen wir uns vielleicht solche Haarspaltereien sparen? Wir sind wohl alle erwachsen genug uns mit wichtigerem Zeug zu beschaeftigen.

ShadowXX
2005-05-21, 20:41:13
Das Problem ist eher dass in den geleakten Specs zwar 38.4 GB/sec drinsteht, aber auch zur gleichen Zeit 1400 GDDR3. Welcher der beiden ist jetzt der Tippfehler genau?

AFAIK soll G70 700MHz GDDR3 und so stets auch bei meinem Zeug drin; falls es falsch sein sollte dann ist es natuerlich nicht mein Fehler.


In den nV-Folien, auf die ich mich beziehe wird der Takt der Speicherbausteine (wie bei nV eigentlich auch üblich) gar nicht erwähnt, sondern dort steht nur die Bandbreite.

Eben die genannten 38.4GB/s.....die Folie sieht ziemlich echt aus, zumindest am echter als alles andere, was ich bis jetzt gesehen habe.


Nichtdestominder aber wuerde ich an Deiner Stelle nach dem Paradoxen der Geschichte suchen und nachdenken welche der Beiden genau mehr Sinn macht (und ja es ist auch nicht das erste Mal dass ich darauf deute).
Siehe oben.

Aus meiner persönlichen sicht gibts da kein Paradoxon.....du müsste schon genauer sagen, was du meinst.

Vielleicht liegt es daran, das wir beiden dem G70 verschiedene Rollen zusprechen.....und was das Marketing ihm für eine Rolle zuteilt ist mir dabei relativ egal.

Vielleicht liegt es auch daran, das ich im Moment im G70 tatsächlich keinen grossartigen Sinn sehe....(ausser bessere Verfügbarkeit).

Ach ja....selbst mit 700MHz Speicher würde ich den G70 nicht für besonders großartig halten.....besser ja, aber nicht gelungen .

Gut, dafür kann nV zumindest auf den ersten Blick nichts, aber man hätte IMHO auch schon früher bemerken können, das die Speicherhersteller scheinbar vom linken auf den rechten fuss hüpfen ohne wirklich voranzukommen.

Es ist natürlich gut möglich, das nV nichts besseres braucht um gegen den r520 "anzukommen", was aber auch nicht gerade für den r520 spricht.

Im großen und ganzen ist es allerdings zugegebenermassen auch die Enttäuschung, dass ein Jahr nach dem Launch des nv40 "sowas" nachgeschoben wird. Stark angefangen, stark nachgelassen. IMO kopiert nv momentan den x800....und das nicht mal besonders gut.

Im Prinzip heisst das nichts anderes, als das bis zu den WGF2.0-Chips aus meine sicht Totentanz herrscht.

Ein G70 hätte mich nur dann interessiert, wenn ich mit diesem ohne wenn und aber jegliches Games, welches ich momentan besitze, ohne Probleme mit 8xS + 8xAF in HQ bei 1280x1024 spielen könnte.
Oder wenn man bei Splinter Cell 3 60++ Frame in allen Situationen bei HDR hätte.
Zwar habe ich solch einen Chip nicht erwartet, aber auch nicht "sowas" wie das, was jetzt kommt.
Der G70 stellt für mich wirklich keinen großen Kaufanreiz dar......wenn ich eine PCIe 6800Ultra hätte, würde ich mir eher einen zweiten davon holen und dann SLI benutzen.
(Und ich bin normalerweise einer dieser verrückten, die 2 Stunden nach release anfangen die HighEnd-Chips in den Preismaschienen nach verfügbarkeit abzuklappern)

Coda
2005-05-21, 21:22:52
Im großen und ganzen ist es allerdings zugegebenermassen auch die Enttäuschung, dass ein Jahr nach dem Launch des nv40 "sowas" nachgeschoben wird. Stark angefangen, stark nachgelassen. IMO kopiert nv momentan den x800....und das nicht mal besonders gut.So ein Quatsch. Was sollen sie denn an Technik sonst noch einbauen? Sie erfüllen jetzt schon die komplette DX9 Spec.

Außerdem weißt du nicht was im Detail verbessert wurde. Am FP Rendering wurde vielleicht was gemacht und das AF ist hoffentlich auch gefixt.

Demirug
2005-05-21, 21:33:04
So ein Quatsch. Was sollen sie denn an Technik sonst noch einbauen? Sie erfüllen jetzt schon die komplette DX9 Spec.

Ein paar Optionen gäbe es noch. Aber im gropen und ganzen wird das Mögliche ausgeschöpft. Aber WGF 1.0 steht ja schon vor der Tür.

Coda
2005-05-21, 21:35:28
WGF 1.0 kann jetzt doch mehr? :|

Demirug
2005-05-21, 21:41:12
WGF 1.0 kann jetzt doch mehr? :|

Ja, Hardware ClearType und wenn ich MS richtig verstanden habe kann man das dann auch in Spielen nutzen.

Dann gibt es noch ein paar Dinge die allerdings nur die performancens bzw die Speicherverwaltung betrefen. Soll heisen das native WGF 1.0 Hardware schneller sein kann als nicht native.

Wenn es so abläuft wie ich inzwischen vermute werden Spiele unter Longhorn weniger Speicher brauchen weil sie direkt oder indirekt WGF 1.0 nutzen.

ShadowXX
2005-05-21, 22:53:54
So ein Quatsch. Was sollen sie denn an Technik sonst noch einbauen? Sie erfüllen jetzt schon die komplette DX9 Spec.

Außerdem weißt du nicht was im Detail verbessert wurde. Am FP Rendering wurde vielleicht was gemacht und das AF ist hoffentlich auch gefixt.

Es geht mir nicht um die Technik.....die haben Sie mit dem nv40 gebracht (bis auf ein paar kleine schwächen hier und da...mich persönlich stört das Flimmern das dank Clamp schon stark gemindert wurde da sogar noch am wenigsten).

Es geht mir nur um Leistung (und zwar auch welche ausserhalb von Shaderpower, der durch die zusätzlichen 8Pipes ganz gut steigen wird).....ich habe eben einen grösseren Leistungsschub als das jetzt erwartet.

Ich wollte durch das Post oben eigentlich auch verdeutlichen, das Ich ganz persönlich vom G70 enttäuscht bin...nicht mehr, nicht weniger.

Der G70 wird ein netter Chip...wenn man ihn ohne bezug auf vorher und nachher betrachtet.
Er wird auch schnell sein, ohne Frage.
Aber er stellt eben für mich persönlich nicht gerade einen grossen Kaufanreiz dar...zumindest nicht bei seinem erscheinen. Und das hatte ich irgendwie noch nie beim erscheinen eines neuen Chips.

Vielleicht ist technisch ja wirklich nicht mehr machbar...ok, muss man akzeptieren...dann muss ich mich halt bis zu den WGF2.0-Chips gedulden.

Coda
2005-05-21, 22:57:39
Es ist technisch insofern nicht mehr machbar weil kein besserer Speicher zur Verfügung steht.

ShadowXX
2005-05-21, 23:24:04
Es ist technisch insofern nicht mehr machbar weil kein besserer Speicher zur Verfügung steht.

Sie könnten auf besseren Speicher warten......ich gehe immer noch davon aus, das ATI es scheinbar tut (oder andere Quellen haben).

Falls ATI dann doch plötzlich und früher als erwartet den 520 mit auch nur 600MHz Speicher rauswirft, könnten Sie ja immer noch reagieren. Der Chip ist ja fertig und ändern müsste man nichts an ihm.

Das ganze ist doch ein eiziges Katz und Maus spiel und jeder der beiden wartet auf den zug des anderen....der der den erste Zug macht hat quasi "verloren".
Ausser es läuft wieder auf den Kleinkinderkram raus und nV schiebt den GTX Ultra mit 700MHz zufällig beim Launch des r520 hinterher....(genau sowas wird bestimmt passieren:
G70 wird mit 430/600 released...ATI präsentiert ca. 1 Monat später den r520 mit 650/700....nV released "überraschend" 1 Stunde später den GTX Ultra mit 450/700.....worauf ATI lächelt und sagt, man habe beim gestriegen Launch den Spitzenchip vergessen und einen r520 NFS-RHE* 700/800 an die Tester verteilt.....nV bemerkt in dem Moment das in der Produktdoku ja eine Seite fehlt, die mit dem GTX Ultra Deluxe....etc. etc. etc...)

*Never for sale - review hyping edition

Coda
2005-05-21, 23:43:42
Hehe ja, so wird's bestimmt wieder laufen :D

Aber abseits von dem kann nV ja auch noch auf 90nm Fertigung umsteigen. Füllrate ist dieses Jahr irgendwie weniger das Problem: Es kommt also auf die Speicherinterfaceeffizienz an. Und da hat nVIDIA eigentlich recht gute Karten.

SKYNET
2005-05-22, 02:47:30
Sie könnten auf besseren Speicher warten......ich gehe immer noch davon aus, das ATI es scheinbar tut (oder andere Quellen haben).

Falls ATI dann doch plötzlich und früher als erwartet den 520 mit auch nur 600MHz Speicher rauswirft, könnten Sie ja immer noch reagieren. Der Chip ist ja fertig und ändern müsste man nichts an ihm.

Das ganze ist doch ein eiziges Katz und Maus spiel und jeder der beiden wartet auf den zug des anderen....der der den erste Zug macht hat quasi "verloren".
Ausser es läuft wieder auf den Kleinkinderkram raus und nV schiebt den GTX Ultra mit 700MHz zufällig beim Launch des r520 hinterher....(genau sowas wird bestimmt passieren:
G70 wird mit 430/600 released...ATI präsentiert ca. 1 Monat später den r520 mit 650/700....nV released "überraschend" 1 Stunde später den GTX Ultra mit 450/700.....worauf ATI lächelt und sagt, man habe beim gestriegen Launch den Spitzenchip vergessen und einen r520 NFS-RHE* 700/800 an die Tester verteilt.....nV bemerkt in dem Moment das in der Produktdoku ja eine Seite fehlt, die mit dem GTX Ultra Deluxe....etc. etc. etc...)

*Never for sale - review hyping edition



udn ohe n das wärs doch auch langweiklig!

sorry bin agrtuhnken.

[edit]
*argh* hier nochmal auf ohne alkohol:
und ohne das, wärs doch auch langweilig!

Ailuros
2005-05-22, 03:08:01
In den nV-Folien, auf die ich mich beziehe wird der Takt der Speicherbausteine (wie bei nV eigentlich auch üblich) gar nicht erwähnt, sondern dort steht nur die Bandbreite.

Eben die genannten 38.4GB/s.....die Folie sieht ziemlich echt aus, zumindest am echter als alles andere, was ich bis jetzt gesehen habe.

- 0.11 micron process TSMC
- 430Mhz core / 1.4GHz 256MB GDDR3 memory
- 256-bit memory interface
- 38.4GB/s memory bandwidth
- 10.32Bps Fill Rate
- 860M vertices/second
- 24 pixels per clock
- 400MHz RAMDACs
- NVIDIA CineFX 4.0 engine
- Intellisample 4.0 technology
- 64-bit FP texture filtering & blending
- NVIDIA SLI Ready (7800 GTX only)
- DX 9.0 / SM 3.0 & OpenGL 2.0 supported
- G70 comes with 3 models; GTX, GT and StandardSingle card
- requires min. 400W PSU with 12V rating of 26A
- SLI configuration requires min. 500W PSU with 12V rating of 34A
- Launch : 22nd of June

http://www.giga.de/index.php?storyid=119770

Aller Faehrheit zu Liebe hat vr-zone jetzt doch den Tippfehler korrigiert. Hier steht jetzt tatsaechlich 1200 GDDR3 drin, wie es auch sein sollte.

http://www.vr-zone.com/?i=2206

Aber:

http://www.hardspell.com/news/showcont.asp?news_id=13528

http://www.theinquirer.net/?article=23392




Aus meiner persönlichen sicht gibts da kein Paradoxon.....du müsste schon genauer sagen, was du meinst.

Siehe oben.

Ach ja....selbst mit 700MHz Speicher würde ich den G70 nicht für besonders großartig halten.....besser ja, aber nicht gelungen .

Ich halte genauso viel/wenig auch von der R520. Mit der Kredikarte in der Hand wuerde ich in den naehesten Laden sowieso persoenlich fuer eine WGF2.0 GPU rennen... ;)

Zwar habe ich solch einen Chip nicht erwartet, aber auch nicht "sowas" wie das, was jetzt kommt.
Der G70 stellt für mich wirklich keinen großen Kaufanreiz dar......wenn ich eine PCIe 6800Ultra hätte, würde ich mir eher einen zweiten davon holen und dann SLI benutzen.
(Und ich bin normalerweise einer dieser verrückten, die 2 Stunden nach release anfangen die HighEnd-Chips in den Preismaschienen nach verfügbarkeit abzuklappern)

Vor der offiziellen Ankuendigung ist nichts final und Tippfehler gibt es auch bei grossen IHVs in ihren whitepapers/Praesentationen. Ich warte lieber ab um zu sehen was von den Beiden genau gilt.

stav0815
2005-05-22, 03:48:48
Ich halte genauso viel/wenig auch von der R520. Mit der Kredikarte in der Hand wuerde ich in den naehesten Laden sowieso persoenlich fuer eine WGF2.0 GPU rennen... ;)

weswegen du immernoch nicht mehr Speichertakt hast...

Ailuros
2005-05-22, 04:30:08
weswegen du immernoch nicht mehr Speichertakt hast...


Tatsaechlich nicht fuer die heutigen Standards. Aber es wuerde wenigstens wichtige Aenderung im Feature-set geben, als wiedergebackenes Zeug.

Coda
2005-05-22, 12:27:06
SM 3.0 so früh zu implementieren war sicher schwer genug. Ich denke nVIDIA darf sich auch mal auf ihren Lorbeeren ausruhen.

ATi sind die die erstmal nachlegen müssen was die Features betrifft. Es muss ja auch erstmal SM 3.0 richtig ausgenützt werden, was schon extrem viel ermöglicht.

St@N
2005-05-22, 13:05:26
ich hab gelesen das nvidia sagt: G70 iss doppelt so schnell wie 6800ultra

und ati sagt: r520 iss 2,5 mal so schnell wie 2 6800ultra...

damit wäre (wenn beide die gleiche gaga erzählen die in der realität nicht soooo oft vorkommt oder gar nicht) nvidia schneller als ati?! weil 2 g70 = theoretisch 4 mal so schnell wie 6800ultra und ati "nur" 2,5 ???

noch ne ot frage bitte beantworten:

weiß jemand wieviel die PS3 dann saft zieht ? 7 cores?! graka usw.? (frage nur weil ich das gerade lese oben mit 400watt netzteil :D)

Coda
2005-05-22, 13:15:02
und ati sagt: r520 iss 2,5 mal so schnell wie 2 6800ultra...Woher kommt dieser Unsinn eigentlich? Das ist nicht möglich, allein schon weil es solche Speicher nicht gibt.

St@N
2005-05-22, 13:21:44
Woher kommt dieser Unsinn eigentlich? Das ist nicht möglich, allein schon weil es solche Speicher nicht gibt.

das stand in den 3dcenter news habsch vorhin gelesen :|

Coda
2005-05-22, 13:30:17
Da steht das zwei R520 etwas 2,5 mal so schnell wie zwei 6800 Ultra sind.

St@N
2005-05-22, 13:31:58
Da steht das zwei R520 etwas 2,5 mal so schnell wie zwei 6800 Ultra sind.

oh sorry da habsch mich verlesen :D

na das iss aber nicht gerade schnell oder? :|

selbst wenn 2 G70 so schnell sind wie 3 6800ultra ?! (was ja durchaus machbar ist mit erhöhung der pipelines usw.?!)

Coda
2005-05-22, 13:34:29
Das ist immer noch übertrieben imho. Das würde ja bedeuten das eine R520 schon doppelt so schnell wie ne 6800 Ultra sein wird.

Das könnte vielleicht von der Rechenleistung hinkommen, aber der Speicher limitiert viel zu stark für diese Leistung in Spielen.

St@N
2005-05-22, 13:40:47
sogar nochn bissl mehr....

die sind doch kaputt :rolleyes:

bei dem bissl erhöhung am speichertakt...

wieso nehmen sie nicht für die höchste version des G70 800er Speicher ich denke samsung produziert den schon?

ot:
wenn ati so ne hohe leistung erreichen will müssen sie auch auf 24 pipes erhöht haben?

Gast
2005-05-22, 15:02:36
SM 3.0 so früh zu implementieren war sicher schwer genug. Ich denke nVIDIA darf sich auch mal auf ihren Lorbeeren ausruhen.

ATi sind die die erstmal nachlegen müssen was die Features betrifft. Es muss ja auch erstmal SM 3.0 richtig ausgenützt werden, was schon extrem viel ermöglicht.

solang kein game s 3.0 hat kann mans kaum bewerten ob man es weiter ausnutzen muß
aktuelle games nutzen nichtmal s 2.0 richtig aus,viele nutzen grad mal s 1.4

und nur wenn aus der verpackung steht unstützt s 3.0 sind noch lang nicht s 3.0 drin wenn überhaupt grad man s 2.0

Coda
2005-05-22, 15:21:49
Öh SM 3.0 hat sicher seinen Sinn, sonst hätte man es nicht spezifiziert. Branches in den Shadern sind für viele Sachen nützlich.

r3ptil3
2005-05-22, 15:46:16
sogar nochn bissl mehr....

die sind doch kaputt :rolleyes:

bei dem bissl erhöhung am speichertakt...

wieso nehmen sie nicht für die höchste version des G70 800er Speicher ich denke samsung produziert den schon?

ot:
wenn ati so ne hohe leistung erreichen will müssen sie auch auf 24 pipes erhöht haben?

Wer sagt das ATI nur 16 Pipelines hat? Vielleicht hat ATI ja auch schon von Anfang an 24 oder 32 Pipelines im R520 implentiert.

Coda
2005-05-22, 15:49:23
Was nützt das bei max. 800Mhz GDDR3? 24/430Mhz ist bei 700Mhz eigentlich schon zuviel. ATi kann auch 128 Pipelines einbauen und es wird nich viel mehr rauskommen.

Quasar
2005-05-22, 15:57:09
Wer sagt das ATI nur 16 Pipelines hat? Vielleicht hat ATI ja auch schon von Anfang an 24 oder 32 Pipelines im R520 implentiert.
Oder 16 'extreme' Pipelines?

Ronny145
2005-05-22, 15:59:14
Oder 16 'extreme' Pipelines?


Was bedeutet extreme Pipelines?

Coda
2005-05-22, 16:01:18
Von denen hat Fudo vom Inquirer beim R420 immer geredet, darf man nicht ernst nehmen ;)

Gast
2005-05-22, 16:54:07
Von denen hat Fudo vom Inquirer beim R420 immer geredet, darf man nicht ernst nehmen ;)


inquirer nehm ich ernster als den kaffeeklatsch hier :D

Coda
2005-05-22, 16:55:21
Glaub was du willst. Fudo hat nur überhaupt keine Ahnung von was er schreibt im Gegensatz zu manchen hier.

Gast
2005-05-22, 17:01:39
inq besteht niemals auf richtigkeit,sie hören gerüchte und geben sie weiter wie alle seiten

wenn ihr die inq news auch mal richtig lesen würdet wüßtet ihr das.

Coda
2005-05-22, 17:03:17
Das ist mir schon bekannt. Nur schreiben eben sehr viele andere Seiten von ihm ab wo man es dann nicht sieht, dass es Gerüchte sind. Auch in Foren wird sein Zeug oft als Wahrheit hingestellt.

Tomcat70
2005-05-22, 17:38:19
ich hab gelesen das nvidia sagt: G70 iss doppelt so schnell wie 6800ultra

und ati sagt: r520 iss 2,5 mal so schnell wie 2 6800ultra...

damit wäre (wenn beide die gleiche gaga erzählen die in der realität nicht soooo oft vorkommt oder gar nicht) nvidia schneller als ati?! weil 2 g70 = theoretisch 4 mal so schnell wie 6800ultra und ati "nur" 2,5 ???



da hast aber bei aller liebe nen kleinen mathematik-fehler drin.
auch wenns kaum eine rolle spielt und das ganze sowieso nur reine speku ist.

aber laut rechnung müsste der satz "2 g70 = theoretisch 4 mal so schnell wie 6800ultra und ati "nur" 2,5" heissen "2 g70 = theoretisch 4 mal so schnell wie 6800ultra und ati 2x2,5=5"

aber das nur so nebenbei bemerkt....einfach abwarten und tee trinken würd ich sagen.

St@N
2005-05-22, 22:37:43
ich hab dein geschriebenes zwar nicht gelesen aber es stimmt hab mich da verrechnet da ich den satz nicht richtig gelesen hatte :|

(hab nur zahlen gesehen denke mal du meinst das was ich am anfang geschrieben hatte mit 4x und bla :D)

stav0815
2005-05-22, 22:50:55
es hiess übrigens dass ZWEI R520 2,5x so schnell sein sollen wie 2x NV40 Ultra... nur mal so nebenbei.

Gast
2005-05-22, 23:36:18
es hiess übrigens dass ZWEI R520 2,5x so schnell sein sollen wie 2x NV40 Ultra... nur mal so nebenbei.

Lol, wartet doch einfach ab bis die Karten im Bench sind!
Niemand konnte bisher tatsächlich einen Vergleich machen!
Daher, alles nur Quatsch! :) Bitte nicht persönlich nehmen Stav, das ich dich jetzt zitiert habe!

Gemeint sind die anderen!

Ailuros
2005-05-23, 02:08:56
Wer sagt das ATI nur 16 Pipelines hat? Vielleicht hat ATI ja auch schon von Anfang an 24 oder 32 Pipelines im R520 implentiert.

Dann haetten sie auch von Anfang nicht fuer eine so hohe Frequenz geplant. Ich koennte ja fuer 90nm noch bis zu 550MHz mit 6 quads glauben, aber =/>650MHz?....nah uh...

r3ptil3
2005-05-23, 02:19:53
Dann haetten sie auch von Anfang nicht fuer eine so hohe Frequenz geplant. Ich koennte ja fuer 90nm noch bis zu 550MHz mit 6 quads glauben, aber =/>650MHz?....nah uh...

Vielleicht wollen sie wieder so Zeiten wie bei der 9700 pro vs. 5800 ultra... ;D

Ailuros
2005-05-23, 02:28:45
inq besteht niemals auf richtigkeit,sie hören gerüchte und geben sie weiter wie alle seiten

wenn ihr die inq news auch mal richtig lesen würdet wüßtet ihr das.

robbitop hat es mal schoen illustriert; Leute wie Fuad kommen zwar zu vorzeitigen Informationen, koennen sie aber leider nicht richtig bearbeiten. Er brauchte z.B. fast 2 Wochen bis ihm einschnallte dass NVIDIA einen Antrag fuer einen zweiten Molex stellte fuer Vendors die multi-chip boards bauen (Asus, Gigabyte etc.) und dass der G70 doch nicht 225W verbraucht.

Eben weil ich oefters seine newsblurbs lese hier der originale newsblurb vom INQ:

http://www.theinquirer.net/?article=22917

Mein eigenes Zeug fuer den newsblurb:

I have no doubt that such a board at 110nm and a =/>430MHz frequency would draw a lot of power no idea if it would exceed the 150W barrier though. How impossible is it for NVIDIA to apply for PCI-Sig compliance for that second molex just in order to cover better some vendors own incentives (multi-chip boards)?

Natuerlich nur als Frage gepostet, weil ich ziemlich vorsichtig mit dem Zeug bin. Dass die Frequenz so genau wie moeglich ist im obrigen Paragraph ist auch kein Zufall.

http://www.beyond3d.com/forum/viewtopic.php?p=510658&highlight=multichip%2A#510658

Nur als er ueber das multi-chip 6800 Asus board berichtete, viel der Groschen. Kann man sicher noch aus der Datenbank des INQ ziehen.

Ailuros
2005-05-23, 02:41:12
Vielleicht wollen sie wieder so Zeiten wie bei der 9700 pro vs. 5800 ultra... ;D


R300 kam auf 150nm, waehrend NV30 auf 130nm.
G70@110nm vs. R520@low-k 90nm.

So wie es momentan aussieht werden vielleicht beide etwa zur gleichen Zeit veroeffentlichen, waehrend sich NV30 enorm verspaetete.

Ich weiss schon dass Du auf Leistung deutest, aber da SM2.x-Leistung auf NV4x kein Problem mehr ist, sieht es nicht so aus als ob da viel Luftraum fuer solche Unterschiede sein koennte.

Keiner von uns weiss sowieso momentan was mit dem R520 genau los ist; es kann sein dass ATI noch versucht fast im letzten Moment jeden millimeter an Leistung herauszuquetschen oder es gibt vielleicht doch irgendwelche Probleme die uns nicht bewusst sind.

Was man aber bedenken koennte, ist dass falls R520 tatsaechlich ein R300-artiger "Killer" waere, wuerde ATI nicht nur schon angekuendigt haben, sondern man wuerde auch indirekt schon ganz fett damit protzen. Rund um ATI herrscht momentan eine eher merkwuerdige Stille und Leute die bisher ziemlich schreibfreudig waren wenn es zu Fragen kam, vermeiden selbst die einfachste Antwort.

Soll jetzt gar nichts heissen, aber ein merkwuerdiges Gefuehl hab ich schon. Und ja ob ihr es glaubt oder nicht, ich will dass beide IHVs genauso konkurrenz-faehig bleiben wie bis jetzt. Mir waere sogar ein dritter oder sogar vierter potentialer Konkurrent noch lieber, aber momentan bleibt dieses leider nur ein Wunschtraum.

r3ptil3
2005-05-23, 02:50:06
R300 kam auf 150nm, waehrend NV30 auf 130nm.
G70@110nm vs. R520@low-k 90nm.

So wie es momentan aussieht werden vielleicht beide etwa zur gleichen Zeit veroeffentlichen, waehrend sich NV30 enorm verspaetete.

Ich weiss schon dass Du auf Leistung deutest, aber da SM2.x-Leistung auf NV4x kein Problem mehr ist, sieht es nicht so aus als ob da viel Luftraum fuer solche Unterschiede sein koennte.

Keiner von uns weiss sowieso momentan was mit dem R520 genau los ist; es kann sein dass ATI noch versucht fast im letzten Moment jeden millimeter an Leistung herauszuquetschen oder es gibt vielleicht doch irgendwelche Probleme die uns nicht bewusst sind.

Was man aber bedenken koennte, ist dass falls R520 tatsaechlich ein R300-artiger "Killer" waere, wuerde ATI nicht nur schon angekuendigt haben, sondern man wuerde auch indirekt schon ganz fett damit protzen. Rund um ATI herrscht momentan eine eher merkwuerdige Stille und Leute die bisher ziemlich schreibfreudig waren wenn es zu Fragen kam, vermeiden selbst die einfachste Antwort.

Soll jetzt gar nichts heissen, aber ein merkwuerdiges Gefuehl hab ich schon. Und ja ob ihr es glaubt oder nicht, ich will dass beide IHVs genauso konkurrenz-faehig bleiben wie bis jetzt. Mir waere sogar ein dritter oder sogar vierter potentialer Konkurrent noch lieber, aber momentan bleibt dieses leider nur ein Wunschtraum.

Das mit den "Zeiten wie 9700Pro vs. 5800 Ultra" war auch nur ironisch gemeint!
Das stimmt ATI hält sich wirklich sehr zurück im gegensatz zu Nvidia. Der R520 könnte 16 Pipelines haben, dann versucht ATI jetzt halt eben den Takt zu steigern um dem G70 noch Paroli bieten zu können. Aber falls der R520 24 oder sogar auch 32 Pipelines mit 650mhz Core haben würde dann weis man ja fast schon wer die Leistungskrone erhält.

SKYNET
2005-05-23, 03:16:42
Aber falls der R520 24 oder sogar auch 32 Pipelines mit 650mhz Core haben würde dann weis man ja fast schon wer die Leistungskrone erhält.


was bringt ein die gigantische füllrate, wenn der speicher nicht hinterherkommt? :rolleyes:

r3ptil3
2005-05-23, 03:20:53
was bringt ein die gigantische füllrate, wenn der speicher nicht hinterherkommt? :rolleyes:

Mit 800Mhz GDDR3 Speicher dürfte es wohl gut gehen oder etwa nicht?
Ein beispiel; X800 XT 500/500mhz 16 Pipelines und die 500mhz GDDR3 reichen vollkommen aus, also bei 24 Pipelines würde 700-800Mhz mit Sicherheit aus genügen.

mapel110
2005-05-23, 03:25:17
Mit 800Mhz GDDR3 Speicher dürfte es wohl gut gehen oder etwa nicht?
sieht aber derzeit nicht danach aus, dass den jemand verbaut, auch wenn offenbar die Massenproduktion davon gerade gestartet ist.

r3ptil3
2005-05-23, 03:27:16
sieht aber derzeit nicht danach aus, dass den jemand verbaut, auch wenn offenbar die Massenproduktion davon gerade gestartet ist.

Hat ATI die Vorstellung des R520 nicht verschoben? Der Grund liegt wohl am Speicher und nicht wie viele behaupten "um die erhöhung des Core-Taktes".

Ailuros
2005-05-23, 03:47:27
Hat ATI die Vorstellung des R520 nicht verschoben? Der Grund liegt wohl am Speicher und nicht wie viele behaupten "um die erhöhung des Core-Taktes".

Es koennte eins der beiden, beide oder ein total anderer Grund dahinter liegen.

Beispiel waere: angenommen man hatte X-Taktrate als Ziel, aber man kann nur X-10% erreichen, dann ist es wohl egal ob man die GPU mit </=/>700MHz bestueckt oder?

Man murmelte letztes Jahr ueber einen sign off-speed von </=600MHz. Da sign-off tonnenweise Sicherheitsmassnahmen fuer die Fab bedeutet, kann man dann in der Mehrzahl der Faelle nach dem finalen tape-out auf hoehere Taktraten mit marktreifem Silizium steigen, ergo =/>650MHz.

Die Entscheidung fuer so hohe Frequenzen wurde nicht gestern getroffen, sondern um einiges frueher durch den Entwicklungsprozess. R520 klingt wie auch oefters erwaehnt immer noch als 16/1/1/1-Design und fuer solch einen Aufbau macht auch eine =/>650MHz Taktrate absoluten Sinn.

Nochmal das obrige war nur ein Beispiel; bis jemand endlich mal ein Wort von sich laesst sind es nur basislose Thesen; alles natuerlich ausser dem setup und was sign-off betrifft (wenn ich auch nicht hier zu falschen infos geraten bin was auch nicht das erste Mal sein wird).

Ailuros
2005-05-23, 03:54:42
Mit 800Mhz GDDR3 Speicher dürfte es wohl gut gehen oder etwa nicht?
Ein beispiel; X800 XT 500/500mhz 16 Pipelines und die 500mhz GDDR3 reichen vollkommen aus, also bei 24 Pipelines würde 700-800Mhz mit Sicherheit aus genügen.

Was fuer was ausreicht ist aber auch ziemlich relativ. Im Vergleich zu einer GT oder Ultra ist das Fuellraten zu Bandbreiten- Verhaeltnis nicht unbedingt besser. Hinzu kommt noch dass quad=!quad ist; weder im Vergleich zwischen R4xx/NV4x, noch R520/R4xx.

Gast
2005-05-23, 06:08:15
Was man aber bedenken koennte, ist dass falls R520 tatsaechlich ein R300-artiger "Killer" waere, wuerde ATI nicht nur schon angekuendigt haben, sondern man wuerde auch indirekt schon ganz fett damit protzen. Rund um ATI herrscht momentan eine eher merkwuerdige Stille und Leute die bisher ziemlich schreibfreudig waren wenn es zu Fragen kam, vermeiden selbst die einfachste Antwort.



Ailuros,

ATI hat NUR die undichten Stellen in der Kommunikation dicht gemacht, deshalb protzt hier NIEMAND rum!

Gast
2005-05-23, 06:13:48
Nochmal das obrige war nur ein Beispiel; bis jemand endlich mal ein Wort von sich laesst sind es nur basislose Thesen; alles natuerlich ausser dem setup und was sign-off betrifft (wenn ich auch nicht hier zu falschen infos geraten bin was auch nicht das erste Mal sein wird).

Niemand der ein NDA unterschrieben hat, wird Details nennen, selbst zwischen den Zeilen nicht!

Fakt ist, der R520 unterscheidet sich gewaltig vom R420! Warten wir ab, wie das im Deatil aussieht!

Ailuros
2005-05-23, 07:15:05
Niemand der ein NDA unterschrieben hat, wird Details nennen, selbst zwischen den Zeilen nicht!

Fakt ist, der R520 unterscheidet sich gewaltig vom R420! Warten wir ab, wie das im Deatil aussieht!

Na dann frag mich lieber mal erst warum ich unter Umstaenden Zugang zu gewissen Informationen hab.

Natuerlich unterscheidet sich ein SM3.0 chip wesentlich von einem SM2.0 chip. Was sonst ist neu?

Ailuros,

ATI hat NUR die undichten Stellen in der Kommunikation dicht gemacht, deshalb protzt hier NIEMAND rum!

Auf keinen Fall dichter als bei anderen IHVs; eher das Gegenteil.

Gast
2005-05-23, 07:53:41
Na dann frag mich lieber mal erst warum ich unter Umstaenden Zugang zu gewissen Informationen hab.

Natuerlich unterscheidet sich ein SM3.0 chip wesentlich von einem SM2.0 chip. Was sonst ist neu?

Auf keinen Fall dichter als bei anderen IHVs; eher das Gegenteil.

Ailuros,

Warum hast du Zugang zu gewissen Informatioen? ;)
Zu deiner Frage, wo der Unterschied liegt, kann ich NUR sagen das du dir selbst die Antwort schonmal in einem Thread gegeben hast ;)

Weiterhin frage ich mich, warum selbst die Redaktion so im TRÜBEN WASSER fischt und heute in Ihrer News behauptet.....

Zitat: Wichtigstes Merkmal von RD400 und RD480 ist der Support der ATI Multigrafikkarten-Technologie, welche laut jenem Foto nun offenbar endgültig MVPU heißt - Multi VPU oder Multi Visual Processoring Unit.

Ende:

Da weiss Fudo ja noch mehr :)

Ailuros
2005-05-23, 08:55:17
Warum hast du Zugang zu gewissen Informatioen?

Aus dem gleichen Grund warum ich Zugang zu drei privaten ftp's habe. Klarer kann ich es Dir gar nicht machen.

Da weiss Fudo ja noch mehr.

Erstens ist mir das multi-board Zeug so gleichgueltig dass ich mich persoenlich lieber mit anderen Themen beschaeftige (wie z.B. kommenden Consolen) und zweitens hab ich ueberhaupt nichts mit 3DCenter zu tun.

Nichtdestominder koennte sich Fuad nur wuenschen wenigstens die Haelfte der Kentnisse von jeglichem Mitglied der 3DCenter-Crew zu haben. Auf einer trash-tabloid Seite koennte sogar ein 10-jaehriger mit Erfolg den Journalisten spielen.

seahawk
2005-05-23, 09:12:23
Hat ATI die Vorstellung des R520 nicht verschoben? Der Grund liegt wohl am Speicher und nicht wie viele behaupten "um die erhöhung des Core-Taktes".

Die Verschiebung liegt an beidem. ATI hatte nicht mit dem Potential eines minderwertigen Prozesses gerechnet. :wink:

stav0815
2005-05-23, 11:36:34
Lol, wartet doch einfach ab bis die Karten im Bench sind!
Niemand konnte bisher tatsächlich einen Vergleich machen!
Daher, alles nur Quatsch! :) Bitte nicht persönlich nehmen Stav, das ich dich jetzt zitiert habe!

Gemeint sind die anderen!
ich wollte nur darauf hinweisen, auch wenn ich selbst nicht daran glaube. Der R520 wird wohl dazu zu sehr Bandbreitenlimitiert sein. Ausser sie bringen wirklich ein 384Bit Speicherinterface (realistisch machbar? weiss nicht.)

SKYNET
2005-05-23, 11:50:27
ich wollte nur darauf hinweisen, auch wenn ich selbst nicht daran glaube. Der R520 wird wohl dazu zu sehr Bandbreitenlimitiert sein. Ausser sie bringen wirklich ein 384Bit Speicherinterface (realistisch machbar? weiss nicht.)


bin mir net sicher, aber ich glaube das es nur gibt:

64bit - 128bit - 256bit - 512bit - 1024bit u.s.w.

man möge mich korrigieren wenns falsch sei. =)

robbitop
2005-05-23, 11:55:15
bin mir net sicher, aber ich glaube das es nur gibt:

64bit - 128bit - 256bit - 512bit - 1024bit u.s.w.

man möge mich korrigieren wenns falsch sei. =)

Ein vielfaches von 64 Bit ist möglich, da die BGA's heutzutage je mit 64 Bit angebunden sind. XGI b.s.w. plant für eine Version des XG45 ein 192 Bit Interface.
IMO sind solche Zwischendinger aber inkonsequent.

mrt
2005-05-23, 13:41:41
Ein vielfaches von 64 Bit ist möglich, da die BGA's heutzutage je mit 64 Bit angebunden sind. XGI b.s.w. plant für eine Version des XG45 ein 192 Bit Interface.
IMO sind solche Zwischendinger aber inkonsequent.

Solch "Zwischendinger" sind eher ein Kompromiss aus Preis und Leistung. 192Bit mag durchaus etwas inkonsequent sein, da 128 bit+hohe Takt bzw 256bit+niederer Takt zur Auswahl stehen. Aber 384 Bit wär nicht sooo blöd.

Übrigens werden auch 32 bit chips verbaut (z.B.:GeForce6200TC). ;)

Crushinator
2005-05-23, 14:58:22
(...) Rund um ATI herrscht momentan eine eher merkwuerdige Stille und Leute die bisher ziemlich schreibfreudig waren wenn es zu Fragen kam, vermeiden selbst die einfachste Antwort. (...)
Vermutlich liegt's daran, daß sie gerade dabei sind das Speicher-Interface wieder auf den Kopf zu stellen, während ihnen dabei aufgefallen ist, daß das PCB doch ganz schön lang (http://www.beyond3d.com/news/images/20050519_r520.jpg) wird. :D

Ailuros
2005-05-23, 19:45:34
Die Verschiebung liegt an beidem. ATI hatte nicht mit dem Potential eines minderwertigen Prozesses gerechnet. :wink:

Identische Aussage von einer zweiten Quelle, ergo Zuverlaessigkeit= ziemlich hoch.

Crossfire ist hoechstwahrscheinlich an dem Ganzen daran schuld, aber ich halte mich vorruebergehend noch davon ab irgendwelche Details zu erwaehnen. Bis jetzt macht es aber Sinn.

Ailuros
2005-05-23, 19:48:18
Vermutlich liegt's daran, daß sie gerade dabei sind das Speicher-Interface wieder auf den Kopf zu stellen, während ihnen dabei aufgefallen ist, daß das PCB doch ganz schön lang (http://www.beyond3d.com/news/images/20050519_r520.jpg) wird. :D

Siehe oben; ich will aber erst mehr darueber hoeren bevor ich zu merkwuerdigen Schlussvolgerungen komme.

Xmas
2005-05-23, 23:50:55
Ein vielfaches von 64 Bit ist möglich, da die BGA's heutzutage je mit 64 Bit angebunden sind. XGI b.s.w. plant für eine Version des XG45 ein 192 Bit Interface.
IMO sind solche Zwischendinger aber inkonsequent.
Jetzt bin ich aber mal gespannt wo du x64 GDDR-Chips gesehen haben willst. ;)
Die "Standardbreite" bei Grafikspeicher ist 32bit, selten 16.

TheGood
2005-05-24, 02:45:27
was ist mit Crossfire gemeint ?@ Ailuros

r3ptil3
2005-05-24, 02:46:57
was ist mit Crossfire gemeint ?@ Ailuros


Crossfire ist die neue MVPU Technick von ATI, man kann zwei verschiedene Grafikkarten im Betrieb nützen (Master-Slave Prinzip).

TheGood
2005-05-24, 10:20:44
Crossfire ist die neue MVPU Technick von ATI, man kann zwei verschiedene Grafikkarten im Betrieb nützen (Master-Slave Prinzip).
ahso dann schreibt doch gleich MVPU dann weiss jeder was gmeint ist :D

Exxtreme
2005-05-24, 10:38:22
was bringt ein die gigantische füllrate, wenn der speicher nicht hinterherkommt? :rolleyes:
Speicherbandbreite wird zunehmend uninteressant. :) Selbst der NV40 ist recht bandbreitenlimitiert. Bei bilinearer Texturfilterung schafft er IIRC ca. nur 12 Pixel pro Takt obwohl er 16 Pipes hat. Bei trilinearer Filterung sieht das wiederum anders aus. Da der NV40 "nur" bilineare TMUs hat, braucht man für 1 trilinear gefiltertes Texel 2 Takte. Und da limitiert die Bandbreite nicht mehr. Wenn man anisotrope Filterung verwendet dann ist die Bandbreite auch kein Thema. Ich denke, daß es sich beim R520 ähnlich verhalten wird. Bei einfachen Filtern übelst bandbreitenlimitiert, bei komplexer Filterung wiederum nicht. Und da bei einfacher Filterung eh' schnell genug, juckt mich das ehrlich gesagt nicht. :)

Und mehr Pipes bedeuten meist auch mehr Shaderpower. Und deshalb wird die Bandbreite zunehmend uninteressant weil man mit Shadern selbst Texturen on the fly generieren kann und das sogar situationsabhängig.

robbitop
2005-05-24, 10:55:36
Jetzt bin ich aber mal gespannt wo du x64 GDDR-Chips gesehen haben willst. ;)
Die "Standardbreite" bei Grafikspeicher ist 32bit, selten 16.
32 Bit DDR sind für mich insgesamt ein Übertragungsvolumen von 64 Bit pro Takt. So what? :|

robbitop
2005-05-24, 10:58:45
Speicherbandbreite wird zunehmend uninteressant. :) Selbst der NV40 ist recht bandbreitenlimitiert. Bei bilinearer Texturfilterung schafft er IIRC ca. nur 12 Pixel pro Takt obwohl er 16 Pipes hat. Bei trilinearer Filterung sieht das wiederum anders aus. Da der NV40 "nur" bilineare TMUs hat, braucht man für 1 trilinear gefiltertes Texel 2 Takte. Und da limitiert die Bandbreite nicht mehr. Wenn man anisotrope Filterung verwendet dann ist die Bandbreite auch kein Thema. Ich denke, daß es sich beim R520 ähnlich verhalten wird. Bei einfachen Filtern übelst bandbreitenlimitiert, bei komplexer Filterung wiederum nicht. Und da bei einfacher Filterung eh' schnell genug, juckt mich das ehrlich gesagt nicht. :)

Und mehr Pipes bedeuten meist auch mehr Shaderpower. Und deshalb wird die Bandbreite zunehmend uninteressant weil man mit Shadern selbst Texturen on the fly generieren kann und das sogar situationsabhängig.

Der Grundgedanke mag ja richtig sein, und dennoch muss man irgendwoher Texturen samplen. AF braucht bsw. viele Textursamples und somit Texturbandbreite. Farbwerte und Z Werte müssen noch immer geschrieben werden. MSAA kostet noch immer wie verrückt Bandbreite. Einen Vertexcache brauchst du immernoch und was ist mit den Backbuffern. Irgendwo muss auch das herkommen. Es existiert nicht nur der Framebuffer ;)
Sicherlich geht die Tendenz zu langen Shadern und komplexer Filterung und dennoch spielt Bandbreite deswegen nicht auf einmal keine Rolle mehr.

Exxtreme
2005-05-24, 11:03:06
Der Grundgedanke mag ja richtig sein, und dennoch muss man irgendwoher Texturen samplen. AF braucht bsw. viele Textursamples und somit Texturbandbreite. Farbwerte und Z Werte müssen noch immer geschrieben werden. MSAA kostet noch immer wie verrückt Bandbreite. Einen Vertexcache brauchst du immernoch und was ist mit den Backbuffern. Irgendwo muss auch das herkommen. Es existiert nicht nur der Framebuffer ;)
Sicherlich geht die Tendenz zu langen Shadern und komplexer Filterung und dennoch spielt Bandbreite deswegen nicht auf einmal keine Rolle mehr.
Ich habe auch nicht geschrieben, daß die Bandbreite keine Rolle mehr spielt. =) Ich schrieb nur, daß sie zunehmend uninteressant wird. Bei aktuellen Games dürfte sie vollkommen ausreichen. Zukünftige Games dürften sowieso mehr auf komplexe Shader setzen, sodaß man die niedrigere Bandbreite kaschieren kann.

robbitop
2005-05-24, 11:06:27
Ich habe auch nicht geschrieben, daß die Bandbreite keine Rolle mehr spielt. =) Ich schrieb nur, daß sie zunehmend uninteressant wird. Bei aktuellen Games dürfte sie vollkommen ausreichen. Zukünftige Games dürften sowieso mehr auf komplexe Shader setzen, sodaß man die niedrigere Bandbreite kaschieren kann.
Du unterschätzt IMO aber den Zeitraum bis das so ist, wie du es darstellst.

stav0815
2005-05-24, 11:08:29
Ein vielfaches von 64 Bit ist möglich, da die BGA's heutzutage je mit 64 Bit angebunden sind. XGI b.s.w. plant für eine Version des XG45 ein 192 Bit Interface.
IMO sind solche Zwischendinger aber inkonsequent.

achja, aber dafür sündhaftteure 512Bit einzupflanshen ist nicht genauso inkonsequent?
384bit sind nur insoweit inkonsequent dass sie doch etwas mehr kosten, aber bei derzeitiger Speicherlimitierung (und stagnierenden Taktraten der BGAs) und zukünftiger (24 Pipes wollen auch ausgelastet sein sonst kann ich bei 16 bleiben...) mehr Performance bieten als andere Verbesserungen die evtl. teurer sind.

robbitop
2005-05-24, 11:12:23
achja, aber dafür sündhaftteure 512Bit einzupflanshen ist nicht genauso inkonsequent?
384bit sind nur insoweit inkonsequent dass sie doch etwas mehr kosten, aber bei derzeitiger Speicherlimitierung (und stagnierenden Taktraten der BGAs) und zukünftiger (24 Pipes wollen auch ausgelastet sein sonst kann ich bei 16 bleiben...) mehr Performance bieten als andere Verbesserungen die evtl. teurer sind.
Wenn schon, denn schon ;)

LairD
2005-05-24, 13:55:59
Was ist denn so teur,wenn man das Speicherinterface erhöht?
Sind es die Chips selber,oder hängt das mehr mit aufwändigerer Logik bzw. Verdrahtung zusammen?

Exxtreme
2005-05-24, 14:14:46
Was ist denn so teur,wenn man das Speicherinterface erhöht?
Sind es die Chips selber,oder hängt das mehr mit aufwändigerer Logik bzw. Verdrahtung zusammen?
Die Verdrahtung ist es. Die Platine wird viel komplexer und teurer in der Herstellung.

Gast
2005-05-24, 14:17:12
die werden sich das update auf 512bit für echte wgf2 chips aufheben hm

LairD
2005-05-24, 14:17:46
Die Verdrahtung ist es. Die Platine wird viel komplexer und teurer in der Herstellung.

Danke!

kann man denn davon ausgehen,das die Verdrahtung für 512 bit,auch doppelt so teuer ist,wie die für 256 bit?

Jetzt nur auf die Verdrahtung bezogen.

Edit: mbit auf bit reduziert ;)

Gast
2005-05-24, 14:23:36
kurze frage zum wgf thema,ist wgf 2 das wirkliche dx 10 ?

wie werden die weiteren stufen aussehen,gibts schon infos wie wgf 3 ausschaun wird ?
ist wgf 3 dann sowas wie dx 9.1 oder wie kann man sich das vorstellen

Exxtreme
2005-05-24, 14:25:13
Danke!

kann man denn davon ausgehen,das die Verdrahtung für 512 mbit,auch doppelt so teuer ist,wie die für 256 mbit?

Jetzt nur auf die Verdrahtung bezogen.
IIRC steigt die Komplexität um den Faktor 4. Denn es sind ja nicht nur die reinen Datenleitungen, die zusätzlich reinkommen. Es kommen auch viele Masseleitungen, die Platine braucht mehr Layer etc. Was das aber im Endeffekt (mehr) kostet, kann ich nicht sagen.

r3ptil3
2005-05-24, 14:34:06
kurze frage zum wgf thema,ist wgf 2 das wirkliche dx 10 ?

wie werden die weiteren stufen aussehen,gibts schon infos wie wgf 3 ausschaun wird ?
ist wgf 3 dann sowas wie dx 9.1 oder wie kann man sich das vorstellen


Nur mal so, WGF2.0 hat einen zusammenhang mit Shader Model 4.0 und von dem sind wir noch weit entfernt da ATI erst mit seiner jetztigen neuen Grafikkartenpalette SM3.0 einführen wird. Direct X 9.0c ist D.X9.1. Man findet kaum infos bezüglich WGF2.0 und schon gar nicht erst über WGF3.0.
Und ja WGF (windows graphic foundation) ist der Nachfolger von Direct X.
Direct X 9 = WGF1.0

LairD
2005-05-24, 14:34:54
Danke nochmal Exxtreme!

Viell. kann ja jemand anderes die Frage nach den Mehrkosten beantworten.
Würde mich sehr interessieren.
Denn wenn die Kosten um den faktor 2 steigen,lohnt es sich,meiner meinung nach,gar nicht,auf 512 bit umzusteigen,da die Leistung durch 512 bit nicht um Faktor2 steigt.

Zum edit gezwungen von coda ;)
Aber mbit ist auch schon en bissi viel ;D

Coda
2005-05-24, 14:36:45
Nur mal so, WGF2.0 hat einen zusammenhang mit Shader Model 4.0 und von dem sind wir noch weit entfernt da ATI erst mit seiner jetztigen neuen Grafikkartenpalette SM3.0 einführen wird.Es gibt keine Shadermodelle mehr in WGF 2. Alle Karten müssen das gleiche können.
Direct X 9.0c ist D.X9.1Nein.
Man findet kaum infos bezüglich WGF2.0 und schon gar nicht erst über WGF3.0.WGF 3.0 ist in sehr weiter Ferne.
Und ja WGF (windows graphic foundation) ist der Thronfolger von Direct XNicht direkt, WGF ist keine reine Spiele API.

Denn wenn die Kosten um den faktor 2 steigen,lohnt es sich,meiner meinung nach,gar nicht,auf 512 mbit umzusteigen,da die Leistung durch 512 mbit nicht um Faktor2 steigt.512 bit, nicht mbit. Du hast doch keine Millionen Leitungen auf der Grafikkarte X-D

Und die Leistung würde sehr wohl nahezu um das doppelte steigen, weil man derzeit schon extrem durch das 256 bit Interface limitiert ist. Es lohnt sich aber auch so nicht. Die PCBs der Grafikkarten sind schon teuer genug.

LairD
2005-05-24, 14:45:20
512 bit, nicht mbit. Du hast doch keine Millionen Leitungen auf der Grafikkarte X-D

Und die Leistung würde sehr wohl nahezu um das doppelte steigen, weil man derzeit schon extrem durch das 256 bit Interface limitiert ist. Es lohnt sich aber auch so nicht. Die PCBs der Grafikkarten sind schon teuer genug.

Hab die mbit verschwinden lassen. *schäm*

Würde das Interface auch limitieren,wenn es doppelt so schnelle GDDR3 Chips geben würde?

r3ptil3
2005-05-24, 14:46:55
Es gibt keine Shadermodelle mehr in WGF 2. Alle Karten müssen das gleiche können.
Nein.
WGF 3.0 ist in sehr weiter Ferne.
Nicht direkt, WGF ist keine reine Spiele API.

512 bit, nicht mbit. Du hast doch keine Millionen Leitungen auf der Grafikkarte X-D

Und die Leistung würde sehr wohl nahezu um das doppelte steigen, weil man derzeit schon extrem durch das 256 bit Interface limitiert ist. Es lohnt sich aber auch so nicht. Die PCBs der Grafikkarten sind schon teuer genug.

1. Auch wen alle Grafikkarten das gleiche können müssen, kann Shader Model nicht einfach weggezaubert werden
2. Manche Spielehersteller bezeichnen Direct X 9.0c als 9.1
3. Ja und was habe ich behauptet?
4. Ich meine auch nur von Windows, da ist WGF sicherlich der Nachfolger von Direct X.

Coda
2005-05-24, 14:47:43
1. Auch wen alle Grafikkarten das gleiche können müssen Shader Model kann nicht weg zaubern.Doch kann man, weil es keine Caps mehr gibt. Es gibt nur noch Shader, aber keine Versionen dazu.

2. Manche Spielehersteller bezeichnen Direct X 9.0c als 9.1Wer? An der API hat sich rein gar nichts geändert, es war nur ein minor Runtime upgrade.

Exxtreme
2005-05-24, 14:51:08
Danke nochmal Exxtreme!

Viell. kann ja jemand anderes die Frage nach den Mehrkosten beantworten.
Würde mich sehr interessieren.
Denn wenn die Kosten um den faktor 2 steigen,lohnt es sich,meiner meinung nach,gar nicht,auf 512 bit umzusteigen,da die Leistung durch 512 bit nicht um Faktor2 steigt.
Die Frage nach den Kosten kann dir fast nur ein Mitarbeiter beantworten, der in so einer Fabrik arbeitet. Man darf nämlich nicht nur die Datenleitungen im Auge behalten. Lüfter, VGA-Anschlüsse etc. werden nicht teurer. Von daher gehe ich davon aus, daß eine 512-Bit GraKa nicht das Doppelte kostet als wie eine mit 256 Bit.

Gast
2005-05-24, 20:03:18
juten tach

ein wichtiger typ von nv hatte doch gesagt sie stellen den g70 auf der e3 vor,kommt jetzt auf der computex ?

Quasar
2005-05-24, 21:03:53
Wann ist die Computex? *gg*

dildo4u
2005-05-24, 21:45:32
Wann ist die Computex? *gg*
31.5

Gast
2005-05-24, 23:07:34
Und die Leistung würde sehr wohl nahezu um das doppelte steigen, weil man derzeit schon extrem durch das 256 bit Interface limitiert ist. Es lohnt sich aber auch so nicht. Die PCBs der Grafikkarten sind schon teuer genug.
Wirklich? Wie kommt es, dass ich dann heute für eine neue 256bit Karte für einen Freund 110€ bezahlt habe? Also so teuer kann das PCB nun wirklich nicht sein. Und im Highendbereich jenseits der 400€ oder gar 500€ sollte sowas schon machbar sein, wenn die Hersteller wollen.


Konsolenfreund

robbitop
2005-05-24, 23:10:59
Wirklich? Wie kommt es, dass ich dann heute für eine neue 256bit Karte für einen Freund 110€ bezahlt habe? Also so teuer kann das PCB nun wirklich nicht sein. Und im Highendbereich jenseits der 400€ oder gar 500€ sollte sowas schon machbar sein, wenn die Hersteller wollen.


Konsolenfreund

Das sind Auslaufmodelle. Du kannst auch heute einen Porsche für unter 10.000EUR kaufen. Als es gerade ein Spitzenmodell war, kostete er das zehn fache.
Die müssen halt ihre Lager zu dem Marktpreis abverkaufen.

SKYNET
2005-05-24, 23:12:43
Das sind Auslaufmodelle. Du kannst auch heute einen Porsche für unter 10.000EUR kaufen. Als es gerade ein Spitzenmodell war, kostete er das zehn fache.
Die müssen halt ihre Lager zu dem Marktpreis abverkaufen.


naja, 6800LE?
kostete (fast) immer unter 200€
dann sollte wohl machbar sein bei ner 400-550€ karte nen 512bit interface zu zaubern ohne das es großartig teurer wird. =)

Coda
2005-05-24, 23:14:53
Man bekommt so viellagige PCBs womöglich gar nicht in Serienproduktion...

Was glaubt ihr warum die Mainstream Karten immer noch 128bit haben?

Adam D.
2005-05-24, 23:19:11
Nach dieser Quelle (http://www.penstarsys.com/editor/company/nvidia/g70_spec/index.html) (und sie bezieht sich Marv Burkett, CFO of NVIDIA), wird der G70 im 90nm-Prozess gefertigt ("At the J.P. Morgan conference, Marv Burkett clearly stated that the first 90 nm part will be introduced this quarter (which definitely cannot be characterized as "Fall"), and that all "large" products will be 90 nm from here on out. This suggests, in very strong language, that the G70 will be 90 nm (as it has not been released as of yet, and it is a large part))."

mapel110
2005-05-24, 23:20:10
Das sind Auslaufmodelle. Du kannst auch heute einen Porsche für unter 10.000EUR kaufen. Als es gerade ein Spitzenmodell war, kostete er das zehn fache.
Die müssen halt ihre Lager zu dem Marktpreis abverkaufen.
Ich sehe das ähnlich wie Kf, die kommenden Mid Range GPUs wird man kaum mit 128bit Interface befeuern können. Und wenn 256bit für ~150-200 € machbar sind, dann sind 512bit für 500-550 € auch machbar.

IMO liegts nur an den Grakaherstellern. Wenn sie Bedarf sehen, wird es kommen.

Aber nvidia sagt sich wohl "uns reicht die Bandbreitensteigerung von 550 auf 700 noch, wir haben ja nicht so viel Füllrate"
Und ATi sagt sich wohl "wir sind ohnehin nicht Stolz auf R520, wir heben uns den Boost durch das neue Interface für R600 auf."
So sehe ich das derzeit. :)

Was glaubt ihr warum die Mainstream Karten immer noch 128bit haben?
Das muss sich ja auf jedenfall ändern mit der neuen Generation, sonst bekommt das Mid range segment praktisch keine zusätzliche Geschwindigkeit.

Gast
2005-05-24, 23:22:32
Das sind Auslaufmodelle. Du kannst auch heute einen Porsche für unter 10.000EUR kaufen. Als es gerade ein Spitzenmodell war, kostete er das zehn fache.
Die müssen halt ihre Lager zu dem Marktpreis abverkaufen.
Jup, da hast Du allerdings recht.

Kf

Coda
2005-05-24, 23:24:04
Ich sehe das ähnlich wie Kf, die kommenden Mid Range GPUs wird man kaum mit 128bit Interface befeuern können. Und wenn 256bit für ~150-200 € machbar sind, dann sind 512bit für 500-550 € auch machbar.Um was wetten wir? Selbst die neuen Konsolen verwenden nur 128bit...

Das muss sich ja auf jedenfall ändern mit der neuen Generation, sonst bekommt das Mid range segment praktisch keine zusätzliche Geschwindigkeit.Takt? Ist doch beim High End auch so.

Gast
2005-05-24, 23:27:20
ups, jetzt sind ja wieder einige dafür. Naja, wie auch immer. Ich fänds toll, wenn sie die Speicheranbindung endlich verbreitern im Highendbereich. Macht doch kein Spaß, wenn alles durch 700Mhz-256bit ausgebremst wird. Und dass man sowas heute schon in Serie herstellen kann, da bin ich mir sicher. Ich denke man will das einfach möglichst spät tun, um den Gewinn mit Highendkarten wenigstens mal für eine Generation zu steigern.


Kf

Coda
2005-05-24, 23:31:59
Sollen sie halt endlich TBRs bauen, dann wäre das Problem gar nicht existent.

Gast
2005-05-24, 23:41:18
Sollen sie halt endlich TBRs bauen, dann wäre das Problem gar nicht existent.
Sag mir das nicht. ;) Ich hoffe so sehr auf einen neuen muskulösen SeriesX oder darauf, dass sich ATI oder nVidia doch mal sowas traut.

Kommt man in der Zukunft eigentlich an einem TBR vorbei? Ich meine das Bandbreitenproblem wird ja eher noch wachsen.


Kf

dildo4u
2005-05-24, 23:42:46
Sag mir das nicht. ;) Ich hoffe so sehr auf einen neuen muskulösen SeriesX oder darauf, dass sich ATI oder nVidia doch mal sowas traut.

Kommt man in der Zukunft eigentlich an einem TBR vorbei? Ich meine das Bandbreitenproblem wird ja eher noch wachsen.


Kf
XDR Speicher Läuft in der PS3 nästes jahr mit 3.2Ghz.

Gast
2005-05-24, 23:48:24
XDR Speicher Läuft in der PS3 nästes jahr mit 3.2Ghz.
Das ist beindruckend für den CPU Speicher, aber 25.6GB/s lösen doch nicht die Bandbreitenprobleme beim PC Grafikkarten RAM.

Kf

Relic
2005-05-25, 00:05:03
Sollen sie halt endlich TBRs bauen, dann wäre das Problem gar nicht existent.

Das wär wünschenswert, aber ihre kompletten designs aufzugeben und quasi ein von grund auf neu entwickeltes design auf den markt zu bringen, da wird es eher schwierig freunde bei nvidia oder ati für einen derart riskanten plan zu finden.

Ailuros
2005-05-25, 01:09:31
Kommt man in der Zukunft eigentlich an einem TBR vorbei? Ich meine das Bandbreitenproblem wird ja eher noch wachsen.


Kf

Natuerlich kann man an TBDRs vorbeikommen wenn es zur Bandbreite kommt; mit dem Framebuffer-Verbrauch koennte es irgendwann mal hapern, wenn man zu viel reinstecken moechte.

Die erste Frage ist eigentlich warum es bis jetzt zu keinem neuen Textur-Kompressionsstandard kam. Fast jedes zweite Jahr verdoppelt sich die Speichermenge auf GPUs.

Ailuros
2005-05-25, 01:26:44
Das wär wünschenswert, aber ihre kompletten designs aufzugeben und quasi ein von grund auf neu entwickeltes design auf den markt zu bringen, da wird es eher schwierig freunde bei nvidia oder ati für einen derart riskanten plan zu finden.

IMHO haben sich die Schwellen zwischen TBDRs und IMRs zu sehr genaehert in den letzten Jahren. Ein heutiger "immediate mode renderer" wird auf keinen Fall alles so rendern wie es reinfliesst und "verzoegert" wird immer etwas. Im einen Fall ist eben die Hardware dafuer optimiert und im anderen Fall wird es in der Mehrzahl durch die Software ausgefuehrt.

Andersrum wird auch ein heutiger TBDR nicht darauf warten bis ein ganzer Frame gespeichert ist, sondern eher Stueck fuer Stueck.

Zwar ist die Wahrscheinlichkeit momentan tatsaechlich klein dass sich ATI/NVIDIA zumindest bei den ersten WGF2.0 GPUs fuer einen reinen TBDR entscheiden koennten, aber bis zu 100% etwas ausschliessen fuer die weniger vorsehbare Zukunft wuerde ich eigentlich nicht.

Gast
2005-05-25, 01:29:28
Die erste Frage ist eigentlich warum es bis jetzt zu keinem neuen Textur-Kompressionsstandard kam. Fast jedes zweite Jahr verdoppelt sich die Speichermenge auf GPUs.
Ack. Die Entwicklung habe ich mir auch anders vorgestellt.

Kf

Ailuros
2005-05-25, 01:32:51
Ack. Die Entwicklung habe ich mir auch anders vorgestellt.

Kf

Ich hatte mal gehoert dass bevor WGF2.0 festgelegt wurde, mehrere Firmen versuchten Microsoft zu einem neuen TC-Standard zu ueberreden. Wenn die damaligen Infos stimmen, dann wollte Microsoft nur einen Standard akzeptieren der eine um einiges hoehere Kompressions-rate liefert als zeitiges TC.

Gast
2005-05-25, 01:55:52
Ich hatte mal gehoert dass bevor WGF2.0 festgelegt wurde, mehrere Firmen versuchten Microsoft zu einem neuen TC-Standard zu ueberreden. Wenn die damaligen Infos stimmen, dann wollte Microsoft nur einen Standard akzeptieren der eine um einiges hoehere Kompressions-rate liefert als zeitiges TC.
Wenn die Standards zu oft ergänzt werden, ist das ja auch nicht gut für das Softwaredevelopment. Aber das mit WGF2.0 garnichts neues kommen soll nach all den Jahren, ist schon enttäuschend. Kostet das den IHVs zuviele Tranistoren oder woran liegt der Unwille?

Kf

Ailuros
2005-05-25, 02:13:58
Wenn die Standards zu oft ergänzt werden, ist das ja auch nicht gut für das Softwaredevelopment. Aber das mit WGF2.0 garnichts neues kommen soll nach all den Jahren, ist schon enttäuschend. Kostet das den IHVs zuviele Tranistoren oder woran liegt der Unwille?

Kf

Transistoren duerften kein Problem sein; ich glaube M$ wollte etwas in der Naehe von 16:1 (oder weniger? ist schon so lange her...), was aber wohl auch nicht erreichbar ist afaik.

Zugegeben irgendwann in der Zukunft werden dann Texturen durch math-tables von Shadern geschleust, aber bis dahin wuerde eine effizientere Textur-kompression durchaus nicht schaden.

DXTC/S3TC haben wir schon seit einer Ewigkeit; mit den Aenderungen in WGF2.0 haette man vielleicht doch etwas neues einfuehren koennen. Vorraussetzung ist natuerlich dass erstmal die Bildqualitaet nicht zu stark beinflusst wird und dass die HW-Implementation nicht allzu umstaendlich ist.

Gast
2005-05-25, 02:47:43
Nach dieser Quelle (http://www.penstarsys.com/editor/company/nvidia/g70_spec/index.html) (und sie bezieht sich Marv Burkett, CFO of NVIDIA), wird der G70 im 90nm-Prozess gefertigt ("At the J.P. Morgan conference, Marv Burkett clearly stated that the first 90 nm part will be introduced this quarter (which definitely cannot be characterized as "Fall"), and that all "large" products will be 90 nm from here on out. This suggests, in very strong language, that the G70 will be 90 nm (as it has not been released as of yet, and it is a large part))."

Yeah, nvidia zieht nach! Sie werden jetzt ersteinmal jedem erzählen, das sie den g70 als 90nm prduktion rausbringen werden, quasi durch die blume versprochen*g*, aber in wirklichkeit kommen erst die 110nm g70 versionen auf dem markt, natürlich kräftig aufgewertet, da 90nm und longhorn ready*g* durch die köpfe kreist, aber das der g70 mit 110nm immer noch nicht longhornready ist, macht das auch dem lieben user nix*g* und so kauft er fröhlich ein, was für ein sparschwein :)

Ailuros
2005-05-25, 03:48:18
Yeah, nvidia zieht nach! Sie werden jetzt ersteinmal jedem erzählen, das sie den g70 als 90nm prduktion rausbringen werden, quasi durch die blume versprochen*g*, aber in wirklichkeit kommen erst die 110nm g70 versionen auf dem markt, natürlich kräftig aufgewertet, da 90nm und longhorn ready*g* durch die köpfe kreist, aber das der g70 mit 110nm immer noch nicht longhornready ist, macht das auch dem lieben user nix*g* und so kauft er fröhlich ein, was für ein sparschwein :)

Alle GPUs/IGPs die dx9.0 Komplianz behaupten koennen sind "LONGHORN-ready".

Das Marketing-Geblubber mit "WGF1.0-Komplianz" ist bei weitem nicht nur auf einen IHV begrenzt was die absehbare Zukunft betrifft, das aendert aber auch nichts am obrigen, da WGF1.0= DX9.0L.

Josh hat sich leider verzettelt mit seiner Spekulation; da er aber erwaehnt dass es sich um Spekulationen handelt, ist es nicht unbedingt ein Verbrechen. Alle koennen eventuell mehr oder weniger auf einen falschen Pfad kommen beim spekulieren; so lange man es aber nicht als Fakten weiterreicht gibt es auch nicht viel dagegen einzuwenden.

Der Fertigungsprozess-Koller ist uebrigens total sinnlos; im Fall von G70 wuerde 90nm eben hoehere Takraten erlauben. Ja und? Gibt es denn ueberhaupt momentan Speicher die mit ihrer Bandbreite mehr als 10 GPixels/sec Fuellrate decken koennen?

seahawk
2005-05-25, 07:38:20
Yeah, nvidia zieht nach! Sie werden jetzt ersteinmal jedem erzählen, das sie den g70 als 90nm prduktion rausbringen werden, quasi durch die blume versprochen*g*, aber in wirklichkeit kommen erst die 110nm g70 versionen auf dem markt, natürlich kräftig aufgewertet, da 90nm und longhorn ready*g* durch die köpfe kreist, aber das der g70 mit 110nm immer noch nicht longhornready ist, macht das auch dem lieben user nix*g* und so kauft er fröhlich ein, was für ein sparschwein :)

Selbst ne FX5200 ist Longhorn ready. Und was der Prozess damit zu tun hat versteht wahscheinlich auch keiner.

PS. Imho erklärt das die momentan fehlende Ultra Version des G70. NV scheint imho dieses mal ihre Pläne hauptsächlich an der Verfügbarkeit schnellerer Speicherchips ausgerichtet zu haben. Plötzlich kriegt eigentlich alles einen Sinn bei NV.

Quasar
2005-05-25, 08:06:21
Der Fertigungsprozess-Koller ist uebrigens total sinnlos; im Fall von G70 wuerde 90nm eben hoehere Takraten erlauben. Ja und? Gibt es denn ueberhaupt momentan Speicher die mit ihrer Bandbreite mehr als 10 GPixels/sec Fuellrate decken koennen?
Nein, aber es gibt unoptimiertes AF, richtiges, trilineares Filtering usw.

Ailuros
2005-05-25, 08:14:27
PS. Imho erklärt das die momentan fehlende Ultra Version des G70. NV scheint imho dieses mal ihre Pläne hauptsächlich an der Verfügbarkeit schnellerer Speicherchips ausgerichtet zu haben. Plötzlich kriegt eigentlich alles einen Sinn bei NV.

Eine Wette wuerde ich nicht unbedingt darueber eingehen an Deiner Stelle....

http://www.beyond3d.com/forum/viewtopic.php?t=22047&start=440&sid=7f7acf752c985f14d702c5c17f6cb780

Ailuros
2005-05-25, 08:17:31
Nein, aber es gibt unoptimiertes AF, richtiges, trilineares Filtering usw.

Was hat das jetzt mit dem Herstellungsprozess zu tun und wer garantiert mir genau dass dieses besser wird auf einer zukuenftigen 90nm GPU@550MHz?

seahawk
2005-05-25, 08:33:12
Eine Wette wuerde ich nicht unbedingt darueber eingehen an Deiner Stelle....

http://www.beyond3d.com/forum/viewtopic.php?t=22047&start=440&sid=7f7acf752c985f14d702c5c17f6cb780

So wie ich Dich bei B3D verstehe, kommen wir zu der gleichen Folgerung. Ein höher taktender G70 macht keinen Sinn, weil er sowieso bandbreitenlimitiert wäre.

Daher hat sich NV entschieden eine sichere Lösung anzustreben.

Quasar
2005-05-25, 08:33:18
Ailuros, du sagst doch selbst, daß man die Bandbreite für mehr als ~10GPix momentan nicht haben würde (bei 256 Bit breitem Interface).
Ich habe nur Verwendungsmöglichkeiten für Füllrate mit wenig Bandbreitenaufwand genannt.

Ailuros
2005-05-25, 08:42:54
Ailuros, du sagst doch selbst, daß man die Bandbreite für mehr als ~10GPix momentan nicht haben würde (bei 256 Bit breitem Interface).
Ich habe nur Verwendungsmöglichkeiten für Füllrate mit wenig Bandbreitenaufwand genannt.

Winkel-abhaengiges AF sieht mit bei beiden IHVs leider nicht mehr nach einem kurzsichtigen Plan aus. Nur vorruebergehend das Zeug loswerden und dann spaeter nochmal damit ankommen waere eher eine Blamage. Ausserdem aendern sich Algorithmen bei refreshes eher selten und schon gar nicht bei NVIDIA da sie IMHO in letzter Zeit doch eher zu extremen Sparmassnahmen gekommen sind und nein 110nm ist kein reiner Zufall. Deren Gewinn ist eben so hoch weil man die Entwicklungskosten radikal reduziert hat.

Falls Du mit besserem trilinear vielleicht tri-TMUs gemeint haben solltest, dann brauchen diese auch wieder etwas mehr Bandbreite.

Zu guter letzt: angenommen der kommende G70 waere auf 90nm mit 550MHz, frage ich mich ernsthaft was sie dann noch machen koennten bis zur WGF2.0 GPU. Mehr als eine recht miese Leistungssteigerung fuer einen weiteren refresh um 2006 zu decken kann ich mir nicht vorstellen.

Ailuros
2005-05-25, 08:46:57
So wie ich Dich bei B3D kommen wir zu der gleichen Folgerung. Ein höher taktender G70 macht keinen Sinn, weil er sowieso bandbreitenlimitiert wäre.

Daher hat sich NV entschieden eine sichere Lösung anzustreben.

Dann muss ich mich entschuldigen, denn ich hab Deine Aussage gerade umgekehrt verstanden. GeForce 7800 GTX wird hoechstwahrscheinlich die "Ultra" sein fuer jetzt; wir wissen ja immer noch nicht genau wofuer "G80" steht.

Ganz nebenbei sie koennten dieses "Ultra"-Zeug eigentlich auch loswerden. Es klang mir schon immer bekloppt.

seahawk
2005-05-25, 08:53:24
Dann muss ich mich entschuldigen, denn ich hab Deine Aussage gerade umgekehrt verstanden. GeForce 7800 GTX wird hoechstwahrscheinlich die "Ultra" sein fuer jetzt; wir wissen ja immer noch nicht genau wofuer "G80" steht.

Ganz nebenbei sie koennten dieses "Ultra"-Zeug eigentlich auch loswerden. Es klang mir schon immer bekloppt.

Ich meinte, dass NV sich imho den verfügbaren und preislich erträglichen Speicher angesehen hat und sich dann entschied, dass sie bei einem 24Pipe G70 in 110nm eine optimale Balance zwischen Geschwindigkeit, Kosten und Risiko erreichen.

Die Option auf einen Shrink/Update auf 90nm gibt ihnen Spielraum um ggf. auf einen sehr starken R520/580 zu antworten. So wie ich es höre ist es witzig, dass beide IHVs diesesmal genau umgekehrt vorgehen wollten. ;)

Ailuros
2005-05-25, 09:01:33
Ich meinte, dass NV sich imho den verfügbaren und preislich erträglichen Speicher angesehen hat und sich dann entschied, dass sie bei einem 24Pipe G70 in 110nm eine optimale Balance zwischen Geschwindigkeit, Kosten und Risiko erreichen.

Risiko und Unkosten waren IMO die hauptsaechlichen Gruende. Man haette ja auch anfangs einen 90nm@430MHz 6 quad chip bauen koennen als Beispiel und um einiges Stromverbrauch an den boards sparen.

Die Option auf einen Shrink/Update auf 90nm gibt ihnen Spielraum um ggf. auf einen sehr starken R520/580 zu antworten. So wie ich es höre ist es witzig, dass beide IHVs diesesmal genau umgekehrt vorgehen wollten. ;)

Die Antwort auf R520 nach allen Indizien ist schon G70@430MHz. So mies duerfte der G70 gar nicht sein; Sweeney lacht sich sicher wieder krank mit seiner albernen Antwort ueber G70, aber wenn er davon enttauescht waere im Vergleich zu R520 haette er eher die Klappe gehalten.

R580 wird hoechstwahrscheinlich mit GDDR4 kommen und ein paar kleinen Verbesserungen; da macht ein 13+GPixel/G70 auch tatsaechlich mehr Sinn.

seahawk
2005-05-25, 09:13:57
Ich habe mal vorsichtigerweise R520/580 geschrieben, weil ich mir zunehmend unsicher bin, wann ATI den R520 liefern wird. Grundsätzlich ist der R580 logischwerweise der Gegner des G80.

Ich denke, aber dass beim G70 auch der verfügbare Speicher eine Hauptrolle spielte. Eine höhere Füllrate wäre bei dem verfügbaren Speicher größtenteils verpufft. Besonders, wenn man an die typischen Benchmarksettings denkt. (nimeand testet heute leider Qulaity-AF ohne hohe AA Settings)

Exxtreme
2005-05-25, 09:39:02
Winkel-abhaengiges AF sieht mit bei beiden IHVs leider nicht mehr nach einem kurzsichtigen Plan aus. Nur vorruebergehend das Zeug loswerden und dann spaeter nochmal damit ankommen waere eher eine Blamage. Ausserdem aendern sich Algorithmen bei refreshes eher selten und schon gar nicht bei NVIDIA da sie IMHO in letzter Zeit doch eher zu extremen Sparmassnahmen gekommen sind und nein 110nm ist kein reiner Zufall. Deren Gewinn ist eben so hoch weil man die Entwicklungskosten radikal reduziert hat.

Naja, ich hoffe, die IHVs werden wieder vernünftig und bieten auch echte Qualität an. Und wenn die Bandbreite bei zukünftigen Produkten wirkich limitiert dann wird winkelabhängiges AF wenig Zusatzperformance bringen.
Falls Du mit besserem trilinear vielleicht tri-TMUs gemeint haben solltest, dann brauchen diese auch wieder etwas mehr Bandbreite.

Die Bandbreite kann nicht mal bilineare TMUs auslasten. Da würden Tri-TMUs wenig bringen und nur Transistoren kosten. Und da wird halt gespart.
Zu guter letzt: angenommen der kommende G70 waere auf 90nm mit 550MHz, frage ich mich ernsthaft was sie dann noch machen koennten bis zur WGF2.0 GPU. Mehr als eine recht miese Leistungssteigerung fuer einen weiteren refresh um 2006 zu decken kann ich mir nicht vorstellen.
Also ich rechne nicht damit, daß man zum Erscheinen von Longhorn WGF2.0-konforme Grafikkarten finden wird. Und selbst wenn, die Spiele werden trotzdem noch mindestens ein Jahr auf sich warten lassen. Deshalb sehe ich persönlich keine Eile.

Quasar
2005-05-25, 09:39:28
Winkel-abhaengiges AF sieht mit bei beiden IHVs leider nicht mehr nach einem kurzsichtigen Plan aus. Nur vorruebergehend das Zeug loswerden und dann spaeter nochmal damit ankommen waere eher eine Blamage. Ausserdem aendern sich Algorithmen bei refreshes eher selten und schon gar nicht bei NVIDIA da sie IMHO in letzter Zeit doch eher zu extremen Sparmassnahmen gekommen sind und nein 110nm ist kein reiner Zufall. Deren Gewinn ist eben so hoch weil man die Entwicklungskosten radikal reduziert hat.

Falls Du mit besserem trilinear vielleicht tri-TMUs gemeint haben solltest, dann brauchen diese auch wieder etwas mehr Bandbreite.

Zu guter letzt: angenommen der kommende G70 waere auf 90nm mit 550MHz, frage ich mich ernsthaft was sie dann noch machen koennten bis zur WGF2.0 GPU. Mehr als eine recht miese Leistungssteigerung fuer einen weiteren refresh um 2006 zu decken kann ich mir nicht vorstellen.
Um die "trilineare Optimierung" abzuschalten, braucht es kein Redesign - das ist ganz einfach und für viele Spiele sogar dem User schon zugänglich.
Das AF dürfte, wenn ich mir die unterschiedlichen, möglichen Muster so anschaue, auch programmierbarer sein, als es momentan zugänglich ist.

Natürlich, in der aktuellen Situation braucht man jedes Fitzelchen an Leistung, was man irgendwoher bekommen kann, aber wenn der Refresh Part statt, sagen wir 24 Pixel aufgrund der Bandbreitenlimitierung nur max. 15 raushauen kann (die ja auch nicht immer möglich sind), dann kann man auch auf konstante 12 runtergehen und dafür ordentliches Trilinear anbieten.

robbitop
2005-05-25, 10:12:53
Ailuros, du sagst doch selbst, daß man die Bandbreite für mehr als ~10GPix momentan nicht haben würde (bei 256 Bit breitem Interface).
Ich habe nur Verwendungsmöglichkeiten für Füllrate mit wenig Bandbreitenaufwand genannt.
Füllrate kostet aber auch immer Bandbreite. Was meinst du wo die Samples für das AF herkommen? Aus dem Texturspeicher und der liegt nunmal im VRAM. Jedes 16x triAF gefilterte Pixel hat 128 Samples a 32 Bit. Das sind 4096 Bit an Bandbreite. Allerdings werden nur sehr wenige Pixel so gefiltert (AF war ja schon immer Adaptiv). Das verteilt sich natürlich auf 32 Takte.
Mit den ganzen Optimierungen sparen NV und ATI nicht nur Füllrate sondern eben auch Bandbreite. Und das scheint immer vergessen zu werden.


@Mapel

eine 6800LE ist nunmal recycling. Die Dinger haben zu Anfang ~250 EUR kekostet. Da war dann aber auch noch Marge dabei. Nun gehen die für 140EUR raus, da der Markt es so will. Marge wird da jetzt eigentlich kaum oder gar nicht mehr drauf sein (und man verwendet wirklich schon Billigplatinen, Billigram, Billigkomponenten und recycling GPUs). Es geht eben vermutlich nur noch darum, die Lager auszuräumen.
8 Pipelines ist Midrange und wird es wohl zur nächsten Generation auch bleiben. Das bekommt man ganz gut mit 128 Bit DDR befeuert solange der Takt akzeptabel ist. Die Konsolen zeigen, dass guter GDDR3 mit 128 Bit günstiger ist als billiger DDR1 mit 256 Bit.

Botcruscher
2005-05-25, 10:21:15
Wenn ich mir die Bandbreitenlimietierung anschaue giebt es eigentlich nur 3 Lösungen:

1. Alles bleibt wie es ist. Die Leistung steigt um 15 bis 50% je nach Situation
2. Irgendwie holt man aus dem bestehenden Interface mehr Leistung
3. Das Speicherinterface wird auf 384 oder 512 Bit verbreitert

Irgendwie glaube ich nicht das man massiv die Füllrate erhöht und die Bandbreite nur minimal steigt. Bei einer 600€ Karte sollte es doch woll möglich sei.

Quasar
2005-05-25, 10:27:38
Füllrate kostet aber auch immer Bandbreite. Was meinst du wo die Samples für das AF herkommen? [...]

Oh, gut daß du das sagst, ich dachte, die Textursamples werden auf den Servern der IHVs vorberechnet und dann über das Internet direkt in die GPU-Caches nachgeladen.

"Ich habe nur Verwendungsmöglichkeiten für Füllrate mit wenig Bandbreitenaufwand genannt."
:rolleyes:

edit:
BTW, hast du in deiner Belehrung vergessen, die Caches einzurechnen und die Latenzen von TMU und RAM.

Exxtreme
2005-05-25, 10:28:43
Füllrate kostet aber auch immer Bandbreite. Was meinst du wo die Samples für das AF herkommen? Aus dem Texturspeicher und der liegt nunmal im VRAM. Jedes 16x triAF gefilterte Pixel hat 128 Samples a 32 Bit. Das sind 4096 Bit an Bandbreite. Allerdings werden nur sehr wenige Pixel so gefiltert (AF war ja schon immer Adaptiv). Das verteilt sich natürlich auf 32 Takte.
Mit den ganzen Optimierungen sparen NV und ATI nicht nur Füllrate sondern eben auch Bandbreite. Und das scheint immer vergessen zu werden.

Wirklich? Ich wusste gar nicht, daß die aktuellen Chips wirklich Virtual Texturing beherrschen.

seahawk
2005-05-25, 10:28:56
Wenn ich mir die Bandbreitenlimietierung anschaue giebt es eigentlich nur 3 Lösungen:

1. Alles bleibt wie es ist. Die Leistung steigt um 15 bis 50% je nach Situation
2. Irgendwie holt man aus dem bestehenden Interface mehr Leistung
3. Das Speicherinterface wird auf 384 oder 512 Bit verbreitert

Irgendwie glaube ich nicht das man massiv die Füllrate erhöht und die Bandbreite nur minimal steigt. Bei einer 600€ Karte sollte es doch woll möglich sei.

Zwischen möglich und sinnvoll liegen Welten.

Erstmal handelt es sich bei beiden IHNVs um Redreshchips, da ist eine völlige Umstellung der Speicheranbindung unnötig aufwendig. Zweitens werden sich beide wohl einen dicken Leistungssprung für ihre WGF2.0 Produkte aufheben wollen. Diese werden imho sogar schon knapp vor Longhorn im Laden liegen.

Drittens ist es eine Frage der Notwendigkeit Solange der Kunde willig von NV45 zu NV70 wechselt (oder von R480 zu R520) solange müssen sie keine größeren Schritte machen.

Ailuros
2005-05-25, 10:39:52
Um die "trilineare Optimierung" abzuschalten, braucht es kein Redesign - das ist ganz einfach und für viele Spiele sogar dem User schon zugänglich.

Gegen "brilinear" hab ich eigentlich ziemlich wenig einzuwenden, ganz im Gegenteil zur Winkel-abhaengigkeit und TS-Optimierungen.

Das AF dürfte, wenn ich mir die unterschiedlichen, möglichen Muster so anschaue, auch programmierbarer sein, als es momentan zugänglich ist.

Dann frage ich mich aber allen ernstes warum LOD mit AF so verpatzt war am Anfang, es etliche Monate daeuerte bis man zu der "Klammer" kam und diese immer noch nicht das Problem bis zu 100% zu beseitigen scheint. Mit einem flexiblen und programmierbaren Algorithmus duerfte so was eigentlich nicht passieren.

Natürlich, in der aktuellen Situation braucht man jedes Fitzelchen an Leistung, was man irgendwoher bekommen kann, aber wenn der Refresh Part statt, sagen wir 24 Pixel aufgrund der Bandbreitenlimitierung nur max. 15 raushauen kann (die ja auch nicht immer möglich sind), dann kann man auch auf konstante 12 runtergehen und dafür ordentliches Trilinear anbieten.

ROFL wenn ich mir die Anzahl der Pixel die auf NV40 moeglich sind mit allem drum und dran uebedenke, wuerde ich sagen dass G70 wohl selbst mit 44+GB Bandbreite gerade noch 12 erreichen werden wird. Falls die Specs jetzt keinen Tippfehler hatten, dann eben nur 38GB was die Sache auch noch weiter erschwert.

Es wird mit hoechster Wahrscheinlichkeit die Leistung nochmal aufgepeppt durch leichte Aenderungen in Intellisample (diesmal eben) Version 4.0, aber dann wohl eher aufbauend auf der Bildqualitaet die wir heute haben (aber hoffentlich ohne den LOD-Quark).

robbitop
2005-05-25, 10:41:31
Wirklich? Ich wusste gar nicht, daß die aktuellen Chips wirklich Virtual Texturing beherrschen.
Von wo sollen die Texturen denn kommen, von denen für die Filter gesampled werden?

@Quasar
so "wenig" Bandbreite ist das nicht.

edit: Caches können Latenzen verstecken, aber nicht Bandbreite

(BTW: der Ton macht die Musik)

Quasar
2005-05-25, 10:53:12
Von wo sollen die Texturen denn kommen, von denen für die Filter gesampled werden?

@Quasar
so "wenig" Bandbreite ist das nicht.

edit: Caches können Latenzen verstecken, aber nicht Bandbreite

(BTW: der Ton macht die Musik)
Richtig, der Ton... Denk' da mal dran...

Caches können aber bereits die nötigen Daten enthalten und so Bandbreite zum VRAM sparen. Normalerweise hat man ja beim Sampeln eine gewisse Lokalität der Daten.

Ailuros
2005-05-25, 10:54:25
Von wo sollen die Texturen denn kommen, von denen für die Filter gesampled werden?

Mit API-Unterstuetzung wird's halt besser ;)


edit: Caches können Latenzen verstecken, aber nicht Bandbreite

(BTW: der Ton macht die Musik)

Cache Bandbreite ist auch Bandbreite.

Ailuros
2005-05-25, 10:55:49
Richtig, der Ton... Denk' da mal dran...

Caches können aber bereits die nötigen Daten enthalten und so Bandbreite zum VRAM sparen. Normalerweise hat man ja beim Sampeln eine gewisse Lokalität der Daten.

Jemand war mal wieder schneller.... :D

robbitop
2005-05-25, 10:59:02
Richtig, der Ton... Denk' da mal dran...

Caches können aber bereits die nötigen Daten enthalten und so Bandbreite zum VRAM sparen. Normalerweise hat man ja beim Sampeln eine gewisse Lokalität der Daten.
Wo habe ich den falschen Ton gewählt?

Richtig, beim Filtern und auch bei MT ist die Cachehitrate sehr hoch und deswegen kostet es auch nicht so extrem viel Bandbreite. Das wollte ich damit auch gar nicht ausgedrückt haben.
Aber dennoch muss der Kram ja auch irgendwann in die Caches geladen werden. D.h. es kostet vieleicht nicht in diesem Moment Bandbreite sondern vorher. Das ist nicht extrem viel aber auch nicht zu vernachlässigen "wenig".
Mehr wollte ich damit nicht sagen.



Cache Bandbreite ist auch Bandbreite.


Ach, und wie kommen die Daten in den Cache? Zauberei? :D
Ich meine natürlich externe Bandbreite.

Ailuros
2005-05-25, 11:02:53
Zwar stimmt das alles, aber es kommt auch auf die Groesse und die "Qualitaet" der Cache an.

eDRAM auf R500 ist ja auch nichts anderes als "ein bisschen mehr als ein cache".

Exxtreme
2005-05-25, 11:05:28
Von wo sollen die Texturen denn kommen, von denen für die Filter gesampled werden?

Aus dem VRAM. Aber wo siehst du denn die Möglichkeit Bandbreite einzusparen wenn du an den Filtern drehst? Die Textur braucht ja nicht plötzlich weniger Speicherplatz bloß weil du den AF-Level an einigen Winkeln änderst.

Ailuros
2005-05-25, 11:06:24
Ach, und wie kommen die Daten in den Cache? Zauberei?
Ich meine natürlich externe Bandbreite.

Dein voriger Satz war eben verkorkst ausgedrueckt; natuerlich dienen caches um Latenzen zu verstecken, aber der
Bandbreiten-Teil klang schon merkwuerdig. Cache Bandbreite kann man theoretisch zur gesamten System-Bandbreite u.Umstaenden mitzaehlen.

Ailuros
2005-05-25, 11:09:26
Aus dem VRAM. Aber wo siehst du denn die Möglichkeit Bandbreite einzusparen wenn du an den Filtern drehst? Die Textur braucht ja nicht plötzlich weniger Speicherplatz bloß weil du den AF-Level an einigen Winkeln änderst.

Einen kleinen Unterschied koennte es vielleicht schon machen. "Einige Winkel" ist gut; bei beiden GPU-Familien bekommt etwa die Haelfte nicht mehr als 2xAF in jeder Situation ab.

robbitop
2005-05-25, 11:09:56
Zwar stimmt das alles, aber es kommt auch auf die Groesse und die "Qualitaet" der Cache an.

eDRAM auf R500 ist ja auch nichts anderes als "ein bisschen mehr als ein cache".
Je größer, desto seltener der Zugriff und desto größer der Burst.
eDRAM ist noch immer VRAM. SRAM Latenzen sind deutlich deutlich besser als die von DRAM. Aber natürlich erleichtert der eDRAM dank seiner brachialen Bandbreite einiges. Als Cache stimmen aber die Latenzen nicht.


Aus dem VRAM. Aber wo siehst du denn die Möglichkeit Bandbreite einzusparen wenn du an den Filtern drehst? Die Textur braucht ja nicht plötzlich weniger Speicherplatz bloß weil du den AF-Level an einigen Winkeln änderst.
Zum Filtern brauchst du Samples. Möglichst von verschiedenen MIPMaps, die bekommst du, in dem du auf die Texturen und deren MIPs im VRAM zugreifst.
Du tastest also ab und schreibst die Werte in den Cache, richtig?
Je mehr Samples du brauchst, desto mehr Werte hast du, die zu übertragen sind. Ergo Bandbreite.
Bri b.s.w. spart hier generell 1/4 der Samples ggü Tri und das spart natürlich Bandbreite. Wenn du bei Winkel X plötzlich nur noch 2xAF anwendest obwohl 4x nötig wäre, sparst du wieder Bandbreite, da du weniger samples übertragen musst.

Quasar
2005-05-25, 11:11:26
Wo habe ich den falschen Ton gewählt?
Passiert zuweilen - ausser, es lag in deiner Absicht. Dann war der Ton natürlich sehr treffend. :)


Richtig, beim Filtern und auch bei MT ist die Cachehitrate sehr hoch und deswegen kostet es auch nicht so extrem viel Bandbreite. Das wollte ich damit auch gar nicht ausgedrückt haben.
Aber dennoch muss der Kram ja auch irgendwann in die Caches geladen werden. D.h. es kostet vieleicht nicht in diesem Moment Bandbreite sondern vorher. Das ist nicht extrem viel aber auch nicht zu vernachlässigen "wenig".
Man lädt aber nicht immer nur selektiv ein einziges Texturesample nach.

Robbitop@FH
2005-05-25, 12:31:05
Passiert zuweilen - ausser, es lag in deiner Absicht. Dann war der Ton natürlich sehr treffend. :)


Man lädt aber nicht immer nur selektiv ein einziges Texturesample nach.
Nein es lag nicht in meiner Absicht, einen belehrenden oder falschen Ton zu treffen. Meine Absicht lag eher in einem sachlichen Ton. Sollte ich diesen nicht getroffen haben, tut es mir leid. Ich werde mich bemühen, dies maßgeblich zu ändern. Ich habe wirklich nicht vorgehabt, dir an den Karren zu fahren (o.Ä.).

Letztendlich müssen aber irgendwann die benötigten Samples in den Cache/GPU. Und das sind mehr, wenn der Filter besser wird. Oder etwa nicht? ;)

r3ptil3
2005-05-25, 14:46:48
Doch kann man, weil es keine Caps mehr gibt. Es gibt nur noch Shader, aber keine Versionen dazu.

Wer? An der API hat sich rein gar nichts geändert, es war nur ein minor Runtime upgrade.

Hast du die news gelesen? WGF2.0 wird natürlich auch Shader Model 4.0 mitbringen.

Demirug
2005-05-25, 14:52:54
Hast du die news gelesen? WGF2.0 wird natürlich auch Shader Model 4.0 mitbringen.

Nein, die News ist nämlich falsch.

r3ptil3
2005-05-25, 17:00:06
Nein, die News ist nämlich falsch.

lol und wiso schreibt ihr dann die News??

deekey777
2005-05-25, 17:20:59
lol und wiso schreibt ihr dann die News??

Demi gehört nicht zu "ihnen". ;)

robbitop
2005-05-25, 18:07:38
lol und wiso schreibt ihr dann die News??
Der Einzige, der News schreibt, ist Leonidas. Der Rest der Crew schreibt Artikel.

DjDino
2005-05-25, 18:21:54
http://www.giga.de/core/fotostory/fotostory.php?id=12551&zaehlpixel=tech&newsid=120179

r3ptil3
2005-05-25, 18:25:10
Der Einzige, der News schreibt, ist Leonidas. Der Rest der Crew schreibt Artikel.

Naja, ist nicht böse gemeint! Schliesslich kann so ein Fehler jedem mal passieren (obwohl das eigentlich kein fehler von ihm ist weil er diese news nur von einer anderen seite zusammengefass hat).

@ Erstes Geforce 7 Bild

Sieht ähnlich aus wie der Lüfter einer 6800GT.

Coda
2005-05-25, 18:30:23
Sieht so aus als bräuchten die Versorgungs MOSFETs diesmal keine Kühlung oder der große Kühler kühlt die Dinger mit.

Ersteres wäre mir lieber weil ich den sicher wechseln möchte, falls ich eine 7800 kaufe.

mapel110
2005-05-25, 18:30:49
http://www.giga.de/core/fotostory/fotostory.php?id=12551&zaehlpixel=tech&newsid=120179
http://www.giga.de/index.php?storyid=120179
Ein russisches Magazin zeigt ein kleines Bild der PCI-Express-Grafikkarte der nächsten Generation, wobei es sich angeblich um die 512-MByte-Variante einer 7800 GTX handeln soll.

Ein russisches Magazin?

Gast
2005-05-25, 18:40:51
http://www.giga.de/index.php?storyid=120179
Ein russisches Magazin zeigt ein kleines Bild der PCI-Express-Grafikkarte der nächsten Generation, wobei es sich angeblich um die 512-MByte-Variante einer 7800 GTX handeln soll.

Ein russisches Magazin?

Weis ja leider auch nicht mehr als GIGA meinnt zu wissen. Mal deswegen versucht russische Hardwareseiten wie http://www.3dnews.ru/news/ , etc. abzusuchen aber nix zu finden :( Die Anordnung der kühlkörperlosen (?!) Mosfets schaut mir aber bisi nach Photoshop aus :D

robbitop
2005-05-25, 18:42:51
Ein russisches Magazin?
Beleidigung an die armen russischen Freunde :D
Wer will schon mit Giga verglichen werden ^^


Tatsächlich sieht der Kühler recht flach aus. Die Karte ist aber verdammt lang und scheint diesmal noch mehr MOSFETs drauf zu haben. Mir gefällt dieser Trend nicht.

Gast
2005-05-25, 19:02:11
Nein, die News ist nämlich falsch.
So was aber auch ;)

Gast
2005-05-25, 19:04:03
Beleidigung an die armen russischen Freunde :D
Wer will schon mit Giga verglichen werden ^^


Tatsächlich sieht der Kühler recht flach aus. Die Karte ist aber verdammt lang und scheint diesmal noch mehr MOSFETs drauf zu haben. Mir gefällt dieser Trend nicht.

Sieht mir eher wie eine PNY Workstation aus ?!

SKYNET
2005-05-25, 19:04:39
http://www.giga.de/index.php?storyid=120179
Ein russisches Magazin zeigt ein kleines Bild der PCI-Express-Grafikkarte der nächsten Generation, wobei es sich angeblich um die 512-MByte-Variante einer 7800 GTX handeln soll.

Ein russisches Magazin?


xbitlabs?

mapel110
2005-05-25, 19:18:03
xbitlabs?
schau doch nach, da ist nichts. Auf digit-life gibts aber ein frisches Review einer x800 XL PCIe 512 MB, aber die ist etwas kürzer auf den Bildern dort imo.

Ansonsten kenne ich keine russische Seite, zumindest keine, die in englisch schreibt.

DjDino
2005-05-25, 19:24:33
So, gefunden - ist von http://www.overclockers.ru/hardnews/18879.shtml
Hier gibt es auch noch was :
http://www.nvnews.net/vbulletin/showpost.php?p=611826&postcount=89

seahawk
2005-05-25, 19:26:20
Respekt, wenn das ne GTX ist

Demirug
2005-05-25, 19:27:29
xbitlabs?

Nein, http://www.overclockers.ru/hardnews/18879.shtml

*da war wohl jemand schneller*

DjDino
2005-05-25, 19:37:02
heist das (http://www.nvnews.net/vbulletin/attachment.php?attachmentid=11640&stc=1) der G70 kommt jetzt ganz sicher nicht für AGP ? :(

Demirug
2005-05-25, 19:41:20
heist das (http://www.nvnews.net/vbulletin/attachment.php?attachmentid=11640&stc=1) der G70 kommt jetzt ganz sicher nicht für AGP ? :(

Nein, das ist ja die Spezifikation für eine Karte und nicht für den Chip. Mit der Bridge kann nVidia den jederzeit auch für AGP Karten verwenden. Wenn man dort der Meinung ist das es sich noch lohnt AGP Karten zu bauen wird es auch solche geben.

Gast
2005-05-25, 19:58:38
ist wirklich eine verdammt große karte
aber dadurch kann der kühler schön flach gehalten werden

DjDino
2005-05-25, 20:00:11
@Demirug

Danke, das nachträgliche AGP-fähig machen mit dem Bridge-Chip hab ich ganz vergessen.Hoffe Nvidia lässt die AGP-Board-User nicht hängen, aber ich denke nicht denn wenn die Karte raus - auch wenn wohl wieder um einiges später als bei der Vorstellung - gibt es dann noch immer mehrheitlich AGP-Board-User und mit denen will Nvidia ja auch Kohle machen...zumal sonst zwangsläufig viele zur ATI-R520-Konkurenz greifen müssten (weil sie wegen dem G70 kein neues Board holen wollen) welche ja sicher auch in AGP kommen soll.

MarcWessels
2005-05-25, 20:03:28
http://www.giga.de/core/fotostory/fotostory.php?id=12551&zaehlpixel=tech&newsid=120179

Hmmm... sieht so aus, als ob der NV40-NexXos noch draufpassen würde.

deekey777
2005-05-25, 20:03:36
ist wirklich eine verdammt große karte
aber dadurch kann der kühler schön flach gehalten werden

Länge läuft. :D
Aber die Karte ist 100Pro nicht zu lang. Hoffentlich sind auf der Rückseite nicht zu viele Bauteile, die man mit der geöffneten RAM-Halteklammer abreissen kann.

Quasar
2005-05-25, 20:14:45
Länge läuft. :D
Schiffbauer??

Exxtreme
2005-05-25, 20:15:38
Zum Filtern brauchst du Samples. Möglichst von verschiedenen MIPMaps, die bekommst du, in dem du auf die Texturen und deren MIPs im VRAM zugreifst.
Du tastest also ab und schreibst die Werte in den Cache, richtig?
Je mehr Samples du brauchst, desto mehr Werte hast du, die zu übertragen sind. Ergo Bandbreite.
Bri b.s.w. spart hier generell 1/4 der Samples ggü Tri und das spart natürlich Bandbreite. Wenn du bei Winkel X plötzlich nur noch 2xAF anwendest obwohl 4x nötig wäre, sparst du wieder Bandbreite, da du weniger samples übertragen musst.
Ja, OK. Aber trotzdem ist das IMHO nicht so kritisch und die Ersparnisse dürften eher gering sein durch Winkelabhängigkeit und/oder brilineare Filter. Denn gefiltert werden muss sowieso und die Texturen müssen erstmal eh' komplett in den Chip was auch so oder so Bandbreite kostet. Da dürte AA weit mehr reinhauen.

Naja, mal sehen wie die beiden Kontrahenten werden. Denn für mich wird es wirklich Zeit was Neues anzuschaffen. Und wenn die Kontrahenten nicht zu weit ausseinander liegen, entscheidet bei mir die Qualität von AA + AF.

SKYNET
2005-05-25, 20:30:37
Und wenn die Kontrahenten nicht zu weit ausseinander liegen, entscheidet bei mir die Qualität von AA + AF.


also NV --> SSAA. =)

Gast
2005-05-25, 20:39:26
also NV --> SSAA. =)
Ne, das flimmrige AF von NV ist nicht gerade ein Argument. Trotz Clamp sehe ich immernoch flimmern. :(

PS frag mal Coda.

Quasar
2005-05-25, 20:39:39
Das kann ATi auf dem MAC schon lange - und bevor die zulassen, daß Exxtreme sich 'ne grüne Karte kauft....

Exxtreme
2005-05-25, 21:05:50
also NV --> SSAA. =)
Aber leider nur Ordered Grid was für die gebotene Bildqualität viel Leistung frisst. ;( Und alles über 4x AA frisst auch übermässig viel Leistung für das Gebotene. Einen schicken 6x AA Sparsed Grid Modus haben die nicht.

Naja, mal sehen wie sich ATi auch so anstellt. Wobei bei mir AA eine höhere Priorität hat als AF.


Aber vielleicht schafft's Nvidia diesmal mich nicht vom Kauf derer Produkte abzuhalten. ;) Ich meine, ein grünes MoBo habe ich ja schon. =)

Gast
2005-05-25, 21:11:50
Ne, das flimmrige AF von NV ist nicht gerade ein Argument. Trotz Clamp sehe ich immernoch flimmern. :(

PS frag mal Coda.

also mit clamp und HQ sehe ich absolut kein flimmern (außnahmen natürlich texturen alá riddick die immer flimmern, auch auf ati-karten)

und ich bin da sehr empfindlich, wenn da irgendwas zu flimmern beginnt würde ich af eher deaktivieren und dafür SSAA aktivieren.

Gast
2005-05-25, 21:17:06
wenn da irgendwas zu flimmern beginnt würde ich af eher deaktivieren und dafür SSAA aktivieren.
Keine Chance bei den neusten Spieln. :(

Coda
2005-05-25, 21:30:02
also mit clamp und HQ sehe ich absolut kein flimmern (außnahmen natürlich texturen alá riddick die immer flimmern, auch auf ati-karten)

und ich bin da sehr empfindlich, wenn da irgendwas zu flimmern beginnt würde ich af eher deaktivieren und dafür SSAA aktivieren.Ich kann gerne mal eine Screenshotreihe machen die das illustriert. Habe aber gerade keine Zeit :)

Gast
2005-05-25, 21:36:26
Ich kann gerne mal eine Screenshotreihe machen die das illustriert. Habe aber gerade keine Zeit :)
Ist glaube ich nicht sinnvoll, weil die meisten Blindschleichen es eh nicht sehen werden.
Man muß halt hinnehmen, daß Nvidia uns mit einem AF zufriedenstellen will, der die meisten nicht stört.
Leider gucken die empfindlichen, die mehr wahrnehmen, dumm aus der Wäsche. :(

Coda
2005-05-25, 21:41:11
Oder sie wollen es nicht sehen :rolleyes:

deLuxX`
2005-05-25, 21:47:52
Oder manche sind da etwas überempfindlich und laufen nur durch das Spiel um "Filmmern" zu sehen, anstatt sich von dem Spiel in seinen Bann ziehen zu lassen. :rolleyes:

Ändert aber nichts an der Tatsache, und damit gehe ich mit den Leuten über mir konform, dass uns nVidia keine perfekte Filterung in Spielen zeigt. Obwohl das für die heutigen Chips aus Performancesicht überhaupt kein Problem wäre.

-deLuxX`

P.S. Ich zähle mich gelegentlich auch zu diesen empfindlichen Leuten. :wink:

MarcWessels
2005-05-25, 21:49:39
Ist dieses Märchen vom flimmerigen nVidia-AF immer noch nicht totzukriegen? :rolleyes:

BÄH
2005-05-25, 21:54:02
Lieber Klein und Kompakt!Die KArte ist einfach nur hässlich!

Coda
2005-05-25, 21:56:19
Ist dieses Märchen vom flimmerigen nVidia-AF immer noch nicht totzukriegen? :rolleyes:Es ist ganz ganz bestimmt kein Märchen. Ich bin doch nicht doof.
High Quality und Clamp an -> Hochfrequente Texturen flimmern trotzdem deutlich mehr als mit ner Radeon.

robbitop
2005-05-25, 22:27:32
flimmern trotzdem deutlich mehr als mit ner Radeon.
Kannst du das belegen? (ein GF und ein Radeon vid, dass das zeigt o.Ä. - gleiche Settings)

MarcWessels
2005-05-26, 02:15:10
Eien Radeon dürfte in Anbetracht ihrer niedrigeren Präzision bei kritischen Texturen MEHR flimmern als eine GeForce.

Ailuros
2005-05-26, 03:27:18
Es ist ganz ganz bestimmt kein Märchen. Ich bin doch nicht doof.
High Quality und Clamp an -> Hochfrequente Texturen flimmern trotzdem deutlich mehr als mit ner Radeon.

Application specific; d.h. dass in manchen Faellen die "Klammer" von sich aus nicht mehr reicht, sondern man muss eben doch (wenn moeglich) auch noch ein bisschen im Spiel- ini mit den LOD-Werten herumfummeln. Klassisches Beispiel bleibt die UE2 engine.

Ist dieses Märchen vom flimmerigen nVidia-AF immer noch nicht totzukriegen?

Mein write-up war die erste Stelle wo es erwaehnt wurde und da ich darueber in Kontakt mit NVIDIA selber kam, ist es mit absoluter Sicherheit kein Maerchen, genauso wie der "negative LOD bias" switch im Treiber seit der 7X.xx-ner Generation von ForceWare Treibern auch kein Maerchen ist.

Das Problem existiert und man kann es unter Umstaenden entweder mit der Klammer oder einer Kombination von "clamp" + leicht positiverem LOD beseitigen.

Ailuros
2005-05-26, 03:31:40
... wenn da irgendwas zu flimmern beginnt würde ich af eher deaktivieren und dafür SSAA aktivieren....

Bin mit zwar nicht mehr sicher, aber wenn ich mich nicht irre existiert das Problem nicht mit 2xAF. Muss ich nochmal nachtesten um sicher zu sein.

Trotz allem liefert nur 4xSSAA quasi 2xAF aehnliche Filterung und das heisst nicht nur 1/4-el der Fuellrate sondern auch viel zu wenig "Textur-schaerfung" fuer meinen Geschmack.

Iwan
2005-05-26, 05:59:09
Oder sie wollen es nicht sehen :rolleyes:

was heißt wollen es nicht sehen. meistens werden hier als beweise screens aus ego-shootern angeführt. da frage ich mich doch wie manche hier ego-shooter spielen: also wenn ich im spiel bin achte ich hauptsächlich auf die gegner, die grafik juckt mach nach ein paar minuten garnicht mehr. wenn dann einige ein spiel als grafik-demo betrachten und hinter jedem "flimmern" und nicht geglätteten ecke her sind ist das ihre sache, sind damit jedoch weit in der unterzahl. und solange >90% der user nichtmal wissen was aa/af ist wird es ati/nv einen scheißdreck jucken ob da ein paar handvoll-leute ein flimmern sehen oder nicht. soviel mal dazu.

Ailuros
2005-05-26, 07:27:01
was heißt wollen es nicht sehen. meistens werden hier als beweise screens aus ego-shootern angeführt. da frage ich mich doch wie manche hier ego-shooter spielen: also wenn ich im spiel bin achte ich hauptsächlich auf die gegner, die grafik juckt mach nach ein paar minuten garnicht mehr. wenn dann einige ein spiel als grafik-demo betrachten und hinter jedem "flimmern" und nicht geglätteten ecke her sind ist das ihre sache, sind damit jedoch weit in der unterzahl. und solange >90% der user nichtmal wissen was aa/af ist wird es ati/nv einen scheißdreck jucken ob da ein paar handvoll-leute ein flimmern sehen oder nicht. soviel mal dazu.

Wer keine Ahnung von AA/AF hat, sollte sein Geld auch nicht mit high end GPUs verschwenden.

Die obrige Argumentation steht sowieso nicht die geringte Chance und das nicht nur fuer GPUs; in dem Sinn koennte sich auch jemand ein 30.000 euro teures Auto kaufen und die Augen zudruecken wenn es wie eine Affenschaukel klappert; Hauptsache es faehrt? Nein eben nicht.

Gast
2005-05-26, 09:03:49
Eien Radeon dürfte in Anbetracht ihrer niedrigeren Präzision bei kritischen Texturen MEHR flimmern als eine GeForce.
Wo hast du den dieen Quatsch aufgegriffen????? Stimmt niet!

Adam D.
2005-05-26, 09:16:43
Ist dieses Märchen vom flimmerigen nVidia-AF immer noch nicht totzukriegen? :rolleyes:
Soll ich dir mal ein Video aus WoW zeigen? Dann erzähl mir nochmal, dass es ein Märchen ist... :rolleyes:

Ailuros
2005-05-26, 09:50:18
Soll ich dir mal ein Video aus WoW zeigen? Dann erzähl mir nochmal, dass es ein Märchen ist... :rolleyes:

Ich bin kein Fan von dem genre. ergo hab ich WoW auch nicht. Bringt die Kombination von "clamp" mit sagen wir mal +0.3 LOD gar nichts?

Ailuros
2005-05-26, 10:06:10
Aber leider nur Ordered Grid was für die gebotene Bildqualität viel Leistung frisst. ;( Und alles über 4x AA frisst auch übermässig viel Leistung für das Gebotene. Einen schicken 6x AA Sparsed Grid Modus haben die nicht.

Leistung? Ich dachte Du stehst auf Supersampling? Simulations-spiele kann man schon auf heutigen Karten selbst mit 8xS spielen (1280 und fuer die SLi Systeme dann eben 1600).

Schneller als 6xMSAA ist es auf keinen Fall, aber mir ist es ja persoenlich lieber wenn ich die Aufloesung so hoch wie moeglich mit MSAA+AF schrauben kann. Hybride modi oder reines SSAA (ja selbst rotated oder sparsed grid) machen mir heutztutage nur Sinn, wenn Multisampling Probleme hat bestimmte Anteile zu glaetten oder die Applikation eben keine hohen Aufloesungen unterstuetzt.

Xmas
2005-05-26, 11:47:53
Ja, OK. Aber trotzdem ist das IMHO nicht so kritisch und die Ersparnisse dürften eher gering sein durch Winkelabhängigkeit und/oder brilineare Filter. Denn gefiltert werden muss sowieso und die Texturen müssen erstmal eh' komplett in den Chip was auch so oder so Bandbreite kostet.
Wie willst du denn bitte komplette Texturen in ein paar mickrige KiB Texturcache laden? ;)

Im Schnitt muss man wohl etwas mehr als einen Texel pro bilinearem Sample lesen. Macht bei 16 TMUs und unkomprimierten 32bit-Texturen 512bit pro Takt... mit DXT1 sinds schon nur noch 64bit.
Die Ersparnisse durch Winkelabhängigkeit und Brilinear sind auch bei der Füllrate zu suchen. Würde permanent mit komprimierten Texturen 16x triAF gesampelt, käme man auch mit einem 128bit-Speicherinterface locker aus.



Die erste Frage ist eigentlich warum es bis jetzt zu keinem neuen Textur-Kompressionsstandard kam. Fast jedes zweite Jahr verdoppelt sich die Speichermenge auf GPUs.
Letzteres wird sich auch mit besserer Kompression kaum ändern. Die verfügbare Speicherkapazität verdoppelt sich nun mal so schnell.

Was normale Farbtexturen angeht, geht über DXTC hinaus kaum noch was. 4 Bit pro Texel (DXT1) ist in vielen Fällen noch akzeptabel, 3 Bit schon sehr grenzwertig und Verfahren die mit 2 Bit auskommen sind nur noch in Spezialfällen zu gebrauchen. aths kann dazu sicherlich noch etwas mehr erzählen.

Für Normal Maps gibt es jetzt 3Dc, WGF2.0 wird wohl für HDR-Maps zumindest RGBE bringen. Wäre schön, wenn man DXTC dafür adaptieren würde, 8bpp für HDR-Texturen hört sich brauchbar an.
Bei 3D-Texturen gibt es VTC, aber da sollte noch etwas mehr rauszuholen sein.

Demirug
2005-05-26, 11:55:43
Für Normal Maps gibt es jetzt 3Dc, WGF2.0 wird wohl für HDR-Maps zumindest RGBE bringen. Wäre schön, wenn man DXTC dafür adaptieren würde, 8bpp für HDR-Texturen hört sich brauchbar an.
Bei 3D-Texturen gibt es VTC, aber da sollte noch etwas mehr rauszuholen sein.

RGBE kann man doch jetzt schon nutzen. Theoretisch auch in Verbindnung mit DXT Kompression. Ich habe allerdings noch nicht ausprobiert wie gut da die Ergebnisse sind.

Coda
2005-05-26, 11:57:27
WGF2.0 wird wohl für HDR-Maps zumindest RGBE bringen.Glaube ich nicht. Die ALU Leistung ist jetzt schon groß genug um das ohne Probleme on-the-fly im Shader auszupacken.

Naja vielleicht macht man das auch so über den Treiber, dann kann man transparent die Texturen wechseln

James Ryan
2005-05-26, 13:14:59
Angeblich erstes Bild aufgetaucht:
KLICK (http://www.hartware.net/showpic.php?type=news&id=38017&nr=1&path=http://www.hartware.net/media/news/38000/38017_1b.jpg)

MfG :cool:

LovesuckZ
2005-05-26, 13:16:15
Soll ich dir mal ein Video aus WoW zeigen? Dann erzähl mir nochmal, dass es ein Märchen ist... :rolleyes:

ABer auch nur da, wo AF "zu ende" ist.
Natuerlich wird der Effekt durch die Winkelabhaengigkeit vorallen in Wo verstaerkt.

Ronny145
2005-05-26, 13:16:24
Angeblich erstes Bild aufgetaucht:
KLICK (http://www.hartware.net/showpic.php?type=news&id=38017&nr=1&path=http://www.hartware.net/media/news/38000/38017_1b.jpg)

MfG :cool:


Wurde gestern schon gepostet.

Gast
2005-05-26, 13:21:55
High Quality und Clamp an -> Hochfrequente Texturen flimmern trotzdem

ich hab in einem rechner eine 6800GT und daneben einen mit einer 9800pro (die ja noch die bessere bildqualität als die X-reihe bieten soll) und habe noch keine szene bemerkt in der die radeon mit AF weniger flimmert.

es gibt z.b. in HL2 oder riddick einige texturen die recht stark flimmen, allerdings gleich viel auf der radeon und auf der geforce.

was vor allem der springende punkt ist: auf dem NV40 hab ich bis jetzt noch nie eine textur beobachten können die mit AF flimmert ohne aber nicht (HQ mit clamp), und der isotrope filter des NV40 ist wohl über alle zweifel erhaben und nahezu perfekt.

wenn es also bereits mit isotropen filter flimmert ist es klar dass es mit AF auch flimmern wird.

Keine Chance bei den neusten Spieln.

nicht wahr, sofern man auf AF verzichtet oder reduziert ist 2x2SSAA sehr oft möglich, oft sogar 8xS (und manchmal sogar 16xS bei neuen spielen)

DjDino
2005-05-26, 13:47:21
http://www.pureoverclock.com/story.php?id=222

"I've just been told the new GTX moniker will NOT replace the Ultra. An overclocked GTX will come some time after launch and this will be known as the 7800 Ultra. The Ultra may possibly be Nvidia's first 90nm part."

Gaestle
2005-05-26, 13:50:38
Mal was anderes:
In der News vom 24.05. steht, dass erst NV60 WGF2.0 konform wäre. Ist das 'n (mehrfacher) Tippfehler? Ich dachte immer, das träfe schon auf NV50 zu...

Grüße

Coda
2005-05-26, 14:06:08
wenn es also bereits mit isotropen filter flimmert ist es klar dass es mit AF auch flimmern wird.Es flimmert isotrop eben nicht. Da ist ganz klar was beim AF faul.

Da es mir scheinbar mal wieder keiner glaubt:
http://home.arcor.de/aexorzist/flimmer-af.gif
(High Quality, Clamp, Alle Optimierungen aus)

Und so kann man eh nicht spielen, weil dann viel zu viel Leistung flöten geht. Und glaube mir, mit Quality statt High Quality ist das noch viel perverser.

Gast
2005-05-26, 14:24:58
Es flimmert isotrop eben nicht. Da ist ganz klar was beim AF faul.

bei welchem spiel flimmmert es isotrop nicht und anisotrop schon? (HQ AF+Clamp, und natürlich keine alpha-test-texturen)

Coda
2005-05-26, 14:26:07
Siehe GIF (UT2004). Mir ist das aber auch schon in vielen anderen Spielen aufgefallen, z.B. WarCraft 3.

Imho undersampled da nVidia mit ziemlicher Sicherheit.

OBrian
2005-05-26, 14:40:36
Mal was anderes:
In der News vom 24.05. steht, dass erst NV60 WGF2.0 konform wäre. Ist das 'n (mehrfacher) Tippfehler? Ich dachte immer, das träfe schon auf NV50 zu...

Grüße
Nein, der wäre ja zu früh. WGF2.0 sind unified shader ("shader 4.0"), das werden die Chiphersteller nicht so wahnsinnig lange vor Longhorn bringen. Sie müssen es nicht und wollen es auch nicht, weil sie jetzt erstmal die shader 3.0 etabilieren wollen und die neuen Architekturen (also den verspäteten R520 bzw. den nV40, dessen Aufbau wohl auch im G70 wiederzufinden sein wird) auslutschen wollen.

Das erspart Treiberprobleme, wenn der Chip sehr ähnlich ist, und auch sonst Entwicklungsresourcen. Für WGF wird die Architektur ungestrickt und auch die Treiber müssen komplett neu gemacht werden, das werden sie so lange wie möglich rausschieben.

Coda
2005-05-26, 14:41:29
WGF2.0 sind unified shader ("shader 4.0"), das werden die Chiphersteller nicht so wahnsinnig lange vor Longhorn bringen. Unified Shader sind keine Vorraussetzung mehr für WGF 2.0, weil das an der API eh nichts ändert.

Gast
2005-05-26, 14:58:49
Angeblich erstes Bild aufgetaucht:
KLICK (http://www.hartware.net/showpic.php?type=news&id=38017&nr=1&path=http://www.hartware.net/media/news/38000/38017_1b.jpg)

MfG :cool:

was unterhaltet ihr euch immer nur über wgf und hader quark

redet lieber darüber wie die karte ausschaut :)

http://www.hartware.net/media/news/38000/38017_1b.jpg

kann es neues design sein oder nur alte gefakte

Coda
2005-05-26, 14:59:20
Das wäre sehr schwer zu faken. Die Spannungswandler etc. sind komplett anders vom Layout.

Gast
2005-05-26, 15:01:02
aber was für ein brett leute,da brauch man ja ein big tower

Hellfire-Torrod
2005-05-26, 15:07:44
aber was für ein brett leute,da brauch man ja ein big tower

Imho ein beta/vorserien testmodell?
Die Testmodelle der FX 5900 Ultra waren doch auch länger als die karten, die letztenendes in den Handel kahmen.

Exxtreme
2005-05-26, 15:09:10
aber was für ein brett leute,da brauch man ja ein big tower
Und wo ist das PRoblem? :D


*seinenbigtowerstreich*

robbitop
2005-05-26, 15:11:39
Es flimmert isotrop eben nicht. Da ist ganz klar was beim AF faul.

Da es mir scheinbar mal wieder keiner glaubt:
http://home.arcor.de/aexorzist/flimmer-af.gif
(High Quality, Clamp, Alle Optimierungen aus)

Und so kann man eh nicht spielen, weil dann viel zu viel Leistung flöten geht. Und glaube mir, mit Quality statt High Quality ist das noch viel perverser.
igitt shimmering.mal LOD Spielereien versucht? Wie steht es mit einem Gegentest auf ner Radeon?

Coda
2005-05-26, 15:13:56
Ich schätze mal das Ding ist 0,5-1cm länger als eine 6800 Ultra. die 5900er waren auch nicht kürzer AFAIR.

igitt shimmering.mal LOD Spielereien versucht? Wie steht es mit einem Gegentest auf ner Radeon?LOD ist auf Clamp! Klar kann man's mit positivem LOD vermatschen irgendwann, aber das ist doch nicht der Sinn von AF.

Und auf der Radeon war das definitiv nicht so, ich bin doch nicht blöd - das NV40 AF ist einfach sau flimmerig.

Gast
2005-05-26, 15:26:10
LOD ist auf Clamp! Klar kann man's mit positivem LOD vermatschen irgendwann, aber das ist doch nicht der Sinn von AF.

Und auf der Radeon war das definitiv nicht so, ich bin doch nicht blöd - das NV40 AF ist einfach sau flimmerig.
Ich habe meine 6800GT auch gegen eine X800Xt getsucht, weil mir das flimmern bei vielen Speilen auf den Senkel ging. Gerade Holztexturen mit feiner Maserung haben mich zur Verzweifelung gebracht. Das muss nVidia irgendwie ändern. Bestimmte Winkel, die etwas schlechter gefiltert werden kann man noch irgendwo verschmerzen, flimmern nicht.

Konsolenfreund

Coda
2005-05-26, 15:27:47
Wenn ich nicht die NV40 Features brauchen würde wäre das für mich auch fast ein Grund zu tauschen.

Deshalb hoffe ich auch das G70 das richtig macht oder R520 meine Erwartungen erfüllt.

robbitop
2005-05-26, 15:29:19
Ich schätze mal das Ding ist 0,5-1cm länger als eine 6800 Ultra. die 5900er waren auch nicht kürzer AFAIR.

LOD ist auf Clamp! Klar kann man's mit positivem LOD vermatschen irgendwann, aber das ist doch nicht der Sinn von AF.

Und auf der Radeon war das definitiv nicht so, ich bin doch nicht blöd - das NV40 AF ist einfach sau flimmerig.
Wie AiL sagte, ist das mit dem LOD so eine Sache. Gerade bei der UE Engine ist das oft irgendwie verstellt. (war das mit allen Treibern bei dir so?)
Und natürlich bist du keineswegs "blöd". Im Gegenteil. Entschuldige bitte meine Neugier :)


Deshalb hoffe ich auch das G70 das richtig macht oder R520 meine Erwartungen erfüllt.
Das glaube ich kaum. Nutzt vermutlich genau die gleichen Pixelprozessoren. Wenn dann muss das durch den Treiber gehen. R520..schon eher :)

Coda
2005-05-26, 15:33:12
Wie AiL sagte, ist das mit dem LOD so eine Sache. Gerade bei der UE Engine ist das oft irgendwie verstellt. (war das mit allen Treibern bei dir so?)
Und natürlich bist du keineswegs "blöd". Im Gegenteil. Entschuldige bitte meine NeugierLOD ist bei Unreal normal auf -0.5. Mit Clamp stellt der Treiber es auf 0. Und ich habe in der UT2004.ini zur Sicherheit auch noch 0 eingestellt.

Ein LOD Bias von 0 darf nicht flimmern, egal wie hochfrequent die Textur ist!

Exxtreme
2005-05-26, 15:43:29
Leistung? Ich dachte Du stehst auf Supersampling? Simulations-spiele kann man schon auf heutigen Karten selbst mit 8xS spielen (1280 und fuer die SLi Systeme dann eben 1600).

Hmmm, bei mir ist das mittlerweile tatsächlich so, daß die Company den Zuschlag bekommt, die SSAA anbietet. Ich habe mal 3 Screenshots von WoW angefertigt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3079625#post3079625

Was bringt mir das tollste MSAA wenn 2/3 des Bildes nicht geglättet werden? Ich hoffe nur, daß Nvidia auch mal am AA dreht und der G70 nicht nur ein simpler Refresh des NV40 wird. Wenn ATi SSAA anbieten würde, wäre das natürlich auch klasse.

Coda
2005-05-26, 15:44:35
Hmmm, bei mir ist das mittlerweile tatächlich so, daß die Company den Zuschlag bekommt, die SSAA anbietet.Dann müsste es ja S3 sein, sonst bietet keiner SGSSAA :D

Exxtreme
2005-05-26, 15:47:49
Dann müsste es ja S3 sein, sonst bietet keiner SGSSAA :D
Also flotter als meine jetzige R9700 Pro sollte die GraKa schon sein. ;)

Coda
2005-05-26, 15:50:54
Aber da treibst du den Teufel mit dem Belzebub aus. Statt keinen geglätteten Kanten gibt's dann Flimmer-AF...

SSAA kannst du wenigstens noch mit Demirugs Tool erzeugen, beim AF hast du versc*****. Vor allem sollte R520 endlich 4096x4096 unterstützen womit 2x2 auch bis 2048x1536 machbar ist.

Gast
2005-05-26, 15:52:22
LOD ist bei Unreal normal auf -0.5. Mit Clamp stellt der Treiber es auf 0. Und ich habe in der UT2004.ini zur Sicherheit auch noch 0 eingestellt.

Ein LOD Bias von 0 darf nicht flimmern, egal wie hochfrequent die Textur ist!

Es flimmert auch nicht , wenn man die Optimierungen richtig ausstellt.

Coda
2005-05-26, 15:53:57
Was heißt hier "richtig ausstellen". "Trilineare Optimierung", "Optimierung des anisotropischen Filters" und "Optimierung anisotropischer Samples" waren alle aus

Gibt's noch irgendwelche Registry Flags, die nicht im UI angezeigt werden? Wenn ja, wäre ich sehr froh drüber...

Gast
2005-05-26, 15:54:37
Es flimmert auch nicht , wenn man die Optimierungen richtig ausstellt.
Was heißt denn hier richtig?
Suggerierst du, daß Nvidia uns verarscht?

Gast
2005-05-26, 15:55:27
Was heißt hier "richtig ausstellen". "Trilineare Optimierung", "Optimierung des anisotropischen Filters" und "Optimierung anisotropischer Samples" waren alle aus

Dann würde es jedenfalls nicht flimmern. Das was du als Flimmern wahrnimmst ist Alphatest und das ist auch bei einer X850 etc. vorhanden.

Exxtreme
2005-05-26, 15:55:42
Es flimmert isotrop eben nicht. Da ist ganz klar was beim AF faul.

Da es mir scheinbar mal wieder keiner glaubt:
http://home.arcor.de/aexorzist/flimmer-af.gif
(High Quality, Clamp, Alle Optimierungen aus)

Und so kann man eh nicht spielen, weil dann viel zu viel Leistung flöten geht. Und glaube mir, mit Quality statt High Quality ist das noch viel perverser.
Hmmm, kann sein, daß der Bri-Filter an ist? Ich sehe nämlich 2 flimmrige Bugwellen. Dazwischen flimmert es aber nicht.

Coda
2005-05-26, 15:57:29
Dann würde es jedenfalls nicht flimmern. Das was du als Flimmern wahrnimmst ist Alphatest und das ist auch bei einer X850 etc. vorhanden.Nein es ist KEIN Alphatesting was flimmert. Schau dir doch an was ich gepostet habe

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3079498&postcount=1451

Hmmm, kann sein, daß der Bri-Filter an ist? Ich sehe nämlich 2 flimmrige Bugwellen. Dazwischen flimmert es aber nicht.Nein ist aus. Und selbst wenn darf es nicht flimmern.

Gast
2005-05-26, 15:58:48
Nein es ist KEIN Alphatesting was flimmert. Schau dir doch an was ich gepostet habe

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3079498&postcount=1451

Nein ist aus.

Doch ist es. Die Bugwellen sind bei mir nicht vorhanden wenn ich alle Optimierungen ausstelle. Das ist UT2004 oder?

Coda
2005-05-26, 15:59:57
Ja, das ist UT2004. Und ich hab die Optimierungen ganz sicher aus, sehe ich ja wenn ich colored Mips einschalte.

Gast
2005-05-26, 16:01:16
Ja, das ist UT2004. Und ich hab die Optimierungen ganz sicher aus, sehe ich ja wenn ich colored Mips einschalte.

Dann lösch einfach mal die UT2004.ini und lass sie neu erstellen.
Welches Level ist das genau?

Coda
2005-05-26, 16:02:07
Warum sollte ich die UT2004.ini löschen :crazy:

Wie gesagt, ich bin nicht blöd. Und das Phänomen tritt nicht nur in UT2004 auf. nVIDIA unterfiltert ganz klar beim AF, da kann mir keiner was erzählen.

Das ist ONS-CBP2-Brassed. Hab ich glaube ich auch schon gesagt...

Und die Sache ist doch, dass es bei ATi trotz aller Optimiererei im Treiber NICHT flimmert. Bei nVIDIA geht das mit den unoptimiertesten Settings nicht.

Gast
2005-05-26, 16:04:38
Warum sollte ich die UT2004.ini löschen :crazy:

Ganz einfach weil dort Optimierungen bei dir an sind.

Wie gesagt, ich bin nicht blöd. Und das Phänomen tritt nicht nur in UT2004 auf. nVIDIA unterfiltert ganz klar beim AF, da kann mir keiner was erzählen.

Welches Level es ist??

Coda
2005-05-26, 16:06:50
Ganz einfach weil dort Optimierungen bei dir an sind.Nö sind sie nicht. Ich habe dort nur den LOD Bias auf 0 gestellt und das AF auf 16.

Ansonsten hat die API eh keinen Einfluss auf irgendwelche "Optimierungen"

Gast
2005-05-26, 16:08:14
Nö sind sie nicht. Ich habe dort nur den LOD Bias auf 0 gestellt und das AF auf 16.

Ansonsten hat die API eh keinen Einfluss auf irgendwelche "Optimierungen"

Kannst du nicht mal vernünftig antworten? Welches Level zum dritten Mal...

Coda
2005-05-26, 16:09:17
Das habe ich schon geschrieben.

Demirug
2005-05-26, 16:10:31
Ein LOD Bias von 0 darf nicht flimmern, egal wie hochfrequent die Textur ist!

Schön wäre es. Bei einem schwarz/weiss Schachbrettmuster bekommt man das flimmern nur dann weg wenn man die Texture absichtlich vermatscht.

Exxtreme
2005-05-26, 16:11:18
Aber da treibst du den Teufel mit dem Belzebub aus. Statt keinen geglätteten Kanten gibt's dann Flimmer-AF...

SSAA kannst du wenigstens noch mit Demirugs Tool erzeugen, beim AF hast du versc*****. Vor allem sollte R520 endlich 4096x4096 unterstützen womit 2x2 auch bis 2048x1536 machbar ist.
AF ist mir nicht ganz so wichtig. Ausserdem ist selbst meine R9700 nicht ganz flimmerfrei.

Demirug
2005-05-26, 16:12:44
btw von UT würde ich für solche Tests die Finger lassen. nVidias Treiber sind bekannt dafür das die dort gerne mal ihere eigenen Ansichten bezüglich der Filterung haben.

Coda
2005-05-26, 16:12:46
Schön wäre es. Bei einem schwarz/weiss Schachbrettmuster bekommt man das flimmern nur dann weg wenn man die Texture absichtlich vermatscht.Bei ATi ist es auf jeden Fall deutlich besser, das ist Fakt

btw von UT würde ich für solche Tests die Finger lassen. nVidias Treiber sind bekannt dafür das die dort gerne mal ihere eigenen Ansichten bezüglich der Filterung haben.Ja, ist in WarCraft 3 aber genauso.

Gast
2005-05-26, 16:14:12
Das habe ich schon geschrieben.

Auf jeden Fall flimmert hier bei mir nix wenn alle Optimierungen ausgestellt sind. Also liegt der Fehler wohl bei dir.
ONS-CBP2-Brassed was sollen das für ein Level sein?

Coda
2005-05-26, 16:14:49
Das ist ein Level aus dem Community Bonuspack 2.

Und es sind definitiv alle Optimierungen aus, der BIAS auf Clamp und auf "High Quality" gestellt.

Zeckensack hat übrigens genau das gleiche festgestellt, der hat sogar ein Tool programmiert dass das eindeutig zeigt.

Gaestle
2005-05-26, 16:14:58
Nein, der wäre ja zu früh. WGF2.0 sind unified shader ("shader 4.0"), das werden die Chiphersteller nicht so wahnsinnig lange vor Longhorn bringen. Sie müssen es nicht und wollen es auch nicht, weil sie jetzt erstmal die shader 3.0 etabilieren wollen und die neuen Architekturen (also den verspäteten R520 bzw. den nV40, dessen Aufbau wohl auch im G70 wiederzufinden sein wird) auslutschen wollen.


Dass G70 = nix WGF2.0 sondern NV40+ war mit klar.

Nur war ich immer der Meinung wie z.B. Ailuros:


Da die Codenamen bei NV geaendert wurden, koennte es leicht zu Missverstaendnissen kommen. Ich hab in der Vergangenheit unter "NV50" stets den WGF2.0 chip anerkannt oder noch vereinfacht die naechste Generation die nach der Mitte 2006 erscheinen wird. Zu dem Ding hab ich nicht den blassesten Schimmer, alles andere bis dann wird wohl immer noch NV4x/SM3.0-Material sein.

Von: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2885983#post2885983


Aber die News, die News... die schreiben was anderes.

Grüße

Botcruscher
2005-05-26, 16:17:55
Und wo ist das PRoblem? :D


*seinenbigtowerstreich*

Yah

*dieradisimdeckelhätschel*


Der Platz ist woll das geringste Problem was die Hersteller haben.

Demirug
2005-05-26, 16:18:44
Bei ATi ist es auf jeden Fall deutlich besser, das ist Fakt

Ja ,weil bei ATI die Filter schon immer dazu neigen minimal mehr Matsch zu produzieren. Dadurch ist die Flimmerneigung geringer.

Coda
2005-05-26, 16:20:10
Zeckensack ist aber AFAIR auch der Meinung das nVidia beim NV40 AF unterfiltert. Das sieht imho auch ganz danach aus...

Demirug
2005-05-26, 16:30:20
Die Filterkerne sind geschlossen (habe ich nachgeprüft) ergo wird nicht unterfiltert. Das Problem ist aber das nVidia da am Limit zur Unterfilterung operriert was mathematisch auch eigentlich korrekt ist. Deswegen reagieren die Chips ja auch so empfindlich auf den verstellten Lod Bias den dadurch rutschen sie in die Unterfilterung.

Coda
2005-05-26, 16:34:24
Falls das wirklich so ist will ich nichts gesagt haben. Ist also ein minimal positiver LOD Bias die Lösung?

Gast
2005-05-26, 16:40:58
http://nvworld.ru/news/2005/04/G70_.jpg

Quelle : http://www.nvworld.ru/news/01_04_2005.html

Gast
2005-05-26, 16:41:39
Ja ,weil bei ATI die Filter schon immer dazu neigen minimal mehr Matsch zu produzieren. Dadurch ist die Flimmerneigung geringer.

Genau! Die Erfahrungen hab ich auch gemacht.

Coda
2005-05-26, 16:42:27
Aber NV30/35 hatte das Flimmerproblem doch anscheinend nicht, woran liegt das dann?

http://nvworld.ru/news/2005/04/G70_.jpg

Quelle : http://www.nvworld.ru/news/01_04_2005.htmlNein, das ist garantiert ein Fake ;)

aths
2005-05-26, 16:49:39
Das ist ein Level aus dem Community Bonuspack 2.

Und es sind definitiv alle Optimierungen aus, der BIAS auf Clamp und auf "High Quality" gestellt.

Zeckensack hat übrigens genau das gleiche festgestellt, der hat sogar ein Tool programmiert dass das eindeutig zeigt.Zeckensacks Moiré-Monster zeigt Texturen, die immer flimmern.