PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForceFX viel schneller ????


Katrin
2002-11-18, 21:30:22
Hallo

möchte hier nun keinen Krieg auslösen. :-)

Sagt ma. Was glaubt ihr. Ist die neue Geforce FX viel schneller als die 9700Pro ???

Danke

Katrin

StefanV
2002-11-18, 21:31:47
Originally posted by Katrin
Hallo

möchte hier nun keinen Krieg auslösen. :-)

Sagt ma. Was glaubt ihr. Ist die neue Geforce FX viel schneller als die 9700Pro ???

Danke

Katrin

Öhm, meinst nicht, das DIESES Forum (ATI-FORUM] nicht das richtige sein könnte??

Thowe
2002-11-18, 21:35:01
Move to Grafikchips ...


Ich denke nicht das der NV30 die R300 disklassifizieren wird. Mag sein das sein Potential höher ist, aber nicht beeindruckend höher.

Sighfreak
2002-11-18, 21:56:52
Originally posted by Stefan Payne


Öhm, meinst nicht, das DIESES Forum (ATI-FORUM] nicht das richtige sein könnte??


Öhm, meinst nicht, das dein Spruch voll daneben war?

Razor
2002-11-18, 22:02:05
Ich vermute mal, dass der NV30 in Sachen Antialiasing sehr viel schneller sein (Stichwort: lossless color compression 4:1), in Sachen reiner Game-Performance mit dem R300 in etwa gelichauf liegen sollte. Aufgrund der brutalen Pixel-Shader Performance könnte der NV30 in zukünftigen Games (U2/Doom3) schon um einiges schneller sein (vermutet wird hier 30-50%), aber in aktuellen Games werden sich beide nicht viel nehmen.

Bis denne

Razor

zeckensack
2002-11-18, 22:03:07
@Razor,

Kompression und den ganzen Kram kann der R300 doch auch :eyes:

Exxtreme
2002-11-18, 22:05:39
Lies bitte richtig. Up to 4:1. AFAIK gibt es keinen verlusstfreien Kompressionsalgorhytmus, der eine bestimmte Kompressions-Stufe garantiert.

Originally posted by Razor
Ich vermute mal, dass der NV30 in Sachen Antialiasing sehr viel schneller sein (Stichwort: lossless color compression 4:1),
Bis denne

Razor

StefanV
2002-11-18, 22:07:42
Originally posted by Sighfreak
Öhm, meinst nicht, das dein Spruch voll daneben war?


Meinst nicht, daß dieser Thread von Thowe in dieses Forum verschoben wurde?? ;)

Unregistered
2002-11-18, 22:19:10
Originally posted by Katrin
Hallo

möchte hier nun keinen Krieg auslösen. :-)

Sagt ma. Was glaubt ihr. Ist die neue Geforce FX viel schneller als die 9700Pro ???

Danke

Katrin

Im moment ist sie nicht schneller, weil sie noch nicht mit vollen 500MHz laeuft. Aber mit einem noch groesseren doppel-decker turbolader werden wir's schon hinkriegen.

Now stop trolling!

Bitteschoen.

Unregistered
2002-11-18, 22:28:04
im gegenteil, sie wird sogar teilweisen langsamer sein (meine einschätzung)

MadManniMan
2002-11-18, 22:46:25
Originally posted by Razor
Ich vermute mal, dass der NV30 in Sachen Antialiasing sehr viel schneller sein (Stichwort: lossless color compression 4:1)

vorsicht razorle! nicht einfach nur marketingbla nachkauen! wie zecki schon sagte und ich innem anderem thread auch schon(war aber glaub ich zu richthofen) tut auch eine ati mit der verzeichnigung r300 schon hübsch komprimieren

und dann war da ja noch die sache der aa-modi...

[speku]

selbst wenn der nv30 bei gleichen samples mehr frames spuckt, was bringt es ihm, wenn die leutz bei nv zu doof sind, ordentlich RG einzubasteln?

Simon Phoenix
2002-11-18, 22:50:44
http://www.hardocp.com/images/articles/1037482125yomDI2gHPV_1_9_l.jpg

Also sowas kommt bei mir nicht rein! (Ok, hab ja auch ne Radeon 9700 Pro *eg*)

mapel110
2002-11-18, 22:56:49
ich sage mal, ohne AA schneller, mit AA langsamer als 9700er.

MadManniMan
2002-11-18, 23:02:57
nettes bild, wesley... äh, simon!

wo wir wieder ein problem erkennen können: nicht jeder will den ersten pci-slot opfern

Haarmann
2002-11-18, 23:03:46
Die sollen erst einmal AGP konforme Karten bauen... sowie ich mich entsinne sind 2 Plätze breite Karten nicht AGP konform ;). Ich will gar ned erst ahnen, wie dick ne NV30 AIW wäre...

Unregistered
2002-11-18, 23:09:51
Originally posted by Katrin

Sagt ma. Was glaubt ihr. Ist die neue Geforce FX viel schneller als die 9700Pro ???


Laut Anandtech ist die GeForceFX bei Doom3 40% schneller als eine Radeon 9700 Pro:

http://anandtech.com/video/showdoc.html?i=1749

:)

Quasar
2002-11-18, 23:10:04
:lol: @Haarman....
Soweit ich weiss, sieht die AGP-Spec auch vor, den Strombedarf über den AGP-Port zu decken. Und das haben wir ja offenbar schon lange hinter uns gelassen.
Ausserdem ist noch lang' nicht raus, ob die "Serie" auch so ausschauen wird. ;)

Quasar
2002-11-18, 23:11:48
Originally posted by zeckensack
@Razor,

Kompression und den ganzen Kram kann der R300 doch auch :eyes:

Ja, richtig. Aber ich glaube, dass der R9700 nur in den allerwenigstens Situation an die Grenzen seines Speichers stößt, selbst inkl. FSAA und in hohen Auflösungen passiert das eher selten.

Unregistered
2002-11-18, 23:15:13
Originally posted by Quasar
:lol: @Haarman....
Soweit ich weiss, sieht die AGP-Spec auch vor, den Strombedarf über den AGP-Port zu decken. Und das haben wir ja offenbar schon lange hinter uns gelassen.
Ausserdem ist noch lang' nicht raus, ob die "Serie" auch so ausschauen wird. ;)

ach so, Nvidia hat sich das ganze kuelkram nur so aus spass entwickelt. und trademarkt ist es auch noch: "FX-Flow".

Unregistered
2002-11-18, 23:20:10
Nicht bei Anandtech ist der Benchmark entstanden, sondern bei NVidia.
Merkwürdigerweise wurde der rote Balken nicht beschriftet, könnte natürlich(wahrscheinlich) der ATI Chip sein , ist allerdings trotzdem nur reine Spekulation. Warten wir erstmal die ersten unabhängigen Tests ab bevor wir einen Sieger kühren, sonst ab ins Spekulationsforum.

Radeonator
2002-11-18, 23:21:14
Keiner kann das klar mit ja oder nein beantworten, da NV alle wieder mit Selbstbeweiräucherung abgespeisst hat :-(
Wenn die Performance evtl. auch höher sein mag, was für eine schrecklich miese Konstruktion ist dieses Machwerk?
Zu hohe Hitzeentwicklung+Gigantischem Kühler blos für ein paar fps mehr??? Sieht sehr nach Flickwerk bzw. Beta Sample aus!

Es heisst also weiter abwarten und Tee trinken, bis NV ihr echte neue Karte presentiert, wel das Ding kanns ja wohl nicht sein, oder ???

Unregistered
2002-11-18, 23:41:47
Warum hast Du nur solch panische Angst, "Radeon"ator? ;)

Quasar
2002-11-19, 00:00:30
Originally posted by Unregistered
ach so, Nvidia hat sich das ganze kuelkram nur so aus spass entwickelt. und trademarkt ist es auch noch: "FX-Flow".

Nö, sicher nicht. Aber dir ist sicher bewusst, dass es mehrere Versionen des nV30 geben wird, oder?
Darunter könnten auch die eine oder andere Workstation-Variante sein......und dort ist man nicht, wie im Home- oder gar OEM-Bereich an die sklavische Einhaltung der AGP-Spec gebunden (AGP-Pro50 und AGP-Pro110).

Lightning
2002-11-19, 00:00:36
Ich denke, das die "große" GeForceFX auf jeden Fall ein Stückchen schneller sein wird, sowohl mit AA als auch ohne. Dabei halte ich diesen ganzen AGP-Konform, Hitzeentwicklung und Kühler kram allerdings für Lötzinn. Ist doch egal wie groß die Karte ist, wie warm sie wird usw.. Hauptsache es läuft!
Wenn diese 600€ allerdings stimmen sollten, sehe ich trotzdem keine guten Chancen für nVidia. Bis zum Erscheinen gibt es die R9700 Pro dann schon für die hälfte, und das bei vorraussichtlich nicht sooo großem Leistungsunterschied. Man müsste also schon ziemlich freakig sein, um sich die Karte zu holen..

Razor
2002-11-19, 00:21:49
Ah, ein Spam-Thread !
:D

@MadManniMan

vorsicht razorle! nicht einfach nur marketingbla nachkauen! wie zecki schon sagte und ich innem anderem thread auch schon(war aber glaub ich zu richthofen) tut auch eine ati mit der verzeichnigung r300 schon hübsch komprimieren

Das musste ich 3x lesen, um es zu verstehen...
:D

So, die ATI macht's also auch ?
Und wieso geht ihr dann bei 20GB/s Bandbreite und color compression schon in diversen Situationen die Luft aus ?

Im Dezember wissen wir mehr !

und dann war da ja noch die sache der aa-modi...

und die wären ?

[speku]
selbst wenn der nv30 bei gleichen samples mehr frames spuckt, was bringt es ihm, wenn die leutz bei nv zu doof sind, ordentlich RG einzubasteln?

Woher willst Du das wissen ?
In allen von mir gelesenen Previews stand absolut nix von irgendwelchen Sampel-Anodnungen.
Auch wenn's 'ne Spku ist, ist sie doch derzeit völlig aus der Luft gegriffen.

Bis denne

Razor

Razor
2002-11-19, 00:26:04
Originally posted by Haarmann
Die sollen erst einmal AGP konforme Karten bauen... sowie ich mich entsinne sind 2 Plätze breite Karten nicht AGP konform ;). Ich will gar ned erst ahnen, wie dick ne NV30 AIW wäre...
Die sollten mal endlich auf 'spezielle' Bedürfnisse ausgerichtete Mainboards bauen.

Wenn's hut ist, dann hol' ich mir anfang nächsten Monats das ABit NF7-S (nForce2), welches neben dem AGP-Slot 'eh keinen PCI-Slot hat (trotzdem 5 'freie' Slots bietet). Insofern wäre es hier eine glatte Veschwendung, so etwas nicht zu nutzen.

Und was ich ebenfalls auch schon im anderen Thread schrieb:

Die Abwärme der GraKa aus dem Gehäuse zu schaffen, ohne damit den Innenraum des PC's zu beheizen empfinde ich einen sehr lobeswerten Ansatz. Die externe Stromversorgung allerdings nicht...

Aber das hatten wir ja schon mal, gell ?
So von wegen AGP-Spezifikation...
:D

Bis denne

Razor

Razor
2002-11-19, 00:28:25
Originally posted by Lightning

Man müsste also schon ziemlich freakig sein, um sich die Karte zu holen..
Jaaaaaaaaaaaaa !!!!!!!! *eg*

Razor

Unregistered
2002-11-19, 01:23:21
Wer will meine Radeon9700 kaufen :D :D :DD

Unregistered
2002-11-19, 01:53:58
Originally posted by Unregistered
Wer will meine Radeon9700 kaufen :D :D :DD

Der musst ja kommen. *lol* *lol* *lol*

Mehrpack
2002-11-19, 04:28:59
hi,
also an den kühler würde ich mich net stören, da bei mir sowieso auf dem ersten pci slot nen lüfter hängt der die luft nach draussen befödert.
was mich aber stören würde wäre die länge, die mussten ja auch so doof den floppyanschluss beim a7v266-e legen.

zur leistung, naja wie schnell sie ist werden test zeigen müssen, zu sagen er ist schneller oder langsamer ist nix weiter als realtives raten.
da papierwerte immer was anderes sind als praktische werte.
also wer hier die schnellere karte geliefert hat wird sich zeigen müssen.
naja bin mal gespannt wie das weiter geht.

Mehrpack

mictasm
2002-11-19, 06:13:13
Hauptsache, der Twinplex passt...

:D

MIC

AMoKK
2002-11-19, 09:09:24
Ich versteh nicht waum sie dem nicht ein 256Bit Speicherinterface spendiert haben. Dann wäre nämlich schicht im schacht für die Radeon gewesen.

Naja, die Wege des Nvidiots sind unergründlich

S3NS3_0F_D34TH
2002-11-19, 09:14:20
Schneller wird sie auf jeden fall. ist ja wohl logisch. Aber wieviel?? Und wie siehts MIT AA und AF aus?? Wie siehts in "normalen" games und in Pixel/Vertex-Shader orgien (Doom3) aus??

Aber egal. Welten schneller wird sie nicht. Erstmal abwarten.

P.S.: Noch was zum Flame-Anheizen: Die Treiber werden aber wieder wesentlich besser sein als die ATI-Teile!!

Exxtreme
2002-11-19, 09:17:34
Also ich glaube, wenn es tatsächlich so wäre, daß der NV30 ein Nicht-OG-Sample-Muster kann, dann wäre es marketingmässig als Revolution gefeiert worden. Dem ist aber nicht so. Ich rechne mit OG-Sample-Mustern bei den reinen MSAA-Modi ausser dem 2x-Modus. Dieser dürfte tatsächlich RG sein. Dann wären auch noch die Hybriden aus MSAA und SSAA. Diese dürften ähnlich denen der NV2x-Reihe entsprechen.
Originally posted by Razor

[speku]
selbst wenn der nv30 bei gleichen samples mehr frames spuckt, was bringt es ihm, wenn die leutz bei nv zu doof sind, ordentlich RG einzubasteln?

Woher willst Du das wissen ?
In allen von mir gelesenen Previews stand absolut nix von irgendwelchen Sampel-Anodnungen.
Auch wenn's 'ne Spku ist, ist sie doch derzeit völlig aus der Luft gegriffen.

Bis denne

Razor

ow
2002-11-19, 09:43:02
Originally posted by Exxtreme
Lies bitte richtig. Up to 4:1. AFAIK gibt es keinen verlusstfreien Kompressionsalgorhytmus, der eine bestimmte Kompressions-Stufe garantiert.




??

Also packen und entpacken im zip-Format ging bei mir schon immer verlustfrei mit Raten bis 1:10 sogar. Nur mal als Denkanstoss.

ow
2002-11-19, 09:44:12
Originally posted by Haarmann
Die sollen erst einmal AGP konforme Karten bauen... sowie ich mich entsinne sind 2 Plätze breite Karten nicht AGP konform ;). Ich will gar ned erst ahnen, wie dick ne NV30 AIW wäre...



Da entsinnst du dich falsch.

raibera
2002-11-19, 09:44:29
Originally posted by Razor
Die Abwärme der GraKa aus dem Gehäuse zu schaffen, ohne damit den Innenraum des PC's zu beheizen empfinde ich einen sehr lobeswerten Ansatz. Die externe Stromversorgung allerdings nicht...


...dann ist der geforcefx möglicherweise nichts für dich. schau dir mal das bild auf der 1. seite dieses threads an. oben rechts auf der karte. das könnte durchaus ein externer stromanschluss sein...

ow
2002-11-19, 09:46:49
Originally posted by AMoKK
Ich versteh nicht waum sie dem nicht ein 256Bit Speicherinterface spendiert haben. Dann wäre nämlich schicht im schacht für die Radeon gewesen.




Weil die 128Bit wohl ausreichen werden. Wieso also gleich alle Reserven verschiessen??

Exxtreme
2002-11-19, 09:56:13
"Bis" ist das richtige Stichwort. ;)
Das Zip-Format kann aber keine Kompressionsrate garantieren. Es kann 1:10 sein aber auch nur 1:1,4. Deswegen sollte man IMHO ganz genau lesen wenn man Marketingpapiere interpretieren will.

Originally posted by ow
??

Also packen und entpacken im zip-Format ging bei mir schon immer verlustfrei mit Raten bis 1:10 sogar. Nur mal als Denkanstoss.

ow
2002-11-19, 10:02:04
Ja ist schon klar. Die Praxis muss zeigen, was NVs Kompression taugt.

seahawk
2002-11-19, 10:04:11
Allerdings weiß Nvidia ja welcher Daten der Kompremierung zugeführt werden. Das zip Programm muß jaimmer unterschieldiche Datenarten kompremieren.

Ich denke es ist also relativ gut möglich zu sagen, wie effektiv die Kompression ist.

(ein gleicher Wordtext wird ja auch immer ein gleiche Kompremierung erreichen)

Exxtreme
2002-11-19, 10:11:19
Bei einer verlusstfreien Kompression kann man AFAIK nie sagen, wie effektiv das im Endeffekt wird. Man kann nur sagen, daß je komplexer das Bild, desto schlechter wird die Komprimierung werden. Kannst ja mal selber versuchen. Nimm ein Photo und eine einfache Strich-Zeichnung mit gleicher Auflösung und Farbtiefe und wähle dann das BMP-Format. Dann zippe beide Dateien und schaue auf die Grösse.
Originally posted by seahawk
Allerdings weiß Nvidia ja welcher Daten der Kompremierung zugeführt werden. Das zip Programm muß jaimmer unterschieldiche Datenarten kompremieren.

Ich denke es ist also relativ gut möglich zu sagen, wie effektiv die Kompression ist.

(ein gleicher Wordtext wird ja auch immer ein gleiche Kompremierung erreichen)

ow
2002-11-19, 10:12:26
??

NV kann nicht wissen, welche Daten komprimiert werden. Das haengt doch davon ab, was in den Frambuffer geschrieben wird.
Es kann sogar sein, dass die Daten sehr schlecht zu komprimieren sind.

mapel110
2002-11-19, 10:15:28
Originally posted by ow




Da entsinnst du dich falsch.

ich hab aber auch schon gehört, dass laut den agp-specs die karte nur einen slot verwenden darf. das trat schonmal bei der albatron mit der superkühlung auf. das stand iirc sogar auf www.hardtecs4u.de in den news.

ow
2002-11-19, 10:21:54
Originally posted by mapel110


ich hab aber auch schon gehört, dass laut den agp-specs die karte nur einen slot verwenden darf. das trat schonmal bei der albatron mit der superkühlung auf. das stand iirc sogar auf www.hardtecs4u.de in den news.

Wieso? Die AGP-Pro Spec sieht 2 oder 3 Steckplaetze vor, die genutzt werden koennen, aber nicht muessen.
Ebenso muss die Versorgung nicht aus dem AGP-Pro oder AGP-Slot erfolgen, sondern kann auch extern sein.

Ein AGP-Pro Slot hat ja nur zusaetzliche Spannungsversorgungskontakte, nutzen muss man die aber genausowenig, wie eine AGP-Karte ihre Spannung aus dem AGP beziehen muss.

Hauwech
2002-11-19, 10:37:57
Mal so eine Frage an unsere Experten:

Wieviel Millionen Transistoren "mehr" wuerde denn 8x[b]2[b] brauchen? + 256 bit Speicherinterface? So pi mal Auge

Unregistered
2002-11-19, 10:44:41
also ich finde den neuen kühler toll. so wird zumindest das innere des gehäuses nicht aufgewärmt + kann sie wesentlich besser gekühlt werden weil die luft von ausen kommt (und somit kälter ist)--> lüfter kann langsamer laufen --> leiser

Radeonator
2002-11-19, 11:02:05
Originally posted by Unregistered
also ich finde den neuen kühler toll. so wird zumindest das innere des gehäuses nicht aufgewärmt + kann sie wesentlich besser gekühlt werden weil die luft von ausen kommt (und somit kälter ist)--> lüfter kann langsamer laufen --> leiser

Ehm, und wovon träumst du Nachts??? Die Otes Kühlung (die hier nachgebaut wurde und NV typisch als neu angepriesen wird ;) ) ist bnekannter maßen Arsch Laut.Dies Hitzeentwicklung der GF FX GPU soll ja sehr hoch sein (deswegen auch wieder ein solch riesiges PCB) also muss extrem gekühlt werden, wie schonmal gesagt, sieht nach nem Beta Sample aber nicht nach ner fertigen Karte aus!

Unregistered
2002-11-19, 11:12:55
"Ehm, und wovon träumst du Nachts???"

von dir!

"Die Otes Kühlung (die hier nachgebaut wurde und NV typisch als neu angepriesen wird ;) ) ist bnekannter maßen Arsch Laut.Dies Hitzeentwicklung der GF FX GPU soll ja sehr hoch sein (deswegen auch wieder ein solch riesiges PCB) also muss extrem gekühlt werden, wie schonmal gesagt, sieht nach nem Beta Sample aber nicht nach ner fertigen Karte aus!"

falls dus nicht mitbekommen hast verändert sich chiptakt und lüftergeschwindigkeit je nach anwendung.(word langsam, in spielen wo es weniger stört schneller. auserdem soll lüfter auch im schnellsten modus noch leiser sein, als der der gforce4. alles nachzulesen bei anandech.

Radeonator
2002-11-19, 11:22:57
Originally posted by Unregistered
"Ehm, und wovon träumst du Nachts???"

von dir!
falls dus nicht mitbekommen hast verändert sich chiptakt und lüftergeschwindigkeit je nach anwendung.(word langsam, in spielen wo es weniger stört schneller. auserdem soll lüfter auch im schnellsten modus noch leiser sein, als der der gforce4. alles nachzulesen bei anandech.

Du träumst von mir, dann bist du hoffentlich ne Frau ;)

Das problem ist der Grundpegel (dB) der erreicht wird

Abit OTES (http://www.tweakpc.de/hardware/infos/grafik/abit_otes/abit_otes.htm)

ow
2002-11-19, 12:23:08
Originally posted by Radeonator


Du träumst von mir, dann bist du hoffentlich ne Frau ;)

Das problem ist der Grundpegel (dB) der erreicht wird

Abit OTES (http://www.tweakpc.de/hardware/infos/grafik/abit_otes/abit_otes.htm)

"Für den schnellen Betrieb des Chips muss man das Netzteil mit der Grafikkarte verbinden, fehlt dies, so läuft der Chip nur mit gedrosselter Leistung. Und für die Entlüftung sorgt ein Abit-ähnliches geschlossenes Kühlsystem, dass jedoch (anders als bei Abit) recht leise sein soll."

Unregistered
2002-11-19, 12:30:45
Originally posted by ow


"Für den schnellen Betrieb des Chips muss man das Netzteil mit der Grafikkarte verbinden, fehlt dies, so läuft der Chip nur mit gedrosselter Leistung. Und für die Entlüftung sorgt ein Abit-ähnliches geschlossenes Kühlsystem, dass jedoch (anders als bei Abit) recht leise sein soll."

Die Reviewer sagen da genau das Gegenteil, das System ist recht laut.

2B-Maverick
2002-11-19, 12:34:02
back to topic:

die Ultra Variante wird wohl einzig und alleine auf den Markt gebracht, um NVs "Performanceführerschaft" wiederherzustellen.
Da ist nun leider die exotische Kühlung per Heatpipe notwendig geworden um ATI zu schlagen.
Dies macht es ATI theoretisch natürlich leicht, mit ner 400MHz/400MHz (oder mehr) R9700 zu kontern.

Die normale Ti5800 wird dann wohl auch mit nur 400MHz oder ein bissl mehr auskommen müssen, und damit ca. 15-20% langsamer als die 5800Ultra sein. -> ungefähre 9700 Niveau.

Also: man nehme eine völlig (!!) überteuerte (weil am absoluten Prozesslimit) Karte um Marktführer zu bleiben, und beruhige die Massen mit ner normalen Version, die allerdings nicht schneller als die Konkurrenz ist. Voila... gar nicht so blöde wäre da eben nicht ATIs pseudo-R350. :)

Evtl. gibts ja Anfang Februar ne Überraschung.

CU
Mav

seahawk
2002-11-19, 12:37:53
Originally posted by Unregistered


Die Reviewer sagen da genau das Gegenteil, das System ist recht laut.

Dann zeig uns mal ein REVIEW !!! Bitte mit Link.

ow
2002-11-19, 12:40:06
Ich schliesse mich da Seahawk an: noch keiner hatte ein solche Karte im Betrieb, daher ist ueber die Lautstaerke nichts bekannt.

Also heisst es auch hier: abwarten.

Eusti
2002-11-19, 12:43:08
Originally posted by Hauwech
Mal so eine Frage an unsere Experten:

Wieviel Millionen Transistoren "mehr" wuerde denn 8x[b]2[b] brauchen? + 256 bit Speicherinterface? So pi mal Auge Viele ;)

Ich hab mal gelesen, das die meisten der zusätzlichen Transistoren für die Pixelshader draufgegangen sind. Bei weiteren 8 TMU´s würd ich mal so auf ca. 40 Mio. TIPPEN.

Allerdings glaube ich mittlerweile, das DirectX 9.0 es gar nicht mehr zulässt (oder nur sehr kompliziert/ineffizient) das man 2 TMU je Pipe einsetzt. Warscheinlich schliesst die Installation der komplexen Shader den Einsatz einer 2. TMU aus.

x-dragon
2002-11-19, 12:45:08
Originally posted by ow
Ich schliesse mich da Seahawk an: noch keiner hatte ein solche Karte im Betrieb, daher ist ueber die Lautstaerke nichts bekannt.

Also heisst es auch hier: abwarten. Ich meine eigentlich auch das die Karte gestern auch im laufenden Berieb bewundert werden konnte und da "soll" der Lüfter relativ laut gewesen sein. Wo hab ich das bloss noch gelesen ... (es gibt zumindest ja auch Bilder wo die Karte eingebaut ist :) )

ow
2002-11-19, 12:49:15
Originally posted by Eusti
Viele ;)

Ich hab mal gelesen, das die meisten der zusätzlichen Transistoren für die Pixelshader draufgegangen sind. Bei weiteren 8 TMU´s würd ich mal so auf ca. 40 Mio. TIPPEN.

Allerdings glaube ich mittlerweile, das DirectX 9.0 es gar nicht mehr zulässt (oder nur sehr kompliziert/ineffizient) das man 2 TMU je Pipe einsetzt. Warscheinlich schliesst die Installation der komplexen Shader den Einsatz einer 2. TMU aus.

40Mio halte ich fuer zu hoch gegriffen. Vielleicht 30Mio.:D

DX9 macht keine Vorgaben bzgl. der Anzahl TMUs/pipe, genausowenig wie irgendeine andere DX Version oder OGL.

Eusti
2002-11-19, 13:03:02
Originally posted by ow
DX9 macht keine Vorgaben bzgl. der Anzahl TMUs/pipe, genausowenig wie irgendeine andere DX Version oder OGL. Ich hatte da auch nicht an was offizielles gedacht, sondern eher an eine Technische Schwirigkeit, bzw. Unmöglichkeit.

An den Haaren herbeigezogener Vergleich: Auf Autobahnen muust du mindestens 60 km/h fahren. Es ist zwar nicht verboten, ein Auto mit einem 3PS Motor auszustatten, aber dennoch sehr kompliziert, dann ein Auto zu bauen, welches mit 3PS auf die Bahn darf.

Bei DX9.0 muss man bestimmte Spezifikationen mit den Shadern erfüllen. Vielleicht ist es einfach nur Mega kompliziert (teuer) diese Spezifikationen mit 2 TMU zu erfüllen.

ow
2002-11-19, 13:08:25
Originally posted by Eusti

Bei DX9.0 muss man bestimmte Spezifikationen mit den Shadern erfüllen. Vielleicht ist es einfach nur Mega kompliziert (teuer) diese Spezifikationen mit 2 TMU zu erfüllen.

Mega kompliziert wird das nicht sein.
Das ist wohl eher eine Kosten/Nutzen-Frage. Bei einer ungeraden Anzahl an zu verarbeitenden Texturen wird bei 2TMUs/pipe immer 1TMU brachliegen.
Ein aehnliches Problem hat ja auch der Radeon7x00, dessen 3.TMU praktisch NIE genutzt wird.

Und TMUs brauchen schon ein paar Transis-> ebenfalls Mehrkosten.

Birdman
2002-11-19, 13:11:39
bzgl. Lautstärke...
Anand oder Borsi hat geschrieben dass die karte trotzdem dass schon das System an sich laut ware, der GFX Kühler sehr gut rauszuhören war.
Darauf angesprochen hat ihm dann ein nvidia heini gesagt dass für die final Karte an einer leiseren Lösung gearbeitet wird.

ow
2002-11-19, 13:14:43
na und?

Wurden da auch andere Karten im direkten Lautstaerkevergleich getestet?
Ohne Vergleiche sind solche Aussagen relativ wertlos.

Demirug
2002-11-19, 13:22:05
Originally posted by ow


Mega kompliziert wird das nicht sein.
Das ist wohl eher eine Kosten/Nutzen-Frage. Bei einer ungeraden Anzahl an zu verarbeitenden Texturen wird bei 2TMUs/pipe immer 1TMU brachliegen.
Ein aehnliches Problem hat ja auch der Radeon7x00, dessen 3.TMU praktisch NIE genutzt wird.

Und TMUs brauchen schon ein paar Transis-> ebenfalls Mehrkosten.

ow, ich glaube du machst es dir hier zu einfach. Das Problem bei den DX9 PS ist das sich jetzt Fetch und Calculate Ops in beliebiger Rheienfolge befinden dürfen. Bei allen PS von DX 8.1 war dies nicht der Fall. Dadurch konnte man die TMUs und PS-ALUs sehr gut parrallel arbeiten lassen. Bei den DX9 shader kann aber ein fetch auf Werten von einem anderen Fetch oder einer "normalen" Operation passieren. Und für eine operation gilt das gleiche. Mit mehr als einer TMU pro Pipe wird das ganze recht schwer effektive auszulasten.

Unregistered
2002-11-19, 13:22:08
Mal zum Artikel paar rechtschreibefehler aber egal
die ausage
im zweiten (unteren) Doom III Benchmark sind es dann allerdings "nur" noch gut 250 Prozent. Dieser Unterschied kann jedoch von unterschiedlichen Settings herrühren - logisch, daß sich nVidia in den eigenen Benchmarks natürlich die jeweils am besten aussehenden heraussucht.


Schon gesehen das der erste bench mit 4 mal AA ist!
Der zweite ist ohne sol wohl demonstrieren das die karte unter AA Leistungsfähiger ist (bezug auf andere karten)

daflow
2002-11-19, 13:32:13
Mir persönlich ist die Lautstärke ziemlich wurscht.. auf eine Laute Komponente mehr oder weniger würds bei mir auch nich mehr drauf ankommen (arg seit gestern gibt wieder irgendein Lüfter spordisch komische Geräusche von sich)... wer es allerdings WIRKLICH geschafft hat seinen PC richtig leise zu kriegen für den mag das sicherlich ärgerlich sein... aber ich wage zu behaupten, dass der Prozentsatz verschwindend klein ist; Mal abgesehen von der Lautstärke würd ich so ein Kühlungssystem sehr Begruessen, bin froh um jedes Grad weniger in meinem Gehäuse( brauch keine Heizung hab nen Tb1400... ;) ),; ein bischen so ähnlich sieht meine derzeitiges gf4ti4600 'Kühlsystem' ja auch aus;) da werkelt direkt unter dem grachipkühler n Slotblechlüfter der die Wärme rauszieht-> das was man da auf den Bildern sieht ist dann die perfektioniert Variante davon :;)) Fazit : Raus mit der Hitze die hat da nix zu suchen im Gehäuse, koste es was es wolle *gg* (naja nich ganz)

ow
2002-11-19, 13:42:57
Originally posted by Demirug


Mit mehr als einer TMU pro Pipe wird das ganze recht schwer effektive auszulasten.

Von Effizienz (Kosten/Nutzen) sprach ich doch auch;)
Na gut, dann ist es eben etwas schwieriger technisch zu handhaben.

Kann man damit rechnen, dass eine DX9 Parhelia auch nur 1TMU/pipe aufweisen wird?

ow
2002-11-19, 13:46:10
Originally posted by PeTa
ein bischen so ähnlich sieht meine derzeitiges gf4ti4600 'Kühlsystem' ja auch aus;) da werkelt direkt unter dem grachipkühler n Slotblechlüfter der die Wärme rauszieht


das kann eigentlich nicht gut funktionieren, weil die Luefter gegeneinander arbeiten.
Der Grakaluefter will Luft auf den Chip(kuehler) blasen, der Slotluefter nimmt ihm aber diese Luft weg (saugt sie ab).
Sehr ineffiziente Kuehlung.

Demirug
2002-11-19, 13:52:04
Originally posted by ow


Von Effizienz (Kosten/Nutzen) sprach ich doch auch;)
Na gut, dann ist es eben etwas schwieriger technisch zu handhaben.

Kann man damit rechnen, dass eine DX9 Parhelia auch nur 1TMU/pipe aufweisen wird?

Bei Matrox traue ich mich eigentlich nicht zu spekulieren. Die Leute dort neigen zu ungewöhlichen Lösungen.

daflow
2002-11-19, 14:10:26
der blääässst? ;) macht nix sieht bei mir etwa so aus:


xxx=Kühlergf4

|---------xxx---- gf4
|xxxxxx Slotblechlüfter


natürlich nich perfekt
aber ich sag ja die FlowFx Vaiante würd mir besser gefallen;) ... aber ich bin gerne offen fuer Verbesserungen an dieser Konstellation

HiddenGhost
2002-11-19, 15:13:59
Ich tippe mal jetzt darauf, dass bis ende nächsten Jahres die CPUs und Raminterfaces die limitierenden Faktoren sind, die die volle Auslastung der Radeon R300 und NV30 verhindern... => beide Karten werden gleich schnell sein !!!

Was mich mal interessiert... ist nicht eigentlich jetzt ATI in der Lage so etwas wie eif GF4like refresh zu machen ??
Die Zeit hatten sie ja !?¿?!

Einige der R300 sind doch schon ohnehin schon jetzt in der Lage 400MHz mit zu machen. Da ATI scheinbar darauf setzt für die 9500er teilw. defekte Chips zu benutzen kann ich mir auch den umgekerhten weg vorstellen, die Karten mit 375MHz+ als Ultras zu verkaufen !!!

Außerdem gehen immer mal wieder Gerüchte um einen echten R350 und nicht nur einen RV um...

Wie sich diese FPS-Leistungen bei AA und AF in vergleichbarer Quali verhalten bleibt offen und kann nicht in reininterpretiert werden.

Unregistered
2002-11-19, 18:38:49
Originally posted by Razor

Die sollten mal endlich auf 'spezielle' Bedürfnisse ausgerichtete Mainboards bauen.

Wenn's hut ist, dann hol' ich mir anfang nächsten Monats das ABit NF7-S (nForce2), welches neben dem AGP-Slot 'eh keinen PCI-Slot hat (trotzdem 5 'freie' Slots bietet). Insofern wäre es hier eine glatte Veschwendung, so etwas nicht zu nutzen.

Und was ich ebenfalls auch schon im anderen Thread schrieb:

Die Abwärme der GraKa aus dem Gehäuse zu schaffen, ohne damit den Innenraum des PC's zu beheizen empfinde ich einen sehr lobeswerten Ansatz. Die externe Stromversorgung allerdings nicht...

Aber das hatten wir ja schon mal, gell ?
So von wegen AGP-Spezifikation...
:D

Bis denne

Razor

Verstehe ich Richtig das Dir Wurscht ist, wie gross die Karte ist ???
Zeitgleich meckerst Du aber über eine exterene Stromversorgung welche eine sinnvolleren nutzen hat.
und zwar das die Systeme nicht abkacken.
Wenn die Karte solche Lüfter hat dann möchte ich nicht Wissen was diese an Leistung verbrät.
Weg von brute Force, hoch lebe neue Brute Force.

Gruss Labberlippe

Unregistered
2002-11-19, 18:50:08
hi
also jetzt kann man sicher noch nichts genaues sagen was die power angeht da 1. die graka noch nicht da ist.
2. noch kein finales dx 9.0/9.1 progi/game gibt.

ich denke das nvidia ein fettes problemchen hatt!!

wenn der nv30 da ist!
ist der nv30 zwar in vs und ps das optimum was es denn gib, aber ich tippe ati wirt den nv 30 mit der 350/400 kontern und den meistens mit 10 meter vorsprung! weil die r300/350/400 noch ultra cpu limitiert sein werden/ist.
ati hatt mit dem r300 jo auch nicht einfach das minumum von den dx 9.0 ps/vs intergriert sondern ist ein sehr gut gemeintes stücken drüber.
ich denke mal das die r300 fett mithalten kann.
ihr liegt das problem woll kaum an der power der grakas sondern viel mehr an die progger, die einfach produktionsabhänig pfuschen müssen,
das sie das projekt schnell vermarkten könnten(gibt auch andere die beides haben zeit und geld GG) oder bis jeder OpenGL 2.0 intus haben.

die frage ist sinlos was ist besser! bessere frage wär wenn ist schluss!! wenn die grakas später alles in echtzeit C-G-I mit 10000*10000 intern 100simulategrid aa subsampels darstellen soll mit mit ps/vs ultra und 1000fache shaderausfürungen

ein guter spruch ist von einem eurer artikel(sehr gelungen)

später kommt nicht mehr die frage kann die graka diesen effect darstellen? sondern nur noch wie schnell sie es kann! denke mal das mit dx 10 mal ansatzweise an das echtzeitrealistisch dings geht gg oba OT

mapel110
2002-11-19, 19:10:40
die dx9 performance wird nur im 3dmark2002-3 beutung haben. wichtig ist die leistung bei derzeitigen games. also dx7 und 8.

ob die beiden grakas über oder unter den dx9 specs liegen, spielt quasi nur für entwickler eine rolle, für den endanwender wohl kaum.

Kane02
2002-11-19, 20:12:34
Auch mal den Senf dazugeben:

Den einzigen nachteil des NV30 sehe ich in der Speicherbandbreite. Nur:
Ist das RAM-Inferface und die damit verbundene Bandbreite einer Grafikkarte denn so wichtig? Ich denke, das wird sich ernst noch zeigen müssen. Man muss doch auch daran denken, dass auch andere Faktoren wichtig sind wie z.B. Füllrate, vorgezogener Tiefentest Methoden und Shader Leistung.
Soll wegen wegen des 128Bit Ram-Interface der NV30 lansamer als die Radeon sein??? Ein 256Bit Ram-Interface ist ja scheinbar nicht so effizient.


Deswegen kann man das glaub ich so nicht pauschal einschätzen, was schneller ist.


Kane02

Razor
2002-11-19, 20:53:16
Originally posted by Unregistered

Verstehe ich Richtig das Dir Wurscht ist, wie gross die Karte ist ???
Zeitgleich meckerst Du aber über eine exterene Stromversorgung welche eine sinnvolleren nutzen hat.
und zwar das die Systeme nicht abkacken.
Wenn die Karte solche Lüfter hat dann möchte ich nicht Wissen was diese an Leistung verbrät.
Weg von brute Force, hoch lebe neue Brute Force.

Gruss Labberlippe
Ich sach' nur eines:

"Wer lesen kann, ist klar im Vorteil !"
:D

Ja, im Prinzip ist es mir egal, wie groß die Karte ist...
(die V5 6000 fand' ich richtig cool ;-)

Die externe Stromversorgung allerdings nicht, auch wenn es - wie ich schon sagte - kein KO-Kriterium ist. Mir wäre es lieber, wenn sie von dem Ding eine AGPpro-Variante bringen, die auf einen externen Anschluß verzichten kann. Die Kühlung sollten sie aber aber auf jeden Fall drauf lassen, denn die is' cool !
;D

Wie dem auch sei, die Leistung wird entscheiden und bis dahin ist's ja noch 'nen bissel hin. Schun' wir also mal, was dabei heruas kommt...

Bis denne

Razor

P.S.: Das Stichwort "brutalste Gewalt" kam übeigens direkt von mir, sowohl mit GeForce FX, als auch R9700(pro) im Zusammenhang.

mapel110
2002-11-19, 20:54:54
Originally posted by Kane02
Auch mal den Senf dazugeben:

Den einzigen nachteil des NV30 sehe ich in der Speicherbandbreite. Nur:
Ist das RAM-Inferface und die damit verbundene Bandbreite einer Grafikkarte denn so wichtig? Ich denke, das wird sich ernst noch zeigen müssen. Man muss doch auch daran denken, dass auch andere Faktoren wichtig sind wie z.B. Füllrate, vorgezogener Tiefentest Methoden und Shader Leistung.
Soll wegen wegen des 128Bit Ram-Interface der NV30 lansamer als die Radeon sein??? Ein 256Bit Ram-Interface ist ja scheinbar nicht so effizient.


Deswegen kann man das glaub ich so nicht pauschal einschätzen, was schneller ist.


Kane02

der unterschied in der reallen bandbreite ist ja nicht gross. 16 zu 19 gb/s !
sowas lässt sich ausgleichen. wenn die nv30 wirklich mit 500 mhz gpu-takt kommt, wird es auf jedenfall ein vorteil für sie sein. vor allem bei niedrigeren auflösungen und ohne AA.

deswegen ist meine meinung ja, dass der nv30 ohne AA überlegen sein wird, aber mit vielleicht nur gleich und langsamer als die 9700er.
jedenfalls dürfte sich der performance-abstand verringen bzw zu gunsten der 9700er wenden.

aths
2002-11-19, 20:57:53
Originally posted by Razor
Ich vermute mal, dass der NV30 in Sachen Antialiasing sehr viel schneller sein (Stichwort: lossless color compression 4:1), in Sachen reiner Game-Performance mit dem R300 in etwa gelichauf liegen sollte. Aufgrund der brutalen Pixel-Shader Performance könnte der NV30 in zukünftigen Games (U2/Doom3) schon um einiges schneller sein (vermutet wird hier 30-50%), aber in aktuellen Games werden sich beide nicht viel nehmen. Die Compression nützt relativ wenig, da die "guten" FSAA-Modi des NV30 allesamt einen hohen Supersampling-Anteil aufweisen. Das geht schwer auf die Füllrate.

aths
2002-11-19, 20:59:16
Originally posted by Quasar
:lol: @Haarman....
Soweit ich weiss, sieht die AGP-Spec auch vor, den Strombedarf über den AGP-Port zu decken.In welcher Spec steht denn das?

Imo steht da nur drin, wieviel maximal aus dem Port gezogen werden darf.

aths
2002-11-19, 21:00:49
Originally posted by Razor
In allen von mir gelesenen Previews stand absolut nix von irgendwelchen Sampel-Anodnungen.... was 3dcenter schon sehr bald ändern wird :D
Originally posted by Razor
Auch wenn's 'ne Spku ist, ist sie doch derzeit völlig aus der Luft gegriffen.Wäre das so, würden wir diesen Artikel nicht bringen können :D

aths
2002-11-19, 21:02:02
Originally posted by ow
Also packen und entpacken im zip-Format ging bei mir schon immer verlustfrei mit Raten bis 1:10 sogar. Nur mal als Denkanstoss. Die Rate 1:10 kann aber nicht garantiert werden. Exxtreme schrieb von garantierten Frameraten... und pack mal ein normales MP3 mit ZIP ;)

aths
2002-11-19, 21:03:11
Originally posted by Exxtreme
Also ich glaube, wenn es tatsächlich so wäre, daß der NV30 ein Nicht-OG-Sample-Muster kann, dann wäre es marketingmässig als Revolution gefeiert worden. Dem ist aber nicht so. Ich rechne mit OG-Sample-Mustern bei den reinen MSAA-Modi ausser dem 2x-Modus. Dieser dürfte tatsächlich RG sein. Dann wären auch noch die Hybriden aus MSAA und SSAA. Diese dürften ähnlich denen der NV2x-Reihe entsprechen.
Genauso ists. Und da "Auflösung steigern" mehr bringt als OGSS, ist das schon eine gewaltige Enttäuschung. Für AA-Freaks ist GeForce FX nur sehr bedingt geeignet.

aths
2002-11-19, 21:05:42
Originally posted by ow
NV kann nicht wissen, welche Daten komprimiert werden. Das haengt doch davon ab, was in den Frambuffer geschrieben wird.
Es kann sogar sein, dass die Daten sehr schlecht zu komprimieren sind. Bei normalen Framebuffer-Inhalten halte ich mindestens eine 1:2-Komprimierung für erreichbar.

Razor
2002-11-19, 21:07:02
Originally posted by aths
Die Compression nützt relariv wenig, da die "guten" FSAA-Modi des NV30 allesamt einen hohen Supersampling-Anteil aufweisen. Das geht schwer auf die Füllrate.
Von der der NV30 doch eigentlich 'genug' haben sollte...
(obwohl man ja nie genug... ;-)

Razor

Razor
2002-11-19, 21:07:53
Originally posted by aths
... was 3dcenter schon sehr bald ändern wird :D
Wäre das so, würden wir diesen Artikel nicht bringen können :D
Na dann 'erhelle' uns alle doch alsbald möglich !
Und mach's nicht so spannend...
:D

Razor

StefanV
2002-11-19, 21:10:00
Originally posted by Kane02
Auch mal den Senf dazugeben:

Den einzigen nachteil des NV30 sehe ich in der Speicherbandbreite. Nur:
Ist das RAM-Inferface und die damit verbundene Bandbreite einer Grafikkarte denn so wichtig? Ich denke, das wird sich ernst noch zeigen müssen. Man muss doch auch daran denken, dass auch andere Faktoren wichtig sind wie z.B. Füllrate, vorgezogener Tiefentest Methoden und Shader Leistung.
Soll wegen wegen des 128Bit Ram-Interface der NV30 lansamer als die Radeon sein??? Ein 256Bit Ram-Interface ist ja scheinbar nicht so effizient.


Deswegen kann man das glaub ich so nicht pauschal einschätzen, was schneller ist.


Kane02

Vergleich mal die TNT2/M64 mit der 'normalen' TNT2, dann hast du in etwa einen guten Maßstab.

Die MX-200 vs. MX-400 sowie GF4 MX420 vs GF4 MX440 tuns auch ;)


Das dürfte wohl einen Teil deiner Frage beantworten, oder?

StefanV
2002-11-19, 21:13:20
Originally posted by Razor

Von der der NV30 doch eigentlich 'genug' haben sollte...
(obwohl man ja nie genug... ;-)

Razor

...solange sie nicht mit der R300 verglichen wird...

Denn dann zieht die GF FX definitiv den Kürzeren...

StefanV
2002-11-19, 21:14:17
Originally posted by Razor

Na dann 'erhelle' uns alle doch alsbald möglich !
Und mach's nicht so spannend...
:D

Razor

1. du wirst es erfahren, wenn der Artikel fertig ist.

2. wenn aths es nicht so spannend machen würde und alles im Forum posten würde, wer würde dann noch den Artikel lesen??

mapel110
2002-11-19, 21:35:26
Originally posted by Stefan Payne


1. du wirst es erfahren, wenn der Artikel fertig ist.

2. wenn aths es nicht so spannend machen würde und alles im Forum posten würde, wer würde dann noch den Artikel lesen??

ich würde ihn lesen, damit ich dein gespamme nicht zwischendurch hab :P
*aufartikelwart*

ow
2002-11-19, 21:47:36
Originally posted by Stefan Payne


Vergleich mal die TNT2/M64 mit der 'normalen' TNT2, dann hast du in etwa einen guten Maßstab.

Die MX-200 vs. MX-400 sowie GF4 MX420 vs GF4 MX440 tuns auch ;)


Das dürfte wohl einen Teil deiner Frage beantworten, oder?

Nein, das ist ja wohl kein Vergleich. Du vergisst die Effizienz heutiger Memory-Controller (ausser Matrox:D).
Entscheindend ist, wie gut ausbalanciert das Gesamtdesign ist.

Der GFFX ist nicht mit einer TNTM64 oder MX420 vergleichbar.

Popeljoe
2002-11-19, 22:01:31
Abwarten und Tee trinken, ohne Tests glaub ich erstmal nicht viel!
Im Übrigen wäre dieser Thread bestimmt ohne dies substanzlose Geflame von @RAZOR-PAYNE bestimmt netter zu lesen. So muß man jeden dritten Absatz weiterscrollen.
Genervt
Popeljoe

dead
2002-11-19, 22:26:29
Originally posted by Unregistered
also ich finde den neuen kühler toll. so wird zumindest das innere des gehäuses nicht aufgewärmt + kann sie wesentlich besser gekühlt werden weil die luft von ausen kommt (und somit kälter ist)--> lüfter kann langsamer laufen --> leiser


Originally posted by Radeonator


Ehm, und wovon träumst du Nachts??? Die Otes Kühlung (die hier nachgebaut wurde und NV typisch als neu angepriesen wird ;) ) ist bnekannter maßen Arsch Laut.Dies Hitzeentwicklung der GF FX GPU soll ja sehr hoch sein (deswegen auch wieder ein solch riesiges PCB) also muss extrem gekühlt werden, wie schonmal gesagt, sieht nach nem Beta Sample aber nicht nach ner fertigen Karte aus!

OTES saugt die Luft innen an.
Zur nV Lösung kann man anhand des Bildes wenig sagen. Ist aber eh beta.

Gruß.

MadManniMan
2002-11-19, 23:22:25
oy razorle!

Ah, ein Spam-Thread !
:D

@MadManniMan

vorsicht razorle! nicht einfach nur marketingbla nachkauen! wie zecki schon sagte und ich innem anderem thread auch schon(war aber glaub ich zu richthofen) tut auch eine ati mit der verzeichnigung r300 schon hübsch komprimieren

Das musste ich 3x lesen, um es zu verstehen...
:D

So, die ATI macht's also auch ?
Und wieso geht ihr dann bei 20GB/s Bandbreite und color compression schon in diversen Situationen die Luft aus ?

Im Dezember wissen wir mehr !

spam? wo is hier spam?

du weißt doch, daß ich gern kompalizierte verlustigende ausdenkwörter schreibige, nit wahr? :D

wie schon gesagt ist die color-compression nur n anderer begriff für framebuffercompression. und wieso der r300 die puste auch mal ausgeht... könnte es daran liegen, daß "color-compression" nicht mal eben die bandbreite ins unendlich steigert? könnte es sein, daß die füllrate des r300 so groß nicht ist?

und ja, wir wissen im dezember wohl mehr als jetz, aber auch alles? glaub ich nich, lass mich aber auch vom gegenteil überzeugigen

und dann war da ja noch die sache der aa-modi...

und die wären ?

steht doch da

[speku]
selbst wenn der nv30 bei gleichen samples mehr frames spuckt, was bringt es ihm, wenn die leutz bei nv zu doof sind, ordentlich RG einzubasteln?

Woher willst Du das wissen ?
In allen von mir gelesenen Previews stand absolut nix von irgendwelchen Sampel-Anodnungen.
Auch wenn's 'ne Spku ist, ist sie doch derzeit völlig aus der Luft gegriffen.

aus der luft gegriffen ihmo weniger, denn wie wir nv kennen, würden die jede noch so kleine verbesserung dem nv25 gegenüber mit 30-marketingfolien tribut zollen. außerdem hat ja onkel ahts ja schon was angedeutet...

und frag mich jetz nich nach den quellen, sonst frag ich nach deinen! ;)

ZilD
2002-11-20, 03:37:48
also optisch sieht die fx hässlich aus, da muss gemodet werden!.

raibera
2002-11-20, 08:47:01
das wäre mir sowas von wurscht - denn mein pc gehäuse ist - man glaubt es kaum - geschlossen ;D

Pussycat
2002-11-20, 22:50:25
Originally posted by ow



??

Also packen und entpacken im zip-Format ging bei mir schon immer verlustfrei mit Raten bis 1:10 sogar. Nur mal als Denkanstoss.

BIS, du sagst es ja selber. Und die kompression on-the-fly die auch wieder extrem schnell entpack werden sollte und nicht zuviele Transis kosten darf, ist ja etwas schwieriger.

Pussycat
2002-11-20, 23:01:05
Originally posted by raibera
das wäre mir sowas von wurscht - denn mein pc gehäuse ist - man glaubt es kaum - geschlossen ;D

Was? Was tut so jemand in einem Grafik-forum???

aths
2002-11-21, 14:36:46
Originally posted by Stefan Payne
2. wenn aths es nicht so spannend machen würde und alles im Forum posten würde, wer würde dann noch den Artikel lesen?? Öhm... du hast mich ertappt |-)

Xmas
2002-11-21, 19:12:38
Originally posted by Stefan Payne
...solange sie nicht mit der R300 verglichen wird...

Denn dann zieht die GF FX definitiv den Kürzeren...
Äh, es ging doch um die Füllrate, und die liegt bei der GFFX 50% höher...

Unregistered
2002-11-21, 19:50:39
Originally posted by Xmas

Äh, es ging doch um die Füllrate, und die liegt bei der GFFX 50% höher...

Ach, Du meinst die GFFX Ultra?!

Xmas
2002-11-21, 20:02:44
Originally posted by Unregistered
Ach, Du meinst die GFFX Ultra?!
Keine Ahnung, jedenfalls das Modell das die erwarteten und angekündigten 500 MHz bietet. Ich mein ja auch die R9700Pro ;)
Und selbst die nicht-Ultra wird deutlich über 325 MHz liegen.

Haarmann
2002-11-21, 22:06:37
Also laut NV erreicht die NV30 beim Nature Teil vom Zwiebelmurks auf ner P4 3GHz ca 1 fps oder 2-3% mehr denn meine nocht oc R9700pro mit 1600+ SMP bei 1280*1024 32bpp 8AF 4AA. Drehe ich etwas an der MHZ Schraube oder installe nen anderen, more Nature Power Treiber (zZ DX9 Beta) - adios NV30@Nature.

Unregistered
2002-11-21, 22:12:24
Originally posted by Haarmann
Also laut NV erreicht die NV30 beim Nature Teil vom Zwiebelmurks auf ner P4 3GHz ca 1 fps oder 2-3% mehr denn meine nocht oc R9700pro mit 1600+ SMP bei 1280*1024 32bpp 8AF 4AA. Drehe ich etwas an der MHZ Schraube oder installe nen anderen, more Nature Power Treiber (zZ DX9 Beta) - adios NV30@Nature.

...bei wahrscheinlich deutlich besserer Antialiasing-Qualität.

Unregistered
2002-11-21, 22:13:31
Originally posted by Unregistered


...bei wahrscheinlich deutlich besserer Antialiasing-Qualität.

...auf der Radeon.:)

StefanV
2002-11-21, 22:28:40
Originally posted by Unregistered


...auf der Radeon.:)

oder:

...bei Haarmann ;)

Birdman
2002-11-21, 22:40:23
Originally posted by Stefan Payne
oder:
...bei Haarmann ;)
Haarman mag FSAA afaik sowieso ned, also wird ers ausserm zum benchen eh ned verwenden ;)

Haarmann
2002-11-22, 00:09:53
Birdman

Bingo... Nur bei Doom3 Alpha isses drinnen... da kriegst sonst Zustände bei den 640*480, weil mehr geht ja ned wirklich bei dieser Alpha und nem 1280er Moni ;)

Aber wie gesagt... mit etwas OC erreiche ich auch bei gleichen Settings lockere 45 fps und lieg damit ca 10% vor NV30 ... Muss dann auch mal aufm 1900+ Dual austesten und ned nur aufm 1600+ - ev reicht auch das schon für nen Gleichstand.

Razor
2002-11-22, 00:26:17
Originally posted by aths
Die Compression nützt relativ wenig, da die "guten" FSAA-Modi des NV30 allesamt einen hohen Supersampling-Anteil aufweisen. Das geht schwer auf die Füllrate.
Von der die Gute mehr als genug hat...
:D

Razor

Hmmm...
Hatte ich schon mal geschrioeben...
Aber weil's so schön war, laß ich's drin !
;D

Razor
2002-11-22, 00:28:53
Originally posted by aths
... was 3dcenter schon sehr bald ändern wird :D
Wäre das so, würden wir diesen Artikel nicht bringen können :D
War sehr interessant, der Artikel...
... ist aber trotzdem nichts anderes, als reine Spekulation !

Wen ich as richtig sehe:
- keinerlei Bildvergleiche
- keinerlei Performancebtrachtung
eigentlich überhaupt nichts, ausser reine Theorie ohne (faktische) Grundlagen.
Zugegebener Maßen aber immerhin eine plausible, was aber trotzdem schlich falsch sein kann.

Warten wir doch einfach ab, gell ?
;-)

Razor

Razor
2002-11-22, 00:37:05
@MadManniMan

"wie schon gesagt ist die color-compression nur n anderer begriff für framebuffercompression. und wieso der r300 die puste auch mal ausgeht... könnte es daran liegen, daß "color-compression" nicht mal eben die bandbreite ins unendlich steigert? könnte es sein, daß die füllrate des r300 so groß nicht ist?"

Kann es sein, dass das Kompressionsverfahren von nVidia einfach effektiver ist ?
*vorsicht, reine Spekulation !*

"und ja, wir wissen im dezember wohl mehr als jetz, aber auch alles? glaub ich nich, lass mich aber auch vom gegenteil überzeugigen"

Zumindest können wir dann wohl 'echte' Benchmarks in Augenschein nehmen und hoffentlich auch mögliche Bildvergleiche, um uns das Fischen im Trüben zu erleichtern (auch aths brauch' dann nicht mehr wild spekulieren ;-).

"aus der luft gegriffen ihmo weniger, denn wie wir nv kennen, würden die jede noch so kleine verbesserung dem nv25 gegenüber mit 30-marketingfolien tribut zollen. außerdem hat ja onkel ahts ja schon was angedeutet..."

Was sein kann, aber nicht sein muss...
Klingt plausibel, mehr aber auch nicht.
Wir werden sehen, gell ?

"und frag mich jetz nich nach den quellen, sonst frag ich nach deinen! ;)"

Zeig mir Deine, dann...
;D

Razor

Birdman
2002-11-22, 00:49:48
Originally posted by Haarmann
Birdman

Bingo... Nur bei Doom3 Alpha isses drinnen... da kriegst sonst Zustände bei den 640*480, weil mehr geht ja ned wirklich bei dieser Alpha und nem 1280er Moni ;)

Aber wie gesagt... mit etwas OC erreiche ich auch bei gleichen Settings lockere 45 fps und lieg damit ca 10% vor NV30 ... Muss dann auch mal aufm 1900+ Dual austesten und ned nur aufm 1600+ - ev reicht auch das schon für nen Gleichstand.
nix für ungut Haari, aber ich behaupte mal dass du dich beim benchen in der Auflösung oder dem FSAA vertan hast....
Meine Werte mit P4 2.5Ghz und Radeon9k7 (nix overclocked)

1280x1024x32 & 4xFSAA
---------------------
8x perf. AF: 33.7fps
8x quali AF: 27.6fps
---------------------
Treiber waren die 6193er, da die Catalyst 2.4 mehr Bugs haben als ich schwanzläuse. (stichwort: quake)

Und jo, du spielst die doom3 alpha? nee nee, sowas tu ich mir ned an, und die final schon gar ned. Ein spiel/eine grafik in dem es nur darum geht, dem spieler Angst einzujagen kann mir gestohlen bleiben....dann lieber 3 stunden lindenstrasse als 5min doom3

aths
2002-11-22, 00:54:28
Originally posted by Razor
eigentlich überhaupt nichts, ausser reine Theorie ohne (faktische) Grundlagen.
Zugegebener Maßen aber immerhin eine plausible, was aber trotzdem schlich falsch sein kann.Spekulation ist nicht gleich Theorie. Die Grundlagen sind, wie du ja gelesen hast, offizielle Aussagen von nVidia. Wenn man nun annimmt, dass

1. diese Aussagen nicht gelogen sind
2. nVidia die jeweils cleverste Lösung benutzt,

so läuft das auf genau die Modi raus, die im Artikel vorgestellt wurden.

Razor
2002-11-22, 01:04:28
Originally posted by aths
Spekulation ist nicht gleich Theorie. Die Grundlagen sind, wie du ja gelesen hast, offizielle Aussagen von nVidia. Wenn man nun annimmt, dass

1. diese Aussagen nicht gelogen sind
2. nVidia die jeweils cleverste Lösung benutzt,

so läuft das auf genau die Modi raus, die im Artikel vorgestellt wurden.
Ich sagte ja schon, dass Deine Ausführungen plausibel klingen.
Nichts desto trotz sind es Spekulationen und sollten auch so gesehen werden.

Würde mich allerdings auch nicht wundern, wenn Du recht behalten würdest.
Könnte aber auch gut sein, dass da was ganz anderes kommt.

Schaun' wir mal !

Razor

AlfredENeumann
2002-11-22, 01:40:56
Originally posted by Birdman


1280x1024x32 & 4xFSAA
---------------------
8x perf. AF: 33.7fps
8x quali AF: 27.6fps
---------------------
Treiber waren die 6193er, da die Catalyst 2.4 mehr Bugs haben als ich schwanzläuse. (stichwort: quake)




Sorry Birid, da haut mit deinem System aber dann was nicht hin. Da erreiche ich ja noch mehr mit nur nem 1700er AMD.

Birdman
2002-11-22, 02:25:04
Originally posted by AlfredENeumann
Sorry Birid, da haut mit deinem System aber dann was nicht hin. Da erreiche ich ja noch mehr mit nur nem 1700er AMD.
das kann ich nicht glauben....

1. Sys. vor 2 Tagen neu aufgesetzt.
2. Vor dem neu aufsetzten schon gleich viel fps
3. @1600x1200x32 (ohne FSAA/AF) habe ich 50.2fps (1024x768 --> 100.2fps)
3.5 Nagus hat mit seinem Sys ~52fps in dieser Auflösung, aber auch die schnellere CPU. (nachgekukkt im bench forum)
4. Alle anderen Benches sind bei mir sehr ähnlich zu den referentsystemen, wieso soll denn ausgerechnet 1280x1024x32 mit 4xAA und 8xAF so viel langsamer sein?
5. wenn die ~50fps @1600x1200 normal sind, dann passen 45fps @ 1280x1024x32 mit 4xAA und 8xAF einfach nicht hin.
6. @1024x768 mit 4xAA und 8xAF habe ich ~46fps...also den Wert der etwa auch haari erreicht --> daraus schlussfolgere ich, dass Haari vergessen hat die Auflösung im Zwiebelmurks zu erhöhen.

ow
2002-11-22, 10:42:13
Originally posted by Birdman

---------------------
Treiber waren die 6193er, da die Catalyst 2.4 mehr Bugs haben als ich schwanzläuse. (stichwort: quake)



Da der Quake-Bug nur den OpenGL ICD betrifft, reicht es aus diese eine Datei mit der Vorgaengerversion zu ersetzen. Der Rest des Catalyst 2.4 ist problemlos nutzbar. Mach ich unter Win98 mit meiner Radeon1 auch so (die zeigt naemlich denselben Quake1/2 Bug).

Unregistered
2002-11-22, 12:08:24
Originally posted by Birdman

das kann ich nicht glauben....

1. Sys. vor 2 Tagen neu aufgesetzt.
2. Vor dem neu aufsetzten schon gleich viel fps
3. @1600x1200x32 (ohne FSAA/AF) habe ich 50.2fps (1024x768 --> 100.2fps)
3.5 Nagus hat mit seinem Sys ~52fps in dieser Auflösung, aber auch die schnellere CPU. (nachgekukkt im bench forum)
4. Alle anderen Benches sind bei mir sehr ähnlich zu den referentsystemen, wieso soll denn ausgerechnet 1280x1024x32 mit 4xAA und 8xAF so viel langsamer sein?
5. wenn die ~50fps @1600x1200 normal sind, dann passen 45fps @ 1280x1024x32 mit 4xAA und 8xAF einfach nicht hin.
6. @1024x768 mit 4xAA und 8xAF habe ich ~46fps...also den Wert der etwa auch haari erreicht --> daraus schlussfolgere ich, dass Haari vergessen hat die Auflösung im Zwiebelmurks zu erhöhen. Moin errinerst du dich noch daran das meine ti 4600mit nem 1700+ AMD dein kack sys auch locker wegknickt ist halt p4 ne besser kühlen!
oder software richtig anpassen aber dein sys ist dafür was es ist too slow much toooo slllooowwww sry
:)

Unregistered
2002-11-22, 13:14:49
Originally posted by Unregistered
Moin errinerst du dich noch daran das meine ti 4600mit nem 1700+ AMD dein kack sys auch locker wegknickt ist halt p4 ne besser kühlen!
oder software richtig anpassen aber dein sys ist dafür was es ist too slow much toooo slllooowwww sry
:)
blubb, blubb, blubb...wenn wir schon Schwanzlängenvergleiche machen, dann nenn mir einen Bench (inkl. verwendete Settings) wo dein Sys schneller ist als meins.
Ansonsten einfach schön den schnabel zuhalten und versuchen den eigenen Rechner mehr als 3h stabil im Windows Fahrwasser zu halten ;)

Unregistered
2002-11-22, 13:18:20
Originally posted by Unregistered

blubb, blubb, blubb...wenn wir schon Schwanzlängenvergleiche machen, dann nenn mir einen Bench (inkl. verwendete Settings) wo dein Sys schneller ist als meins.
Ansonsten einfach schön den schnabel zuhalten und versuchen den eigenen Rechner mehr als 3h stabil im Windows Fahrwasser zu halten ;) 3std lol 7tage 24 std

windows wenns sein muss 98se nt4 2000 oder was meinste den birdi log dich doch ein d3 war es
lol o lol

Birdman
2002-11-22, 17:19:35
Hier @work geht nix mit einloggen, und zudem bist gerade DU ja der richtige der sowas verlangt ;)

Metatron1
2002-11-23, 14:12:20
Originally posted by Birdman

nix für ungut Haari, aber ich behaupte mal dass du dich beim benchen in der Auflösung oder dem FSAA vertan hast....
Meine Werte mit P4 2.5Ghz und Radeon9k7 (nix overclocked)

1280x1024x32 & 4xFSAA
---------------------
8x perf. AF: 33.7fps
8x quali AF: 27.6fps
---------------------
Treiber waren die 6193er, da die Catalyst 2.4 mehr Bugs haben als ich schwanzläuse. (stichwort: quake)

Und jo, du spielst die doom3 alpha? nee nee, sowas tu ich mir ned an, und die final schon gar ned. Ein spiel/eine grafik in dem es nur darum geht, dem spieler Angst einzujagen kann mir gestohlen bleiben....dann lieber 3 stunden lindenstrasse als 5min doom3


Hi

Ich habe mal meine Radeon9700 Pro @ 410/750, Nature Durchlaufen lassen:

1280x1024x32 & 4xFSAA
---------------------
8x perf. AF: 46.3fps
8x quali AF: 41.9fps
---------------------
DirextX 9(RC0), Treiber 6228 Beta!!
CPU 1606Mhz(153FSB)

Also kann ich die werte von Haarmann bestätigen *gg*
Wenn ich meine VPU auf 425Mhz laufen lasse dann sind es 2-4FPS mehr!!! :D




Theorätische Frage @ all:
Die nv30 Braucht doch mehrere Takte um FSAA darzustellen, die R300 nur einen Takt!!??
Sollte dann die R300 dann nicht schneller sein mit FSAA oder zu mindest gleich schnell??
Weis da jemand mehr??

Danke :)


Gruß
Meta

Quasar
2002-11-23, 14:58:32
Wie kommst du darauf?
4xFSAA flutscht (angeblich) ohne Probleme durch die Pipes...

aths
2002-11-23, 15:13:53
Originally posted by Quasar
Wie kommst du darauf?
4xFSAA flutscht (angeblich) ohne Probleme durch die Pipes... Im Zusammenhang mit Framebuffer-Komprimierung wäre alles andere ein Armutszeugnis.

aths
2002-11-23, 15:15:56
Originally posted by Razor
Ich sagte ja schon, dass Deine Ausführungen plausibel klingen.
Nichts desto trotz sind es Spekulationen und sollten auch so gesehen werden.Es sind keine Spekulationen, sondern Theorien.

Spekulationen sind Vermutungen ins Blaue. Der AA/AF-Artikel hält sich hingegen strikt an offizielle nV-Aussagen und interpretiert diese.

aths
2002-11-23, 15:19:41
Originally posted by Metatron1
Theorätische Frage @ all:
Die nv30 Braucht doch mehrere Takte um FSAA darzustellen, die R300 nur einen Takt!!??
Sollte dann die R300 dann nicht schneller sein mit FSAA oder zu mindest gleich schnell??
Weis da jemand mehr??Um diese Frage habe ich mich im AA/AF-Artikel mit voller Absicht gedrückt :D

nVidias hohen Modi ziehen kräftig an der Füllrate, allerdings hat GFFX auch mehr davon. Es kommt letztlich darauf an, wie effektiv die jeweiligen Architekturen sind. Außerdem hat die Karte bei FSAA ja nicht nur AA-Samples zu erzeugen, sondern auch noch andere Dinge zu tun. Ich für mein Teil wage nicht abzuschätzen, wo da der limitierende Flaschenhals liegt. Dazu müssten erst mal umfangreiche, unabhängige Benchmarks vorliegen.

Und wenn nVidias 8x-Modus mit ATis 4x + 2x AF mithalten kann, besteht, kein Grund, nVidia etwas vorzuwerfen.

Pussycat
2002-11-23, 20:02:45
Originally posted by aths
nolite iudicare ut non iudicemini

Beurteilt nicht in dem Versuch selber beurteilt zu werden, stimmts? (bin mir nicht so sicher:))

Von wem ist das?

Pussycat
2002-11-24, 21:27:32
Aths?

askibo
2002-11-24, 21:33:22
Stammt aus der Bibel. ;)

"Richtet nicht, damit ihr nicht gerichtet werdet."

Pussycat
2002-11-24, 22:03:48
War doch relativ gut in der Nähe, nicht :)

Unregistered
2002-11-25, 18:39:38
Originally posted by Katrin
Hallo

möchte hier nun keinen Krieg auslösen. :-)

Sagt ma. Was glaubt ihr. Ist die neue Geforce FX viel schneller als die 9700Pro ???

Danke

Katrin