Archiv verlassen und diese Seite im Standarddesign anzeigen : G80: Versuch Nr. 3 (erstes Posting beachten!)
Seiten :
1
2
3
4
5
6
[
7]
8
9
Vor allem es gibt ja soviele Mushave Games zZ :rolleyes:
Eine X1900XT reicht für alles was es im Moment gibt. Dann kommen einige mit den neuen AA Modi des G80, glaubt ihr tatsächlich ihr könnt alle Spiele damit super flüssig zocken? Ist wieder pure Träumerei.
Den meisten gehts auch nicht um die Games, sondern um die beschissenen 3D Marks ....
Ich spiele wegen meinem TFT alle Spiele in 1920x1200 und habe eine X1900XT, aber bei vielen neuen Spielen ist diese Graka leider schon ziemlich überfordert. Wenn man dann noch ordentlich AA/AF aktiviert, dann ists komplett vorbei. Von daher würde sich in meinem Fall schon eine G80 lohnen und das ist nur ein Beispiel. Also komplett "unnütz" ist eine G80 auch jetzt nicht.
zumal es JETZT keinerlei Software gibtDas halte ich für ein Gerücht. Es gibt massig Software. Zwar keine D3D10-Spiele, aber auch DX9-Spiele profitieren ordentlich von mehr Grafikkartenpower und besserer Bildqualität.
mit einem R580/G71 kommt man bestens zurecht.Will ich ja gar nicht abstreiten. Ich komme sogar noch mit einer 7800GTX/256 prima zurecht und das wird auch noch zwangsweise ein paar Monate so bleiben. Aber warum sollte jemand, der das Geld hat, sich nicht jetzt einen G80 kaufen? Ist doch eine geile Karte.
deekey777
2006-11-04, 22:23:23
Wäre es möglich zum eigentlichen Thema zurückzukehren?
thade
2006-11-04, 22:23:44
Um eins klarzustellen, ich finde die neuen G80 auch geil, aber trotzdem ist es kluger erstmal ATis Antwort abzuwarten...
Ich glaube kaum das irgendwer jemandem den Kauf des G80 madig reden kann, die Benchmarks und bekannten Features sprechen für sich. Die Community leckt doch nach soner Karte seit einiger Zeit.
Bis jetzt, wenn man den Gerüchten glauben schenkt, gibts nix negatives zu berichten, und wenn erstmal SLI Benches auf die Welt losgelassen werden...
Euphorie ahoi, halte ich zumindest für gerechtfertig. Das hat aber nix mit der Firma zu tun.
Blackpitty
2006-11-04, 22:24:24
Sag mal wollt ihr mich nicht verstehen? Ihr könnt den G80 immer noch im Januar kaufen, beim R600 Release, zumal es JETZT keinerlei Software gibt, mit einem R580/G71 kommt man bestens zurecht.
wer hier wan und was kauft, entscheidet jeder für sich selber, und es gibt eben auch das Hobby PC, wo andere nicht verstehen müssen, was man selber tut, ich persönlich finde es hammer wieder mal was neues zu verbauen, auch wen man es nicht braucht, oder doch.
Und warum gibts keine SW? oder glaubst du der G80 zeugt nur untern DX10 nen Bild an? ;D
:edit: thade ist ein ATI Fanboy, der sich im Thread geirrt hat....
:edit²: und endlich kann kein ATIler merh sagen: aber ATI hat ja die bessere Bildquallität:cool:
dargo
2006-11-04, 22:26:38
Vor allem es gibt ja soviele Mushave Games zZ :rolleyes:
Eine X1900XT reicht für alles was es im Moment gibt.
Nein, da muss ich dich enttäuschen. Für Call of Juarez reicht eine X1900XT 512MB schon in 1280x1024 4xAA/Ingame AF mit HDR nicht mehr bei vollen Details aus. Und bedenke, dass einige User deutlich höhere Auflösungen fahren.
ATi zeigt nVidia jedes Jahr wo der Hammer hängt. Jedes ATi Gegenstück war bisher schneller, NV musste schon auf 2 Chips umstellen um mitzuhalten, bzw um vorbeizuziehen, soviel dazu.
NV bringt es ja nichtmal fertig einen gscheiten Konsolenchip zu entwickeln :rolleyes:
Ok, also doch ATI Fanboy. Somit ist weitere Diskussion mit dir sinnlos.
Slipknot79
2006-11-04, 22:26:59
Wie man bei dir sehen kann eben nicht. G80 ist doppelt so schnell, macht DICH aber nicht zufriedener und ernüchtert dich sogar...
Ja bei mir stellt sich keine Zufriedenheit ein, und? Es is egal was sich einstellt, muss jeder für sich selbst entscheiden.
deekey777
2006-11-04, 22:28:22
Es reicht jetzt. Klärt es per PN oder lasst es gleich.
thade
2006-11-04, 22:32:39
Ok, also doch ATI Fanboy. Somit ist weitere Diskussion mit dir sinnlos.
Du irrst, ich kaufe nunmal das was besser ist. Außerdem hat meine Meinung bezüglich des RSX kaum was mit Fanboysein zu tun.
ATi zeigt nVidia jedes Jahr wo der Hammer hängt.Na wenn das so ist. Seit NV40 ist es eigentlich eher andersrum.
thade
2006-11-04, 22:37:41
Na wenn das so ist. Seit NV40 ist es eigentlich eher andersrum.
R300 > NV30
R350 > NV35
R420 > Nv40
R520 > G70
R580 > G71
Die Minirefreshes lasse ich mal weg, da war ATi auch eigentlich jederzeit überlegen. Die Doppeldecker von NV zählen nicht! ATi ist seit September 2002 nvidia in Sachen Singlekarten einfach überlegen und war immer schneller!
€dit;
Aber genug OT!
Blackpitty
2006-11-04, 22:47:19
R300 > NV30
R350 > NV35
R420 > Nv40
R520 > G70
R580 > G71
Die Minirefreshes lasse ich mal weg, da war ATi auch eigentlich jederzeit überlegen. Die Doppeldecker von NV zählen nicht! ATi ist seit September 2002 nvidia in Sachen Singlekarten einfach überlegen und war immer schneller!
€dit;
Aber genug OT!
Du merkst aber schon, das du im G80 Thread bist, wo sich niemand für eine ATI interessiert?
thade
2006-11-04, 22:48:37
Du merkst aber schon, das du im G80 Thread bist, wo sich niemand für eine ATI interessiert?
Das trifft auf fast keinen zu, selbst dich müsste der R600 interessieren. ;)
"Ihr könnt den G80 immer noch im Januar kaufen"
Ihr müsst auch noch die Mehrwertsteuer bedenken, deswegen kommt der g80 im richtigen Moment. Als hätte sich Nvidia darüber Gedanken gemacht.
drmaniac
2006-11-04, 23:23:56
die MWSt.?
denke nicht.
Kostet die Karte jetzt 550 Euro incl 16% Mwst kostet sie mit 19% Mwst dan 564 euro, also 14 euro mehr. Und bis 1.1.2007 fallen die Karten mehr im Preis als 14 Euro ;)
Neosix
2006-11-04, 23:24:14
die g80 wird ja wohl nicht für deutschland alleine rauskommen sondern international. die haben sich garantiert keine gedanken über die deutschen mws gemacht ^^
sondern wie hier schon treffend gesagt wurde. sie kommt weil sie eben fertig ist.
Mastermind
2006-11-04, 23:24:33
Da der Fred grad wieder offen ist :smile:
ist schon etwas über den Quadro auf Basis des G80 geplant?
Könnte vielleicht ein Kenner der Materie darlegen, worin sich Quadros normalerweise technisch von den GFs unterscheiden und wo die Vorteile somit liegen und wie es beim G80 sein wird bzw. sein könnte? (Ich weiß wo die Anwendungsgebiete liegen, aber nicht warum)
Kann es nicht sein, dass es extreme Lösungen mit Quadros geben wird, welche auch für Spieler interessant werden könnten?
Hvoralek
2006-11-04, 23:26:11
AFAIK: 64 TMUs, die je zwei Bi-Samples generieren können. Oder einmal trilinear. Da nirgends mehr rein bilinear gefiltert wird (bzw. sollte), sind es praktisch 32.Eher umgekehrt: Eben deswegen dürfte man diese wohl 32 Textureinheiten praktisch behandeln können, als wären es 64.
/edit: Oder hat die Voodoo trilineare TMUs?
Rente
2006-11-04, 23:42:14
Da der Fred grad wieder offen ist :smile:
ist schon etwas über den Quadro auf Basis des G80 geplant?
Könnte vielleicht ein Kenner der Materie darlegen, worin sich Quadros normalerweise technisch von den GFs unterscheiden und wo die Vorteile somit liegen und wie es beim G80 sein wird bzw. sein könnte? (Ich weiß wo die Anwendungsgebiete liegen, aber nicht warum)
Kann es nicht sein, dass es extreme Lösungen mit Quadros geben wird, welche auch für Spieler interessant werden könnten?
Für gewöhnlich sind die Quadros identisch mit den normalen Geforce-Karten, die Unterschiede entstehen durch den Treiber und die damit verbunden Optimierungen bzw. Beschleunigung von professionellen Anwendungen (Stichwort SDI).
Früher war es mal möglich aus bestimmten Geforce-Modellen Quadros zu machen (mit Hard- oder Softmods), dem schiebt aber nVidia in letzter Zeit den Riegel vor.
cl55amg
2006-11-04, 23:47:06
Hier ist ein G80 SLI Aufbau.
Wegen des NDAs veröffentlichen wir noch keine konkreten Ergebnise.
http://www.awardfabrik.de/forum/showpost.php?p=10921&postcount=466
Hier ist ein G80 SLI Aufbau.
Wegen des NDAs veröffentlichen wir noch keine konkreten Ergebnise.
http://www.awardfabrik.de/forum/showpost.php?p=10921&postcount=466
Was heisst denn wir`?Du hast mit denn typen doch garnichts zutun cl55amg.;)
Man kennt sich aus dem hardwareluxx ;)
cl55amg
2006-11-05, 00:13:25
Ich bin Mitbegründer und Mitarbeiter der Seite.
no_name ist seit einigen Jahren ein guter Freund von mir.
Zusätzlich moderiere ich den Grafikkartenbereich.
Dann nimm die Bilder auch bitte wieder vom Netz, denn das gehört auch zum NDA.
Nicht gerade prickelnd für andere Seiten, ist das.
Für gewöhnlich sind die Quadros identisch mit den normalen Geforce-Karten, die Unterschiede entstehen durch den Treiber und die damit verbunden Optimierungen bzw. Beschleunigung von professionellen Anwendungen (Stichwort SDI).
Früher war es mal möglich aus bestimmten Geforce-Modellen Quadros zu machen (mit Hard- oder Softmods), dem schiebt aber nVidia in letzter Zeit den Riegel vor.
Naja die G70 Quadro Karte hatte ja nen sehr geilen Lüfter, leise und Effizient. Vieleicht kommt das Design wieder ;)
Gummikuh
2006-11-05, 02:00:20
Ok...den ganzen Thread hab ich mir jetzt mal net durchgelesen, da er jetzt schon verdammt laaaang ist...8800GTX ist ja schön und gut...aber was meint ihr, wie wird die 8800GTS abschneiden?
In der PC-GH war ja auch nen Artikel über die beiden neuen NV Flagschiffe aber letztere klingt nach den theorethischen Daten so bischen nach X1950XTX Niveau....es sei den Unified Shader bringt erheblich was.
Eure Statements bitte :uup:
Banshee18
2006-11-05, 02:10:59
Ok...den ganzen Thread hab ich mir jetzt mal net durchgelesen, da er jetzt schon verdammt laaaang ist...8800GTX ist ja schön und gut...aber was meint ihr, wie wird die 8800GTS abschneiden?
In der PC-GH war ja auch nen Artikel über die beiden neuen NV Flagschiffe aber letztere klingt nach den theorethischen Daten so bischen nach X1950XTX Niveau....es sei den Unified Shader bringt erheblich was.
Eure Statements bitte :uup:
Sie ist ca. so schnell wie eine 7950GX2. Hier gibts auch irgendwo konkrete Zahlen, wo sie iirc gaaaaanz minimal langsamer ist. Da sollte aber noch einiges an Potenzial geben, Stichwort Treiber.
Ich wundere mich ein wenig über die Form des Kühlers, insbesondere die Schlitze im hinteren Teil. Die kann ich mir eigentlich nur in Verbindung mit Quad-SLI mit vier Karten erklären, da der Kühler dadurch auch in Standardgehäusen mit 7 Slots funktionieren würde, wobei diese schon recht hoch ansetzen müssten damit eine vierte Karte überhaupt noch passt, und viel Luft bekäme sie dort auch nicht. Jedenfalls hätte man dann ja keinen Slot mehr für eine Soundkarte. Ein weiteres Indiz dafür, daß im NVIO auch "Soundstorm 2" stecken könnte?
incurable_nli
2006-11-05, 08:43:15
Ein weiteres Indiz dafür, daß im NVIO auch "Soundstorm 2" stecken könnte?
Da dürfte der Wunsch Vater des Gedanken sein, IMHO sind die Schlitze einfach für die Zuführung von kühler Luft in diesem Teil des Wärmetauschers, hereingezogen durch die Strömung unter der Plastikabdeckung.
Hehe, NOCH sind wir ja im Spekuforum und so unwahrscheinlich ist es doch nicht. Einen alternativen Ausgang für die Abluft, wenn der eigentliche "Auspuff" verdeckt ist, halte ich da für wahrscheinlicher, auch die zwei SLI-Konnektoren sprechen ja für Quad-SLI mit vier Karten. Was Soundstorm angeht, sicher ist vorrangig der Wunsch Vater des Gedankens. Einen Audioeingang hat auf den Karten trotzdem bisher niemand entdeckt, für HDMI bräuchte man aber schon eine Soundquelle. Wäre doch noch ein netter Paukenschlag neben den bereits durchgesickerten Daten.
ArchMark 0.50 - GeForce 8800 GTX
http://www.hardforum.com/showpost.php?p=1030168607&postcount=374
Fillrate Tester - GeForce 8800 GTX
http://www.hardforum.com/showpost.php?p=1030168595&postcount=372
incurable_nli
2006-11-05, 09:28:33
auch die zwei SLI-Konnektoren sprechen ja für Quad-SLI mit vier Karten.
Klar, wenn man Kettchen mag kann man so unendlich viele verbinden, aber warum ausgerechnet 4, welche ja, wie Du schon richtig bemerkst, garnicht physisch ins Gehäuse passen? Ich hätte jetzt eher an TriSLI gedacht, analog zum Renderlimit von DX9.
Was Soundstorm angeht, sicher ist vorrangig der Wunsch Vater des Gedankens. Einen Audioeingang hat auf den Karten trotzdem bisher niemand entdeckt, für HDMI bräuchte man aber schon eine Soundquelle.
Die Karten haben doch auch gar kein HDMI, das wäre ja auch zu schön, soviel Leistung und dann nichtmal 'nen 30-Zöller anschliesen können.
Wäre doch noch ein netter Paukenschlag neben den bereits durchgesickerten Daten.
Es gibt da diese handvoll von Soundstorm Fans, die damals wohl wegen des digitalen Mehrkanalausgangs mit Spielunterstützung riesige Freunde von nVidias Onboardlösung waren, aber ansonsten kräht doch kein Hahn mehr danach. Ich habe eine vernünftige Soundkarte, so ein Nischenprodukt brauche ich nicht, und schon gar nicht auf meinem Bilderbrettchen.
Rente
2006-11-05, 09:38:01
Hehe, NOCH sind wir ja im Spekuforum und so unwahrscheinlich ist es doch nicht. Einen alternativen Ausgang für die Abluft, wenn der eigentliche "Auspuff" verdeckt ist, halte ich da für wahrscheinlicher, auch die zwei SLI-Konnektoren sprechen ja für Quad-SLI mit vier Karten. Was Soundstorm angeht, sicher ist vorrangig der Wunsch Vater des Gedankens. Einen Audioeingang hat auf den Karten trotzdem bisher niemand entdeckt, für HDMI bräuchte man aber schon eine Soundquelle. Wäre doch noch ein netter Paukenschlag neben den bereits durchgesickerten Daten.
Der zweite SLi-Connector ist, zu mindestens laut PCGH, für zukünftige Physiklösungen gedacht.
Die Audiokomponente bei HDMI wird momentan einfach nur durchgeschleift, d.h. AFAIR muss man ein extra Kabel an den Digitalanschluss des Onboardsounds, oder der Soundkarte stecken (wobei kein EAX funktioniert).
Gouvernator
2006-11-05, 09:46:29
Leute klärt mich auf ich weiss nicht was ich vom G80 halten soll. Ich habe jetzt zwei Theorien , einmal das G80 eine Niete wird im Vergleich zu nächsten Refreshes/Konkurrenz wie 7800 damals, zu wenig Speicher-zu wenig Takt/schlechte Performance, Oder G80 ist ein extrem teuerer Chip wo NV an allen Ecken gespart hat damit extrem teuere Leistung mit billigen Komponenten ausgeglichen wird. Ich meine damit GDDR3 und nur 700mb statt , für mich und PR freundlicheren GDDR4 -1024MB . Was meint ihr ? Ich denke ATI ist erstmal baff und weiss selber nicht so genau wie der R600 jetzt aussehen soll, für mich spricht dafür seine ziemlich späte Einführung.
Rente
2006-11-05, 09:56:15
Leute klärt mich auf ich weiss nicht was ich vom G80 halten soll. Ich habe jetzt zwei Theorien , einmal das G80 eine Niete wird im Vergleich zu nächsten Refreshes/Konkurrenz wie 7800 damals, zu wenig Speicher-zu wenig Takt/schlechte Performance, Oder G80 ist ein extrem teuerer Chip wo NV an allen Ecken gespart hat damit extrem teuere Leistung mit billigen Komponenten ausgeglichen wird. Ich meine damit GDDR3 und nur 700mb statt , für mich und PR freundlicheren GDDR4 -1024MB . Was meint ihr ? Ich denke ATI ist erstmal baff und weiss selber nicht so genau wie der R600 jetzt aussehen soll, für mich spricht dafür seine ziemlich späte Einführung.
Ich sehe es eher so: nVidia geht beim R600 von 512MB VRam aus -->8800GTX bekommt 786MB VRam, Vorteil nVidia. Ob sich das nun wirklich so verhält wird wohl nur ATi wissen...
Zu GDDR3: 384Bit- gegen 256Bit-Interface; selbst wenn ATi die Taktrate des GDDR4 (bis zu 1.4GHz sollen ja möglich sein) beim R600 stark anhebt, kann nV innerhalb von 3-4 Monaten mit GDDR4+384Bit SI kontern.
Gerüchten zu folge soll der R600 ja so etwas wie ein Xenos x2 werden, aber es ist mehr Orakeln als alles andere.
Klar, wenn man Kettchen mag kann man so unendlich viele verbinden, aber warum ausgerechnet 4, welche ja, wie Du schon richtig bemerkst, garnicht physisch ins Gehäuse passen? Ich hätte jetzt eher an TriSLI gedacht, analog zum Renderlimit von DX9.TriSLI wäre mir auch lieber (wobei ich AFR immer noch für eine bescheuerte Idee halte), die Kühlerform kann ich mir dennoch am ehesten so erklären, das sie Quad-SLI mit vier Karten trotz "nur" 7 Slots ermöglicht.
Die Karten haben doch auch gar kein HDMI, das wäre ja auch zu schön, soviel Leistung und dann nichtmal 'nen 30-Zöller anschliesen können.Ob die HDMI haben ist meines Wissens Sache der Kartenhersteller. Gibt ja auch noch Adapter von DVI auf HDMI, HDCP wird ja unterstützt.
Zu deinen wenig positiven Gedanken zum Soundstorm:
Mehr als maximal EAX2 wäre ja auch mit einem Soundstorm 2 nicht drin, ob Vistas Soundsystems würde ich auch eine echte APU stark bezweifeln. Mit einer CL wäre man also weiterhin besser bedient... wenn man nicht Linux-Tauglichkeit und Dolby Digital Live als wichtiger ansieht.
Der zweite SLi-Connector ist, zu mindestens laut PCGH, für zukünftige Physiklösungen gedacht.Pfff, wer kauft sich zu seinen zwei Grakas noch eine "Physikkarte", wenn die zwei Grakas den Job genauso übernehmen können und eine dritte Graka auch abseits von Physikspielereien nützlich sein könnte.
Die Audiokomponente bei HDMI wird momentan einfach nur durchgeschleift, d.h. AFAIR muss man ein extra Kabel an den Digitalanschluss des Onboardsounds, oder der Soundkarte stecken (wobei kein EAX funktioniert).Springender Punkt:
Auf G80-Karten wurde bislang kein Audioeingang gesichtet.
Spasstiger
2006-11-05, 10:10:14
In der PC-GH war ja auch nen Artikel über die beiden neuen NV Flagschiffe aber letztere klingt nach den theorethischen Daten so bischen nach X1950XTX Niveau....es sei den Unified Shader bringt erheblich was.
Also ich finde ja, dass sich die Architekturen erheblich unterscheiden, weshalb man die Leistung aus den Daten gar nicht direkt abschätzen kann.
Die 8800 GTS hat 96 Skalarprozessoren/Streamprozessoren, die X1950 XTX hat 48 Vektorprozessoren für Pixelshaderberechnungen und 8 Vertexshader.
Alleine schon durch den Unterschied Vektorprozessor vs. Skalarprozessor geht die Vergleichbarkeit flöten (Vektorprozessoren bearbeiten 4 Werte gleichzeitig, Skalarprozessoren nur einen, Skalarprozessoren werden also immer 100% ausgelastet, man benötigt bei Pixelberechnungen aber deutlich mehr davon).
Die Shaderprozessoren der 8800 GTS takten mit 1,2 GHz, bei der X1950 XTX mit dem normalen Chiptakt (650 MHz). Das macht den Vergleich auch nicht leichter.
Dann besitzt die 8800 GTS 48 TMUs bei 24 Texturadressierungseinheiten. Die X1950 XTX hat nur 16 TMUs bei 16 TAs.
Und beim Speicherinterface unterscheiden sie sich auch klar, die GeForce 8800 GTS ist extern mit 320 bit an den Speicher angebunden, dadurch, dass 5 ROP-Gruppen mit je einem 64 Bit Speicherinterface zum Einsatz kommen. Die 5 ROP-Gruppen können zusammen in jedem Takt 20 Farbwerte oder 160 z-Werte schreiben (ohne MSAA). Außerdem können die ROPs im G80 fp32-HDRR mit MSAA kombinieren.
Die X1950 XTX hat ein 256 bit Speicherinterface und kann 16 Farbwerte pro Takt schreiben. Max. fp16-HDRR kann mit MSAA kombiniert werden.
Sunrise
2006-11-05, 10:23:01
...das G80 eine Niete wird im Vergleich zu nächsten Refreshes/Konkurrenz wie 7800 damals, zu wenig Speicher-zu wenig Takt/schlechte Performance
G80 finde ich persönlich mit das Beeindruckendste, was seit einiger Zeit veröffentlicht wurde, ich halte es da also wie Ailuros. Ein - für mich - deutlicher Fortschritt in vielen Belangen, der momentan noch etwas "zurückgehalten" wird. Womöglich sehen wir erst bei dessen Refresh, zu was G80 wirklich zu leisten im Stande ist, vor allem da man bereits jetzt schon sehen kann, wie -relativ- "sparsam" er ist.
Auf 65nm (je nachdem, was NV hier geplant hat) wäre wieder sowohl Komplexität, als auch die Taktraten um ein Vielfaches weiter steigerbar. Nicht zuletzt sollte GDDR4 dann auch nur noch eine Frage der Zeit sein. Es kann aber auch sein, dass wieder nur die Taktraten enorm in die Höhe geschraubt werden, und der Rest beibehalten wird, um die Margen weiter auf hohem Niveau zu halten.
G80 wurde von NV mit (wahrscheinlich) deutlich geringeren Margen "erkauft", wichtig ist für sie aber, hier deutlich früher als ATi am Markt zu sein. Der Refresh steht bereits in den Startlöchern und während ATI in den kommenden Monaten agiert, wird NV abermals reagieren.
Oder G80 ist ein extrem teuerer Chip wo NV an allen Ecken gespart hat damit extrem teuere Leistung mit billigen Komponenten ausgeglichen wird.
S.o.
GDDR3 ist in hohen Mengen verfügbar, jedoch ist G80 insgesamt sicher nicht "billig" herzustellen, vor allem nicht, wenn man den angesetzten Preis berücksichtigt. Das ziemlich komplexe PCB, der große Die, die on-Board-Komponenten, und nicht zuletzt "the mysterious 2nd Package". Alleine die Packaging-Kosten für das Teil sind immens.
Ich meine damit GDDR3 und nur 700mb statt , für mich und PR freundlicheren GDDR4 -1024MB . Was meint ihr?
512MBit / 8 * 12 = ?
(Die Krumme Zahl ergibt sich rein aus der Konfiguration der Module und der Breite des externen Interfaces.)
Mit GDDR4 zu werben brauchen sie nicht - NV hat hier bereits eine ganze Palette an Eckdaten, mit denen das Marketing (u.a. sicher auch zurecht) seinen Spaß haben kann.
Ich denke ATI ist erstmal baff und weiss selber nicht so genau wie der R600 jetzt aussehen soll, für mich spricht dafür seine ziemlich späte Einführung.
Dass R600 keine VÖ im Geschäftsjahr 2006 erfahren wird, ist eigentlich schon seit Monaten klar. Zumindest dann, wenn man auch die jeweiligen Conference Calls verfolgt, oder bei B3D bei den richtigen Leuten mitliest. Die "späte" Einführung ist also nichts, was irgendwie überraschend ist. Im R600-Thread wurde zwar spekuliert, dass wir ihn noch 2006 sehen könnten, das ist allerdings - wie o.g. - schon lange kein Thema mehr.
Die späte Einführung hat mehrere Gründe, u.a. sind das ATIs aggressive Design-Mentalität, ihr Drang/(Zwang) nach immer neuen Fertigungsprozessen (bei denen ihr time-to-market etwas zu wünschen übrig lässt, siehe z.B. RV560/RV570 auf 80nm) und nicht zuletzt NVs unüblich starker Druck, in allen Segmenten des Marktes. Dass ATi selbst nicht weiß, "wie genau der R600 jetzt aussehen soll" ist in dieser Phase des Designstadiums undenkbar. Taktraten sind aktuell das Problem - und mit diesen einhergehend - die wohl enorme Stromaufnahme. ATI wird da mehrere Respins brauchen, um das im Griff zu haben.
Ich denke ATI ist erstmal baff und weiss selber nicht so genau wie der R600 jetzt aussehen soll, für mich spricht dafür seine ziemlich späte Einführung.
*Hust* ich denke dir ist nicht ganz klar was dahinter steckt einen Highend Grafikchip zu entwickeln. Da dreht man nichts mehr in den letzen 9Monaten am Design. Da wird nur noch das Teil in Silizium gebrannt und geschaut wie man höhere Taktraten rausquetschen kann und ob das Teil auch zu kühlen ist. Der Chip ist fix und fertig, Änderungen am Design (wenns denn welche geben sollte) für den Refresh sollten fast feststehen da der in einem Jahr kommen muss.
Der G80 wird genausowenig wie der G70 eine Niete, da haste wohl die Rote Brille aufgehabt als du das geschrieben hast. Außerdem ist der verzicht auf GDDR4 und das größere Speicherinterface hier zur genüge behandelt worden. Es scheint wohl wirtschaftlicher gewesen zu sein das PCB etwas komplexer zu gestalten als die homöopatischen Mengen an GDDR4 abzugreifen für viel Geld.
Bisher macht der G80 einen guten rundum-sorglos-Packet eindruck.
Die GTS ist für viele eine gute alternative wenn man nicht 500+€ ausgeben will, aber dennoch GX2 Leistung mit HDR+MSAA Feature und 16xCSAA haben will.
ArchMark 0.50 - GeForce 8800 GTX
Driver GeForce 8800 GTX/PCI/SSE2/3DNOW! v2.1.0
Resolution 1024x768 @ 59.97Hz
Method Flush
Fillrate
--32 bits---------------------------------------
Mode R8G8B8A8 Z24 S8
Col 13.719 GPix/s
Z 69.236 GPix/s
ColZ 13.718 GPix/s
ZPassColZ 13.381 GPix/s
ZCullLEqual 142.161 GPix/s
ZCullGEqual 80.114 GPix/s
ZCullEqual 142.202 GPix/s
S 54.562 GPix/s
SCull 54.521 GPix/s
----stencil test passed-------------------------
S 37.430 GPix/s
ZFailS 29.489 GPix/s
------z test passed (LEQUAL)--------------------
S 35.988 GPix/s
ZS 29.503 GPix/s
Col 13.630 GPix/s
ColZ 12.900 GPix/s
ColS 11.800 GPix/s
ColZS 11.103 GPix/s
--16 bits---------------------------------------
Error no pixel format
Bandwidth
Mode R8G8B8A8 Z24 S8
--available to buffer clears--------------------
All 119.774 GB/s
Color 82.869 GB/s
ZAndStencil 212.239 GB/s
Z 119.279 GB/s
Stencil 81.311 GB/s
Draw 101.835 GB/s
BurnedByRAMDAC 188.663 MB/s
Physical 102.024 GB/s
Geometry
Mode R5G6B5A0 Z0 S0
--Plain vertices--------------------------------
Fan 549.612 MTris/s
List 191.424 MTris/s
Clip 191.423 MTris/s
--Vertex shading speed--------------------------
LightD1 153.106 MTris/s
LightP1 153.103 MTris/s
LightP8 153.103 MTris/s
Texturing
Mode R5G6B5A0 Z0 S0
--Textured fillrate-----------------------------
----Bilinear filter-----------------------------
1 10.406 GPix/s
2 7.152 GPix/s
3 5.611 GPix/s
4 4.548 GPix/s
----Trilinear filter----------------------------
1 10.469 GPix/s
2 7.186 GPix/s
3 5.638 GPix/s
4 4.571 GPix/s
Readback
Mode R8G8B8A8 Z24 S8
--Whole buffer----------------------------------
R8G8B8A8 190.578 MPix/s
B8G8R8A8 336.463 MPix/s
R8G8B8 218.928 MPix/s
B8G8R8 227.864 MPix/s
Zuint 192.135 MPix/s
Zfloat 195.067 MPix/s
S8 349.963 MPix/s
--32x32 region----------------------------------
R8G8B8A8 56.190 MPix/s
B8G8R8A8 62.124 MPix/s
R8G8B8 56.581 MPix/s
B8G8R8 57.295 MPix/s
Zuint 57.156 MPix/s
Zfloat 58.188 MPix/s
S8 59.711 MPix/s
Texture cache
Mode R8G8B8A8 Z24 S8
RGBA 256B
DXT5 128 kiB
Tiling
Mode R8G8B8A8 Z24 S8
--preferred block alignment---------------------
----updating all buffers------------------------
Width 8
Height 2
----in color buffer-----------------------------
Width 8
Height 2
----in depth buffer-----------------------------
Width 16
Height 4
----in stencil buffer---------------------------
Width 16
Height 4
Fillrate Tester - GeForce 8800 GTX
--------------------------
Display adapter: NVIDIA GeForce 8800 GTX
Driver version: 6.14.10.9689
Display mode: 1600x1200 R5G6B5 65Hz
Z-Buffer format: D24S8
--------------------------
FFP - Pure fillrate - 11342.501953M pixels/sec
FFP - Z pixel rate - 70649.945313M pixels/sec
FFP - Single texture - 11223.582031M pixels/sec
FFP - Dual texture - 8979.156250M pixels/sec
FFP - Triple texture - 5981.024414M pixels/sec
FFP - Quad texture - 4480.708008M pixels/sec
PS 1.1 - Simple - 11297.077148M pixels/sec
PS 1.4 - Simple - 11317.381836M pixels/sec
PS 2.0 - Simple - 11324.293945M pixels/sec
PS 2.0 PP - Simple - 11293.700195M pixels/sec
PS 2.0 - Longer - 9287.584961M pixels/sec
PS 2.0 PP - Longer - 9293.107422M pixels/sec
PS 2.0 - Longer 4 Registers - 9481.595703M pixels/sec
PS 2.0 PP - Longer 4 Registers - 9472.769531M pixels/sec
PS 2.0 - Per Pixel Lighting - 3815.257813M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 3798.813232M pixels/sec
Quelle:
http://www.hardforum.com/showthread.php?t=1116603&page=19&pp=20
Gouvernator
2006-11-05, 10:38:33
Der G80 wird genausowenig wie der G70 eine Niete, da haste wohl die Rote Brille aufgehabt als du das geschrieben hast.
Naja... eine 7800GTX 256mb will kein Mensch mehr , fast schon lowend.
Spasstiger
2006-11-05, 10:39:43
Texturing
Mode R5G6B5A0 Z0 S0
--Textured fillrate-----------------------------
----Bilinear filter-----------------------------
1 10.406 GPix/s
2 7.152 GPix/s
3 5.611 GPix/s
4 4.548 GPix/s
----Trilinear filter----------------------------
1 10.469 GPix/s
2 7.186 GPix/s
3 5.638 GPix/s
4 4.571 GPix/s
Trilineares Filtern ist jetzt wohl wirklich kostenlos.
The_Invisible
2006-11-05, 10:45:06
Naja... eine 7800GTX 256mb will kein Mensch mehr , fast schon lowend.
ne x1800 will auch kein mensch mehr ;)
ist sie deswegen lowend? nein. die aussage halte ich für stark übertrieben
mfg
dildo4u
2006-11-05, 10:47:47
Naja... eine 7800GTX 256mb will kein Mensch mehr , fast schon lowend.Diese Karte war auch Monatelang ohne Konkkurenz seitens ATI kam im Sommer 2005 die ATI 1800XT so im November 2005.
Gouvernator
2006-11-05, 10:49:25
ne x1800 will auch kein mensch mehr ;)
ist sie deswegen lowend? nein. die aussage halte ich für stark übertrieben
mfg
Wie du willst. Aber ich wäre wirklich unglücklich wenn einer 8800 GTX das Schiksal der alten 7800 GTX blüht. Deshalb versuche ich es irgendwie eine Prognose aufzustellen, die Versuchung ist im Moment echt groß ;)
Diese Karte war auch Monatelang ohne Konkkurenz seitens ATI kam im Sommer 2005 die ATI 1800XT so im November 2005.
Du wirst mir nicht glauben aber ich hielt die 7800 immer für eine Antwort auf X850XT PE.
Na und danach kommt wieder was neues, versteh nicht was du willst
dargo
2006-11-05, 10:58:40
Na und danach kommt wieder was neues, versteh nicht was du willst
Ich verstehe auch nicht die ganze Diskussion. In 1-1,5 Jahren lacht auch jeder über eine G8800GTX weil es wieder doppelt so schnelle Grakas gibt. Was ist denn daran so ungewöhnlich? :|
Gouvernator
2006-11-05, 10:59:01
Na und danach kommt wieder was neues, versteh nicht was du willst
Es kommt definitiv was neues, aber so wie damals bei ATI man mit einer freigeschalteten und übertakteten x800Pro alle nachfolgenden Refreshes locker übersprungen hat, gehts mir darum ob mit 8800GTX ein Ausnahme Chip vorsteht oder ein Eunuch.
Wie du willst. Aber ich wäre wirklich unglücklich wenn einer 8800 GTX das Schiksal der alten 7800 GTX blüht. Deshalb versuche ich es irgendwie eine Prognose aufzustellen, die Versuchung ist im Moment echt groß ;)
Den selben schmarn haben wir vor ein paar Seiten mit thade gehabt, mach nur weiter und Spreng den Thread wieder. DK wird ihn wieder schließen und ach... sinnlos gegen sowas anzureden oder?
Gouvernator
2006-11-05, 11:05:01
Den selben schmarn haben wir vor ein paar Seiten mit thade gehabt
Ich verfolge den thread ab Seite 30 glaub mir ich weiss wo was steht und würde nix wiederholen.
Hallo !
Wenn man in die Vergangenheit schaut und sich die Routine der Refreshes so anschaut, auch die Margen und Preise von DDR4, wann könnte man mit einem evtl. G81 rechnen ?
Außerdem wüßte ich gerne wie der G80 denn nun in DirectX10 abschneidet. Gibt es da schon kleine Hinweise zu ? Vielleicht gibt es da noch "Kinderkrankheiten", die erst mit der nächsten Generation verbessert werden (wir erinnern uns an die FX-Reihe). Das macht mir Sorge. Ich will nicht berzüglich DX10 die Katze im Sack kaufen, auch wenn die Specs jetzt mich vom Stuhl hauen. Hat man den G80 auch schon unter Vista-RC2 getestet ?
Aber noch einmal eine Frage an die Experten hier:
Laut den DirectX10-Spezifikationen wird ja das Zusammenspiel zwischen CPU und GPU effizienter. Wie genau unterschiedet sich da die Struktur des G80 von seinem Vorgänger dass er nun DirectX10 effizienter so lösen vermag ? Dadurch könnte vielleicht noch viel bessere Performance unter DirectX10 / Vista möglich sein als jetzt auf DirectX9 / WinXP. Wenn ich mir jetzt so anschaue wie die CPUs auf manchen Systemen den G80 limitieren, dann könnte dass doch auf DirectX10 / Vista komplett anders aussehen oder doch eher noch schlimmer (Vorausgesetzt die Software und Treiber sind final)??? Allerdings hat man ja bislang nur Einbussen unter der RC2-Vista-Version / DirectX10 mit DirectX9-Hardware gesehen / gehabt. Mir geht es nämlich darum, dass ich für die Zukunft aufrüste und nicht für eine Momentaufnahme.
Nicht dass dann bei DirectX10-Applikationen die grosse Ernüchterung kommt seitens des G80 und man muss zwingend auf die nächste Generation warten, wie es bei den Wechsel alter DirectX-APIs auch so war.
Nicht dass dann bei DirectX10-Applikationen die grosse Ernüchterung kommt seitens des G80. Denn sonst würde ich gerne noch warten, da Vista und DX10-Applikationen ja auch noch nicht vorhanden sind.
Außerdem, gibt es schon Screenshots oder Vergleiche von der neuen BQ des G80 ? Darauf hat man ja lange gewartet bei Nvidia.
Bye, Sil
Gruß
dildo4u
2006-11-05, 11:06:57
Du wirst mir nicht glauben aber ich hielt die 7800 immer für eine Antwort auf X850XT PE.
Nochmal es geht nicht nur um FPS die 7800 GTX war schon die zweite Generation SM3.0 Karten ATI hatte noch keine ohne diese Karten wäre die PC Spiele Entwicklung noch weiter hinter den Next-Gen Konsolen zurück.Spiele die 3 Jahre in der Entwicklung brauchen hätten ohne 6800 und 7800 heute immer noch keine SM3.0 Effekte.
Gouvernator
2006-11-05, 11:07:51
Außerdem wüßte ich gerne wie der G80 denn nun in DirectX10 abschneidet.
Bis diese Frage relevant wird erleben wir 3 Refreshes ... :D
Nochmal es geht nicht nur um FPS die 7800 GTX war schon die zweite Generation SM3.0 Karten ATI hatte noch keine ohne diese Karte wäre die PC Spiele Entwicklung noch weiter hinter den Next-Gen Konsolen zurück.
Genau diese Situation haben wir doch auch oder ? Ein DX10 Spiel wird vermutlich genau so mies laufen wie jetzt Oblivion auf ner 7800 . Oder nicht?
dann kannst gleich auf den g200 warten
Genau diese Situation haben wir doch auch oder ? Ein DX10 Spiel wird vermutlich genau so mies laufen wie jetzt Oblivion auf ner 7800 . Oder nicht?
das wird aber immer so bleiben (hoffentlich nicht)
ne x1800 will auch kein mensch mehr ;)
ist sie deswegen lowend? nein. die aussage halte ich für stark übertrieben
mfg
Die X1800 ist aber ein ganzes stück schneller als eine 7800.;)
Eher umgekehrt: Eben deswegen dürfte man diese wohl 32 Textureinheiten praktisch behandeln können, als wären es 64.
/edit: Oder hat die Voodoo trilineare TMUs?
Nein, VSA-100 hat Bi-TMUs. Aber mir ging's bei den letzten Füllratenangaben eher um den G80.
dann kannst gleich auf den g200 warten
Den gibt's schon. Von Matrox, seit etwa acht Jahren. ;)
MfG,
Raff
Genau diese Situation haben wir doch auch oder ? Ein DX10 Spiel wird vermutlich genau so mies laufen wie jetzt Oblivion auf ner 7800 . Oder nicht?
Diese Aussage ist ziemlich schwachsinnig.
Ein Spiel läuft auf Zielplattform, die man zum Erscheinungszeitpunkt voraussetzen kann. Welches Instructionset verwendet wird sagt darüber nichts aus.
Man kann auch ein reines DX9 Spiel programmieren, das problemlos auf einer 9500er läuft.
Naja... eine 7800GTX 256mb will kein Mensch mehr , fast schon lowend.Fast Low-End ist eine 6200 Turbo-Cache. Low-End wäre eine FX 5200 mit 64-Bit-Interface.
Genau diese Situation haben wir doch auch oder ? Ein DX10 Spiel wird vermutlich genau so mies laufen wie jetzt Oblivion auf ner 7800 . Oder nicht?Falsche Fragestellung.
Außerdem wüßte ich gerne wie der G80 denn nun in DirectX10 abschneidet. Gibt es da schon kleine Hinweise zu ? Vielleicht gibt es da noch "Kinderkrankheiten", die erst mit der nächsten Generation verbessert werden (wir erinnern uns an die FX-Reihe). Das macht mir Sorge. Ich will nicht berzüglich DX10 die Katze im Sack kaufen, auch wenn die Specs jetzt mich vom Stuhl hauen.
was sollte da großartig anders sein? es sind die gleichen ALUs/TMUs etc. die in D3D10 und D3D9 rechnen, die leistungsfähigkeit ist also identisch.
in D3D10 sollte die CPU-auslastung (zumindest in gewissen situationen) geringer werden, was aber auf die mögliche leistungsfähigkeit der graka keinen einfluss hat.
Nochmal es geht nicht nur um FPS die 7800 GTX war schon die zweite Generation SM3.0 Karten ATI hatte noch keine ohne diese Karten wäre die PC Spiele Entwicklung noch weiter hinter den Next-Gen Konsolen zurück.Spiele die 3 Jahre in der Entwicklung brauchen hätten ohne 6800 und 7800 heute immer noch keine SM3.0 Effekte.Was verstehst du unter SM3-Effekt?
Undertaker
2006-11-05, 12:04:02
Die X1800 ist aber ein ganzes stück schneller als eine 7800.;)
eine x1800xt 256mb ist unter starker shaderlast sogar etwas langsamer als eine 7800gtx...
Spasstiger
2006-11-05, 12:05:43
eine x1800xt 256mb ist unter starker shaderlast sogar etwas langsamer als eine 7800gtx...
Wie kommt es dann, dass die X1800 XT in CoD 2 @ DX9 wesentlich schneller ist, teilweise Faktor 2?
Effizienz spielt auch eine große Rolle.
Rein von der theoretischen Pixelshaderleistung her gesehen, liegt z.B. eine GeForce 8800 GTX auch hinter einer GeForce 7950 GX2.
Wie kommt es dann, dass die X1800 XT in CoD 2 @ DX9 wesentlich schneller ist, teilweise Faktor 2?
Das ist immer so eine Sache. Es gibt immer Dinge die einer Architektur besser oder schlechter schmecken. Im Durchschnitt ist eine X1800XT wohl wirklich etwas schneller als eine 7800GTX, aber nicht so stark wie manche es hier darstellen wollen (Ich hatte übrigens eine Zeit lang beide Karten zur Auswahl).
ATi hat soweit ich weiß einen starken Vorteil wenn man bloß stupide Geometrie von Hinten nach Vorne sortiert auf die Karte schmeißt, weil das Hier-Z hier deutlich effizienter arbeitet als das was nVIDIA macht (sieht man vor allem auch in Oblivion).
Da Entwickler sowas aber eigentlich bleiben lassen sollten...
dildo4u
2006-11-05, 12:10:09
Was verstehst du unter SM3-Effekt?Naja halt Effekte die lange Shader nutzen die mit SM2.0 einfach nicht möglich wären oder wo eine SM2.0 Karte zu viele Renderingdurchgänge bräuchte es also zu langsam für brauchbare Echtzeitdarstellung wäre.
Undertaker
2006-11-05, 12:10:27
Wie kommt es dann, dass die X1800 XT in CoD 2 @ DX9 wesentlich schneller ist, teilweise Faktor 2?
Effizienz spielt auch eine große Rolle.
Rein von der theoretischen Pixelshaderleistung her gesehen, liegt z.B. eine GeForce 8800 GTX auch hinter einer GeForce 7950 GX2.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/11/#abschnitt_call_of_duty_2
in meinen augen ist hier mit steigender last (1600x1200) die 7800gtx schneller...
Spasstiger
2006-11-05, 12:13:50
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/11/#abschnitt_call_of_duty_2
in meinen augen ist hier mit steigender last (1600x1200) die 7800gtx schneller...
Da müsste man mal mit aktuellen Treibern benchen, dann würde die X1800 XT mit 256 MB nämlich nicht so stark zurückfallen.
Naja halt Effekte die lange Shader nutzen die mit SM2.0 einfach nicht möglich wären oder wo eine SM2.0 Karte zu viele Renderingdurchgänge bräuchte es also zu langsam für brauchbare Echtzeitdarstellung wäre.Ja sag doch mal konkret, auf welchen Effekt das zutreffen würde.
Da müsste man mal mit aktuellen Treibern benchen, dann würde die X1800 XT mit 256 MB nämlich nicht so stark zurückfallen.
Genau,ab denn cat 6.8 brechen 256 MB Karten von Ati nämlich kaum mehr ein.
dildo4u
2006-11-05, 12:20:27
Ja sag doch mal konkret, auf welchen Effekt das zutreffen würde.Beispiele wären z.B der Blur in NFS Carbon bei der PC Version.Oder das komplexer simulierte Wasser bei Pacific Fighters.Mit Splinter Cell 4 gibts jetzt sogar ein PC Game was ohne SM 3.0 Hardware gar nicht erst startet.Da werden whol auch eine Menge sher komplexer Shader genutzt man wird ja nicht freiwillig auf eine große Käuferschicht mit SM2.0 Hardware verzichten.
http://forums-de.ubi.com/eve/forums/a/tpc/f/993106895/m/3391016684
dargo
2006-11-05, 12:23:31
Mit Splinter Cell 4 gibts jetzt sogar ein PC Game was ohne Sm 3.0 Hardware gar nicht erst startet.Da werden whol auch eine Menge sher komplexer Shader genutzt man wird ja nicht freiwillig auf eine große Käuferschicht mit SM2.0 Hardware verzichten.
Bei Splinter Cell 4 wundert mich das überhaupt nicht. Schon in Splinter Cell 3 wurde nur SM1.1 und SM3.0 genutzt. SM2.0 kam erst mit einem Patch. Was macht dich so sicher, dass dies bei Splinter Cell 4 auch nicht der Fall sein wird?
Rente
2006-11-05, 12:25:55
Bei Splinter Cell 4 wundert mich das überhaupt nicht. Schon in Splinter Cell 3 wurde nur SM1.1 und SM3.0 genutzt. SM2.0 kam erst mit einem Patch. Was macht dich so sicher, dass dies bei Splinter Cell 4 auch nicht der Fall sein wird?
Weil UBi es offiziell bekannt gegeben hat. Ich würde sagen es ist einfach pure Faulheit von Ubi Montreal SM2.0 nicht zu unterstützen, bzw. überhaupt einen Fallback-Modus anzubieten.
dildo4u
2006-11-05, 12:26:26
Bei Splinter Cell 4 wundert mich das überhaupt nicht. Schon in Splinter Cell 3 wurde nur SM1.1 und SM3.0 genutzt. SM2.0 kam erst mit einem Patch. Was macht dich so sicher, dass dies bei Splinter Cell 4 auch nicht der Fall sein wird?Die officellen Systemvorrausetzungen und das diesmal die X-Box 360 Version eine völlig andere ist als die X-Box Version(Anderes Entwickler Team andere Level usw.).Und die PC Version basiert auf der X-Box 360 Version.Es gibt also kein SM1.1 Fallback für die PC Version als Abfallproduckt der X-Box 1 Version wie es bei SC3 der Fall war.
Was macht dich so sicher, dass dies bei Splinter Cell 4 auch nicht der Fall sein wird?
weil ATI nun auch SM3-karten auf dem markt hat und froh über ein SM3-only-spiel sein muss.
cl55amg
2006-11-05, 12:39:21
Soweit ich es verstehe, kann man jeden beliebigen Effekt darstellen.
Egal was für ein Shader benutzt wird. Auch per Software Rendering kann man alles darstellen was momentan möglich ist.
Man sollte Technik und Marketing nicht verweichseln, vor allem Beispiele wie Splinter Cell, oder das miserabel programmierte nfs Carbon, sollte man auch schnell vergessen.
Wer spielt denn Carbon mit Motion blur?;)
Beispiele wären z.B der Blur in NFS Carbon bei der PC Version.Oder das komplexer simulierte Wasser bei Pacific Fighters.Mit Splinter Cell 4 gibts jetzt sogar ein PC Game was ohne SM 3.0 Hardware gar nicht erst startet.Da werden whol auch eine Menge sher komplexer Shader genutzt man wird ja nicht freiwillig auf eine große Käuferschicht mit SM2.0 Hardware verzichten.Das Wasser in Pacific Fighters ist das einzige, was wirklich SM 3 braucht. Blurring etc. ist in SM 2 auch zu machen und eine Frage der Leistung, nicht des Shader-Modells.
cl55amg
2006-11-05, 12:44:55
Wer spielt denn Carbon mit Motion blur?;)
Wer eine ATI Karte oder SLI hat.
Mit einer Single Nvidia kannst du es vergessen, die Performace ist ein Witz.
Und das obwohl es die selbe Engine ist...Absolutes Versagen der Entwickler.
Das Wasser in Pacific Fighters ist das einzige, was wirklich SM 3 braucht. Blurring etc. ist in SM 2 auch zu machen und eine Frage der Leistung, nicht des Shader-Modells.
Meine Rede...
dildo4u
2006-11-05, 12:49:28
Soweit ich es verstehe, kann man jeden beliebigen Effekt darstellen.
Egal was für ein Shader benutzt wird. Auch per Software Rendering kann man alles darstellen was momentan möglich ist.
Man sollte Technik und Marketing nicht verweichseln, vor allem Beispiele wie Splinter Cell, oder das miserabel programmierte nfs Carbon, sollte man auch schnell vergessen.Warum sollte man Splinter Cell 4 vergessen? das Game ist neben Gears of War das beste was man von der Optik Seite her zocken kann 2006.
Video Review in HD. http://www.gametrailers.com/downloadnew.php?id=14135&type=wmv&f=
http://static.4players.de/premium/Screenshots/8f/f0/1691231-vollbild.jpg
http://static.4players.de/premium/Screenshots/8c/b5/163314-vollbild.jpg
Hvoralek
2006-11-05, 12:49:52
Nein, VSA-100 hat Bi-TMUs. Aber mir ging's bei den letzten Füllratenangaben eher um den G80.Und warum rechnest Du dann mit der rein bilinearen Füllrate? Unter realistischen Bedingungen (brilinear anisotrop) würde die 8800 nur halb so stark einbrechen wie die Voodoo. 64x SS wäre dürfte natürlich trotzdem arg langsam sein, aber nicht ganz so schlimm, wie von Dir dargestellt.
cl55amg
2006-11-05, 12:55:11
Es ging mir darum das man nicht PS:3.0 zwingend für die Darstellung von Effekten braucht. (technisch gesehen)
Ailuros
2006-11-05, 12:56:54
Trilineares Filtern ist jetzt wohl wirklich kostenlos.
Es wird wohl so langsam Zeit dass jemand die 18.4 und/oder 36.8 GTexels entziffert ;)
MDolenc's Fillrate Tester:
--------------------------
Display adapter: NVIDIA GeForce 8800 GTX
Driver version: 6.14.10.9689
Display mode: 1600x1200 R5G6B5 65Hz
Z-Buffer format: D24S8
--------------------------
FFP - Pure fillrate - 11342.501953M pixels/sec
FFP - Z pixel rate - 70649.945313M pixels/sec
FFP - Single texture - 11223.582031M pixels/sec
FFP - Dual texture - 8979.156250M pixels/sec
FFP - Triple texture - 5981.024414M pixels/sec
FFP - Quad texture - 4480.708008M pixels/sec
PS 1.1 - Simple - 11297.077148M pixels/sec
PS 1.4 - Simple - 11317.381836M pixels/sec
PS 2.0 - Simple - 11324.293945M pixels/sec
PS 2.0 PP - Simple - 11293.700195M pixels/sec
PS 2.0 - Longer - 9287.584961M pixels/sec
PS 2.0 PP - Longer - 9293.107422M pixels/sec
PS 2.0 - Longer 4 Registers - 9481.595703M pixels/sec
PS 2.0 PP - Longer 4 Registers - 9472.769531M pixels/sec
PS 2.0 - Per Pixel Lighting - 3815.257813M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 3798.813232M pixels/sec
http://www.beyond3d.com/forum/showpost.php?p=866340&postcount=39
Vergleich G70@490/850MHz:
--------------------------
Display adapter: NVIDIA GeForce 7800 GTX
Driver version: 6.14.10.8182
Display mode: 1600x1200 A8R8G8B8 85Hz
Z-Buffer format: D24S8
--------------------------
FFP - Pure fillrate - 7570.886719M pixels/sec
FFP - Z pixel rate - 14925.812500M pixels/sec
FFP - Single texture - 6941.553711M pixels/sec
FFP - Dual texture - 5223.286133M pixels/sec
FFP - Triple texture - 3730.629395M pixels/sec
FFP - Quad texture - 2792.737549M pixels/sec
PS 1.1 - Simple - 5727.313477M pixels/sec
PS 1.4 - Simple - 5728.734863M pixels/sec
PS 2.0 - Simple - 5728.530273M pixels/sec
PS 2.0 PP - Simple - 5727.328125M pixels/sec
PS 2.0 - Longer - 3829.350342M pixels/sec
PS 2.0 PP - Longer - 3830.302002M pixels/sec
PS 2.0 - Longer 4 Registers - 2880.719727M pixels/sec
PS 2.0 PP - Longer 4 Registers - 3829.274170M pixels/sec
PS 2.0 - Per Pixel Lighting - 1280.281128M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 1440.363525M pixels/sec
Ich hab sowohl auf Archmark als auch auf MDolenc Resultate vor Seiten angedeutet. Vorsicht mit der TMU-Zaehlerei auf jeden Fall. Taktnormalisiert man die G80 Resultate auf 490MHz (von 575MHz), kann wohl schwer eine Verdoppelung der Fuellrate von "nur 8 TMUs mehr" kommen.
dildo4u
2006-11-05, 13:00:10
Es ging mir darum das man nicht PS:3.0 zwingend für die Darstellung von Effekten braucht. (technisch gesehen)Woher willst du das wissen ich hab leider keine Angaben zur Shaderlänge bin mir aber ziehmlich sicher das man für 2 Jahre alte SM 2.0 Hardware deutlich Abstriche hätte machen müssen auch wegen der Grundleistung die schon mal nicht da ist.Ich weiß ja nicht wie lange man hier noch erzählen will dafür braucht man kein SM3.0 die Games sehen immer geiler aus aber würdigen will das keiner auch 2009 wirds whol noch Leute geben die erzählen das geht auch auf meiner X800.Davon abgesehen nutzt SC4 massiv echtes "HDRR" was nunmal Technik bedingt auf SM2.0 Karte nicht funzt ja ich weiß das hat nix mit den Shadermodell zu tun aber es ist ja egal es zhält ja was machbar ist und was nicht.
Ailuros
2006-11-05, 13:00:24
Und warum rechnest Du dann mit der rein bilinearen Füllrate? Unter realistischen Bedingungen (brilinear anisotrop) würde die 8800 nur halb so stark einbrechen wie die Voodoo. 64x SS wäre dürfte natürlich trotzdem arg langsam sein, aber nicht ganz so schlimm, wie von Dir dargestellt.
Bilinear ***********************************Trilinear
**************BriG7x************BriG8x***********
Woher willst du das wissen ich hab leider keine Angaben zur Shaderlänge bin mir aber ziehmlich sicher das man für 2 Jhare alte SM 2.0 Hardware deutlich Abstriche hätte machen müssen auch wegen der Grundleistung die schon mal nicht da ist.Ich weiß ja nicht wie lange man hier noch erzhälöen will dafür braucht man kein SM3.= die Game sehen immer geiler aus aber würdiger will das keiner auch 2009 wirds whol noch Leute geben die erzählen das geht auch auf meiner X800.Highend-Karten mit SM3 haben mehr Rohleistung als (ältere) Highend-Karten mit SM2, einfach weil SM3-Karten erst später erschienen sind. Auch D3D10-GPUs bringen (abgesehen von bestimmten Integer-Operationen) keinen einzigen neuen Effekt.
Wer eine ATI Karte oder SLI hat.
Mit einer Single Nvidia kannst du es vergessen, die Performace ist ein Witz.Übertreibt doch nicht immer so maßlos. Ich spiele die NFS-Carbon-Demo auf einer 7800GTX/256 @ 490/650 mit "Motion-Blur" und sogar 2xAA mit ein wenig AF. Es ist einwandfrei spielbar.
Genauso Gouvernator, der eine 7800GTX als "fast low-end" bezeichnet. Euch ist wohl nicht bewusst, dass die wenigsten Spieler überhaupt Grafikkarten in der Leistungsklasse einer 7800GTX besitzen.
Ich meine damit GDDR3 und nur 700mb statt , für mich und PR freundlicheren GDDR4 -1024MB . Was meint ihr ?Ich meine, dass 1024 MiB VRAM an einem 384-bit-Speicherinterface kaum zu realisieren sind. Ein 512-bit-SI ist wohl zu teuer und bringt nicht soviel mehr, als dass es sich lohnen würde.
cl55amg
2006-11-05, 13:05:56
Woher willst du das wissen ich hab leider keine Angaben zur Shaderlänge bin mir aber ziehmlich sicher das man für 2 Jhare alte SM 2.0 Hardware deutlich Abstriche hätte machen müssen auch wegen der Grundleistung die schon mal nicht da ist.Ich weiß ja nicht wie lange man hier noch erzhälöen will dafür braucht man kein SM3.= die Game sehen immer geiler aus aber würdiger will das keiner auch 2009 wirds whol noch Leute geben die erzählen das geht auch auf meiner X800.
Das Problem ist nur das du nicht verstehst, was gemeint ist.
Der aths hat doch ein Statement agegeben, und er hat genug know how um das zu beurteilen!
Man könnte Splinter Cell mit einem Athlon XP in Software rendern, mit gleicher Optik, nur die Performance ist das Problem...
Warum die Hersteller es so dartstellen als ob es nur mit SM3.0 geht, ist eine andere Baustelle.
Ailuros
2006-11-05, 13:06:57
Welche kommende GPU wird denn ueberhaupt einen 512bit breiten Bus haben? :|
Welche kommende GPU wird denn ueberhaupt einen 512bit breiten Bus haben? :|In absehbarer Zeit wohl gar keine?
dildo4u
2006-11-05, 13:09:57
Highend-Karten mit SM3 haben mehr Rohleistung als (ältere) Highend-Karten mit SM2, einfach weil SM3-Karten erst später erschienen sind. Auch D3D10-GPUs bringen (abgesehen von bestimmten Integer-Operationen) keinen einzigen neuen Effekt.Ich weiß aber durch Dynamic branching können einfach Komplexere Shader in weniger Durchgängen berechnet werden was neben der gestiegenen Rohleistunng zusätzlich einfach mher und Komplexere Effekte möglich macht.Nur es is unsinn zu erzählen da wäre alles auf SM2.0 möglich Theoretisch ja parktisch für Echtzeit Games nein.Und wie du schon schreibst bei D3D10 ist das auch der Fall man nimmt wieder mher Last z.B von der CPU und man kann so mher Objekte,Effekte usw darstellen.
cl55amg
2006-11-05, 13:10:50
Übertreibt doch nicht immer so maßlos. Ich spiele die NFS-Carbon-Demo auf einer 7800GTX/256 @ 490/650 mit "Motion-Blur" und sogar 2xAA mit ein wenig AF. Es ist einwandfrei spielbar.
http://80.243.187.162/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3
Teilwese ist ist eine ATI 100% schneller...
Ich unterhalte mich aber prinzipiell nicht mit "Gästen"...
Gouvernator
2006-11-05, 13:11:33
Ich meine, dass 1024 MiB VRAM an einem 384-bit-Speicherinterface kaum zu realisieren sind. Ein 512-bit-SI ist wohl zu teuer und bringt nicht soviel mehr, als dass es sich lohnen würde.
So wie du sprichst macht schon Sinn. Aber, wenn die Konkurrenz einmal 1Gb bringt dann muss Nvidia nachziehen, und da 1Gb nicht geht muss 1,5Gb her, so schaukeln sie sich hoch bis in einem Jahr 1-2Gb Standard sind , und wo steht dann 8800GTX@768mb ?
Teilwese ist ist eine ATI 100% schneller...Das mag ja sein. Das macht das Spiel aber auf NV-Karten noch lange nicht unspielbar. ;)
cl55amg
2006-11-05, 13:18:56
Auf meiner 7900GT @ 550/1700 Mhz ist es mit Blur unspielbar und ohne habe ich trotzdem sehr starke framedrops unter 20fps.
Genauso wie viele andere NV User auch.
Man beachte das in dem Bench nicht mal AA/AF aktiv ist.
http://img348.imageshack.us/img348/3848/carbon1280qc7.png (http://imageshack.us)
Hvoralek
2006-11-05, 13:23:54
Ist Dir aufgefallen, dass der Gast oben keine Auflösung genannt hat? :wink:
The_Invisible
2006-11-05, 13:24:53
Auf meiner 7900GT @ 550/1700 Mhz ist es mit Blur unspielbar und ohne habe ich trotzdem sehr starke framedrops unter 20fps.
Genauso wie viele andere NV User auch.
Man beachte das in dem Bench nicht mal AA/AF aktiv ist.
http://img348.imageshack.us/img348/3848/carbon1280qc7.png (http://imageshack.us)
hab die demo auch in 1280/4xaa/8xaf/max durch, weiß nicht wo bei euch da das problem ist (außer das die texturen und auflösungsmodi schei*e sind)
aber das ist schon wieder arg OT
mfg
cl55amg
2006-11-05, 13:25:10
Ist Dir aufgefallen, dass der Gast oben keine Auflösung genannt hat? :wink:
Ein Gast ist für mich nicht beachtenswert, mein Post dient als Info für die 3DCenter User, und nicht eine Stellungnahme für jemanden der sich hinter "Gast" versteckt.
hab die demo auch in 1280/4xaa/8xaf/max durch, weiß nicht wo bei euch da das problem ist (außer das die texturen und auflösungsmodi schei*e sind)
aber das ist schon wieder arg OT
mfg
Auch in der Vollversion sind die selben Probleme vorhanden, natürlich beschränke ich mich nicht auf die Demo. (Auch mit dem neuen NV Treiber)
Ist Dir aufgefallen, dass der Gast oben keine Auflösung genannt hat? :wink:Oh, ja, stimmt. Auflösung war 1280x1024. Die Werte ohne AA/AF erscheinen mir irgendwie etwas niedrig, wenn man mit 4xAA/8xAF vergleicht.
Klar gab es bei mir ein paar Slowdowns, aber im großen und ganzen lief das Spiel mit 25-30 fps, was ich gerade noch so als flüssig empfinde.
FFP - Pure fillrate - 11342.501953M pixels/sec
FFP - Z pixel rate - 70649.945313M pixels/sec
WTF??
Das ist aber nicht nur doppelte Z-Füllrate. X-D
Da kann man ja richtig schön in höher aufgelöste Shadowmaps investieren. :)
Blackpitty
2006-11-05, 13:30:50
also wer hier ne 7800GTX als Low End bezeichnet, der weis doch selber nicht mehr was er schreibt...
Schaut euch dochmal die ganzen fertig PCs im Mediamarkt und sonst wo an, sind da überall Karten drin, die besser sind als ne 78XX?
Eben, keine einzige, hier im forum mag so eine Karte im Vergleich zu ner 8800GTX schlecht sein, aber die ganzen LEute wisse doch nichtmal, das es eine 7800GTX oder 8800GTX gibt......
Sowas weis ja nichtmal ein Verkäufer im Mediamark.
Und diese Menschen können alle Pc Games spielen.
Die Leute kaufen sich aja uch einen PC, und der bleibt dann ewig so wie er sit, oder meinen er hält 5 Jahre oder so, zum Vergleich haben die Leute hier(ich zähle mich auch dazu) nach 2-5 Monaten schon fast nen komplett neues System.
The_Invisible
2006-11-05, 13:31:12
So wie du sprichst macht schon Sinn. Aber, wenn die Konkurrenz einmal 1Gb bringt dann muss Nvidia nachziehen, und da 1Gb nicht geht muss 1,5Gb her, so schaukeln sie sich hoch bis in einem Jahr 1-2Gb Standard sind , und wo steht dann 8800GTX@768mb ?
768mb dürften bis zum nächsten refresh locker reichen, 3monate ist man dann sowieso mal an der leistungsspitze bis der r600 erst kommt.
aber vielleicht sollte man mal spiele rausbringen wo 512mb überhaupt genutzt werden, die kann man bis jetzt an einer hand abzählen
mfg
Ailuros
2006-11-05, 13:31:29
Auf meiner 7900GT @ 550/1700 Mhz ist es mit Blur unspielbar und ohne habe ich trotzdem sehr starke framedrops unter 20fps.
Genauso wie viele andere NV User auch.
Man beachte das in dem Bench nicht mal AA/AF aktiv ist.
http://img348.imageshack.us/img348/3848/carbon1280qc7.png (http://imageshack.us)
Ich muss wohl zuerst fragen (weil ich das Carbon demo selber noch nicht probiert habe) ob es sich bei diesem angeblichen "motion blur" wieder um "motion trail" handelt.
Wenn ja dann ist das Zeug nicht nur fuer die Tonne, es hat absolut nicht das geringste mit wahrem temporalem AA zu tun (nun ja sowohl tempAA als auch motion blur wurde ja in den letzten Jahren genug missbraucht...) und zu guter letzt verdauen GeForces das Zeug so wie es implementiert wurde afaik schlechter als Radeons.
Das letzte Mal als ich Most wanted auf einer R580 ausprobieren wollte, stieg ich nach Sekunden aus dem Spiel aus und schaltete sofort den angeblichen MB Quark in der registry aus. Fuer mich persoenlich ist diese Schmiererei absolut nutzlos, was aber auch eine verdammt subjektive Angelegenheit und reine Geschmackssache ist.
Ein sehr einfaches aber nettes motion blur demo kann man hier finden:
http://freespace.virgin.net/hugo.elias/graphics/x_motion.htm
Mit "M" schaltet man auf motion trail um.
Superheld
2006-11-05, 13:34:00
16af Oblivion
http://img220.imageshack.us/img220/1179/oblivionyw3.th.jpg (http://img220.imageshack.us/my.php?image=oblivionyw3.jpg)
http://img220.imageshack.us/img220/7484/oblivion2yd8.th.jpg (http://img220.imageshack.us/my.php?image=oblivion2yd8.jpg)
http://www.hardforum.com/showthread.php?t=1116603&page=21&pp=20
Ich weiß aber durch Dynamic branching können einfach Komplexere Shader in weniger Durchgängen berechnet werden was neben der gestiegenen Rohleistunng zusätzlich einfach mher und Komplexere Effekte möglich macht.Nur es is unsinn zu erzählen da wäre alles auf SM2.0 möglich Theoretisch ja parktisch für Echtzeit Games nein.Und wie du schon schreibst bei D3D10 ist das auch der Fall man nimmt wieder mher Last z.B von der CPU und man kann so mher Objekte,Effekte usw darstellen.Trotzdem ist der Begriff "SM3-Effekt" wenig sinnvoll. Wenn man irgendwo 10 statt 5 Dinge durch die Luft fliegen hat, ist das kein "SM3-Effekt".
Ailuros
2006-11-05, 13:35:05
768mb dürften bis zum nächsten refresh locker reichen, 3monate ist man dann sowieso mal an der leistungsspitze bis der r600 erst kommt.
aber vielleicht sollte man mal spiele rausbringen wo 512mb überhaupt genutzt werden, die kann man bis jetzt an einer hand abzählen
mfg
Da die 16xAA modi eigentlich CMAA sind, reichen momentan 768MB vollkommen aus.
16af Oblivion
http://img220.imageshack.us/img220/1179/oblivionyw3.th.jpg (http://img220.imageshack.us/my.php?image=oblivionyw3.jpg)
http://img220.imageshack.us/img220/7484/oblivion2yd8.th.jpg (http://img220.imageshack.us/my.php?image=oblivion2yd8.jpg)
http://www.hardforum.com/showthread.php?t=1116603&page=21&pp=20
Sehr gute Qualität.
MfG,
Raff
Ailuros
2006-11-05, 13:37:42
Sehr gute Qualität.
MfG,
Raff
Das koennte sogar "high performance" sein :biggrin:
dildo4u
2006-11-05, 13:38:52
Die Frage ist ob das AF schon das HQ Winkelunabhänige AF ist wär ja mher als geil wenn das als Treiber Default schon aktiv ist.
Das schaut sehr winkelunabhängig aus. Gerade die fiesen Schrägen auf Shot 2 sind scharf ... was sie mit Billig-AF nicht wären. Ich hätte ja gerne mal Highres-Videos, um die Texturruhe beurteilen zu können.
Die Shots könnten aber genauso gut von einem R5x0 stammen. ;)
MfG,
Raff
Ailuros
2006-11-05, 13:50:50
Die Frage ist ob das AF schon das HQ Winkelunabhänige AF ist wär ja mher als geil wenn das als Treiber Default schon aktiv ist.
AFAIK gibt es keinen Unterschied zwischen den modi was winkelabhaengigkeit betrifft.
Sonyfreak
2006-11-05, 13:52:14
Also auf jeden Fall kann man sagen, dass die Oblivion Screenshots sicher nicht auf einer Geforce 7 gemacht wurden, weil man da die Winkelabhängigkeit sehr stark sehen würde. Gefallen mir auf jeden Fall mal sehr gut die Bilder! :up:
mfg.
Sonyfreak
SKYNET
2006-11-05, 13:53:25
Welche kommende GPU wird denn ueberhaupt einen 512bit breiten Bus haben? :|
evtl. G81?! :|
dildo4u
2006-11-05, 13:55:18
AFAIK gibt es keinen Unterschied zwischen den modi was winkelabhaengigkeit betrifft.Sher gut dann müssen alle Benches mit einer 1800/1900 als Gegener mit HQ AF seitens ATI gefahren werden endlich ist das mal umgedreht. ;)
AFAIK gibt es keinen Unterschied zwischen den modi was winkelabhaengigkeit betrifft.
Wie meinen? Ist denn nicht standardmäßig ein Billigmodus á la R5x0 aktiviert, den man via Treiberhäkchen ausmachen kann?
MfG,
Raff
Sehr gute Qualität.
MfG,
Raff
LOL? Aber wirklich nicht! Sieh dir mal die Schärfeschwankungen beim 1. Bild links neben dem Gras an!
Das ist bei einem R5x0 nicht anders. Von kompletter Winkelunabhängigkeit sprach ja bisher keiner.
MfG,
Raff
Ailuros
2006-11-05, 13:58:10
Wie meinen? Ist denn nicht standardmäßig ein Billigmodus á la R5x0 aktiviert, den man via Treiberhäkchen ausmachen kann?
MfG,
Raff
Auf R5x0 schon ;)
dargo
2006-11-05, 13:58:36
Sehr gute Qualität.
Also, hier sieht man noch eine kleine Winkelabhängigkeit:
http://img295.imageshack.us/img295/5866/1qp5xb2.jpg
Aber, für mich ist das mehr als in Ordnung. :)
Spasstiger
2006-11-05, 13:59:25
WTF??
Das ist aber nicht nur doppelte Z-Füllrate. X-D
Tjo, steht auch schon in der PC Games Hardware drin. Die ROPs können 8-mal soviele z-Werte schreiben wie Farbwerte.
Ailuros
2006-11-05, 14:01:20
evtl. G81?! :|
Wenn dann wohl eher GDDR4@384bit.
900MHz GDDR3 = 86.4
1200MHz GDDR4 = 115.2
Soll nur ein Beispiel sein; Du kannst es Dir von mir aus auch mit 1.4 oder mehr GHz ausrechnen.
wird sagen das liegt nur an schlechtere Texturen am Rand
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/11/#abschnitt_call_of_duty_2
in meinen augen ist hier mit steigender last (1600x1200) die 7800gtx schneller...
Mit neuen Treibern wahrscheinlich nichtmal mehr annähernd: Die gibts zwarkeine 256MB X1800XT aber ausgehend vom Verlust der 256MB X1900XT zur 512MB X1900XT kann man sich wohl ausrechnen, wie flott die 256MB X1800XT sein müsste.
Die 256MB X1900XT verliert in 1600x1200 4xAA/16xAF in COD ~11% zur 512MB Version. So müsste die 256MB X1800XT ~22.6 fps erreichen und wär damit um 42% flotter als ne 7800GTX...
Ailuros
2006-11-05, 14:03:21
Also, hier sieht man noch eine kleine Winkelabhängigkeit:
Aber, für mich ist das mehr als in Ordnung. :)
Bist Du sicher dass es nicht eher verbunden ist mit dem Spiel? Selbst 100% winkelunabhaengigkeit koennte es Dir hier nicht bessermachen.
Bist Du sicher dass es nicht eher verbunden ist mit dem Spiel? Selbst 100% winkelunabhaengigkeit koennte es Dir hier nicht bessermachen.
4x SSAA drübergebügelt und es ist scharf genug. ;)
MfG,
Raff
4x SSAA drübergebügelt und es ist scharf genug. ;)
MfG,
Raff
OGSSAA? Naja.
dildo4u
2006-11-05, 14:11:23
Coolaler aus dem Extremesystems Forum hat jetzt auch eine 8800GTX eine Leadtek um genau zu sein.
http://www.iamxtreme.net/coolaler/8800GTX/1.JPG
http://www.iamxtreme.net/coolaler/8800GTX/3.JPG
Benches gibts im Thread leider wieder nur 3DMark und co.
http://www.xtremesystems.org/forums/showthread.php?t=121980
Ailuros
2006-11-05, 14:11:41
4x SSAA drübergebügelt und es ist scharf genug. ;)
MfG,
Raff
Was soll ein 2xAF equivalent schaffen, dass wahres 16xAF nicht schafft? Oder besser gefragt bei miesem Content hilft SSAA sowieso ueberhaupt nicht.
wird sagen das liegt nur an schlechtere Texturen am Rand
Ja klar. Gäbs ein Savegame von der Stelle könnte man ganz leicht beweisen, dass R5x0 HQ AF nicht solche Fehler macht. Aber vll. hat Ailuros recht und es war wirklich nur High Performance AF.
War aber klar, dass die NV Jünger sich die Haxen ausfreuen, wenn sich die NV AF Qualität ausnahmsweise mal verbessert ;)
Was soll ein 2xAF equivalent schaffen, dass wahres 16xAF nicht schafft? Oder besser gefragt bei miesem Content hilft SSAA sowieso ueberhaupt nicht.
Nichtigkeiten wie da oben fallen nicht mehr auf, wenn sie noch nichtiger werden.
Was ich noch sagen wollte: Beim R5x0 wurde derartige BQ gefeiert. Nun ist NV ebenbürtig. Was wollen wir also mehr?
MfG,
Raff
dargo
2006-11-05, 14:16:40
Bist Du sicher dass es nicht eher verbunden ist mit dem Spiel? Selbst 100% winkelunabhaengigkeit koennte es Dir hier nicht bessermachen.
Keine Ahnung, ich habe eh kein Oblivion. Mir ist halt nur die Stelle besonders ins Auge gefallen. Viel mehr würden mich aber die berühmten HL2 Screens im Vergleich interessieren.
Ja klar. Gäbs ein Savegame von der Stelle könnte man ganz leicht beweisen, dass R5x0 HQ AF nicht solche Fehler macht. Aber vll. hat Ailuros recht und es war wirklich nur High Performance AF.
War aber klar, dass die NV Jünger sich die Haxen ausfreuen, wenn sich die NV AF Qualität ausnahmsweise mal verbessert ;)
Bitte realistisch bleiben. Atis HQ-AF ist auch nicht perfekt. Beweise? Hier. Das ist Gothic II mit 16x HQ-AF und A.I. Off bei einem ähnlich fiesen Winkel:
http://img227.imageshack.us/img227/580/1nr0.th.jpg (http://img227.imageshack.us/my.php?image=1nr0.jpg)
MfG,
Raff
Bitte realistisch bleiben. Atis HQ-AF ist auch nicht perfekt. Beweise? Hier. Das ist Gothic II mit 16x HQ-AF und A.I. Off bei einem ähnlich fiesen Winkel:
http://666kb.com/i/aizgoohsiljwjq8y9.jpg
MfG,
Raff
Das ist nicht die gleiche Szene. Klar, fiese Winkel gibts immer. Aber in ner ähnlichen Szene bei Oblivion hatte ich z.B. nicht solche harte Kanten. ;)
Das ist nicht die gleiche Szene. Klar, fiese Winkel gibts immer. Aber in ner ähnlichen Szene bei Oblivion hatte ich z.B. nicht solche harte Kanten. ;)
Bleibt cool.Hq-af ist Hq-af,es sieht bei beiden gleich aus.
dargo
2006-11-05, 14:23:24
Eine Frage noch zum GTX Kühler. Haben diese 5 Schlitze irgendwelchen positiven Einfluss auf die Kühlleistung oder ist das nur für die Optik?
The_Invisible
2006-11-05, 14:24:53
oje, die erbsenzähler sind wieder im anmarsch ;)
mfg
Ailuros
2006-11-05, 14:28:29
Ja klar. Gäbs ein Savegame von der Stelle könnte man ganz leicht beweisen, dass R5x0 HQ AF nicht solche Fehler macht. Aber vll. hat Ailuros recht und es war wirklich nur High Performance AF.
War aber klar, dass die NV Jünger sich die Haxen ausfreuen, wenn sich die NV AF Qualität ausnahmsweise mal verbessert ;)
High Perf ist genauso winkelabhaengig wie High Quality LOL
Also, hier sieht man noch eine kleine Winkelabhängigkeit:
http://img295.imageshack.us/img295/5866/1qp5xb2.jpg
Aber, für mich ist das mehr als in Ordnung. :)
das ist sicher keine winkelabhängigkeit, sondern eine texturverzerrung die so stark ist, dass der eingestellte AF-grad für 100%ige schärfe nicht mehr ausreicht.
Ailuros
2006-11-05, 14:30:46
Nichtigkeiten wie da oben fallen nicht mehr auf, wenn sie noch nichtiger werden.
MfG,
Raff
Darum geht es ja gar nicht; es ging mir darum dass wenn eine Applikation verfurztes MIPmapping oder texturing hat, hilft Dir Supersampling dann auch nicht mehr.
Perfektion in 3D wird es nie geben und das aus vielen Gruenden.
4x SSAA drübergebügelt und es ist scharf genug. ;)
Ne, das hilft da auch nicht mehr.
Da werden schon volle 16 AF Samples genommen, da könnte 4xSSAA nur maximal 4 nehmen. Wenn dann müsste man 16xAF und 4xSGSSAA benützen.
100%ige schärfe nicht mehr ausreicht.
Richtig. Das ist sowieso unmöglich, weil man dann für manche Polygone unendlich Samples nehmen müsste.
Ich sagte ja nicht, dass es dann urplötzlich rattenscharf wird, sondern, dass es dann wohl nicht mehr so ins Auge sticht. Und ja, ich meine 16x AF plus 4x SS.
MfG,
Raff
Ja dann hast du halt "64xAF". Schön.
Und wofür brauchst du da jetzt deine Supersampling-Beweiräucherung? Wie wärs einfach mit: "Da bräuchte man mehr AF"?
tombman
2006-11-05, 14:34:49
Fillrate Tester - GeForce 8800 GTX
--------------------------
Display adapter: NVIDIA GeForce 8800 GTX
Driver version: 6.14.10.9689
Display mode: 1600x1200 R5G6B5 65Hz
Z-Buffer format: D24S8
--------------------------
FFP - Pure fillrate - 11342.501953M pixels/sec
FFP - Z pixel rate - 70649.945313M pixels/sec
FFP - Single texture - 11223.582031M pixels/sec
FFP - Dual texture - 8979.156250M pixels/sec
FFP - Triple texture - 5981.024414M pixels/sec
FFP - Quad texture - 4480.708008M pixels/sec
PS 1.1 - Simple - 11297.077148M pixels/sec
PS 1.4 - Simple - 11317.381836M pixels/sec
PS 2.0 - Simple - 11324.293945M pixels/sec
PS 2.0 PP - Simple - 11293.700195M pixels/sec
PS 2.0 - Longer - 9287.584961M pixels/sec
PS 2.0 PP - Longer - 9293.107422M pixels/sec
PS 2.0 - Longer 4 Registers - 9481.595703M pixels/sec
PS 2.0 PP - Longer 4 Registers - 9472.769531M pixels/sec
PS 2.0 - Per Pixel Lighting - 3815.257813M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 3798.813232M pixels/sec
Hier meine Zahlen mit GX2 oc zum Vergleich :)
Fillrate Tester
--------------------------
Display adapter: NVIDIA GeForce 7950 GX2 (600/780 !!)
Driver version: 6.14.10.9147
Display mode: 1600x1200 R5G6B5 85Hz
Z-Buffer format: D24S8
--------------------------
FFP - Pure fillrate - 17276.898438M pixels/sec
FFP - Z pixel rate - 32995.785156M pixels/sec
FFP - Single texture - 17425.833984M pixels/sec
FFP - Dual texture - 13304.210938M pixels/sec
FFP - Triple texture - 9065.666992M pixels/sec
FFP - Quad texture - 6820.537109M pixels/sec
PS 1.1 - Simple - 13678.405273M pixels/sec
PS 1.4 - Simple - 13685.774414M pixels/sec
PS 2.0 - Simple - 13692.654297M pixels/sec
PS 2.0 PP - Simple - 13685.364258M pixels/sec
PS 2.0 - Longer - 9252.280273M pixels/sec
PS 2.0 PP - Longer - 9238.699219M pixels/sec
PS 2.0 - Longer 4 Registers - 6962.142578M pixels/sec
PS 2.0 PP - Longer 4 Registers - 9227.689453M pixels/sec
PS 2.0 - Per Pixel Lighting - 3111.846191M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 3484.048584M pixels/sec
Bei einfachen Sachen ist die GX2 vorn, aber je komplizierter es wird, desto mehr zieht die G80 davon :)
Ja dann hast du halt "64xAF". Schön.
Und wofür brauchst du da jetzt deine Supersampling-Beweiräucherung? Wie wärs einfach mit: "Da bräuchte man mehr AF"?
Weil man aktuell auf andere Art nicht mehr AF erzeugen kann? Und weil SSAA ein Vorteil gegenüber Ati ist.
MfG,
Raff
Weil man aktuell auf andere Art nicht mehr AF erzeugen kann? Und weil SSAA ein Vorteil gegenüber Ati ist.
MfG,
Raff
Solangs OG ist imo nicht.
Ailuros
2006-11-05, 14:38:19
das ist sicher keine winkelabhängigkeit, sondern eine texturverzerrung die so stark ist, dass der eingestellte AF-grad für 100%ige schärfe nicht mehr ausreicht.
Raff schau Dir mal den Kommentar vom Gast hier nochmal genauer an.
Hier meine Zahlen mit GX2 oc zum Vergleich :)
Bei einfachen Sachen ist die GX2 vorn, aber je komplizierter es wird, desto mehr zieht die G80 davon :)
Man sollte ohnehin mit AA/AF testen, und da zieht die G80 sicher noch mehr davon...
Ailuros
2006-11-05, 14:39:03
Solangs OG ist imo nicht.
Was zum Teufel hat jetzt der grid genau damit zu tun?
Solangs OG ist imo nicht.Wenns um Texturschärfung geht, ist ein ordered Grid bestimmt kein Nachteil.
4xSGSSAA erzeugt 4xAF, weil das EER höher ist.
Ailuros
2006-11-05, 14:40:29
Man sollte ohnehin mit AA/AF testen, und da zieht die G80 sicher noch mehr davon...
Wenn mich mein Gedaechtnins jetzt nicht betruegt macht AF in MDolenc's fillrate tester nichts aus.
16af Oblivion
http://img220.imageshack.us/img220/1179/oblivionyw3.th.jpg (http://img220.imageshack.us/my.php?image=oblivionyw3.jpg)
http://img220.imageshack.us/img220/7484/oblivion2yd8.th.jpg (http://img220.imageshack.us/my.php?image=oblivion2yd8.jpg)
http://www.hardforum.com/showthread.php?t=1116603&page=21&pp=20
die bilder reichen ned,nur in bewegung kann man sehen obs noch krisselt
Wenn mich mein Gedaechtnins jetzt nicht betruegt macht AF in MDolenc's fillrate tester nichts aus.
Ja, bei ATI Karten: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/5/#abschnitt_theoretische_benchmarks
Ailuros
2006-11-05, 14:43:36
Ja, bei ATI Karten: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/5/#abschnitt_theoretische_benchmarks
Huh? Was uebersehe ich gerade? Denn der Test hat auch 4xAA eingeschaltet.
Huh? Was uebersehe ich gerade? Denn der Test hat auch 4xAA eingeschaltet.
Ui hoppla, hab AA gelesen, wo in deinem Post AF stand...
16af Oblivion
http://img220.imageshack.us/img220/1179/oblivionyw3.th.jpg (http://img220.imageshack.us/my.php?image=oblivionyw3.jpg)
http://img220.imageshack.us/img220/7484/oblivion2yd8.th.jpg (http://img220.imageshack.us/my.php?image=oblivion2yd8.jpg)
http://www.hardforum.com/showthread.php?t=1116603&page=21&pp=20
Hm im Forum schreibt er das kein AA möglich war. Schade erstmal, muss doch ne Möglichkeit geben das zu forcieren!
Bitte realistisch bleiben. Atis HQ-AF ist auch nicht perfekt. Beweise? Hier. Das ist Gothic II mit 16x HQ-AF und A.I. Off bei einem ähnlich fiesen Winkel:
http://img227.imageshack.us/img227/580/1nr0.th.jpg (http://img227.imageshack.us/my.php?image=1nr0.jpg)
auch das hat nichts mir irgendwelchen winkelabhängigkeiten zu tun sondern einfach mit texturverzerrungen für die 16xAF nicht mehr ausreicht.
Ich hab' auch nirgends gesagt, dass dem so ist. Ich schrieb, dass das AF nicht perfekt ist. Wer also am G80-AF rummäkelt, der soll sich mal die Konkurrenz ansehen. Wir brauchen einfach mehr AF als 16x ... aber warum macht das keiner? "16x" haben wir seit 4 Jahren. Mehr kriegt man auch beim G80 nicht ... nur durch zusätzliches SSAA. Aber sobald ich diese vier Buchstaben tippe, springen hier viele Leute auf die Palme, also lasse ich das erstmal. ;)
MfG,
Raff
Ailuros
2006-11-05, 15:32:22
Weil ich vielleicht meine Fuellraten sinnvoller einsetzen will Raff? ;)
Ja dann hast du halt "64xAF". Schön.Nee, 32x AF.
Grestorn
2006-11-05, 15:34:43
Bitte realistisch bleiben. Atis HQ-AF ist auch nicht perfekt. Beweise? Hier. Das ist Gothic II mit 16x HQ-AF und A.I. Off bei einem ähnlich fiesen Winkel:
http://img227.imageshack.us/img227/580/1nr0.th.jpg (http://img227.imageshack.us/my.php?image=1nr0.jpg)
MfG,
Raff
Das hat doch nichts mit wa-AF zu tun, sondern schlicht damit, dass diese Textur in einem derart flachen Winkel dargestellt wird, dass einfach keine Schärfe mehr zu erwarten ist.
Wäre die Textur genau rechtwinklig (also genau eben am Boden) aber in einem genauso flachen Betrachtungswinkel, wäre sie auch nicht schärfer. Obwohl bei 90° Winkeln immer voll gefiltert wird.
Vielleicht versteht ihr einfach nicht, um was es mir geht ... es wirkt jedenfalls so. Nehmen wir doch mal Gothic II als Beispiel. Das Ding ist steinalt und zudem radikal CPU-limitiert. Bei Ati hat man keine Möglichkeit, die BQ besser zu machen als mit 6x Q-ASBT-AAA und 16x HQ-AF @ A.I. Off. Dann kommen eben solche Stellen vor, in denen man aber immer noch keine "perfekte" Optik hat. Dabei liegt sicher noch Grafikleistung brach. Was spricht dort denn gegen SSAA? Nvidia bietet einfach die "maximalere" Bildqualität durch diesen ach so scheiß langsamen Ineffizienzdreck. Klar soweit? ;)
MfG,
Raff
Ailuros
2006-11-05, 15:41:44
Vielleicht versteht ihr einfach nicht, um was es mir geht ... es wirkt jedenfalls so. Nehmen wir doch mal Gothic II als Beispiel. Das Ding ist steinalt und zudem radikal CPU-limitiert. Bei Ati hat man keine Möglichkeit, die BQ besser zu machen als mit 6x Q-ASBT-AAA und 16x HQ-AF @ A.I. Off. Dann kommen eben solche Stellen vor, in denen man aber immer noch keine "perfekte" Optik hat. Dabei liegt sicher noch Grafikleistung brach. Was spricht dort denn gegen SSAA? Nvidia bietet einfach die "maximalere" Bildqualität durch diesen ach so scheiß langsamen Ineffizienzdreck. Klar soweit? ;)
MfG,
Raff
Fuer Gothic II brauchst Du aber auch keine G80.
Für 4x4 OGSSAA + 16x AF in 2048x1536 schon. :naughty: War ja auch nur ein Beispiel!
MfG,
Raff
Bleibt cool.Hq-af ist Hq-af,es sieht bei beiden gleich aus.
Du irrst das der Nvidia ist ne ganze Ecke besser.
SentinelBorg
2006-11-05, 15:45:07
Hat schon jemand eine Übersicht gesehen, bei welchem Hersteller welche Games beiliegen? Da die Karten ja ansonsten eh alle gleich sind, ist das für mich neben dem Preis der entscheidende Punkt.
Leadtek hat wohl Spellforce 2 dabei. Nettes Game, aber hab ich leider schon.
Sentinel
Ailuros
2006-11-05, 15:45:17
Für 4x4 OGSSAA + 16x AF in 2048x1536 schon. :naughty: War ja auch nur ein Beispiel!
MfG,
Raff
Ich hab zwar keine Ahnung wie hoch 16xOGSS auf G80 gehen koennte, aber 2048 klingt mir viel zu uebertrieben. Wenn HW in der Zukunft noch staerker wird, wird es um weit bessere Filterungs-Methoden als AF geben.
Du irrst das der Nvidia ist ne ganze Ecke besser.
:confused: Woher weisst du das?
Ich hab zwar keine Ahnung wie hoch 16xOGSS auf G80 gehen koennte, aber 2048 klingt mir viel zu uebertrieben.
Das kann ich dir aber beantworten (auch ohne ein NDA zu verletzen): Wenn es im Treiber aktivierbar ist, geht 4x4 OGSSAA bis 2.048x1.536. D3D10 setzt ein 8192er-Rendertarget voraus.
Q
Ich hab zwar keine Ahnung wie hoch 16xOGSS auf G80 gehen koennte, aber 2048 klingt mir viel zu uebertrieben.
Sofern der VRAM ausreicht, sollte das doch gehen. Die Größe des Rendertargets beträgt doch 8192x8192, oder nicht?
MfG,
Raff
€dit: Danke, Spilli.
Du irrst das der Nvidia ist ne ganze Ecke besser.
Klar und morgen kommt der Kaiser bei dir vorbei.:rolleyes:Beweise?
Für 4x4 OGSSAA + 16x AF in 2048x1536 schon.
Damit dürfte selbst G80 SLI nichtmal 25fps erreichen (ausgehend von den Ergebnissen im Fillratetester).
Das Ding wird zwar schön schnell, kein Zweifel, allerdings hat man heutzutage mit 7900GTX SLI auch schon ca. die Leistung. Warum also eine dermaßen unrealistische Erwartungshaltung?
gguru
2006-11-05, 15:52:14
Hat schon jemand eine Übersicht gesehen, bei welchem Hersteller welche Games beiliegen? Da die Karten ja ansonsten eh alle gleich sind, ist das für mich neben dem Preis der entscheidende Punkt.
Leadtek hat wohl Spellforce 2 dabei. Nettes Game, aber hab ich leider schon.
Sentinel
Bei Leadtek ist auch Trackmania Nations dabei. ^^
Vermutlich wird bei ASUS GRAW dabei sein.
Ailuros
2006-11-05, 15:52:42
Klar und morgen kommt der Kaiser bei dir vorbei.:rolleyes:Beweise?
Etwas dass einem Quadrat aehnelt ist etwas mehr entfernt von einem wahren Kreis als NV4x/2xAF. In Echtzeit sind die Unterschiede trotz allem schwer zu bemerken.
Etwas dass einem Quadrat aehnelt ist etwas mehr entfernt von einem wahren Kreis als NV4x/2xAF. In Echtzeit sind die Unterschiede trotz allem schwer zu bemerken.
Andererseits ists kein absoluter Qualitätsindikator, zu wissen, aus welcher Mip gesampelt wird ;)
Ailuros
2006-11-05, 15:54:59
Das kann ich dir aber beantworten (auch ohne ein NDA zu verletzen): Wenn es im Treiber aktivierbar ist, geht 4x4 OGSSAA bis 2.048x1.536. D3D10 setzt ein 8192er-Rendertarget voraus.
Q
Tja ob es der Treiber erstmal erlaubt mit der Framebuffer-Groesse ist ja meine eigentliche Frage. Welches NDA denn ueberhaupt? Gibt es denn ueberhaupt noch etwas dass nicht schon bekannt ist? :P
Klar und morgen kommt der Kaiser bei dir vorbei.:rolleyes:Beweise?
Beweise? Als ob ich das nötig hätte. *lach* Mittwoch sehen werdet ihr.
Wer auf Bildqualität großen Wert legt der sollte schonmal aufhorchen.
Wir brauchen einfach mehr AF als 16x ... aber warum macht das keiner? "16x" haben wir seit 4 Jahren.
hm, für hier und da mal 100pixel im bild die noch nicht ausreichend AF abbekommen?
ich hätte natürlich auch nichts gegen höhere AF-modi einzuwenden, aber mir würde gutes 8xAF auch schon ausreichen.
Beweise? Als ob ich das nötig hätte. *lach* Mittwoch sehen werdet ihr.
Wer auf Bildqualität großen Wert legt der sollte schonmal aufhorchen.
Was soll sich denn grossartig ändern?Die performance fressenden AA modi gibts schon lange bei NV,das einzigste was neu ist ist HQ-AF.
Ruhe.;D
Nein, das VCAA gabs noch nie. Bei keiner Karte.
Ailuros
2006-11-05, 16:25:03
Was soll sich denn grossartig ändern?Die performance fressenden AA modi gibts schon lange bei NV,das einzigste was neu ist ist HQ-AF.
Ruhe.;D
Na die Wette wuerde ich an Deiner Stelle lieber nicht eingehen ;)
Tja ob es der Treiber erstmal erlaubt mit der Framebuffer-Groesse ist ja meine eigentliche Frage. Welches NDA denn ueberhaupt? Gibt es denn ueberhaupt noch etwas dass nicht schon bekannt ist? :P
Ja - zumindest sagst du selbst, dass du nicht weißt, in welchem Prozess der G80 gefertigt wird. :P Eigentlich ist es aber bekannt.
Q
Ailuros
2006-11-05, 16:33:40
Ja - zumindest sagst du selbst, dass du nicht weißt, in welchem Prozess der G80 gefertigt wird. :P Eigentlich ist es aber bekannt.
Q
Stimmt schon; ich konzentrier mich eben auf andere Einzelheiten. Mein Zeug kommt ja sowieso nicht direkt von NV.
Nein, das VCAA gabs noch nie. Bei keiner Karte.
Was ist VCAA?
Was ist VCAA?
Der alte Begriff für CSAA.
Q
Banshee18
2006-11-05, 17:03:49
Der alte Begriff für CSAA.
Q
Jetzt müsste man nur noch wissen, was CSAA ist.:(
Ailuros
2006-11-05, 17:08:11
http://www.beyond3d.com/forum/showpost.php?p=112820&postcount=142
deekey777
2006-11-05, 17:08:57
Jetzt müsste man nur noch wissen, was CSAA ist.:(
Coverage Sampling AA. Wie das funktioniert, steht in der aktuellen PCGH.
forumer
2006-11-05, 19:03:29
eine nackte 8800:
http://awardfabrik.de/forum/showpost.php?p=11037&postcount=505
http://img167.imageshack.us/img167/5794/dsc02115largefk9.jpg
Spasstiger
2006-11-05, 19:11:46
eine nackte 8800:
http://awardfabrik.de/forum/showpost.php?p=11037&postcount=505
Vom PCB erkennt man auf folgenden Fotos aber mehr:
http://www.xtremesystems.org/forums/showthread.php?t=121980
chrisihamm
2006-11-05, 19:12:09
Hi,
gibt es eigentlich schon Wasserkühler für das Beast?
mfg
Der schreibt dort: Ganz ehrlich, lang werde ich nicht mehr warten mit den Ergebnissen.
Ich arbeite morgen noch mal mit Hochdruck an den Benchmarks und am
Artikel, am Dienstag Abend kommt auf jedem Fall was von Uns!
So genau nehmen das manche nicht mit dem NDA, schon die ganzen Infos im Thread alleine :rolleyes: Da fragt man sich, warum jeder Hansel Karten von NVIDIA bekommt. Die neue Seite sollte da seriöser agieren. Ich an NVIDIAs Stelle würde beim nächsten mal solchen Seiten keine Karten mehr zur Verfügung stellen.
Omnicron
2006-11-05, 19:19:12
Irgendwie unheimliche leaks hier, obwohl das NDA noch gilt und seriöse Seiten (wie 3dc) sich noch dran halten müssen...
Zapat
2006-11-05, 19:40:27
Irgendwie unheimliche leaks hier, obwohl das NDA noch gilt und seriöse Seiten (wie 3dc) sich noch dran halten müssen...
Oh ein Spielverderber.:P
No_Name hat soweit ich weiss nicht einmal ein NDA, sondern macht das aus Fairness.
dargo
2006-11-05, 20:17:06
eine nackte 8800:
http://awardfabrik.de/forum/showpost.php?p=11037&postcount=505
http://img167.imageshack.us/img167/5794/dsc02115largefk9.jpg
Was ich schade finde, dass man eine Alternativkühlung beim G80 @Thermalright HR-03 vergessen kann. ;(
Die Spannungswandler würden dann frei liegen.
Was ich schade finde, dass man eine Alternativkühlung beim G80 @Thermalright HR-03 vergessen kann. ;(
Die Spannungswandler würden dann frei liegen.
bei ner wakü wird dann auch ein komplettkühler pflicht, ein gpu-only kühler wäre wohl der lebenserwartung der karte nicht zuträglich.
Blackpitty
2006-11-05, 20:45:39
mich würde mal ein Bild interessieren, wo vom Kühler die Plastikhaube abgeschraubt ist, und man sieht wo die Heatpipe lang geht und wie der Kühler so aussieht, ist das mal machbar??
Was ich schade finde, dass man eine Alternativkühlung beim G80 @Thermalright HR-03 vergessen kann. ;(
Die Spannungswandler würden dann frei liegen.
dann muss man halt irgendwelche passiven kühlerchen draufkleben ...
ich will mal ne nackte gts sehen
incurable_nli
2006-11-05, 21:20:54
ich will mal ne nackte gts sehen
Apropos, gab's schon 'ne GTS-Rückseite zu sehen? Ich bin gespannt, wie sie den entfallenden Speichercontroller realisiert haben, vorausgesetzt sie richten sich nach den Defekten der Chips.
paul.muad.dib
2006-11-05, 21:54:19
Hi, ein paar Fragen zum G80:
Gibt es schon genaue Infos zur Bildqualität des G80? Kann er 6x RGMSAA und wu AF? Falls ja, muss das extra aktiviert werden oder ist AF immer winkelunabhängig? Gibt es schon Screens zur BQ, insbesondere eine AF Blume?
Wie lassen sich die "Streaming Prozessoren" leistungsmäßig mit den Pixelshadern von G71 und r580 vergleichen? Ist ein Streaming Prozessor so schnell wie ein Pixel Shader?
wie sie den entfallenden Speichercontroller realisiert haben, vorausgesetzt sie richten sich nach den Defekten der Chips.
einfach 2 speicherchips weniger, der geringere speicherbus wird wohl in erster linie dazu sein um PCB-kosten zu sparen und nicht defekte teile zu deaktivieren.
tombman
2006-11-05, 22:00:30
Ich hab Infos, daß die BQ sogar die von ATI übertrifft, glaubts mir einfach ;)
Hi, ein paar Fragen zum G80:
lesen bildet, in diesem thread steht schon einiges dazu
Gibt es schon genaue Infos zur Bildqualität des G80?
ein paar
Kann er 6x RGMSAA
nein, aber 8x und 16x
und wu AF?
prinzipiell ja, in wie weit eine restabhängigkeit vom winkel vorhanden ist, ist noch nicht bekannt, manche forenpostings deuten allerdings darauf hin dass sie geringer als beim AreaAF des R5xx ist.
Falls ja, muss das extra aktiviert werden oder ist AF immer winkelunabhängig?
es gibt widersprüchliche meldungen, PCGH behauptet es müsste aktiviert werden, einige behaupten es wäre immer winkelunabhängig, sollte aber eigentlich keine rolle spielen ;)
Gibt es schon Screens zur BQ, insbesondere eine AF Blume?
in diesem thread gibt es angebliche G80-screens von oblivion, die auch in verschiedensten winkeln ordentliches AF zeigen, AF-blumen sind meines wissens noch keine aufgetaucht.
Wie lassen sich die "Streaming Prozessoren" leistungsmäßig mit den Pixelshadern von G71 und r580 vergleichen? Ist ein Streaming Prozessor so schnell wie ein Pixel Shader?
die dinger sind skalar-prozessoren und damit überhaupt nicht mit den üblichen vektorprozessoren vergleichbar. zusätzlich sind sie mit 1200MHz (GTS) bzw. 1350MHz (GTX) getaktet und sollen sich auch extra übertakten lassen.
Gibt es schon genaue Infos zur Bildqualität des G80? Kann er 6x RGMSAA und wu AF?Hmm, warum liest du nicht einfach die letzten paar Seiten des Threads? Der G80 kann auf jedenfall bis zu 8x SGMSAA und zusätzlich noch einen (oder sogar mehrere) 16x-Modus mit einer MSAA-Abart. Dazu eben noch die üblichen Hybridmodi und Supersampling. AF ist winkelunabhängig und es gibt keine Zwangsoptimierungen. Von der erreichbaren Bildqualität dürfte der G80 alles bisher dagewesene in den Schatten stellen, ebenso von der Geschwindigkeit.
Blackpitty
2006-11-05, 22:17:22
Ich hab Infos, daß die BQ sogar die von ATI übertrifft, glaubts mir einfach ;)
das wär echt hammer, freu mich extrem auf die Karte :biggrin:
paul.muad.dib
2006-11-05, 22:25:24
Hmm, warum liest du nicht einfach die letzten paar Seiten des Threads?
Weil so ein Sammelthread immer sehr unübersichtlich wird.
Auf jeden Fall danke für die Antworten.
Wenn sie Skalarprozessoren sind, bräuchte man also 4 Stück, um eine Vektoroperation durchzuführen? Dann wäre es unter Berücksichtigung des hohen Taktes also ungefähr so viel wie 64 Pixel Shader, also nur 14 Prozent mehr Arithmetikleistung (48 PS + 8 VS), falls sie ähnlich schnell wären?
deekey777
2006-11-05, 22:27:59
Ich hab Infos, daß die BQ sogar die von ATI übertrifft, glaubts mir einfach ;)
Alles andere wäre enttäuschend, oder?=)
Wenn sie Skalarprozessoren sind, bräuchte man also 4 Stück, um eine Vektoroperation durchzuführen?
für eine Vec4-operation ja. allerdings braucht man nicht immer unbedingt alle 4 kanäle, der alpha-kanal liegt bei vektorprozessoren beispielsweise öfter brach, während in diesem fall einfach nur 3 skalarprozessoren gebraucht werden.
zusätzlich sollte die auslastung wesentlich höher sein, da man kein splitting mehr braucht
paul.muad.dib
2006-11-05, 22:30:31
Ich hab Infos, daß die BQ sogar die von ATI übertrifft, glaubts mir einfach ;)
Nach den Erfahrungen und Tricksereien, die es bis jetzt von NV gab, bin ich da sehr skeptisch.
Ok, das hieße dann ~77 Prozent mehr reine Pixelshaderleistung. Das ist gut aber keine Offenbarung. Oder können die mehr als 1 MADD + 1 ADD?
tombman
2006-11-05, 22:34:13
Nach den Erfahrungen und Tricksereien, die es bis jetzt von NV gab, bin ich da sehr skeptisch.
Die Quelle ist 100% sicher :naughty: (eigentlich hat sie gemeint, daß die BQ besser ist als alles was vorher da war, auch besser als NV2x, aber so weit möcht ich mich jetzt nicht aus dem Fenster lehnen ;))
NV2x und 3x bieten ja auch "nur" bis zu 8x AF.
MfG,
Raff
immerhin voll trilinear
besser als bri 16x
The_Invisible
2006-11-05, 22:43:27
Nach den Erfahrungen und Tricksereien, die es bis jetzt von NV gab, bin ich da sehr skeptisch.
und ati ist sauber oder was?
falls wuaf wirklich defaultmäßig eingeschaltet wäre würde ich da nur probleme sehen da die meisten reviews wahrscheinlich mit default quali benchen und so nv manchmal ein paar prozent verlieren könnte aber man nicht auf diesen umstand hinweist
ja, ich weiß, die jetzigen G7x/R5x0 vergleiche sind meistens auch fürn ar***, da es eigentlich garnicht möglich ist mit gleichen settings zu benchen. mit dem g80 wäre das dann ja quasi möglich, nur müsste man dann bei ati halt auch wuaf einschalten was sicher gerne vergessen wird (in dem fall das wuaf bei g80 halt wirklich defaultmäßig aktiviert ist)
mfg
paul.muad.dib
2006-11-05, 22:44:51
NV2x und 3x bieten ja auch "nur" bis zu 8x AF.
MfG,
Raff
Und nur 2x MSAA wenn ich michr richtig erinnere.
Ich befürchte halt, dass die BQ auf dem Papier super ist und dann aber doch ein paar Optimierungen eingebaut wurden. Wer weiß, was denen noch so alles einfällt, bis die Sache mit dem Flimmern richtig publik wurde hat es ja auch eine Weile gedauert.
immerhin voll trilinear
besser als bri 16xDie Bri-Sauerein konnte man bei NV eigentlich immer ausschalten, abgesehen von UT2003/2004. Warum sollte das bei G80 anders sein?
AnarchX
2006-11-05, 22:48:08
Und nur 2x MSAA wenn ich michr richtig erinnere.
4xMSAA...;)
Ich befürchte halt, dass die BQ auf dem Papier super ist und dann aber doch ein paar Optimierungen eingebaut wurden. Wer weiß, was denen noch so alles einfällt, bis die Sache mit dem Flimmern richtig publik wurde hat es ja auch eine Weile gedauert.
Du solltest nicht von der alten(toten) CineFX-Architekur auf die Architektur des G80 schliessen, denn beide haben fast nix mehr gemein.
Bei G80 sind solche Optimierung einfach nicht mehr sinnvoll.
Und nur 2x MSAA wenn ich michr richtig erinnere.
NV20-38 konnten maximal 4x OGMSAA (und 2x RGMSAA).
MfG,
Raff
Spasstiger
2006-11-05, 22:48:52
Wenn sie Skalarprozessoren sind, bräuchte man also 4 Stück, um eine Vektoroperation durchzuführen? Dann wäre es unter Berücksichtigung des hohen Taktes also ungefähr so viel wie 64 Pixel Shader, also nur 14 Prozent mehr Arithmetikleistung (48 PS + 8 VS), falls sie ähnlich schnell wären?
Nur bei Pixelberechnungen mit z-Werten.
Die theoretische Pixelshader-Leistung der GeForce 8800 GTX bei MADD-Operationen liegt bei 345,6 GFLOPS, die der GeForce 7900 GTX bei 249,6 GFLOPS und die der GeForce 7950 GX2 bei 384 GFLOPS. Allerdings können die Streamprozessoren im Gegensatz zu den Vektorprozessoren immer voll ausgelastet werden, in der Praxis ist der G80 also wesentlich schneller.
Die theoretische Maximalleistung der G80-Shadereinheiten (bei der 8800 GTX) liegt übrigens bei 518,4 GLOPS (7900 GTX = 305,6 GFLOPS, 7950 GX2 = 464 GFLOPS).
Offenbar gibt es Situationen, in denen der G80 aber sogar ein Vielfaches schneller ist als der G71 (Multiple-Render-Targets, könnte bei der Unreal Engine 3 von großer Bedeutung sein).
paul.muad.dib
2006-11-05, 22:50:01
und ati ist sauber oder was?
mfg
Nein, sie haben bei AI low eine Bri-Optimierung. Das ist aber eben schon immer so gewesen und war keine Überraschung. Außerdem ist es recht leicht abschaltbar, indem man AI auf OFF stellt. Dagegen muss man bei NV eine komplizierte Reihenfolge einhalten, um die Optimierungen abzuschalten und sie haben eben öfters mal still und heimlich die BQ verschlechtert.
Das soll jetzt keine Lobrede auf ATI sein, sondern nur begründen, warum ich bei derartigen Aussagen seitens NV eine gewisse Skepsis habe, solange diese noch nicht von unabhängigen und fachlich versierten Testern überprüft wurden.
Auf meiner X700 sehe ich auch bei manchen Tecturen ein leichtes Flimmern und es nervt mich.
paul.muad.dib
2006-11-05, 22:53:26
4xMSAA...;)
4x RGMSAA?
Du solltest nicht von der alten(toten) CineFX-Architekur auf die Architektur des G80 schliessen, denn beide haben fast nix mehr gemein.
Bei G80 sind solche Optimierung einfach nicht mehr sinnvoll.
Wo habe ich den die Geforce fx mit dem G80 verglichen?
AnarchX
2006-11-05, 22:54:52
Nein, sie haben bei AI low eine Bri-Optimierung. Das ist aber eben schon immer so gewesen und war keine Überraschung. Außerdem ist es recht leicht abschaltbar, indem man AI auf OFF stellt.
Ich hoffe doch du kennst auch die weiteren Konsequenzen dieser Aktion?;)
Aber in ca. 50h werden wir sehen wie es nun im Endeffekt mit der Bildqualität und deren Zusammenspiel mit dem Treiber aussieht, so einen Unsinn wie AI wird man sicherlich nicht einführen und für ATI ist es doch auch zu hoffen, dass man sich mit der X2-Serie nochmal das Konzept etwas überlegt.
Wo habe ich den die Geforce fx mit dem G80 verglichen?
Nix GeforceFX sondern CineFX was Geforce5 bis 7 umfasst, hier hatten nämlich solche Optimerungen noch Sinn im Bezug auf die Geschwindigkeit.;)
Pikantes Detail am Rande:
R580: 62,4 GAdds, 31,2 GMuls
G80: 43,2 GAdds, 86,4 GMuls
Warum können die sich nichtmal einig werden? Wenn beide eine Instruktion bevorzugen würden, könnten sich findige Spieleentwickler das sicher zunutze machen, so muss man wieder für den GGN programmieren, was dann 43,2 GAdd bzw. 32,1 GMul sind.
Q
Die Bri-Sauerein konnte man bei NV eigentlich immer ausschalten, abgesehen von UT2003/2004. Warum sollte das bei G80 anders sein?
Dieser ganze Optimerungsquark dürfte bei G80 eigentlich eh nicht mehr so stark ins Gewicht fallen. Ein wunder Punkt des CineFX-Konzept von NV3x und NV4x/G7x war einfach dass Texture-Reads üble Pipeline-Stalls verursacht haben, deshalb musste man an dieser Stelle stark "optimieren". Bei G80 dürften wir zwischen "optimiertem" und "unoptimiertem" Filtering fast keinen Unterschied mehr sehen in Sachen Geschwindigkeit.
Allerdings können die Streamprozessoren im Gegensatz zu den Vektorprozessoren immer voll ausgelastet werden, in der Praxis ist der G80 also wesentlich schneller.
"Immer voll" halte ich für übertrieben. Ich schätze es werden aber >90% sein in der Praxis.
Ein anderer Vorteil ist dass bei G80 die TMUs entkoppelt sind. Das heißt die ALUs stallen lange nicht so häufig. Ich denke die effektive Pixelshader-Leistung ist gut doppelt so hoch.
Warum können die sich nichtmal einig werden?
Ich dachte eine "ATi-Pipeline" hätte auch ein ADD und ein MADD. Hat nVIDIA einmal MUL und einmal MADD? Am besten wäre doch einfach 2xMADD wie bei G70 ;)
Ich hoffe doch du kennst auch die weiteren Konsequenzen dieser Aktion?;)
Ich bin vorhin zufällig über eine eher extreme Sitution gestolpert. :)
Oblivion in 2.560x1.600, 16xHQ-AF mit allen in-Game-Details an einer bestimmten Stelle (Blick auf die Kaiserstadt). Eigentlich wollte ich AF vergleichen, hatte aber FRAPS mitlaufen.
AI low (inkl. 4x MSAA): ~15 Fps
AI off (kein 4x MSAA aus bekannten Gründen - oops):~9 Fps.
+66% also rein durch AI. Tolle Optimierung!!!
Q
Könntest du das Save hochladen? :) Klingt sehr interessant. Könnte ich gebrauchen ...
MfG,
Raff
Ich mails dir morgen. Hab's nicht mit nach Hause genommen.
Q
Kulturpolizei
2006-11-05, 23:09:37
Ja, das hat nichts mit der Diskussion zu tun.
Dennoch scheint es bitter nötig, dies einmal hier direkt anzusprechen.
Warum in Teufels Namen schreibt ihr so etwas wie "erstes Posting beachten"?
Was ist an der korrekten, deutschsprachigen Form: "ersten Beitrag beachten" auszusetzen?
Ich habe nichts gegen Anglizismen von Begriffen, wo es kein "bequemes" deutsches Wort für gibt.
Wenn ich aber den fürchterlichen Brachialanglizismus hier sehe, kommt es mir so vor, als würden hier zu einem großen Teil minderbemittelte BRAVO-Leser verkehren.
Einfach mal überdenken. Danke!
Ich mails dir morgen. Hab's nicht mit nach Hause genommen.
Q
Gracias. =)
Ja, das hat nichts mit der Diskussion zu tun.
Dennoch scheint es bitter nötig, dies einmal hier direkt anzusprechen.
Warum in Teufels Namen schreibt ihr so etwas wie "erstes Posting beachten"?
Was ist an der korrekten, deutschsprachigen Form: "ersten Beitrag beachten" auszusetzen?
Ich habe nichts gegen Anglizismen von Begriffen, wo es kein "bequemes" deutsches Wort für gibt.
Wenn ich aber den fürchterlichen Brachialanglizismus hier sehe, kommt es mir so vor, als würden hier zu einem großen Teil minderbemittelte BRAVO-Leser verkehren.
Einfach mal überdenken. Danke!
Du befindest dich gerade in einem Thread. Deswegen. ;)
MfG,
Raff
deekey777
2006-11-05, 23:16:45
Wo habe ich den die Geforce fx mit dem G80 verglichen?
Hast du nicht, aber die "Optimierungen" der Generation<G80 hatten möglicherweise nur den Zweck, dem einem Design-"Mangel" der gekoppelten TMUs abzuschwächen. (es ist weder ein Fehler noch sonst was, sondern eine Designentscheidung).
Erst mit dem G80 ist das Rampage-Konzepts (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3551522#post3551522) abgeschafft, und wie bei ATi sind die TMUs von den Shader-ALUs entkoppelt. Jede "Optimierung" ab jetzt meiner Meinung nach unentschuldbar.
AnarchX
2006-11-05, 23:17:18
Das hatten bestimmt hier auch einige schon gern unter(bzw. auf) dem Schreibtisch...;)
http://img294.imageshack.us/img294/8848/dsc02118largefx0.jpg
Quelle (http://www.awardfabrik.de/forum/showthread.php?p=10921#post10921)
Kulturpolizei
2006-11-05, 23:19:33
Du befindest dich gerade in einem Thread. Deswegen. ;)Und warum nennst du das nicht einfach eine Diskussion?
Klingt das etwa nicht cool genug?
So scharf darauf der Sprachunkultur der Amis nachzueifern?
deekey777
2006-11-05, 23:21:01
Das hatten bestimmt hier auch einige schon gern unter(bzw. auf) dem Schreibtisch...;)
http://img294.imageshack.us/img294/8848/dsc02118largefx0.jpg
Quelle (http://www.awardfabrik.de/forum/showthread.php?p=10921#post10921)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4950645#post4950645 ;)
Du bist aber so was von langsam.:biggrin:
LovesuckZ
2006-11-05, 23:22:04
Und warum nennst du das nicht einfach eine Diskussion?
Weil ein Thread nicht gleichbedeutend mit einer Diskussion ist...
Anmerkung: Ich weiß natürlich, dass ein Nebensatz alleine nicht stehen darf.
AnarchX
2006-11-05, 23:27:40
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4950645#post4950645 ;)
Du bist aber so was von langsam.:biggrin:
Na dann füge doch bitte mal solche Dinge in den ersten Post hinzu...;)
Kulturpolizei
2006-11-05, 23:40:38
Weil ein Thread nicht gleichbedeutend mit einer Diskussion ist...Also ich sehe kein Problem, warum man dies hier nicht als eine Diskussion bezeichnen sollte.
Mag schon sein das es in Ordnung ist die Datenstruktur als "thread" zu bezeichnen.
Hat sowieso nichts mit der Frage zu tun ob es nicht besser ist, dass einfache Wort "Beitrag" zu benutzen.
Was ist dir lieber: "gedownloaded" oder "heruntergeladen"?
In der 3D-Grafik gibts nunmal sehr viele englische Begriffe. Und wenn man schon dabei ist mischt sich halt auch so gedanklich viel Englisch mit rein. Meine Güte...
Gouvernator
2006-11-06, 00:03:08
Das hatten bestimmt hier auch einige schon gern unter(bzw. auf) dem Schreibtisch...;)
http://img294.imageshack.us/img294/8848/dsc02118largefx0.jpg
Quelle (http://www.awardfabrik.de/forum/showthread.php?p=10921#post10921)
Also die Pumpe hab ich schon :tongue:
ShadowXX
2006-11-06, 00:04:19
Also ich sehe kein Problem, warum man dies hier nicht als eine Diskussion bezeichnen sollte.
Mag schon sein das es in Ordnung ist die Datenstruktur als "thread" zu bezeichnen.
Hat sowieso nichts mit der Frage zu tun ob es nicht besser ist, dass einfache Wort "Beitrag" zu benutzen.
Was ist dir lieber: "gedownloaded" oder "heruntergeladen"?
Ehrlich gesagt ist mir das egal, solange ich verstehe was mir der andere sagen möchte.
So lange wir hier nicht mit "eh dicker, sach mal wie fast deine Kaadde ist" anfangen, ist es IMHO noch OK.
Gerade in einem Nerd/Geek-Forum wie diesem wirst du extrem häufig auf Anglizismen treffen wo nicht unbedingt welche benötigt werden......das finde ich persönlich aber relativ normal.
Wenn du die deutsche Sprachkultur retten willst, ist dies meines Erachtens der falsche Platz (und wenn es diese Forum sein soll, dann eher im Off-Topic-Bereich).
Richtig. Hier, wo Grammatik und Orthographie Urlaub haben, ist eh der falsche Platz, um zu bekehren. Probier's mal auf der Straße.
MfG,
Raff
512MBit / 8 * 12 = ?
(Die Krumme Zahl ergibt sich rein aus der Konfiguration der Module und der Breite des externen Interfaces.)
Kommen praktisch auf jeden ROP mit 64 Bit SI, jeweils zwei Speicherchips? Also sozusagen 12 Speicherchips die jeweils mit 32 Bit angebunden sind?
Kommen praktisch auf jeden ROP mit 64 Bit SI, jeweils zwei Speicherchips? Also sozusagen 12 Speicherchips die jeweils mit 32 Bit angebunden sind?
So schaut's mal aus.
Ich habe den Verdacht, dass ein Pixel-Prozessor (16 Skalar-ALUs) plus eine dieser ROPs den Grundstock für Nvidias neue GPUs bilden werden. Scheint relativ frei skalierbar zu sein - je nach den Möglichkeiten, die neue Fertigungsprozesse bieten.
Q
Paul Brain
2006-11-06, 00:57:43
http://www.dailytech.com/article.aspx?newsid=4812
Interessant ist die Berechnungsweise der Leistungsaufnahme im Vergleich zur X1950XT; Dailytech setzen da einfach die System-Gesamtleistungsaufnahme in Relation zueinander... :rolleyes:
Da hören sich "4% mehr unter Last" schonmal nicht schlimm an; in Wirklichkeit sinds aber 13W und damit etwas mehr, was aber doch noch recht zivil ist angesichts der Top-Performance dieser Karte. Erschreckend ist hingegen die Leistungsaufnahme im idle-Modus: 45W (!) mehr, während die Karte eigentlich nichts tut... Erinnert irgendwie an das Leckstrom-Desaster beim Prescott...
Nicht interessant, da wir das bereits vor ein paar Seiten abgehandelt haben - wie so vieles, was sich zigmal wiederholt.
Wie wärs damit:
Es werden nur "News" hier reingepostet, die zumindest am jeweils aktuellen Tag in der Originalquelle erschienen sind? Das dürfte die vielen Wiederholungen zumindest ein wenig einschränken.
Q
Paul Brain
2006-11-06, 01:25:37
Nicht interessant, da wir das bereits vor ein paar Seiten abgehandelt haben - wie so vieles, was sich zigmal wiederholt.
Wie wärs damit:
Es werden nur "News" hier reingepostet, die zumindest am jeweils aktuellen Tag in der Originalquelle erschienen sind? Das dürfte die vielen Wiederholungen zumindest ein wenig einschränken.
Ich bitte vielmals um Entschuldigung, aber nachdem die Story bei Anandtech als fett gedruckte Überschrift an oberster Stelle der Top Stories gelistet war, nahm ich an, daß sie brandneu ist. Weiters ist es für Menschen, die nicht den ganzen Tag im 3Dcenter verbringen schlicht unmöglich, Threads wie diesen hier vollständig zu verfolgen; täglich kommen Seitenzahlen im zweistelligen Bereich hinzu. Ich lese zwar vor dem Posten immer etwas zurück, dabei kann man aber natürlich etwas übersehen, vor allem, wenn ein Thread von der "Kulturpolizei" zugespammt wird.
Quasar
2006-11-06, 01:28:37
Ich bitte vielmals um Entschuldigung, aber nachdem die Story bei Anandtech als fett gedruckte Überschrift an oberster Stelle der Top Stories gelistet war, nahm ich an, daß sie brandneu ist. Weiters ist es für Menschen, die nicht den ganzen Tag im 3Dcenter verbringen schlicht unmöglich, Threads wie diesen hier vollständig zu verfolgen; täglich kommen Seitenzahlen im zweistelligen Bereich hinzu. Ich lese zwar vor dem Posten immer etwas zurück, dabei kann man aber natürlich etwas übersehen, vor allem, wenn ein Thread von der "Kulturpolizei" zugespammt wird.
(Der Gast oben war ich)
Klar kann man etwas übersehen - aber die Story von Anandtech ist vom 3.11. - steht direkt hinter dem Fettgedruckten. Und gerade aus dem Grunde, dass der Thread hier jeden Tag X Seiten dicker wird, sollte die Wahrscheinlichkeit erhöhen, dass 3 Tage altes Zeug von einer der größten IT-Webseiten bereits besprochen wurde.
Nichts für ungut - bitte back to topic. *Anglizismus Überschuss abbaut*
edit:
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=4945011#post4945011
Ab da geht's los und es ist beileibe nicht nur ein Posting zu dem Thema gewesen.
http://www.dailytech.com/article.aspx?newsid=4812
Interessant ist die Berechnungsweise der Leistungsaufnahme im Vergleich zur X1950XT; Dailytech setzen da einfach die System-Gesamtleistungsaufnahme in Relation zueinander... :rolleyes:
Da hören sich "4% mehr unter Last" schonmal nicht schlimm an; in Wirklichkeit sinds aber 13W und damit etwas mehr, was aber doch noch recht zivil ist angesichts der Top-Performance dieser Karte. Erschreckend ist hingegen die Leistungsaufnahme im idle-Modus: 45W (!) mehr, während die Karte eigentlich nichts tut... Erinnert irgendwie an das Leckstrom-Desaster beim Prescott...
Einfach abwarten, das wurde hier schonmal angesprochen das es ein Treiberproblem sein könnte. Die G80 Architektur wird ja auch für Laptops verfügbar sein und da werden sich im Idle Modus sicher Teile des Chips abschalten/runtertakten. Vieleicht taktet der Treiber auch momentan die Karte im 2D Modus nicht runter, nachgeschaut hat da sicher noch keiner der jenigen die die Karte schon haben.
Genauso verhält sichs mit dem WUAF das wir bis jetzt noch nicht wirklich gesehen haben, die Oblivion Shots können sonstwas sein und der einzige AF-Tester Screenshot sieht nach G70 Filterung aus.
Wird Zeit das Mittwoch mit gescheiten Reviews wird ;)
Ailuros
2006-11-06, 04:36:27
Und warum nennst du das nicht einfach eine Diskussion?
Klingt das etwa nicht cool genug?
So scharf darauf der Sprachunkultur der Amis nachzueifern?
Ab sofort sollten dann alle nicht rein deutschen Begriffe entfernt werden; dass sollte dann auch alle technischen Begriffe die aus Latein und Griechisch originieren betreffen. Ich als Grieche hab dann noch mehr Grund zum lachen.
Als Anfang faengt dann sofort erstmal der Begriff "Kultur" zum Fenster raus ;)
This is with 16xAF forced on in the control panel.
http://img172.imageshack.us/img172/332/anisoie7.jpg
Quelle: http://www.hardforum.com/showpost.php?p=1030172484&postcount=541
ist ja fast richtig rund
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.