PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 10 Fragen an ATI, ein Community-Versuch


Die gelbe Eule
2005-11-13, 20:12:57
Hiermit möchte ich einen Versuch starten und zwar Fragen von allen Usern zu sammeln, die wirklich auf der Zunge brennen, welche dann an ATi im Auftrag der 3DCenter Community, nicht von 3DCenter selbst, weitergegeben werden.

Vorgestellt habe ich mir das so:

Erstmalig werden hier alle Fragen gesammelt. Dann würde ich einen gewissen Moderatorenkreis bitten, 25 Fragen auszuwählen, über welche man dann in einem Poll abstimmen kann.
Die 10 Fragen mit den meisten Votes werden dann schön verpackt per email an ATi geschickt.

Jeder sollte wirklich nur 1-2 Fragen stellen und sie wenn es geht auch sofort auf den Punkt bringen. Ausschweifen soll ja dann später ATi und nicht wir.

Das gleiche Projekt läuft auch für NVidia.

Dann legt mal los ;)

*Edit*

aths hat mich gebeten alle Fragen zu sammeln, um mal ein Resümee zu ziehen.
Ich habe nunmal 25 Fragen ausgewählt, stop es sind nur 12 geworden, die mir sinnvoll erscheinen. Traurig bei 140 Posts, hätte mindestens jeder eine gestellt, würde ich in einer halben Stunde noch dransitzen, nun sind es aber nur 5 Minuten gewesen. Eine Abstimmung kommt dann nachfolgend oder aths läßt den Thread "moderiert", bis die 25 voll sind.

1. Warum hat man bei ATI vor 2 Jahren dem nF2 nicht ein Konkurenzprodukt entgegen gestellt?
2. Was hat ATI einem Quad SLI von NV entgegenzusetzen?
3. Warum ist der idle Stromverbrauch der neuen X1000 Serie so hoch?
4. Wieso wird das Adaptive AA nicht offiziell für alle ATI Karten (bei denen es geht) im Treiber freigeschaltet?
5. Warum hat sich ATI beim R520 für ein SM3 entschieden, das keine fp16-filterung erlaubt und kein vertex-texturing beherscht?
6. Was bringt dem User die Unterstützung für HDR+AA, wenn diese vermutlich nicht genutzt wird und obendrein dank qualitativ schlechtem HDR auch noch seltsam aussieht?
7. Warum wird beim Referenzdesign der Grafikkarten von seitens ATI so wenig Aufmerksamkeit auf effektive und leise Lüfter gelegt ?
8. Wird die Entwicklung von AGP-Karten im High-End-Bereich von ATI unterstützt oder eher weniger ? Oder liegt die volle Entscheidung bei den Grafikkartenherstellern?
9. Wann wird ATI endlich genügend Resourcen zusammenziehen und die Leistung der 3D Module (fglrx) unter Linux auf den Stand der aktuellen Catalyst-Versionen bringen (Roadmap vielleicht ?). Die aktuelle Performance liegt schätzungsweise zwischen 65-75 % der der Windowstreiber.
10. Wann wird das CCC auf Net 2.0 portiert?
11. Warum neigen die Catalysts ab 5.8 zu Texturflimmern
12. Warum ist AAA nicht schon beim R300 per Treiber verfügbar gewesen?

derMeister
2005-11-13, 21:01:04
Meine ATi Frage;
Warum hat man bei ATI vor 2 Jahren dem nF2 nicht ein Konkurenzprodukt entgegen gestellt?

Weitere Frage:
Ist die Flüssigmetallkühlung bei ATI ein Thema, oder läßt man diese Kühlmethode fallen?

Eule anscheinend kannst du so etwas nicht ohne dumme Flames durchziehen wies aussieht.

Weil man damals noch gar keine Chipsätze entwickelt hatte. Per Fingerschnippen geht das nicht.

Ah, Du warst anscheinend in der Entwicklungsabteilung, haste mehr Details?
Wenn nicht...naja.
Das ATI die Chipsätze aus Grafikchips entwickelt hat war Dir evt unbekannt nehm ich mal an. Kann mich nur nicht ganz genau an die Details erinnern, aus welchem Grafikchip die jetzt abgeleitet wurden, ich denke aber nVidia macht es genauso.
Zum Thema Flüssigmetallkühlung hocheditiert:
War das Quasi ein Sapphire Projekt? Ich hab gehört das die Entwicklerfirma die Kühlung nicht mehr als primärobjekt betreibt, die Entwicklung soll aber weitergehen. Nur das es im Namen von Sapphire war hatte ich nicht mehr im Sinn.

Matrix316
2005-11-13, 22:17:05
1. Warum laufen Open GL Spiele so schlecht?

2. Warum wurde nicht von Anfang an (ab X800) auf SM3 gesetzt?

3. Warum wurde nur mit 16 Pipes für die neuen High End Karten geplant?

4. Warum sieht der X1800XL Kühler so scheiße aus? ;)

Gast
2005-11-13, 22:33:43
@Matrix316:

tolle Fragen...

1. Der aktuelle Treiber bietet für die X1x00 Serie div. Performanceverbesserung unter OGL.

2. Weil der R400, welcher anstatt des R420 geplant war und SM3.0 beherschen sollte, nicht die erwünschte Performance erreichte.

3. k.A., weil sie sonst zu komplex geworden wäre?

4. Es handelt sich dabei um Fakes, von NVIDIA ins Internet gestellt, die den Kunden abschrecken sollen.

Das Original Design, von dem es abgeleitet wurde, ist hier zu finden:
http://www.club-3d.nl/distri/images/product/high/CGN-688TVD.jpg

Matrix316
2005-11-13, 22:51:11
@Matrix316:

tolle Fragen...

1. Der aktuelle Treiber bietet für die X1x00 Serie div. Performanceverbesserung unter OGL.

2. Weil der R400, welcher anstatt des R420 geplant war und SM3.0 beherschen sollte, nicht die erwünschte Performance erreichte.

3. k.A., weil sie sonst zu komplex geworden wäre?

4. Es handelt sich dabei um Fakes, von NVIDIA ins Internet gestellt, die den Kunden abschrecken sollen.

Das Original Design, von dem es abgeleitet wurde, ist hier zu finden:
http://www.club-3d.nl/distri/images/product/high/CGN-688TVD.jpg
Tolle Fragen und dumme Antworten. :P

1. Das bringt den 9800 und X800 Besitzern einen Scheißdreck. Warum war die Open GL Performance schon IMMER so schlecht? War ja afair bei der Ur-Radeon ja schon so.

2. Komisch, nvidia schaffte es ohne Probleme...

3. Siehe 2.

4. Die Frage war nicht so ernst gemeint, aber der ATI X1800XL Kühler sieht immer noch scheiße aus, siehe hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=255007

Die gelbe Eule
2005-11-13, 22:53:19
Denkt daran das die Fragen die 3D Center Community repräsentieren ...

Coda
2005-11-13, 23:02:00
Eule anscheinend kannst du so etwas nicht ohne dumme Flames durchziehen wies aussieht.

Meine ATi Frage;
Warum hat man bei ATI vor 2 Jahren dem nF2 nicht ein Konkurenzprodukt entgegen gestellt?Weil man damals noch gar keine Chipsätze entwickelt hatte. Per Fingerschnippen geht das nicht.

Die gelbe Eule
2005-11-13, 23:04:45
Wen flame ich denn an?
Dir ist bekannt das der Thread heißt, 10 Fragen an NVidia, nicht 10 Fragen an Coda oder?

deekey777
2005-11-13, 23:15:52
1. Warum laufen Open GL Spiele so schlecht?

2. Warum wurde nicht von Anfang an (ab X800) auf SM3 gesetzt?

3. Warum wurde nur mit 16 Pipes für die neuen High End Karten geplant?

4. Warum sieht der X1800XL Kühler so scheiße aus? ;)

Zu eins: Hä?

Zu zwei: Ist nunmal so, der R400 wäre zu langsam, man mußte also schnell was auf den Markt bringen, ohne das Rad neu zu erfinden: Der R420 war geboren.
Zu drei: Ist es nicht egal, wie man die Leistung erreicht: durch mehr Pipeline oder mehr Takt.
Zu vier: Tja, irgendwie hat man in Kanada kein glückliches Händchen mehr, wenn es um Kühler geht.

derMeister
2005-11-14, 09:02:32
*EDIT*

dargo
2005-11-14, 09:11:30
Ist die Flüssigmetallkühlung bei ATI ein Thema, oder läßt man diese Kühlmethode fallen?
Meinst du diese Kühlung von Sapphire ?
Das Projekt ist (leider) verworfen worden.

derMeister
2005-11-14, 09:16:59
*EDIT*
nach oben

dargo
2005-11-14, 09:29:28
http://www.hardtecs4u.com/?id=1131405829,35265,ht4u.php

EL_Mariachi
2005-11-14, 10:08:54
Wen flame ich denn an?
Dir ist bekannt das der Thread heißt, 10 Fragen an NVidia, nicht 10 Fragen an Coda oder?

nun er meinte wohl, dass sich das Thema nur schwer flamefrei diskutieren lässt ;) ( was mit Sicherheit nicht auf Dich bezogen war )

Die gelbe Eule
2005-11-14, 11:11:02
Der Witz ist, man muss gar nicht diskutieren. Wenn jeder seine Frage stellen würde und nicht der andere ATi/NV PR Rollenspiele versucht, kommen wir auch mal irgendwann ans Ziel. Aber das scheint hier zum Teil ziemlich schwer zu sein :(

Matrix316
2005-11-14, 11:40:30
Zu eins: Hä?

Zu zwei: Ist nunmal so, der R400 wäre zu langsam, man mußte also schnell was auf den Markt bringen, ohne das Rad neu zu erfinden: Der R420 war geboren.
Zu drei: Ist es nicht egal, wie man die Leistung erreicht: durch mehr Pipeline oder mehr Takt.
Zu vier: Tja, irgendwie hat man in Kanada kein glückliches Händchen mehr, wenn es um Kühler geht.

1. Hä? ;) ATI war in Open GL Spielen schon immer schlechter als Nvidia. Und ich würde gerne wissen, warum die Performance von ATI Karten so schlecht ist (es kann doch nicht sein, dass eine 6800 GT eine X850XT schlägt...).

2. Was hat das damit zu tun, dass man erst jetzt SM3 supportet? Hätte man das nicht schon von Anfang an einplanen können? Man wusste doch sicher was nvidia macht, oder? Also warum hat man die Entwicklung verschlafen?

3. Naja, man kann eben nicht unendlich hoch takten (von den Problemen die den neuen ATI 5xx Chip deswegen behinderten mal abgesehen), weswegen es IMO einfach effizienter und effektiver ist mehr Pipelines zu nehmen. Außerdem braucht man nicht so eine Monsterkühlung, wenn der Takt niedriger ist.

4. Die X800 Kühler fand ich z.B. ziemlich gelungen, aber dieses Eckige unförmige Etwas ist einfach peinlich. ;)

EL_Mariachi
2005-11-14, 11:47:51
Aber das scheint hier zum Teil ziemlich schwer zu sein :(

sorry das ich den Fred nochmals störe, aber genau das hat Coda wohl gemeint :)



meine Frage an ATI:

Was hat ATI einem Quad SLI von NV entgegenzusetzen?

BK-Morpheus
2005-11-14, 11:53:30
Warum funktioniert die "use centered timings" Einstellung nicht vernünftig.
Bei Nvidia Treibern kann man einstellen, ob Auflösungen die kleiner als die native TFT Auflösung sind interpoliert und gestreckt, interpoliert bei richtigem Seitenverhältnis oder nicht interpoliert werden sollen.

Bei AT kann ich "use centered timings" aktiviere, aber bei 800x600 oder ähnlichem wird dann trotzdem interpoliert (nur bei 1280x960 wird nicht in die höhe gestrecht).

Nicht jeder TFT hat von Haus aus eine Interpolationseinstellung und bei Nvidia klappts doch auch.

BlackBirdSR
2005-11-14, 11:55:32
Der Witz ist, man muss gar nicht diskutieren. Wenn jeder seine Frage stellen würde und nicht der andere ATi/NV PR Rollenspiele versucht, kommen wir auch mal irgendwann ans Ziel. Aber das scheint hier zum Teil ziemlich schwer zu sein :(


Auch hier:

1) Viele sollten sich einmal in die Marketingabteilung von ATI hineinversetzen.
Dann überlegt mal, wem man Antworten gibt, und wie ihr die Fragen gerne haben würdet.
Ansonsten könnt ihr gleich jegliche Chance vergessen.

2) Wer das richtig durchziehen will, sollte sich einen Moderator an Board holen, der genug Zeit hat hier aufzuräumen.

Nur 2 kleine Tipps

Die gelbe Eule
2005-11-14, 12:02:47
Dann frag bitte mal in der Runde herum, vielleicht möchte sich einer für 5min am Tag dafür bereitstellen.

DrFreaK666
2005-11-14, 12:07:28
...
2. Was hat das damit zu tun, dass man erst jetzt SM3 supportet? Hätte man das nicht schon von Anfang an einplanen können? Man wusste doch sicher was nvidia macht, oder? Also warum hat man die Entwicklung verschlafen?
...

SM3 war ja geplant. Aber hätte man einen langsamen Grafikchip auf den Markt werfen sollen, welcher locker von dem NV40 überrollt wird?

jojo4u
2005-11-14, 12:10:06
Warum ist der idle Stromverbrauch der neuen X1000 Serie so hoch? Viele würden sehr gern mobile Stromsparmechanismen auch auf dem Desktop sehen. Es kann ja nicht sein dass eine Grafikkarte in einem unbelasteten System das Vielfache eines Prozessors verbraucht.
Warum ist die keine Lüfterregelung bei den X1600 und X1300 Referenzkarten implementiert?

deekey777
2005-11-14, 12:33:23
1. Hä? ;) ATI war in Open GL Spielen schon immer schlechter als Nvidia. Und ich würde gerne wissen, warum die Performance von ATI Karten so schlecht ist (es kann doch nicht sein, dass eine 6800 GT eine X850XT schlägt...).

2. Was hat das damit zu tun, dass man erst jetzt SM3 supportet? Hätte man das nicht schon von Anfang an einplanen können? Man wusste doch sicher was nvidia macht, oder? Also warum hat man die Entwicklung verschlafen?

3. Naja, man kann eben nicht unendlich hoch takten (von den Problemen die den neuen ATI 5xx Chip deswegen behinderten mal abgesehen), weswegen es IMO einfach effizienter und effektiver ist mehr Pipelines zu nehmen. Außerdem braucht man nicht so eine Monsterkühlung, wenn der Takt niedriger ist.

4. Die X800 Kühler fand ich z.B. ziemlich gelungen, aber dieses Eckige unförmige Etwas ist einfach peinlich. ;)

1. Du mißt die Qualität von ATIs OpenGL-Treibern an der Performance im Vergleich zum nächsten Konkurrenten? Sehr weise...
Als die 5900 von der Konkurrenz in PS2.0-lastigen Anwendungen blamiert wurde, waren dann die D3D-Treiber von nVidia schlecht?
2. Wie oft denn noch: Man hat den R400 entwickelt, der leider zu schwach wäre, um mit der Konkurrenz mitzuhalten. Aus dem R400 entstand der R500, der wiederum zum C1/Xenos mutiert ist und zZ in der XBox360 schuftet.

BlackBirdSR
2005-11-14, 12:38:00
Warum ist der idle Stromverbrauch der neuen X1000 Serie so hoch? Viele würden sehr gern mobile Stromsparmechanismen auch auf dem Desktop sehen. Es kann ja nicht sein dass eine Grafikkarte in einem unbelasteten System das Vielfache eines Prozessors verbraucht.
Warum ist die keine Lüfterregelung bei den X1600 und X1300 Referenzkarten implementiert?

Du musst nur einmal das Verhältnis zwischen Cache und Logik bei Prozessoren und GPUs vergleichen.
Dann kommt hinzu, dass Prozessoren weit weniger Auslastung vorweisen können, ihre Logik also auch nicht immer gleichzeitig vollständig benötigt wird.

Am Ende kommst du dann auf einen relativ hohen Verbrauch bei GPUs. Und das sowohl bei Last als auch im Idle Betrieb.
Es ginge bestimmt noch etwas, um diese zu verringern. Aber ist natürlich immer die Frage nach Kosten.

Matrix316
2005-11-14, 12:41:05
SM3 war ja geplant. Aber hätte man einen langsamen Grafikchip auf den Markt werfen sollen, welcher locker von dem NV40 überrollt wird?
Nö, man hätte einen schnellen SM3 Chip entwickeln sollen. So einfach ist es. ;)

derMeister
2005-11-14, 12:58:17
1. Warum laufen Open GL Spiele so schlecht?

2. Warum wurde nicht von Anfang an (ab X800) auf SM3 gesetzt?

3. Warum wurde nur mit 16 Pipes für die neuen High End Karten geplant?

4. Warum sieht der X1800XL Kühler so scheiße aus?

Tolle Fragen und dumme Antworten.

1. Das bringt den 9800 und X800 Besitzern einen Scheißdreck. Warum war die Open GL Performance schon IMMER so schlecht? War ja afair bei der Ur-Radeon ja schon so.

2. Komisch, nvidia schaffte es ohne Probleme...

3. Siehe 2.

4. Die Frage war nicht so ernst gemeint, aber der ATI X1800XL Kühler sieht immer noch scheiße aus, siehe hier:

1. Hä? ;) ATI war in Open GL Spielen schon immer schlechter als Nvidia. Und ich würde gerne wissen, warum die Performance von ATI Karten so schlecht ist (es kann doch nicht sein, dass eine 6800 GT eine X850XT schlägt...).

2. Was hat das damit zu tun, dass man erst jetzt SM3 supportet? Hätte man das nicht schon von Anfang an einplanen können? Man wusste doch sicher was nvidia macht, oder? Also warum hat man die Entwicklung verschlafen?

3. Naja, man kann eben nicht unendlich hoch takten (von den Problemen die den neuen ATI 5xx Chip deswegen behinderten mal abgesehen), weswegen es IMO einfach effizienter und effektiver ist mehr Pipelines zu nehmen. Außerdem braucht man nicht so eine Monsterkühlung, wenn der Takt niedriger ist.

4. Die X800 Kühler fand ich z.B. ziemlich gelungen, aber dieses Eckige unförmige Etwas ist einfach peinlich. ;)

Nö, man hätte einen schnellen SM3 Chip entwickeln sollen. So einfach ist es.


Also wenn das mal kein sinnloses Gespame ist weiß ich auch nicht was sonst.
Ja, ich hab meins schon editiert :wink:
Und dieser Spambeitrag jetzt darf gern gelöscht werden.

r3ptil3
2005-11-14, 13:08:53
Denkt daran das die Fragen die 3D Center Community repräsentieren ...

Genau, kluge, interessante Fragen und nicht wieso hat der R520 nur 16Pipes!
Übrigens an die neueren im 3DC, die meisten Fragen die ihr habt kann auch ein erfahrener 3DC User beantworten, darum Suchfunktion benutzen.

rpm8200
2005-11-14, 13:09:47
Stimme zu.

Schon als ich gelesen habe "Warum laufen Open GL Spiele so schlecht?" wusste ich, dass es besser wäre nicht weiter zu lesen. Sehr intelligent, Matrix316 :rolleyes:

Vielleicht kann mal einer die (sinnvollen) Fragen zusammenfassen? Wobei ich ehrlich gesagt bezweifle, dass man eine Antwort bekommt, die das Lesen wert ist...

Matrix316
2005-11-14, 13:26:25
1. Du mißt die Qualität von ATIs OpenGL-Treibern an der Performance im Vergleich zum nächsten Konkurrenten? Sehr weise...

Als die 5900 von der Konkurrenz in PS2.0-lastigen Anwendungen blamiert wurde, waren dann die D3D-Treiber von nVidia schlecht?

2. Wie oft denn noch: Man hat den R400 entwickelt, der leider zu schwach wäre, um mit der Konkurrenz mitzuhalten. Aus dem R400 entstand der R500, der wiederum zum C1/Xenos mutiert ist und zZ in der XBox360 schuftet.

1.a) Hallo? An was soll man die Qualität denn sonst messen, als am nächsten Konkurrenten? Willst du und andere mich für blöd hinstellen, nur weil ich gerne wissen will, warum eine 6800 GT, die von den Rohdaten hinter einer X850XT steht, trotzdem diese in den meisten OpenGL Spielen schlägt, bzw. mindestens gleich schnell ist! Warum ist ATI in Open GL Spielen schlechter als der Konkurrent nvidia. Was ist daran sinnlos das zu fragen? Bis jetzt habe ich noch nie eine echte zufriedenstellende Antwort finden können. Wenns denn nur am Treiber liegt, hätte man das schon längst korrigieren können, oder?

1.b) Wer redet denn von Treibern?

2.) Was hat das mit SM3 zu tun?

Matrix316
2005-11-14, 13:27:43
Genau, kluge, interessante Fragen und nicht wieso hat der R520 nur 16Pipes!

Schleimige Fragen die sich jeder selbst beantworten kann sind aber IMO auch sinnlos.

Matrix316
2005-11-14, 13:32:49
Stimme zu.

Schon als ich gelesen habe "Warum laufen Open GL Spiele so schlecht?" wusste ich, dass es besser wäre nicht weiter zu lesen. Sehr intelligent, Matrix316 :rolleyes:

Vielleicht kann mal einer die (sinnvollen) Fragen zusammenfassen? Wobei ich ehrlich gesagt bezweifle, dass man eine Antwort bekommt, die das Lesen wert ist...
Sonst gehts noch oder was? :mad:

Ich glaube es tickt nicht mehr richtig bei einigen hier!

Also ich finde meine Fragen alles andere als sinnlos. Denn einerseits sind sie nicht zu billig und schleimend einfach, so dass die Antwort jeder weiß und andererseits sind sie nicht zu technik-mäßig, so dass die Antwort eigentlich kaum einen wirklich interessiert.

Fragen an ATI sollten informativ und interessant sein. Und das sind meine meiner Meinung nach, denn das finde ich, sollte doch für jeden interessant sein, oder? Wenn ich Doom3 Benchmarks sehe und eine lächerliche 6600 GT zieht mit einer theoretisch überlegenen X800 PRO oder so gleich, dann würde ich z.B. schon gerne wissen warum. Oder weswegen man erst jetzt mit SM3 kommt? Oder warum man ausgerechnet auf Takt setzt und nicht auf Pipelines, denn schon intel merkte, dass man mit Takt nicht mehr weiter kommt.

EDIT: Noch ein paar sinnlose dumme Fragen :P

- Warum ist das CCC so langsam selbst auf schneller Hardware?

- Hätte man das CCC nicht auch ohne .NET machen können?

- Wieso wird das Adaptive AA nicht offiziell für alle ATI Karten (bei denen es geht) im Treiber freigeschaltet?

Coda
2005-11-14, 13:32:55
1. Du mißt die Qualität von ATIs OpenGL-Treibern an der Performance im Vergleich zum nächsten Konkurrenten? Sehr weise...Man kann auch unabhängig von irgendwelchen Benchmarks zeigen, dass der ATi OpenGL-Treiber mehr Overhead hat.

Gast
2005-11-14, 14:53:34
Sonst gehts noch oder was? :mad:
Also ich finde meine Fragen alles andere als sinnlos. Denn einerseits sind sie nicht zu billig und schleimend einfach, so dass die Antwort jeder weiß und andererseits sind sie nicht zu technik-mäßig, so dass die Antwort eigentlich kaum einen wirklich interessiert.


Aber wozu fragen stellen, zu denen es Antworten bereits gibt?

Wenn ich Doom3 Benchmarks sehe und eine lächerliche 6600 GT zieht mit einer theoretisch überlegenen X800 PRO oder so gleich, dann würde ich z.B. schon gerne wissen warum.

Der Hersteller der Doom3 Engine, ID, arbeitet eng mit NVIDIA zusammen.

Da sich NV und ATI Chips intern unterscheiden, lassen sich durch Anpassungen Geschwindigkeitsvorteile für den ein oder anderen Chip rausholen.

Der Catalyst 5.11 bietet jetzt jedoch eine erhebliche Steigerung der OGL Performance, auch unter D3 und Q4, und teils auch mit älteren Karten wie R4xx. Siehe aktuelle 3D Center News.



Oder weswegen man erst jetzt mit SM3 kommt?

Du fragtest vorhin, weshalb ATI nicht wie NV einen performanten SM3.0 Chip entwickeln konnte.
NV hatte den NV30, ATI den R400. Dass ATI nicht schon zu 9800pro/xt Zeiten einen SM3.0 Chip herausbrachte würde ich darin begründet sehen, dass man damals noch mit den neuen R300 Revisionen deutlich vor der Konkurrenz lag.


Oder warum man ausgerechnet auf Takt setzt und nicht auf Pipelines, denn schon intel merkte, dass man mit Takt nicht mehr weiter kommt.
[/quote]

Diese Frage halte ich echt für nicht sinnvoll.


- Warum ist das CCC so langsam selbst auf schneller Hardware?


Weil CCC böse ist.


- Hätte man das CCC nicht auch ohne .NET machen können?


Die Funktionen hätte man sicher alle einbauen können, aber eben nicht diese coole nutzlose 3D Ansichtsfenster.


- Wieso wird das Adaptive AA nicht offiziell für alle ATI Karten (bei denen es geht) im Treiber freigeschaltet?

Eigentlich habe ich keine Ahnung ^^ Aber ich würde darauf tippen, dass man sich nicht die Arbeit macht diese Funktion noch mit all den alten Karten zu testen, und daher nicht offziell rausgibt.


Gast, zuletzt eingeloggt am 14.11.2005 - 14:45

r3ptil3
2005-11-14, 15:04:19
Schleimige Fragen die sich jeder selbst beantworten kann sind aber IMO auch sinnlos.

Matrix316, bei allem Respekt, du solltest echt wissen was gute Fragen sind!
War sehr erstaunt als ich sah das du über 10k Beiträge hast, wohl die meisten in unsinnge Threads eingefangen, so wie es aussieht.

Gast
2005-11-14, 15:14:29
Hiermit möchte ich einen Versuch starten und zwar Fragen von allen Usern zu sammeln, die wirklich auf der Zunge brennen, welche dann an ATi im Auftrag der 3DCenter Community, nicht von 3DCenter selbst, weitergegeben werden.

Vorgestellt habe ich mir das so:

Erstmalig werden hier alle Fragen gesammelt. Dann würde ich einen gewissen Moderatorenkreis bitten, 25 Fragen auszuwählen, über welche man dann in einem Poll abstimmen kann.
Die 10 Fragen mit den meisten Votes werden dann schön verpackt per email an ATi geschickt.

Jeder sollte wirklich nur 1-2 Fragen stellen und sie wenn es geht auch sofort auf den Punkt bringen. Ausschweifen soll ja dann später ATi und nicht wir.

Das gleiche Projekt läuft auch für NVidia.

Dann legt mal los ;)



meine fragen:


1. warum hat sich ATI beim r520 wieder für ein fake-SM3 entschieden, das keine fp16-filterung erlaubt und kein vertex-texturing beherscht?

2. warum hebt OVERDRIVE den chip- bzw. ramtakt nur um marginale 6 mhz selbst bei guter kühlung (wakü) an?

3. was bringt dem spieler die unterstützung für HDR+AA, wenn diese vermutlich nicht genutzt wird und obendrein dank qualitativ schlechtem HDR auch noch seltsam aussieht?

Matrix316
2005-11-14, 15:53:17
Matrix316, bei allem Respekt, du solltest echt wissen was gute Fragen sind!
War sehr erstaunt als ich sah das du über 10k Beiträge hast, wohl die meisten in unsinnge Threads eingefangen, so wie es aussieht.
Ich weiß zumindest, dass meine keine schlechten sind. :P Und wenn doch, könnte wenigstens mal einer erläutern WARUM und nicht gleich mit dem Bashing anfangen.

Banshee18
2005-11-14, 16:34:26
Die Frage zur OpenGL-Schwäche finde ich garnicht schlecht. Es wird sehr oft darüber dikutiert, so dass es auch mich schon nervt, aber kennt wirklich jemand eine Antwort? Mit Vermutungen kann ich jedenfalls nix anfangen. *Matrix verteidig*

MfG

Banshee

DickZ
2005-11-14, 17:13:17
hier auch mal meine fragen:

- Warum wird beim Referenzdesign der Grafikkarten von seitens ATI so wenig Aufmerksamkeit auf effektive und leise Lüfter gelegt ?

- Wird die Entwicklung von AGP-Karten im High-End-Bereich von ATI unterstützt oder eher weniger ? Oder liegt die volle Entscheidung bei den Grafikkartenherstellern?

nino
2005-11-14, 18:04:19
3. Naja, man kann eben nicht unendlich hoch takten (von den Problemen die den neuen ATI 5xx Chip deswegen behinderten mal abgesehen), weswegen es IMO einfach effizienter und effektiver ist mehr Pipelines zu nehmen. Außerdem braucht man nicht so eine Monsterkühlung, wenn der Takt niedriger ist.


hätte der r520 mehr pipes(=mehr transistoren) würde er sich nicht soweit takten lassen. außerdem wäre die leistungsaufnahme bei mehr pipes(=mehr transistoren) größer => bessere kühlung erforderlich. die frage macht also nicht soviel sinn.

interessant finde ich die frage zum overdrive, ansonsten kann man sich die meisten fragen mit gesundem menschenverstand selber beantworten ;)

Matrix316
2005-11-14, 18:08:03
hätte der r520 mehr pipes(=mehr transistoren) würde er sich nicht soweit takten lassen. außerdem wäre die leistungsaufnahme bei mehr pipes(=mehr transistoren) größer => bessere kühlung erforderlich. die frage macht also nicht soviel sinn.

interessant finde ich die frage zum overdrive, ansonsten kann man sich die meisten fragen mit gesundem menschenverstand selber beantworten ;)
Komischerweise ist der 7800 GTX Kühler leiser und kleiner als der der X1800XT. Obwohl die 7800 mehr Pipes hat.

nino
2005-11-14, 18:22:13
Komischerweise ist der 7800 GTX Kühler leiser und kleiner als der der X1800XT. Obwohl die 7800 mehr Pipes hat.

der zalman vf700 ist auch leiser als mein originalkühler ;) kommt halt immer auf den kühler an.

ich denke zwar du hast recht, dass eine x1800xt ne etwas stärkere kühlung braucht als eine 7800 gtx, aber man muss auch in betracht ziehen, dass bei ati die chipausbeute scheinbar noch nicht so toll ist und der xt anscheinend relativ hohe spannungen braucht. der g70 ist halt der refresh und nvidia hat das ganze schon besser unter kontrolle.

-> nochma dazu: http://www.anandtech.com/video/showdoc.aspx?i=2552&p=7
da braucht ne x1800xt so viel wie ne 7800gtx, trotz der 256mb speicher mehr. ich würd also sagen, dass die lautstärke eher vom design des kühlers kommt.

edit: http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html ok, hier siehts schon wieder anders aus. muss man vielleicht mal ein paar messungen abwarten

Coda
2005-11-14, 18:49:20
1. warum hat sich ATI beim r520 wieder für ein fake-SM3 entschieden, das keine fp16-filterung erlaubt und kein vertex-texturing beherscht?FP16-Filtering ist keine Vorraussetzung für SM3. Das Vertex-Texturing fehlt ist ärgerlich, aber es gibt sehr viel wichtigeres dass der R520 sehr gut unterstützt.

2. warum hebt OVERDRIVE den chip- bzw. ramtakt nur um marginale 6 mhz selbst bei guter kühlung (wakü) an?Gewährleistung. Elektronenmigration und so.

3. was bringt dem spieler die unterstützung für HDR+AA, wenn diese vermutlich nicht genutzt wird und obendrein dank qualitativ schlechtem HDR auch noch seltsam aussieht?Was sieht "seltsam" aus? Es erfordert noch spielespezifische Patches z.B. für SS2, da die ATi-Karte kein bilerp für FP16 kann. Das lässt sich aber emulieren.

Piffan
2005-11-14, 20:05:03
Matrix316, bei allem Respekt, du solltest echt wissen was gute Fragen sind!
War sehr erstaunt als ich sah das du über 10k Beiträge hast, wohl die meisten in unsinnge Threads eingefangen, so wie es aussieht.

Jau, ich dachte auch nicht, dass jemand mit 10 000!!! Beiträgen hier nur zum Stänkern reinschaut. Aber es gibt ja mehr Typen dieser Art, Paynie zum Bleistift....

Aber mal echt, wenn so ein Thread von der gelben Eule gestartet wird, glaubt man nicht wirklich an einen friedlichen und SINNVOLLEN Thread.....

Piffan
2005-11-14, 20:13:34
Ich beantrage die Schließung dieses Threads, da er offensichtlich nur als Plattform von Flamern dient......

Und mal im Ernst: Was für eine Art von Fragen soll denn kommen außer solchen, die Ati schlecht aussehen lassen sollen. Wenn es dann wenigstens sachlich und kultiviert bliebe, aber mit so dämlichen Fragen wie "Warum ist die Performance unter OpenGL so schlecht" ist doch gleich klar, was bezweckt wird.
"Schlecht" ist relativ, ich finde, dass Doom III auf meiner Ati recht gut performt. Vielleicht geht es auf NV ein Stück weit besser, aber man bedenke auch die Zusammenarbeit von NV und id- Software.
Ebenso die Frage nach der Pipeline- Zahl....Wenn Ati die gleiche Performance mit weniger Pipes schafft als NV, ist es wohl so verkehrt nicht....

Aber klar, solche Thread ziehen immer die gleichen Fanboys und Flamer an und jeder Nachteil/Leistungsrückstand wird ausgeschlachtet. Dabei hat NV auch einige Schwächen, siehe deutlich verschlechterte Bildqualität zu früher beim AF.....

MikBach
2005-11-14, 20:28:20
Ich beantrage die Schließung dieses Threads, da er offensichtlich nur als Plattform von Flamern dient......
Das kann man so sehen.
Allerdings denke ich, dass es noch gesittet zugeht.
Aber du hast schon Recht. Der Thread führt zu gar nicht, ebenso der Thread im Nvidia-Forum.

Und mal im Ernst: Was für eine Art von Fragen soll denn kommen außer solchen, die Ati schlecht aussehen lassen sollen.
Wenn es konstruktive Kritik wäre, sollten solche Fragen doch angebracht sein.

Wenn es dann wenigstens sachlich und kultiviert bliebe, aber mit so dämlichen Fragen wie "Warum ist die Performance unter OpenGL so schlecht" ist doch gleich klar, was bezweckt wird.
"Schlecht" ist relativ, ich finde, dass Doom III auf meiner Ati recht gut performt. Vielleicht geht es auf NV ein Stück weit besser, aber man bedenke auch die Zusammenarbeit von NV und id- Software.
Das Argument OGL-Performance verstehe ich auch nicht so ganz.
So schlecht ist die Performance gar nicht. Halt ein wenig schlechter als Nvidia, aber als schlecht würde ich sie nicht bezeichnen.

Mr. Lolman
2005-11-14, 21:18:42
x) könnte man nicht per Treiber im 2D Modus Spannung/Taktraten/Stromverbrauch senken?

nino
2005-11-14, 22:07:59
Gewährleistung. Elektronenmigration und so.


hm, ich dachte elektronenmigration kommt in erster linie durch spannungserhöhung?

Gast
2005-11-15, 00:36:22
@Piffan
Deine zwei letzten Antworten sind doch ein Paradebeispiel an Flame! Was soll der Seitenhieb auf Payne hier in diesem Thread?
Irgendwie hab ich Dich anders in Erinnerung......

Der Thread wurde auch nicht zum diskutieren erstellt, ihr Pappnasen. Ist es so schwer zu verstehen?
Einfach eine oder zwei Fragen stellen, ohne kommentierung und des üblichen Niedermachens der Mitschreiberlinge.

AAAaaarrrrggghhh ich raste hier noch aus, wo ist mein Prothazin?

Gast
2005-11-15, 07:34:41
Gegenfragen:

Wieso sind alle Geforce 6 Referenzkühler so extrem laut in Gegensatz zu den leisen ATI X800ern ?

Wieso sind die 6800er NVs in DX so viel langsamer als die ATIs ?

Wiso verbrauchen die 6800er so viel mehr Energie als die X800er ?

Wiso hat Nvidia die AF-Leistung mit jeder neuen Chiprevision verschlechtert ?

Wiso flimmern alle 7800er unter Standardeinstellungen, d.h. Quality? (es sei denn man ist blind und sieht es nicht. P.S. habe ne 7800GTX)

Wiso verbraucht die 7800GTX mit 512MB rund 30Watt mehr unter Last, als eine 512MB X1800XT ?

Wieso meine ich, das der R520 mehr Entwicklungspotential hat, als der Refresh G70 ?

Wieso bin ich kein Fanboy und erwähne wie gut Nvidia im DoomIII hl/m2 performt ?

aths
2005-11-15, 07:37:47
meine fragen:


1. warum hat sich ATI beim r520 wieder für ein fake-SM3 entschieden, das keine fp16-filterung erlaubt und kein vertex-texturing beherscht?SM3 verlangt keine FP16-Filterung im Texturshader, allerdings Vertex-Texturing. Bei letzterem hat ATI allerdings eine Lücke in der Spec gefunden.

Ich kann Fragen, wenn diese vernünftig sind, gerne an ATI weiterleiten. An NV natürlich auch. Die Anworten könnten durchaus in Artikelform präsentiert werden.

Gast
2005-11-15, 07:41:00
DoomIII hl/m2 = Hektoliter Blut pro Quadratmeter, unter anderem ist dieses Machwerk dafür verantwortlich, das die Politiker jetzt ein generelles Verbot von "Killerspielen" fordern, bzw. eines der erklärten Ziele der neuen großen Koaltion ist. Ja, ne is klar, ich hab Doom durchgespielt, BLUT, BLUT, BLUT
So langsam hab ich verständnis dafür, wenn so was verboten wird.

(del)
2005-11-15, 08:18:11
Wird es mittelfristig eine Abkehr vom unseligen .NET-Treiber geben?

Ich nutz ihn zwar selber, aber die .NET-Bibliotheken sind sooo träge...

Matrix316
2005-11-15, 10:36:04
Gegenfragen:
.
.
.
.
Wieso sind die 6800er NVs in DX so viel langsamer als die ATIs ?
.
.
.
.



Wobei diese Fragen in den Thread im nvidia Forum gehören. :tongue:

Wobei in Direct3D ist nvidia bei weitem nicht so viel langsamer als ATI unter Open GL. Es ist ja nicht nur Doom sondern bei fast jedem OpenGL Spiel hängt ATI hinter her. Sei es Quake 3, Return to Castle Wolfenstein, Quake 4, Call of Duty oder Serious Sam.

Matrix316
2005-11-15, 10:37:18
Jau, ich dachte auch nicht, dass jemand mit 10 000!!! Beiträgen hier nur zum Stänkern reinschaut. Aber es gibt ja mehr Typen dieser Art, Paynie zum Bleistift....

Aber mal echt, wenn so ein Thread von der gelben Eule gestartet wird, glaubt man nicht wirklich an einen friedlichen und SINNVOLLEN Thread.....
Sind wir hier im Blümchen Schleim Forum die nur Fragen erlauben die ATI gut darstehen lassen oder was? Außerdem stänkere ich garnicht, sondern stelle nur kritische Fragen, die IMO erlaubt sein müssen.

aths
2005-11-15, 11:25:14
Wird es mittelfristig eine Abkehr vom unseligen .NET-Treiber geben?

Ich nutz ihn zwar selber, aber die .NET-Bibliotheken sind sooo träge....Net ist die Zukunft, und das mit meinem Segen :) Wie gut (schnell, stabil) eine .Net-Anwendung nun läuft hängt primär von den Künsten des Programmierers ab.

aths
2005-11-15, 11:26:24
1. Warum laufen Open GL Spiele so schlecht? Tun sie nicht.

2. Warum wurde nicht von Anfang an (ab X800) auf SM3 gesetzt?Weil ATI nicht die Entwicklungs-Ressourcen dafür hatte.

3. Warum wurde nur mit 16 Pipes für die neuen High End Karten geplant?Weil man sich dafür entschied, die Pixelleistung über den Takt zu holen.

Mumins
2005-11-15, 11:31:43
Wobei diese Fragen in den Thread im nvidia Forum gehören. :tongue:

Wobei in Direct3D ist nvidia bei weitem nicht so viel langsamer als ATI unter Open GL. Es ist ja nicht nur Doom sondern bei fast jedem OpenGL Spiel hängt ATI hinter her. Sei es Quake 3, Return to Castle Wolfenstein, Quake 4, Call of Duty oder Serious Sam.

Das stimmt doch gar nicht. Mit dem neuen Treiber ist die X1800XT in Quake4 sogar an der 256MB GTX vorbeigezogen. Erst mit der 512MB GTX ist Nvidia wieder vorne.
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx_512mb/images/d31280.gif


Die alten Games wie CallofDuty, Castle Wolfenstein und Quake3 sind auch auf ATI-Karten ausreichend schnell.

Matrix316
2005-11-15, 11:47:21
Ok ok, ich frage dann nicht, warum die OpenGL performance so schlecht ist, sondern nur warum sie bislang immer schlechter als die von Nvidia war.

Und wehe es sagt noch einer was von Treibern, denn es hängt nicht am Treiber.

Es kann nicht am Treiber liegen, wenn eine 6800LE so schnell ist wie eine X800 PRO!!!
http://www.tweakpc.de/hardware/tests/graka/gigabyte_GV-N68T256DH/s06.php -> Serious Sam 1280*1024 4AA 8 AF oder Return to Castle Wolfenstein gleiche Auflösung mit 4AA 8AF

Es geht auch nicht darum, dass die Spiele spielbar sind, sondern ums Prinzip und es interessiert auch nicht, dass eine X1800XT, die sich keiner leisten kann, mit einem neuen Treiber plötzlich schneller in Open GL ist, sondern eher, warum funktioniert das nicht mit allen Radeon Karten???

Matrix316
2005-11-15, 11:51:58
Tun sie nicht.

Weil ATI nicht die Entwicklungs-Ressourcen dafür hatte.

Weil man sich dafür entschied, die Pixelleistung über den Takt zu holen.
1. Tun sie doch, und zwar schlechter als vergleichbare nvidia Karten.

2. Und warum? Man hatte mit den 9700/9800 Karten doch großen Erfolg, oder? Warum war man so nachlässig?

3. Warum? Wer kommt auf so blöde Ideen?

Gast
2005-11-15, 11:56:07
Es sind alle schneller geworden. Aber der R520 ist erheblich schneller unter OpenGL geworden. Liegt an der neuen Architektur. Laut ATI hat der R520 erst rund 70% seines Potentials entfaltet. Da wird Treiberseitig noch viel herausholbar sein. Das trifft nun mal nicht auf dem G70 zu, dieser ist ein Refresh eines NV40, da ist nicht mehr viel heraus zu holen, eher fällt deren Leistung sogar ab, wenn Nvidia das Flimmern unter Qualitiy beseitigt. Unter High Quality hats auch schon rund 5% Leistung gekostet.

Matrix316
2005-11-15, 11:59:44
Was hat der R520 mit den alten Karten zu tun? Oder was hat das flimmernde AF des G70 mit ATI Karten zu tun? Das gehört in den anderen Thread im Nvidia Forum...;)

Mumins
2005-11-15, 12:07:33
Es geht auch nicht darum, dass die Spiele spielbar sind, sondern ums Prinzip und es interessiert auch nicht, dass eine X1800XT, die sich keiner leisten kann, mit einem neuen Treiber plötzlich schneller in Open GL ist, sondern eher, warum funktioniert das nicht mit allen Radeon Karten???

Es funktioniert nur mit X1800 Karten, da der neue Treiber den Speichercontroller besser nutzt. Diesen Ring-Bus haben nur X1800 Karten.

Gast
2005-11-15, 12:11:18
Was, ist die X800 alt ?
Das geflimmere ist schlicht ein, nicht beseitigtes Leistungsplus auf Kosten der Bildqualität, das NV noch immer nicht beseitigt hat, ist nun mal so wie's ist..
OpenGL nutzen auch verdammt viele Spiele... so wie es ausschaut ist ab Windows Vista OpenGL Geschichte geworden, wir werden sehen ?

Wenn man Vergleiche zwischen ATI und NV zugunsten NV's macht (siehe deine Beiträge zu OpenGL), so sind anderartige Vergleiche zu Gunsten ATIs nur angebracht, finde ich?

StefanV
2005-11-15, 12:17:18
2. Und warum? Man hatte mit den 9700/9800 Karten doch großen Erfolg, oder? Warum war man so nachlässig?
Weil man 2 Konsolendeals an den Hacken hatte ;)

Tarkin
2005-11-15, 13:10:10
Weil man 2 Konsolendeals an den Hacken hatte ;)

ne, dass ist nicht der Grund... Ati hatte ein Problem mit dem Die.

Einige Monate wurde intensiv gesucht, bis der Fehler schließlich gefunden wurde. Danach konnte der Chiptakt um satte 150MHz erhöht werden.

Die Korrektur des Problems hat angeblich nicht länger als einen Tag gedauert (steht irgendwo auf Beyond3D).

Hätten sie den Fehler sofort behoben, wäre die X1800 wie geplant irgendwann im Mai erschienen...


ah, habs gefunden:

http://www.beyond3d.com/reviews/ati/r520/

R520's commercial availability was scheduled for introduction roughly one year after R420, i.e. late spring to summer 2005. Initially R520 was on target for this type of timescale, and just three days after the release of the Radeon X850 series, based on R480, the refresh to R420/R423, ATI received their first packaged R520 chips, ready for the bring-up process. Things appeared to be going as planned, with sightings of the product in operation at E3; however, following on from that nothing appeared, even with NVIDIA's release of their next generation G70 product ATI didn't announce any products. Soon stories of leaking issues appeared and eventually Dave Orton, ATI's CEO, announced that the scheduled release had indeed been pushed back due to "a variety of design issues".

According to public reports ATI noticed that as late as July, issues occurred that prevented the R520 core being clocked close to its target speeds, which is consistent with leakage issues. Curiously, the issue did not occur across all their 90nm products - ATI had already delivered Xenos to Microsoft using the same 90nm process R520 does, and other derivatives of the R520 line suffered the same issue (RV530) but others did not (RV515) - the fact R520 and RV530 share the same memory bus, while RV515 and Xenos have different memory busses is not likely to be coincidental in this case. ATI were open about talking about the issue they faced bringing up R520, sometimes describing the issue in such detail that only Electronic Engineers are likely to understand, however their primary issue when trying to track it down was that it wasn't a consistent failure - it was almost random in its appearance, causing boards to fail in different cases at different times, the only consistent element being that it occurs at high clockspeeds. Although, publicly, ATI representatives wouldn't lay blame on exactly were the issue existed, quietly some will point out that when the issue was eventually traced it had occurred not in any of ATI's logic cells, but instead in a piece of "off-the-shelf" third party IP whose 90nm library was not correct. Once the issue was actually traced, after nearly 6 months of attacking numerous points where they felt the problems could have occurred, it took them less than an hour to resolve in the design, requiring only a contact and metal change, and once back from the fab with the fix in place stable, yield-able clockspeeds jumped in the order of 160MHz.

Now, though, nearly a year after it first came back, ATI are ready to announce and introduce Radeon X1800, based on R520."

Matrix316
2005-11-15, 13:26:19
Ist ja schön, dass der R520 so gut ist, aber das hilft nicht den R4x0 Karten...

DR.ZEISSLER
2005-11-15, 13:51:06
Meine Frage:

Wann wird ATI endlich genügend Resourcen zusammenziehen und die Leistung der 3D Module (fglrx) unter Linux auf den Stand der aktuellen Catalyst-Versionen bringen (Roadmap vielleicht ?). Die aktuelle Performance liegt schätzungsweise zwischen 65-75 % der der Windowstreiber.

Doc

r3ptil3
2005-11-15, 13:55:01
Meine Frage:

Wann wird ATI endlich genügend Resourcen zusammenziehen und die Leistung der 3D Module (fglrx) unter Linux auf den Stand der aktuellen Catalyst-Versionen bringen (Roadmap vielleicht ?). Die aktuelle Performance liegt schätzungsweise zwischen 65-75 % der der Windowstreiber.

Doc

Studier mal, Linux ist Opensource, Windows nicht!
Microsoft hat einfach überall irgendeinen Deal.

Gast
2005-11-15, 16:57:45
2. Warum wurde nicht von Anfang an (ab X800) auf SM3 gesetzt?
An sich aus der Not heraus :) Wie sich aber Ende 2005 herausstellt, tut ATIs 2.0b es auch. Und so wie ich das sehe entgeht damit einem die Grafikpracht der unüberschaubaren Zahl an SM3 Spielen, die NV40 Besitzer entzückt bewundern könnten, nicht. SM3 erzeugt BEIM SPIELEN auch Ende 2005 keinen Neid. Oder siehst Du das anders?
3. Warum wurde nur mit 16 Pipes für die neuen High End Karten geplant?
Weil die Leistung ausreicht?

p.s.: Hat Eule irgendwo erwähnt, daß nur kritische Fragen gestellt werden sollten? :biggrin:

Gast
2005-11-15, 16:59:26
Ist ja schön, dass der R520 so gut ist, aber das hilft nicht den R4x0 Karten...
R4x0 Karten brauchen Hilfe?

@DR.ZEISSLER
Die bis jetzt einzig gute kritische Frage!

Coda
2005-11-15, 17:00:09
Wird es mittelfristig eine Abkehr vom unseligen .NET-Treiber geben?Also wenn der Treiber in .NET geschrieben wäre würde ich mir sorgen machen ;)

Das Controlpanel wird mit dem Umstieg auf .NET 2 sicher etwas reaktivier werden.

Ich nutz ihn zwar selber, aber die .NET-Bibliotheken sind sooo träge...Siehe oben.

aths
2005-11-16, 05:01:02
I sense a great disturbance in the force ...

1. Tun sie doch, und zwar schlechter als vergleichbare nvidia Karten.Nvidia hat die OpenGL-Treiber für einige OpenGL-Spiele massiv "optimiert". Dazu gehört auch, die CPU-Last zu senken. (Ich habe selbst schon mal kleine OpenGL-Sachen geschrieben, die auf einer Radeon 9600 deutlich schneller liefen als auf einer GeForce4 Ti 4600. Daraus schließe ich, dass der NV-OpenGL-Treiber nicht überall besser ist, sondern nur partiell.)

Man könnte genauso gut fragen, warum die GeForce in D3D langsamer als eine vergleichbare Radeon wäre. Ist wirklich die GeForce in OpenGL schneller oder ist sie nicht eher in D3D langsamer? Eine Frage der Ansicht.

Die (zumindest älteren) Radeon-Treiber sind generell etwas CPU-lastiger als die von NV, die noch älteren sind ziemlich verbuggt – NV war schon länger in OpenGL dabei und hatte einfach ausgereifte Treiber. Doch abgesehen davon, dass die Bedeutung der OpenGL-API für Spiele leider weiterhin sinkt, kann man nicht davon sprechen dass die GeForce-Karten dort sonderlich überlegen wären – es sei denn, man bencht die bekannten Timedemos.

2. Und warum? Man hatte mit den 9700/9800 Karten doch großen Erfolg, oder? Warum war man so nachlässig? Wieso nachlässig? Das Ingenieur-Team ist bei ATI nicht so groß wie bei NV, und dann hatte man sich auch noch im Konsolenbereich was auf den Hals gebunden. Als NV den Xbox-Chipsatz entwickelte, gabs im PC-Bereich ja auch nur eine featuremäßig kaum verbesserte, nur höher getaktete GF3, dann GF4 genannt. ATI stand nach einiger Entwicklungszeit für den R400 vor der Wahl, entweder ein Feature-Upgrade oder ein Rohleistungs-Upgrade zu bringen.

3. Warum? Wer kommt auf so blöde Ideen?Wieso sollte die Idee "blöd" sein? Es ist nicht mehr oder weniger blöd als die Idee, die Pixelleistung über Architektur-Breite zu holen. Die Leistung ist Rechenoperationen pro Sekunde, da ist es egal ob viele Units langsam oder wenige Units schnell arbeiten.

aths
2005-11-16, 05:09:09
Es sind alle schneller geworden. Aber der R520 ist erheblich schneller unter OpenGL geworden. Liegt an der neuen Architektur. Laut ATI hat der R520 erst rund 70% seines Potentials entfaltet. Da wird Treiberseitig noch viel herausholbar sein. Das trifft nun mal nicht auf dem G70 zu, dieser ist ein Refresh eines NV40, da ist nicht mehr viel heraus zu holen, eher fällt deren Leistung sogar ab, wenn Nvidia das Flimmern unter Qualitiy beseitigt. Unter High Quality hats auch schon rund 5% Leistung gekostet."Leistung" ist mehr als nur Geschwindigkeit :) Die Geschwindigkeit sank um ca. 2-4% (wobei man allerdings CPU-limitiert gebencht hat), die Qualität stieg – und zwar mehr, als man Geschwindigkeit einbüßte. Damit steigt die Leistung der Graka auch. Das ist ja das absurde: Man opfert bei so genannten "Optimierungen" in der Regel mehr Qualität als man an Geschwindigkeit gewinnt – womit die tatsächliche Leistung der Graka sinkt.

Der R520 kann nicht mehr großartig optimiert werden. Die Pixelpipe ist praktisch ausoptimiert. Hier könnte ATI nur noch mit Shader-Replacement spürbar was gewinnen. Und sie werden natürlich die applikationsspezifischen Profile zur Konfiguration des Speichercontrollers noch um einige Benchmarks und Spiele erweitern, hier und da also noch bisschen was dazu gewinnen.

Auf der anderen Seite sollte man jeder neuen Architektur, auch wenn sie nicht sooo neu ist (z. B. G70 im Vergleich zum NV40) etwa 6 Monate Zeit für die Treiber-Ingeniere geben. Insofern sind die aktuellen Benches R520 vs G70 wirklich etwas vorschnell – ATI kann sich wahrscheinlich noch bei einigen Spielen ein wenig mehr steigern als NV, da stimme ich dir zu.

Das wichtigste ist für mich aber nicht das eine oder andere Prozent, sondern die Bildqualität.

Matrix316
2005-11-16, 11:05:09
I sense a great disturbance in the force ...

Nvidia hat die OpenGL-Treiber für einige OpenGL-Spiele massiv "optimiert". Dazu gehört auch, die CPU-Last zu senken. (Ich habe selbst schon mal kleine OpenGL-Sachen geschrieben, die auf einer Radeon 9600 deutlich schneller liefen als auf einer GeForce4 Ti 4600. Daraus schließe ich, dass der NV-OpenGL-Treiber nicht überall besser ist, sondern nur partiell.)

Man könnte genauso gut fragen, warum die GeForce in D3D langsamer als eine vergleichbare Radeon wäre. Ist wirklich die GeForce in OpenGL schneller oder ist sie nicht eher in D3D langsamer? Eine Frage der Ansicht.

Die (zumindest älteren) Radeon-Treiber sind generell etwas CPU-lastiger als die von NV, die noch älteren sind ziemlich verbuggt – NV war schon länger in OpenGL dabei und hatte einfach ausgereifte Treiber. Doch abgesehen davon, dass die Bedeutung der OpenGL-API für Spiele leider weiterhin sinkt, kann man nicht davon sprechen dass die GeForce-Karten dort sonderlich überlegen wären – es sei denn, man bencht die bekannten Timedemos.


Das heißt, dass ALLE Spiele die auf OpenGL basieren nvidia optimiert sind und für ATI ALLE nicht? Das ist doch Schwachsinn, oder sind die Spielefirmen so parteiisch, dass sie ATI absichtlich schwächer darstehen lassen?

Und liegt das wirklich am Treiber? Ich glaube das einfach nicht, weil ansonsten die neuen OpenGL Optimierungen für die X1800er Karten auch bei den alten Karten funktionieren MÜSSTEN, WENN es denn NUR am Treiber liegt, was es ja offensichtlich nicht tut.

Nochmal etwas anders: Wenn die X1800 nur durch eine Treiberoptimierung wesentlich schneller in OpenGL Games wird, und die X800 nicht, dann liegt es nicht direkt am Treiber, sondern die Hardware ist anders (ist ja auch so). Nur was hat man bei dere X800 (und auch 9800) falsch gemacht?

Außerdem redet hier keiner von OpenGL Anwendungen sondern die meisten interessieren sich doch für Spiele.

Matrix316
2005-11-16, 11:10:13
R4x0 Karten brauchen Hilfe?

Wenn eine Popelige 6800LE schneller als eine X800 PRO ist, dann ja...

Ich meine, was bei Serious Sam oder RTCW noch im 3 Stelligen Bereich abgeht und noch nicht direkt schlimm ist, ist bei Doom3 oder Quake4 schon im 2 Stelligen Bereich und da wird es kritisch, wenn eine 8 Pipes Karte mit weniger Takt eine 12 Pipes Karte mit mehr Takt und mehr RAM abzieht...

AYAlf
2005-11-16, 14:44:00
1. warum ist die bidqualitaet so viel besser als bei der konkurenz?

2. wieso ist euere directx performce so ueberragent?

3. warum schafft ihr es nicht bei einer so perfekte hardware mehr kunden auf eure seite zu ziehen?

4. warum ist euer ccc so viel aufgeraeumter und organisierter wie nvidias hingeschludertes control panel?

5. warum gibt es fuer eure treiber so gute fan-tools (ati-tool)?

6. warum koennt ihr jeden monat einen neuen treiber herausbringen?

7. wie konntet ihr die ogl performance so stark steigern ohne bildqualitaet einzubuessen?

Mumins
2005-11-16, 15:02:43
Und liegt das wirklich am Treiber? Ich glaube das einfach nicht, weil ansonsten die neuen OpenGL Optimierungen für die X1800er Karten auch bei den alten Karten funktionieren MÜSSTEN, WENN es denn NUR am Treiber liegt, was es ja offensichtlich nicht tut.

Es liegt natürlich am Treiber, der neue 5.11 oder der 5.10a hotfix nutzen den Speicherbus der X1800 besser. Dadurch konnte die Ogl Performance bei 4AA massiv gesteigert werden. Da die X800 Karten diesen Speicherbus nicht haben werden sie auch nicht schneller, ganz einfach.

DR.ZEISSLER
2005-11-16, 15:06:51
Studier mal, Linux ist Opensource, Windows nicht!
Microsoft hat einfach überall irgendeinen Deal.


Selten so einen Schwachsinn gelesen, was bitteschön hat das mit dem Toppic zu tun und in wiefern willst Du meine hier gestellte Frage DAMIT kritisieren.

Setzen 6 ;D

Doc

Mumins
2005-11-16, 15:15:01
Selten so einen Schwachsinn gelesen, was bitteschön hat das mit dem Toppic zu tun und in wiefern willst Du meine hier gestellte Frage DAMIT kritisieren.

Setzen 6 ;D

Doc

Soll heißen, dass Microsoft Geld zahlt, damit die Performance unter Linux schlechter ist.

Matrix316
2005-11-16, 16:03:46
Es liegt natürlich am Treiber, der neue 5.11 oder der 5.10a hotfix nutzen den Speicherbus der X1800 besser. Dadurch konnte die Ogl Performance bei 4AA massiv gesteigert werden. Da die X800 Karten diesen Speicherbus nicht haben werden sie auch nicht schneller, ganz einfach.

Also liegts eben nicht "nur" am Treiber sondern auch in Hardware macht nvidia was besser...

Gast
2005-11-16, 16:05:40
Also liegts eben nicht "nur" am Treiber sondern auch in Hardware macht nvidia was besser...
Hä? :confused:

Mumins
2005-11-16, 16:43:58
Also liegts eben nicht "nur" am Treiber sondern auch in Hardware macht nvidia was besser...

Was macht Nvidia besser? Die X1800 Karten sind unter Ogl nun so schnelle wie die Nvidia Karten.

DR.ZEISSLER
2005-11-16, 17:39:59
Soll heißen, dass Microsoft Geld zahlt, damit die Performance unter Linux schlechter ist.

Beweise für diese Behauptung ?

Ist doch nicht ernsthaft sinnvoll, von einer ständig wachsenden Linux-Game-Community Prügel einzustecken und auf der anderen Seite von M$ Zahlungen genau dafür zu erhalten :| Wer kauft denn die Karten ? M$ oder die User ??

Macht irgendwie keinen Sinn und hat auch nichts mit dem grundsätzlichen Thema zu tun.

Das lautet doch noch:
=> 10 Fragen der Community an ATI <=

Von mir aus 9 Fragen zu Windows und irgendwelchen Filtereinstellungen und AA AF und weis der Teufel was, aber bitte diese eine Frage zu den Linuxmodulen.

Danke!!

Ach noch etwas; wen interessieren schon irgendwelche "ollen Kamellen" wie z.B. (warum hat man SM3.0 nicht schon bei der x800 etc), daran kann man eh nix mehr ändern.

Sollte man sich nicht auf Fragen konzentrieren die zukünftige Strategien und deren Zeithorizonte ausloten ?

Auch eine vielleicht für viele User interessante Frage:
Es gibt noch sehr viele AGP User.
"Hat ATI konkrete Informationen über kommende SM 3.0 Karten auf AGP Basis bzw. steht ATI in Kontakt mit Herstellen die solche Versionen produzieren wollen und wenn ja, wann ist mit Verfügbarkeit dieser x1K AGP Karten zu rechnen ?"

Matrix316
2005-11-16, 17:48:31
Was macht Nvidia besser? Die X1800 Karten sind unter Ogl nun so schnelle wie die Nvidia Karten.
Meine Frage war aber warum wars bis zur X1800 nicht so...

Mumins
2005-11-16, 17:56:48
Meine Frage war aber warum wars bis zur X1800 nicht so...

Ja, weil die erst den besseren Speichercontroller hat.

Beweise für diese Behauptung ?

Das behaupte nicht ich, ich wollte nur beantworten was du wissen wolltest.

Gast
2005-11-17, 08:11:24
Meine Frage war aber warum wars bis zur X1800 nicht so...

Man man du NV FanBoy !!
Dein ständiges bashen und aufgeilen am angeblich dramatisch schlechteren OpenGL Treiber von ATI ist jac sc...e.
Ich hab ne x800pro, 6800Gt und 7800GTX sowie demnächst X1800 XL und kann dir versichern, das sogar mit der X800 im Vergleich zur guten 6800GT in Open-GL fast kein unterschied zu spüren ist, weder qualtitativ noch FPS.

aths
2005-11-17, 08:54:21
Das heißt, dass ALLE Spiele die auf OpenGL basieren nvidia optimiert sind und für ATI ALLE nicht? Das ist doch Schwachsinn, oder sind die Spielefirmen so parteiisch, dass sie ATI absichtlich schwächer darstehen lassen?

Und liegt das wirklich am Treiber? Ich glaube das einfach nicht, weil ansonsten die neuen OpenGL Optimierungen für die X1800er Karten auch bei den alten Karten funktionieren MÜSSTEN, WENN es denn NUR am Treiber liegt, was es ja offensichtlich nicht tut.

Nochmal etwas anders: Wenn die X1800 nur durch eine Treiberoptimierung wesentlich schneller in OpenGL Games wird, und die X800 nicht, dann liegt es nicht direkt am Treiber, sondern die Hardware ist anders (ist ja auch so). Nur was hat man bei dere X800 (und auch 9800) falsch gemacht?

Außerdem redet hier keiner von OpenGL Anwendungen sondern die meisten interessieren sich doch für Spiele.Ein Spiel ist im weiteren Sinne auch eine Anwendung.

Können wir auch ohne Wörter wie "Schwachsinn" miteinander reden?

Dass viele OpenGL-Spiele auf Nvidia-Hardware entwickelt wurden ist sehr wahrscheinlich, mit den Radeons gabs dann noch Kompatibilitätstests. Performance-Optimierung seitens des Entwicklers gabs vermutlich überwiegend für die GeForce. NV hat zusätzlich für viele der (wenigen) Spiele die OpenGL nutzen mit der Zeit spezielle Treiber-Optimierungen eingebaut. Das ist auch insofern nicht so schwer, da viele OpenGL-Spiele letztlich die Quake3-Engine nutzen. Trotzdem sind die Unterschiede, nimmt man aktuelle Treiber auch bei ATI, nicht weltbewegend.

Gerne noch mal der Hinweis auf die Frage des Standpunktes: Ist die GeForce nun als besonders schnell in OpenGL zu betrachten oder als besonders langsam in DX? Wenn es gelingt, durch Performance-Optimierung seitens des Entwicklers, durch applikationsabhängiges Treiber-Tuning seitens Nvidia, die GeForce-Hardware in OpenGL-Spielen sehr gut auszunutzen, warum dann nicht in D3D? Angesichts der Verbreitung der APIs bei den Spielen ist D3D-Performance wichtiger.

Dass die X1800 in OpenGL deutlich schneller ist liegt primär daran, dass die Hardware deutlich schneller ist.

Gast
2005-11-17, 10:01:43
Wie ist es um die Treiberabwärtskompatibilität bestellt?

Ich selbst hab bemerkt, daß es mit den neueren Catalysts z.B. 5.9, 5.10, besonders mit dem 5.11 in einigen älteren Spielen zu Darstellungsfehlern kommen kann. Wird das bewußt in Kauf genommen? Obwohl diese alten Kamellen noch immer bei etlichen Spielern hoch im Kurs stehen, will sagen, immer wieder mal rausgekramt werden und nochmal von vorne durchgespielt werden.

Matrix316
2005-11-17, 10:58:14
Man man du NV FanBoy !!
Dein ständiges bashen und aufgeilen am angeblich dramatisch schlechteren OpenGL Treiber von ATI ist jac sc...e.
Ich hab ne x800pro, 6800Gt und 7800GTX sowie demnächst X1800 XL und kann dir versichern, das sogar mit der X800 im Vergleich zur guten 6800GT in Open-GL fast kein unterschied zu spüren ist, weder qualtitativ noch FPS.

Wer ist denn hier der Fanboy? Schon mal nachgesehen welche Grafikkarte ICH selbst habe? :tongue:

Ich hatte auch mal ne 6800 NU, aber die performte in Doom3 zum Beispiel ebenso gut wie die X800 PRO jetzt, und das kann einfach nicht sein, von der theoretischen Leistung der X800 her. 12 Pipes + 475 MHz und 256 MB @ 450 MHz genauso schnell wie 12 Pipes + 325 MHz und 128 MB @ 350 MHz???

Ne 6800 GT hat 16 Pipes und 350 MHz Chiptakt und 256 MB @ 500 MHz, während ne X850XT 16 Pipes mit 520 MHz Chiptakt und 256 MB @ 540 MHz hat. Und trotzdem ist die 6800GT in Open GL Games gleichschnell und schneller?

Die theoretischen Leistungsunterschiede sind IMO einfach zu groß, als dass eine lapidare Antwort wie "wird für nvidia Karten optimiert" (zumal es ja quasi alle OGL Games sind) mir reicht. Zumal die ATI Karten in Direct3D ja wiederum oft besser sind (obwohl es schon komisch ist, dass eine 6800 GT besser als eine X800 PRO ist, obwohl die theoretischen Daten beinahe identisch sind). Wobei mit AF sollte man die ATI Benchmarks nicht überbewerten. Die waren früher mit 8xAF schon meistens besser als Nvidia Karten mit 2 oder 4xAF.

Gast
2005-11-17, 15:02:06
Wer ist denn hier der Fanboy? Schon mal nachgesehen welche Grafikkarte ICH selbst habe? :tongue:

Ich hatte auch mal ne 6800 NU, aber die performte in Doom3 zum Beispiel ebenso gut wie die X800 PRO jetzt, und das kann einfach nicht sein, von der theoretischen Leistung der X800 her. 12 Pipes + 475 MHz und 256 MB @ 450 MHz genauso schnell wie 12 Pipes + 325 MHz und 128 MB @ 350 MHz???

Ne 6800 GT hat 16 Pipes und 350 MHz Chiptakt und 256 MB @ 500 MHz, während ne X850XT 16 Pipes mit 520 MHz Chiptakt und 256 MB @ 540 MHz hat. Und trotzdem ist die 6800GT in Open GL Games gleichschnell und schneller?

Die theoretischen Leistungsunterschiede sind IMO einfach zu groß, als dass eine lapidare Antwort wie "wird für nvidia Karten optimiert" (zumal es ja quasi alle OGL Games sind) mir reicht. Zumal die ATI Karten in Direct3D ja wiederum oft besser sind (obwohl es schon komisch ist, dass eine 6800 GT besser als eine X800 PRO ist, obwohl die theoretischen Daten beinahe identisch sind). Wobei mit AF sollte man die ATI Benchmarks nicht überbewerten. Die waren früher mit 8xAF schon meistens besser als Nvidia Karten mit 2 oder 4xAF.


ATI: Vorteile in AA, schon bei den X800ern, und auch jetzt bei AF, bei den X1800ern. Eine X800pro hat 12Pipes, eine 6800GT bekanntlich deren 16. Die X800pro hat übrigens 900MHz Speichertakt. Eine 6800GT hat da mehr.
Das DoomIII Beisspiel ist eh schlecht. Die DoomIII Engine wird eingstampft, ID setzt in Zukunft auf die Unreal III Engine. Überhaupt hat die DoomIII Engine nicht wirklich überzeugt, ganz zu schweigen vom eigentlichen Spiel, das war nach 2Std Spielzeit eine Endloswiederholung von Splattereffekten, Herrn Beckstein von der CSU hat das Spiel jedenfalls im negativen Sinne sehr überzeugt.

Matrix316
2005-11-17, 15:43:21
ATI: Vorteile in AA, schon bei den X800ern, und auch jetzt bei AF, bei den X1800ern. Eine X800pro hat 12Pipes, eine 6800GT bekanntlich deren 16. Die X800pro hat übrigens 900MHz Speichertakt. Eine 6800GT hat da mehr.

Das DoomIII Beisspiel ist eh schlecht. Die DoomIII Engine wird eingstampft, ID setzt in Zukunft auf die Unreal III Engine. Überhaupt hat die DoomIII Engine nicht wirklich überzeugt, ganz zu schweigen vom eigentlichen Spiel, das war nach 2Std Spielzeit eine Endloswiederholung von Splattereffekten, Herrn Beckstein von der CSU hat das Spiel jedenfalls im negativen Sinne sehr überzeugt.

2. Es ist ja nicht nur Doom, sondern quasi alle Games die Open GL nutzen.

1. Die PRO hat aber 475 MHz Speichertakt, was mit 12 Pipes etwas mehr bringen sollte als 350 MHz und 16 Pipes. Aber selbst wenn man den Speicher der X800 PRO auch mit 500 MHz taktet (wie die 6800GT), ist die 6800GT immer noch deutlich schneller.

dargo
2005-11-17, 16:10:46
Die PRO hat aber 475 MHz Speichertakt, was mit 12 Pipes etwas mehr bringen sollte als 350 MHz und 16 Pipes.
Eine X800Pro hat immernoch 450Mhz Speichertakt. Die 475Mhz beziehen sich auf die GPU.

Mr. Lolman
2005-11-17, 16:18:40
Es liegt natürlich am Treiber, der neue 5.11 oder der 5.10a hotfix nutzen den Speicherbus der X1800 besser. Dadurch konnte die Ogl Performance bei 4AA massiv gesteigert werden. Da die X800 Karten diesen Speicherbus nicht haben werden sie auch nicht schneller, ganz einfach.

Die OpenGL Performance wurde auch bei dekativiertem AA gesteigert. Außerdem gibts auch für X800 Karten ein Leistungsplus, da der Speichercontroller der R420 Karten auch (eingeschränkt) programmierbar ist...

Mr. Lolman
2005-11-17, 16:24:27
2. Es ist ja nicht nur Doom, sondern quasi alle Games die Open GL nutzen.

1. Die PRO hat aber 475 MHz Speichertakt, was mit 12 Pipes etwas mehr bringen sollte als 350 MHz und 16 Pipes. Aber selbst wenn man den Speicher der X800 PRO auch mit 500 MHz taktet (wie die 6800GT), ist die 6800GT immer noch deutlich schneller.

Mittlerweile hat ATi die shader genausogut optimiert wie NV, und deswegen läuft D³ auf R420 nicht mehr wirklich langsamer als auf NV40 Karten.

Desweiteren glaubt ihr sicher nicht, was die Optimierungen an Performance ausmachen. Gerade unter OpenGL filtern NV Karten mit den (meistens zum Benchen verwendeten) Defaulteinstellungennur mehr bilinear, während ATi Karten zumindeast brilinear filtern.

Banshee18
2005-11-17, 16:40:09
Mittlerweile hat ATi die shader genausogut optimiert wie NV, und deswegen läuft D³ auf R420 nicht mehr wirklich langsamer als auf NV40 Karten.
Ganz minimal langsamer schon noch, oder? Trotzdem verwundert das. Eine 6800 Ultra schlägt z.B. eine X800XT PE, obwohl diese doch von der Rohleistung deutlich überlegen sein müsste.

MfG

Banshee

PS: Kannst du bitte mal einen Blick in den Serious Sam-Thread werfen?!?

aths
2005-11-17, 16:58:56
Die OpenGL Performance wurde auch bei dekativiertem AA gesteigert. Außerdem gibts auch für X800 Karten ein Leistungsplus, da der Speichercontroller der R420 Karten auch (eingeschränkt) programmierbar ist...Auch der R520-Controller ist nicht programmierbar. ATI sagt zwar "programmierbar" dazu, aber ATI spricht ja auch von 4:1-Komprimierung von 3Dc.
Mittlerweile hat ATi die shader genausogut optimiert wie NV, und deswegen läuft D³ auf R420 nicht mehr wirklich langsamer als auf NV40 Karten. Sind sie denn unwirklich langsamer? Was NV (und wahrscheinlich inzwischen auch ATI) bei Doom3 macht, geht über Shaderoptimierung hinaus.

Desweiteren glaubt ihr sicher nicht, was die Optimierungen an Performance ausmachen. Gerade unter OpenGL filtern NV Karten mit den (meistens zum Benchen verwendeten) Defaulteinstellungennur mehr bilinear, während ATi Karten zumindeast brilinear filtern.Das ist mir allerdings neu, das die GeForce-Karten nur bilinear filtern würden.

Mr. Lolman
2005-11-17, 17:11:26
Auch der R520-Controller ist nicht programmierbar. ATI sagt zwar "programmierbar" dazu, aber ATI spricht ja auch von 4:1-Komprimierung von 3Dc.

Ja, "konfigurierbar" hätt besser gepasst.


Sind sie denn unwirklich langsamer? Was NV (und wahrscheinlich inzwischen auch ATI) bei Doom3 macht, geht über Shaderoptimierung hinaus.

Das glaub ich auch. Soviel fps wie in dem Spiel, hat man bisher wohl in keinem anderen geschunden. (btw. die "nicht wirklich" floskel kann ich mir einfach nicht abgewöhnen, sry :))


Das ist mir allerdings neu, das die GeForce-Karten nur bilinear filtern würden.

Treiberdefault ist Q + Tri- und Sampleopt. Wählt man übers CP AA/AF schaltet sich die Mipfilteroptimierung auch dazu. Da OpenGL keine Texturstages kennt, wird bei aktiver Mipfilteroptimierung alles bilinear gefiltert.

(Man erkennt sogar bei einer vorgerenderten Serious Sam 2 Zwischensequenz so ein biband X-D)

Mr. Lolman
2005-11-17, 17:14:26
Ganz minimal langsamer schon noch, oder? Trotzdem verwundert das. Eine 6800 Ultra schlägt z.B. eine X800XT PE, obwohl diese doch von der Rohleistung deutlich überlegen sein müsste.

Ja ein bisschen sind sie schon langsamer. Dementsprechend, kann man imo wohl schon sagen, dass die D³ Schattentechnik NV Karten besser liegt. Nur halt nicht sooo viel besser, wie es die Benchmakrs anfangs vermuten liessen...

Blaire
2005-11-17, 17:23:16
Ja ein bisschen sind sie schon langsamer. Dementsprechend, kann man imo wohl schon sagen, dass die D³ Schattentechnik NV Karten besser liegt. Nur halt nicht sooo viel besser, wie es die Benchmakrs anfangs vermuten liessen...

Mit diesen Settings ist Doom3 spielbar:
6800 Ultra: 1600x1200 4xAA/16xAF
X800XTPE: 1600x1200 2xAA/16xAF

Die 6800 Ultra ist schon ne ganze Ecke schneller vor allem die Minimumfps sind bei NV deutlich höher!!!

Mr. Lolman
2005-11-17, 17:26:36
Mit diesen Settings ist Doom3 spielbar:
6800 Ultra: 1600x1200 4xAA/16xAF
X800XTPE: 1600x1200 2xAA/16xAF


Auf die HardOCP Angaben pfeif ich. Wahrscheinlichh mussten die NV Kärtchen sogar nur bilinear filtern. So schauts @ Computerbase aus: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/21/#abschnitt_doom_3

/edit: Die Benchmarks enstanden übrigens mit dem Betacatalyst, der die letzten OpenGL Optimierungen nicht hat: http://www.tweaktown.com/articles/838/6/page_6_benchmarks_doom_3/index.html

Blaire
2005-11-17, 17:35:41
Auf die HardOCP Angaben pfeif ich. Wahrscheinlichh mussten die NV Kärtchen sogar nur bilinear filtern. so schauts @ Computerbase aus: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/21/#abschnitt_doom_3


Du suchst dir immer die Benchmarks heraus die dir am besten schmecken oder? Selbst ist der Mann , teste es selber aus. Ati hat vieleicht höhere Maximalfps , bricht dafür aber extrem ein wenn viele Gegner auftauchen.
Ich beziehe diesen Vergleich nicht von irgendwelchen Seiten, dies sind meine Werte , mit denen ich Doom3 durchgezockt habe bzw.konnte.

PS: Bei Computerbase ist doch auch die 6800 Ultra vorne 41 vs. 37 fps X800XT. Das ist doch genau das was ich sage. :confused:

Gast
2005-11-17, 17:36:21
Wählt man übers CP AA/AF schaltet sich die Mipfilteroptimierung auch dazu.Diesen Blödsinn les ich von dir jetzt schon zum x-ten Mal. Wie kommst du eigentlich darauf ? Bei mir passiert das nämlich definitiv nicht, weder mit einer 7800GTX, noch mit einer 6600GT. Bei welchem Treiber soll das denn so sein ? Mir ist keiner bekannt.

Gast
2005-11-17, 17:37:21
Die DoomIII Engine wird eingstampft, ID setzt in Zukunft auf die Unreal III Engine. Wo hast du denn den Kram her ? Das wäre mir neu...

Spasstiger
2005-11-17, 17:42:46
Wo hast du denn den Kram her ? Das wäre mir neu...

Da wollte nur einer spammen. ID Software entwickelt atm die Doom-3-Engine weiter mit der Xbox 360 als primäre Entwicklungsplattform. Das nächste große Projekt direkt von ID Software wird ein Rollenspiel sein (noch keine Details bekannt). Außerdem kommen ja auch noch Quakewars und das nächste Wolfenstein (allerdings nicht direkt von ID Software).

Mr. Lolman
2005-11-17, 17:47:56
Du suchst dir immer die Benchmarks heraus die dir am besten schmecken oder? Selbst ist der Mann , teste es selber aus. Ati hat vieleicht höhere Maximalfps , bricht dafür aber extrem ein wenn viele Gegner auftauchen.
Ich beziehe diesen Vergleich nicht von irgendwelchen Seiten, dies sind meine Werte , mit denen ich Doom3 durchgezockt habe bzw.konnte.

Computerbase sind (afaik) leider die Einzigen die mit HQ benchen. Und deine Werte zweifel ich auch nicht an. Ich gebe nur zu bedenken, dass Ati ziemlich lang an Doom herumoptimiert hat, und deswegen zu dem Zeitpunkt wo dus getestet hast, u.U. die Performance tatsächlich noch schwächer war.

Mr. Lolman
2005-11-17, 17:50:14
Diesen Blödsinn les ich von dir jetzt schon zum x-ten Mal. Wie kommst du eigentlich darauf ? Bei mir passiert das nämlich definitiv nicht, weder mit einer 7800GTX, noch mit einer 6600GT. Bei welchem Treiber soll das denn so sein ? Mir ist keiner bekannt.

Das ist schon seit Ewigkeiten so. Probiers aus. Klick auf "Restore", dann sind die defaulteinstellungen aktiv (Q+Opt1,3). Aktivierst du jetzt bspw. 4xAA/8xAF und schaust wieder auf die Optimerungen, wirst du merken... ...oh Wunder... ...die 2. Optimierung ist plötzlich auch aktiv.

Gast
2005-11-17, 18:04:29
So, und ihr glaub ernsthaft, dass ihr antworten von Ati bekommt?

Schlechtes Kühlerdesign, schlecht OpenGL Leistung...darauf werden sie euch bestimmt antworten! Werden wohl kaum sagen weil unsere Karten btw Treiber das nicht drauf haben :)

Was hat ATI dem Quad GPU entgegenzusetzen: Das weiß noch niemand also werden sie es euch höchstwarscheinlich auch nicht sagen...

auch wenns hart klingt...ist halt so!

Gast
2005-11-17, 18:33:55
Das ist schon seit Ewigkeiten so. Probiers aus. Klick auf "Restore", dann sind die defaulteinstellungen aktiv (Q+Opt1,3). Aktivierst du jetzt bspw. 4xAA/8xAF und schaust wieder auf die Optimerungen, wirst du merken... ...oh Wunder... ...die 2. Optimierung ist plötzlich auch aktiv.Hmm, ok. Imho sollten sie sowieso alle in HQ und bei ATI AI:off benchen oder zumindest AI:low bis ATI es hinkriegt sinnvolle Optimierungen von bösen Filteroptimierungen zu trennen.

Gast
2005-11-17, 20:20:24
Hmm, ok. Imho sollten sie sowieso alle in HQ und bei ATI AI:off benchen oder zumindest AI:low bis ATI es hinkriegt sinnvolle Optimierungen von bösen Filteroptimierungen zu trennen.
Hmm, ok. Das also zum Thema "Blödsinn" ;) Ich kenne keinen einzigen Test wo mit AI_high (nur) getestet wurde. Es läuft also alles ok diesbezüglich. Leider testen alle Deppen NV mit "Q". Und das ist bitte schlechter als AI_low. Oder ist das auch "Blödsinn"?

@Blaire
Du suchst dir immer die Benchmarks heraus die dir am besten schmecken oder?
Wogegen Du was tust? :crazy:

Gast
2005-11-17, 20:24:01
Leider testen alle Deppen NV mit "Q". Und das ist bitte schlechter als AI_low.Ja, Q mit Opts ist schlechter als AI:Low. Aber es kann auch nicht das beste sein HQ gg. AI:Standard zu benchen, wie computerbase es macht und lolman es fordert.

Mr. Lolman
2005-11-17, 20:31:04
Ja, Q mit Opts ist schlechter als AI:Low. Aber es kann auch nicht das beste sein HQ gg. AI:Standard zu benchen, wie computerbase es macht und lolman es fordert.

Dazu hat Raff einen neuen BQ Vergleich in Planung. Mal sehen, was dabei rauskommt.

aths
2005-11-18, 08:03:44
Ja, "konfigurierbar" hätt besser gepasst. Mich interessiert, wie flexibel andere Speichercontroller sind. Beim R520 scheint es ja erheblich von dessen Konfiguration abzuhängen, was an Leistung rumkommt. Setzt man voraus, dass auch NV-Karten seit längerer Zeit einen flexibel parametrisierbaren Speichercontroller haben, könnte das einige Benchmark-Spitzen erklären.


Das glaub ich auch. Soviel fps wie in dem Spiel, hat man bisher wohl in keinem anderen geschunden. (btw. die "nicht wirklich" floskel kann ich mir einfach nicht abgewöhnen, sry :))Die deutsche Entsprechung für "not really" ist "eigentlich nicht". Probier es aus, "eigentlich nicht" anstelle von "nicht wirklich" klingt gut, und trifft es gut.

Treiberdefault ist Q + Tri- und Sampleopt. Wählt man übers CP AA/AF schaltet sich die Mipfilteroptimierung auch dazu. Da OpenGL keine Texturstages kennt, wird bei aktiver Mipfilteroptimierung alles bilinear gefiltert.

(Man erkennt sogar bei einer vorgerenderten Serious Sam 2 Zwischensequenz so ein biband X-D)OpenGL kennt durchaus Stages. Wählt man AF (AA hat damit wohl nichts zu tun) via CP, entscheidet er – ähnlich es ATI auch tut oder in der Vergangenheit tat, da bin ich nicht auf dem neuesten Stand – eigenmächtig weitere "Optimierungen" hinzuzunehmen, ja. Dass dann alles bilinear gefiltert sei, fällt mir trotzdem schwer, zu glauben. Das wäre eine Dreistigkeit allererste Kajüte.

Mr. Lolman
2005-11-18, 10:13:44
Mich interessiert, wie flexibel andere Speichercontroller sind. Beim R520 scheint es ja erheblich von dessen Konfiguration abzuhängen, was an Leistung rumkommt. Setzt man voraus, dass auch NV-Karten seit längerer Zeit einen flexibel parametrisierbaren Speichercontroller haben, könnte das einige Benchmark-Spitzen erklären.

Allerdings.


OpenGL kennt durchaus Stages. Wählt man AF (AA hat damit wohl nichts zu tun) via CP, entscheidet er – ähnlich es ATI auch tut oder in der Vergangenheit tat, da bin ich nicht auf dem neuesten Stand – eigenmächtig weitere "Optimierungen" hinzuzunehmen, ja. Dass dann alles bilinear gefiltert sei, fällt mir trotzdem schwer, zu glauben. Das wäre eine Dreistigkeit allererste Kajüte.

Serious Sam 1/SE/2, MoHAA, CoD, Doom³ und Quake³ zeigen alle das selbe Phänomen -> biAF bei Q+Opts...

Gast
2005-11-18, 10:29:19
Du suchst dir immer die Benchmarks heraus die dir am besten schmecken oder? Selbst ist der Mann , teste es selber aus. Ati hat vieleicht höhere Maximalfps , bricht dafür aber extrem ein wenn viele Gegner auftauchen.


Und Du erzählst hier auch einen Quatsch nach dem anderen. Von wegen die ATi's brechen mehr ein. Das hat Dir deine Phantasie gesagt, die Realität sieht gänzlich anders aus. Zudem ist es bezeichnend, dass Du D3 als Beispiel nehmen musst. Pickst also genauso Rosinen heraus.

Warum postet Du als NV User überhaupt hier? Mehr als Provokationen und Halbwahrheiten kriegst Du ja hier leider nicht zustande. Also lass das künftig bitte sein.


Meine Fragen @ ATI:

- Warum wird AGP mit der A1800 Serie so vernachlässigt?
- Wann wird das CCC auf Net 2.0 portiert?

Sorry, sollte es diese Fragen schon geben, habe mir den Flamewar der letzten 2 Seiten nicht antun wollen.

Gast
2005-11-18, 15:52:30
Meine Fragen @ ATI:

- Warum wird AGP mit der A1800 Serie so vernachlässigt?Weil PCIe in den Markt gedrückt werden muss. Oder willst du auch in zwei Jahren noch mit dem alten PCI-Bus Vorlieb nehmen ? ;)

Matrix24
2005-11-18, 16:03:42
Weil PCIe in den Markt gedrückt werden muss. Oder willst du auch in zwei Jahren noch mit dem alten PCI-Bus Vorlieb nehmen ? ;)

Ich wüsste keinen Grund warum ich z.B. meine Audigy2 für PCI ausmustern sollte. Nur weil es jetzt PCIe gibt? Außerdem gibt es doch jetzt schon viele Komponenten Mainboards, die nicht an den PCI-Bus angekoppelt sind.

mapel110
2005-11-18, 16:21:08
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=260892
AGP <-> PCIe Diskussion gibts u.a. dort!

Gast
2005-11-18, 16:40:23
Ok, mapel, da kann ich zwar nicht mitschreiben, aber ich könnte mich ja auch einfach mal registrieren. ;)

Eine Sache interessiert mich aber noch:
Außerdem gibt es doch jetzt schon viele Komponenten Mainboards, die nicht an den PCI-Bus angekoppelt sind.Mir ist kein Nforce4-Mainboard bekannt, dass mehr als 4 S-ATA-Ports hat, wo die zusätzlichen Ports nicht über PCI angebunden sind. Dir etwa ?

Matrix24
2005-11-18, 18:02:43
Ok, mapel, da kann ich zwar nicht mitschreiben, aber ich könnte mich ja auch einfach mal registrieren. ;)

Eine Sache interessiert mich aber noch:
Mir ist kein Nforce4-Mainboard bekannt, dass mehr als 4 S-ATA-Ports hat, wo die zusätzlichen Ports nicht über PCI angebunden sind. Dir etwa ?

Also 8 Anschlüsse (primary/slave) für Festplatten müssten für Normaluser eigentlich reichen. Wenn Du Raid professionell betreiben willst, dann rate ich Dir dann doch eher zu SCSI.

Gast
2005-11-18, 18:12:54
Mit 8 S-ATA-Ports würde ich mich ja zufriedengeben, wenn sie denn schnell angebunden wären. Leider sind bei allen mir bekannten Nforce4-Boards nur 4 Stück nativ angebunden, der Rest über den grottigen PCI.

Ich brauche halt viel Festplattenkapazität und SCSI-Controller + Festplatten sind ein wenig teuer und gute auch nur für PCI-X zu haben, wofür ich wieder ein entsprechendes Board bräuchte.

Gast
2005-11-18, 18:15:36
Nachtrag: Es gibt kein Master/Slave mehr bei S-ATA. An vier Ports kann man auch nur vier HDs anschließen und das reicht bei weitem nicht.

r3ptil3
2005-11-18, 18:19:31
Soll heißen, dass Microsoft Geld zahlt, damit die Performance unter Linux schlechter ist.

Das weis ich nicht, nur hat Microsoft mit ATI und auch mit den meisten anderen Grafikkartenentwickler sicherlich ein Abkommen oder was ähnliches das "viel" in die Entwicklung von Windows Treiber hinein gesteckt wird.
Linux hat da nicht so viele Möglichkeiten wie Microsoft.

Oder wieso sind Schon von ATI und Nvidia Vista Treiber draussen?

Mumins
2005-11-18, 18:19:47
Mit 8 S-ATA-Ports würde ich mich ja zufriedengeben, wenn sie denn schnell angebunden wären. Leider sind bei allen mir bekannten Nforce4-Boards nur 4 Stück nativ angebunden, der Rest über den grottigen PCI.

Ich brauche halt viel Festplattenkapazität und SCSI-Controller + Festplatten sind ein wenig teuer und gute auch nur für PCI-X zu haben, wofür ich wieder ein entsprechendes Board bräuchte.

4 400er Platten dürften doch wohl reichen!

Matrix24
2005-11-18, 18:26:15
Nachtrag: Es gibt kein Master/Slave mehr bei S-ATA. An vier Ports kann man auch nur vier HDs anschließen und das reicht bei weitem nicht.

Stimmt, wie bin ich denn jetzt darauf gekommen? Naja egal, neue Boards müssten doch dann aber entsprechend viele Anschlüsse bereitstellen. Dann muß man vielleicht von seinen "gewohnten" Herstellern (Abit, Asus, MSI etc...) Abstand nehmen und auf andere Hersteller zurückgreifen. Aber deswegen PCI gleich verdammen? Wie gesagt, es gibt viele Leute die noch PCI/AGP-Karten haben, die ihre Karten noch weiter verwenden wollen. Vielleicht sollte Du einen neuen Thread dafür aufmachen, daß passt hier jetzt wirklich nicht rein.

Blaire
2005-11-18, 19:22:36
Und Du erzählst hier auch einen Quatsch nach dem anderen. Von wegen die ATi's brechen mehr ein. Das hat Dir deine Phantasie gesagt, die Realität sieht gänzlich anders aus. Zudem ist es bezeichnend, dass Du D3 als Beispiel nehmen musst. Pickst also genauso Rosinen heraus.

Meld dich erstmal an, du Angsthase. Ansonsten verdreh nicht wieder die Tatsachen ich ging lediglich auf Mr.Lolmans Behauptung ein und nichts weiter.

Warum postet Du als NV User überhaupt hier? Mehr als Provokationen und Halbwahrheiten kriegst Du ja hier leider nicht zustande. Also lass das künftig bitte sein.

:D Selten sowas dämliches gelesen.

Gast
2005-11-19, 13:45:45
Ja, Q mit Opts ist schlechter als AI:Low. Aber es kann auch nicht das beste sein HQ gg. AI:Standard zu benchen, wie computerbase es macht und lolman es fordert.
Sorry, aber eben nur bei diesen Einstellungen ist die Bildquali fast gleich. Imho sollte dann eher NV und nicht ATI manchen Automatismus beim Verstellen der Quali besser abstimmen.

iam.cool
2005-11-20, 02:57:08
Ok Fragen die ich schon immer mal stellen wolte:


- Warum neigen die Catalysts ab 5.8 zu Texturflimmern?

- Warum openGL Performance so schlecht?

- Warum keine brauchbaren Linux Treiber?

- Warum AAA nicht schon beim R300 per Treiber verfügbar gewesen?

aths
2005-11-20, 14:18:50
Ok Fragen die ich schon immer mal stellen wolte:


- Warum neigen die Catalysts ab 5.8 zu Texturflimmern?Könnte hier bitte mal jemand Screenshot-Vergleiche machen und online stellen? Von dem Flimmer-Problem habe ich schon öfters gehört, aber noch nichts gesehen.

- Warum openGL Performance so schlecht?Ist sie doch gar nicht.

- Warum keine brauchbaren Linux Treiber?Weil Linux in ATIs Kundenkreis nicht die wichtigste Rolle spielt, und ATI als profitorientiertes Unternehmen zunächst mal an die Windows-Plattform denkt.

- Warum AAA nicht schon beim R300 per Treiber verfügbar gewesen?Weil ATI nicht auf die Idee kommen ist, dass man auch AAA realisieren könnte. Multisampling wurde ja extra eingeführt, um Supersampling zu vermeiden – leider setzten viele Entwickler weiterhin auf Alphatesting und scherten sich nicht um Antialiasing.

DR.ZEISSLER
2005-11-21, 21:47:56
Gibt es denn hier mal eine Zusammenfassung, welche 10 Fragen jetzt im "Rennen" sind, oder wird das hier nur sinnloses Geschwafel über Effektspielereien die eh keiner im tatsächlichen Spielbetrieb mehr wahrnehmen kann.

Doc

DR.ZEISSLER
2005-11-21, 21:53:23
Interessant wäre zum Beispiel:

- Befasst sich ATI mit Raytracing Technologie, bzw. sieht ATI darin eine Zukunft im 3D Bereich? (bspw. SaaCor Projekts (von Nvidia übrigens mit einem Preis bedacht)

Visionen müssen her, technologisch hat sich doch ausser hochtakten und wechslen zu kleineren Leiterbahen seit Jahren nix getan, oder ?

Irgendwie habe ich das Gefühl, daß sich der ganze Grakamarkt in einer Sackgasse befindet (UND DARAN IST NICHT ZULETZT M$ MIT DX SCHULD). Mit jeder neuen Karte wird mehr Energie verbrannt. Effektiv steigt nur die Verlustleistung, sonst nix.

Ich glaube es wird Zeit mal ganz andere Wege zu gehen... vielleicht kommt ja mal was von den "kleinen" xgi, s3 etc...

Es wäre nicht das erste mal, dass der Grakamarkt einen völligen Wandel vollzieht...(3dfx sonst läuft hier nix; mal beispielsweise angeführt)

Doc

Coda
2005-11-21, 21:55:31
Visionen müssen her, technologisch hat sich doch ausser hochtakten und wechslen zu kleineren Leiterbahen seit Jahren nix getan.Da hast du aber ganz schön was verschlafen. Guten Morgen!

Zwischen GeForce 1 und GeForce 6 liegen von der Programmierbarkeit Welten. (Genauso zwischen Radeon 7500 und Radeon X1800XT)

DR.ZEISSLER
2005-11-21, 21:58:22
Alles kalter Kaffee...technologisch wurde nur dx erweitert und die Chips wurden danach optimiert. Sonst gar nix!

Coda
2005-11-21, 21:58:48
Du hast echt keine Ahnung von was du redest, weißt du das eigentlich?

DR.ZEISSLER
2005-11-21, 21:59:51
Jo! Mich als Aussenstehender beeindrucken halt solche Dinge wie der SaarCor, oder bspw. auch das Voxel Verfahren. Was die Masse macht ist vielleicht geschäftstüchtiger, aber nicht unbedingt besser. (siehe vhs-video2000)

Coda
2005-11-21, 22:00:11
Bitte informier dich erstmal bevor du solche haltlosen Behauptungen in die Welt setzt. Zwischen einen Rasterizer ala Voodoo 1 ohne Triangle Setup und einem vollprogrammierbarer GPU mit VS3.0 und PS3.0 liegt so eine riesige Entwicklung, dass die Aussage geradezu schon komisch ist.

Und nein, da wurde nicht nur die Füllrate hochgesetzt. Die Voodoo 1 konnte nichtmal Dot3-Operationen ausführen, heute kannst du beliebige Programme durch die Pipeline jagen.

DR.ZEISSLER
2005-11-21, 22:04:47
Mag sein, dass Du der Spezi hier im Bezug auf 3D bist und anscheinend kennst Du dich auch aus, mich hingegen beeindruckt ein q3arena raytraced auf nem SaarCor mehr als ne olle 7800gtwasweisich oder x1800schlag mich tot.

Nix für ungut.

Doc

StefanV
2005-11-21, 22:05:00
Alles kalter Kaffee...technologisch wurde nur dx erweitert und die Chips wurden danach optimiert. Sonst gar nix!
:ulol: au mann, hör auf, ich kann nicht mehr X-D

Und jetzt willst du uns sicher auch noch weißmachen, das M$ die ganzen Software Unternehmungen unter Druck gesetzt haben, damit die D3D nutzen und niemals nie könnte D3D die bessere Wahl gewesen sein :rolleyes:

Coda
2005-11-21, 22:05:55
Mag sein, dass Du der Spezi hier im Bezug auf 3D bist und anscheinend kennst Du dich auch aus, mich hingegen beeindruckt ein q3arena raytraced auf nem SaarCor mehr als ne olle 7800gtwasweisich oder x1800schlag mich tot.Jo und wenn wir heute Raytracing Chips hätten würdest du das gleiche von Rasterizern sagen. Hör mir doch auf...

Raytracing ist sicher interessant, hat aber auch ziemlich Nachteile bei dynamischer Geometrie, die sich mit Rasterizern gar nicht stellen.

DR.ZEISSLER
2005-11-21, 22:07:15
Vielleicht kann man das irgendwie kombinieren ?

DR.ZEISSLER
2005-11-21, 22:10:13
Ok, genug "diskutiert"

Gibt es denn sowas wie einen Moderator hier im Thread, der mal aktuell zusammenstellt, welches die 10 Fragen sein sollen ?

Danke
3DFXDoc

Die gelbe Eule
2005-11-21, 22:33:18
Ist passiert, Ergebnis siehe Eingangspost.

Mr. Lolman
2005-11-21, 23:11:50
Und meine Frage erschien dir so blödsinnnig?

Coda
2005-11-21, 23:12:42
Da sind genügend blödsinnige Fragen dabei jetzt, macht dir nix draus.

Die gelbe Eule
2005-11-21, 23:15:55
Und meine Frage erschien dir so blödsinnnig?

Sry kann sein das ich jemaden überflogen habe, einschließlich Dich, was nicht beabsichtigt war. Ist schon schwer eine versteckte Frage zu finden, wenn man gleichzeitig andere beantwortet, was nicht Sinn des Threads ist.

Kannst sie gerne nochmal bringen, Platz ist noch genug.

Das sich aber sehr viele mehr auf Diskussionen, als auf simple Fragen eingelassen haben, ist mir etwas suspekt.

Mr. Lolman
2005-11-21, 23:25:42
Sry kann sein das ich jemaden überflogen habe, einschließlich Dich, was nicht beabsichtigt war. Ist schon schwer eine versteckte Frage zu finden, wenn man gleichzeitig andere beantwortet, was nicht Sinn des Threads ist.

Lies dir den Thread lieber nochmal durch - vonwegen versteckter Frage undso. Ich hätt sie dir ja verlinkt, aber so nicht. :P

Die gelbe Eule
2005-11-21, 23:27:19
Sry, aber ich suche nicht wieder 7 Seiten durch. Wenn es zu schwer ist Deine Frage hierhin zu schreiben, dann weiß ich auch net.

Mr. Lolman
2005-11-21, 23:28:59
Sry, aber ich suche nicht wieder 7 Seiten durch. Wenn es zu schwer ist Deine Frage hierhin zu schreiben, dann weiß ich auch net.

Na macht ja nix. War eh nicht so wichtig.

Gast
2005-11-21, 23:48:02
- Warum wird Crossfire nicht für Intel-Boards freigeschaltet, die über zwei PEG-Plätze verfügen?

- Seit etlichen Treibern wird davon gesprochen, das Control Center weniger träge reagieren zu lassen - wann passiert das endlich?

- Wie lange wird es noch das Control Panel alternativ zum CCC geben?

- Warum hat der Developer-Support zum Launch der X1000 so kläglich versagt und kein einziges Spiel lauffähig mit FSAA und Float-HDR hinbekommen? Der Patch für Far Cry ist immer noch nicht öffentlich, SAM2 lief Anfangs überhaupt nicht mit HDR usw..

- War die mutige Entscheidung, den Technologieträger RV530 mit 4 triple-pumped Shadereinheiten, aber nur 4 Textureinheiten so früh in eine Welt mit vielen texturlastigen Spielen zu schicken nicht etwas zu gewagt und wäre ein 8x1-Chip nicht vielleicht konkurrenzfähiger gewesen?

- Wie kommt es, dass sowohl die Performance in Doom3/Quake4 erst nachträglich durch einen Patch gefixt werden musste als auch dass so ein merkwürdiger Fehler mit der AI-Erkennung von FEAR passierte? Zeit genug hätte da sein sollen, bei der Verspätung des R520.

DR.ZEISSLER
2005-12-04, 21:32:30
Wurden die Fragen schon an ATI weitergeleitet ?

Doc

r3ptil3
2005-12-04, 21:35:11
Wurden die Fragen schon an ATI weitergeleitet ?

Doc

Lol, der war gut!