PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum ATI low tech ist ...


Seiten : [1] 2 3 4

Plasmafusion
2004-10-20, 20:15:17
Als ATI X800 Pro Besitzer muß ich mal was loswerden.
nVidia bezeichnet sich ja als "High-Tech" Führer, und teilweise stimmt das sogar.

A) Bei nVidia gibt's ein Feature wo der 2D Desktop in "besseren" Farben dargestellt wird. Alles wirket etwas bunter, die Farben kräftiger.
Bei ATI ist alles etwas blass ...

B) Shader 3.0, auch wenns z.Zt. nur was für die 3D-Coder ist, so ist es nunmal ein technischer Fortschritt in die Zukunft.

C) SLI. Was hat ATI zu bieten ? Nix.
Muß dazu sagen, daß ich auf SLI aufrüsten werde, sobald es entsprechende Xeon-Mainboards frei am Markt geben wird.

D) Linux-Treiber, auch in 64-Bit. Was ATI mit dem Beta 2 Treiber für 64-bit AMD64 abgeliefert hat ist ja fast peinlich. Linux-Support ist bei nVidia vorbildlich.


ATI steht sehr gut da wenn es um reine GPU-Leistung geht.
Aber das "Drumherum" ist doch sehr vernachlässigt worden.

Wenn man die Firmengeschichte von ATI kennt, dann haben die nach einer technischen Glanzleistung immer die nächste Zeit im Märchenschlaf verbracht.

Edit: Dies ist weder eine Trollerei noch Flameversuch sondern nur meine seit langem innerlich aufgestaute Meinung.

mapel110
2004-10-20, 20:21:19
Als ATI X800 Pro Besitzer muß ich mal was loswerden.
nVidia bezeichnet sich ja als "High-Tech" Führer, und teilweise stimmt das sogar.

A) Bei nVidia gibt's ein Feature wo der 2D Desktop in "besseren" Farben dargestellt wird. Alles wirket etwas bunter, die Farben kräftiger.
Bei ATI ist alles etwas blass ...

B) Shader 3.0, auch wenns z.Zt. nur was für die 3D-Coder ist, so ist es nunmal ein technischer Fortschritt in die Zukunft.

C) SLI. Was hat ATI zu bieten ? Nix.

D) Linux-Treiber, auch in 64-Bit. Was ATI mit dem Beta 2 Treiber für 64-bit AMD64 abgeliefert hat ist ja fast peinlich. Linux-Support ist bei nVidia vorbildlich.


ATI steht sehr gut da wenn es um reine GPU-Leistung geht.
Aber das "Drumherum" ist doch sehr vernachlässigt worden.

a)Digital Vibrance hab ich off, für mich sieht das eher nach Farbverfälschung aus, als nach Bildverbesserung.

b)Jo, nett zu haben und obendrein nicht wirklich viel schlechtere Performance(bei ps.20 und darunter) als die Konkurrenz.

c)SLI ist wirklich nur was für die absoluten Nerds.

d)eindeutig Punkt für nvidia, jo.

Akira20
2004-10-20, 20:25:11
c)SLI ist wirklich nur was für die absoluten Nerds.

LOL, für die Nerds...der war gut!
SLI rul0rt.
Da sieht man, dass bei Nvidia noch 3Dfx-Ingenieure arbeiten.
Voodoo 2 SLI ist einfach nur kult.

MfG
Akira20

Black-Scorpion
2004-10-20, 20:26:31
zu B) Hast du dich auch beschwert das nVidia bis zur GF4 keine PS1.4 konnte?

zu C) Was hatte nVidia als ATI die Rage Fury Maxx hatte?

Sorry, aber soll der Thread?

Wenn ATI so schlecht ist, frage ich mich warum du dann eine gekauft hast.

LovesuckZ
2004-10-20, 20:29:48
"Linux Treiber"?
Hach, der offizielle hat ein Problem mit den 2.6.8 Kernel. Und nachdem ich die Xconf editiert hatte, laedt meine grafische Oberflaeche nicht mehr.
Ne, ich sehe hier keinen besonderen Linuxsupport.

mapel110
2004-10-20, 20:29:52
LOL, für die Nerds...der war gut!
SLI rul0rt.
Da sieht man, dass bei Nvidia noch 3Dfx-Ingenieure arbeiten.
Voodoo 2 SLI ist einfach nur kult.

MfG
Akira20

1. Du hast bislang NUR Leistungsdaten, die direkt von nvidia stammen. Also keine endgültige Aussage über die Performance möglich
2. sehr teuer --> eben für "ComputerNerds" -> Nischenprodukt, da seh ich wesentlich mehr Bedeutung in den Linuxtreibern, die max ca 3 % der User betreffen.

btw ist SLI auch unter Linux supportet?

Gast
2004-10-20, 20:30:58
Zu A) Wenn Du das brauchst, dann hast Du eindeutig die falsche Grafikkarte gekauft!

zu B) Bis Shader 3.0 wirklich auf breiter Ebene in Spielen genutzt wird, hat Ati das auch!

zu C) Momentan nur Schlagwort, das mit Techdemos und Benchmarks zu vergleichen ist. Oder kann man das sofort auf der Stelle morgen im Laden kaufen! Neeeee...

zu D) Linux - das muss ich mich enthalten, da dieses Betriebssystem nieeeee bei mir Anwendung finden wird.

Aber dass es eben Unterschiede gibt, beweisst doch dass Wettbewerb herrscht und jede der beiden Firmen -ATi und Nvidia- ihre Stärken und Schwächen im Produktportfolio haben. Das ist gut so. Konkurrenz belebt das Geschäft und offensichtlich hat Dich Ati mehr überzeugt, sonst hättest net ne Ati, oder?

mbee
2004-10-20, 20:30:59
Billiger Trollversuch IMHO.
Wie "High-Tech" NVIDIA ist, sieht man schön am Network Manager der NFORCE-Treiber, der sich seit zwei Versionen nicht auf einem deutschsprachigen XP installieren läßt.
Was den Linux-Support angeht, muss ich allerdings recht geben, da könnte sich ATI ne Scheibe abschneiden,
Digital Vibrance fand ich schon immer Schrott (hatte einige NVDIAs) von deren miserablem TV-Out mal ganz abgesehen.
Es gibt für beide Hersteller Pro- und Contra-Punkte.

LovesuckZ
2004-10-20, 20:33:56
zu B) Bis Shader 3.0 wirklich auf breiter Ebene in Spielen genutzt wird, hat Ati das auch!


Ohne dem NV40 kein SM3.0 und damit kein Sm3.0 bei ATi.
Welch Ironie, nicht?

Birdman
2004-10-20, 20:34:19
zu C) Was hatte nVidia als ATI die Rage Fury Maxx hatte?

Eine in den allermeisten Fällen, schnellere bis deutlich schnellere Singlechip GeForce256, welche zudem mit allen Betriebssystem vollumfänglich funktionierte ;)

Ansonsten aber: lol @ Threadstarter ... das könnte schon fast als Flameversuch gewertet werden.

Ich vermisse eher noch andere Sachen bei Ati, was es bei Nvidia gibt. Z.b. das LineDoubler Feature, oder zumindet ein vernünftiges FSAA für alte Spiele.
Gerade letzthin wieder Monkey4 hevorgekramt - mei war das eine Pein auf der x800.

Exxtreme
2004-10-20, 20:35:00
LS,

Kernel 2.6.9 ist draussen. Vielleicht laufen damit die Nvidia-Treiber. Die Treiber von ATi laufen damit garantiert. =)

mapel110
2004-10-20, 20:36:40
So, für weiteres Spamming gibts Punkte, besonders her Payne darf sich da angesprochen fühlen.

/edit
selbes gilt für Labberlippe!

Und wer es nicht drauf hat, diese Thematik halbwegs nüchtern zu betrachten, der möge doch bitte einen Bogen um diesen Thread machen. Danke.

ironMonkey
2004-10-20, 20:40:23
Als ATI X800 Pro Besitzer muß ich mal was loswerden.
nVidia bezeichnet sich ja als "High-Tech" Führer, und teilweise stimmt das sogar.

A) Bei nVidia gibt's ein Feature wo der 2D Desktop in "besseren" Farben dargestellt wird. Alles wirket etwas bunter, die Farben kräftiger.
Bei ATI ist alles etwas blass ...

B) Shader 3.0, auch wenns z.Zt. nur was für die 3D-Coder ist, so ist es nunmal ein technischer Fortschritt in die Zukunft.

C) SLI. Was hat ATI zu bieten ? Nix.

D) Linux-Treiber, auch in 64-Bit. Was ATI mit dem Beta 2 Treiber für 64-bit AMD64 abgeliefert hat ist ja fast peinlich. Linux-Support ist bei nVidia vorbildlich.


ATI steht sehr gut da wenn es um reine GPU-Leistung geht.
Aber das "Drumherum" ist doch sehr vernachlässigt worden.


A: Einstellungen vom Moni

B: Stimmt, ist aber für Zocker die JETZT Spielen wollen nicht wirklich wichtig(zumal es eh auf beiden seiten Lieferprobleme gibt)

C: Stimmt auch, aber das ist nur was für absolute hardcore Zocker, fraglich ob das gut aufgenommen wird, da hoher Verbrauch und sehr hohe Anschaffungskosten


D. Stimmt auch, aber scheint keinen zu Interesieren, da ATI Geld ohne ende macht.


Das letzte ist auch eher falsch, ATI hat zwar mit der X800XT/ XT PE sehr schnelle Karten, kann sich aber nicht wirklich von NV absetzten, aber sehr beachtlich ist die Leistung wenn man bedekt das es eine Notlösung ist.

Anmerken sollte man noch das die High end Karten bis auf die X800XT PCI-E kaum erhältlich sind, schon blöd jetzt hat NV eine karte mit der sie wieder vor ATI sind, aber können nicht genug liefern.


E: für dich ist eine NV Karte sicher besser, da sie eher das kann was du willst


Gruß

Black-Scorpion
2004-10-20, 20:50:51
Eine in den allermeisten Fällen, schnellere bis deutlich schnellere Singlechip GeForce256, welche zudem mit allen Betriebssystem vollumfänglich funktionierte ;)
Es ging ja nicht um die Geschwindigkeit.
Und ob SLI so Problemlos funktioniert weis ja auch noch keiner.
Afaik stammt bis jetzt alles von nVidia.

MikBach
2004-10-20, 20:51:46
Ohne dem NV40 kein SM3.0 und damit kein Sm3.0 bei ATi.
Welch Ironie, nicht?
Lol?
Da SM3.0 schon laaange in DX9 spezifiziert ist, würde ATI das auch bringen, auch wenn es Nvidia gar nicht geben würde.

LovesuckZ
2004-10-20, 20:53:39
Lol?
Da SM3.0 schon laaange in DX9 spezifiziert ist, würde ATI das auch bringen, auch wenn es Nvidia gar nicht geben würde.

Warum hat es ATi dann nicht?

Gast
2004-10-20, 20:53:48
Als ATI X800 Pro Besitzer muß ich mal was loswerden.
nVidia bezeichnet sich ja als "High-Tech" Führer, und teilweise stimmt das sogar.

A) Bei nVidia gibt's ein Feature wo der 2D Desktop in "besseren" Farben dargestellt wird. Alles wirket etwas bunter, die Farben kräftiger.
Bei ATI ist alles etwas blass ...

B) Shader 3.0, auch wenns z.Zt. nur was für die 3D-Coder ist, so ist es nunmal ein technischer Fortschritt in die Zukunft.

C) SLI. Was hat ATI zu bieten ? Nix.
Muß dazu sagen, daß ich auf SLI aufrüsten werde, sobald es entsprechende Xeon-Mainboards frei am Markt geben wird.

D) Linux-Treiber, auch in 64-Bit. Was ATI mit dem Beta 2 Treiber für 64-bit AMD64 abgeliefert hat ist ja fast peinlich. Linux-Support ist bei nVidia vorbildlich.


ATI steht sehr gut da wenn es um reine GPU-Leistung geht.
Aber das "Drumherum" ist doch sehr vernachlässigt worden.

Wenn man die Firmengeschichte von ATI kennt, dann haben die nach einer technischen Glanzleistung immer die nächste Zeit im Märchenschlaf verbracht.


Ja da mußte ja kommen; lol

Entweder bekommst du die REALITÄT nicht mit oder du bist nich ON hier, ATI hat zwar da und hier seine bekannten Probleme und mit diesem Thread erzaehlst du nix NEUES!

Was du aber vergißt ist der DEUTLICHE Vorsprung bei den Marktanteilen.
zB. Notebook:70% ATI nv 15%, Intel 15% Grafik
zB. PCI Express NATIVE
zB. 1. mit NEUEM Grafikinterface basierend auf NET
zB. In allen GAmes ausser Doom3 deutlich schneller als Nv
zB. Leise Karten
zB. WENIGER Stromverbrauch bei ATI

Smile

Labberlippe
2004-10-20, 20:56:29
A) Bei nVidia gibt's ein Feature wo der 2D Desktop in "besseren" Farben dargestellt wird. Alles wirket etwas bunter, die Farben kräftiger.
Bei ATI ist alles etwas blass ...

Gibt es bei ATi Karten auch, nur die Hersteller inkludieren dieses teilweise nicht.
Auserdem kann man unter den Einstellungen alles bei ATi ändern.
Sollte normalerweise kein Problem sein.
Vom 2D Bereich konnte ich weder bei ATi noch nVIDIA gravierende unterschiede stellen.


B) Shader 3.0, auch wenns z.Zt. nur was für die 3D-Coder ist, so ist es nunmal ein technischer Fortschritt in die Zukunft.

Nicht nur Shader 3.0 ist ein Fortschritt, es gibt auch noch andere Bereiche wo ein Fortschritt bei ATi vorhanden ist.
Rage Theater Chip, das kann bis heute nVIDIA noch nicht bieten.
Mit ATi kann jede einzelen Anwendung direkt im Multimonitoring belegen.
Das neue CCC hat mich in diesen Bereich überrascht.


C) SLI. Was hat ATI zu bieten ? Nix.
Muß dazu sagen, daß ich auf SLI aufrüsten werde, sobald es entsprechende Xeon-Mainboards frei am Markt geben wird.

ATi sieht momentan keine veranlassung für SLI Technik, können tun sies, was Sie mit der Rage Fury ja schon bewiesen haben.

Was mich wundert ist, das die nVIDIA Fanboys plötzlich die liebe zu SLI entdecken.
Komischerweise wurde SLI bei 3dfx für veraltet angesehen.


D) Linux-Treiber, auch in 64-Bit. Was ATI mit dem Beta 2 Treiber für 64-bit AMD64 abgeliefert hat ist ja fast peinlich. Linux-Support ist bei nVidia vorbildlich.

Vom Linux Support bei nVIDIA würde ich auch eher ruhig sein, kenne genügend Linux User die sich KDE geschrottet haben.
Die meisten die ich kenne nehmen ATi.
Das sollte aber in meine Augen beim normal Arbeiten Geschmackssache sein.

Allerdings muss ich recht geben, das nVIDIA auf Linux zum zocken besser ist.
yepp.


ATI steht sehr gut da wenn es um reine GPU-Leistung geht.
Aber das "Drumherum" ist doch sehr vernachlässigt worden.
Welches drumherum ???
nVIDIA hat bis heute noch keine vernünftige Karte ala All in Wonder.


Wenn man die Firmengeschichte von ATI kennt, dann haben die nach einer technischen Glanzleistung immer die nächste Zeit im Märchenschlaf verbracht.

Tja, was soll ich sagen, ich betrachte diesen Thread eher als sinnlosen Flameversuch ohne vernünftige Fakten.

Gruss Labberlippe

MikBach
2004-10-20, 20:56:29
Warum hat es ATi dann nicht?
Weil es zur Zeit noch nicht nötig ist.
Ist SM2 schon am Ende? Nein!
Die ATIs bieten mit 2.B eine Shaderlänge, die noch mind. 2 Jahre ausreicht.
Wozu die Eile?

ironMonkey
2004-10-20, 20:56:56
Warum hat es ATi dann nicht?

Das währe wie ein Fiat 500 mit ESP...............



@Mikebach, da währe ich mir nicht so sicher, als NV alleine war wurde sich auch auf die faule haut gelegt.....wie es endete wissen wir ja.

robbitop
2004-10-20, 21:00:02
SM 1.4 war aber auch zu der Zeit sinnlos. Und das aus verschiedenen Gründen.

@mapel
er meint vieleicht nicht digital vibriance. Es gibt im Panel bei NV noch ne Option die Bildschärfe besser zu machen.

Jesus
2004-10-20, 21:00:03
Ich vermisse eher noch andere Sachen bei Ati, was es bei Nvidia gibt. Z.b. das LineDoubler Feature, oder zumindet ein vernünftiges FSAA für alte Spiele.
Gerade letzthin wieder Monkey4 hevorgekramt - mei war das eine Pein auf der x800.

Loliger Thread echt...

aber um mal etwas Senf abzugeben:

bei ATI gibt es zumindest sowas wie Treiber für Spiele nicht. Ich kann mit dem neuesten Treiber immer noch so gut wie alle (alten) Spiele ohne Probleme spielen, und das auch auf älteren Grafikkarten ( tu ich geraden, Radeon 8500 mit Cat 4.10).

Bei NV dagegen gibt es ja fast schon pro Grafikkarte und Spiel einen eigenen passenden Beta Treiber :rolleyes:

Mr. Lolman
2004-10-20, 21:00:10
zB. In allen GAmes ausser Doom3 deutlich schneller als Nv



Hm, Spellforce ist auch auf ner 6800 schneller.

MikBach
2004-10-20, 21:00:39
@Mikebach, da währe ich mir nicht so sicher, als NV alleine war wurde sich auch auf die faule haut gelegt.....wie es endete wissen wir ja.
Korrekt. Es würde halt viel später kommen.
Hab das bisschen überspitzt dargestellt. :)

robbitop
2004-10-20, 21:01:38
Loliger Thread echt...

aber um mal etwas Senf abzugeben:

bei ATI gibt es zumindest sowas wie Treiber für Spiele nicht. Ich kann mit dem neuesten Treiber immer noch so gut wie alle (alten) Spiele ohne Probleme spielen, und das auch auf älteren Grafikkarten ( tu ich geraden, Radeon 8500 mit Cat 4.10).

Bei NV dagegen gibt es ja fast schon pro Grafikkarte und Spiel einen eigenen passenden Beta Treiber :rolleyes:

da hab ich von BlackAngel was Anderes gehört. Er besitzt eine 9700 und hat den 4.10 beta damals runtergeladen. Das Einzige was er besser "spielen" konnte war 3DMark (dank Shaderreplacement??).
Sonst relativ instabil und unzuverlässig. Aber das kann im Final 4.10 natürlich anders sein.

LovesuckZ
2004-10-20, 21:01:47
Weil es zur Zeit noch nicht nötig ist.

Wann ist es noetig?

Ist SM2 schon am Ende? Nein!

SM2.0 lebt dank ATi, aus Sicht eines Programmieres gibt es dank dem SM2.a eine deutlich bessere Alternative.

Die ATIs bieten mit 2.B eine Shaderlänge, die noch mind. 2 Jahre ausreicht.
Wozu die Eile?

Man sollte nicht bitte alles an der Shaderlaenge festmachen. Sm2.a und Sm3.0 bieten gegeneber dem SM2.0 und PS2.b deutlich mehr Moeglichkeiten.

Deswegen bitte an dich: Wann würde ATi das SM3.0 unterstuetzen, wenn es ohne dem NV40 keine Anwendung und damit keine Unterstuetung gaebe?

Labberlippe
2004-10-20, 21:03:40
Loliger Thread echt...

aber um mal etwas Senf abzugeben:

bei ATI gibt es zumindest sowas wie Treiber für Spiele nicht. Ich kann mit dem neuesten Treiber immer noch so gut wie alle (alten) Spiele ohne Probleme spielen, und das auch auf älteren Grafikkarten ( tu ich geraden, Radeon 8500 mit Cat 4.10).

Bei NV dagegen gibt es ja fast schon pro Grafikkarte und Spiel einen eigenen passenden Beta Treiber :rolleyes:

Hi

Stimmt auch nicht, ich war überrascht wie weit der neue Forceware kompatibel ist.
Sogar Turok1 konnte ich ohne Probs zocken.
Genauso wie bei ATi

Also nehmen sich beide rein gar nichts.

Gruss LAbberlippe

Labberlippe
2004-10-20, 21:04:37
da hab ich von BlackAngel was Anderes gehört. Er besitzt eine 9700 und hat den 4.10 beta damals runtergeladen. Das Einzige was er besser "spielen" konnte war 3DMark (dank Shaderreplacement??).
Sonst relativ instabil und unzuverlässig. Aber das kann im Final 4.10 natürlich anders sein.


Hi

Kann ich auch nicht nachvollziehen.
Mein Schwager verwendet den 4.10 und kann alles ohne Prob spielen, sogar die alten Perlen ala Deus EX.

Gruss Labberlippe

MikBach
2004-10-20, 21:04:56
SM 1.4 war aber auch zu der Zeit sinnlos. Und das aus verschiedenen Gründen.

Es gab nie SM1.4, sondern PS1.4 :P
Und ob das sinnlos war, wage ich mal anzuzweifeln.
Warum benutzt UT2004 einen PS1.4 Shader?

Jesus
2004-10-20, 21:05:14
Man sollte nicht bitte alles an der Shaderlaenge festmachen. Sm2.a und Sm3.0 bieten gegeneber dem SM2.0 und PS2.b deutlich mehr Moeglichkeiten.

stimmt, man sieht ja wie sehr SM2.a in den letzten beiden Jahren genutzt wurde und wie stark die Entwickler es gebraucht haben :rolleyes:

Mr. Lolman
2004-10-20, 21:05:29
SM 1.4 war aber auch zu der Zeit sinnlos. Und das aus verschiedenen Gründen.


z.B.?


@mapel
er meint vieleicht nicht digital vibriance. Es gibt im Panel bei NV noch ne Option die Bildschärfe besser zu machen.

...und wenn man damit nur minderwertige Bauteile ausgleichen will?

(Ich hatte in der Letzen Woche mit 5 verschiedenen ATis (vom M1, über Rage bis zu x800 pro) tun. Und die Bildschärfe war nirgends ein Problem, zumindest nirgends ein von der GraKa verursachtes. 17" CRTs die bei 75Hz unscharf werden, bäh..)

Gulu-Gulu
2004-10-20, 21:05:47
Und wer es nicht drauf hat, diese Thematik halbwegs nüchtern zu betrachten, der möge doch bitte einen Bogen um diesen Thread machen. Danke.

Was gibt es hier nüchtern zu betrachten? Der ganze Thread steht unter dem Flamestern. Im besten Fall werden sämtliche Vor und Nachteile beider Firmen aufgelistet. Und? Wie oft noch?

Damit der Beitrag nicht auch wieder gelöscht wird, hier noch schnell meine Cents

1) beide gleich mies

2) braucht zur Zeit kein Mensch (zukunftssicher Hardware kaufen, is klar...)

3) hmm, wohl eher nicht Massentauglich, zu teuer, zu kompliziert

4) ich zock lieber unter Windows

Jesus
2004-10-20, 21:06:27
da hab ich von BlackAngel was Anderes gehört. Er besitzt eine 9700 und hat den 4.10 beta damals runtergeladen. Das Einzige was er besser "spielen" konnte war 3DMark (dank Shaderreplacement??).
Sonst relativ instabil und unzuverlässig. Aber das kann im Final 4.10 natürlich anders sein.

sorry aber stimmt nicht. mit meiner Radeon 9500 bringt der z.b. der 4.11er etwa 5 punkte mehr im 3dmark...

Labberlippe
2004-10-20, 21:06:39
Wann ist es noetig?



SM2.0 lebt dank ATi, aus Sicht eines Programmieres gibt es dank dem SM2.a eine deutlich bessere Alternative.



Man sollte nicht bitte alles an der Shaderlaenge festmachen. Sm2.a und Sm3.0 bieten gegeneber dem SM2.0 und PS2.b deutlich mehr Moeglichkeiten.

Deswegen bitte an dich: Wann würde ATi das SM3.0 unterstuetzen, wenn es ohne dem NV40 keine Anwendung und damit keine Unterstuetung gaebe?

Wann hätte nVIDIA SM 2.0 genutzt ohne ATi.

Das ist halt der Fortschritt, daran festzumachen wer etwas zu erst gehabt hat ist schwachsinn.

Jeder Hersteller hat halt seinen eigenen Weg und seine eigenen Produktzyklen bis die neue Entwicklung am Markt ist.

Gruss Labberlippe

Coda
2004-10-20, 21:07:12
B. Notebook:70% ATI nv 15%, Intel 15% Grafik
zB. PCI Express NATIVE
zB. 1. mit NEUEM Grafikinterface basierend auf NET
zB. In allen GAmes ausser Doom3 deutlich schneller als Nv
zB. Leise Karten
zB. WENIGER Stromverbrauch bei ATI
Ohje.
1. Notebook-Sektor, ack.
2. PCI Express nativ is sowas von piepegal
3. weiß ich nix von
4. das stimmt wohl, aber so schlimm isses bei nV auch nich
5. Das is mir doch sowas von scheiß egal, 10W mehr bei nem kompletten Rechner der >500W braucht mit Monitor. (siehe XBit-Labs)

LovesuckZ
2004-10-20, 21:08:28
stimmt, man sieht ja wie sehr SM2.a in den letzten beiden Jahren genutzt wurde und wie stark die Entwickler es gebraucht haben :rolleyes:

Dafür in Zukunft mehr, dank Nvidia und nicht ATi. Das Verpsrech ich dir.

robbitop
2004-10-20, 21:09:55
Es gab nie SM1.4, sondern PS1.4 :P
Und ob das sinnlos war, wage ich mal anzuzweifeln.
Warum benutzt UT2004 einen PS1.4 Shader?
SM = Shadermodell.
Wenn PS 1.4 und VS 1.4 ist dann ist es SM1.4

Weils ein Backend ist?


...und wenn man damit nur minderwertige Bauteile ausgleichen will?


oder einen schlechten Monitor. Das geht.



z.B.?


Kompatibilität z.B.
Es war ein deutlicher Mehraufwand für die Programmierer.
Beides mit SM3 nicht vergleichbar.
Mit SM3 Hardware gehen tolle Dinge.
der VS3 kann gut Vorberechnungen für den PS übernehmen, das spart PS Leistung.Der VS3 kann so einige Dinger der CPU abnehmen.
PS3 Pipelines sind deutlich besser für echtes HDR geeignet.

Black-Scorpion
2004-10-20, 21:10:06
SM 1.4 war aber auch zu der Zeit sinnlos. Und das aus verschiedenen Gründen.
Ist schon seltsam.
Es ging darum das ATI jetzt kein SM3 hat.
Dann kam von mir der Hinweis das nVidia bis zu GF4 keine PS1.4 kann.
Und schon kommt wieder das Argument das PS1.4 zu der Zeit sinnlos war.

Ob es sinnlos war oder nicht ist dem Zusammenhang vollkommen egal.

robbitop
2004-10-20, 21:10:45
sorry aber stimmt nicht. mit meiner Radeon 9500 bringt der z.b. der 4.11er etwa 5 punkte mehr im 3dmark...

Ich kann nur sagen wies bei ihm war.
Es war der Beta Treiber damals.

Mr. Lolman
2004-10-20, 21:11:01
da hab ich von BlackAngel was Anderes gehört. Er besitzt eine 9700 und hat den 4.10 beta damals runtergeladen. Das Einzige was er besser "spielen" konnte war 3DMark (dank Shaderreplacement??).
Sonst relativ instabil und unzuverlässig. Aber das kann im Final 4.10 natürlich anders sein.

Ich bin gerade vom 4.11b sehr begeistert. Fast überall ein paar fps mehr (gerade in hohen Settings). Bessere Grafikqualität in Doom3 bei höherer Geschwindigkeit. Stabil ist er auch (waren eigentlich fast alle, soweit ich mich erinnern kann) Alles in allem macht er keine Probleme bei meiner 9700pro@400/350. Auch Doom3 gibts keine Pixelfehler.

Aber: Ich hatte vom Omega Treiberreste (2 Parallelinstallationen - 9500/9700) und so lief die Sonicdemo instabil. Im Forum hab ich dann gelesen, dass gerade die neueren Catalysts eine saubere Installation vorraus setzen (= zuvor alter Treiber deinstallieren), damits keine Probleme gibt. Und so ist es auch, bei mir zumindest...

LovesuckZ
2004-10-20, 21:11:07
Wann hätte nVIDIA SM 2.0 genutzt ohne ATi.

Gab es nicht schon erste Testsamples vom NV30 irgendwann 2002? ;)

Das ist halt der Fortschritt, daran festzumachen wer etwas zu erst gehabt hat ist schwachsinn.

Ich rede von der "Nutzbarkeit".
Fuer einem ATi user macht ein feature nur Sinn, wenn er es jetzt einseten kann. Er argumentiert, dass seine Lieblingsfirma genau mit diesem Feature kommen würde, wenn es benoetigt werde. Leider, sagt er mir nie, wann dieser Zeitpunkt ist.

Es geht ja nicht um die hersteller, sondern um die These, dass das SM3.0 heute beim NV40 kein Argument waere, weil ATi es beim Spieleeinsat auch haben würde.

ironMonkey
2004-10-20, 21:11:23
Dafür in Zukunft mehr, dank Nvidia und nicht ATi. Das Verpsrech ich dir.


Keine Frage, genutzt wird es, aber WIE??????? Die derzeitigen Karten werden ja nichtmal Ansatzweise genutzt, ich kann ja mit einer 9800/5900er noch alles ohne Probleme spielen............

robbitop
2004-10-20, 21:11:51
Ist schon seltsam.
Es ging darum das ATI jetzt kein SM3 hat.
Dann kam von mir der Hinweis das nVidia bis zu GF4 keine PS1.4 kann.
Und schon kommt wieder das Argument das PS1.4 zu der Zeit sinnlos war.

Ob es sinnlos war oder nicht ist dem Zusammenhang vollkommen egal.

SM1.4 und SM3 kann man nicht vergleichen. Grund siehe oben.
IMO ist es aber nicht kritisch, dass R420 das nicht supportet.
Nur wenn man die Karte länger behalten will, wegen HDR.

MikBach
2004-10-20, 21:11:59
SM2.0 lebt dank ATi, aus Sicht eines Programmieres gibt es dank dem SM2.a eine deutlich bessere Alternative.
Auch für dich: es gibt kein SM2.a, sondern den 2.a-Pfad im SM2.
Warum ist der 2.a-Pfad denn besser für Progger?

Man sollte nicht bitte alles an der Shaderlaenge festmachen. Sm2.a und Sm3.0 bieten gegeneber dem SM2.0 und PS2.b deutlich mehr Moeglichkeiten.
Diese wären?

Deswegen bitte an dich: Wann würde ATi das SM3.0 unterstuetzen, wenn es ohne dem NV40 keine Anwendung und damit keine Unterstuetung gaebe?
Du glaubst doch nicht, dass wir paar Jahre stillstand hätten, wenn es Nvidia nicht gäbe, oder?
Dann würden andere IHVs ATI Feuer unterm Hintern machen.

flatbrain
2004-10-20, 21:13:50
Und ich bleib dabei, dieser Thread ist sinnlos und gehört geschlossen ...

Naja, zum "Thema", ich hatte bis vor Kurzem aussschliesslich ATis in meinem PC, nun eine nV und bin bisher mit beiden zufrieden... wollen eh alle nur unser Geld und da hat mir momentan nV mehr zugesagt... who cares!

robbitop
2004-10-20, 21:14:32
@Lolman

sagmal kann man beim Cat 4.11 noch über die Registry die ganzen AF Optimierungen ausmachen (siehe computerbase damals)?
Das wäre für meinen Artikel wichtig, da ich ohne Optimierungen benchen will gegen den DC.

Jesus
2004-10-20, 21:15:08
SM1.4 und SM3 kann man nicht vergleichen. Grund siehe oben.
IMO ist es aber nicht kritisch, dass R420 das nicht supportet.
Nur wenn man die Karte länger behalten will, wegen HDR.

HDR allerdings ohne AA, denn das unterstützt der NV4x nicht gleichzeitig :rolleyes:

Labberlippe
2004-10-20, 21:16:17
Ich kann nur sagen wies bei ihm war.
Es war der Beta Treiber damals.


Hi

Sorry aber wenn ich einen Beta Treiber nehme dann muss ich damit rechnen das es Probleme gibt.
Wenn es funktioniert ist alles ok, nur gibt es halt anscheinend sowohl wie bei ATi oder nVIDIA Probleme mit Divs. HW Kombis. (oder Sofware Kombis)

Gruss Labberlippe

Jesus
2004-10-20, 21:16:36
Und ich bleib dabei, dieser Thread ist sinnlos und gehört geschlossen ...


Richtig. Oder in ein extra Schlammschlacht Forum. Das wär doch mal was, ein Forum in dem sich alle Fanboys eingeloggt beleidigen dürfen ohne Moderatoren und Punkte ;)

robbitop
2004-10-20, 21:16:38
Diese wären?


-brauchbar schnelles HDR
-VS mit ein paar neuen Features, die die CPU entlasten können
-ein paar neue Effekte der VS dank den TMUs
-VS kann gewisse Vorberechnungen für PS machen
-bei längeren Shadern kein so großer Performance drop

robbitop
2004-10-20, 21:18:41
HDR allerdings ohne AA, denn das unterstützt der NV4x nicht gleichzeitig :rolleyes:
wenns mal in Massen zum Einsatz kommt, dann ist kein AA mehr möglich ohne Ruckelorgie.
Laut Epic brach R420 bei so einer Szene auf 8-9fps runter (viel HDR) und NV40 blieb bei 25-30fps. Das kann in 2 Jahren wenn man die Graka ne Weile behalten will evl mal einen Unterschied machen.

LovesuckZ
2004-10-20, 21:19:38
Auch für dich: es gibt kein SM2.a, sondern den 2.a-Pfad im SM2.

Es gibt ein SM2.a, das festgelegte Funktionen unterstuetzt. Dafür gibt es ein 2.a Compilerprofil, das diese Eigenschaften umseten kann.
Was du meinst, ist das Sm2.x, was alles das beinhaltet, was über die Grundfunktionen vom DX9 hinausgehen.

Warum ist der 2.a-Pfad denn besser für Progger?
Diese wären?

Laenge Shader, Einsatz von kurzen Zweigen, Verwendung weniger Temp Register, leichtere Zusammenfuegung von kurzen Shadern (Swizzle?) etc.

robbitop
2004-10-20, 21:20:00
Hi

Sorry aber wenn ich einen Beta Treiber nehme dann muss ich damit rechnen das es Probleme gibt.
Wenn es funktioniert ist alles ok, nur gibt es halt anscheinend sowohl wie bei ATi oder nVIDIA Probleme mit Divs. HW Kombis. (oder Sofware Kombis)

Gruss Labberlippe

Der beta war damals scheinbar eine Art Panikreaktion (mit Shaderreplacemtents??). Mal eben auf einer sehr bekannten und ausgereiften Architektur 30% mehr, kommt sehr seltsam.
Naja mehr als den beta gabs ja nicht ne Zeit lang.

StefanV
2004-10-20, 21:20:21
SM = Shadermodell.
Wenn PS 1.4 und VS 1.4 ist dann ist es SM1.4
1. wenn PS1.4 sinnlos ist, dann ists jetzt auch SM3 :rolleyes:

2. PS1.4 als Sinnlos titulieren ist, nunja, suchs dir aus :P

3. ES GIBT KEINEN VS1.4, nur 1.1 und 2.0 sowie 3.0

robbitop
2004-10-20, 21:21:17
Es gibt ein SM2.a, das festgelegte Funktionen unterstuetzt. Dafür gibt es ein 2.a Compilerprofil, das diese Eigenschaften umseten kann.
Was du meinst, ist das Sm2.x, was alles das beinhaltet, was über die Grundfunktionen vom DX9 hinausgehen.



Laenge Shader, Einsatz von kurzen Zweigen, Verwendung weniger Temp Register, leichtere Zusammenfuegung von kurzen Shadern (Swizzle?) etc.

Du hast die dynamische Flusskontrolle vergessen.

StefanV
2004-10-20, 21:21:30
SM1.4 und SM3 kann man nicht vergleichen. Grund siehe oben.
Sorry, aber das ist Blödsinn.

Du kannst nicht auf der enen Seite 'Fortschritt' schreien und auf der anderen was anderes als 'unnötig' hinstellen, außer du willst unbedingt als Fanboy gesehen werden :rolleyes:

Jesus
2004-10-20, 21:22:08
wenns mal in Massen zum Einsatz kommt, dann ist kein AA mehr möglich ohne Ruckelorgie.

eh nein afaik gar kein AA sobald FP16 blending benutzt wird (bei HDR). Das ist eine Hardware limitierung.

Ist z.b. im FC Patch 1.3 (lt. entwickler) so. Sobald HDR an, AA aus.

Mr. Lolman
2004-10-20, 21:24:32
Kompatibilität z.B.
Es war ein deutlicher Mehraufwand für die Programmierer.
Beides mit SM3 nicht vergleichbar.
Mit SM3 Hardware gehen tolle Dinge.
der VS3 kann gut Vorberechnungen für den PS übernehmen, das spart PS Leistung.Der VS3 kann so einige Dinger der CPU abnehmen.
PS3 Pipelines sind deutlich besser für echtes HDR geeignet.

Kompatibilität? Hä? Zu NVidia? Schön langsam reichts. Soll doch NV zu Ati kompatibel sein. Das verlangt ja auch niemand.

Nein, Aber PS1.4 war der Grundstein zu PS2.0 D.h. PS1.4 und PS2.0 Code sind sich viel ähnlicher als PS1.3 und PS1.4.

Mit Ps1.4 gehen im Vergleich zu PS1.3 noch viel tollere Dinge. (was für ein stupides Argument, sorry, aber es ist so)

Zeig mir mal echtes HDR. Ich kenn nur die rthdribl Demo, 3dmark03 postprocessing, 3dmark05. Und bei allen ist NV langsamer. Ist echtes HDR schneller oder schöner?




Was mir abgeht sind mal haltbare Dinge. Bei Ati gibts das Treasurechest demo. Da sieht man sehr schön was mit PS1.4 geht, und wo die Limitation von PS1.3 liegen. NV hat das ja mit Farcry versucht, aber da meinten die Macher ja selbst, dass das alles mit PS2.0 möglich ist. Soweit ich weiss, ist das einzige tolle ding, was schon mehrmals als Beispiel kam, die Mgölichkeit mittels SM3.0 Mipmaps diverse Shader berechnen zu können, was sonst die CPU erledigen müsste. = maximal ein Leistungsunterschied, der momentan nicht näher spezifizierbar ist.

Ich erwarte von einem tollen neuem Feature auch tolle neue Eyecandies, die man mit SM20(b) nicht bewerkstelligen kann. Klar kann man jetzt mit den NV Demos kommen, die sehen auch gut aus, aber so IHV seitigen Demos kann man ja nicht wirklich trauen. (Wie war das nochmal mit Dawn?)

MikBach
2004-10-20, 21:27:19
SM = Shadermodell.
Wenn PS 1.4 und VS 1.4 ist dann ist es SM1.4

Lol?
Den Begriff Shadermodell gibt es erst seit 2.0, oder hast du eigene Standards?

BTW von VS1.4 hab ich noch nie was gehört. Wo soll es das geben? :D

robbitop
2004-10-20, 21:28:24
Sorry, aber das ist Blödsinn.

Du kannst nicht auf der enen Seite 'Fortschritt' schreien und auf der anderen was anderes als 'unnötig' hinstellen, außer du willst unbedingt als Fanboy gesehen werden :rolleyes:

Pass auf dass du dich nicht im Ton vergreifst.

Ich habe es begründet, wer lesen kann ist klar im Vorteil.
Zu deiner Info: mir ist der IHV egal. Aber NV hat mit dem NV40 einfach ein Stück Hardware geschaffen, was mich als Technikfreund begeistert.
PS1.4 war damals kaum sinnvoll, da zu aufwändig für die Entwickler. Ansonsten aber gut hinsichtlich der Nähe zu SM2. Denn somit wurde SM2 schneller in HW gegossen und schneller genutzt dank ATi. Deshalb war für mich R300 immer der Größte Core. Neue Technologie + die Power sie zu lebzeiten zu nutzen WOW!

Mr. Lolman
2004-10-20, 21:28:41
@Lolman

sagmal kann man beim Cat 4.11 noch über die Registry die ganzen AF Optimierungen ausmachen (siehe computerbase damals)?
Das wäre für meinen Artikel wichtig, da ich ohne Optimierungen benchen will gegen den DC.

Bei der Radeon9700pro gibts eh nur die Fulltri optmierung. Aber ganz sicher bin ich mir da nicht mehr ob das geht. Ati hat ihr AF anscheinend entweder schon auf ganz schön viel Spiele angepasst, oder echt etwas grundlegendes geändert. Denn die enorm sichtbaren Mipmapbänder in MotoGP2 beim Quality AF gibts nicht mehr, nud auch die AF Qualität in Doom3 ist besser geworden. Ich werd bei Gelegenheit mal Uru testen. Auf die Colormipmaps darf man sich ja leider nicht mehr verlassen ;(

robbitop
2004-10-20, 21:29:27
Lol?
Den Begriff Shadermodell gibt es erst seit 2.0, oder hast du eigene Standards?

BTW von VS1.4 hab ich noch nie was gehört. Wo soll es das geben? :D

eigene Standards.
Ja Typo meinerseits. VS1.1 war gemeint.
Lass die Erbsenzählerei, das provoziert nur. Bleib bitte sachlich und konstruktiv.

LovesuckZ
2004-10-20, 21:30:16
Ich erwarte von einem tollen neuem Feature auch tolle neue Eyecandies, die man mit SM20(b) nicht bewerkstelligen kann. Klar kann man jetzt mit den NV Demos kommen, die sehen auch gut aus, aber so IHV seitigen Demos kann man ja nicht wirklich trauen. (Wie war das nochmal mit Dawn?)

Und gleichzeitig benutzt du bilineare Filterung? X-D
"Nicht darstellbar"?
Ich kann vieles mit der CPU darstellen, aber habe ich auch die Zeit?
Das Motto sollte sein: Mit den vorhandenen ressourcen schonend umgehen.
Deiner Meinung nach waere auch jegliche Texturkompression für'n Arsch, weil unkomprimiert noch besser aussehe...
Oder jegliche Bildkompression, da ja jeder heute jeder ueber DSL und 250´gb Festplatten verfuege.

robbitop
2004-10-20, 21:30:18
Bei der Radeon9700pro gibts eh nur die Fulltri optmierung. Aber ganz sicher bin ich mir da nicht mehr ob das geht. Ati hat ihr AF anscheinend entweder schon auf ganz schön viel Spiele angepasst, oder echt etwas grundlegendes geändert. Denn die enorm sichtbaren Mipmapbänder in MotoGP2 beim Quality AF gibts nicht mehr, nud auch die AF Qualität in Doom3 ist besser geworden. Ich werd bei Gelegenheit mal Uru testen. Auf die Colormipmaps darf man sich ja leider nicht mehr verlassen ;(
ich hab ne 9600XT hier und es wäre wichtig, dass ALLES aus ist.

MikBach
2004-10-20, 21:31:51
eh nein afaik gar kein AA sobald FP16 blending benutzt wird (bei HDR). Das ist eine Hardware limitierung.

Ist z.b. im FC Patch 1.3 (lt. entwickler) so. Sobald HDR an, AA aus.
Genau so ist es.
Da sieht man mal wieder, dass Robbi bisschen nachholen muss. :D
Siehe SM1.4 und VS1.4. ;D

Mr. Lolman
2004-10-20, 21:34:01
Deshalb war für mich R300 immer der Größte Core. Neue Technologie + die Power sie zu lebzeiten zu nutzen WOW!

IMO fandest du lange Zeit die FX Reihe besser. Oder gilt deine Aussage eh nur bis zum Erscheinen der FX? ;)


ich hab ne 9600XT hier und es wäre wichtig, dass ALLES aus ist.


Sry, keine Ahnung. Ich musste die Keys noch nie benutzen. Am besten sollte es aber eh im Leistungsunterschied feststellbar sein. Schlimmstenfalls einfach mit einem älteren Treiber gegenchecken.

mrdigital
2004-10-20, 21:34:43
Genau so ist es.
Da sieht man mal wieder, dass Robbi bisschen nachholen muss. :D
Siehe SM1.4 und VS1.4. ;D

Muss so eine Provokation sein?
Er hat doch oben schon geschrieben, dass es ein einfacher Tippfehler war

Black-Scorpion
2004-10-20, 21:36:24
Der beta war damals scheinbar eine Art Panikreaktion (mit Shaderreplacemtents??). Mal eben auf einer sehr bekannten und ausgereiften Architektur 30% mehr, kommt sehr seltsam.
Naja mehr als den beta gabs ja nicht ne Zeit lang.
ATI bringt einen schnelleren Betatreiber und was passiert, Shaderreplacemtents.
Ich hoffe du schreibst bei jeden neuem Wundertreiber von nVidia auch schön (Shaderreplacemtents??) dazu.
Das nVidia das schon lange macht ist natürlich was anderes.

Zu der Zeit war PS1.4 Fortschrittlicher, aber nach deiner Aussage sinnlos (weil es nVidia nicht konnte?).

MikBach
2004-10-20, 21:37:00
Es gibt ein SM2.a, das festgelegte Funktionen unterstuetzt. Dafür gibt es ein 2.a Compilerprofil, das diese Eigenschaften umseten kann.
Was du meinst, ist das Sm2.x, was alles das beinhaltet, was über die Grundfunktionen vom DX9 hinausgehen.
Unsinn, es gibt kein SM2.a.
Es gibt SM2 und SM3. Amen.

Laenge Shader, Einsatz von kurzen Zweigen, Verwendung weniger Temp Register, leichtere Zusammenfuegung von kurzen Shadern (Swizzle?) etc.
Die langen Shader kann das 2.B Profil auch. Der Rest ist Kosmetik, bringt keine bessere BQ.

MadMan2k
2004-10-20, 21:37:13
alle Jahre wieder...

mir kommts echt hoch - warum kann man sowas nicht dichtmachen, oder was für tolle neue Erkentnisse soll der Thread bringen?

Gast
2004-10-20, 21:38:05
Das währe wie ein Fiat 500 mit ESP...............



@Mikebach, da währe ich mir nicht so sicher, als NV alleine war wurde sich auch auf die faule haut gelegt.....wie es endete wissen wir ja.

Endlich melden sich dich Profis hier zu Wort!

Ich finde es sehr bedenklich warum dieser thread nicht vorne hinein verschoben, gelöscht oder auf der Spielwiese gelandet ist!

MikBach
2004-10-20, 21:39:51
Muss so eine Provokation sein?
Er hat doch oben schon geschrieben, dass es ein einfacher Tippfehler war

Nein war es nicht.
Ein SM1.4 gibt es nicht. Genausowenig wie VS1.4. Er hat SM1.4 mit VS1.4 begründet. Das kann doch kein Tippfehler sein, weil es eine logische (nur leider falsche) Begründung ist.

PS Sorry @ Robbi, war nicht so gemeint. :)

StefanV
2004-10-20, 21:40:11
Pass auf dass du dich nicht im Ton vergreifst.

Ich habe es begründet, wer lesen kann ist klar im Vorteil.
Zu deiner Info: mir ist der IHV egal. Aber NV hat mit dem NV40 einfach ein Stück Hardware geschaffen, was mich als Technikfreund begeistert.
PS1.4 war damals kaum sinnvoll, da zu aufwändig für die Entwickler. Ansonsten aber gut hinsichtlich der Nähe zu SM2. Denn somit wurde SM2 schneller in HW gegossen und schneller genutzt dank ATi. Deshalb war für mich R300 immer der Größte Core. Neue Technologie + die Power sie zu lebzeiten zu nutzen WOW!

1. ich hab dir den Fanboy nicht unterstellt, ich hab nur gesagt, das es 'blöd ausschaut', wenn du eine 'ATI Technik' schlecht machst und eine 'nV Technik' schönredest.

2. der Schritt von PS 1.3 zu 1.4 ist nicht gerade winzig, der von 1.4 auf 2.0 hingegen nicht groß

3. wer was in HW gießt ist völlig irrelevant.

4. du kannst nicht auf der Einen Seite SM3 loben und PS1.4 schlecht machen, das 'schaut blöd aus'.

5. wie würdest du jemanden bezeichnen, der SM3 'schlechtredet' und PS1.4 lobt??


Neue Technologie = Fortschritt, von wem auch immer das kommt, PS1.4 ist ein gewaltiger Fortschritt, besonders da es ein riesiger Schritt richtung 2.0 ist.

€dit:

Ob etwas was bei der Einführung brachte, ist völlig irrelevant, denn dann wäre ja auch sowas wie MMX, SSE und der 32bit Modus aktueller Prozessoren blödsinn, denn das wurde alles bei der Einführung kaum genutz.

Versuch aber jetzt mal aktuelle Programme bei MMX losen CPUs zu starten, da gibts einige Programme, die das voraussetzen, bei SSE wirds nicht anders sein, zumal AMD auch SSE unterstütz, seit dem Palomino...

Bis ein Feature wirklich genutzt wird, vergeht meistens ein recht großer Zeitraum, ob ein Feature was nutzt oder nicht, kann man auch erst sehr sehr spät wirklich beurteilen, im Falle von MMX dauerte es etwa 5 Jahre, bis es einigermaßen verwendet wurde, bei anderen Dingen wirds nicht anders sein, ebenso bei PS1.4, welches JETZT häufig eingesetzt wird, wenn der Progger ordentlich arbeitet...

Jesus
2004-10-20, 21:41:07
alle Jahre wieder...

mir kommts echt hoch - warum kann man sowas nicht dichtmachen, oder was für tolle neue Erkentnisse soll der Thread bringen?

Die ultimative Erkenntnis natürlich , Erleuchtung und Eingebung + die Antwort auf alle irrelevanten Fragen (49?) ;)

Mr. Lolman
2004-10-20, 21:41:55
Und gleichzeitig benutzt du bilineare Filterung? X-D

Was hat das eine mit dem anderen zu tun?


"Nicht darstellbar"?
Ich kann vieles mit der CPU darstellen, aber habe ich auch die Zeit?
Das Motto sollte sein: Mit den vorhandenen ressourcen schonend umgehen.

Zählt dazu nicht auch Stromverbrauch und Lautstärke? ;)

Ich habs heut schon in eine PN geschrieben, du erkaufst dir die ganzen Vorteile immer mit irgendwelchen nachteilen. Denn gäbs die nicht, stimmte das Oreisverhältnis nicht. D.h. wär die eine Karte echt so sh1ce, würde man sie billiger verkaufen, spätestens ab dem Zeitpunkt wo sie niemand um den hohen Preis haben will. Da das nicht der Fall ist, dürfte der Wettberwerb halt passen. Entweder man hat die neueste Technik im Rechner oder man hat andere Vorteile wie z.B. höhere Geschwindigkeit, günstigerer Preis, weniger Lärmbelastung oder was auch immer.

Bei der neuesten Technik ists halt die Frage in wie ferner Zukunft, die Features auch verwertbar sind. Von den restlichen Vorteilen hat man sofort was.



Deiner Meinung nach waere auch jegliche Texturkompression für'n Arsch, weil unkomprimiert noch besser aussehe...
Oder jegliche Bildkompression, da ja jeder heute jeder ueber DSL und 250´gb Festplatten verfuege.

Blödsinn. Kannst du mir den Gedankengang schlüssig erklären?

deekey777
2004-10-20, 21:42:07
Oh ja, SLI, der Markt wird gerade so überschwemmt von NV40PCIe und SLI fähigen Mainboards.

O ja, SM3.0, das ist die Zukunft - in Zukunft werden alle Grafikkarten SM 3.0 beherrschen. Aber bitte nicht vergessen, dass die R420 etwas mehr kann als die R300.

LovesuckZ
2004-10-20, 21:42:52
Unsinn, es gibt kein SM2.a.
Es gibt SM2 und SM3. Amen.

Achja, dann dürfte es auch keine PS/VS 2.a geben.
Und auch kein Shaderprofil 2.a geben...

Die langen Shader kann das 2.B Profil auch. Der Rest ist Kosmetik, bringt keine bessere BQ.

Dann erklaere mir, wie ein langer Shader im Gegensatz zu vielen kurzen eine"bessere BQ" erzeugen.

robbitop
2004-10-20, 21:44:38
ATI bringt einen schnelleren Betatreiber und was passiert, Shaderreplacemtents.
Ich hoffe du schreibst bei jeden neuem Wundertreiber von nVidia auch schön (Shaderreplacemtents??) dazu.
Das nVidia das schon lange macht ist natürlich was anderes.

Zu der Zeit war PS1.4 Fortschrittlicher, aber nach deiner Aussage sinnlos (weil es nVidia nicht konnte?).

Ich zweifel keine Shaderreplacements bei NV an. Das machen die genauso wie ATi. In der Hinsicht ist niemand besser als der andere.

Wo habe ich den Fortschritt von PS1.4 angezweifelt??
Ok vieleicht war "sinnlos" ein wenig hart, aber füpr mich bestimmt sicher der "Sinn" nach der Machbarkeit. PS1.4 bedeutete einen Mehraufwand für die Entwickler und wurde leider nie umgesetzt. Das wäre anders gewesen, hätten andere IHVs mitgezogen. Dann wäre es für mich "sinnvoll".
Sorry, das ist meine Definition von Sinn. PS1.4 hat uns so weit gebracht wo wir nun sind (durch SM2)..aber der R200 leider gar nichts. Verstehst du?
Ich will nichts schlecht machen.

SM3 sieht für mich nach einem Stück Technik aus, dass sehr einfach umsetzbar ist. Somit sinnvoll. Aber nicht innovativer als PS1.4.

Vieleicht haben wir uns einfach missverstanden?
Ich will weder den einen IHV noch den anderen schlecht machen.
Ich kaufe einfach den der mir besser gefällt.

@Lolman
ich werde wohl wissen, welcher Chip mir besser gefällt.
Als Background; ich besass lange Zeit eine 9500 und wollte mir dann eine 9700 kaufen und wurde bei ebay betrogen. Dann hat mir Gohan damals eine billige NV35 besorgt.l
Die Technik habe ich lediglich gelobt...nie die miese perofrmance

LovesuckZ
2004-10-20, 21:47:31
Zählt dazu nicht auch Stromverbrauch und Lautstärke? ;)

Stromverbrauch. Achja, deswegen besitzt du auch einen r300 und keinen NV30.
Aber, was machst du beim Vergeich 6600gt und X700XT? Die zweite zieht, welch Ironie, mehr...

Blödsinn. Kannst du mir den Gedankengang schlüssig erklären?

Ich erwarte von einem tollen neuem Feature auch tolle neue Eyecandies...

Dann erklaere mir den Sinn von Texturkompressionen, wenn nur der "tolle neue Eyecandie" zaehlen wuerde.

Was hat das eine mit dem anderen zu tun?

Du forderst einerseits, dass neue Features eine bessere BQ bringen, andererseits bist du ein Verfechter vom BI-AF, weil es nicht in jeder Situation deutlich schlechter als Tri-AF aussehe´. Sousagen für kaum BQ´Verlust mehr Speed bringe.
Aber dieser Vorteil (bis auf "kaum BQ Verlust") zaehle ploetzlich beim SM3.0 nicht?
Das kann nur ironie sein. Du pruefst mich, stimmt's?

MikBach
2004-10-20, 21:48:01
Achja, dann dürfte es auch keine PS/VS 2.a geben.
Und auch kein Shaderprofil 2.a geben...
Rede ich Chinesisch, oder was?
Es gibt ein Shaderprofil 2.a, ja. Es gibt PS/VS2.a,ja. Aber, ES GIBT KEIN SM2.A!!!
Ist das so schwer zu verstehen?
Langsam wirds lächerlich.

Dann erklaere mir, wie ein langer Shader im Gegensatz zu vielen kurzen eine"bessere BQ" erzeugen.
Siehe Material Shader. Diese sind mit kurzen Shadern nicht zu realisieren. :P

deekey777
2004-10-20, 21:50:00
Wo bleibt denn der nette Threadstarter?
Hat er keine Antworten auf die Gegenfragen?

LovesuckZ
2004-10-20, 21:50:04
Siehe Material Shader. Diese sind mit kurzen Shadern nicht zu realisieren. :P

Natuerlich. Ich kann einen langen Shader in viele kleine Splittern. Das ist zwar umstaendlich und leistungskostend, aber machbar.

Black-Scorpion
2004-10-20, 21:50:29
Vieleicht haben wir uns einfach missverstanden?
Ich will weder den einen IHV noch den anderen schlecht machen.
Ich kaufe einfach den der mir besser gefällt.
Dann sorry.
Es kam nur leider so rüber.

MikBach
2004-10-20, 21:56:16
Natuerlich. Ich kann einen langen Shader in viele kleine Splittern. Das ist zwar umstaendlich und leistungskostend, aber machbar.
Machbar? Mit 10% der vorgesehenen Geschwindigkeit...
Komm schon LS, wollen wir mal bei der Praxis bleiben. Es haben sich schon einige mit ihren Theorien auf die Schnauze gelegt. ;)
edit: erst willst du SM3, weil längere Shader erlaubt sind, dann sind länger Shader egal. Entscheide dich mal für EINE Richtung. Du nervst.

Gast
2004-10-20, 22:01:07
Stromverbrauch. Achja, deswegen besitzt du auch einen r300 und keinen NV30.
Aber, was machst du beim Vergeich 6600gt und X700XT? Die zweite zieht, welch Ironie, mehr...



Ich erwarte von einem tollen neuem Feature auch tolle neue Eyecandies...

Dann erklaere mir den Sinn von Texturkompressionen, wenn nur der "tolle neue Eyecandie" zaehlen wuerde.



Du forderst einerseits, dass neue Features eine bessere BQ bringen, andererseits bist du ein Verfechter vom BI-AF, weil es nicht in jeder Situation deutlich schlechter als Tri-AF aussehe´. Sousagen für kaum BQ´Verlust mehr Speed bringe.
Aber dieser Vorteil (bis auf "kaum BQ Verlust") zaehle ploetzlich beim SM3.0 nicht?
Das kann nur ironie sein. Du pruefst mich, stimmt's?

Die zweite zieht mehr Strom! Lol, aber im verträglichen Rahmen. Das was NV40 verlangt ist deutlich mehr. Die 6600GT ist ja auch kein NATIVE PCI Express Chipsatz!

LovesuckZ
2004-10-20, 22:01:50
Machbar? Mit 10% der vorgesehenen Geschwindigkeit...
Komm schon LS, wollen wir mal bei der Praxis bleiben. Es haben sich schon einige mit ihren Theorien auf die Schnauze gelegt. ;)

Es ist ein Unterschied wischen lahm und nicht darstellbar.
tb konnte mit den PS3.0 gegenuber PS2.b einen 30% Einspareffekt erzelen bei den Anweisungen.
Das bedeutet mehr Leistung oder mehr Bildqualitaet.

Gast
2004-10-20, 22:02:00
Wo bleibt denn der nette Threadstarter?
Hat er keine Antworten auf die Gegenfragen?

Der sitzt wahrscheinlich at home und geht moin in's Büro und wundert sich!

MikBach
2004-10-20, 22:04:13
Es ist ein Unterschied wischen lahm und nicht darstellbar.
tb konnte mit den PS3.0 gegenuber PS2.b einen 30% Einspareffekt erzelen bei den Anweisungen.
Das bedeutet mehr Leistung oder mehr Bildqualitaet.
Nichts mit mehr Leistung, und schon gar nicht BQ.
TB meinte, dass mit SM3 die Shader um 20% kürzer gegenüber 2.B sind. Mehr nicht.

Plasmafusion
2004-10-20, 22:06:51
alle Jahre wieder...

mir kommts echt hoch - warum kann man sowas nicht dichtmachen, oder was für tolle neue Erkentnisse soll der Thread bringen?

Wenn man seine Meinung auf 3DC nicht mehr schreiben darf, ist dieses Phorum sinnfrei. Wohin mein Posting verschoben wird ist gleich, hauptsache es sei erlaubt seine Meinung schreiben zu dürfen und aus den Antworten anderer zu lernen und damit seinen eigenen Standpunkt überdenken zu können.

Bei den (unerwartet) vielen Postings zum Thema kann man froh sein das ein Gedakenaustausch auf diese Art möglich ist ! Immer locker bleiben ...

robbitop
2004-10-20, 22:09:46
Wenn man seine Meinung auf 3DC nicht mehr schreiben darf, ist dieses Phorum sinnfrei. Wohin mein Posting verschoben wird ist gleich, hauptsache es sei erlaubt seine Meinung schreiben zu dürfen und aus den Antworten anderer zu lernen und damit seinen eigenen Standpunkt überdenken zu können.

Bei den (unerwartet) vielen Postings zum Thema kann man froh sein das ein Gedakenaustausch auf diese Art möglich ist ! Immer locker bleiben ...
aber es war doch klar, dass das in eine Flamerei ausartet.
Allein dieser provokative Titel.
ATi glänzt derzeit mit Leistung und verdammt gutem AA. Wo ist das low tech?

radikale Meinungen sind nie gut in der öffentlichkeit

Plasmafusion
2004-10-20, 22:14:06
Ob etwas was bei der Einführung brachte, ist völlig irrelevant, denn dann wäre ja auch sowas wie MMX, SSE und der 32bit Modus aktueller Prozessoren blödsinn, denn das wurde alles bei der Einführung kaum genutz.

Guter Gedanke.
Als "kleine" Softwarefirma muß ich mein Program jetzt auf AMD64 bringen weils nicht nur Performance-Vorteile bringt, sondern weil die AMD64 Freaks mit Recht sich beschweren warum ich nicht mein Produkt x64 kompatibel mache.

Ohne Leute die ohne ökonomischen Sinn, rein aus technischer Begeisterung, den "nächsten" Schritt machen, wäre Stillstand.

So Shader 3.0. Bringt heute gar nix. Aber hat Zukunft und dies ist positiv anzuerkennen. Eben zu zeigen, daß man den nächsten Schritt machen will (oder kann) ist halt ein Punkt der im Wettbewerb positiv angerechnet wird.

flatbrain
2004-10-20, 22:16:28
aber es war doch klar, dass das in eine Flamerei ausartet.
Allein dieser provokative Titel.
ATi glänzt derzeit mit Leistung und verdammt gutem AA. Wo ist das low tech?

radikale Meinungen sind nie gut in der öffentlichkeit

Zumal diese einer Diskussion nicht immer zuträglich sind, wie man teilweise auch hier wieder erkennen kann bzw. muss!

Gast
2004-10-20, 22:19:59
Als ATI X800 Pro Besitzer muß ich mal was loswerden.
nVidia bezeichnet sich ja als "High-Tech" Führer, und teilweise stimmt das sogar.

A) Bei nVidia gibt's ein Feature wo der 2D Desktop in "besseren" Farben dargestellt wird. Alles wirket etwas bunter, die Farben kräftiger.
Bei ATI ist alles etwas blass ...

B) Shader 3.0, auch wenns z.Zt. nur was für die 3D-Coder ist, so ist es nunmal ein technischer Fortschritt in die Zukunft.

C) SLI. Was hat ATI zu bieten ? Nix.
Muß dazu sagen, daß ich auf SLI aufrüsten werde, sobald es entsprechende Xeon-Mainboards frei am Markt geben wird.

D) Linux-Treiber, auch in 64-Bit. Was ATI mit dem Beta 2 Treiber für 64-bit AMD64 abgeliefert hat ist ja fast peinlich. Linux-Support ist bei nVidia vorbildlich.


ATI steht sehr gut da wenn es um reine GPU-Leistung geht.
Aber das "Drumherum" ist doch sehr vernachlässigt worden.

Wenn man die Firmengeschichte von ATI kennt, dann haben die nach einer technischen Glanzleistung immer die nächste Zeit im Märchenschlaf verbracht.

Edit: Dies ist weder eine Trollerei noch Flameversuch sondern nur meine seit langem innerlich aufgestaute Meinung.

OMFG, ich werde nie mehr eine ATi-Karte kaufen, danke für die Erleuchtung Meister. (Achtung: Ironie!)

ironMonkey
2004-10-20, 22:20:11
Zumal diese einer Diskussion nicht immer zuträglich sind, wie man teilweise auch hier wieder erkennen kann bzw. muss!


Was hat das hier mit einer Diskussion zu tun??????Über Sachen schreiben die längst bekannt und offensichtlich sind???????Das hat hier eher was mit Suppe aufwärmen zu tun....was währe wenn.........

Plasmafusion
2004-10-20, 22:22:23
Oh ja, SLI, der Markt wird gerade so überschwemmt von NV40PCIe und SLI fähigen Mainboards.



Hallo,

nimms mir nicht übel, aber wenn ich als einzigstes Hobby z.B. den FlugSim 2004 spiele und nach ultimativer Leistung verlange (und auch wirklich bezahlen will) komma dann ist SLI für mich das richtige Produkt (wenn es denn bald kommt *grummel*)

Ich kann dir gerne zeigem wie eine X800 Pro (510:560) nur 7fps beim Flusi hinbekommt (KJFK airport Simwings mit Wolken). Solls eine X800XT Super-Premium meinetwegen mit 10fps machen. Aber das ist dennoch lahm. SLI ist die einzige Lösung um ein brauchbares Ergebnis zu bekommen.

Wenn ich gegen gutes Geld eine maximale 3D-Leistung bekommen will, bleibt ATI leider im Moment aussen vor. Ich hoffe auf Änderung der Sachlage, aber es ist eben so.

MikBach
2004-10-20, 22:23:52
Zumal diese einer Diskussion nicht immer zuträglich sind, wie man teilweise auch hier wieder erkennen kann bzw. muss!
Warum?
Ich finde an diesem Thread nichts besonderes.
Man sollte aber nicht die Meinung zu Gunsten eines IHV ändern, wie es LS tut.
Einmal sind ihm kurze Shader schlecht, dann will er einen langen Shader in mehrere kleine aufteilen. Was soll denn das?
Wenn schon, dann bitte eine Meinung verfolgen, und nicht hin und her springen, weil der Lieblings IHV durch eine Aussage benachteiligt werden würde.
So viel Courage muss sein. :cool:

Steel
2004-10-20, 22:27:01
Ich kann dir gerne zeigem wie eine X800 Pro (510:560) nur 7fps beim Flusi hinbekommt (KJFK airport Simwings mit Wolken). Solls eine X800XT Super-Premium meinetwegen mit 10fps machen. Aber das ist dennoch lahm. SLI ist die einzige Lösung um ein brauchbares Ergebnis zu bekommen.
Na hoffentlich ist das keine CPU-Limitierung.
Wär schad um das SLI.

Plasmafusion
2004-10-20, 22:27:36
Hallo,

nimms mir nicht übel, aber wenn ich als einzigstes Hobby z.B. den FlugSim 2004 spiele und nach ultimativer Leistung verlange (und auch wirklich bezahlen will) komma dann ist SLI für mich das richtige Produkt (wenn es denn bald kommt *grummel*)

Ich kann dir gerne zeigem wie eine X800 Pro (510:560) nur 7fps beim Flusi hinbekommt (KJFK airport Simwings mit Wolken). Solls eine X800XT Super-Premium meinetwegen mit 10fps machen. Aber das ist dennoch lahm. SLI ist die einzige Lösung um ein brauchbares Ergebnis zu bekommen.

Wenn ich gegen gutes Geld eine maximale 3D-Leistung bekommen will, bleibt ATI leider im Moment aussen vor. Ich hoffe auf Änderung der Sachlage, aber es ist eben so.


Wo bleibt denn der nette Threadstarter?
Hat er keine Antworten auf die Gegenfragen?

Habe nicht mit sovielen Antworten gerechnet. Ist ja quasi eine Explosion !
Ich versuche zu Antworten wo es sinnvoll ist, aber es wird ja schneller gepostet als ich lesen kann ! wow

MikBach
2004-10-20, 22:27:39
Hallo,

nimms mir nicht übel, aber wenn ich als einzigstes Hobby z.B. den FlugSim 2004 spiele und nach ultimativer Leistung verlange (und auch wirklich bezahlen will) komma dann ist SLI für mich das richtige Produkt (wenn es denn bald kommt *grummel*)

Ich kann dir gerne zeigem wie eine X800 Pro (510:560) nur 7fps beim Flusi hinbekommt (KJFK airport Simwings mit Wolken). Solls eine X800XT Super-Premium meinetwegen mit 10fps machen. Aber das ist dennoch lahm. SLI ist die einzige Lösung um ein brauchbares Ergebnis zu bekommen.

Wenn ich gegen gutes Geld eine maximale 3D-Leistung bekommen will, bleibt ATI leider im Moment aussen vor. Ich hoffe auf Änderung der Sachlage, aber es ist eben so.

Kann ich nicht nachvollziehen, weil ich das mal angespielt habe, ausserdem:
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_40.html

Steel
2004-10-20, 22:29:38
Wenn man seine Meinung auf 3DC nicht mehr schreiben darf, ist dieses Phorum sinnfrei.
Monologe kann man auch auf der eigenen Homepage veröffentlichen oder willst Du behaupten, dass bei diesem Titel eine ernsthafte Diskussion überhaupt möglich sein soll?

flatbrain
2004-10-20, 22:30:16
Was hat das hier mit einer Diskussion zu tun??????Über Sachen schreiben die längst bekannt und offensichtlich sind???????Das hat hier eher was mit Suppe aufwärmen zu tun....was währe wenn.........
So war es auch von mir gemeint... *wechbin, sonst gibt es noch OT-Punkte...*

Plasmafusion
2004-10-20, 22:30:27
Der sitzt wahrscheinlich at home und geht moin in's Büro und wundert sich!

Bin seit 3 Jahren selbsttätig, nicht verhungert, aber bin von den vielen Antworten doch etwas positiv überrascht !

Mr. Lolman
2004-10-20, 22:35:31
Stromverbrauch. Achja, deswegen besitzt du auch einen r300 und keinen NV30.
Aber, was machst du beim Vergeich 6600gt und X700XT? Die zweite zieht, welch Ironie, mehr...

So kommen wir vom 100. ins 1000. über 6600GT und x700XT hab ich noch kein Urteil gefällt. Ich bild mir nur ein zu wissen, dass meine GraKa ungefähr so schnell wie x700xt ist. Der Stromverbrauch ist mir persönlich wurscht. Meine zieht sicher bald soviel wiene 9800xt. Bei mir war im konkreten Fall Langzeitnutzbarkeit wichtig. Das hat sich mit konstant hoher Performance bei technisch unterlegener HW im Vergleich zum NV Konkurrenten mehr als erfüllt.

Bei der aktuellen Generation betrachte ich es als sinnfrei sich auf Features zu fixieren, über deren Zusatznutzen man nur spekulieren kann.



Ich erwarte von einem tollen neuem Feature auch tolle neue Eyecandies...

Dann erklaere mir den Sinn von Texturkompressionen, wenn nur der "tolle neue Eyecandie" zaehlen wuerde.


Achso hast du das gemeint.

Texturkompression bringt im weiteren Sinne auch "tolle neue Eyecandy", wie freigewordene Performance für nochmehr und/oder höher aufgelöste Texturen. (oder halt mehr Festplattenplatz für mehr Pixs=mehr Candy ;))

Du forderst einerseits, dass neue Features eine bessere BQ bringen, andererseits bist du ein Verfechter vom BI-AF, weil es nicht in jeder Situation deutlich schlechter als Tri-AF aussehe´. Sousagen für kaum BQ´Verlust mehr Speed bringe.
Aber dieser Vorteil (bis auf "kaum BQ Verlust") zaehle ploetzlich beim SM3.0 nicht?
Das kann nur ironie sein. Du pruefst mich, stimmt's?

Ganz versteh ich nicht wie du den BQ Verlust im Zusammenhang bei SM3.0 sehen willst, aber nochmal: Imo ists prinzipiell wichtig, beste Spielbarkeit bei idealst möglicher Grafik zu bekommen. Ob das mit SM3.0/SM2.0 oder bi/tri-AF der Fall ist, ist hinfällig. Bi-AF ist halt schnell. Tw. so schnell das man statt 2xAA 4xAA dazuschalten kann, (mit dem Ziel der bestmöglichen BQ bei höchstmöglicher Performance) Wenn die Mipmaps nicht allzu grosse Kontrastunterschiede vorweisen ists auch normalerweise kein Problem.

Nur wird ATi bi-AF immer mehr überflüssig. Einerseits weil viele Shader für das zunehmende "Rauschen" in den Texturen sorgen, was Gift für Mipmaps ist. Andererseits, weil ATi bei der neuen Generation ohnehin mittlerweile mehrere Optimierungsstufen anbietet, und weil ich mich mit dem bi-AF zufrieden gebe, wenn ich dafür 1280x1024 mit 4xAA fahren kann (was bei Doom3 z.b. nicht geht (;)), aber bei Ut2004 ganz schön flüssig über den Schirm läuft.

Plasmafusion
2004-10-20, 22:37:51
Na hoffentlich ist das keine CPU-Limitierung.
Wär schad um das SLI.

Stimmt.
Ich gehöre zu den Freaks auf 2CPU.com die dem PCMark04 regelmäßig einen Push-up in der Hall-of-Flames geben. Mit 2x 3.3Ghz (Dual Xeon Nocona) bin ich selbst bei 3.2 Ghz mit Doom3, JointOps und FS2004 GPU limitiert.

Deswegen meine Schreibe, daß nVidia mit SLI den Leitungs-Vogel abschießen kann und speziell die Xeon-Freaks, die sich SLI möglicherweise eher leisten können, dann endlich ultimative CPU-Power mit ultimativer GPU-Power verbinden können.

Plasmafusion
2004-10-20, 22:39:51
Monologe kann man auch auf der eigenen Homepage veröffentlichen oder willst Du behaupten, dass bei diesem Titel eine ernsthafte Diskussion überhaupt möglich sein soll?

Natürlich, oder wird hier nur der Titel gelesen und dann losgepostet ?
Ich habe meine Meinung (den Titel) doch erläutert, sollte kein Problem sein.

Mr. Lolman
2004-10-20, 22:42:53
Stimmt.
Ich gehöre zu den Freaks auf 2CPU.com die dem PCMark04 regelmäßig einen Push-up in der Hall-of-Flames geben. Mit 2x 3.3Ghz (Dual Xeon Nocona) bin ich selbst bei 3.2 Ghz mit Doom3, JointOps und FS2004 GPU limitiert.


Ja dann, kann man sichs eh einfach machen. Die Leistung der aktuellen Generation ist mehr als gut, von ATi gibts momentan nich vergleichbares, also braucht man nix entscheiden. Wenn man sichs leisten will/kann, warum nicht?

Aber auch wie bei anderen Features würd ich erst mal sehen, wie SLI sich in der Praxis macht, bevor ich meine Entscheidung fälle

Plasmafusion
2004-10-20, 22:43:33
Kann ich nicht nachvollziehen, weil ich das mal angespielt habe, ausserdem:
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_40.html

Hallo,

ich weiss das der FS2004 auf 3Dc nicht sehr bekannt ist.
Die Benchmark-Resultate sind natürlich richtig.
Nur, ich bitte dies zu bedenken, ist der FS2004 ein Produkt das durch Add-Ons erst "lebt". Die 3rd Party Erweiterungen des FS2004 sind nicht nur notwendig um aus einem Spiel einen ernsthafen Simulator zu machen sondern fressen auch sehr viel Performance.

Nochmal zum Titel:
nVidia hat eine zukunftsfähige Tech gezeigt die extreme 3D-Probleme lösen kann. ATI kann es nicht. Das Mr. Alien eine Lösung hat ist nett, aber daran war ATI nicht beteiligt. Aus meinen anderen Erläuterungen und den vielen interessanten Antworten lässt sich daraus etwas ableiten für die nahe Zukunft.

StefanV
2004-10-20, 22:45:35
A) Bei nVidia gibt's ein Feature wo der 2D Desktop in "besseren" Farben dargestellt wird. Alles wirket etwas bunter, die Farben kräftiger.
Bei ATI ist alles etwas blass ...
Für die meisten ist das eher BIldverfälschung

B) Shader 3.0, auch wenns z.Zt. nur was für die 3D-Coder ist, so ist es nunmal ein technischer Fortschritt in die Zukunft.
Brauchte man bei Erscheinen des Pentium MMXs MMX??

C) SLI. Was hat ATI zu bieten ? Nix.
Muß dazu sagen, daß ich auf SLI aufrüsten werde, sobald es entsprechende Xeon-Mainboards frei am Markt geben wird.

Doch, Ask Alienware (das ist sogar 'ne offizielle ATi Aussage: 'wir bieten sowas nicht an, aber fragt mal bei Alienware).

flatbrain
2004-10-20, 22:46:47
Hallo,

ich weiss das der FS2004 auf 3Dc nicht sehr bekannt ist.
Die Benchmark-Resultate sind natürlich richtig.
Nur, ich bitte dies zu bedenken, ist der FS2004 ein Produkt das durch Add-Ons erst "lebt". Die 3rd Party Erweiterungen des FS2004 sind nicht nur notwendig um aus einem Spiel einen ernsthafen Simulator zu machen sondern fressen auch sehr viel Performance.

Nur limitiert da nicht unbedingt und aussschliesslich die Grafikkarte... zumal zumindest beim 2002er 3rd Party Erwieterungen nicht unbedingt "ressourcenfreundlich" gecodet waren...!

MadMan2k
2004-10-20, 22:49:51
Wenn man seine Meinung auf 3DC nicht mehr schreiben darf, ist dieses Phorum sinnfrei. Wohin mein Posting verschoben wird ist gleich, hauptsache es sei erlaubt seine Meinung schreiben zu dürfen und aus den Antworten anderer zu lernen und damit seinen eigenen Standpunkt überdenken zu können.

Bei den (unerwartet) vielen Postings zum Thema kann man froh sein das ein Gedakenaustausch auf diese Art möglich ist ! Immer locker bleiben ...
das Problem ist nicht, was du sagst, sondern zu wievieltem Male es gesagt wird.

Und in keiner der vorhergehenden "Diskussionen" hat sich eine Partei auch nur einen Millimeter bewegt. :rolleyes:

robbitop
2004-10-20, 22:51:44
Doch, Ask Alienware (das ist sogar 'ne offizielle ATi Aussage: 'wir bieten sowas nicht an, aber fragt mal bei Alienware).

Jap die Alienwarelösung ist sogar relativ brauchbar, da sie auch bei Render-2-Texture funktioniert. Ganz im Gegensatz zu AFR. (braucht man bei Alienware nicht vsync = allways on?). NV hat das intern mit einem Buffer gelöst.
Sollte allerdings nicht ganz an das Loadbalancing von SLi rankommen.
Warum nutzt man nicht einfach Supertiling (E&S macht das seit Jahren)?

MikBach
2004-10-20, 22:53:15
Hallo,

ich weiss das der FS2004 auf 3Dc nicht sehr bekannt ist.
Die Benchmark-Resultate sind natürlich richtig.
Nur, ich bitte dies zu bedenken, ist der FS2004 ein Produkt das durch Add-Ons erst "lebt". Die 3rd Party Erweiterungen des FS2004 sind nicht nur notwendig um aus einem Spiel einen ernsthafen Simulator zu machen sondern fressen auch sehr viel Performance.
Bei 3rd Party anbietern wäre ich vorsichtig.
Die wissen manchmal nicht wirklich über die Enginebeschränkungen bescheid und überfordern diese.

robbitop
2004-10-20, 22:55:36
Bei 3rd Party anbietern wäre ich vorsichtig.
Die wissen manchmal nicht wirklich über die Enginebeschränkungen bescheid und überfordern diese.
wenns nicht klappt, kann man doch neuinstallieren :)

ironMonkey
2004-10-20, 22:57:32
wenns nicht klappt, kann man doch neuinstallieren :)


Oder einen Thread aufmachen...........ehrlich gesagt erhofft er sich wohl zuviel von SLI.

flatbrain
2004-10-20, 23:00:48
Wobei m.E. die BQ im FS2004 auf nv-Hardware besser aussah (Texturflimmern, AF) !

cu flatbrain

PS: Und jedesmal mehrere Gb neuinstallieren macht auch nicht wirklich Spass ;) !

robbitop
2004-10-20, 23:03:11
Oder einen Thread aufmachen...........ehrlich gesagt erhofft er sich wohl zuviel von SLI.
SLi ist, muss ich als HW Enthusiast sagen , eine reizvolle Idee. Gerade mit meiner Wasserkühlung wäre das kein Problem. Aber das liebe Geld ....
Klar sinds "nur" 70% mehr Leistung, aber hey, das kann man schon jetzt haben.
Überall 8xS bei 1280x1024 bei 16xtriAF...*schwärm*

MikBach
2004-10-20, 23:05:05
wenns nicht klappt, kann man doch neuinstallieren :)
Das meinte ich nicht. :)
Anbieter von Erweiterungen, besonders für den MS Fight Simulator, überspannen den Bogen oft, weil ihnen das Spiel zu "leer" ist. Bei Flugsims hat man dann schnell zu viele Polygone, die die Graka bewältigen muss.

robbitop
2004-10-20, 23:08:11
Das meinte ich nicht. :)
Anbieter von Erweiterungen, besonders für den MS Fight Simulator, überspannen den Bogen oft, weil ihnen das Spiel zu "leer" ist. Bei Flugsims hat man dann schnell zu viele Polygone, die die Graka bewältigen muss.
Hm das stimmt..so habe ich das noch nicht gesehen...erinnert mich an Far Cry Aussenlevels ...siehst du jetzt hast du meinen Ärger wieder aufgeweckt.
Ich ärgere mich, dass On Chiptesslation mit echter Geometrie noch immer nicht eingesetzt wird. DM wurde vor 2 Jahren vorgestellt und nun nutzt man erst Normalmaps auf Pixelebene (und das wurde in den 90ern vorgestellt).
Somit könnte man diesem Polygonproblem teilweise aus dem Weg gehen...

ironMonkey
2004-10-20, 23:11:35
SLi ist, muss ich als HW Enthusiast sagen , eine reizvolle Idee. Gerade mit meiner Wasserkühlung wäre das kein Problem. Aber das liebe Geld ....
Klar sinds "nur" 70% mehr Leistung, aber hey, das kann man schon jetzt haben.
Überall 8xS bei 1280x1024 bei 16xtriAF...*schwärm*



Natürlich öffnet das neue Welten und mal erhlich jeder HW Freak oder Zocker ist genau darauf aus, aber was ist wenn es statt 70 beim FS 04 nur 50% sind.........keiner weiß wie schnell es dort ist, sicher es können aber auch 85% sein, was ja mehr als gut währe.

Gruß

Labberlippe
2004-10-20, 23:15:54
Gab es nicht schon erste Testsamples vom NV30 irgendwann 2002? ;)



Ich rede von der "Nutzbarkeit".
Fuer einem ATi user macht ein feature nur Sinn, wenn er es jetzt einseten kann. Er argumentiert, dass seine Lieblingsfirma genau mit diesem Feature kommen würde, wenn es benoetigt werde. Leider, sagt er mir nie, wann dieser Zeitpunkt ist.

Es geht ja nicht um die hersteller, sondern um die These, dass das SM3.0 heute beim NV40 kein Argument waere, weil ATi es beim Spieleeinsat auch haben würde.

Hi

Von dieser These rede ich auch nicht, nur ich akzeptiere die Meinung des Hestellers, wenn ATi meint das SM 3.0 noch nicht benötigt wird ist.

Wenn ich meine das ich dennoch SM 3.0 brauche dann kann ich ja zu nVIDIA greifen.

Nicht jeder ATi User denkt das SM3.0 nicht wichtig ist.

Gruss Labberlippe

Plasmafusion
2004-10-20, 23:17:57
Das meinte ich nicht. :)
Anbieter von Erweiterungen, besonders für den MS Fight Simulator, überspannen den Bogen oft, weil ihnen das Spiel zu "leer" ist. Bei Flugsims hat man dann schnell zu viele Polygone, die die Graka bewältigen muss.

Stimmt leider.

Nur, was willste machen ?
Z.B. bei möglichst realistischen Darstellungen der Flughafen-Gebäude benötigt man nunmal Polis um diese darzustellen. Da gibt es keinen Ausweg.

Oder man verzichtet auf die Scenery, arbeitet seine Checkliste ab und denkt sich, nah - in der Realität sieht's hier aber ganz anders aus ...
Das macht auf die Dauer aber keinen Spaß.

Bislang macht ATI bei diesem speziellem Programm eine gute Figur mit der X800 Serie und ich möchte mich auch nicht auf ein einziges Programm festlegen. Meine ursprünglichen Äußerungen sollen mehr allgemein verstanden werden ...

Investitionen, F&E in eine neue Tech kosten Millionen an (grünen) Scheinchen.
Mir kam halt die Einsicht das die einen zur Zeit lieber gut verdienen wärend die anderen versuchen so gut es geht neue Ideen in Produkte einzubauen um sich selbst als "High-Tech" Corp darstellen zu können. Das Ergebnis der beiden unterschiedlichen Strategien sehen wir ja hier.

robbitop
2004-10-20, 23:22:08
eigentlich sollte man bei 6xVS Units mit dem NV40/R420 ganz gut darstehen.

MikBach
2004-10-20, 23:36:35
eigentlich sollte man bei 6xVS Units mit dem NV40/R420 ganz gut darstehen.
Ich denke bei Flugsims reicht die VS-Power nicht aus. Da bin ich aber ehrlich gesagt wirklich überfragt woran es liegt. Wenn ich aber bedenke wie CPUlimitiert z.B. Comanche4 ist, denke ich dass die Graka da nicht wirklich was rausholen kann.

RyoHazuki
2004-10-20, 23:37:13
zu C) Was hatte nVidia als ATI die Rage Fury Maxx hatte?



Tschuldige,

aber damals war die TNT2 Ultra schon "fast" so schnell wie die Rage Fury Maxx. Die GeForce1 SDR war unter 16-Bit schneller, und unter 32-Bit langsamer. GeForce1 DDR (der Wahre gegner zu dieser zeit) War deutlich schneller in jeder hinsicht.

Also wozu hat Nvidia sowas gebraucht ? Geschweige denn damals 3dfx... (V3)

robbitop
2004-10-20, 23:39:57
Ich denke bei Flugsims reicht die VS-Power nicht aus. Da bin ich aber ehrlich gesagt wirklich überfragt woran es liegt. Wenn ich aber bedenke wie CPUlimitiert z.B. Comanche4 ist, denke ich dass die Graka da nicht wirklich was rausholen kann.

hm scheinbar können die bloß nicht mit Level of Detail und Antiportalen umgehen. 6 MIMD VS sind eine ganze Menge...

MikBach
2004-10-20, 23:43:46
Tschuldige,

aber damals war die TNT2 Ultra schon "fast" so schnell wie die Rage Fury Maxx. Die GeForce1 SDR war unter 16-Bit schneller, und unter 32-Bit langsamer. GeForce1 DDR (der Wahre gegner zu dieser zeit) War deutlich schneller in jeder hinsicht.

Also wozu hat Nvidia sowas gebraucht ? Geschweige denn damals 3dfx... (V3)
Die Rage Fury Maxx war auf Grund der Implementation(Treiber) schrott. Heute sind wir viel weiter, was die Technologie angeht. Das Problem ist halt, dass man das heute nicht mehr braucht, ausser ein paar Mann, wie z.B. tombman :)
Zu Voodoo2 Zeiten war es für viele ein Segen, aber leider sehr teuer. Heute ist SLI auch teuer, der Mehrwert bleibt leider auf der Strecke. SS-Modi mal ausgenommen. Die Vorteile von SS können leider nur die wenigsten sehen/nachvollziehen.

MikBach
2004-10-20, 23:45:35
hm scheinbar können die bloß nicht mit Level of Detail und Antiportalen umgehen. 6 MIMD VS sind eine ganze Menge...
Ja, deswegen schrieb ich ja auch, dass ich eher an CPU Limitierung glaube.
Mit dem LOD dürftest du aber gar nicht so falsch liegen. ;)

Plasmafusion
2004-10-20, 23:48:05
Ich denke bei Flugsims reicht die VS-Power nicht aus. Da bin ich aber ehrlich gesagt wirklich überfragt woran es liegt. Wenn ich aber bedenke wie CPUlimitiert z.B. Comanche4 ist, denke ich dass die Graka da nicht wirklich was rausholen kann.

Auch mit 3.7Ghz Xeons ändert sich da nix. Ist ein klares GPU-Problem.

MikBach
2004-10-20, 23:54:00
Auch mit 3.7Ghz Xeons ändert sich da nix. Ist ein klares GPU-Problem.
Mag in diesem Fall(MS FS 2004) zutreffen. Das will ich aber erstmal sehen. ;)

RyoHazuki
2004-10-20, 23:55:36
SLI,

Wird immer teuer bleiben. Aber ich "prophezeie" das es mehr leute geben wird, als wir denken die das haben wollen UND es auch kaufen.

- Manche haben ein nutzen drauß (Doom3 mit 60FPS) und solche spielchen.
- Aber andere, und das sind VIELE, geht es um was ganz anderes (wenn auch nur im hinterkopf und heimlich). Das ganze nennt sich "phänomen" 3DMARK

LovesuckZ
2004-10-21, 08:37:05
Ich finde an diesem Thread nichts besonderes.
Man sollte aber nicht die Meinung zu Gunsten eines IHV ändern, wie es LS tut.
Einmal sind ihm kurze Shader schlecht, dann will er einen langen Shader in mehrere kleine aufteilen. Was soll denn das?
So viel Courage muss sein. :cool:

Nun, dann will ich mal:
im Gegensatz zu dir bin ich in der Lage aufgrund ein wenig Wissen mir eine Meinung zu bilden, die ich nicht für das Verteidigen von meinem geliebten IHV benoetige.
Du redest davon, dass die Moeglichkeit für laengere Shader eine bessere Bildqualitaet liefern würden (#69). Ich, gekonnt, widerspreche dir, weil entweder die Moeglichkeit für laengere Shader eine bessere IQ bieten würde ("Ist SM2 schon am Ende? Nein!") oder nicht. Gleichzeitig bringe aber die weiteren Eigenschaften vom Sm2.a oder Sm3.0 keine Besserung ("Der Rest ist Kosmetik, bringt keine bessere BQ").
Merkst du die Doppelmoral? Einerseits reiche SM2.0 (keine Leistungs- und Qualitaetseinbußen), andererseits sollten laenge Shader die BQ verbessern und zum Schluß würden die anderen Leistungssteigerungen des NV3x/NV4x nur für die Kosmetik waeren (keine besserer BQ).
Und ich nehme den Punkt gerne:
Ich finde es eine frechheit von dir, mit hier sowas vorwerfen zu lassen. Du bist selbst nicht in der Lage, bestimmte Situationen zu erkennen und redest nur das nach, was du von ATi vernommen hast. Bist ein williger, nicht denkender ATi Anhaenger.
Schade, dass die Moderation Lueger in diesem Forum duldet. Aber es ist bekannt, dass ATi freundliche Meinungen auch mit Luegen nicht geloescht werden :(

LovesuckZ
2004-10-21, 08:59:19
So kommen wir vom 100. ins 1000. über 6600GT und x700XT hab ich noch kein Urteil gefällt.

Ich rede nur vom SM, du redest von den Karten. Also warum zaehlen die Stromverbrauchswerte des NV43 und R410 nicht?
Selbst der NV44 (Vaporware) verbraucht genauso viel wie ein X300. Immernoch "zu hoher Stromverbauch"?

Bei mir war im konkreten Fall Langzeitnutzbarkeit wichtig. Das hat sich mit konstant hoher Performance bei technisch unterlegener HW im Vergleich zum NV Konkurrenten mehr als erfüllt.

Dafür hast du einen erhoehten Stromverbrauch im 2D Modus in kauf genommen. ;)

Bei der aktuellen Generation betrachte ich es als sinnfrei sich auf Features zu fixieren, über deren Zusatznutzen man nur spekulieren kann.

Dann stuenden zwei gleichschnelle Grafikkarten gegenüber, die genauso viel koennen.


Texturkompression bringt im weiteren Sinne auch "tolle neue Eyecandy", wie freigewordene Performance für nochmehr und/oder höher aufgelöste Texturen. (oder halt mehr Festplattenplatz für mehr Pixs=mehr Candy ;))

Dann bedeutet das auch:
[Shadermodel 3.0] bringt im weiteren Sinne auch "tolle neue Eyecandy", wie freigewordene Performance für [laengere Pixelshader]. (oder halt mehr Rechenleistung für mehr Anweisungen=mehr Candy ;))

Ganz versteh ich nicht wie du den BQ Verlust im Zusammenhang bei SM3.0 sehen willst, aber nochmal: Imo ists prinzipiell wichtig, beste Spielbarkeit bei idealst möglicher Grafik zu bekommen.

Das beißt sich mit der Aussage oben, dass neue Features eine bessere Eye - Candy bieten müssten.
Meine Frage: Wenn du ueber eine Karte verfuegst, welche das SM2.a/3.0 unterstuetzt und du damit einen Leistungssprung gegenueber SM2.0/PS2.b hast, würdest du diesem Pfad nehmen?
Ich darf die Antwort wohl vorwegnehmen: Nein ("tollen neuem Feature auch tolle neue Eyecandies")!

MikBach
2004-10-21, 09:18:39
Nun, dann will ich mal:
Schön.
Damit wir nicht aneinander vorbeireden:
Wir reden hier von R420 und NV40, also 3.0 gegen 2.B.

im Gegensatz zu dir bin ich in der Lage aufgrund ein wenig Wissen mir eine Meinung zu bilden, die ich nicht für das Verteidigen von meinem geliebten IHV benoetige.
Dein tolles Wissen hast du ja schon mit SM2.a "bewiesen", welches es nicht gibt. :P

Du redest davon, dass die Moeglichkeit für laengere Shader eine bessere Bildqualitaet liefern würden (#69). Ich, gekonnt, widerspreche dir, weil entweder die Moeglichkeit für laengere Shader eine bessere IQ bieten würde ("Ist SM2 schon am Ende? Nein!") oder nicht. Gleichzeitig bringe aber die weiteren Eigenschaften vom Sm2.a oder Sm3.0 keine Besserung ("Der Rest ist Kosmetik, bringt keine bessere BQ").
Merkst du die Doppelmoral? Einerseits reiche SM2.0 (keine Leistungs- und Qualitaetseinbußen), andererseits sollten laenge Shader die BQ verbessern und zum Schluß würden die anderen Leistungssteigerungen des NV3x/NV4x nur für die Kosmetik waeren (keine besserer BQ).
Welche Doppelmoral?
Du solltest meine Postings besser/genauer lesen und vielleicht auch verstehen. :D
Und noch mal. Wir reden hier über 2.B gegen 3.0 und nicht über 2.0.
Gegenüber 2.0 kann 2.B und 3.0 bessere BQ und/oder Performance bringen, weil man mit längeren Shadern viele Sachen anstellen kann, wie z.B. mehrere kleine Shader zu einem langen zusammenfassen kann, was unter Umständen bessere Performance bringen kann. Nur gilt das genauso für 2.b wie für 3.0.

Und ich nehme den Punkt gerne:
Ich finde es eine frechheit von dir, mit hier sowas vorwerfen zu lassen. Du bist selbst nicht in der Lage, bestimmte Situationen zu erkennen und redest nur das nach, was du von ATi vernommen hast. Bist ein williger, nicht denkender ATi Anhaenger.
Schade, dass die Moderation Lueger in diesem Forum duldet. Aber es ist bekannt, dass ATi freundliche Meinungen auch mit Luegen nicht geloescht werden :(
Netter Flameversuch. ;)
Nur falle ich nicht drauf ein. :D
Ich habe nichts von ATI vernommen. Das was die IHVs von sich geben, geht mir ehrlich gesagt am Allerwertestem vorbei. Und so sollte es bei dir auch sein.
Wenn ich deine Lobeshymnen über SM3 beim NV40 sehe, komme ich leider zu dem Schluss, dass du zu viel bei Nvidia aufgeschnappt hast.
Ich spreche hier Tatsachen an, die du nicht widerlegen kannst.
Ich kann in meinen Postings keine Lügen erkennen. Du interpretierst da was rein, was gar nicht da steht.
Ich wäre vorsichtig mit solchen Behauptungen.
Du hast mich ja schon mal des Lügens bezichtigt, und deine Unkenntnis blosgestellt. ;)
Du erinnerst dich bestimmt noch an die Diskussion über die Treiberpolitik von Nvidia(nicht die gestern).
Falls nicht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2257100&postcount=372
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2257186&postcount=373
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2257221&postcount=376

So, jetzt darfst du weiter flamen. ;D

Quasar
2004-10-21, 09:22:47
Vielleicht könntet ihr aufhören, euch gegenseitig Unkenntnis und IHV-Hörigkeit vorzuwerfen?

Der, der ohne Sünde ist, werfe den ersten Stein. ;)

Phoenix03
2004-10-21, 09:29:36
Was mich persönlich an ATi stört Sind die Treiber und das sie an ihrem 24bit
festhalten womit Motionblure scheisse aussieht aber das fellt den wenigsten auf.
Freund ist von seiner 9700pro zur 6800LE gewechselt und hat sich die freigeschaltet, jeden falls haben wir SWB gezoggt und es ist ihm sovort ins augestochen und fragt mich nur wieso ihm das Früher nie aufgefallen ist.

Naja jetzt werden wieder die leute auf schreihen nein das kann nicht sein man merkt kein unterschied von 24 zu 32 ihr vielleicht nicht ich schon.
Nicht jeder nimmt Farbstiefen gleich gut war.

MikBach
2004-10-21, 09:51:58
Was mich persönlich an ATi stört Sind die Treiber und das sie an ihrem 24bit
festhalten womit Motionblure scheisse aussieht aber das fellt den wenigsten auf.
Freund ist von seiner 9700pro zur 6800LE gewechselt und hat sich die freigeschaltet, jeden falls haben wir SWB gezoggt und es ist ihm sovort ins augestochen und fragt mich nur wieso ihm das Früher nie aufgefallen ist.

Naja jetzt werden wieder die leute auf schreihen nein das kann nicht sein man merkt kein unterschied von 24 zu 32 ihr vielleicht nicht ich schon.
Nicht jeder nimmt Farbstiefen gleich gut war.
Das ist jetzt aber nicht dein Ernst?
Lies dich mal hier ein:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=177593&page=4&pp=20
ATI bietet zur Zeit auf jeden Fall die besseren Treiber und die bessere Treiberpolitik.
Zur BQ steht da auch was.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=169238
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2358513&postcount=64

Ich glaube du lebst klein wenig in der Vergangenheit. ;)
Heute sind die Treiber von ATI einfach besser.
Die BQ ist sehr subjektiv, deswegen sollte man sich da nicht zu sehr reinsteigern. :)

Zum 24bit Problem:
Du meinst FP24?
Der Motionblurshader ist nicht lang genug um schlechter als FP32 auszusehen. Vielleicht liegts am Gamma.

Phoenix03
2004-10-21, 09:59:27
Der Motionblurshader ist nicht lang genug um schlechter als FP32 auszusehen. Vielleicht liegts am Gamma.

Mag sein ich weis ja nicht was er eigestellt hat ich kenn nur den direkten Monitor vergleich wenn man beide neben einander stellt.

flatbrain
2004-10-21, 10:02:03
ATI bietet zur Zeit auf jeden Fall die besseren Treiber und die bessere Treiberpolitik.
...
Heute sind die Treiber von ATI einfach besser.


Wo denn - Belege, Beweise oder sonstwas in der Richtung, um zu belegen, dass die Treiber von ATi besser sind im Vergleich zu nV?
Was ist besser in deinen Augen?

cu flatbrain

PS: Der erste, der jetzt mit Fanboy ankommt, bekommt nen Fisch von mir!!!

HOT
2004-10-21, 10:22:20
Hab auch nu ne Geforce und muss sagen, dass die ATI Treiber auf keinen Fall schlechter sind ;) IMHO tut sich da nicht viel.

LZ
2004-10-21, 10:22:45
Dein tolles Wissen hast du ja schon mit SM2.a "bewiesen", welches es nicht gibt. :P

Nein?
Wie kann es dann ein Shaderprofil 2.a geben?

Und noch mal. Wir reden hier über 2.B gegen 3.0 und nicht über 2.0.

Aehm, nein. Wir reden auch ueber das SM2.0 ("Ist SM2 schon am Ende? Nein!")

Gegenüber 2.0 kann 2.B und 3.0 bessere BQ und/oder Performance bringen, weil man mit längeren Shadern viele Sachen anstellen kann, wie z.B. mehrere kleine Shader zu einem langen zusammenfassen kann, was unter Umständen bessere Performance bringen kann. Nur gilt das genauso für 2.b wie für 3.0.

Man sollte die Faehigkeiten nicht anhand der Shaderlaenge festmachen. Wie oft muss das noch gepraedigt werden?
Der R420 ist nicht in der Lage, das Shaderprofil 2.a auszufuehren, da ihm einige Eigenschaften fehlen.
Ansonsten bringen PS2.b nur etwas, wenn die Shaderlaenge bei einem PS2.0 nicht mehr ausreiche. Dagegen kann das 2.a und 3.0 Profil auch bei kurzen Shadern Leistung bringen.
Und das beweisen Shadermark 2.1 und 3DMark2005.

Ich spreche hier Tatsachen an, die du nicht widerlegen kannst.

Falsch. Du schriebst keine Tatsachen, du schreibst subjektive Wahrnehmungen, die jeglicher Argumentationsbasis fehlt.


Ich wäre vorsichtig mit solchen Behauptungen.
Du hast mich ja schon mal des Lügens bezichtigt, und deine Unkenntnis blosgestellt. ;)


Du wirst andere "Unkenntnis" vor. Aus deinem Munde klingt das wie Ironie pur.

Gast
2004-10-21, 10:30:39
man muss es mal so sehen ..

irgendeiner MUSS anfangen neue technologien einzubauen..

wenn ATI dieser "vorreiter" gewesen wäre..
dann würden wir warscheinlich mit 4Pipelines und keine shader leben müssen..

die ruhen sich so ein bisschen aus und lassen NV die vorarbeit ..

NV bringt neue entwiklungen mit in den bereich wo es jetzt noch keine unterstützung gibt..

aber warum sollen die spieleentwickler etwas einbauen was eh von keiner HW umgesetzt werden kann
es würde im endeffekt irgendwo stehenbleiben...

OK NV ist komplexer und anfälliger .. aber NV spielt meist den vorreiter ..und hat in dem fall auch mit diesem MEHR an problemen zu kämpfen..

und da muss man mal eingestehen das sie das bis jetzt gut hinbekommen haben...

genau wie AMD mit der 64bit technologie..
kaum programme nutzen das auch aus..
aber jetzt kommen immer mehr mit 64bit unterstützung...

Crushinator
2004-10-21, 10:31:21
Nur zur Info: Es hat in diesem Thread in so kurzer Zeit so viele Gegenseitige Flames oder Andeutungen solcher gegeben, daß es diesen definitiv nachgegangen wird. Einige dürfen sich jetzt schon über die Konequenzen freuen. Traurige Stimmung kann man nur dazu sagen.

MikBach
2004-10-21, 11:15:12
ATI bietet zur Zeit auf jeden Fall die besseren Treiber und die bessere Treiberpolitik.

Kleine Berichtigung.
Von meinem Lob ist das CCC ausgeschlossen.
ATI sollte endlich mal aufhören Kapazitäten für Sachen zu verschwenden, die die Welt nicht braucht und eine Unterstützung für die mobilen Chips in ihrem Treiber einbauen.

@LS
ist sehe die Diskussion mit dir als beendet an.
Wenn du nicht peilst, dass das ShaderModel 2 eine Obermenge von 2.b und 2.a ist, ist eine sinnvolle Diskusion mit dir nicht möglich.

Coda
2004-10-21, 11:22:23
Wenn du nicht peilst, dass das ShaderModel 2 eine Obermenge von 2.b und 2.a ist, ist eine sinnvolle Diskusion mit dir nicht möglich.
Das ist doch Haarspalterei und spielt hier in der Diskussion gar keine Rolle :/

flatbrain
2004-10-21, 11:24:18
@MikBach

Ich warte noch auf eine Antwort auf meine Fragen...

Phoenix03
2004-10-21, 11:24:30
Wenn ich scharf nach denke dann ist mir ähnliches bei NFSU aufgefallen.
und Gamma kann es eigentlich nicht sein weil ansonsten das Bild gleich aus sah gleiche auflösung und Filter,etc

Quasar
2004-10-21, 11:28:39
Phoenix03,
was du meinst, denke ich, liegt eher daran, daß die ATi-ROPs etwas 'schwächer' in Sachen Alpha-Blending sind. Das ist damals bei den Streitereien um den Aquamark3 aufgefallen und auch von ATi bestätigt worden.

Wishnu
2004-10-21, 11:47:48
C) SLI. Was hat ATI zu bieten ? Nix.
Muß dazu sagen, daß ich auf SLI aufrüsten werde, sobald es entsprechende Xeon-Mainboards frei am Markt geben wird.


Derzeit imho reine Geldverschwendung.
Aber das sehen die 3DMark-Jünger bestimmt anders.

Mr. Lolman
2004-10-21, 12:05:34
Ich rede nur vom SM, du redest von den Karten. Also warum zaehlen die Stromverbrauchswerte des NV43 und R410 nicht?
Selbst der NV44 (Vaporware) verbraucht genauso viel wie ein X300. Immernoch "zu hoher Stromverbauch"?

Sicher zählen die für jemanden. Nur muss man alles aufwiegen. Und SM3.0 ist in meinen Augen nich so der Grosse Vorteil, dass er ale anderen genannten Punkte aufwiegt. BTW: Woher nimmst du deine ganzen Stromverbrauchsinfomationen?


Dafür hast du einen erhoehten Stromverbrauch im 2D Modus in kauf genommen. ;)

Mit ATi Tool eher nicht (hab die Karte im 2D Modus lange Zeit mit 75/250 laufen lassen), aber wie gesagt, mir persönlich ist der Stromverbrauch eh fast wurscht, solang sich der nicht mit erhöhter Kühlerlautstärke bemerkbar macht.

Dann stuenden zwei gleichschnelle Grafikkarten gegenüber, die genauso viel koennen.

Stimmt fast. Auf jedenfall ist der Unterschied bei weitem nicht mehr so Grosswie noch bei der FX Reihe, die du ja auch eisern verteidigt hast.


Dann bedeutet das auch:
[Shadermodel 3.0] bringt im weiteren Sinne auch "tolle neue Eyecandy", wie freigewordene Performance für [laengere Pixelshader]. (oder halt mehr Rechenleistung für mehr Anweisungen=mehr Candy ;))

Dafür sind die Architekturunterschiede zu gross. Texturkompression würd ich auch als sinnlos empfinden, wenn die jew. GraKa dadurch kaum einen Performancevorteil gewinnen würde.


Das beißt sich mit der Aussage oben, dass neue Features eine bessere Eye - Candy bieten müssten.
Meine Frage: Wenn du ueber eine Karte verfuegst, welche das SM2.a/3.0 unterstuetzt und du damit einen Leistungssprung gegenueber SM2.0/PS2.b hast, würdest du diesem Pfad nehmen?

Klar würd ich den Pfad nehmen. Wenn aber ne andere GraKa gibt, die mit SM2.0/PS2.b genauso schnell ist wie die SM3.0 Karte und sonst vielleicht noch andere Vorteile bietet, würd ichs mir nochmal überlegen, es sei denn die SM3.0 Karte bringt mir irgendwo "tolle neue Eyecandies" ;)

MikBach
2004-10-21, 12:07:33
@MikBach

Ich warte noch auf eine Antwort auf meine Fragen...
OK. :)

ab hier mal überfliegen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=177593&page=6&pp=20
Besonders diesen Post: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2359423&postcount=112
Treiber Support von Nvidia, nein danke. ;)

Der aktuelle offizielle Treiber von ATI (Cat 4.10) (http://www.ati.com) ist definitiv besser als der aktuelle offizielle von Nvidia (61.77) (http://www.nvidia.com/object/winxp_2k_61.77)
Schau einfach mal zum Thema 61.77 ins Nvidia Forum. ;)

Nvidia sollte endlich mal aufhören ihre Kunden mit Betatreibern zu verarschen und regelmässig brauchbare Finals zu bringen.
Ich habe nichts dagegen wenn man zwischen 2 Finals 1 oder 2 Betatreiber bringt, aber bitte nicht 20 oder mehr, weil man da komplett den Überblick verliert.
Und wenn man den Nutzer schon zwingt Betatreiber anzuwenden, weil neuere Spiele nicht vernünftig laufen(egal ob Performance oder BQ), dann auch bitte auf der Homepage verlinken, wie bei ATI, damit man nicht im Netz suchen muss.
Der Treiber Support von Nvidia ist wirklich grottenschlecht.

PS habe nichts gegen Betatreiber, benutze zur Zeit auch den 8.07 Beta von ATI. Ist aber der erste Beta von ATI, den ich einsetze.
Bei Nvidia wird man praktisch gezwungen Betatester zu spielen, weil offizielle Treiber Mangelware sind. Alle Jahre wieder...

Phoenix03
2004-10-21, 12:14:11
Phoenix03,
was du meinst, denke ich, liegt eher daran, daß die ATi-ROPs etwas 'schwächer' in Sachen Alpha-Blending sind. Das ist damals bei den Streitereien um den Aquamark3 aufgefallen und auch von ATi bestätigt worden.

Stimmt darn kann ich mich noch gut erinnern

flatbrain
2004-10-21, 12:22:07
Ich hab den kompletten Thread gelesen, allerdings ist mir dabei nicht bewusst geworden, was an ATis Treibern besser ist? Der 4.10er bereitet sehr vielen Usern Probleme, ebenso der 61.77er - davon abgesehen sollte der 66.81er der letzte offizielle sein. Mit BUgs haben beide IHVs zu kämpfen, da ist es mir persönlich egal, ob jeden Monat ein Treiber released wird, wenn der dann letztlich entweder neue Bugs hat oder für mich uninteressante Bugs beseitigt. Dass ich mir von nV auch etwas regelmässigere Updates erhofft habe, steht auf einem anderen Blatt. Womit aber immernoch unklar ist, was am Treiber an sich bei ATi besser ist..., die Einstellungen sind bei beiden ähnlich, die Multidisplayoptionen sind imo bei nVs nView besser gelöst, dafür sind die die Optionen für 3D-Einstellungen bei ATi übersichtlicher gelöst (imo), also halten sich die Treiber ansich durchaus qualitativ die Waage - vom OGL ATis mal abgesehen!

Also noch mal meine Frage, was zeichnet den ATi-Treiber aus, dass du zu der Schlussfolgerung kommst, ATi-Treiber wären auf jeden Fall besser ?

cu flatbrain

PS: Und jetzt bitte nicht wieder von vorn mit der Treiberreleasepolitik anfangen....

/€: nVs letzter verlinkter offizieller ist tatsächlich noch der 61.77er...

robbitop
2004-10-21, 12:25:55
@mikbach
mir ist aufgefallen, dass du das Wort "Wissen" ab und an mit "Auswendigkönnen von Abkürzungen" gleichsetzt. Klar sollte man sowas auch mal exakt wissen. Aber ich denke, zu wissen, wie etwas genau funktioniert, ist wichtiger als Haarspaltereien über akurate Abkürzungen und Schlagworte.


Zum Thema: Das Profil 2.B bietet immerhin ggü Profil 2.0 den Vorteil deutlich mehr Interpolatoren zu haben. Das kann man schon gut nutzen.


Was mir zum Thema Nutzbarkeit von PS1.4 eingefallen ist, so sehe ich eine Analgoie zu NVs 2.a Profil (welches dem 2.b ja deutlich überlegen ist). Es wird wohl nie oder wenig genutzt werden, ist aber ein Schritt in die Zukunft und hilft indirekt, einem Nachfolger genutzt zu werden.
PS1.4 war sehr nahe an PS2. Hauptsächlich die Umstellung von von FX in FP war der Unterschied. Bei 2.a zu 3 wars die dynamische Flusskontrolle im PS und TMUs im VS und dynamisches Verzweigen und Springen.
Dadurch dass die Umstellung klein war konnte der IHV jeweils durch eine HW Basis schnell auf die nächste Springen.
Somit sind weder PS1.4 noch Profil 2.a je direkt wichtig gewesen. Nur im indirekten Weg. Ein Fortschritt waren beide.
SM2 setze ich eher mit SM3 gleich, da beides nun sehr leicht nutzbar war und in der Nachfolgegeneration zum Einsatz kam. Technologisch kommen beide Sprünge auch ähnlich hin. Vom Nutzen ist natürlich der Sprung von PS1.3 auf PS2 höher als von PS2 auf PS3.

bitte um Korrektur und anderen Gedanken zu dieser Analogie.

reunion
2004-10-21, 12:36:11
Also warum zaehlen die Stromverbrauchswerte des NV43 und R410 nicht?


Da gehen die Werte allerdings auseinander, so verbraucht laut PCGH die 6600GT mehr als die X700XT.


Selbst der NV44 (Vaporware) verbraucht genauso viel wie ein X300. Immernoch "zu hoher Stromverbauch"?


Quelle? (Erscheint mir sehr unlogisch angesichts der nur 75mio Transistoren @ 110nm und lediglich 300mhz Chiptakt bei X300)

MikBach
2004-10-21, 12:44:53
@ flatbrain

Nvidia:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2358185&postcount=29
Und hier handelt es sich um den 66.81. Der 61.77 hat noch mehr Bugs.
ATI:http://www2.ati.com/drivers/Catalyst_410_release_notes.html

Was mir an ATI auch gefällt, dass sie sich auch um ältere Medelle kümmern. Da sieht es bei Nvidia viel schlechter aus. GF FX und GF4 User wissen bestimmt was ich meine. ;)

Aber lassen wir das. Ich kann mich darauf einigen, dass beide Treiber gleich gut/schlecht sind. :)

Was mich wirklich ankotzt ist die Treiberpolitik bei Nvidia und der Support.
Versuche mal als privater mit Nvidia in Kontakt zu treten. ;)
Bei ATI kein Problem: http://www.ati.com/support/contact.html

Black-Scorpion
2004-10-21, 12:47:19
Tschuldige,

aber damals war die TNT2 Ultra schon "fast" so schnell wie die Rage Fury Maxx. Die GeForce1 SDR war unter 16-Bit schneller, und unter 32-Bit langsamer. GeForce1 DDR (der Wahre gegner zu dieser zeit) War deutlich schneller in jeder hinsicht.

Also wozu hat Nvidia sowas gebraucht ? Geschweige denn damals 3dfx... (V3)
Wo geht es den um Geschwindigkeit in dem Thred?
Da wird eine Technik hochgelobt (nVidia SLI) und wenn man ein Gegenargument bringt, kommt sofort der Konter das sie es ja nicht gebraucht haben.
Es ging hier nur um die Technik.
Und da hatte nVidia zu der Zeit so etwas einfach nicht, ob sie es gebraucht haben oder nicht ist hier völlig egal.

Und wie ich auch schon mal geschrieben habe, gibt es bis jetzt nur Zahlen von nVidia.
Unabhängige Test zu SLI gibt es afaik noch nicht.
Also immer schön abwarten was es wirklich bringt und ob es immer und überall problemlos läuft.

MikBach
2004-10-21, 12:49:50
@mikbach
mir ist aufgefallen, dass du das Wort "Wissen" ab und an mit "Auswendigkönnen von Abkürzungen" gleichsetzt. Klar sollte man sowas auch mal exakt wissen. Aber ich denke, zu wissen, wie etwas genau funktioniert, ist wichtiger als Haarspaltereien über akurate Abkürzungen und Schlagworte.
Klar ist das Wissen wie etwas funktioniert wichtiger. Ich verbessere halt, wenn jemand was falsches sagt, damit die anderen das nicht falsch "behalten".


Zum Thema: Das Profil 2.B bietet immerhin ggü Profil 2.0 den Vorteil deutlich mehr Interpolatoren zu haben. Das kann man schon gut nutzen.


Was mir zum Thema Nutzbarkeit von PS1.4 eingefallen ist, so sehe ich eine Analgoie zu NVs 2.a Profil (welches dem 2.b ja deutlich überlegen ist). Es wird wohl nie oder wenig genutzt werden, ist aber ein Schritt in die Zukunft und hilft indirekt, einem Nachfolger genutzt zu werden.
PS1.4 war sehr nahe an PS2. Hauptsächlich die Umstellung von von FX in FP war der Unterschied. Bei 2.a zu 3 wars die dynamische Flusskontrolle im PS und TMUs im VS und dynamisches Verzweigen und Springen.
Dadurch dass die Umstellung klein war konnte der IHV jeweils durch eine HW Basis schnell auf die nächste Springen.
Somit sind weder PS1.4 noch Profil 2.a je direkt wichtig gewesen. Nur im indirekten Weg. Ein Fortschritt waren beide.
SM2 setze ich eher mit SM3 gleich, da beides nun sehr leicht nutzbar war und in der Nachfolgegeneration zum Einsatz kam. Technologisch kommen beide Sprünge auch ähnlich hin. Vom Nutzen ist natürlich der Sprung von PS1.3 auf PS2 höher als von PS2 auf PS3.

bitte um Korrektur und anderen Gedanken zu dieser Analogie.
Full Ack.

Gast
2004-10-21, 12:52:12
Zum Thema: Das Profil 2.B bietet immerhin ggü Profil 2.0 den Vorteil deutlich mehr Interpolatoren zu haben. Das kann man schon gut nutzen.

Nein, er bietet genauso viel (wenig) wie 2.0, 2.a.

Was mir zum Thema Nutzbarkeit von PS1.4 eingefallen ist, so sehe ich eine Analgoie zu NVs 2.a Profil (welches dem 2.b ja deutlich überlegen ist). Es wird wohl nie oder wenig genutzt werden, ist aber ein Schritt in die Zukunft und hilft indirekt, einem Nachfolger genutzt zu werden.

Der Vergleich ist unpassend, da ein einfaches compilieren schon reicht, um Vorteile durch die erweiteren Faehigkeiten des Nv3x/4x zu erzielen.

Quasar
2004-10-21, 12:56:02
Versuche mal als privater mit Nvidia in Kontakt zu treten. ;)
Versuch mal, als Privater bei nVidia 'ne Grafikkarte zu kaufen....

Bei ATI kein Problem: http://www.ati.com/support/contact.html
...bei ATi kein Problem:
http://www.ati.com/buy/index.html

Da liegt der Unterschied: Als 'Großhändler' schließt nVidia Kaufverträge mit den 'Einzelhändlern' und diese dann in Folge wieder mit dir als Endverbraucher.
ATi wendet sich (für die US of A und Canada) direkt an den Endverbraucher und ist somit verpflichtet, Support für seine Produkte zu leisten.

Gast
2004-10-21, 12:56:06
Klar ist das Wissen wie etwas funktioniert wichtiger. Ich verbessere halt, wenn jemand was falsches sagt, damit die anderen das nicht falsch "behalten".


Warum verbesserst du dich nie?

Gast
2004-10-21, 12:56:49
Warum verbesserst du dich nie?

It's me, Ma... LovesuckZ

Tjell
2004-10-21, 13:05:20
Versuch mal, als Privater bei nVidia 'ne Grafikkarte zu kaufen....

...bei ATi kein Problem:
http://www.ati.com/buy/index.html

Da liegt der Unterschied: Als 'Großhändler' schließt nVidia Kaufverträge mit den 'Einzelhändlern' und diese dann in Folge wieder mit dir als Endverbraucher.
ATi wendet sich (für die US of A und Canada) direkt an den Endverbraucher und ist somit verpflichtet, Support für seine Produkte zu leisten.
Stimmt ja! :idea:
Daher auch das "built by ATI" bzw. "powered by ATI".
Hatte ich vollkommen vergessen.

Allerdings ist nVIDIA nicht "Großhändler" sondern Hersteller, der wiederum Karten- und Boardhersteller beliefert, sei es mit z. B. kompletten Grafikkarten oder mit Chipsätzen. In der Kette folgend dann noch die Großhändler, die Einzelhändler um dann schließlich beim Kunden zu enden (kürzeste Handelskette). :)

LZ
2004-10-21, 13:06:58
Was mich wirklich ankotzt ist die Treiberpolitik bei Nvidia und der Support.
Versuche mal als privater mit Nvidia in Kontakt zu treten. ;)


kein problem (http://www.nvidia.de/object/linux_display_ia32_1.0-6111_de)

flatbrain
2004-10-21, 13:08:23
@ flatbrain

Nvidia:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2358185&postcount=29
Und hier handelt es sich um den 66.81. Der 61.77 hat noch mehr Bugs.
ATI:http://www2.ati.com/drivers/Catalyst_410_release_notes.html

Was mir an ATI auch gefällt, dass sie sich auch um ältere Medelle kümmern. Da sieht es bei Nvidia viel schlechter aus. GF FX und GF4 User wissen bestimmt was ich meine. ;)

Aber lassen wir das. Ich kann mich darauf einigen, dass beide Treiber gleich gut/schlecht sind. :)

Was mich wirklich ankotzt ist die Treiberpolitik bei Nvidia und der Support.
Versuche mal als privater mit Nvidia in Kontakt zu treten. ;)
Bei ATI kein Problem: http://www.ati.com/support/contact.html

Reduziere die known issues auf bei beiden IHVs auf Consumerkarten... ansonsten siehe Quasar. Und Verbesserungen beziehen sich auch bei ATi fast nur auf neue Karten...

MikBach
2004-10-21, 13:09:07
Warum verbesserst du dich nie?
LS,
es steht jedem frei mich zu verbessern, wenn ich Scheisse erzähle.
Das erwarte ich auch. Man lernt nie aus, und jeder macht mal Fehler.

@Quasar
Hör doch auf mit der alten Leier. Du weisst doch ganz genau, dass die Treiber von Nvidia kommen. Nvidia will doch nur den Grakaherstellern mehr Arbeit unterjubeln. Deswegen verzichten sie auf den direkten Support.
Echt ein starkes Stück von Nvidia. Betatreiber den Herstellern anbieten, damit falls etwas schief läuft, man es auf den Hersteller abwälzen kann. Einfach feige.
Ausserdem würde Nvidia in einem viel besseren Licht stehen, wenn sie konkrete Fragen direkt beantworten würden.
Frag mal z.B. bei Leadtek an, ob und wann der Videoprocessor auf dem NV40 korrekt funktioniert. Die Antwort kann ich dir jetzt schon sagen: "*schulterzuck*, wir proggen die Treiber nicht selbst und haben darauf keinen Einfluss". ;)

Phoenix03
2004-10-21, 13:10:32
Stimmt ja! :idea:
Daher auch das "built by ATI" bzw. "powered by ATI".

Hatte ich vollkommen vergessen.

Das hat damit aber wenig zu tun, NV karten sind auch bild by NV

MikBach
2004-10-21, 13:12:32
kein problem (http://www.nvidia.de/object/linux_display_ia32_1.0-6111_de)
Ich meine die Windowstreiber und andere Probleme wie z.B diese hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=173512). Linux interessiert Gamer nicht wirklich, weil es dafür kaum Spiele gibt.

flatbrain
2004-10-21, 13:12:59
LS,
es steht jedem frei mich zu verbessern, wenn ich Scheisse erzähle.
Das erwarte ich auch. Man lernt nie aus, und jeder macht mal Fehler.

@Quasar
Hör doch auf mit der alten Leier. Du weisst doch ganz genau, dass die Treiber von Nvidia kommen. Nvidia will doch nur den Grakaherstellern mehr Arbeit unterjubeln. Deswegen verzichten sie auf den direkten Support.
Echt ein starkes Stück von Nvidia. Betatreiber den Herstellern anbieten, damit falls etwas schief läuft, man es auf den Hersteller abwälzen kann. Einfach feige.
Ausserdem würde Nvidia in einem viel besseren Licht stehen, wenn sie konkrete Fragen direkt beantworten würden.
Frag mal z.B. bei Leadtek an, ob und wann der Videoprocessor auf dem NV40 korrekt funktioniert. Die Antwort kann ich dir jetzt schon sagen: "*schulterzuck*, wir proggen die Treiber nicht selbst und haben darauf keinen Einfluss". ;)

Asus ändert das Referenzdesign seiner V9999-Series... eigener HW-Diagnosechip z.B. - warum sollte nVidia dafür Support bieten? ATi hat eine Zeitlang auch keine Treiber für "Powered by ATi" angeboten...!

flatbrain
2004-10-21, 13:16:08
Ich meine die Windowstreiber und andere Probleme wie z.B diese hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=173512). Linux interessiert Gamer nicht wirklich, weil es dafür kaum Spiele gibt.
Ja und - geh zu deinem Händler und lass dir das Geld zurückgeben! Hat ATi bei dem Wellenproblem reagiert? Nö!

LZ
2004-10-21, 13:16:51
Ich meine die Windowstreiber und andere Probleme wie z.B diese hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=173512). Linux interessiert Gamer nicht wirklich, weil es dafür kaum Spiele gibt.

Und?
ich benutze, naja will benutzen, linux. Also kann ich mich direkt an Nvidia bezueglich Probleme mit deren treiber wenden.
Es ist in dieser Situation vollkommen egal ob es bei Windows, MS-Dos oder Mac anders ist.
Ich habe einen "direkten" Support von nvidia.

Phoenix03
2004-10-21, 13:18:42
Apro Treiber bürokollege hat von Airbus neues Notbook bekommen schickes teil
2GB ram centrino über 2ghz ati FireGL T2 128 mobile.
Naja Aktuellen Treiber bietet Ati nicht an und der Notebookhersteller hat auch keine neuen, super Support muss ich schon sagen D³ Timedemo 16FPS lol
soviel zu guten Treibern rein Hardware-technisch hätten da doppelte FPS zahl rauskommen müssen.

DrumDub
2004-10-21, 13:22:40
phoenix03, die ist aber schon klar, dass es sich bei der FireGL T2 128 mobile um eine workstation-grafikkarte handelt, oder? fürs spielen sind deren treiber nicht geeignet. gleiches gilt für die quadros von nv.

MikBach
2004-10-21, 13:24:15
Asus ändert das Referenzdesign seiner V9999-Series... eigener HW-Diagnosechip z.B. - warum sollte nVidia dafür Support bieten? ATi hat eine Zeitlang auch keine Treiber für "Powered by ATi" angeboten...!

Ja und - geh zu deinem Händler und lass dir das Geld zurückgeben! Hat ATi bei dem Wellenproblem reagiert? Nö!

Bitte nicht über die Vergangenheit reden, das hat keine Sinn. Da würde sich bei Nvidia genauso wie bei ATI einges finden lassen. ;)
Ich spreche ausschlisslich über die heutige Situation.

CamRon
2004-10-21, 13:24:56
Hmm... Also warum SLI jetzt High-Tech ist, ist mir nicht so ganz klar. Ich meine, die Technik gibts jetzt schon wirklich seit Ewigkeiten (so seit 1998 wenn ich mich nicht irre...) Und Versuche, SLI salonfähig zu machen ebenso (erinnert sich noch jemand an MEtabyte, die so einen Treiber für jede Graka bringen wollte?)

Aber mal abgesehen davon finde ich es ziemlich blödsinnig, ATI als "low tech" hinzustellen. ATI's Arbeit ist genausowenig low tech wie nVidia's. Es ist doch so, dass mal ein Hersteller mehr Features einbaut und dann der andere. Die erste DX9 Karte kam von ATI, die erste mit SM3 von nVidia. SLI kam damals von 3Dfx, nVidia hat T&L salonfähig gemacht, S3 die Texturkompression erfunden, Matrox MultiMonitor Support für den Retail Markt... Im Endeffekt hat jeder Hersteller neue Features eingeführt, die heute als selbstverständlich angesehen werden. Dass andere Firmen diese Techniken dann übernehmen ist ja auch nur gut, denn wenn jeder sein eigenes Süppchen kochen würde, hätten wir heute Spiele, die aussehen würden, wie Turok... :D

Behauptungen wie "nVidia ist der Technologievorreiter und ATI klaut alles" sind nicht nur überflüssig, sondern auch falsch. Beide Hersteller haben Vorsprung in bestimmten Bereichen (z.B. ATI was hochintegrierte Karten a la All-in-Wonder angeht, nVidia vielleicht bei Linux, usw...).

flatbrain
2004-10-21, 13:25:26
Apro Treiber bürokollege hat von Airbus neues Notbook bekommen schickes teil
2GB ram centrino über 2ghz ati FireGL T2 128 mobile.
Naja Aktuellen Treiber bietet Ati nicht an und der Notebookhersteller hat auch keine neuen, super Support muss ich schon sagen D³ Timedemo 16FPS lol
soviel zu guten Treibern rein Hardware-technisch hätten da doppelte FPS zahl rauskommen müssen.

http://www.ati.com/support/products/workstation/fireglt2/winxp/fireglt2winxpdrivers.html?type=xp&prodType=firegl&prod=fireglXP2Kdriver&submit.x=13&submit.y=7

Die sind vom 15.09.04... und bei der kastrierten Technik der Karte und dem geplanten EInsatzgebiet kann man nicht mehr Leistung erwarten!
Also erstmal informieren und dann posten!

Tjell
2004-10-21, 13:26:22
Das hat damit aber wenig zu tun, NV karten sind auch bild by NV
Jein. Das trifft nur auf Referenzkarten zu. Zugegeben, entgegen dem Usus von früher, daß es die dann nur für die erste Zeit direkt nach der Produkteinführung gegeben hat, ist es nunmehr so, daß es durchgängig "built by"-Karten gibt.

Wenn ich das richtig erinnere werden nVIDIA-Referenzkarten durch MSI, ATI-Referenzkarten durch Sapphire gefertigt.

Akira20
2004-10-21, 13:28:42
Leute, Leute....beruhigt euch doch!

Die NV40-Reihe ist auch nicht perfekt, aber aus technologischer Hinsicht ein deutlicherer Fortschritt, als die R420-Reihe.
Leider ist der R420 "nur" ein Leistungsupdate auf Basis des R300/360
Allein schon die Transistorenzahl, beim NV40, von 222 Mio. (im Vergleich mein Athlon 64 hat gerade mal ca. 90 Mio.) ist beachtlich.
Außerdem muss man auch die Reaktion von Ati sehen, die obwohl ihre High-End Karten noch nicht richtig verfügbar sind (Thema x800 XT pE) schon den Nachfolger vorstellen. Anscheinend besteht für Ati Nachbesserungsbedarf.
So long sollten wir dankbar sein, dass NV wieder ein konkurrenzfähiges Produkt auf den Markt gebracht hat und wir wieder einen starken Wettbewerb erwarten können, denn es wäre für den Endkunden auch nicht wünschenswert, wenn Ati zu "stark" wird (=> Monopol).

Beide Karten (x800/6800) haben Vor- und Nachteile...kauft was Ihr wollt!

MfG
Akira20

flatbrain
2004-10-21, 13:30:53
Bitte nicht über die Vergangenheit reden, das hat keine Sinn. Da würde sich bei Nvidia genauso wie bei ATI einges finden lassen. ;)
Ich spreche ausschlisslich über die heutige Situation.

Lol ist klar, einerseits Vorwürfe an den einen, andererseits aber nicht eingestehen wollen, dass sich beide IHVs in vielerlei Hinsicht nicht voneinander unterscheiden. Davon abgesehen geht es mir nicht darum, irgendetwas zu suchen oder zu finden, btw. der Vergleich mit dem Wellenproblem stammt aus einem von dir angeführten Link ;) !

MikBach
2004-10-21, 13:31:17
Und?
ich benutze, naja will benutzen, linux. Also kann ich mich direkt an Nvidia bezueglich Probleme mit deren treiber wenden.
Es ist in dieser Situation vollkommen egal ob es bei Windows, MS-Dos oder Mac anders ist.
Ich habe einen "direkten" Support von nvidia.
Kann man da auch Support zu den Windowstreibern bekommen? Nein.
Da ATI und Nvidia das meiste Geld im Gamingbereich verdienen, und dieser hauptsächlich durch Windows abgedeckt wird, wäre ein Support für Windowsuser viel sinnvoller. Linux kommt wahrscheinlich noch nichtmal auf 5%. Man sollte sich erstmal auf die Masse konzentrieren, bevor man Randgruppen bedient/supportet.
Aber das spiegelt nur meine Meinung wieder. Wenn jemand denkt Linux ist für ihn wichtiger, dann kann ich seine Meinung akzeptieren.

Tjell
2004-10-21, 13:34:54
...Da ATI und Nvidia das meiste Geld im Gamingbereich verdienen...
Schlichtweg falsch. Der Hauptabsatzmarkt ist bei beiden das OEM-Geschäft mit Einstiegslöungen und Mittelklasseprodukten.

"Gaming" (im Sinne von High-End) ist ein kleiner Teil, dafür jedoch mit hauptverantwortlich für das Prestige der Marken.

Phoenix03
2004-10-21, 13:35:51
phoenix03, die ist aber schon klar, dass es sich bei der FireGL T2 128 mobile um eine workstation-grafikkarte handelt, oder? fürs spielen sind deren treiber nicht geeignet. gleiches gilt für die quadros von nv.

Das ist nicht richtig! Klar sind die Karten zum arbeiten gedacht, die haben aber auch für Spiele reichlich Power und bei NV gibt es immer wieder Forcerware für die Quadros womit man sehr gut spielen kann von Ati gibts die auch, aber leider nicht für alle FireGL Karten und die aus dem Notebook wird "noch" nicht unterstützt.
Und das meine ich bei NV kann man sich 100% darauf verlassen das da in kurzer Zeit ne TreiberLösung bereit steht.

flatbrain
2004-10-21, 13:41:08
Das ist nicht richtig! Klar sind die Karten zum arbeiten gedacht, die haben aber auch für Spiele reichlich Power und bei NV gibt es immer wieder Forcerware für die Quadros womit man sehr gut spielen kann von Ati gibts die auch, aber leider nicht für alle FireGL Karten und die aus dem Notebook wird "noch" nicht unterstützt.
Und das meine ich bei NV kann man sich 100% darauf verlassen das da in kurzer Zeit ne TreiberLösung bereit steht.

http://www.de.tomshardware.com/graphic/20030908/opengl-ati-nvidia-02.html

Also zum Spielen ist die mit Sicherheit nicht geeignet - zumal sie vom Treiber gar nicht dafür ausgelegt ist...

Gast
2004-10-21, 13:44:32
Nein, er bietet genauso viel (wenig) wie 2.0, 2.a.

Ack, das Profil in SM2 legt die Anzahl an Interpolatoren [I]nicht[I] fest.
ob 2.0 ; 2.0a ; 2.0b man muss sich hierbei an die Regularien von SM2 halten.
AFAIK hat die einzig verfügbare 2.0a HW (NV3x) mehr Interpolatoren zur Verfügung als 2.0b/2.0 HW (R300 und R420) und weniger Restriktionen bzgl der Instruktionslänge

Der Vergleich ist unpassend, da ein einfaches compilieren schon reicht, um Vorteile durch die erweiteren Faehigkeiten des Nv3x/4x zu erzielen.
Sicher? Bei PS3 soll das durch einfaches Neukompilieren gehen. Bei 2.0a nicht so einfach.
Aber es hört sich an, als ob hinter deinen Worten Substanz steckt. Kannst du das bitte für mich genauer ausführen?

Gruß Robbitop@FH

DrumDub
2004-10-21, 13:45:55
Das ist nicht richtig! Klar sind die Karten zum arbeiten gedacht, die haben aber auch für Spiele reichlich Power und bei NV gibt es immer wieder Forcerware für die Quadros womit man sehr gut spielen kann von Ati gibts die auch, aber leider nicht für alle FireGL Karten und die aus dem Notebook wird "noch" nicht unterstützt.
Und das meine ich bei NV kann man sich 100% darauf verlassen das da in kurzer Zeit ne TreiberLösung bereit steht.

wenns bei nv geht, schön. bei ati gehts eben nicht mit den normalen catalyst (hat dein freund die überhaupt mal versucht zu installieren?), aber die karten sind nunmal nicht zum spielen gedacht, von daher halte ich die argumenatation für ziemlich sinnlos. das mit den zertifizierten treibern macht nämlich schon sinn für die workstation-grafikkarten. für gewisse applikationen muss man da nämlich auch zu wesentlich älteren nv-treibern (genau wie bei ati) greifen.

Phoenix03
2004-10-21, 13:50:00
http://www.de.tomshardware.com/graphic/20030908/opengl-ati-nvidia-02.html

Also zum Spielen ist die mit Sicherheit nicht geeignet - zumal sie vom Treiber gar nicht dafür ausgelegt ist...

Ich weis 100% das Doom3 mit einer FireGL Z1 die auch nur semiprofessionelle
Karte ist mit den passenden Treibern gut Läuft.
Nur weil da THG sowas schreibt muss das nicht auf spiele zu treffen die beziehen sich dort auf andere software für die ihr Leistungs beurteilung sicherlich zutrifft.
Dein Link kenn ich der ist aber nicht für die Mobile-lösung geeignt

Gast
2004-10-21, 13:50:50
OK. :)

ab hier mal überfliegen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=177593&page=6&pp=20
Besonders diesen Post: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2359423&postcount=112
Treiber Support von Nvidia, nein danke. ;)

Der aktuelle offizielle Treiber von ATI (Cat 4.10) (http://www.ati.com) ist definitiv besser als der aktuelle offizielle von Nvidia (61.77) (http://www.nvidia.com/object/winxp_2k_61.77)
Schau einfach mal zum Thema 61.77 ins Nvidia Forum. ;)

Nvidia sollte endlich mal aufhören ihre Kunden mit Betatreibern zu verarschen und regelmässig brauchbare Finals zu bringen.
Ich habe nichts dagegen wenn man zwischen 2 Finals 1 oder 2 Betatreiber bringt, aber bitte nicht 20 oder mehr, weil man da komplett den Überblick verliert.
Und wenn man den Nutzer schon zwingt Betatreiber anzuwenden, weil neuere Spiele nicht vernünftig laufen(egal ob Performance oder BQ), dann auch bitte auf der Homepage verlinken, wie bei ATI, damit man nicht im Netz suchen muss.
Der Treiber Support von Nvidia ist wirklich grottenschlecht.

PS habe nichts gegen Betatreiber, benutze zur Zeit auch den 8.07 Beta von ATI. Ist aber der erste Beta von ATI, den ich einsetze.
Bei Nvidia wird man praktisch gezwungen Betatester zu spielen, weil offizielle Treiber Mangelware sind. Alle Jahre wieder...
Holla einer mit Ganz viel Halbwissen!
Allein das pdf für jeden Treiber mit den fixes bzw. Anmerkungen was aus welchem Grund noch nicht gefixt ist!
Aber kennst du ja sicher nicht!
Ja für jeden Treiber erhältlich!
Es zwingt dich kein Schwein einen Beta Treiber zu nutzen genauso wenig werden andere Kunden gezwungen Beta Treiber zu nutzen!
So der Treiber Support ist schlecht, Aja du nutzt ja Windows. Bzw. hast nicht wirklich den Überblick!
Falls du googeln kannst such doch mal nach Beta Treibern der jeweiligen Hersteller, dir wird auffallen, das es für jeden final einen Beta Treiber gibt!
Ja das ist bei Intel, amd, nvidia, ati, via, sis und allen anderen gleich!

flatbrain
2004-10-21, 13:53:47
Ich weis 100% das Doom3 mit einer FireGL Z1 die auch nur semiprofessionelle
Karte ist mit den passenden Treibern gut Läuft.
Nur weil da THG sowas schreibt muss das nicht auf spiele zu treffen die beziehen sich dort auf andere software für die ihr Leistungs beurteilung sicherlich zutrifft.
Dein Link kenn ich der ist aber nicht für die Mobile-lösung geeignt

Nö, THG bezieht sich auf Software, für die die FireGL ausgelegt ist...

Quasar
2004-10-21, 13:54:36
Ich weis 100% das Doom3 mit einer FireGL Z1 die auch nur semiprofessionelle
Karte ist mit den passenden Treibern gut Läuft.
Nur weil da THG sowas schreibt muss das nicht auf spiele zu treffen die beziehen sich dort auf andere software für die ihr Leistungs beurteilung sicherlich zutrifft.
Dein Link kenn ich der ist aber nicht für die Mobile-lösung geeignt

Die Z1 hat aber auch 256Bit breit angebundenen Speicher und zwei zusätzliche Vertexshader. Keine Ahnung, wieviel das jetzt bei D3 ausmacht, aber ein bißchen bestimmt.

Phoenix03
2004-10-21, 13:54:58
wenns bei nv geht, schön. bei ati gehts eben nicht mit den normalen catalyst .

Mein Arbeitkollege hat das installiert.
Und bei Ati geht natürlich nicht der Catalyst man muss speziell Treiber für FireGL Karten nehmen aber mit den bekommt man bei der Z1 sehr gut Leitung bei D³ zB
Nur für die T2 128 mobile gibts die nicht.

Phoenix03
2004-10-21, 13:56:12
Nö, THG bezieht sich auf Software, für die die FireGL ausgelegt ist...

Ja das meine ich doch und nicht auf Games!!!!

flatbrain
2004-10-21, 14:02:41
Mein Arbeitkollege hat das installiert.
Und bei Ati geht natürlich nicht der Catalyst man muss speziell Treiber für FireGL Karten nehmen aber mit den bekommt man bei der Z1 sehr gut Leitung bei D³ zB
Nur für die T2 128 mobile gibts die nicht.

Keine Ahnung, was dein Kollege für ein NB hat, ich vermute einfach mal IBM, waren die einzigen, die ich mit der der Grafikkarte gefunden habe:

http://www-1.ibm.com/support/docview.wss?rs=0&context=HWM79&q1=ThinkPad+T42&uid=psg1MIGR-41918&loc=en_US&cs=utf-8&cc=us&lang=en

Treiber ist vom 20.09.2004, gefunden in 3min google :rolleyes:

/€ Sehe gerade, das es wohl von HP und Fujitsu auch NBs mit der FireGL gibt!
Allerdings gibt es von ATI generell keine Treiber für Mobilitys!

Phoenix03
2004-10-21, 14:07:26
Keine Ahnung, was dein Kollege für ein NB hat, ich vermute einfach mal IBM, waren die einzigen, die ich mit der der Grafikkarte gefunden habe:

http://www-1.ibm.com/support/docview.wss?rs=0&context=HWM79&q1=ThinkPad+T42&uid=psg1MIGR-41918&loc=en_US&cs=utf-8&cc=us&lang=en

Treiber ist vom 20.09.2004, gefunden in 3min google :rolleyes:

Wir haben beim NB hersteller geguckt aber wir hatten schon den Aktuellsten
ist HP gewesen glaub ich.

Tjell
2004-10-21, 14:08:02
Wo "Low Tech" hier ein Stichwort ist:

Weiß man, was nVIDIA und ATI bezüglich Einstiegskarten künftig in Petto haben? Sprich der Ersatz für z. B. die GeForce MX4000 und die Radeon 7000?

Es ist zwar noch ein wenig hin bis zum neuen Windows (Longhorn), wäre aber mal interessant, wenn es da was zu wissen gibt.

Quasar
2004-10-21, 14:10:12
Allerdings gibt es von ATI generell keine Treiber für Mobilitys!

...und was könnte dafür wohl der Grund sein? :devil:

edit:
Ich will es mal nicht so schwer machen. Es könnte damit zusammenhängen, daß hier (http://shop.ati.com/) keine Mobility käuflich zu erwerben ist.
ATi stellt Enduser-Support und Treiber bereit, weil sie dazu verpflichtet sind, nicht, weil sie so anthrophil sind. ATi ist eine Firma, die Geld verdienen will - genau wie nVidia auch.

flatbrain
2004-10-21, 14:14:10
...und was könnte dafür wohl der Grund sein? :devil:

War die Frage ernst gemeint?

Hab grade mal bei HP nachgeschaut, dort gibt es wirklich nur veralterte Treiber... also beschwer dich bitte über HP und nicht über ATi...

/€: @ Quasar, genau das ist der Grund, warum es keinen Support gibt ;) !

Black-Scorpion
2004-10-21, 14:14:38
Ja das meine ich doch und nicht auf Games!!!!
Ist das so schwer zu verstehen das ATI beide Segmente trennt.
Wer sich eine ATI Workstation Karte holt kann nicht damit rechnen das er damit spielen kann.
Wenn es nVidia so macht ist das deren Sache.

Phoenix03
2004-10-21, 14:15:10
Darauf wollt ich ja hinaus der Treiber support ist um längen schlechter als bei NV

Nv bietet auch herstellerunabhängig Treiber für ihre Grakars an.

Quasar
2004-10-21, 14:18:00
Ist das so schwer zu verstehen das ATI beide Segmente trennt.
Wer sich eine ATI Workstation Karte holt kann nicht damit rechnen das er damit spielen kann.
Wenn es nVidia so macht ist das deren Sache.
Eigentlich schwer möglich, denn das läuft doch wohl unter "Applikationsspezifische Optimierung", oder? Und das gab es bei ATi vor dem Doom3-Treiber ja gar nicht, sondern nur bei nVidia.

Quasar
2004-10-21, 14:19:36
War die Frage ernst gemeint?

Hab grade mal bei HP nachgeschaut, dort gibt es wirklich nur veralterte Treiber... also beschwer dich bitte über HP und nicht über ATi...


Nein, tue ich nicht, keine Sorge. Hab' noch was dazueditiert.

edit: Ich sehe, du auch. :)

flatbrain
2004-10-21, 14:23:21
Darauf wollt ich ja hinaus der Treiber support ist um längen schlechter als bei NV

Nv bietet auch herstellerunabhängig Treiber für ihre Grakars an.

Was nV macht, ist "ihre" Sache, hat aber nichts mit Treibersupport an sich zu tun!


Nochmal, ATi bietet keinen ENDUSERSUPPORT für Mobillösungen an, weil sie diese nicht an ENDUSER verkaufen und damit auch keinen Support für diese bieten!

Gast
2004-10-21, 14:24:52
Als ATI X800 Pro Besitzer muß ich mal was loswerden.
nVidia bezeichnet sich ja als "High-Tech" Führer, und teilweise stimmt das sogar.

A) Bei nVidia gibt's ein Feature wo der 2D Desktop in "besseren" Farben dargestellt wird. Alles wirket etwas bunter, die Farben kräftiger.
Bei ATI ist alles etwas blass ...Die Farben werden kräftiger, allerdings auf Kosten der Farbauflösung. Dafür gibts bei der GeForce noch "Bildschärfe", was bei alten/schlechten Monitoren oder schlechten VGA-Kabeln das Bild in Maßen durchaus verbessern kann.

Mit dem NV40 hat NV ein Overlay, welches für DVDs einen vernünftigen Schwarzpunkt einstellt.


B) Shader 3.0, auch wenns z.Zt. nur was für die 3D-Coder ist, so ist es nunmal ein technischer Fortschritt in die Zukunft.Allerdings.


C) SLI. Was hat ATI zu bieten ? Nix.
Muß dazu sagen, daß ich auf SLI aufrüsten werde, sobald es entsprechende Xeon-Mainboards frei am Markt geben wird.ATI hat seit längerem Technologien im der GPU bereits integriert, die die Performance bei Dualchipkonfigurationen verbessert. Das wird soweit ich das sehe im Moment nur in der FireGL-Serie genutzt.

Wenn man die Firmengeschichte von ATI kennt, dann haben die nach einer technischen Glanzleistung immer die nächste Zeit im Märchenschlaf verbracht.Imo sollte man die Glanzleistungen auch nicht klein reden bzw. vergessen. ATI sind die einzigen die übrig geblieben sind, um NV Feuer unterm Hintern zu machen. Für immerhin ca. 2 Jahre haben sie Nvidia klar abgerult.

edit: Das war ich (aths).

MikBach
2004-10-21, 14:26:06
Holla einer mit Ganz viel Halbwissen!
Allein das pdf für jeden Treiber mit den fixes bzw. Anmerkungen was aus welchem Grund noch nicht gefixt ist!
Aber kennst du ja sicher nicht!
Ja für jeden Treiber erhältlich!
Es zwingt dich kein Schwein einen Beta Treiber zu nutzen genauso wenig werden andere Kunden gezwungen Beta Treiber zu nutzen!
So der Treiber Support ist schlecht, Aja du nutzt ja Windows. Bzw. hast nicht wirklich den Überblick!
Falls du googeln kannst such doch mal nach Beta Treibern der jeweiligen Hersteller, dir wird auffallen, das es für jeden final einen Beta Treiber gibt!
Ja das ist bei Intel, amd, nvidia, ati, via, sis und allen anderen gleich!
Klar gibt es für jeden Finaltreiber einen Betatreiber. Bei Nvidia aber leider nicht nur einen. Es gibt extrem viele Betatreiber zwischen zwei offiziellen Finaltreibern. Das ist ja das schlimme.
Der letzte offizielle ist der 61.77. Zähl mal nach wie viele Betatreiber es seit diesem Treiber gab. 20 oder 30, ich habe keine Ahnung, weil da einfach der Überblick fehlt. ;)
Falls etwas mit dem 61.77 nicht vernünftig läuft, ist man quasi gezwungen, im Netz nach Betatreibern zu suchen.
Was genau verstehst du an meiner Aussage nicht? :D

Quasar
2004-10-21, 14:26:50
ATI hat seit längerem Technologien im der GPU bereits integriert, die die Performance bei Dualchipkonfigurationen verbessert. Das wird soweit ich das sehe im Moment nur in der FireGL-Serie genutzt.


Das klingt interessant - hast du dazu genauere Informationen? Beziehst du dich da auf Multi-G- oder Multi-CPUs?

aths
2004-10-21, 14:29:05
Das klingt interessant - hast du dazu genauere Informationen? Beziehst du dich da auf Multi-G- oder Multi-CPUs?Mehrere CPUs (iirc bevorzugt auf einem Board) können sich die Arbeit recht effizient teilen.

Quasar
2004-10-21, 14:29:51
Und was wäre darunter zu verstehen?

DrumDub
2004-10-21, 14:30:18
Darauf wollt ich ja hinaus der Treiber support ist um längen schlechter als bei NV

Nv bietet auch herstellerunabhängig Treiber für ihre Grakars an.

quatsch mit soße. das beispiel, was du hier bringst, ist einfach schwach.

das bietet ati übrings auch. nur bezogen auf die mobility chips ist ati da von haus aus "schlechter".

übrings kann man die normale catalysts so modden, dass sie sich auf auf notebooks installieren lassen: http://www.driverheaven.net/patje/

oder du nimmst direkt die omegatreiber. es geht also, wenn man nur will.

Tjell
2004-10-21, 14:31:23
Klar gibt es für jeden Finaltreiber einen Betatreiber. Bei Nvidia aber leider nicht nur einen. Es gibt extrem viele Betatreiber zwischen zwei offiziellen Finaltreibern. Das ist ja das schlimme.
Der letzte offizielle ist der 61.77. Zähl mal nach wie viele Betatreiber es seit diesem Treiber gab. 20 oder 30, ich habe keine Ahnung, weil da einfach der Überblick fehlt. ;)
Falls etwas mit dem 61.77 nicht vernünftig läuft, ist man quasi gezwungen, im Netz nach Betatreibern zu suchen.
Was genau verstehst du an meiner Aussage nicht? :D
"Leaked" Treiber sind nicht gleichzusetzen mit "Beta-Treiber".

Entgegen ATI, die alle Nase lang einen Beta-Treiber zum Download anbieten, hat man einen solchen zumindest lange nicht mehr bei nVIDIA finden können.

aths
2004-10-21, 14:34:36
eh nein afaik gar kein AA sobald FP16 blending benutzt wird (bei HDR). Das ist eine Hardware limitierung.

Ist z.b. im FC Patch 1.3 (lt. entwickler) so. Sobald HDR an, AA aus.AA ist nicht möglich wenn ein 64-Bit-Framebuffer genutzt wird. Andere "HDR-Features" wie FP-Texturfilterung vertragen sich bestens mit AA, sofern ein übliches 32-Bit-Rendertarget genutzt wird.

Phoenix03
2004-10-21, 14:35:03
Nochmal, ATi bietet keinen ENDUSERSUPPORT für Mobillösungen an, weil sie diese nicht an ENDUSER verkaufen und damit auch keinen Support für diese bieten!

Das ist doch arm Nv verteibt die NB karten auch nicht direkt an die enduser bietet aber trozdem Support

@DrumDub

Nochmal die Catalyst und Omega gehen nicht für die FireGL

StefanV
2004-10-21, 14:35:50
"Leaked" Treiber sind nicht gleichzusetzen mit "Beta-Treiber".

Entgegen ATI, die alle Nase lang einen Beta-Treiber zum Download anbieten, hat man einen solchen zumindest lange nicht mehr bei nVIDIA finden können.
Du weißt sicher, das es in diesem Jahr <5 Beta Treiber von ATi gab, oder??

Wenn ich mich recht erinner, dann warens 3 Beta Treiber

Sorry, aber irgendwie...

Vorallendingen gibts in diesem Punkt nix schönzureden, da ist ATI einfach besser als nV...
Denn nV releast nur alle jubeljahre mal 'nen neuen Treiber, das das früher mal anders war, düften einige sicher wissen, besonders zu Riva128 Zeiten war das ganz anders (ok, da gabs fast wöchentlich neue Treiber).

aths
2004-10-21, 14:37:17
Zeig mir mal echtes HDR. Ich kenn nur die rthdribl Demo, 3dmark03 postprocessing, 3dmark05. Und bei allen ist NV langsamer. Ist echtes HDR schneller oder schöner? Kein 3DMark verwender HDR.

Ich erwarte von einem tollen neuem Feature auch tolle neue Eyecandies, die man mit SM20(b) nicht bewerkstelligen kann. Klar kann man jetzt mit den NV Demos kommen, die sehen auch gut aus, aber so IHV seitigen Demos kann man ja nicht wirklich trauen. (Wie war das nochmal mit Dawn?)Der Hauptzweck von SM3 ist die Performance zu steigern und somit mehr Effekte in Echtzeit zu ermöglichen. Neue Effekte gibts aber auch (siehe Pacific Assault.)

flatbrain
2004-10-21, 14:37:52
Das ist doch arm Nv verteibt die NB karten auch nicht direkt an die enduser bietet aber trozdem Support

@DrumDub

Nochmal die Catalyst und Omega gehen nicht für die FireGL

Erkläre doch mal aus ATis Firmensicht, warum ATi Support bieten sollte, obwohl sie es nicht müssen?!

StefanV
2004-10-21, 14:39:18
Was nV macht, ist "ihre" Sache, hat aber nichts mit Treibersupport an sich zu tun!


Nochmal, ATi bietet keinen ENDUSERSUPPORT für Mobillösungen an, weil sie diese nicht an ENDUSER verkaufen und damit auch keinen Support für diese bieten!
Naja, die Frage ist doch auch, ob die NB Hersteller das wollen?? ;)

Zumal einige sicher eigene Tools beipacken könnten...

HOT
2004-10-21, 14:42:01
Das ist doch arm Nv verteibt die NB karten auch nicht direkt an die enduser bietet aber trozdem Support

@DrumDub

Nochmal die Catalyst und Omega gehen nicht für die FireGL

Sicher gehen die ;) ist wahrscheinlich nur ne Sache der verwendeten inf Datei
Vielleicht lässt sich sogar nen entsprechender Retrailtreiber mit Gewalt installieren.

aths
2004-10-21, 14:42:48
Lol?
Den Begriff Shadermodell gibt es erst seit 2.0, oder hast du eigene Standards?Ich kenne Shader Model 1, 2 und 3. What's the pr0bl3m?

flatbrain
2004-10-21, 14:48:07
Naja, die Frage ist doch auch, ob die NB Hersteller das wollen?? ;)

Zumal einige sicher eigene Tools beipacken könnten...

Naja, ich könnte mir vorstellen, dass es für die NB-Hersteller einfacher wäre, wenn ATi in dem Bereich auch den Support übernehmen würde, liessen sich doch so Supportanfragen direkt weiterleiten. Allerdings hast du mit den Tools auch nicht ganz Unrecht ;) !

Phoenix03
2004-10-21, 14:48:41
Erkläre doch mal aus ATis Firmensicht, warum ATi Support bieten sollte, obwohl sie es nicht müssen?!

Um kundenfreundlich zu sein und Endkund zufrieden zustellen.
Damit die ihr Produkte im vollen umfang genutzen werden können.

aths
2004-10-21, 14:50:19
Die langen Shader kann das 2.B Profil auch. Der Rest ist Kosmetik, bringt keine bessere BQ.2_B bietet bis 512 Instruktionsslots. 3_0 auf dem NV40 doch etwas mehr. Und FP32 vs. FP24 kann durchaus zu besserer BQ führen.

Quasar
2004-10-21, 14:52:08
Um kundenfreundlich zu sein und Endkund zufrieden zustellen.
Damit die ihr Produkte im vollen umfang genutzen werden können.
Dasselbe Problem, wie bei nVidia:
In diesem Bereich hat ATi direkt absolut nichts mit Endkunden zu schaffen. Support kostet Geld, eine Firma will Geld verdienen - warum also Support leisten für Endkunden, die eigentlich nichts mit Ihnen zu tun haben?

ATi und nV leisten Support an ihre belieferten Kunden und das reicht. Alles darüber hinaus kostet Geld und verteuert damit im Endeffekt jedes Produkt, was die verkaufen.

DrumDub
2004-10-21, 14:52:38
Ich kenne Shader Model 1, 2 und 3. What's the pr0bl3m?

ps 1.0 gibt aber nur virtuell (3dfx rampage), wenn ich mich recht entsinne. sm 1.0 an sich ist natürlich richtig.

betasilie
2004-10-21, 14:53:00
2_B bietet bis 512 Instruktionsslots. 3_0 auf dem NV40 doch etwas mehr.
Und wann werden Shader->512 Instruktionen in Spielen eingesetzt? :confused:

Labberlippe
2004-10-21, 14:53:19
Ja und - geh zu deinem Händler und lass dir das Geld zurückgeben! Hat ATi bei dem Wellenproblem reagiert? Nö!

Hi

Das Wellenproblem, lag aber bei den Board Herstellern, welche minderwertigere Teile verbaut haben.

Man kann nicht alles an die GPU Hersteller schieben.

Gruss Labberlippe

aths
2004-10-21, 14:54:23
ps 1.0 gibt aber nur virtuell (3dfx rampage), wenn ich mich recht entsinne. sm 1.0 an sich ist natürlich richtig.Ich schrieb SM 1, nicht SM 1.0.

MikBach
2004-10-21, 14:54:23
Ich kenne Shader Model 1, 2 und 3. What's the pr0bl3m?
Wo darf ich über das Shader Model 1 nachlesen?
Zum Problem, einige erzählen hier was vom Shader Model 2.a oder 1.4, welche es nicht gibt.

PS kannst du nicht eine andere als Avatar nehmen, dein jetziger Avatar ist nicht so toll... sry ;(

StefanV
2004-10-21, 14:54:59
Und wann werden Shader->512 Instruktionen in Spielen eingesetzt? :confused:
Wenn kein Hahn mehr nach der R300 Serie kräht :devil:

Bzw die 9800 Low End ist ;)

Du weißt doch, was Demi zu dem Thema sagt:

Ein Game muss auf ALLEN Rechnern vernünftig laufen ;)

flatbrain
2004-10-21, 14:56:12
Nochmal die Catalyst und Omega gehen nicht für die FireGL

.inf-Auszug Omega 2.5.44 (war der Einzige, den ich noch auf der Platte habe)
;FireGL Support added for the following cards by Omegadrive:

"RADEON FireGL T2 (Omega 2.5.44)" = ati2mtag_RV350GL, PCI\VEN_1002&DEV_4154&SUBSYS_00021002
"RADEON FireGL T2 Secondary (Omega 2.5.44)" = ati2mtag_RV350GL, PCI\VEN_1002&DEV_4174&SUBSYS_00031002
"RADEON FireGL X1-128 (Omega 2.5.44)" = ati2mtag_R300GL, PCI\VEN_1002&DEV_4E47&SUBSYS_01721002
"RADEON FireGL X1-128 Secondary (Omega 2.5.44)" = ati2mtag_R300GL, PCI\VEN_1002&DEV_4E67&SUBSYS_01731002
"RADEON FireGL X1-256 (Omega 2.5.44)" = ati2mtag_R300GL, PCI\VEN_1002&DEV_4E47&SUBSYS_01521002
"RADEON FireGL X1-256 Secondary (Omega 2.5.44)" = ati2mtag_R300GL, PCI\VEN_1002&DEV_4E67&SUBSYS_01531002
"RADEON FireGL X2-256 (Omega 2.5.44)" = ati2mtag_R350GL, PCI\VEN_1002&DEV_4E4B&SUBSYS_00021002
"RADEON FireGL X2-256 Secondary (Omega 2.5.44)" = ati2mtag_R350GL, PCI\VEN_1002&DEV_4E6B&SUBSYS_00031002
"RADEON FireGL Z1-128p (Omega 2.5.44)" = ati2mtag_R300GL, PCI\VEN_1002&DEV_4147&SUBSYS_010A1002
"RADEON FireGL Z1-128p Secondary (Omega 2.5.44)" = ati2mtag_R300GL, PCI\VEN_1002&DEV_4167&SUBSYS_010B1002
"RADEON Mobility Fire GL 9000 (Omega 2.5.44)"=ati2mtag_M9, PCI\VEN_1002&DEV_4C64
"RADEON Mobility Fire GL T2 (Omega 2.5.44) " = ati2mtag_M10GL, PCI\VEN_1002&DEV_4E54&SUBSYS_08A8103C

flatbrain
2004-10-21, 14:59:29
Hi

Das Wellenproblem, lag aber bei den Board Herstellern, welche minderwertigere Teile verbaut haben.

Man kann nicht alles an die GPU Hersteller schieben.

Gruss Labberlippe

War nicht meine Absicht ;) !

DrumDub
2004-10-21, 15:03:36
Ich schrieb SM 1, nicht SM 1.0.

äh, ja richtig. also gibts kein sm 1.0, sm 2.0 und sm 3.0? ich dachte das umfasst alle untergruppen.

aths
2004-10-21, 15:11:30
Hi

Von dieser These rede ich auch nicht, nur ich akzeptiere die Meinung des Hestellers, wenn ATi meint das SM 3.0 noch nicht benötigt wird ist.Dieser Meinung ist ATI nur, weil sie ihren R400 nicht zustande brachten. Genau so war NV zu R200-Zeiten der "Meinung", dass man PS.1.4 nicht bräuchte.

Tjell
2004-10-21, 15:15:06
Dieser Meinung ist ATI nur, weil sie ihren R400 nicht zustande brachten. Genau so war NV zu R200-Zeiten der "Meinung", dass man PS.1.4 nicht bräuchte.
Exakt. Sobald ATI mit ihrer Hardware SM3.0 anbieten wird es plötzlich benötigt, wetten!?

Wobei ich aber mutmaße, daß nVIDIA dasselbe behauptet hätte, wenn sie nicht zur Vorstellung des R300 bereits selbst einen DX9/SM2.0-Chip in der Mache gehabt hätten. Nun gut, daß der ein Schuß in den Ofen war, haben sie ja nicht geahnt. :D

//NACHTRAG
Ähem... aths... was ist mit Deinem Smiley-Avatar passiert? Der war schöner ;)

aths
2004-10-21, 15:17:46
Zum Thema: Das Profil 2.B bietet immerhin ggü Profil 2.0 den Vorteil deutlich mehr Interpolatoren zu haben. Das kann man schon gut nutzen.Es gibt mehr Temps (32 statt 12, 2_A bietet 22) aber genau so viele Interpolatoren wie sonst auch im SM2 (also 8.)

aths
2004-10-21, 15:18:37
Und wann werden Shader->512 Instruktionen in Spielen eingesetzt? :confused:W00t. Für micht gibts mehr als nur Pielchen (das S mit Absicht weggelassen.)

Was bei ATI im Zusammenhang mit den 512 Slots nervt ist eben die umständliche Programmierung – mit 3.0 sind die Programme oft kürzer. 512 Instruktionen werden in Pielchen zwar auf absehbare Zeit kein wahrnehmbares Limit darstellen. Die arithmetische Rohleistung des R420 ist im Vergleich zum NV40 trotz Taktunterschied aber nicht so gut. Hinzu kommt dann noch die bessere Effizienz durch 3_0 (bzw. 2_A.)

Labberlippe
2004-10-21, 15:22:50
Dieser Meinung ist ATI nur, weil sie ihren R400 nicht zustande brachten. Genau so war NV zu R200-Zeiten der "Meinung", dass man PS.1.4 nicht bräuchte.

Hi

nVIDIA ist bis heute nicht der Meinung das PS1.4 obwohl man dies auch nachträglich nicht wirklich implementiert hat.

Mir ist es ehrlich gesagt blunzen ob jetzt SM 3 wirklich genutzt wird.
Nächste Jahr sieht die Lage wieder anders aus und dann wird sich wieder um die gleichen Dinge gestritten, weil ein Hersteller nachhinkt.


Für mich ist eine Grafikkarte nicht nur zum zocken da, ich lege mehr wert im Video und DVD Bereich und das ist ATi nunmal vorne.


Gruss Labberlippe

aths
2004-10-21, 15:23:46
Und was wäre darunter zu verstehen?Ein Mechanismus dass Quads nicht zwingend im gleichen Chip gerendert werden müssen.

aths
2004-10-21, 15:26:03
Wo darf ich über das Shader Model 1 nachlesen?Im DX8.1 SDK. Da es damals nur 1.x gab, wurde natürlich noch nicht mit der großen Nummerierung der Modelle (1, 2, 3) begonnen.

Zum Problem, einige erzählen hier was vom Shader Model 2.a oder 1.4, welche es nicht gibt.Dann ersetze in deinem Kopf "Modell" je nach Kontext mit "Version" oder "Profil" und gut ist.

MikBach
2004-10-21, 15:30:50
Im DX8.1 SDK. Da es damals nur 1.x gab, wurde natürlich noch nicht mit der großen Nummerierung der Modelle (1, 2, 3) begonnen.
IMHO ist das Wort Shader Model erst mit DX9 also Shader Model 2 eingeführt worden.

Dann ersetze in deinem Kopf "Modell" je nach Kontext mit "Version" oder "Profil" und gut ist.
Nein, du hängst dich doch auch an Kleinigkeiten auf.
Wir wollen korrekt bleiben. ;)

Quasar
2004-10-21, 15:31:22
Ein Mechanismus dass Quads nicht zwingend im gleichen Chip gerendert werden müssen.
Wie passt das mit "CPU" zusammen?

aths
2004-10-21, 15:32:22
Hi

nVIDIA ist bis heute nicht der Meinung das PS1.4 obwohl man dies auch nachträglich nicht wirklich implementiert hat.Doch. Ohne wirkliche Implementierung von 1.4 dürfte der Chip kein 2.0 vermelden.


Mir ist es ehrlich gesagt blunzen ob jetzt SM 3 wirklich genutzt wird.
Nächste Jahr sieht die Lage wieder anders aus und dann wird sich wieder um die gleichen Dinge gestritten, weil ein Hersteller nachhinkt.Nächstes Jahr wird in einigen Titeln hoffentlich bereits SM 3 genutzt. Und natürlich wird es neue Features geben, einige davon (zunächst) IHV-exklusiv, auch ATI wird sich hier (positiv) hervortun.

Für mich ist eine Grafikkarte nicht nur zum zocken da, ich lege mehr wert im Video und DVD Bereich und das ist ATi nunmal vorne.Hätte ich die Wahl zwischen NV40 (besser noch NV43) und R420 würde ich (gesetz dem Fall R420 bietet nicht mehr als meine Radeon 9600) den NV40 nehmen.

aths
2004-10-21, 15:32:47
äh, ja richtig. also gibts kein sm 1.0, sm 2.0 und sm 3.0? ich dachte das umfasst alle untergruppen.Das ".0" ist nicht unbedingt sinnvoll.

Wie passt das mit "CPU" zusammen?Gar nicht.

Quasar
2004-10-21, 15:34:23
Mehrere CPUs (iirc bevorzugt auf einem Board) können sich die Arbeit recht effizient teilen.
Und was sollte dann das bedeuten?

Gast
2004-10-21, 15:34:50
Was nv unter high tech versteht, kann man hier nachlesen: http://www.anandtech.com/video/showdoc.aspx?i=2238&p=2

aths
2004-10-21, 15:45:22
Und was sollte dann das bedeuten?Dass ein Tippfehler vorliegt.

Quasar
2004-10-21, 15:46:50
Ok, dann hätte ich das auch so verstanden. Danke.

Labberlippe
2004-10-21, 15:49:51
Doch. Ohne wirkliche Implementierung von 1.4 dürfte der Chip kein 2.0 vermelden.


Nächstes Jahr wird in einigen Titeln hoffentlich bereits SM 3 genutzt. Und natürlich wird es neue Features geben, einige davon (zunächst) IHV-exklusiv, auch ATI wird sich hier (positiv) hervortun.

Hätte ich die Wahl zwischen NV40 (besser noch NV43) und R420 würde ich (gesetz dem Fall R420 bietet nicht mehr als meine Radeon 9600) den NV40 nehmen.


Hi

Wenn ich mich recht entsinne, hat es auch bei PS1.4 Unterschiede geben, das mit PS2 auch PS1.4 unterstützt wird ist mir wohl bekannt.

Natürlich wird nächstes Jahr auch dementsprechent SM3 supporten + zusätzlich wieder mehr funktionen.
Dann kommt nvidia wieder, dann Ati u.s.w......
Das ist halt so.

Was Deine Wahl betrifft, stelle ich diese nicht Frage da jeder auf andere Features wert legt, und da hat halt ATi den Vorzug bei mir bekommen.

Wie gesagt, mir ist TV Out wichtiger und da punktet einfach ATi.

Gruss Labberlippe

aths
2004-10-21, 15:53:13
Hi

Wenn ich mich recht entsinne, hat es auch bei PS1.4 Unterschiede geben, das mit PS2 auch PS1.4 unterstützt wird ist mir wohl bekannt.
Unterschiede gibt es in der Implementierung, ATI hat 1.4 "besser" implementiert als NV in der GF FX, jedoch hat sich NV an den Standard gehalten, womit die Implementierung auch als "wirklich" einzustufen ist.

Was Deine Wahl betrifft, stelle ich diese nicht Frage da jeder auf andere Features wert legt, und da hat halt ATi den Vorzug bei mir bekommen.

Wie gesagt, mir ist TV Out wichtiger und da punktet einfach ATi.Da ich keinen TV habe, ist mir TV-Out natürlich Latte. Bislang habe ich weder von einer ATI- noch von einer NV-Karte das Bild via TV-Out gesehen. Nur mal von einer Voodoo3 3500, und das war eigentlich ok.

Labberlippe
2004-10-21, 16:03:36
Unterschiede gibt es in der Implementierung, ATI hat 1.4 "besser" implementiert als NV in der GF FX, jedoch hat sich NV an den Standard gehalten, womit die Implementierung auch als "wirklich" einzustufen ist.

Da ich keinen TV habe, ist mir TV-Out natürlich Latte. Bislang habe ich weder von einer ATI- noch von einer NV-Karte das Bild via TV-Out gesehen. Nur mal von einer Voodoo3 3500, und das war eigentlich ok.

Hi

Beim ersten Punkt gebe ich Dir schon Recht.

Tja, es ist nicht nur das ich per TV das Bild ausgeben kann, es ist auch die Konfiguration und die Software wo ATi nVIDIA abhängt.
Natürlich hat nVIDIA schon fest mit nVIEW nachgezogen, nur ist dieses bei weiten noch nicht so ausgereift, wie ATi es zu bieten hat.

Mit den neuen Treiber funktioniert sogar PowerDVD tadelos.
Den Player lasse ich auf Monitor 1 laufen und das Video Fenster ziehe ich auf den Fernseher und lasse es dann in Fullscreen laufen.

Die Bildqualität bei DVDs ist bei ATi auch besser und um einiges schärfer.
vernünftiger TV natürlich empfohlen.
Bei den Sony Trinitrons kann ich die schriften ohne Probleme lesen.
Hinzu kommt noch das ich bis jetzt mit keinen Beamer Probleme hatte um diese anzusteueren.

Was mich beim MMC von ATi überrascht hat war, das ich nicht auf ATi beschränkt bin.
Ich kann jederzeit die Plug Ins von meiner TV Karte nehmen und die Features nutzen.
Ein netter Gag ist das ich mein TV Bild (von der TV Karte) als Desktop hintergrund verwenden kann.

Übrigens:
Hydravision habe ich bis heute noch nicht wirklich benötigt, es ging auch so alles.

Gruss Labberlippe

arcanum
2004-10-21, 16:33:35
ATi stellt Enduser-Support und Treiber bereit, weil sie dazu verpflichtet sind, nicht, weil sie so anthrophil sind.

ich will ja nicht kleinlich sein, aber ich glaube du meinst philantrop

edit: endlich hat sich die diskussion hier etwas zum normalen bekehrt, ohne dass sich die IHV-jünger gegenseitig die köpfe einschlagen.

DrumDub
2004-10-21, 16:33:35
Das ".0" ist nicht unbedingt sinnvoll.

wenn man es so betrachtet hast du natürlich recht, nur sieht es für mich so aus, als sei die allgemein anerkannte begrifflichkeit sm x.0. sm 1.x geht ja auch nicht, da vs und ps version nicht übereinstimmen. für mich meint jemand mit sm 1.0 auch ps 1.0, 1.1, 1.3, 1.4 und vs 1.1.

der nv40 kann ja afaik auch mehr dinge im ps und vs, als in dx9c mit sm 3.0 als minimalbedingung vorgesehen ist.

aths
2004-10-21, 16:33:50
Hi

Beim ersten Punkt gebe ich Dir schon Recht.

Tja, es ist nicht nur das ich per TV das Bild ausgeben kann, es ist auch die Konfiguration und die Software wo ATi nVIDIA abhängt.
Natürlich hat nVIDIA schon fest mit nVIEW nachgezogen, nur ist dieses bei weiten noch nicht so ausgereift, wie ATi es zu bieten hat.Zu den TV-Outs kann ich nichts sagen. Ansonsten meine ich, dass Nview ATIs Hydravision längst überholt hat. Jedenfalls bietet Nview mir Tools die ich bei ATI vermisse.

Labberlippe
2004-10-21, 16:35:30
Zu den TV-Outs kann ich nichts sagen. Ansonsten meine ich, dass Nview ATIs Hydravision längst überholt hat. Jedenfalls bietet Nview mir Tools die ich bei ATI vermisse.


Hi

Die wären. ???

Gruss Labberlippe