PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - ATi und die Meinung zu Profilen....


tombman
2006-05-06, 14:08:12
HW-Info: Wird man ähnlich wie bei SLI auch im Treiber für CrossFire Profile anlegen?

ATI: Nein, eigentlich nicht, wobei natürlich manche Spiele Profile benötigen, um rund zu laufen. Die meisten Spiele sind aber auch ohne spezielle Profile sehr performant.
Was soviel heißt wie: Crossfire geht uns am Arsch vorbei und wir machen es nur wegen Nvidia.


...Was wir mit SLI bezwecken ist ein deutlicher Mehrwert deutlich einfach herzustellen und SLI unterstützen 300 Spiele. Schaut euch mal die Konkurrenz an. Da werden vielleicht 25 Spiele unterstützt, mit denen eben ständig gebencht wird...

;)

ATi hat auch kein Quad-SLi vor oder Mobile-CF...

Btw, hier die beiden Interviews von hardware-info. Sehr lesenswert IMO ;)
http://www.hardware-infos.com/berichte.php?bericht=16&seite=1

tombman
2006-05-06, 14:10:22
Hw-Info: Ist Quad-SLI für Sie eigentlich wirtschaftlich, bei dem doch recht kleinen Kundenkreis?

Nvidia: Wir sehen uns ja als sehr innovatives Unternehmen an. Wir haben neue Technologien herausgebracht und sind Technologie Marktführer. Wir haben SLI herausgebracht – am Anfang fragte man sich, braucht man das? SLI hat sich durchgesezt. Shader Model 3.0, braucht man das? Hat sich durchgesetzt. PureVideo, braucht man das? Hat sich durchgesetzt. Quad-SLI ist jetzt auch so eine Sache… man muss den Schritt wagen.

:cool:

Die haben wenigstens die richtige Einstellung. ATi macht nur was für die Masse. Sobald die Zielgruppe zu klein wird, machen sie es nicht...so lame.

Raff
2006-05-06, 14:14:09
Sollte sich Quad-SLI durchsetzen, dann kommen schwere Zeiten auf 90% der Spieler zu. Schon jetzt ist es irgendwie "in", High-End-Grafikkarten (Single-Karte) vorauszusetzen, wenn es halbwegs flüssig laufen soll. Überträgt man das, wird bald (Quad-)SLI von Nöten sein. Schöne neue Welt. Aber wehe, die Grafik wird dann nicht radikal aufpoliert.

tombman[/POST]']:cool:

Die haben wenigstens die richtige Einstellung. ATi macht nur was für die Masse. Sobald die Zielgruppe zu klein wird, machen sie es nicht...so lame.

Stimmt, das ist lobenswert. Siehe AGP.

MfG,
Raff

Konne
2006-05-06, 14:21:56
SLI durchgesetzt? WO DENN?

Jedem der meint sich SLI kaufen zu müssen/wollen oder es in ein paar Jahren nutzen will, sag ich nur: :ucrazy: - bis dahin ist 'ne 2. karte schwer zu finden oder der rest ist schon wieder zu lahm. meine meinung.
SLI ist sooo unnötig..... CF natürlich auch und Quad... erst recht!

BlackArchon
2006-05-06, 14:31:12
Konne[/POST]']SLI durchgesetzt? WO DENN?

Jedem der meint sich SLI kaufen zu müssen/wollen oder es in ein paar Jahren nutzen will, sag ich nur: :ucrazy: - bis dahin ist 'ne 2. karte schwer zu finden oder der rest ist schon wieder zu lahm. meine meinung.
SLI ist sooo unnötig..... CF natürlich auch und Quad... erst recht!Genauso könnte man gegen Porsche, Jaguar und wie sie alle heißen argumentieren. Trotzdem werden diese Marken gekauft. Genauso ist es bei SLI.

Gast
2006-05-06, 14:35:47
tombman[/POST]']:cool:

Die haben wenigstens die richtige Einstellung. ATi macht nur was für die Masse. Sobald die Zielgruppe zu klein wird, machen sie es nicht...so lame.Da muss ich dir leider zustimmen. Siehe Linuxtreiber, siehe Stereotreiber und siehe Multi-GPU-Systeme und deren Profile.

Schon jetzt ist es irgendwie "in", High-End-Grafikkarten (Single-Karte) vorauszusetzen, wenn es halbwegs flüssig laufen soll.Das gilt aber nur für maximale Details in mittelhohen Auflösungen. Wenn man sich mit niedrigen oder mittleren Details und 1024 zufrieden gibt oder einfach mal auf AA/AF verzichtet, kann man auch mit weniger guten Karten einwandfrei spielen.

So soll es aber auch sein. Für die höchste Detailstufe braucht man auch High-End-Hardware. Leider nehmen die Entwickler viel zu viel Rücksicht auf Bestizer von Schrotthardware. Wenn man mit einer 9800pro schon volle Details fahren kann, werden High-End-Grakas oder sogar SLI-Systeme niemals ausgelastet. Da bleibt einem High-End-Besitzer nur der Weg über extreme Auflösungen und "krasse" AA/AF-Modi, was ich nicht richtig finde.

Der Besitzer von High-End-Hardware soll auch einen deutlichen Mehrwert haben und nicht nur extreme Auflösungen fahren müssen, damit die Graka überhaupt was zu tun hat.

dildo4u
2006-05-06, 14:36:48
SLI an sich ist schon eine sher Gute Entwicklung es ermöglicht z.B den Entwicklern von Games schon früh zumindest den Speed der nästen Grafikkarten Generation zu simulieren.So können sie dem entsprechend auf diesen Speed hin ihre Gameengine programmieren.Gerade heute wo die Games immer aufwendiger werden und locker 3-4 Jahre Entwicklungszeit benötigen ist das eine sher gute Hilfe bei der Entwicklung.

KinGGoliAth
2006-05-06, 14:44:28
jaja. :rolleyes:
nvidia als kreatives unternehmen hat sli rausgebracht (jetzt erst im gegensatz zu einer anderen firma) und es hat sich durchgesetzt (nicht schon seit voodoo 2?). das ist natürlich ein durchbruch ohne gleichen.

immer diese propaganda...


sieht so aus als müßte ich jetzt 3-4 monate sparen um noch eine agp 7800gs abzugreifen. ;)

tombman
2006-05-06, 14:45:27
Konne[/POST]']SLI durchgesetzt? WO DENN?!
Hast du eigentlich eine Ahnung wieviele SLi user es mittlerweile gibt? Eher nicht...

Und da es SLI immer noch gibt, und jetzt sogar Quad-SLi ist schon allein ein Zeichen, daß es sich durchgesetzt hat, denn wenn es keiner kaufen würde, würde es SLI auch nicht mehr geben, so einfach ist das. Der Markt hat entschieden, basta.

Viele haben ja gehofft, daß SLI stirbt, ich sagte es wird weiterleben, und ich hatte Recht, mehr Recht als ich selbst dachte, es gedeiht einfach prächtig ;)

tombman
2006-05-06, 14:51:10
KinGGoliAth[/POST]']jaja. :rolleyes:
nvidia als kreatives unternehmen hat sli rausgebracht (jetzt erst im gegensatz zu einer anderen firma) und es hat sich durchgesetzt (nicht schon seit voodoo 2?). das ist natürlich ein durchbruch ohne gleichen.

immer diese propaganda...


sieht so aus als müßte ich jetzt 3-4 monate sparen um noch eine agp 7800gs abzugreifen. ;)
Naja, aber sie haben ja auch entschieden 3dfx zu kaufen und SLI auf den modernen Markt zu bringen, ATI hat das nicht getan. Die haben crossfire nur wegen Nvidia, nicht weil sie es lieben, sondern weil sie es müssen, DAS ist der Unterschied ;)

Blaze
2006-05-06, 14:57:05
Wie genau funktioniert Quad-SLI?

Es gibt zwei Möglichkeiten. SLIP Scream oder ALTERNET Scream. Bei SLIP Scream macht eine Karte immer noch die Hälfte des Bildes und teilt sich in Bildbereiche auf oder man macht eben ALTERNET Scream, da macht die erste Karte den ersten Frame, die zweite den Zweiten…

Sry...aber wenn ich das lese dreht sich wirklich ALLES bei mir um :lol:

Scream...Schrei...ja nee, is klar :D

Gast
2006-05-06, 15:00:42
HW-Info: Wird man ähnlich wie bei SLI auch im Treiber für CrossFire Profile anlegen?

ATI: Nein, eigentlich nicht, wobei natürlich manche Spiele Profile benötigen, um rund zu laufen. Die meisten Spiele sind aber auch ohne spezielle Profile sehr performantDas glauben die doch selbst nicht. Ohne Profil bzw. .exe-Umbenennung laufen die Spiele z.t. langsamer als Single-Karte.

Gast
2006-05-06, 15:02:40
tombman[/POST]']Hast du eigentlich eine Ahnung wieviele SLi user es mittlerweile gibt? Eher nicht...

Und da es SLI immer noch gibt, und jetzt sogar Quad-SLi ist schon allein ein Zeichen, daß es sich durchgesetzt hat, denn wenn es keiner kaufen würde, würde es SLI auch nicht mehr geben, so einfach ist das. Der Markt hat entschieden, basta.



Dir ist schon klar, das Sli nur einen Bruchteil der Einnahmen von NV ist.
Selbst wenn die Slisparte wegfällt, hat man immernoch Highend-, Performance-, Mainstream- und Lowcostsparte, also von daher ist SLI höchstens in 1 - 2% aller Haushalte.
Quadsli ist so ein Kotzmist, wirklich beschämend von NV, gilt soch nur der Prestige und hat nach meiner Meinung keinen Wert.

Naja, aber sie haben ja auch entschieden 3dfx zu kaufen und SLI auf den modernen Markt zu bringen, ATI hat das nicht getan. Die haben crossfire nur wegen Nvidia, nicht weil sie es lieben, sondern weil sie es müssen, DAS ist der Unterschied

Prestige mehr sag ich nicht...

tombman
2006-05-06, 15:07:14
Gast[/POST]']Das glauben die doch selbst nicht. Ohne Profil bzw. .exe-Umbenennung laufen die Spiele z.t. langsamer als Single-Karte.
Das ist ja der Witz, reine Lügen was der ATI-Typ da erzählt ;)

Super-S
2006-05-06, 15:08:21
:rolleyes: Definitiv, SLI hat sich durchgesetzt.

Wenn ich mir Oblivion und co. ankucke kriege ich richtig Angst zB. UT07 auf meiner 1900er zu sehen @Max.

:| Etwas bereuen tue ich den Kauf der Karte schon, weil ich persöhnlich von CF nicht besonders viel halte. Und sehr sehr viele Leute auch nicht. Also nix mit 2. Karte dazukaufen... und CF betreiben. Det werde ich garnt. nicht machen.

So 2 Heizwerke sind in meinen Augen nicht in einem PC zu betreiben.... Temps. und co. AHOI :rolleyes:

Werde sie sicherlich verscherbeln.... und wieder zu Grün wechseln. Hoffe das sich beim G80 was an der IQ geändert hat. Denn die IQ beim R580 hat mich seid dem Wechsel schon ziemlich beeindruckt.

Über die Politik von ATI kann ich nicht viel sagen... aber gut sieht das grad nicht aus, wenn ich hier so einige Sachen lese.

gruß

Blaze
2006-05-06, 15:09:11
Vor allem scheint er NULL Ahnung zu haben was seine Firma da eigentlich macht, ewig so Antworten wie "weiß ich nicht" oder "kann ich nicht sagen" ... :rolleyes:

tombman
2006-05-06, 15:10:49
Gast[/POST]']

Prestige mehr sag ich nicht...
Hatten die doch gar ned nötig, außerdem kann man eine Sache nicht nur wegen des prestige rausbringen wenn man erfolgreich sein will, man muß es auch lieben.

Crossfire ist eine prestige-Sache, die Halbherzigkeit dampft aus allen CCC-Poren.
(Jedesmal wenn ich ein neues game mit CF starte hoffe ich, daß ich durch .exe renaming CF-speed bekomme, aber manchmal geht es eben NICHT. Siehe TM:Nations, Condemned und TR:Legends.)

SLi ist ein gewolltes und geliebtes Kind von Nvidia, auch das merkt man ;)

Black-Scorpion
2006-05-06, 15:11:58
Logisch alles Lüge was ATI erzählt.
Wie war das mit PureVideo?
PureVideo, braucht man das? Hat sich durchgesetzt.
Wo denn?
Und SLI haben sie auch erfunden?
Multi GPU Lösungen auch?
nVidia sind die besten.
Klasse Marketing geblubber.

tombman
2006-05-06, 15:15:12
Anonym_001[/POST]']Logisch alles Lüge was ATI erzählt.
Wie war das mit PureVideo?

Wo denn?
Und SLI haben sie auch erfunden?
Multi GPU Lösungen auch?
nVidia sind die besten.
Klasse Marketing geblubber.
Es ist nicht wichtig wer es erfunden hat (nein, 3dfx wars auch nicht) sondern wer es mit Überzeugung auf den MARKT BRINGT.

EGG-Beater
2006-05-06, 15:20:41
Gast[/POST]']
Quadsli ist so ein Kotzmist, wirklich beschämend von NV, gilt soch nur der Prestige und hat nach meiner Meinung keinen Wert.
Wenn das Unternehmen daraus Erfahrungswerte für Entwicklung entnehmen kann, um kommende Generationen zu verbessern, würd ich das nicht unbedingt als Kotzmist bezeichnen.

Odal
2006-05-06, 15:22:55
SLI/CF ist für 99% der Nutzer uninteressant...die wollen es nicht und kaufen es nicht...sollen die paar die unbedingt mehrere Karten im rechner haben wollen sich doch bei NV rumtummeln...so hätte ich jedenfalls als ATI Führung gedacht ^^

tombman
2006-05-06, 15:24:18
Odal[/POST]'].sollen die paar die unbedingt mehrere Karten im rechner haben wollen sich doch bei NV rumtummeln...so hätte ich jedenfalls als ATI Führung gedacht ^^
So haben die aber nicht gedacht, ergo Crossfire ;)

AnarchX
2006-05-06, 15:29:33
Odal[/POST]']SLI/CF ist für 99% der Nutzer uninteressant...die wollen es nicht und kaufen es nicht...sollen die paar die unbedingt mehrere Karten im rechner haben wollen sich doch bei NV rumtummeln...so hätte ich jedenfalls als ATI Führung gedacht ^^

Das würde ich mal nicht so sagen...
Die meisten User, die eben keine Ahnung haben, sind nämlich auch einem crap-SLI gegenüber nicht abgeneigt (2x 6600LE 512MB oder so).
SLI -> 2 Grafikkarten -> "doppelte Leistung" -> sehr gute Prestige im OEM-Bereich.

Super-S
2006-05-06, 15:33:43
EGG-Beater[/POST]']Wenn das Unternehmen daraus Erfahrungswerte für Entwicklung entnehmen kann, um kommende Generationen zu verbessern, würd ich das nicht unbedingt als Kotzmist bezeichnen.


BINGO!!!! .....so sehe ich das auch. Auch wenns in die Hose geht "Anfänglich" tun se wenigstens was...im Gegensatz zu ATI. ATI reagiert auch nur auf NV.

reunion
2006-05-06, 15:37:27
tombman[/POST]']Hatten die doch gar ned nötig, außerdem kann man eine Sache nicht nur wegen des prestige rausbringen wenn man erfolgreich sein will, man muß es auch lieben.
[...]
SLi ist ein gewolltes und geliebtes Kind von Nvidia, auch das merkt man ;)

tombman[/POST]']Es ist nicht wichtig wer es erfunden hat (nein, 3dfx wars auch nicht) sondern wer es mit Überzeugung auf den MARKT BRINGT.

Du hörst dich an wie ein verstörter Psychiater, der sich an einer Firma aufgeilt.

Nur zur Info: nV war der letzte große Hersteller, welcher Multi-GPU in seinen Produkten einsetzte. Die "liebe" kam wohl ausschließlich durch die 3dfx Ingenieure.

tombman
2006-05-06, 15:39:38
reunion[/POST]']Du hörst dich an wie ein verstörter Psychiater, der sich an einer Firma aufgeilt.

Nur zur Info: nV war der letzte große Hersteller, welcher Multi-GPU in seinen Produkten einsetzte. Die "liebe" kam wohl ausschließlich durch die 3dfx Ingenieure.
Irgendwie entgeht mir was du mir eigentlich mitteilen willst...

Black-Scorpion
2006-05-06, 15:40:58
tombman[/POST]']Es ist nicht wichtig wer es erfunden hat (nein, 3dfx wars auch nicht) sondern wer es mit Überzeugung auf den MARKT BRINGT.
Wir haben SLI herausgebracht
Die Worte sagen was etwas anderes.
Das sie jahrelang anderen GPUs in Bezug auf Videounterstützung hinterhergehinkt sind, verschweigt der technologische Markführer lieber.
Aber wie schon gesagt, die ATI Marketingleute lügen und die von nVidia sind die reinsten Engel und würden sowas nie tun.

---
Warum hat man beim G71 nichts am Anisotropischen Filter verbessert? Viele User beschweren sich über die schlechte Qualität unter AF…

In der GeForce 7 Serie wird sich in dem Bereich nichts mehr ändern. Wir haben mit den Treibern wirklich den besten Kompromiss zwíschen Performance und Qualität gewählt. Mit neuer Hardware wird es auch wieder veränderte AF-Modis und AA-Modis geben, doch das ist eine Sache, die erst mit der GeForce 8 Serie kommen wird. Es ist auch eine Frage, was Spieler haben wollen. Und wenn ich mir jetzt einen ganz speziellen Bereich von High-End Spielern anschaue, für die ist das zwar wichtig, doch der Großteil der Kunden geht noch nichtmals in den Treiber rein, um AA oder AF zu verstellen. Für die Otto-Normal-Verbrauer zählt einfach nur Performance und auch für den Verkauf ist die Performance das entscheidende Kriterium. Außerdem ist es doch so, dass der User bei Hardware-Reviews zum Schluss einfach nur auf den Balken schaut und guckt, wie schnell die Karte ist. Wir wollen an dieser Stelle aber auch klar zu geben, dass das eine feine Sache ist, was die Konkurrenz gemacht hat, sie aber eben auch nur für eine Minderheit von Bedeutung ist.[/B]
---
Deswegen ist die Standardeinstellung auch Q und nicht HQ beim Treiber.
Das sagt eigentlich alles was nVidia von den Kunden hält.
Nur der Balken zählt.
---
Wo sehen Sie die Stärken und Schwächen der 7900 GTX im Vergleich zur X1900 XTX?

Die Vorteile sind Architektureffizienz. Wir haben einen deutlich kleineren Chip als unsere Konkurrenten, wodurch wir auch deutlich weniger Leistungsaufnahme haben. Wir können den Preis auch sehr aggressiv fahren. Keine Frage die Performance ist in etwa gleich. In der Filterung, wie bereits angesprochen, liegt unsere Konkurrenz momentan vorne, dafür sehen wir uns beispielsweise mit PureVideo klar vorne. PureVideo nimmt der CPU deutlich mehr Last ab als das Konkurrenzprodukt und mal ehrlich Videos benutzt fast jeder…
---
Ja mit der richtigen Software.
Welcher Media Player unterstütz PurVideo von Haus aus?
Afaik gibt es nur einen der PureVideo unterstützt.
Oder man legt nochmal eine paar Euro auf den Tisch und kauft den bei nVidia.

Quelle: http://www.hardware-infos.com/berichte.php?bericht=16&seite=2

Konne
2006-05-06, 15:41:22
Ich kenne keine Daten wieviel SLI Systeme es gibt, ich kann mir aber nicht vorstellen, dass es über 5% sind. Was auch schon eine menge wären...
Es wird viel zu sehr gepushed, als würde nur das die leistung bringen, die man braucht - stimmt aber nicht! ich sehe von exotischen auflösungen und AA/AF modis ab. Der normalo benutzt das nicht, will aber komischerweise SLI haben :confuse:
2x die gleiche graka wär mir auch zuviel wertverlust... genauso kaufe ich keine überteure high-end hardware.
aber die, die nicht aufs geld schauen, die sollens sich kaufen - das ist die angepeilte käuferschicht, genauso fahren die leute nen porsche und kein corsa ;)

tombman
2006-05-06, 15:45:31
Anonym, im Interview steht aber auch, daß sie die erhöhte AF Quali von ATI gut finden und sie beim G80 auch was diesbezüglich machen werden....

Odal
2006-05-06, 15:46:23
AnarchX[/POST]']Das würde ich mal nicht so sagen...
Die meisten User, die eben keine Ahnung haben, sind nämlich auch einem crap-SLI gegenüber nicht abgeneigt (2x 6600LE 512MB oder so).
SLI -> 2 Grafikkarten -> "doppelte Leistung" -> sehr gute Prestige im OEM-Bereich.

das eine SLI Lösung für 99% der Nuter uninteressant heisst ja nicht das ein paar DAUS es sich trotzdem zulegen

AnarchX
2006-05-06, 15:46:33
Anonym_001[/POST]']

---
Warum hat man beim G71 nichts am Anisotropischen Filter verbessert? Viele User beschweren sich über die schlechte Qualität unter AF…

In der GeForce 7 Serie wird sich in dem Bereich nichts mehr ändern. Wir haben mit den Treibern wirklich den besten Kompromiss zwíschen Performance und Qualität gewählt. Mit neuer Hardware wird es auch wieder veränderte AF-Modis und AA-Modis geben, doch das ist eine Sache, die erst mit der GeForce 8 Serie kommen wird. Es ist auch eine Frage, was Spieler haben wollen. Und wenn ich mir jetzt einen ganz speziellen Bereich von High-End Spielern anschaue, für die ist das zwar wichtig, doch der Großteil der Kunden geht noch nichtmals in den Treiber rein, um AA oder AF zu verstellen. Für die Otto-Normal-Verbrauer zählt einfach nur Performance und auch für den Verkauf ist die Performance das entscheidende Kriterium. Außerdem ist es doch so, dass der User bei Hardware-Reviews zum Schluss einfach nur auf den Balken schaut und guckt, wie schnell die Karte ist. Wir wollen an dieser Stelle aber auch klar zu geben, dass das eine feine Sache ist, was die Konkurrenz gemacht hat, sie aber eben auch nur für eine Minderheit von Bedeutung ist.[/B]
---
Deswegen ist die Standardeinstellung auch Q und nicht HQ beim Treiber.
Das sagt eigentlich alles was nVidia von den Kunden hält.
Nur der Balken zählt.


Dies ist eben die Marktsituation und als gewinnorientiertes Unternehmen muss man sich danach ausrichten...

Welche Karte wird der unversierte User wohl eher nehmen:
Die mit dem besseren anisotropischen Filtering oder die schnellere? ;)

tombman
2006-05-06, 15:47:22
AnarchX[/POST]']Dies ist eben die Marktsituation und als gewinnorientiertes Unternehmen muss man sich danach ausrichten...
Eben, außerdem gilt das für ATi genauso...

LovesuckZ
2006-05-06, 15:47:45
Anonym_001[/POST]']---
Deswegen ist die Standardeinstellung auch Q und nicht HQ beim Treiber.
Das sagt eigentlich alles was nVidia von den Kunden hält.
Nur der Balken zählt.
---


Sie sprechen nur die Wahrheit aus.

reunion
2006-05-06, 15:48:06
tombman[/POST]']Irgendwie entgeht mir was du mir eigentlich mitteilen willst...

Ich will dir mitteilen, dass jeder Hersteller nur solche Produkte auf den Markt bringt, von welchen er sich in irgendeiner Form einen Mehrwert erwartet.

tombman[/POST]']Die haben wenigstens die richtige Einstellung. ATi macht nur was für die Masse. Sobald die Zielgruppe zu klein wird, machen sie es nicht...so lame.

Deine "psychologischen Deutungen" sind einfach nur BS.

tombman
2006-05-06, 15:51:32
reunion[/POST]']Ich will dir mitteilen, dass jeder Hersteller nur solche Produkte auf den Markt bringt, von welchen er sich in irgendeiner Form einen Mehrwert erwartet.

Deine "psychologischen Deutungen" sind einfach nur BS.
Das ist aber nur deine Meinung, halte ich auch für BS...

Kein Mensch kann eine Arbeit erfolgreich über längere Zeit machen, wenn ihm diese nicht gefällt. Man kann auch kein SLI über lange Zeit erfolgreich rausbringen, wenn den Bossen und Entwicklern SLI selbst nicht auch gefallen würde ;) Entscheidungen werden immer noch von emotionalen Wesen getroffen und nicht von kühlen supercomputern...

reunion
2006-05-06, 15:54:36
tombman[/POST]']Kein Mensch kann eine Arbeit erfolgreich über längere Zeit machen, wenn ihm diese nicht gefällt. Man kann auch kein SLI über lange Zeit erfolgreich rausbringen, wenn den Bossen und Entwicklern SLI selbst nicht auch gefällt ;)

Du verstehst mich nicht. Es geht garnicht darum, ob einem ein Produkt "gefällt" oder nicht, sondern ob es sich wirtschaftlich lohnt, dieses Produkt zu vertreiben.

tombman[/POST]']Entscheidungen werden immer noch von emotionalen Wesen getroffen und nicht von kühlen supercomputern...

Der war gut, erkläre das mal einen Manager. Was zählt ist der Profit, alles andere ist sekundär.

tombman
2006-05-06, 15:56:35
reunion[/POST]']Du verstehst mich nicht. Es geht garnicht darum, ob einem ein Produkt "gefällt" oder nicht, sondern ob es sich wirtschaftlich lohnt, dieses Produkt zu vertreiben.
Mit Wirtschaftlichkeit allein kannst aber nicht alles erklären...

tombman
2006-05-06, 15:57:19
reunion[/POST]']
Der war gut, erkläre das mal einen Manager. Was zählt ist der Profit, alles andere ist sekundär.
Falsch.

mapel110
2006-05-06, 15:57:27
reunion[/POST]']Du verstehst mich nicht. Es geht garnicht darum, ob einem ein Produkt "gefällt" oder nicht, sondern ob es sich wirtschaftlich lohnt, dieses Produkt zu vertreiben.
Und bei SLI geht es in erster Linie derzeit um Prestige. Aber künftig wenn sich die Chips nicht mehr verkleinen lassen, ist es sicherlich gut, über die Anzahl der Chips skalieren zu können. Und desto länger es solche Technologien wie SLI gibt, desto mehr Vorlaufzeit haben Entwickler, darauf zu achten, dass ein Spiel auch aus MGPUs Leistung zieht.
tombman[/POST]']Falsch.
Nein, richtig. :tongue:
SLI zahlt sich aus, auf seine Weise.

reunion
2006-05-06, 15:58:29
mapel110[/POST]']Und bei SLI geht es in erster Linie derzeit um Prestige.

Richtig, und das bringt auf längere Sicht Profit.

reunion
2006-05-06, 15:59:24
tombman[/POST]']Mit Wirtschaftlichkeit allein kannst aber nicht alles erklären...

Oh, doch.

tombman[/POST]']Falsch.

Nein.

tombman
2006-05-06, 16:00:26
mapel110[/POST]']

Nein, richtig. :tongue:
SLI zahlt sich aus, auf seine Weise.
Profit ist NICHT der Motor und der Anfang von allem. Emotionen sind es.

reunion
2006-05-06, 16:03:18
tombman[/POST]']Profit ist NICHT der Motor und der Anfang von allem. Emotionen sind es.

Natürlich muss als erstens mal die Idee selbst vorhanden sein. Wobei diese bei SLi ja nicht mehr ganz neu ist. Alles andere ist eine einfache Kosten/Nutzen-Rechnung.

Glaubst du wirklich, da wird aus Emotionen heraus entschieden? Das gilt vielleicht beschränkt für den kleinen Becker von nebenan, aber mit Sicherheit nicht für ein millionenschweres, börsennotierten Unternehmen wie nVidia. Emotionen gelten heutzutage als Zeichen der Schwäche.

Gast
2006-05-06, 16:27:29
Welchen Support man bei ATI-MultiGPU erwarten kann wissen wir doch schon seit der Rage Fury MAXX. Sie machen momentan zwar die bessere Hardware, an der Firmenphilosophie hat sich aber leider nichts geändert.

thade
2006-05-06, 16:31:10
tombman[/POST]']Naja, aber sie haben ja auch entschieden 3dfx zu kaufen und SLI auf den modernen Markt zu bringen, ATI hat das nicht getan. Die haben crossfire nur wegen Nvidia, nicht weil sie es lieben, sondern weil sie es müssen, DAS ist der Unterschied ;)

Meinst Du NVidia brachte SLI für Uns? Die wollen doch nur mehr Karten verkaufen, aber ja so kann mans ja auch sehen.

Ja Nvidia liebt es den Leuten das Geld aus der Tasche zu ziehen.

thade
2006-05-06, 16:33:45
Super-S[/POST]'] Also nix mit 2. Karte dazukaufen... und CF betreiben. Det werde ich garnt. nicht machen.


Wer das als Argument sieht für SLI/CF, hats einfach nicht kapiert ;(

tombman[/POST]']So haben die aber nicht gedacht, ergo Crossfire ;)

Gedacht schon, aber der Markt verlangt es. CF musste kommen, sonst wäre NV alleine führend, sowas darf nicht passieren!

The_Invisible
2006-05-06, 16:43:01
thade[/POST]']Wer das als Argument sieht für SLI/CF, hats einfach nicht kapiert ;(



Gedacht schon, aber der Markt verlangt es. CF musste kommen, sonst wäre NV alleine führend, sowas darf nicht passieren!

wie tombman halt schon sagte, sie MUSSTEN es rausbringen, egal wie und egal ob es nur für ein paar "benchspiele" funktioniert (gabs da am anfang nicht das problem das die max auflösung 16x12/60Hz war?)

mfg

Gast
2006-05-06, 19:35:09
The_Invisible[/POST]'](gabs da am anfang nicht das problem das die max auflösung 16x12/60Hz war?)Ja, gab es. Find ich schon ein starkes Stück, vor allem wenn man die Zielgruppe von Crossfire betrachtet. Da haben wohl die meisten auch einen anständigen Monitor. CRTs konnte man damit ganz vergessen. Crossfire war (und ist immer noch) eine unglaubliche Frickellösung. Ab R520 gab es dann Dual-Link-DVI. Riesengroße CRTs sind aber immer noch nicht ganz unproblematisch.

Deine "psychologischen Deutungen" sind einfach nur BS.In diesem Fall aber zutreffend. Wenn die Zielgruppe nicht wichtig genug ist, wird es nicht gemacht. Es gibt keine vernünftigen Linuxtreiber von ATI, genausowenig wie Treiber für Stereo-Brillen. Vernünftige AGP-Karten gibt es nicht von ATI und bei Crossfire? Wenn ein Spiel nicht wichtig genug ist (d.h. oft gebencht wird), gibt es einfach kein Crossfire-Profil. So gibt es nur Profile für die prestigeträchtigen Benchmarkspiele. Will man irgendwas abseits des Mainstream spielen, gibts kein Profil. Dazu kommt, dass die Profilerstellung nicht möglich ist, sondern man sich mit exe-Renaming rumschlagen muss.

Ne ATI, so gewinnen sie mich nicht als Kunden, auch wenn eine x1900xtx sehr reizvoll ist. Sie hätten es mit Crossfire lieber ganz sein lassen sollen bis sie was vernünftiges auf die Beine gestellt haben.

Deswegen ist die Standardeinstellung auch Q und nicht HQ beim Treiber.
Das sagt eigentlich alles was nVidia von den Kunden hält.
Nur der Balken zählt.Was bei ATI nicht anders ist. Auch hier ist per Default "AI-Standard" aktiviert und somit die Filter-Betrügereien. Wenigstens kann man diese Cheats bei NV abschalten, ohne gleich die Bugfixes und Gameprofile zu verlieren.

Black-Scorpion
2006-05-06, 20:18:34
Seit wann sind im nVidia Treiber nach der Installation die Optimierungen abgeschaltet?
Und die Standardinstallation vom nVidia Treiber mit der Standardinstallation vom Catalyst zu vergleichen kann nicht dein ernst sein.

Gast
2006-05-06, 20:34:17
Anonym_001[/POST]']Seit wann sind im nVidia Treiber nach der Installation die Optimierungen abgeschaltet?Sind sie nicht. Hat aber auch niemand behauptet.

Anonym_001[/POST]']Und die Standardinstallation vom nVidia Treiber mit der Standardinstallation vom Catalyst zu vergleichen kann nicht dein ernst sein.Hmm, Q ist schon noch ein Stück schlimmer als AI-low. Schaltet man aber die Sample-Optimierung aus, ist es durchaus vergleichbar. Q + TriOpt ist generell nicht unbedingt schlechter als AI-low auf R5x0-Karten, mit leichten Vorteilen für AI-low. Das einzig wahre bei High-End-Karten ist aber sowieso nur HQ und AI-off.

Aber mir ging es viel eher um deine Aussage, dass NV "böse" ist, weil sie per Default die "Optimierungen" aktiv haben. Bei ATI sind standardmäßig aber ebenso die Filtertricks aktiviert. Der Großteil der User sieht diese Optimierungen (selbst Q) nicht einmal. Deshalb sind diese sowohl bei ATI, als auch bei NV, standardmäßig aktiviert, was ja ansich nichts schlimmes ist, solange man sie abschalten kann. Bei NV geht dies einwandfrei, bei ATI hingegen verliert man dadurch sämtliche Bugfixes und Crossfire-Profile.

J0ph33
2006-05-06, 21:06:14
tombman bezeichnet sich ja immer gerne als den "Anti-fanboy", aber was er hier schreibt, gibt einem schon zu denken, viel mehr, als das was er sonst so schreibt...

nvidia und ati sind großunternehmen, beide wollen profitmaximierung, das ist alles, diese schwarz-weiß-malerei ist doch fanboyerismus (was für ein wort ;D ) in reinform...

Raff
2006-05-06, 21:13:30
J0ph33[/POST]']tombman bezeichnet sich ja immer gerne als den "Anti-fanboy", aber was er hier schreibt, gibt einem schon zu denken, viel mehr, als das was er sonst so schreibt...

Tombman ist ein Fanboy – er ist immer der Fan vom schnellsten. Und damit kein Fanboy im herkömmlichen Sinne. X-D Eigentlich eine normale Einstellung ... genau so wie andere immer das mit dem besten Preis/Leistungs-Verhältnis kaufen (moi pour example).

Bisschen offtopic, hm?

MfG,
Raff

Fetza
2006-05-06, 21:23:32
BlackArchon[/POST]']Genauso könnte man gegen Porsche, Jaguar und wie sie alle heißen argumentieren. Trotzdem werden diese Marken gekauft. Genauso ist es bei SLI.

genau das ist der punkt, sicher hat sich porsche durchgesetzt. Trotz alle dem ist es ein ausnahme produkt für den betuchten käufer. D.h. bin ich mir absolut sicher das befürchtungen, spíele würden bald als minimum anforderung ne high end graka brauchen, wie raff meinte, nicht einkehren werden. SLI und Crossfire werden lösungen bleiben, um in ultra hohen auflösungen und mit max aa/af zu spielen. Und in bezug auf hdr ist es natürlich auch sehr interessant.

Ansonsten ist natürlich wieder viel polemik seitens nv dabei, was aber für ein unternehmen nur natürlich ist, gilt für ati also auch. Technologieführerschaft zu beanspruchen, ist aber etwas weit aus dem fenstergelehnt...

greetz

Fetza

J0ph33
2006-05-06, 21:32:13
Raff[/POST]']Tombman ist ein Fanboy – er ist immer der Fan vom schnellsten. Und damit kein Fanboy im herkömmlichen Sinne. X-D Eigentlich eine normale Einstellung ... genau so wie andere immer das mit dem besten Preis/Leistungs-Verhältnis kaufen (moi pour example).

Bisschen offtopic, hm?

MfG,
Raff

es ist allerdings befremdend, wie er das marketing-geblubber (und mehr ist es bei beiden interviews nicht) in den himmel lobt. diese schwarz-weiß-malerei ist bei großen unternehmen schlichtweg fehl am platz...

The_Invisible
2006-05-06, 22:44:36
Gast[/POST]']Hmm, Q ist schon noch ein Stück schlimmer als AI-low. Schaltet man aber die Sample-Optimierung aus, ist es durchaus vergleichbar. Q + TriOpt ist generell nicht unbedingt schlechter als AI-low auf R5x0-Karten, mit leichten Vorteilen für AI-low. Das einzig wahre bei High-End-Karten ist aber sowieso nur HQ und AI-off.

ja, die af sample optimierung ist wirklich schlimm, die könnten sie ruhig aus der standardeinstellungen rausnehmen, bringt aus meiner sicht eigentlich auch garnix , vor allem nicht was es an BQ kostet. vor allem wird mit der derzeitigen situation sicher keiner HQ im Treiber zum Standard machen (seitens nv u. ati)

mfg

tombman
2006-05-07, 07:44:38
J0ph33[/POST]']es ist allerdings befremdend, wie er das marketing-geblubber (und mehr ist es bei beiden interviews nicht) in den himmel lobt. diese schwarz-weiß-malerei ist bei großen unternehmen schlichtweg fehl am platz...
Meine Meinung hab ich mir aber nicht gebildet, weil ich was nachplappere sondern weil ich ATI und Nvidia selbst im System hatte und habe, sowohl als Einzelkarten als auch als SLI/CF.
("ich teste alles selbst" ;D)
Und ATi stinkt nun mal DERZEIT ab, vorallem bei CF. Das kann auch das bessere AF und HDR+AA nicht rausreißen. Nvidia ist im highend Bereich einfach mehr "dedicated"- und ob die Gründe dafür jetzt rein im Profit oder auch in der Begeisterung liegen sind auch schon wieder egal....

Odal
2006-05-07, 08:29:45
tombman[/POST]']
Und ATi stinkt nun mal DERZEIT ab, vorallem bei CF.

Ähm wo denn ausser bei Crossfire noch?

The_Invisible
2006-05-07, 09:13:37
Odal[/POST]']Ähm wo denn ausser bei Crossfire noch?

da gibts recht viele kleinigkeiten, aber das wissen wir (und vor allem du) eigentlich schon recht lange, warum also nochmal durchkauen? jeder hat seine punkte bei vor und nachteile, der user wählt aus diesen punkten aus bzw was er nicht haben will, und raus kommt eben die karte die besser zu einem passt, so einfach ist das.

mfg

Odal
2006-05-07, 09:20:43
The_Invisible[/POST]']da gibts recht viele kleinigkeiten, aber das wissen wir (und vor allem du) eigentlich schon recht lange, warum also nochmal durchkauen? jeder hat seine punkte bei vor und nachteile, der user wählt aus diesen punkten aus bzw was er nicht haben will, und raus kommt eben die karte die besser zu einem passt, so einfach ist das.

mfg

Ich glaube aber kaum das Tombman, der FPS Fanatiker, sich auf sowas wie Leistungsaufnahme bezieht. Dazu ist dann doch sein restliches System zu ähm stromhungrig.
Das jeder andere PRioritäten hat ist mir auch klar...aber Tombmans sollten doch bekannt sein...
Meine sind Preis/Leistung (wobei Leistung nicht nur FPS sondern FPS+BQ ist) aber darauf bezog sich mein Nachfragen auch garnicht.

The_Invisible
2006-05-07, 09:27:01
Odal[/POST]']Ich glaube aber kaum das Tombman, der FPS Fanatiker, sich auf sowas wie Leistungsaufnahme bezieht. Dazu ist dann doch sein restliches System zu ähm stromhungrig.
Das jeder andere PRioritäten hat ist mir auch klar...aber Tombmans sollten doch bekannt sein...
Meine sind Preis/Leistung (wobei Leistung nicht nur FPS sondern FPS+BQ ist) aber darauf bezog sich mein Nachfragen auch garnicht.

ka, das muss er selbst beantworten bzw wissen was ihm wichtig ist. aber was ich überhaupt nicht ausstehen kann ist einem eine karte reinzudrücken ohne vorher das anforderungsprofil zu kennen, wie es leider so oft vorkommt. zb im sinne vom thread multigpu würde ich vor allem SLI vornesehen, das man selbst keine profile verwalten bzw anlegen kann ist für so ein system eigentlich ein todesurteil

mfg

tombman
2006-05-07, 09:47:01
Ganz einfaches Beispiel: ich will bei ATI eine eigene Auflösung definieren....

Odal
2006-05-07, 10:08:28
ATT

Razor
2006-05-07, 10:23:24
tombman[/POST]']Hast du eigentlich eine Ahnung wieviele SLi user es mittlerweile gibt? Eher nicht...
Du offenbar auch nicht...

Und da es SLI immer noch gibt, und jetzt sogar Quad-SLi ist schon allein ein Zeichen, daß es sich durchgesetzt hat, denn wenn es keiner kaufen würde, würde es SLI auch nicht mehr geben, so einfach ist das. Der Markt hat entschieden, basta.
Gar nichts hat "der Markt entschieden".

SLI ist ein Nieschen-Produkt... zugegebener Maßen eines, welches Prestige schafft.
Nicht bei den High-End-Consumern (die haben einfach nur zu viel Geld ;-), sondern bei den Daus bzw. LowEndern, die sich so etwas NIEMALS kaufen würden. Klar wir ihnen eingeredet, dass man ja 'einfach' nur ein Kärtchen dazu stecken muss (wenn man zuvor ein neues Mobo - von nVidia - gekauft hat ;-), um die "Leistung" (von LowEnd-Karten) glatt zu verdoppeln... wobei... 2xLowEnd ist immer noch LowEnd.
:D

Das ganze Thema ist Augenwischerei!
Und ATI hat einfach keine Lust, mehr in dieses Segment an Resourcen zu investieren, als unbedingt nötig.
(hier kann ich sie zumindest verstehen)

SLI ist Prestige (schnellste Grafiklösung) und Marketing ("nVidia ist soooo doll und innovativ!" ;-), mehr nicht!

Viele haben ja gehofft, daß SLI stirbt, ich sagte es wird weiterleben, und ich hatte Recht, mehr Recht als ich selbst dachte, es gedeiht einfach prächtig ;)
Von "gedeihen" ist überhaupt keine Rede.
Diejenigen, die es sich leisten können, kaufen sich halt das Zeug, die anderen eben nicht.
So einfach ist das...

Der Marktanteil an ingesamt verkauften SLI-Systemen von allen Desktop-Grafiklösungen dürfte (weit!) unter einem Prozent liegen, ist also für niemanden wirtschaftlich wirklich interessant - ganz im Gegenteil... weder für nVidia, noch für die Hersteller oder Retailer. Marketing-seitig sieht das allerdings vollkommen anders aus, insofern die Consumer-SLI-Schiene einfach nur ein (dafür noch recht 'günstiger' ;-) Werbeträger ist... mehr nicht.

Aber klar, diese "SLI ist DER Bringer!" Sprüche werden einfach nicht aussterben...
...dafür sorgen solche Leute wie Du und nVidia (nebst den Herstellern und Retailern) ist das nur recht.

Multi-GPU-Systeme gab es schon immer... wird es auch immer geben, aber im Consumer-Sektor haben diese nichts zu suchen... es sei denn, andere Dinge, als Wirtschaftlichkeit, sind die Triebfeder.

That's it.

tombman[/POST]']Mit Wirtschaftlichkeit allein kannst aber nicht alles erklären...
Wirtschaftlichkeit und Marketing kommen nicht zueinander...
...schließen sich in der Regel meist sogar gaänzlich aus.

Klar kann man sich nicht nur auf das eine oder andere ausrichten, denn nur ein Mittel in Beidem dürfte zu Erfolg führen. Ergo: man muss i.d.R. 'unwirtschaftlich' sein, um Marketing-Effekte zu erzielen, die man dann wiederum nutzt, um wirtschaftliche Produkte zu verkaufen.

Diese Begriffe stehen also in Beziehung zueinander, sind in einem Produkt aber nicht vereinbar.
Auf das Thema bezogen bedeutet dies:
- SLI ist unwirtschaftlich, aber marketing seitig "DER Bringer"
- verkauft wird aber hauptsächlich (zu weit über 99%) der LowEnd-/MidRange-"Müll".

tombman[/POST]']Profit ist NICHT der Motor und der Anfang von allem. Emotionen sind es.
Was redest Du da für merkwürdiges Zeug zusammen?
Was willst Du mit diesem Spruch jetzt genau zum Ausdruck bringen?
:confused:

Der erste Teil vor dem "und" ist schonmal gänzlich falsch... eine vollkommene Verdrehung der Tatsachen.

Razor

Razor
2006-05-07, 10:26:06
Anonym_001[/POST]']PureVideo
---
Ja mit der richtigen Software.
Welcher Media Player unterstütz PurVideo von Haus aus?
Afaik gibt es nur einen der PureVideo unterstützt.
Oder man legt nochmal eine paar Euro auf den Tisch und kauft den bei nVidia.
Meiner güte erzählst Du hier wieder grenzenlosen Unsinn, sorry.

PureVideo sind auf DXVA 1.0 (einem Microsoft Standard) aufetzende, bildverbessernde Maßnahmen, die bei JEDEM Programm greifen, wenn es diese Schnittstelle und das Overlay als Ausgabemedium benutzt. Was Du vermutlich meinst, ist die - ebenfalls über DXVA - angebotene Hardware-Beschleunigung. Und diese muss selbstredend von den Playern unterstützt werden (ist ähnlich den Hersteller-spezifischen Erweiterungen bei OpenGL anzusehen).

Was das alles jetzt aber mit dem popeligen MPEG-Decoder zu tun haben soll, den es bei nVidia käuflich zu erwerben gibt, musst Du mir jetzt aber erst einmal erzählen. Offenbar hast Du da einiges durcheinander gebracht...

Razor

Razor
2006-05-07, 10:33:31
Zu dem Interview...
nVidia glänzte duch perfektes Marketing, ATI hingegen versagte hier völlig.

Mehr ist dazu nicht zu sagen.

Razor

PrefoX
2006-05-07, 10:46:53
tombman[/POST]']Falsch.Also ist dir Marketing/Werbung wichtiger als das eigentliche Produkt? Glaub net das jeder bei NVIDIA so überzeugt davon ist und so dahinter steht... das ist auch nur eine Form von Marketing/Prestige.

RyoHazuki
2006-05-07, 12:28:57
wenn NVIDIA !!! DIR !!! gehören würde, und deine Representanten der Firma würden sowas reden wie die ATI leute, würdest du dich drüber aufregen, weil sie das Image der Firma nicht verbesserten, bzw. nicht gleichwertig vertreten haben.

Für Otto normal User, die nur nach dem gehen wie schnell die Karte ist und wieviel MB Speicher die Grafikkarte hat, ist das NVIDIA marketing Perfekt.

Für leute die mehr verstehen als das, die können drüber hinweg sehen. Aussagen die eine Firma in die öffentlichkeit macht, müssen immer Positiv (über sich selbst) sein. Sonst würde die Firma doch Gnadenlos untergehen.

Ich bin kein ATI oder NVIDIA Fanboy, das einzige was ich derzeit vorziehe sind S3 karten. (Ja und sogar die haben übertriebenes Marketing geblubber) Das was das Marketing sagt, können so ziemlich 50% der leute in diesem Forum ignorieren.

Marketing = Das Produkt Pushen, Hypen was auch immer. Eine Firma wird wohl kaum ein Produkt raus bringen, um es dann in der Öffentlichkeit schlecht zu machen. Dafür sind die unabhängingen Tester zuständig. ;-)

Das Marketing bei ATI, NVidia, S3, Matrox usw. ist die Verbrauchsangabe bei Auto´s, die am ende eh wieder nicht zutrifft, weil

--------- Jeder Mensch anders Auto fährt ------------

oder fährt jeder von uns 40% Stadtverkehr, 35% Landstraßen, 25% Autobahn ?? Damit man den Verbrauch auch wirklich nachmessen kann?!

Der eine sagt, oh die ATI Grafikkarte ist besser als meine Geforce (er ist der Battlefiel Spieler), Der andere hält dagegen, stimmt doch garnicht meine Geforce ist schneller (er ist der Doom3 spieler)

Oh ja solche vergleiche gibts, ob man es glaubt oder nicht!

Gast
2006-05-07, 13:01:37
PrefoX[/POST]']Also ist dir Marketing/Werbung wichtiger als das eigentliche Produkt? Glaub net das jeder bei NVIDIA so überzeugt davon ist und so dahinter steht... das ist auch nur eine Form von Marketing/Prestige.

Damit ist auch gesagt, wie schnell Tombman zu überzeugen ist.
Nvidia ist Sli sowas von egal, nur zu Prestige und Forschungszwecken.
Das gleiche gilt für ATI.

@Razor: Schön gesagt und vollkommen richtig.

@Tombman: So schwach ist CF auch wieder nicht, ist halt eher noch in der Entwicklung.
ATI ist in Sachen Technik, Sli/CF vorweg, NV total überlegen, okay in Stromverbrauch und Hitze nicht.
Du vertrittst deine Meinung als SLI-User, es ist deine Meinung und du hast deine Gründe für NV genannt, eventuell sollten wir deine Meinung respektieren.

Raff
2006-05-07, 13:29:55
Razor[/POST]']Zu dem Interview...
nVidia glänzte duch perfektes Marketing, ATI hingegen versagte hier völlig.

Mehr ist dazu nicht zu sagen.

Razor

Das konnten sie ja schon immer gut – im Gegensatz zum aktuellen Erzfeind ... Nein, das war ganz sicher keine Anspielung auf vergangene Tage. ;)

MfG,
Raff

SKYNET
2006-05-07, 15:16:46
Gast[/POST]']Damit ist auch gesagt, wie schnell Tombman zu überzeugen ist.
Nvidia ist Sli sowas von egal, nur zu Prestige und Forschungszwecken.
Das gleiche gilt für ATI.

@Razor: Schön gesagt und vollkommen richtig.

@Tombman: So schwach ist CF auch wieder nicht, ist halt eher noch in der Entwicklung.
ATI ist in Sachen Technik, Sli/CF vorweg, NV total überlegen, okay in Stromverbrauch und Hitze nicht.
Du vertrittst deine Meinung als SLI-User, es ist deine Meinung und du hast deine Gründe für NV genannt, eventuell sollten wir deine Meinung respektieren.

*hust* wo das denn?

ich sage nur: ein blick in meine signatur, sie haben es nach ewigen zeiten immer noch net geschafft echtes SM3.0 hinzubekommen, sondern biegen sich es zurecht, und behaupten sie hätten es...

wäre so als wenn ich mir nen porsche kaufe, den in ferarri rot lackiere, nen ferarri emblem druffpappe und behaupte es ist einer... :rolleyes:

The_Invisible
2006-05-07, 15:27:35
Gast[/POST]']Damit ist auch gesagt, wie schnell Tombman zu überzeugen ist.
Nvidia ist Sli sowas von egal, nur zu Prestige und Forschungszwecken.
Das gleiche gilt für ATI.

@Razor: Schön gesagt und vollkommen richtig.

@Tombman: So schwach ist CF auch wieder nicht, ist halt eher noch in der Entwicklung.
ATI ist in Sachen Technik, Sli/CF vorweg, NV total überlegen, okay in Stromverbrauch und Hitze nicht.
Du vertrittst deine Meinung als SLI-User, es ist deine Meinung und du hast deine Gründe für NV genannt, eventuell sollten wir deine Meinung respektieren.

wie können sie in sachen technik total (ich liebe diese sinnlosen übertreibungen hier im forum :D) überlegen sein wenn ihre chips herdplatten sind, im crossfire mode mehr verbrauchen als Quad-SLI und nicht schneller sind als die konkurrenz? das musste mir erklären...

zudem müsste dann die 6800er reihe der x8y0 reihe in sachen technik ja sowas von krass überlegen sein, da sie ja nichtmal SM3 oder HDR hatten :eek: aber wehe man hatte das früher als argument gebracht...

mfg

AnarchX
2006-05-07, 16:29:41
Gast[/POST]']Der NV40 war oder ist zu schwach für SM3

[ ] Ich weiss was Shadermodel 3.0 ist und für eine Graka bedeutet? ;)

Mr. Lolman
2006-05-07, 17:15:33
Gast[/POST]']Sind sie nicht. Hat aber auch niemand behauptet.

Hmm, Q ist schon noch ein Stück schlimmer als AI-low. Schaltet man aber die Sample-Optimierung aus, ist es durchaus vergleichbar. Q + TriOpt ist generell nicht unbedingt schlechter als AI-low auf R5x0-Karten, mit leichten Vorteilen für AI-low. Das einzig wahre bei High-End-Karten ist aber sowieso nur HQ und AI-off.

Aber sicher nicht. Q ohne Opts. flimmerte bei mir schon am NV40 in jedem Spiel mehr als AIlow...

Raff
2006-05-07, 17:17:45
Sicher nicht in jedem. Zugegeben, ich habe nie die Kombination aus Q und null Optimierungen gefahren ... aber was A.I. da vereinzelt für einen Müll ankarrt, geht auch von Q + Opts kaum schlechter.

MfG,
Raff

Coda
2006-05-07, 17:18:56
Mr. Lolman[/POST]']Er hat trotzdem recht. Die notwendige Rechenleistung für ein Spiel mit Effekten, die nur mit SM3 zu bewerkstelligen sind, ist bei einem NV40 nicht unbedingt gegeben.
Ich hab dir schon oft erklärt das jeglicher "Effekt" auf SM3 schneller läuft. Dass das bisher nicht gemacht wurde liegt hautpsächlich an der Faulheit der Devs. Nunja, nVIDIA macht aber auch vieles mit dem Shadercompiler trotzdem rein.

The_Invisible
2006-05-07, 17:21:44
Mr. Lolman[/POST]']Aber sicher nicht. Q ohne Opts. flimmerte bei mir schon am NV40 in jedem Spiel mehr als AIlow...

das ist schon mal eine lüge weils bei MANCHEN spielen nämlich GARNICHT flimmert (man beachte das großgeschriebene)

außerdem, wie kann ne graka zu langsam für SM3.0 sein? man nehme farcry, mit SM3.0 gabs nen kleinen aber feinen schub. farcry habe ich außerdem in 1280x960 mit HDR durchgespielt, macht den NV4x nicht schlechter wie er ist

mfg

Mr. Lolman
2006-05-07, 17:23:30
Raff[/POST]']Sicher nicht in jedem. Zugegeben, ich habe nie die Kombination aus Q und null Optimierungen gefahren ... aber was A.I. da vereinzelt für einen Müll ankarrt, geht auch von Q + Opts kaum schlechter.

MfG,
Raff

Wo bitte? Ich bin mit AIlow absolut zufrieden. Zumindest mit den Spielen die ich aktuell spiele (Oblivion, Quake4, GTA-SA, Serious Sam 2). Und dass es dann bei einem anderen Spiel plötzlich viel schlechter sein soll kann ich mir auch nicht vorstellen.

Gut vll. bin ich auch etwas vorbelastet, denn GTA-SA war das erste Spiel was ich auf der Karte getestet hab und da sieht 6xAA/16xHQAF aber SOVIEL besser aus als am NV40 8xS/16xHQAF. Und wenn dann noch plötzlich auch die fps passen (keine Diashow mehr, wenn man durch Wolken fliegt), dann ist das Glück perfekt =)

Ich glaub du bist mittlerweile einfach hypersensibilisiert. Oder gibts etwa schon Vergleichsvideos/gifs die deine Behauptungen untermauern (wobei man fairerweise mit nem G7x testen müsste anstatt mit nem NV40)

Mr. Lolman
2006-05-07, 17:26:43
The_Invisible[/POST]']das ist schon mal eine lüge weils bei MANCHEN spielen nämlich GARNICHT flimmert (man beachte das großgeschriebene)

In welchen?

The_Invisible[/POST]']
außerdem, wie kann ne graka zu langsam für SM3.0 sein? man nehme farcry, mit SM3.0 gabs nen kleinen aber feinen schub. farcry habe ich außerdem in 1280x960 mit HDR durchgespielt, macht den NV4x nicht schlechter wie er ist

mfg

Coda[/POST]']Ich hab dir schon oft erklärt das jeglicher "Effekt" auf SM3 schneller läuft. Dass das bisher nicht gemacht wurde liegt hautpsächlich an der Faulheit der Devs. Nunja, nVIDIA macht aber auch vieles mit dem Shadercompiler trotzdem rein.

Wollt ihr mich nicht verstehen oder habt ihr einfach keinen Bock meine Beiträge komplett durchzulesen. Ich schrieb von SM3 "ONLY" Effekten. Und da siehts aktuell eher düster aus. Denn was für einen grossartigen Nachteil hab ich mit nem R4x0, wenn Spiel XY auf nem NV40 durch SM3 ein par Prozent dazugewinnt, ohne aber ein Plus an Eyecandy zu bieten?

...und Farcry mit 1280 + HDR und Maxdetails war schon sehr eng (+flimmrig wegen fehlendem AA).

mapel110
2006-05-07, 17:27:51
Mr. Lolman[/POST]']Er hat trotzdem recht. Die notwendige Rechenleistung für ein Spiel mit Effekten, die nur mit SM3 zu bewerkstelligen sind, ist bei einem NV40 nicht unbedingt gegeben.
Ohja, es wurden nur SM3/HDR Effekte in einige Spiele eingebaut, weil ATI 1.5 Jahre später als die Konkurrenz ja mit SM3/HDR kommt. :|
NV40 User hatten die Wahl zwischen 1600x1200 AA/AF und 1024 inkl allen Effekten. Da muss man die Möglichkeit der Wahl natürlich kleinreden, weil R420-User diese nicht hatten. ;(

Coda
2006-05-07, 17:28:27
Du solltest evtl. wirklich mal verstehen was ein Shader genau macht, dann könnte man viel besser darüber diskuttieren :rolleyes:

Mr. Lolman
2006-05-07, 17:30:47
mapel110[/POST]']Ohja, es wurden nur SM3/HDR Effekte in einige Spiele eingebaut, weil ATI 1.5 Jahre später als die Konkurrenz ja mit SM3/HDR kommt. :|
NV40 User hatten die Wahl zwischen 1600x1200 AA/AF und 1024 inkl allen Effekten. Da muss man die Möglichkeit der Wahl natürlich kleinreden, weil R420-User diese nicht hatten. ;(

Du hast recht. Bloß dann ärgerlich wenn man TFT User ist.

Odal
2006-05-07, 17:34:34
The_Invisible[/POST]']wie können sie in sachen technik total (ich liebe diese sinnlosen übertreibungen hier im forum :D) überlegen sein wenn ihre chips herdplatten sind, im crossfire mode mehr verbrauchen als Quad-SLI und nicht schneller sind als die konkurrenz? das musste mir erklären...

Das hat früher viele bei 6800Ultra aber auch nicht gestört.... die wärme und den stromverbrauch mein ich ;)


zudem müsste dann die 6800er reihe der x8y0 reihe in sachen technik ja sowas von krass überlegen sein, da sie ja nichtmal SM3 oder HDR hatten :eek: aber wehe man hatte das früher als argument gebracht...

mfg

naja man muss das immer als komplexes betrachten...(lassen wir mal kosten ausser acht) muss Speed+BQ+Features in Einklang stehen. Der NV30 war dem R300 technisch auch weit überlegen...sogar in Sachen BQ aber dafür mangelte es absolut an Speed. Die 6800er sind dem X8x0 zwar in Sachen Features sehr weit vorraus, aber in Sachen BQ und Speed liegt er eben etwas zurück.

Raff
2006-05-07, 17:35:20
Mr. Lolman[/POST]']Ich glaub du bist mittlerweile einfach hypersensibilisiert. Oder gibts etwa schon Vergleichsvideos/gifs die deine Behauptungen untermauern (wobei man fairerweise mit nem G7x testen müsste anstatt mit nem NV40)

Ich vergleiche stets mit meinem NV40, so wie du. Und Fakt ist, dass ich mit A.I. low oft Mist sehe, der bei NV HQ nicht da war. Fairerweise muss man aber hinzu sagen, dass NV Q + Opts natürlich die Hässlichkeit in Negativ-Perfektion darstellt ... und dass A.I. off in jedem Fall optimale Texturen liefert – es sei denn, der Content ist wirklich evil.

Muss wohl doch ein Artikel her ... ;)

Odal[/POST]']Der NV30 war dem R300 technisch auch weit überlegen...sogar in Sachen BQ aber dafür mangelte es absolut an Speed.

R300-MSAA war dem des NV30 weit überlegen. Ok, dafür gab es noch das schicke 8xS. :) Und das NV3x-AF ist eh genial.

MfG,
Raff

Mr. Lolman
2006-05-07, 17:37:50
Coda[/POST]']Du solltest evtl. wirklich mal verstehen was ein Shader genau macht, dann könnte man viel besser darüber diskuttieren :rolleyes:

Ich weiss so ca. wo die Limits bei SM2 liegen und dass neben so netten Dingen wie der Einführung von bedingten Verzweigungen auch die max. Instructionlenght erhöht wurde. Nun ists ja so, dass man die NV4x/R4x0 auch schon mit reinen SM2 Effekten ziemlich in die Knie zwingen kann.

Wo solls dann zu Zeiten von R420/NV40, von Seiten der Spieler eine Notwenigkeit zu einer SM3 kompatiblen GraKa gegeben haben, wenn man sich im Klaren sein konnte, dass man ohnehin bei jedem Spiel auf die native Monitorauflösung verzichten muss.

Mr. Lolman
2006-05-07, 17:43:52
Raff[/POST]']Ich vergleiche stets mit meinem NV40, so wie du. Und Fakt ist, dass ich mit A.I. low oft Mist sehe, der bei NV HQ nicht da war. Fairerweise muss man aber hinzu sagen, dass NV Q + Opts natürlich die Hässlichkeit in Negativ-Perfektion darstellt ... und dass A.I. off in jedem Fall optimale Texturen liefert – es sei denn, der Content ist wirklich evil.

Muss wohl doch ein Artikel her ... ;)

Bitte darum. Wobei man sich wirklich am G70 HQ orientieren sollte. :)


Raff[/POST]']
R300-MSAA war dem des NV30 weit überlegen. Ok, dafür gab es noch das schicke 8xS. :) Und das NV3x-AF ist eh genial.

MfG,
Raff

Hm, 8xS old war in der Tat ca so schick wie 3dfx 4xAA. Nur dass die GraKa zu den 4x Super Samples noch 8 Multisamples zu berechnen hatte...

Odal
2006-05-07, 17:45:47
Coda[/POST]']Ich hab dir schon oft erklärt das jeglicher "Effekt" auf SM3 schneller läuft. Dass das bisher nicht gemacht wurde liegt hautpsächlich an der Faulheit der Devs. Nunja, nVIDIA macht aber auch vieles mit dem Shadercompiler trotzdem rein.

ich denke mal wo Lolman und der Gast anspielen ist, das die Effekte für die sich die Devs die "Mühe" (auch wenn es garnicht soviel Arbeitsaufwand ist) machen SM3 zu nutzen, prozentual zuviel Leistung auf dem NV40 ziehen so das man gezwungen ist diese zu deaktivieren.
Bei HDR sieht es ähnlich aus. Das zieht eben einen Haufen Bandbreite und man muss auf AA verzichten. Klar wird es immer Fälle geben die trotzdem SM3 Effekte anlassen und niedriege FPS in kauf nehmen oder HDR nutzen und mit niedrigen FPS und ohne AA leben.

The_Invisible
2006-05-07, 17:50:26
Mr. Lolman[/POST]']In welchen?





Wollt ihr mich nicht verstehen oder habt ihr einfach keinen Bock meine Beiträge komplett durchzulesen. Ich schrieb von SM3 "ONLY" Effekten. Und da siehts aktuell eher düster aus. Denn was für einen grossartigen Nachteil hab ich mit nem R4x0, wenn Spiel XY auf nem NV40 durch SM3 ein par Prozent dazugewinnt, ohne aber ein Plus an Eyecandy zu bieten?

...und Farcry mit 1280 + HDR und Maxdetails war schon sehr eng (+flimmrig wegen fehlendem AA).

in allen wo keine hochfrequenten/fiesen texturen vorkommen natürlich, du hast ja "JEDEN" geschrieben, das stimmt ganz sicher nicht.

und wegen farcry: aber ich lebe noch :eek: ich habe das fehlende AA wirklich überlebt und habe auch keinen bleibenden schaden davongetragen... dafür habe ich als erstes hübsches HDR sehen können :)

mfg

Mr. Lolman
2006-05-07, 17:57:14
The_Invisible[/POST]']in allen wo keine hochfrequenten/fiesen texturen vorkommen natürlich, du hast ja "JEDEN" geschrieben, das stimmt ganz sicher nicht.

Ich trau mich mit dir fast wetten, dass es in jedem Spiel die ein oder andere Stelle gibt, wo sich einem die Unzulänglichkeiten in der Texturfilterung offenbahren.

The_Invisible[/POST]']
und wegen farcry: aber ich lebe noch :eek: ich habe das fehlende AA wirklich überlebt und habe auch keinen bleibenden schaden davongetragen... dafür habe ich als erstes hübsches HDR sehen können :)

mfg

Ja, hübsch war das HDR wirklich (wenn man sichs zurechtgetweakt hatte) aber imo stands in keiner guter Relation zum Rechenaufwand, und der dementsprechend gebotenen Performance. TM-Sunrise bietet zB Color Dynamics die rein vom optischen Ergebnis sehr ähnlich mit dem FC-HDR waren, mit dem Unterschied dass es flüssig auf ner 64MB 9500@pro läuft...

The_Invisible
2006-05-07, 18:13:17
Odal[/POST]']Das hat früher viele bei 6800Ultra aber auch nicht gestört.... die wärme und den stromverbrauch mein ich ;)



naja man muss das immer als komplexes betrachten...(lassen wir mal kosten ausser acht) muss Speed+BQ+Features in Einklang stehen. Der NV30 war dem R300 technisch auch weit überlegen...sogar in Sachen BQ aber dafür mangelte es absolut an Speed. Die 6800er sind dem X8x0 zwar in Sachen Features sehr weit vorraus, aber in Sachen BQ und Speed liegt er eben etwas zurück.

ich habe da auch nie gesagt das die NV4x TOTAL überlegen sind und habs auch nie so gelesen (ich habe jetzt übrigens nicht das ganze forum danach durchsucht, könnte schon sein das das wer behauptet hat, aber auch das wäre mir ein grinser wert gewesen)

ansonsten war glaub ich SC:CT die spitze des berges da es am anfang nur SM1.0 und SM3.0 hatte... da gab es doch ein paar stimmen von ATI Usern die nicht so froh darüber waren (und sich sogar weigerten das spiel zu kaufen dadurch), bis halt der patch für SM2.0 rauskam

mfg

Mr. Lolman
2006-05-07, 18:18:59
The_Invisible[/POST]']
ansonsten war glaub ich SC:CT die spitze des berges da es am anfang nur SM1.0 und SM3.0 hatte... da gab es doch ein paar stimmen von ATI Usern die nicht so froh darüber waren (und sich sogar weigerten das spiel zu kaufen dadurch), bis halt der patch für SM2.0 rauskam

mfg
Ja, SC:CT hat damals die SM3 Diskussion ganz schön angeheizt. Und die Gesichter wurden aufeinmal alle lang, als ein (von ATi programmierter) SM2 Pfad fast die gleichen Effekte ermöglichte.

Gast
2006-05-07, 18:47:44
Ich würd hier gern auch ein weiteres Thema anschneiden:

PureVideo von Nvidia ist doch ein genau so totes Thema wie Crossfire bei ATI ?

Ganz ehrlich: Ich hab nichts gegen die Nvidia Produkte (hatte vor einigen Jahren eine Geforce 3 Ti-200), aber ATI bietet meiner Ansicht nach immer noch das besser "Kompletpaket" für Videofreaks wie mich an :). Wenn es was vergleichbares wie die X1800 AIW von Nvidia gäbe sähe so manche Welt anders aus ;)

Und sehen wir es doch mal nüchtern:
Was SLI für Nvidia an "Prestige" ist, ist bei ATI die All in Wonder Serie :)

Gast
2006-05-07, 20:02:49
Gast[/POST]']Ich würd hier gern auch ein weiteres Thema anschneiden:

PureVideo von Nvidia ist doch ein genau so totes Thema wie Crossfire bei ATI ?

Ganz ehrlich: Ich hab nichts gegen die Nvidia Produkte (hatte vor einigen Jahren eine Geforce 3 Ti-200), aber ATI bietet meiner Ansicht nach immer noch das besser "Kompletpaket" für Videofreaks wie mich an :). Wenn es was vergleichbares wie die X1800 AIW von Nvidia gäbe sähe so manche Welt anders aus ;)

Und sehen wir es doch mal nüchtern:
Was SLI für Nvidia an "Prestige" ist, ist bei ATI die All in Wonder Serie :)

Gute Frage! Die All-in-Wonder Serie ist durch AVIVO noch interessanter geworden.
Leider gibt es zurzeit keine wirklich guten All-in-Wonder Grakas, ansonsten hat ich schon längst eine in meinem Barebone reingebaut.
All-in-Wonder gibt es schon seit Ewigkeiten glaub bei der r200 gab es die ersten Modelle.
Prestige ist es auf jeden Fall, aber normallerweiße bedeutet das, das sich die Prestigemodelle auf die ganze Produktserie auswirkt, was aber bei der All-in-Wonder-Serie nicht wirklich geschah, da nicht alle Modelle einen integrierten Tv-Tuner hatten.
Schließlich, kann man sagen, das fast jede Tvkarte bessere Videos aufnehmen konnte.

Sli war ja seit dem NV-40 mit nahezu jeder Pcie-Graka möglich, also hinkt der Vergleich etwas.

@Ps3-Diskussion:
Würden sich die Entwickler mehr Mühe geben, die PS3-Leistung in den Spielen besser kompensieren zu können, hätte es demNv40 unglaublich viel Vorteil verschafft.
Nur wären dann die ganzen ATI-User etwas gear***t gewesen.

Gast
2006-05-07, 20:33:45
Gast[/POST]']All-in-Wonder gibt es schon seit Ewigkeiten glaub bei der r200 gab es die ersten Modelle.Wenn ich mich recht erinnere, gab es die AiW-Karten schon zu einer Zeit, in der ATI noch überhaupt keine 3D-Chips im Programm hatte. So zu Rage Pro Zeiten oder sogar noch früher. Vielleicht hießen sie damals noch nicht AiW, aber ATI-Karten mit AiW-Ausstattung gibt es schon ewig.

Gast
2006-05-07, 20:38:27
Gast[/POST]']Gute Frage! Die All-in-Wonder Serie ist durch AVIVO noch interessanter geworden.
Leider gibt es zurzeit keine wirklich guten All-in-Wonder Grakas, ansonsten hat ich schon längst eine in meinem Barebone reingebaut.
All-in-Wonder gibt es schon seit Ewigkeiten glaub bei der r200 gab es die ersten Modelle.
Prestige ist es auf jeden Fall, aber normallerweiße bedeutet das, das sich die Prestigemodelle auf die ganze Produktserie auswirkt, was aber bei der All-in-Wonder-Serie nicht wirklich geschah, da nicht alle Modelle einen integrierten Tv-Tuner hatten.
Schließlich, kann man sagen, das fast jede Tvkarte bessere Videos aufnehmen konnte.

Sli war ja seit dem NV-40 mit nahezu jeder Pcie-Graka möglich, also hinkt der Vergleich etwas.

...



Die ersten All in Wonder Modelle gabs schon zu RAGE Chipzeiten, und zeichnten sich damals wie heute sehr wohl durch gute Qualität aus.

Klar die massiven Treiberprobleme bei Spielen gingen damals auch net an den AiW vorbei, aber was TV Funktionen betraff waren die Karten sehr wohl in der Lage es mit TV-Karten aufzunehmen. Das mit dem TV-Tuner betraf meines Wissens nur die "abgespeckten" Varianten.

Sli ist auch bedeutend jünger, das muss man auch sagen.
Aber PureVideo kam vor ATI´s Avivo und ist trotzdem noch extrem weit zurück. Bzw. Wenn ich Video´s bearbeiten will, investiere ich nicht 300 € in eine Grafikkarte und zahl nochmal 20 - 30 € extra für die Software, welche auch noch auf ein Format beschränkt ist.

Und eine X1800 AIW und X1900 AIW stehen gar nicht so schlecht da :)

Klar sie haben höhere Verlustleistung als meine alte 9800 Hercules AIW Version, aber Sie bieten für mich persönlich den besten Kompromis den mir Nvidia immer noch verwehrt.

Gast
2006-05-07, 20:58:48
Coda[/POST]']Den Zynismus kannst du dir sparen. Viele Infos gibts z.B. in der DirectX-Dokumentation die jedem zugänglich ist.

Danke für den Tipp

StefanV
2006-05-07, 22:49:24
Gast[/POST]']Wenn ich mich recht erinnere, gab es die AiW-Karten schon zu einer Zeit, in der ATI noch überhaupt keine 3D-Chips im Programm hatte. So zu Rage Pro Zeiten oder sogar noch früher. Vielleicht hießen sie damals noch nicht AiW, aber ATI-Karten mit AiW-Ausstattung gibt es schon ewig.
Richtig, wobei es sogar noch vor der Rage Pro AIWs gab, wenn mich nicht alles täuscht!

AlfredENeumann
2006-05-07, 22:55:07
StefanV[/POST]']Richtig, wobei es sogar noch vor der Rage Pro AIWs gab, wenn mich nicht alles täuscht!

Yup. Die ersten hatten damals noch den ganz alten Rage-Chip

deekey777
2006-05-07, 23:11:53
StefanV[/POST]']Richtig, wobei es sogar noch vor der Rage Pro AIWs gab, wenn mich nicht alles täuscht!

Genau da bin ich mir nicht sicher, es gab vorher die VGA Wonder.

http://www.driverheaven.net/articles/oldestaticard/

StefanV
2006-05-07, 23:40:43
deekey777[/POST]']Genau da bin ich mir nicht sicher, es gab vorher die VGA Wonder.

http://www.driverheaven.net/articles/oldestaticard/
VGA Wonder war anscheinend 'ne 'normale' GraKa.

AIWs gabs AFAIK ab dem Rage, welchen genau -> keine Ahnung, meine aber das es der IIC war, ev. auch der 3D...

deekey777
2006-05-09, 15:58:27
Die Shader-Diskussion hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=295719

Razor
2006-05-09, 19:39:55
Raff[/POST]']Das konnten sie ja schon immer gut – im Gegensatz zum aktuellen Erzfeind ... Nein, das war ganz sicher keine Anspielung auf vergangene Tage. ;)
Jup... ob ich das allerdings 'gut' finden soll?

Jetzt nicht falsch verstehen... ATI "lügt" genauso viel, wie nVidia oder andere IHV's (wie auch ALLE anderen werbenden Unternehmen!)...
...nur beherrscht dies nVidia in Perfektion - was ich nicht gutheißen kann.

Razor

Razor
2006-05-09, 19:49:33
@Thread

Geht es hier eigentlich immer noch um das Fehlen von von benutzern zugeänglichen Profilen bei den ATI-Treibern?
Irgendwie driften solche Diskussion immer wieder auf das uralte Thema "ATI vs. nVidia" (oder umgekehrt ;-).

Razor

Gast
2006-05-12, 01:17:38
@offtopic:
Für manche in diesem Thread arbeiten die Leute bei NV wie im Happy-Bunny-Land und fangen an zu weinen und sich gegenseitig zu umarmen wenn sie ein neues Produkt einführen (z.B.: SLI)!
Sie machen das nur aus lauter Freude und Kapitalismus und Marktwirtschaft ist ihnen einfach fremd!
Also wenn das nicht Schwarz-Weiss-Denken is..., is eigentlich sehr schade, gerade in diesem Forum!
Ich finds schade das manche NV in dem Thread auf ein Emotionales-Podest stellen!

Ich hab von beiden Herstellern Graka's, mich stört bei jedem der beiden etwas anderes, aber es is gut das es beide gibt ==> Preiskampf ==> gut für Konsument!

Schade das es 3Dfx nicht mehr gibt, die Jungs hatten was auf dem Kasten (von Strategischen Fehlentscheidungen abgesehen) und 3 konkurrenzfähige Anbieter sind besser als 2!

Is zwar alles OT aber das musste ich los werden!

Die gelbe Eule
2006-05-12, 01:26:18
Ontopic kann man immer nur sagen, das ATi verkündete, niemals Profile brauchen zu müssen. Out of the box multi GPU using. Alles bisher Wunschdenken ...

Fetza
2006-05-12, 01:45:15
Gast[/POST]']@offtopic:
Für manche in diesem Thread arbeiten die Leute bei NV wie im Happy-Bunny-Land und fangen an zu weinen und sich gegenseitig zu umarmen wenn sie ein neues Produkt einführen (z.B.: SLI)!
Sie machen das nur aus lauter Freude und Kapitalismus und Marktwirtschaft ist ihnen einfach fremd!
Also wenn das nicht Schwarz-Weiss-Denken is..., is eigentlich sehr schade, gerade in diesem Forum!
Ich finds schade das manche NV in dem Thread auf ein Emotionales-Podest stellen!

Ich hab von beiden Herstellern Graka's, mich stört bei jedem der beiden etwas anderes, aber es is gut das es beide gibt ==> Preiskampf ==> gut für Konsument!

Schade das es 3Dfx nicht mehr gibt, die Jungs hatten was auf dem Kasten (von Strategischen Fehlentscheidungen abgesehen) und 3 konkurrenzfähige Anbieter sind besser als 2!

Is zwar alles OT aber das musste ich los werden!

Full Ack! - wobei ich teilweise davon ausgehe, das es nicht einfach "schwarz-weiss" denken ist, sondern einfache lobby arbeit......

greetz

Fetza

Gast
2006-05-12, 08:40:24
Die gelbe Eule[/POST]']Ontopic kann man immer nur sagen, das ATi verkündete, niemals Profile brauchen zu müssen. Out of the box multi GPU using.
Genau das ist das Problem. Hätten sie auf den ersten Teil dieser Aussage verzichtet und nicht abgestritten, dass sie auch Profile benötigen, wäre alles in Butter. Noch besser wäre es natürlich, wenn die Anwender nicht immer auf einen passenden Catalyst warten müssten, sondern selbst ihr Glück versuchen dürften, indem sie selbst Profile mit verschiedenen Rendermodi anlegen.

Der zweite Teil stimmt ja insoweit, dass Crossfire immer aktiv ist. Du hast, wenn Profile vorhanden sind, Leistungssteigerungen; du hast in den meisten Spielen Super-AA und du hast, wenn' Scheiße läuft, FPS-Verluste als Beweis, dass Crossfire aktiv ist.

Gast
2006-05-13, 15:50:54
Gast[/POST]']
Es gibt keine vernünftigen Linuxtreiber von ATI, genausowenig wie Treiber für Stereo-Brillen. Vernünftige AGP-Karten gibt es nicht von ATI und bei Crossfire? Wenn ein Spiel nicht wichtig genug ist (d.h. oft gebencht wird), gibt es einfach kein Crossfire-Profil. So gibt es nur Profile für die prestigeträchtigen Benchmarkspiele. Will man irgendwas abseits des Mainstream spielen, gibts kein Profil. Dazu kommt, dass die Profilerstellung nicht möglich ist, sondern man sich mit exe-Renaming rumschlagen muss.

Ne ATI, so gewinnen sie mich nicht als Kunden, auch wenn eine x1900xtx sehr reizvoll ist. Sie hätten es mit Crossfire lieber ganz sein lassen sollen bis sie was vernünftiges auf die Beine gestellt haben.

Was bei ATI nicht anders ist. Auch hier ist per Default "AI-Standard" aktiviert und somit die Filter-Betrügereien. Wenigstens kann man diese Cheats bei NV abschalten, ohne gleich die Bugfixes und Gameprofile zu verlieren.

Dass Ati keine Stereo Treiber für 3D-Brillen haben ist für mich ein guter Grund, dass meine nächste Grafikkarte ein G80 ist und nicht von Ati kommt. Des Bild sieht nämlich viel besser aus, wenn ich mit 3D-Brille zocke als ohne.
Braucht natürlich aber auch nen guten Röhrenbildschirm, sonst flimmert das Bild zu sehr bei zu wenig Hz.

Zauberer
2007-08-11, 00:45:42
Logisch alles Lüge was ATI erzählt.
Wie war das mit PureVideo?

Wo denn?
Und SLI haben sie auch erfunden?
Multi GPU Lösungen auch?
nVidia sind die besten.
Klasse Marketing geblubber.
Es ist nicht wichtig wer es erfunden hat (nein, 3dfx wars auch nicht) sondern wer es mit Überzeugung auf den MARKT BRINGT.
Also das stimmt nicht! :nono:
SLI (Scan Line Interleave) hat 100%tig 3Dfx erfunden!
Das hat aber nix mit dem heutigen SLI von NVidia und Crossfire von ATi zu tun.

Dann hat ATI, AFR (Alternate Frame Rendering) erfunden, zwar mit den Rage 128 Pro Chips!

Bei Nvidia gibt es SLI (Scalable Link Interface) seit dem Jahr 2004!
Das ist aber kein SLI ala 3Dfx, sondern ist von ATI geklaut, nicht umsonst benutz NVidia den geklauten AFR (Alternate Frame Rendering) Modi.
Warum müssen die keine Lizenzen an ATi zahlen?

Ok, falls Du das weißt, darfst Du nie behaupten 3Dfx hätte SLI nicht erfunden, sondern Du musst schreiben 3dfx hat AFR nicht erfunden!
Oder 3Dfx hat das NVidia SLI (Scalable Link Interface) nicht erfunden, aber zu behaupten 3Dfx hat SLI nicht erfunden, ist schlicht falsch und könnte bei Unwissenden für Verwirrung sorgen. :wink:

mapel110
2007-08-11, 00:54:36
tombman meinte auch nicht SLI konkret, sondern eben allgemein MultiGPU-Rendering. Und das gabs schon vor 3DFX-SLI.

deekey777
2007-08-11, 01:02:58
Also das stimmt nicht! :nono:
SLI (Scan Line Interleave) hat 100%tig 3Dfx erfunden!
Das hat aber nix mit dem heutigen SLI von NVidia und Crossfire von ATi zu tun.

Dann hat ATI, AFR (Alternate Frame Rendering) erfunden, zwar mit den Rage 128 Pro Chips!

Bei Nvidia gibt es SLI (Scalable Link Interface) seit dem Jahr 2004!
Das ist aber kein SLI ala 3Dfx, sondern ist von ATI geklaut, nicht umsonst benutz NVidia den geklauten AFR (Alternate Frame Rendering) Modi.
Warum müssen die keine Lizenzen an ATi zahlen?

Ok, falls Du das weißt, darfst Du nie behaupten 3Dfx hätte SLI nicht erfunden, sondern Du musst schreiben 3dfx hat AFR nicht erfunden!
Oder 3Dfx hat das NVidia SLI (Scalable Link Interface) nicht erfunden, aber zu behaupten 3Dfx hat SLI nicht erfunden, ist schlicht falsch und könnte bei Unwissenden für Verwirrung sorgen. :wink:

Und AFR ist keine Erfindung von ATi.

Zauberer
2007-08-11, 01:03:22
tombman meinte auch nicht SLI konkret, sondern eben allgemein MultiGPU-Rendering. Und das gabs schon vor 3DFX-SLI.
Ja wirklich?
Von welcher Firma?
Multi-CPU-Berechnungen kannte ich schon, aber Multi-GPU-Rendering vor 3Dfx?

Damals wurde doch alles in Software über die CPU berechnet, das wäre schon seltsam wenn es da schon so was gab.
Hast Du da ein paar Patente als Beweis? ;D

Ne im Ernst ich denke er meinte den AFR-Modi, das wäre ja ATi gewesen, können wir Ihn ja Morgen Fragen! ;)

EDIT:
Und AFR ist keine Erfindung von ATi.
Ja, wenn ich so blöd bin, warum schreibt keiner von euch Gurus wer es denn war? ;(

deekey777
2007-08-11, 01:07:07
Ich weiß auch nicht, wer das genau war (wurde auch korrigiert), aber im Profi-Segment wurde AFR noch vor der Rage FuryMaxx eingesetzt.

Zauberer
2007-08-11, 01:11:26
Ich weiß auch nicht, wer das genau war (wurde auch korrigiert), aber im Profi-Segment wurde AFR noch vor der Rage FuryMaxx eingesetzt.
Ok, dann stimmt Wiki halt nicht, Mensch die Artikel waren früher auch mal besser. :(
Entschuldigung wenn ich hier Blödsinn verzapft habe, wenn dem so ist will ich keinen verwirren und meine Postings können gelöscht werden.
Nur zur Info, die Quelle.
Quelle:
http://de.wikipedia.org/wiki/Alternate_Frame_Rendering_%28Technik%29
und
http://de.wikipedia.org/wiki/Alternate_Frame_Rendering_%28Modus%29

Zitat:
"...Alternate Frame Rendering (AFR) ist eine Multi-GPU-Technik von ATI Technologies...Namensgeber für den „Alternate Frame Rendering“-Modus"
und
"...Namensgebend für AFR war die "Alternate Frame Rendering"-Technik von ATI Technologies, die bei der Rage Fury Maxx zum Einsatz kam. ATI war die erste Firma, die diesen Modus anbot und prägte so den Namen..."

Gast
2007-08-11, 04:16:18
Ja und 3dfx hat das bilineare Filtern erfunden (die Voodoo1 war die erste die es konnte) und alle haben es geklaut bei denen...
Und Wikipedia ist keine echte Quelle wenn es um Fakten geht. In der englischen Beschreibung für AFR im Wiki steht kein Wort von ATI oder nV :)
Könnte man als weiter treiben das Fanboy Spielchen, nV hat die GPU "erfunden" und ......


Im Endeffekt steht die Sache mit den Spieleprofilen auch wiedermal für die Firmenpolitik. Während ATI sich da nicht in die Karten schauen lässt und den Kunden eine fertige Lösung bieten will, lässt nVidia eben jedem Freigestellt an den Profilen zu schrauben.
Für Entwickler ist eventuell die nV Lösung besser, manche Kunden sehen hier eher zu ATI da dort sich das "geschlossene" um Profile vieleicht eine Art Garantie für Crossfire sein könnte. Sprich wenn Crossfire funktioniert dann auch maximal so wie ATI sich das vorstellt sonst würde mans nicht freigeben.
Jedem das seine in diesem Fall.

gross2
2007-08-11, 07:41:54
Ja, wenn ich so blöd bin, warum schreibt keiner von euch Gurus wer es denn war? ;(

Obwohl ich offensichtlich nicht gefragt bin, da nun wirklich keiner der Gurus hier, antworte ich trotzdem mal.

Ich weiß auch nicht, wer das genau war (wurde auch korrigiert), aber im Profi-Segment wurde AFR noch vor der Rage FuryMaxx eingesetzt.

Sollte IMHO SGI mit ihrem "Reality Monster" gewesen sein. Handelte sich dabei um "Infinite Reality" Workstations die im "Frame-Sequential-Mode" je ein eigenes Frame berechnen durften...

Gast
2007-08-11, 08:12:15
:cool:

Die haben wenigstens die richtige Einstellung. ATi macht nur was für die Masse. Sobald die Zielgruppe zu klein wird, machen sie es nicht...so lame.

ich brauch s nicht

Gast
2007-08-11, 13:42:01
Dann hat ATI, AFR (Alternate Frame Rendering) erfunden, Oh ja, welch grandiose Leistung der ATI-Ingieneure. Ist ja auch überhaupt nicht trivial Karte1 das erste Bild rendern zu lassen, während die andere Karte das nächste rendert. Darauf wäre auch mein kleiner Sohn gekommen. Abgesehen davon hat ATI AFR vielleicht zum ersten Mal in einem Consumerprodukt eingesetzt, "erfunden" haben sie es aber sicherlich nicht. Im professionellen Bereich wurde das schon lange vorher genutzt.

Coda
2007-08-11, 13:48:49
Dann hat ATI, AFR (Alternate Frame Rendering) erfunden, zwar mit den Rage 128 Pro Chips!
Das gab's mit Sicherheit auch schon früher und außerdem ist das nichts was man großartig "erfinden" müsste.

Bei Nvidia gibt es SLI (Scalable Link Interface) seit dem Jahr 2004!
Das ist aber kein SLI ala 3Dfx, sondern ist von ATI geklaut, nicht umsonst benutz NVidia den geklauten AFR (Alternate Frame Rendering) Modi.
Schwachsinn.

SLI ist weitaus mehr als nur AFR.

Gast
2007-08-11, 15:27:21
Oh ja, welch grandiose Leistung der ATI-Ingieneure. Ist ja auch überhaupt nicht trivial Karte1 das erste Bild rendern zu lassen, während die andere Karte das nächste rendert. Darauf wäre auch mein kleiner Sohn gekommen. Abgesehen davon hat ATI AFR vielleicht zum ersten Mal in einem Consumerprodukt eingesetzt, "erfunden" haben sie es aber sicherlich nicht. Im professionellen Bereich wurde das schon lange vorher genutzt.


Offensichtlich ist es ja wirklich nicht trivial, siehe auch die Probleme die sich mit SLI-AFR derzeit darstellen.

Das kann scheinbar wirklich nicht jeder oder man gibt eine gleichmäßigen zeitlichen Abstand der Frames für 5 % Mehrleistung auf. Nvidia rulez for benchmarking, hehe

Gast
2007-08-11, 15:53:41
Ja und 3dfx hat das bilineare Filtern erfunden (die Voodoo1 war die erste die es konnte) und alle haben es geklaut bei denen...


nö, bilineares filtern gab es schon lange, 3dfx waren vielleicht die ersten die es in hardware gegossen haben (wobei ich mir auch da nicht so sicher bin).

Undertaker
2007-08-11, 16:14:07
Sollte sich Quad-SLI durchsetzen, dann kommen schwere Zeiten auf 90% der Spieler zu. Schon jetzt ist es irgendwie "in", High-End-Grafikkarten (Single-Karte) vorauszusetzen, wenn es halbwegs flüssig laufen soll


war das früher wirklich anders? nö :)

Gast
2007-08-11, 16:59:23
Früher kam noch die dickste CPU hinzu, was aber heute nicht mehr ganz so wichtig ist. Von der Übertaktbarkeit der C2D mal abgesehen, haben ja viele keine 3GHz+ und Quadcore CPUs. Viele sind 2Ghz Kisten die sich halt gut trimmen lassen ^^

Außerdem sagt ja niemand das man in 1600*1200 Spielen muss, 1024*768 geht ja nach wie vor, aber wer will das schon?