PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATi (AMD/ATi) auf den Spuren von 3DFx?


The Jackal
2007-03-04, 14:24:50
Immer wieder Verspätungen. Nicht eingehaltene Versprächungen. Extremer Stromverbrauch.

ATi übernahme durch AMD. Übernahmegerüchte von AMD durch andere Firmen.

Das hatten wir doch schon mal.

Ich gebe AMD/ATi noch maximal 6 Wochen chansen mit der R600 und maximal 4 Monate um mit dem K8L zu punkten, ansonsten ist der Zug abgefahren.

Wenn die R600 in 6 Wochen nicht auf dem Markt ist, hat NV gewonnen. Das gleiche gilt in diesem Fall auch für den K8L nach 4 Monaten. Dann ist Intel auf und davon.

Worst case scenario=> In 8 Monaten gibt es AMD/ATi nicht mehr. :eek:

Kinman
2007-03-04, 14:28:04
Wie lang hat nV trotz R300 ausgehalten?
Wieviel Lowcost ATis nVs werden verkauft?
Wieviel verdient AMD im Serverbereich?

Wenn K8L sowie R600 floppt, dann wird es eventuell etwas eng, aber sicher nicht gleich das aus (siehe Rage Fury MAXX)

mfg Kinman

Black-Scorpion
2007-03-04, 14:30:56
Was hatten wir schon mal?
Das ATI absolut nicht mit den selbstverschuldeten Fehlern von 3dfx zu vergleichen ist?
Solche Vergleiche und Horrorgeschichten sin Quatsch und sonst nichts.

Gmax
2007-03-04, 14:32:35
Wird sich zeigen. Wenn nV diesen Herbst schon ihre Nextgen zeigt, wird ATI dann auch was in Petto haben?
Das würde heißen, ATI müßte schon 6 Monate nach Einführung des R600 den R700 fertig haben und auch liefern können.
Wird ein spannender Herbst :smile:

superdash
2007-03-04, 14:34:00
Worst case scenario=> In 8 Monaten gibt es AMD/ATi nicht mehr. :eek:

Na - Nicht gleich schwarz malen. AMD ging es früher schon wesentlich schlechter. Sie haben sich mitlerweile gut im Markt positioniert und können jetzt auch gute Bundles für OEMs anbieten, was wesentlich wichtiger ist als der Retail Markt. An Intel hat man gesehen, dass ein unterlegenes Produkt nichts heißt (ich meine den p4, welcher langsamer war als der a64). Trotzdem fuhr Intel Gewinne ein, da der OEM Markt einfach sehr rentabel und nicht sonderlich anspruchsvoll ist.

Also abwarten und Tee trinken. So eine Fusion hat natürlich auch Auswirkungen auf laufende Prozesse und kann schon dafür sorgen, dass sich etwas verschiebt. Deshalb ist die Firma nicht dem Untergang geweiht.

Der Vergleich mit 3dfx passt außerdem auch nicht wirklich. AMD hat ein viel breiteres Produktportfolio und stirbt daher nicht an einem einzelnen Produkt. Der R600 kommt schon und wird vielleicht nicht der burner - aber das ist gar nicht so wichtig. Auch wenn der K8L für Mainstream erst Anfang 2008 kommt ist das noch kein Weltuntergang für AMD solange sie den k8 weiter günstig halten und trotzdem noch 0 auf 0 rauskommen.

gruß

p.s. Mit dem a643800EE hat AMD z.B. ein noch konkurenzloses Produkt im Desktop Markt. Der Prozessor ist extrem sparsam und das ist für viele wichtiger als ein paar Prozent mehr Rechenleistung die man für office&co eh nicht braucht.

Byteschlumpf
2007-03-04, 14:37:21
Durch die Übernahme von ATi durch AMD wurde IMO der ganze Zeitplan ATis und die Firmenpolitik durcheinandergeworfen, was das seltsame Verhalten angeht, wohl alle neuen Grafikkarten zusammen auf den Markt bringen zu wollen, was totaler Blödsinn ist und sich gegen den Markt richtet, da nVidia mit dem G80 im HighEnd-Segment schon lange gut unterwegs ist und die Mainstream- und LowEnd-Modelle erst einige Zeit später folgen werden - ohne dass nVidia dadurch irgendwelche Nachteile haben wird.

Offtopic:
Ach ja, der Lüfter der X1800/X1900/X1950XT ist IMHO nicht weniger laut, wie der, der seinerzeit auf der GF 5800FX verbaut worden ist! Ich habe alte Sound- und Videofiles von dieser Karte gefunden! :D

Inzwischen sind die nVidia G80-Lüfter deutlich leiser, als die von ATi und der Stromverbrauch der Karten unter 3D deutlich geringer. :)
So kann sich das Ändern. :D

Mr. Lolman
2007-03-04, 14:41:06
Offtopic:
Ach ja, der Lüfter der X1800/X1900/X1950XT ist IMHO nicht weniger laut, wie der, der seinerzeit auf der GF 5800FX verbaut worden ist! Ich habe alte Sound- und Videofiles von dieser Karte gefunden! :D


LOL. Ja natrülich: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3944707#post3944707

Byteschlumpf
2007-03-04, 15:07:43
LOL. Ja natrülich: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3944707#post3944707
Auf 100% geregelt, kommt da so richtig Flughafen-Atmosphäre auf! :D
Den AC X2 habe ich da, aber noch nicht eingebaut, da ich nicht weiß, ob der die Karte im Sommer bei gut 30°C im Zimmer noch ausreichend kühlen kann. *gg*

Alternativ könnte ich auch auf eine 8800GTS 640MB umsteigen, wenn sie wieder gut erhältlich und der Preis weiter gefallen ist.
Eine 320MB-Version für 230€ wäre wohl auch keine schlechte Alternative, oder?

Gast
2007-03-04, 15:23:57
Auf 100% geregelt, kommt da so richtig Flughafen-Atmosphäre auf! :D
Den AC X2 habe ich da, aber noch nicht eingebaut, da ich nicht weiß, ob der die Karte im Sommer bei gut 30°C im Zimmer noch ausreichend kühlen kann. *gg*

Alternativ könnte ich auch auf eine 8800GTS 640MB umsteigen, wenn sie wieder gut erhältlich und der Preis weiter gefallen ist.
Eine 320MB-Version für 230€ wäre wohl auch keine schlechte Alternative, oder?
Ist ja auch kein Wunder. Der Lüfter der X1800/X1900 hat etwas über 5 W. Der der FX nur 2,8 W. Vom Schalldruck betrachtet ist die x1800 lauter, definitiv. Allerdings ist die Frequenz viel angenehmer als bei der FX. Auch läuft der Lüfter der X1800/X1900 Reihe unter Last selten mehr als mit 3 W. Trotzdem ist der Lüfter noch störend. Besser ist der Kühler der X1950XTX.

deekey777
2007-03-04, 15:24:45
Und jetzt bitte zurück zum Thema. :)

malle
2007-03-04, 16:05:22
Hat AMD nicht gerade im Chipsatzmarkt deutlich zugelegt?
Hat AMD nicht vor kurzem einen Konkurenzlosen Chipsatz auf den Markt geworfen dazu?
Hat sich die AM2 Plattform nicht vollständig im Markt durchgesetzt?

Als wenn AMD schlechte Karten hat...

Gast
2007-03-04, 16:10:00
Für ATi/AMD dürfte die Situation weniger schlimm sein, eher für die Leute, die sich aus irgendwelchen Gründen nur Ati Karten zulegen wollen oder Leute die darauf hofften, dass R600 die eierlegende Wollmilchsau wäre. Als kein Grund zur Panik.

Gast
2007-03-04, 16:21:55
Hat AMD nicht vor kurzem einen Konkurenzlosen Chipsatz auf den Markt geworfen dazu? Welchen Chipsatz meinst du denn?

Aber ansonsten hast du natürlich Recht. AMD geht es eigentlich so gut wie noch nie. Sie haben durch den K8 verdammt viele Marktanteile gewonnen und auch bei vielen OEMs ein Bein in der Tür. Wenn man das mit der Situation vor einigen Jahren vergleicht, geht es AMD eigentlich verdammt gut. Der R600 ist wohl nicht so der Bringer, wenn man die enorme Verspätung miteinbezieht, aber davon wird sich ATI schon wieder erholen. Der ATI-Deal könnte für AMD durchaus einige Vorteile in der Zukunft bedeuten.

The Jackal
2007-03-04, 17:55:49
Es geht mir momentan um den Hype. Nicht zuletzt hat das ja 3DFx den Kopf gekostet.

Man denke noch an die Zeit VooDoo 3 gegen Nvidia. Nvidia kann 32Bit zwar grotten langsam und nicht verwendbar, aber sie kann es und die VooDoo nicht.

VooDoo 6 Externes Netzteil!?!?!

Voodoo nicht verfügbar, nur Bilder aber keine Kauffertige Hardware.

Das ist momentan genau das gleiche. Ich bin ein ATi FanBoy. Doch langsam geht mir der Papiertieger richig auf die Eier. Schuldigung die Ausdrücksweise.

Black-Scorpion
2007-03-04, 18:01:45
3dfx hat die eigene Arroganz alles allein machen zu wollen den Kopf gekostet.

Gast
2007-03-04, 19:21:48
Ja, die wollten ein Monopol mit Glide errichten und kaum war DirectX zu gebrauchen und der erste Mitbewerber da (nv), da waren sie ruck zuck platt.

SeaEagle
2007-03-04, 19:28:36
Wird sich zeigen. Wenn nV diesen Herbst schon ihre Nextgen zeigt, wird ATI dann auch was in Petto haben?
Das würde heißen, ATI müßte schon 6 Monate nach Einführung des R600 den R700 fertig haben und auch liefern können.
Wird ein spannender Herbst :smile:

das hieße ja, dass nV auch eine richtige neuentwicklung hätte. ich denke eher, dass es ein aufguss der alten architekture sein wird, und ob das ati nicht auch schafft...

Gast
2007-03-04, 19:47:21
das hieße ja, dass nV auch eine richtige neuentwicklung hätte. ich denke eher, dass es ein aufguss der alten architekture sein wird, und ob das ati nicht auch schafft...
Nur das Fundament vom G80 ist wohl besser. Allerdings nur Bauchgefühl, bitte nicht ernst nehmen. :D

viking
2007-03-04, 20:01:56
Meine Meinung ist auch, dass AMD wohl nicht so schnell Konkurs anmelden wird.
Die Ati x19xx Karten werde immer noch gut gekauft.
Die x2 Prozessoren werden immer günstiger und interessanter für den Office Gebrauch.
AM2 kann ja vielleicht mit den neuen K8 Prozessoren trumpfen.

Oder was meint ihr?

Byteschlumpf
2007-03-04, 22:07:11
Hier nochmal der "AMD-Weg" für neue Grafikkartengenerationen:
http://www.pcgameshardware.de/?article_id=565543

Auszug:
"Laut Digitimes hätten die Partner von AMD/Ati aber noch nicht alle Hoffnung aufgegeben, obwohl sie befürchten, dass einige Radeon-Fans nicht mehr länger warten wollen und sich ein Nvidia-Produkt kaufen. Immerhin sei es ein Vorteil, wenn AMD/Ati auf einen Schlag ein komplettes Line-up von Einsteiger bis High-End präsentieren, anstatt nur - wie gewohnt - das High-End-Produkt auf den Markt bringen würde."

Tigershark
2007-03-04, 23:40:58
Ja, natürlich ist dieses "Wir wollen allen Anwendern gleichzeitig Produkte anbieten können" eine nette Aussage. Letztendlich kann sie aber auch nicht überdecken, was es eigentlich ist: Eine Marketingausrede für eine Verschiebung nach der Anderen.

Im Übrigen schließe ich mich dem Tenor an - AMD geht es so gut wie selten, da macht auch der R600 nichts dran - genausowenig wie er ihnen einen Riesenschub geben würde, wenn er der Knaller schlechthin wäre (wird er aber sicherlich eher nicht....ich fühle mich stark an FX5800U erinnert....).

Tigerchen
2007-03-05, 15:12:38
Hier nochmal der "AMD-Weg" für neue Grafikkartengenerationen:
http://www.pcgameshardware.de/?article_id=565543

Auszug:
"Laut Digitimes hätten die Partner von AMD/Ati aber noch nicht alle Hoffnung aufgegeben, obwohl sie befürchten, dass einige Radeon-Fans nicht mehr länger warten wollen und sich ein Nvidia-Produkt kaufen. Immerhin sei es ein Vorteil, wenn AMD/Ati auf einen Schlag ein komplettes Line-up von Einsteiger bis High-End präsentieren, anstatt nur - wie gewohnt - das High-End-Produkt auf den Markt bringen würde."

Ist mir egal. Kauf eh keine HighEnd Monster mehr. Mehr als sowas wie die x1950 Pro ist mit mir nicht zu machen.

Moralelastix
2007-03-05, 15:17:40
We Bought It, You Pay For It . . . "
http://www.overclockers.com/tips01115/



Augen zu und durch!:biggrin:

Mr. Lolman
2007-03-05, 15:18:17
3dfx hat die eigene Arroganz alles allein machen zu wollen den Kopf gekostet.

Oder vll. warens doch auch ein bisschen die Aktionäre...

Ja, die wollten ein Monopol mit Glide errichten und kaum war DirectX zu gebrauchen und der erste Mitbewerber da (nv), da waren sie ruck zuck platt.

Stimmt doch garnicht. Es war sogar fraglich, ob der Rampage überhaupt noch Glide nativ unterstützt hätte. Außerdem unterstützten alle 3dfx Karten auch D3D und OpenGL.

Gast
2007-03-05, 20:28:52
Stimmt doch garnicht. Es war sogar fraglich, ob der Rampage überhaupt noch Glide nativ unterstützt hätte. Außerdem unterstützten alle 3dfx Karten auch D3D und OpenGL.

Das war, bevor D3D und OpenGL so erfolgreich wurden, 3dfx konnte nicht verhindern, daß diese APIs von Progarmmierern genutzt wurden.
Die OpenGL Unterstützung von 3dfx Karten ist übrigens sehr bescheiden.

Hakkerstiwwel
2007-03-08, 11:03:08
Oder vll. warens doch auch ein bisschen die Aktionäre...
.
Warum? Weil sie soviel verlorenem "schlechten" Geld nicht noch mehr "gutes" Geld nachschiessen wollten? Wer sind die "schuldigen" Aktionaere, diejenigen die verkauften, oder diejenigen die nicht kauften? Falls 2 bist du selbst mit Schuld da du seinerzeit keine Aktien gekauft hast.....

D4ve
2007-03-08, 11:51:02
Quatsch, AMD/ATi mag momentan im Zeitverzug sein, aber deswegen werden sie wohl kaum demnächst Pleite machen. Langfristig würde mir eher nVidia Sorgen bereiten, da AMD durch die ATi-Aquise komplette CPU/Chipsatz/GPU-Sets an OEMs liefern kann und Intel mit der Ankündigung eigener GPUs jetzt den selben Weg gehen wird bzw. im Onboard-GPU-Bereich schon geht.

Winter[Raven]
2007-03-08, 12:13:44
Quatsch, AMD/ATi mag momentan im Zeitverzug sein, aber deswegen werden sie wohl kaum demnächst Pleite machen. Langfristig würde mir eher nVidia Sorgen bereiten, da AMD durch die ATi-Aquise komplette CPU/Chipsatz/GPU-Sets an OEMs liefern kann und Intel mit der Ankündigung eigener GPUs jetzt den selben Weg gehen wird bzw. im Onboard-GPU-Bereich schon geht.

Zeitverzug Aufgrund welcher Umstände? Richtig, mit K10 hatte man sich übernommen, ein K8L muss her. ATI Übernahme? AMD CEO scheit nicht sehr begeistert zu sein mit dem R600.

Und dann die ganzen Gerüchte um die Übernahme AMD durch Privatleute...

Nvidia wird sich entwickeln, man geht davon aus, dass man CPU entwickeln wird. Meiner Meinung nach befindet sich Nvidia derzeit in einer günstigen Position sich weiter zu Entwickeln.

p.s. vergiss nicht, Nvidia war nicht als only GPU Entwickler gedacht ;)

Colin MacLaren
2007-03-08, 13:26:25
Früher:

AMD hatte die langsameren CPUs, die schlechteren Chipsätze, kaum Relevanz für OEMs und den Serverbereich, die günstigeren Preise.

Heute:

AMD hat die langsameren CPUs, die besseren Chipsätze, Marktanteile im OEM-Bereich, die bessere Serverarchitektur, die günstigeren Preise.

Wo bitte soll es da AMD schlecht gehen?

Ati wird es überleben mal mit einem Grafikchipsatz zu spät zu kommen, zumal im Gegensatz zu 3DFX der Geschäftsbereich deutlich breiter gefächert ist als nur Grafikchips.

haifisch1896
2007-03-08, 16:37:10
Und selbst im Grafikbereich ist es so, dass man ein breites Angebot hat. DFX hatte kein OEM-Geschäft und keine Mainstream- und LowEnd-Produkte in dem eigentlichen Sinn, sondern nur Spieler., die bereit waren, auch mal ein paar Mark locker zu machen.
Von der floppenden Banshee einmal abgesehen.

Mr. Lolman
2007-03-08, 19:09:14
Warum? Weil sie soviel verlorenem "schlechten" Geld nicht noch mehr "gutes" Geld nachschiessen wollten? Wer sind die "schuldigen" Aktionaere, diejenigen die verkauften, oder diejenigen die nicht kauften? Falls 2 bist du selbst mit Schuld da du seinerzeit keine Aktien gekauft hast.....

Die jenigen die verkauften. Imo ist der Aktienmarkt zu einem enormen Teil schuld an Einsparungen, Entlassungen und Umstrukturierungen. Klar, die Aktionäre machten nur das was ihnen die Analysten geraten haben. Und die Analysten haben ihr Wissen aus Pressemeldungen.

Also ist eigentlich nicht der einzelne Aktionär dran der Hauptschuldige sondern im ehesten Sinne noch die Presse. Denn auch wenn die Voodoo5 verspätet kam, so kam sie schon ~1 Monat nach der GF2 GTS, war günstiger als diese und leistungsmässig (in fordernden Settings) gleichauf.

Aber eigentlich hat 3dfx' Untergang schon mit der Banshee begonnen. Es mochte halt niemand ein günstiges Mainstreamprodukt (außer mir). Ich hab mir die am ersten Tag um <130€ im Saturn gekauft und fortan Unreal in 1024x768 gezockt.

Zu Voodoo3 Zeiten war 32bit und hochauflösende Texturen absolut sinnfrei (zweiteres wurde ohnehin per Treiber nachgereicht) und die 16bit Grafik war auf 3dfx Karten weitaus besser als auf der Konkurrenz. Nur weil NVs Chips technisch weiter waren - wovon der Kunde kaum was hatte, außer schöne Techdemos und dem Gefühl dass große Teile des Chips im Spielalltag brachliegen - wurden sie gehyped. Der 3dmark hypte weiter, Max Payne 1 auch. (kuckt mal ins Voodoo5 6000 Review wie viel besser Max Payne 2 vgl zu MP1 auf Voodoos performed).

Aber klar. Schuld war 3dfx selbst, weil sie so blöd waren Karten für den Spieler zu produzieren (ich hab schon anno 2000 mit nem 4x4EER aufs gesamte Bild gespielt. NV User erst 4 Jahre später mit nem NV40), anstatt für die Presse.

Von der floppenden Banshee einmal abgesehen.

Siehst und das ist es. Die floppende Banshee. Mit welcher anderen <130€-GraKa konnte man damals nochmal Unreal in 1024x768 spielen?

Gast
2007-03-08, 20:01:59
Siehst und das ist es. Die floppende Banshee. Mit welcher anderen <130€-GraKa konnte man damals nochmal Unreal in 1024x768 spielen?
Die Banshee kam afaik erst im Jahr 99. Die TNT gab es schon Ende 1998 für ~299 DM und viele meiner Bekannten haben damit ihren Rechner zu Weihnachten aufgerüstet. Hatte zwar kein Glide, das meiste ließ sich aber trotzdem recht gut mit ihr spielen. Es bestand damit kein Grund im neuen Jahr wieder umzurüsten. Das Business ist da knallhart: Wer zuerst kommt mahlt zuerst. Beim R600 sehe das allerdings nicht als Beinbruch. Der High End Bereich hat eh nur noch ein winzig kleines Klientel, kein Wunder in dem Preisbereich. Wichtig ist, dass die Mainstreamkarten kommen und recht erfolgreich werden und ich denke, dass ATi da die meisten Ressourcen einsetzt, um das auch zu erreichen.

mapel110
2007-03-08, 20:11:25
Naja, 400.000 verkaufte G80 und dann sind im High End die Margen auch etwas größer als im low oder mid range Bereich. Also so wenig wird da auch nicht verdient.

Mr. Lolman
2007-03-08, 20:26:14
Di Die TNT gab es schon Ende 1998 für ~299 DM und viele meiner Bekannten haben damit ihren Rechner zu Weihnachten aufgerüstet. Hatte zwar kein Glide, das meiste ließ sich aber trotzdem recht gut mit ihr spielen. Es bestand damit kein Grund im neuen Jahr wieder umzurüsten. Das Business ist da knallhart: Wer zuerst kommt mahlt zuerst.

Jaja, die TNT wurde schon 1 halbes Jahr vor Release als Voodoo2 SLI Killer gehyped. Letztenendes war das Ding langsamer als ne einzelne, schon lang verfügbare 8MB Voodoo2.

desert
2007-03-08, 21:01:04
ich hatte auch eine wunderschöne banshee, wenn ich mich daran erinner. Super karte. Hab sie erst gegen eine v3 ausgetauscht. Ich erinner mich noch an eine lan, muss wohl so das jahr 2000 oder 2001 gewesen sein. Kam einer vorbei und fragte was ich den für eine supergrafikkarte hätte. So schöne farben und schärfe kriegt er bei seiner geforce nicht hin;) Hab sie übrigens immer noch. Ab und zu ein bischen wingcommander 5 und ich weiss was qualität bedeutet;)

Coda
2007-03-08, 21:03:12
So schöne farben und schärfe kriegt er bei seiner geforce nicht hin;)
War wahrscheinlich Unreal Tournament dann oder?

Ansonsten ist das nämlich Käse...

desert
2007-03-08, 21:06:58
unreal tournament, cs damals und halt wing commander mit glide. directd3 wirkte dagegen etwas farbarm

deekey777
2007-03-09, 13:06:57
;5309538']Zeitverzug Aufgrund welcher Umstände? Richtig, mit K10 hatte man sich übernommen, ein K8L muss her. ATI Übernahme? AMD CEO scheint nicht sehr begeistert zu sein mit dem R600.


Aha...

http://www.fudzilla.com/index.php?option=com_content&task=view&id=72&Itemid=34
The big boss confirmed that it is bad as the R600 is being late but he also said that it is such an outstanding product that people will understand the potentials of such a product
Wovon ist er nicht begeistert?

Tigerchen
2007-03-09, 15:07:37
Naja, 400.000 verkaufte G80 und dann sind im High End die Margen auch etwas größer als im low oder mid range Bereich. Also so wenig wird da auch nicht verdient.

Na ja. 0,83% bei den Steam-Gamern. Ich hab schon den Eindruck daß die Gemeinde die mehr als 400,-€ für eine GraKa ausgibt ständig kleiner wird.


http://www.steampowered.com/status/survey.html

Gast
2007-03-09, 17:08:51
Na ja. 0,83% bei den Steam-Gamern. Ich hab schon den Eindruck daß die Gemeinde die mehr als 400,-€ für eine GraKa ausgibt ständig kleiner wird.


http://www.steampowered.com/status/survey.html
Die Gemeinde wird zwar kleiner, das gleichen aber zum Teil die SLI-"Verrückten" wieder aus, die gleich 2x Grakas in den Warenkorb legen.

Leonidas
2007-03-09, 17:44:41
GF 5800FX verbaut worden ist! Ich habe alte Sound- und Videofiles von dieser Karte gefunden! :D

www.3dcenter.org/downloads/files/geforcefx_audio+video.zip




"Laut Digitimes hätten die Partner von AMD/Ati aber noch nicht alle Hoffnung aufgegeben, obwohl sie befürchten, dass einige Radeon-Fans nicht mehr länger warten wollen und sich ein Nvidia-Produkt kaufen. Immerhin sei es ein Vorteil, wenn AMD/Ati auf einen Schlag ein komplettes Line-up von Einsteiger bis High-End präsentieren, anstatt nur - wie gewohnt - das High-End-Produkt auf den Markt bringen würde."

Das ist ein erheblicher Nachteil, weil 6-7 Grafikkarten auf einmal unglaublich ressourcenaufwendig bei ATI und bei den Grafikkarten-Herstellern sind. Außerdem erzeugen zwei große (HighEnd + Mainstream und ein mittlerer (LowCost) Launch mehr PR-Wirbel als ein supergroßer Launch (alle drei zusammen).

haifisch1896
2007-03-09, 20:18:18
ich hatte auch eine wunderschöne banshee, wenn ich mich daran erinner. Super karte. Hab sie erst gegen eine v3 ausgetauscht. Ich erinner mich noch an eine lan, muss wohl so das jahr 2000 oder 2001 gewesen sein. Kam einer vorbei und fragte was ich den für eine supergrafikkarte hätte. So schöne farben und schärfe kriegt er bei seiner geforce nicht hin;) Hab sie übrigens immer noch. Ab und zu ein bischen wingcommander 5 und ich weiss was qualität bedeutet;)

Meine Banshee hatte ein furchtbares Bild. Deswegen war es meiner Meinung nach ein Flop, auch wenn großteils genug Leistung zur Verfügung stand.


Außerdem erzeugen zwei große (HighEnd + Mainstream und ein mittlerer (LowCost) Launch mehr PR-Wirbel als ein supergroßer Launch (alle drei zusammen).

Aber nur, sofern die LowEnd-Karten nicht wieder in der Luft zerrissen werden würden, so wie fast immer.

Malabolge
2007-03-09, 21:35:53
Seien wir doch mal ehrlich ATI hat doch jetzt schon den Schwarzen Peter.
Die Journalie wirds treiben wie bei 3Dfx.

Selbst wenn sie ne Karte rausbringen mit 50% Plus leistung zu einer 8800 GTX wirds nicht genug sein
Schon jetzt meinen ja scon einige 20% Plus wären nicht genug !
Ein,Zwei mehr oder weniger (im Moment) nutzlose Gimmicks (die in noch keiner Software benutzt werden)
in der nächsten NVIDIA-Karte und die Pressereviews
werden sich dazu überschlagen.Denn eins kann man NVIDIA nicht vorwerfen :
Eine schlechte Marketingabteilung !


Different Times - Same Shit Twice

Je mehr Marktanteil auf einen grossen Kartenhersteller umso mehr werden wir dafür "bezahlen"

viking
2007-03-09, 22:41:56
Nvidia hat halt alles richtig gemacht mit der 8800er Reihe.
Ati wird wohl einen richtigen "Brüller" raus bringen müssen!
Falls der für das 2. Quartal geplante Nvidia-Chip wirklich seinen Release starten sollte wünsche ich Ati viel Glück.

Grüssle

Raff
2007-03-09, 23:07:06
Es ist nicht alles richtig (Stromverbrauch, gerade im 2D, kleinere Treiberprobleme), aber das Wichtigste schon. Die 8800 GTX ist aber in der Tat ein mächtiges Teil, gerade wenn man sie mit ihrem direkten Vorgänger vergleicht. Es ist schon denkbar, dass die Roten da etwas überrascht waren ...

Dennoch: Ati wird sicher nicht gleich untergehen. Man muss sich nur mal die FX-Serie Nvidias ansehen. Marketing rockt. So wurde auch schon 3dfx fertig gemacht.

Aber klar. Schuld war 3dfx selbst, weil sie so blöd waren Karten für den Spieler zu produzieren (ich hab schon anno 2000 mit nem 4x4EER aufs gesamte Bild gespielt. NV User erst 4 Jahre später mit nem NV40), anstatt für die Presse.

Full Ack. Sehr schön ausgedrückt.

MfG
Raff

Winter[Raven]
2007-03-09, 23:10:17
@ Raff

Nvidia lernte aus dem FX-Desaster ... ATI scheint aus dem R480 und R520 nicht wirklich was gelernt zu haben....

Aber wie sagt man so schön, man lernt nicht nur aus eigenen Fehlern sondern auch aus den des Konkurrenten...

Gast
2007-03-09, 23:20:14
R4x0 und R5x0 waren nicht schlecht, bei weitem kein so ein Desaster wie NV3x. Nur ist nvideas Marketin halt viel "besser".

viking
2007-03-09, 23:27:50
Hmm, ich frage mich, warum man keine richtige Werbung von Nvidia/Ati im Free-TV findet!?

Wenn es Werbung über Damenbinden gibt, warum nicht auch von zwei Hardwareriesen? ;)

Byteschlumpf
2007-03-09, 23:31:40
Hmm, ich frage mich, warum man keine richtige Werbung von Nvidia/Ati im Free-TV findet!?

Wenn es Werbung über Damenbinden gibt, warum nicht auch von zwei Hardwareriesen? ;)
Dafür gibt es doch die Foren, ezines und eshops! ;)
Außerdem ist die Hauptzielgruppe für Grafikkarten eher selten vor dem TV anzutreffen - die Zocken doch alle! :D

viking
2007-03-09, 23:34:17
Joa, dass stimmt wohl, jedoch macht Intel auch Werbung im freien Fernsehen und scheint auch damit seine Kunden gewonnen zu haben (in geringem Maße). :biggrin:

mapel110
2007-03-09, 23:34:34
achherrje, 3DFX hat ja gar kein Marketing betrieben. Nein, niemals!
Und eine proprietäre API hatten sie ja auch nicht. Als ob 3DFX nicht zu aller erst unser Bestes wollte (Geld).

btw
irgendwie wurde zu dem Thema eh schon alles gesagt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2590775#post2590775
ab da wirds recht interessant

Raff
2007-03-09, 23:40:29
3dfx war nicht aggressiv genug. Und sie versäumten es, ihre Vorzüge besser zu präsentieren. Aber auch das steht im Voodoo5-6000-Review.

MfG,
Raff

mapel110
2007-03-09, 23:44:26
3dfx war nicht aggressiv genug. Und sie versäumten es, ihre Vorzüge besser zu präsentieren. Aber auch das steht im Voodoo5-6000-Review.

MfG,
Raff
Tatsache ist, dass sie es trotz ihrer eigenen API es nicht geschafft haben. Und das ist schon sehr traurig, vorallem wenn man sich ansieht, wie lange Creative EAX durchboxt oder wie lange Adobe PDF-Monopol hat etc pp
Aber okay, M$ assimiliert alle. Widerstand ist zwecklos. Vielleicht sollte man M$ auch eine Teilschuld geben. :)

Raff
2007-03-09, 23:46:27
Microsoft hat schon viel getan, um Creative ins Grab zu bringen. Den Todesstoß versetzen sie sich aber gerade selbst. Die Treiber sind alles andere als "final", auch wenn das draufstehen mag, zudem sucht man einen ALchemy für Audigy, etc. Die machen IMO nicht mehr lange ... zumindest in Sachen Soundkarten.

MfG,
Raff

Botcruscher
2007-03-10, 00:00:16
Solange es genug Heimmusiker gibt wird auch Creative nicht unter gehen. Spätestens da wird Onbordkrüppelsound wirklich unbrauchbar.

Gast
2007-03-10, 09:37:06
Solange es genug Heimmusiker gibt wird auch Creative nicht unter gehen. Spätestens da wird Onbordkrüppelsound wirklich unbrauchbar.Allerdings gibt es für Nicht-Spieler massig Alternativen zu den Creative-Karten.
R4x0 und R5x0 waren nicht schlecht, bei weitem kein so ein Desaster wie NV3x.Ja, die R5x0-Karten waren wirklich alles andere als schlecht, wenn man mal von Crossfire absieht. Allerdings kam R520 viel zu spät, was ATI wohl richtig viel Geld gekostet haben dürfte. Das wiederholt sich jetzt schon wieder mit R600.

viking
2007-03-10, 11:14:47
Heißt das jetzt, dass es keine Creative Karten, bzw. Creative mehr geben wird??
Hab ich was verpasst?

:o

StefanV
2007-03-10, 11:31:20
Microsoft hat schon viel getan, um Creative ins Grab zu bringen. Den Todesstoß versetzen sie sich aber gerade selbst. Die Treiber sind alles andere als "final", auch wenn das draufstehen mag, zudem sucht man einen ALchemy für Audigy, etc. Die machen IMO nicht mehr lange ... zumindest in Sachen Soundkarten.

MfG,
Raff
Creative hat schon lange Zeit selbst an ihrem eigenen Untergang gearbeitet.
Warum soll man als non Gamer eine Creative Labs Karte kaufen?!
Die Treiber sind schlecht/instabil, die Hardware ist nicht wirklich konkurenzfähig usw...
Dazu kommt das proprietäre EAX, was sie nur bis Version 2 offengelegt haben, ab 3 gibts nur CL Karten die das unterstützen.
Das M$ was gegen CL unternimmt, habens sie sich auch selbst zuzuschreiben, schließlich soll CL ja versucht haben, M$ dran zu hindern, Direct Sound zu verbessern (und möglicherweise besser als EAX zu machen), jetzt zahlen sie halt den Preis dafür...

Kurzum:
Zu schlecht, zu arrogante Produktpolitik...
Da hilfts auch nicht, das CL das älteste noch existierende Unternehmen (neben AMD und Intel) ist...

SavageX
2007-03-10, 11:58:13
3dfx war nicht aggressiv genug. Und sie versäumten es, ihre Vorzüge besser zu präsentieren. Aber auch das steht im Voodoo5-6000-Review.


Na, ich weiß nicht so recht. Bis zu Ende hin hatte 3Dfx AFAIK den Retail-Markt (bunte Boxen) gut im Griff und war dort so weit mir bekannt ist Marktführer. Die Marke zog halt sehr gut.

Insofern finde ich "mangelndes Marketing" als Todesursache nicht wirklich zugkräftig.

Aber leider ist der Retail-Markt geradezu winzig im Vergleich zum OEM Geschäft. Und hier ist 3Dfx zugrunde gegangen. Offensichtlich konnte man den OEMs kein attraktives Angebot machen, und das ist ganz allein 3Dfx zuzurechnen.

Botcruscher
2007-03-10, 12:03:32
Allerdings gibt es für Nicht-Spieler massig Alternativen zu den Creative-Karten.


Die da wären? Und sag jetzt bitte nicht onboard, das ist es weder von der Qualität noch von der Geschwindigkeit.


Die Treiber sind schlecht/instabil, die Hardware ist nicht wirklich konkurenzfähig usw...


Die Treiber laufen, die Hardware ist so ziemlich das beste was man noch bekommen kann und du übertreibst mal wieder.

Was EAX betrift sieht man wie wichtig offene Standards sind.

Raff
2007-03-10, 12:06:50
Kurzum:
Zu schlecht, zu arrogante Produktpolitik...
Da hilfts auch nicht, das CL das älteste noch existierende Unternehmen (neben AMD und Intel) ist...

Ich stimme dir da durchaus zu. Aber: Richtig übel wurde es für Creative erst mit Vista. Und solange die Treiber eher schlecht als recht bleiben (das waren sie schon immer), werden immer mehr Kunden abwandern. Irgendwo schade um die Hardware. Ich "mag" meine potente X-Fi, nicht aber die mistige Software ...

Na, ich weiß nicht so recht. Bis zu Ende hin hatte 3Dfx AFAIK den Retail-Markt (bunte Boxen) gut im Griff und war dort so weit mir bekannt ist Marktführer. Die Marke zog halt sehr gut.

Insofern finde ich "mangelndes Marketing" als Todesursache nicht wirklich zugkräftig.

Aber leider ist der Retail-Markt geradezu winzig im Vergleich zum OEM Geschäft. Und hier ist 3Dfx zugrunde gegangen. Offensichtlich konnte man den OEMs kein attraktives Angebot machen, und das ist ganz allein 3Dfx zuzurechnen.

Wie Lolman schon sagte: Man hat leider für die Spieler und die gegenwärtige Praxis gebaut. 3dfx-Karten holten stets aus dem aktuell Möglichen das Beste raus (gutes 16 Bit, als 99,9% der Spiele 16-bittig waren, superbes AA) anstatt Checklistenfeatures zu integrieren. OEMs wollen aber leider genau die. Dabei hätte man diese "nur" von den existenten und sofort nutzbaren Vorzügen überzeugen müssen ...

MfG,
Raff

SavageX
2007-03-10, 12:12:58
Nun, rein von der technischen Qualtität bei der Wiedergabe (Signal-Rausch-Abstand, Klirrfaktor, Kanaltrennung und natürlich Frequenzwiedergabe - die c't misst die Soundfähigkeiten bei jedem Motherboardtest durch) sind die meisten onboard-Soundlösungen so nah am technisch sinnvollen, dass sich die meisten Einsteckkarten da nicht mehr bedeutend absetzen können. Spricht bei Spielesound also eigentlich nur noch Hardware-EAX etc. für separate Soundlösungen.

Wer einfach nur 44,1 kHz 16bit PCM ausgeben will, dürfte mit heutigen onboard-Lösungen gut fahren.

Atma
2007-03-10, 12:19:48
Ich hoffe ja mal nicht das Creative untergeht denn ich mag meine X-Fi sehr die im Rechner steckt.. ich will nie wieder Onboard dreck ;( ;(

SavageX
2007-03-10, 12:27:38
Wie Lolman schon sagte: Man hat leider für die Spieler und die gegenwärtige Praxis gebaut. 3dfx-Karten holten stets aus dem aktuell Möglichen das Beste raus (gutes 16 Bit, als 99,9% der Spiele 16-bittig waren, superbes AA) anstatt Checklistenfeatures zu integrieren. OEMs wollen aber leider genau die. Dabei hätte man diese "nur" von den existenten und sofort nutzbaren Vorzügen überzeugen müssen ...


Ich rede im Folgenden von der Voodoo 3 - ich denke, da ist das Schiff irgendwo auf Grund gelaufen, so dass selbst die Nachfolger in der Schnelle nichts mehr ausrichten konnten.

Und beim Voodoo 3 ist technisch schon ein ziemlich staubiges Teil:

- Warum ist da immer noch kein vernünftiges AGP-Interface implementiert? (Warum kriegt 3Dfx selbst für die Nachfolger kein Interface hin, welches mit den neu erscheinenden Intel-Chipsätzen zusammenarbeiten kann?)
- Warum ist die maximale Texturgröße immer noch auf 256x256 begrenzt? Schon damals durfte man sich mehr wünschen (Quake 3 bekam einen leckeren Treiberhack spendiert AFAIK).
- Warum ist der "richtige" OpenGL Treiber so hinten dran, wenn es um die Performance geht? Warum muss man für gute Performance über einen Glide-Wrapper (MiniGL, WickedGL) gehen? Für den Spieler ist das eher uninteressant, aber die Konkurrenz hat das nach einigem Hängen und Würgen besser gelöst.
- Über 32bpp wurde ja schon oft diskutiert. Ich bin der Meinung, dass 3Dfx hier ein Gespür hätte haben müssen, wohin die Reise geht. In der ersten Generation vielleicht nicht wirklich nutzbar - aber man muss ja die Entwickler auch irgendwie bei der Stange halten. Hier muss technische Kompetenz bewiesen werden. (Gleiches gilt eine Generation später für T&L)

3Dfx war lange genug im Geschäft, um wissen zu müssen, wie OEMs ticken. Dann hätte man sich halt daran orientieren müssen. Als ehemalige Innovatoren muss denen doch klar gewesen sein, dass man nicht einfach das allererste Produkt im Kern bis zum Fast-Tod mitschleppen kann.

Raff
2007-03-10, 12:36:18
- Warum ist da immer noch kein vernünftiges AGP-Interface implementiert? (Warum kriegt 3Dfx selbst für die Nachfolger kein Interface hin, welches mit den neu erscheinenden Intel-Chipsätzen zusammenarbeiten kann?)

Welche Nachteile hatte denn das "AGP2x" anno 1999? Die V3-Serie wurde zu Lebzeiten nie dadurch ausgebremst. Die Kompatibilität ist bei V4/5-Karten allerdings ärgerlich. Ein Single-VSA-100 (Voodoo4 4500) kann übrigens AGP4x. Das Problem lag AFAIK beim SLI, bzw. der Verbindung.

- Warum ist die maximale Texturgröße immer noch auf 256x256 begrenzt? Schon damals durfte man sich mehr wünschen (Quake 3 bekam einen leckeren Treiberhack spendiert AFAIK).

Wie viele Spiele nutzten zu V3-Lebzeiten 512x512 oder mehr?

- Warum ist der "richtige" OpenGL Treiber so hinten dran, wenn es um die Performance geht? Warum muss man für gute Performance über einen Glide-Wrapper (MiniGL, WickedGL) gehen? Für den Spieler ist das eher uninteressant, aber die Konkurrenz hat das nach einigem Hängen und Würgen besser gelöst.

Da stimme ich zu, der OGL-Part war billig. Aber da der WickedGL das extrem gut gelöst hat ... spielt das eine Rolle für Enthusiasten?

MfG,
Raff

Gast
2007-03-10, 12:47:11
Wie viele Spiele nutzten zu V3-Lebzeiten 512x512 oder mehr?


Das übliche Henne-Ei-Problem. Wobei aber größere Texturen erst mit der Nutzung von Texturkompression wirklich interessant wurden.

SavageX
2007-03-10, 13:05:40
Welche Nachteile hatte denn das "AGP2x" anno 1999? Die V3-Serie wurde zu Lebzeiten nie dadurch ausgebremst. Die Kompatibilität ist bei V4/5-Karten allerdings ärgerlich. Ein Single-VSA-100 (Voodoo4 4500) kann übrigens AGP4x. Das Problem lag AFAIK beim SLI, bzw. der Verbindung.


Da die Voodoo 3 nicht größere Texturen als 256x256 verarbeiten konnte, war der Mangel an AGP-Funktionalität nicht so gravierend. Und warum nicht mehr als 256x256... ja ohne AGP-Texturing und bei der üblichen Speicherausstattung...

HIer beisst sich die Katze selbst in den Schwanz. Innovationsfreudigkeit beweist man anders.

Geschadet hätte eine ordentliche AGP-Unterstützung auf jeden Fall nicht. Und hätte man bei 3Dfx das Thema AGP etwas enthusiastischer aufgegriffen, so wäre einem später die V4/V5 AGP Blamage vielleicht erspart geblieben.



Wie viele Spiele nutzten zu V3-Lebzeiten 512x512 oder mehr?


Quake 3. Und natürlich alles, was so danach kam.

Sogar Half-Life hat irgendwo eine Textur vergraben, die größer war - das aber vermutlich als künstlerische Entgleisung ;)


Da stimme ich zu, der OGL-Part war billig. Aber da der WickedGL das extrem gut gelöst hat ... spielt das eine Rolle für Enthusiasten?


Nö, aber vielleicht für einige OEMs, die mit den Detonatoren der Konkurrenz (ein Treiber, der kocht, wäscht, abspült und den Müll rausbringt) einfach besser klarkamen.

Um es kurz zu machen: Wann immer irgendwo ein hippes Thema aufkam, hat 3Dfx demonstrativ "braucht kein Schwein" als einzige Reaktion gebracht. Man hat versucht, seit 4 Jahren praktisch das gleiche Featureset zu verkaufen. Dass man in dieser Branche damit zur Zielscheibe wird, sollte da nicht verwundern.

StefanV
2007-03-10, 20:55:24
Die Treiber laufen, die Hardware ist so ziemlich das beste was man noch bekommen kann und du übertreibst mal wieder.
Naja, habs anders in Erinnerung.
Würd auch drauf wetten, das ich mit der X-Fi früher oder später auch 'nen BSOD bekommen werde, wie ichs mit der Audigy unter W2k hinbekommen hab...


Was EAX betrift sieht man wie wichtig offene Standards sind.
FULL ACK!
Mit einem offenen Standard hätten wir auch mehr konkurenz im Audiobereich und das nicht nur von der Qualität her.
Leider hats ja Aureal zerlegt und sie wurden vom falschen gekauft, nur um sie vom Markt zu haben/damits kein anderer tut...

Ich stimme dir da durchaus zu. Aber: Richtig übel wurde es für Creative erst mit Vista. Und solange die Treiber eher schlecht als recht bleiben (das waren sie schon immer), werden immer mehr Kunden abwandern. Irgendwo schade um die Hardware. Ich "mag" meine potente X-Fi, nicht aber die mistige Software ...
Naja, hier sieht man mal wieder das es sich nicht lohnt, sich mit M$ anzulegen, das das früher oder später derb in die Hose, wie hier auch...

Und da es keinen offenen Soundstandard für Audioeffekte gibt, sind die anderen gearscht...

Gmax
2007-03-10, 21:11:31
Zumindest im Chipsatz Bereich scheint es bald aufwärts zu gehn.

Gigabyte (http://forums.ocworkbench.com/bbs/showthread.php?%20threadid=60516) und Epox (http://www.ocworkbench.com/2007/epox/EP-AP68P-G/g1.htm) haben neue Bretter angekündigt.

Das ist das erste (oder zumindest seit langer Zeit) Board von Gigabyte, welches einen ATI Chipsatz hat.

Gast
2007-03-10, 21:14:04
Wie Lolman schon sagte: Man hat leider für die Spieler und die gegenwärtige Praxis gebaut. 3dfx-Karten holten stets aus dem aktuell Möglichen das Beste raus (gutes 16 Bit, als 99,9% der Spiele 16-bittig waren, superbes AA) anstatt Checklistenfeatures zu integrieren. OEMs wollen aber leider genau die. Dabei hätte man diese "nur" von den existenten und sofort nutzbaren Vorzügen überzeugen müssen ...

Und wo soll dann die Weiterentwicklung stattfinden? Spieleentwickler brauchen eine im Markt nutzbare Hardware-Basis, bevor es ein neues Feature sinnvoll in ein Game schafft.

Genau das hat die 3dfx'sche Politik aber nicht geleistet.

Demirug
2007-03-10, 21:14:59
Das übliche Henne-Ei-Problem. Wobei aber größere Texturen erst mit der Nutzung von Texturkompression wirklich interessant wurden.

Und bis heute hat sich daran nichts geändert. Gerade erst letzte Woche musste ich ein Limit bei 2K*2K setzten obwohl wir 4K*4K viel besser hätten gebrauchen können. Das gleiche gilt für Non Pow2. Der Sprung von 1024*512 auf 1024*1024 ist aus der Sicht von Art häufig unnötig groß.

Cyphermaster
2007-03-10, 21:18:57
Ich weiß nicht, wie hier so viele Fähnchen im Wind stehen. Ist der A64 raus und schlägt den P4 in irgendwelchen Benchmarks, so heißt es "Intel verliert die Marktführung". Liegen die FX hinter den Radeons, wird der Untergang von nVidia aus dem Kaffeesatz gelesen. Und jetzt eben umgekehrt.

Fakt ist, bei ATI/nV war IMMER einer der beiden hintendran, genau wie bei AMD. Das wird auch weiter so sein. Ist bisher einer der beiden Riesen bankrottiert, bloß weil er mal etwas hinten lag?
Mal ehrlich: Wen interessieren 400.000 G80 bei einem Marktvolumen, daß man in vielstelligen Millionen beziffert, nicht gerechnet den gigantischen OEM-/Office-Bereich mit den IGPs? Die Margen sind im High-End zwar besser, aber noch lange nicht in Dimensionen, um die Masse der Mid-/Low-End-Karten auch nur annähernd auszugleichen.

Armaq
2007-03-10, 21:37:22
Ich weiß nicht, wie hier so viele Fähnchen im Wind stehen. Ist der A64 raus und schlägt den P4 in irgendwelchen Benchmarks, so heißt es "Intel verliert die Marktführung". Liegen die FX hinter den Radeons, wird der Untergang von nVidia aus dem Kaffeesatz gelesen. Und jetzt eben umgekehrt.

Fakt ist, bei ATI/nV war IMMER einer der beiden hintendran, genau wie bei AMD. Das wird auch weiter so sein. Ist bisher einer der beiden Riesen bankrottiert, bloß weil er mal etwas hinten lag?
Mal ehrlich: Wen interessieren 400.000 G80 bei einem Marktvolumen, daß man in vielstelligen Millionen beziffert, nicht gerechnet den gigantischen OEM-/Office-Bereich mit den IGPs? Die Margen sind im High-End zwar besser, aber noch lange nicht in Dimensionen, um die Masse der Mid-/Low-End-Karten auch nur annähernd auszugleichen.
So hoch ist das Marktvolumen im Bereich der G80 aber nicht. Wären nicht Perlen wie Company of Heroes, Anno1701 oder CSS/DODS würde ich die 300€ in eine Konsole stecken und mir Ärger ersparen.

Will sagen 400.000 sind ein Riesenhaufen. Wir reden hier von Grafikkarten ab 300€ aufwärts. Die 320MB Version zieht jetzt nochmal richtig an. Ich denke ihr Marktpotential schöpfen die Grünen gerade voll ab, eine Schande für AMD dort nicht mitzumischen.

Raff
2007-03-10, 21:39:50
Naja, die Roten haben immernoch die X1950 XTX, die mittlerweile auch deutlich unter 300€ kostet. Rein preislich ist das eigentlich noch attraktiv platziert – zumindest für die Kunden.

MfG,
Raff

Armaq
2007-03-10, 21:44:04
Verkaufen sich aber nicht annähernd so gut, oder?
R600 muss raus. Egal wie. Man sollte nicht bis zum G90 warten, der dann vll noch ein paar Überraschungen parat hält, wir erinnern uns an Nvidias eigene Aussagen zum G80.

Cyphermaster
2007-03-10, 21:49:15
So hoch ist das Marktvolumen im Bereich der G80 aber nicht. Ich meinte auch nicht, daß daß der high-end-Markt so groß wäre; ich meinen den INSGESAMTEN Markt. Die paar Prozent High-End reißen es da nicht.

Will sagen 400.000 sind ein Riesenhaufen. Wir reden hier von Grafikkarten ab 300€ aufwärts. Die 320MB Version zieht jetzt nochmal richtig an. Ich denke ihr Marktpotential schöpfen die Grünen gerade voll ab, eine Schande für AMD dort nicht mitzumischen.Da stimme ich zu, im High-End sind 400k ne Menge. War aber auch schon mal umgekehrt, siehe die R300.

Ich find's nur schade, daß dabei wieder Karten bevorzugt gekauft werden, die tendenziell die schlechtere Bildqualität bieten. Das schreibt einen Trend fort, den genau die Leute, die viel Geld für Top-Produkte ausgeben, in der Mehrzahl nicht gutheißen.

Gast
2007-03-10, 21:51:29
Naja, die Roten haben immernoch die X1950 XTX, die mittlerweile auch deutlich unter 300€ kostet. Rein preislich ist das eigentlich noch attraktiv platziert – zumindest für die Kunden.

MfG,
Raff
Hab gerade mal nachgeschaut, die ist so gut wie gar nicht mehr verfügbar und wenn kostet sie über 300 Kröten. Oder habe ich mich verguckt? :|

Armaq
2007-03-10, 21:54:37
Ich meinte auch nicht, daß daß der high-end-Markt so groß wäre; ich meinen den INSGESAMTEN Markt. Die paar Prozent High-End reißen es da nicht.

Da stimme ich zu, im High-End sind 400k ne Menge. War aber auch schon mal umgekehrt, siehe die R300.

Ich find's nur schade, daß dabei wieder Karten bevorzugt gekauft werden, die tendenziell die schlechtere Bildqualität bieten. Das schreibt einen Trend fort, den genau die Leute, die viel Geld für Top-Produkte ausgeben, in der Mehrzahl nicht gutheißen.
Was passt an der Bildquali von G80 nicht???

Raff
2007-03-10, 22:00:50
Hab gerade mal nachgeschaut, die ist so gut wie gar nicht mehr verfügbar und wenn kostet sie über 300 Kröten. Oder habe ich mich verguckt? :|

Huh? Die liegt bei Geizhals doch tonnenweise rum: http://geizhals.at/deutschland/a214605.html

MfG,
Raff

Cyphermaster
2007-03-10, 22:07:16
Was passt an der Bildquali von G80 nicht???
Was die zugrunde liegenden GPU-Fähigkeiten betrifft, wohl nichts, allerdings scheint nVidia da wieder zugunsten der Geschwindigkeit mit den Treibern zu "optimieren" - zwangsweise... ;(

In World of Warcraft hatten wir jetzt schon mit der GeForce 8800 GTX trotz HighQuality-Modus mehr Texturflimmern als mit einer GeForce 7600 GT im selben Modus

Gast
2007-03-10, 22:09:54
Huh? Die liegt bei Geizhals doch tonnenweise rum: http://geizhals.at/deutschland/a214605.html

MfG,
Raff
Hups, habe die Marke Connect3D ganz übersehen.

Raff
2007-03-10, 22:10:03
Was die zugrunde liegenden GPU-Fähigkeiten betrifft, wohl nichts, allerdings scheint nVidia da wieder zugunsten der Geschwindigkeit mit den Treibern zu "optimieren" - zwangsweise... ;(

Kann ich übrigens anhand privater Tests mit einer GF8 nicht bestätigen. Das gleicht in WoW A.I. Off. Arg viel gespielt habe ich es allerdings nicht ...

MfG,
Raff

Cyphermaster
2007-03-10, 22:20:42
Das wäre mal interessant zu wissen - "unkastriert" scheinen die GF8 ja recht gut.

Gast
2007-03-10, 22:22:56
Kann ich übrigens anhand privater Tests mit einer GF8 nicht bestätigen. Das gleicht in WoW A.I. Off. Arg viel gespielt habe ich es allerdings nicht ...

MfG,
Raff
Nachdem ich mir die kleine 8800 GTS mit 320 MB zugelegt habe, verglich ich die Bildquali mit meiner alten 7900 GTO in diversen Games auf HQ. Nach mehrmaligem Hin- und Zurücklaufen und penibler Ausschau nach Flimmern konnte ich zwischen den beiden Karten nicht wirklich ein Unterschied feststellen. Konnte allerdings nie gleichzeitig testen, sondern musste immer eine Karte rausbauen und dann "im Gedächtnis" vergleichen. Spielt mir meine Wahrnehmung da einen Streich?

Armaq
2007-03-10, 22:28:52
Also der HQ alles Opt. off sieht man mehr als deutlich im Vergleich zu nv40 HQ.
Ich kann der Bildqualität einiges abgewinnen.
Flimmern sehe ich nirgends mehr. Aber kann ich mir auch einbilden.

Armaq
2007-03-10, 22:33:12
Vor allem warum sollte man das hochgelobte AF jetzt kaputt optimieren? Also das ist trotz Balkenlänge totaler Bockmist. Gibt eh nix, was an die Balken rankommt.
Generell brauchts halt einfach mal ein paar gute XP und Vista Treiber. Ausgereift wirken diese nämlich nicht.

Gast
2007-03-11, 09:27:47
Kann ich übrigens anhand privater Tests mit einer GF8 nicht bestätigen.Ich auch nicht. Die Bildqualität des G80 unter HQ ist erste Sahne. Zumindest mir fällt absolut nichts störendes mehr auf. Allerdings spiele ich auch kein WoW.

reunion
2007-03-11, 09:46:22
So hoch ist das Marktvolumen im Bereich der G80 aber nicht. Wären nicht Perlen wie Company of Heroes, Anno1701 oder CSS/DODS würde ich die 300€ in eine Konsole stecken und mir Ärger ersparen.

Will sagen 400.000 sind ein Riesenhaufen. Wir reden hier von Grafikkarten ab 300€ aufwärts. Die 320MB Version zieht jetzt nochmal richtig an. Ich denke ihr Marktpotential schöpfen die Grünen gerade voll ab, eine Schande für AMD dort nicht mitzumischen.

nV kleistert mit dem G80 momentan eine menge zu. Denn alles unter 300€ ist für nV speziell bei diesen von dir genannten Spiele eine mittlere Katastrophe. Und das nicht nur in punkto Performance, sondern auch in punkto IQ. Aber wie immer ist der schnellste Chip eben eine verdammt gute Werbung, wodurch sich alles andere fast von selbst verkauft.

Mark3Dfx
2007-03-11, 12:54:08
http://www.heise.de/newsticker/meldung/86533

viking
2007-03-11, 13:33:49
Katastrophe!!!

Mr. Lolman
2007-03-11, 18:26:43
Und wo soll dann die Weiterentwicklung stattfinden? Spieleentwickler brauchen eine im Markt nutzbare Hardware-Basis, bevor es ein neues Feature sinnvoll in ein Game schafft.

Genau das hat die 3dfx'sche Politik aber nicht geleistet.

Man muss aber die Weiterentwicklung nicht mit unnützen Checklistenfeatures forcieren. Die Leistung (und die Zeit) war einfach nicht da, um mehr als ein paar Techdemos zu produzieren.

Der Spieler hat von der Weiterentwicklung der Hardwarebasis zunächst einmal sehr wenig: Bis zu DX9 wars eigentlich so, dass eine neues Techlevel immer erst 1-2 GraKagenerationen später konstant genutzt wurde. D.h. der Spieler kauft sich eine neue GF1 mit HW-TnL, 32bit Untersstütung, unterstützung für hochauflösende Texturen, Texturcombinern, div. AGP-Features - und quasi alle Spiele sahen um Nullkommanix besser aus. Von HW-TnL und AGP-Texturing hatte man ohnehin keinen direkten optisch ersichtlichen Vorteil und für den Rest war die Karte einfach zu schwach und/oder der Softwaresupport noch nicht weit genug.

D.h. man hat sich damals ne GF1 gekauft und sich gefreut, dass man damit die HW/Sw-Entwicklung schneller voranttreibt, und praktisch die eigene HW damit schneller zum Alteisen werden lässt. Der krasse Gegensatz dazu ist die Konsolensparte, die zeigt, dass man durch geschickte Nutzung der gleichen HW-Basis, auch über Jahre hinweg Software immer besser optimierten kann, und somit auch immer schönere Ergebnisse erzielt. Der große Vorteil davon wäre wohl, dass man die eigene HW nicht so oft wechseln müsste.



Ein aktuelles Beispiel ist HDRR: Kostet im FP16-Format immernoch sehr viel Leistung, aber weils die GraKas können, verwendets man halt. Dass es mit minimalsten optischen Einbussen auch weitaus performanter funtionieren würde (auf G70-Karten dann sogar auch mit AA), interessiert niemanden.

Man kann sich ja eh eine 4xGPU-Kombi in den Rechner schnallen und ein halbes Jahr später wieder weiter aufrüsten... :rolleyes:

Gast
2007-03-11, 18:42:54
Man muss aber die Weiterentwicklung nicht mit unnützen Checklistenfeatures forcieren. Die Leistung (und die Zeit) war einfach nicht da, um mehr als ein paar Techdemos zu produzieren. [...]
Das ist ja alles schön und gut, beantwortet die Frage aber trotzdem nicht: Wie soll technischer Fortschritt in Spielen Einzug halten, wenn die Features der GPU auf der Stelle treten?

So wie ich das sehe, gibt es hier mehrere Möglichkeiten:

a) Es werden separate "Dev-Chips" produziert, damit diese schonmal üben können. Das ist im Prinzip dasselbe, wie es bei Nvidia stattfindet, außer dass Nvidia eben diese Boards allen verkauft.

b) Irgendwann bieten die Hardwarehersteller ein neues Feature performant, also "nutzbar", mit der kompletten Produktreihe an. Die Spieleentwickler beginnen, dieses Feature zu nutzen und in ihre kommenden Games einzubauen. Nach circa 18-36 Monaten erscheinen dann Spiele, die das nutzen. In der Zwischenzeit können die Spieler mit den dafür verwendeten Transistoren gar nichts anfangen, haben sie aber über die Kalkulation des Hardwareentwicklers trotzdem bezahlt.

c) Es gibt keinen Fortschritt, nur noch Gameplay.


Darüber hinaus darfst du nicht vergessen, dass eigentlich bis zu D3D10 das Featureset relativ schlampig durchgesetzt wurde - jeder IHV konnte eigentlich tun und lassen was er wollte. Das zwang die Hersteller - ja, auch Ati, PowerVR oder 3dfx - "ihre" Features möglichst früh zu bringen und neben den Kunden auch den Devs zu "verkaufen", damit eben ihr Feature früher als das der Konkurrenz genutzt wurde. Wer da nicht mitzog, sondern "nur" Features anbot, die für's hier und jetzt nützlich waren, hat im PC-Grafikmartk verloren: 3dfx und PowerVR mit FSAA resp. TBDR. FSAA wertete alle Games auf, man konnte es aber genauso"gut" ohne Spielen, TBDR beschleunigte die Darstellung sodass man mit einem relativ simplen Chip zum günstigen Preis die Performance eines größeren erreichte. Beides "einmal"-Features, die nicht dazu führten, dass auf Konkurrenzprodukten ein Spiel nicht lief, welches bei 3dfx oder PowerVR nicht ging - oder ein "Effekt" wie Dot3-BM o.ä. nicht aktivierbar war.

Später ging es halt in die andere Richtung, dass mehrere Spiele ohne TnL gar nicht mehr starten wollten oder Fummelei in der Ini benötigten - beides GIFT für OEM-Geschäfte - Brot und Butter jeder Firma.

Darum ist 3dfx gestorben und PowerVR hat sich aus dem PC Markt zurückziehen müssen.


Hätte, wäre wenn zählen hier nicht: Schuld waren einzige und allein die wirtschaftlichen Entscheider, die nicht kapiert haben, wie der Markt funktioniert. Das (wirtschaftliche) Leben ist nunmal kein Wünsch-dir-Was.

Armaq
2007-03-11, 19:03:20
nV kleistert mit dem G80 momentan eine menge zu. Denn alles unter 300€ ist für nV speziell bei diesen von dir genannten Spiele eine mittlere Katastrophe. Und das nicht nur in punkto Performance, sondern auch in punkto IQ. Aber wie immer ist der schnellste Chip eben eine verdammt gute Werbung, wodurch sich alles andere fast von selbst verkauft.

Geb ich dir natürlich recht. Deshalb meine Forderung, der R600 muss raus, egal wie. Ob nun preiswerter und vll. ein wenig stromsparender, oder schneller und lauter. Keine Ahnung was es kann und was nicht, aber es muss auf den Markt.

Ich hoffe sehr auf ATI, denn sie haben Nvidia schließlich zur G80 genötigt. Wenn einer der beiden einbricht siehts bald düster aus. Intel braucht sicher noch einige Jahre bis sie mitreden können.

Der Nachfolger von Vista mit einer Art Raytracing und HighPerformanceChips von Intel - as time goes by. ;)

SavageX
2007-03-11, 19:33:20
Hier wird dauernd von "Checklistenfeatures" gesprochen, die niemand braucht(e). Es mag zwar sein, dass zu Lebzeiten einer Kartengeneration so einige Features ungenutzt bleiben, aber hier scheinen viele zu übersehen, dass Grafikchipentwicklung ein iterativer Prozess ist.

Nvidia hat nach und nach Features nachgelegt und somit seine Chiplinie frischgehalten. Vom Riva 128 bis hin zum heutigen GeForce gibt es eine Entwicklungskontinuität. In der ersten Implementation ist ein Feature vielleicht nicht sofort direkt nutzbar, aber wenigstens hat man etwas, worauf man im nächsten Zyklus (bei Nvidia pi mal Daumen 6 Monate) aufbauen konnte.

3Dfx hingegeben hat versucht, ein bereits existierendes Produkt immer weiter aufzubohren und nebenbei das nächste dicke Ding zusammenzubasteln. Der Entwicklungsaufwand für das direkt als nächstes anstehende Produkt hat so fernere Nachfolger kannibalisiert. Die Verspätungen bei Rampage waren enorm, auch weil sich die Anforderungen während der Zeit auf Entwicklungssparflamme immer wieder verschoben.

Dadurch, dass man nicht Schritt für Schritt sein Produkt aufgewertet hat, musste man auf einmal zum großen Sprung ansetzen, was dann ja reichlich schief gegangen ist.

Gast
2007-03-11, 19:54:08
@SavageX

Full ack! Was nützt mir einen "Karte für den Gamer", wenn ich als Gamer dann bei der nächsten Karte nicht in den Genuss neuer Features komme, da sie im Vorgänger noch nicht implementier waren und deshalb die Entwickler sie noch nicht verwenden konnten.

Liszca
2007-03-11, 22:00:42
...was das seltsame Verhalten angeht, wohl alle neuen Grafikkarten zusammen auf den Markt bringen zu wollen, was totaler Blödsinn ist und sich gegen den Markt richtet, da nVidia mit dem G80 im HighEnd-Segment schon lange gut unterwegs ist und die Mainstream- und LowEnd-Modelle erst einige Zeit später folgen werden - ohne dass nVidia dadurch irgendwelche Nachteile haben wird.
....

ich halte es in diesem fall von amd für eine sinnvolle aktion alles auf einmal rauszubringen, dadurch kann nvidia nachträglich im midrange unter druck gesetzt werden, wo ja bekanntlich mit der meiste gewinn eingefahren wird.

ausserdem sollte dies auch keine auswirkung auf das produkt geben, ich denke mal die werden sich ihrer sach schon sicher sein.

glaube das wurde bisher immer so gemacht weil man so am anfang gut bei den technikjunkies absahnen konnte.
und im moment sieht es ja danach aus als wollt amd den preiskrieg auch auf die grafikkarten ausdehnen, ob dem aber so ist wird sich bald zeigen.

Gast
2007-03-12, 18:43:22
ich halte es in diesem fall von amd für eine sinnvolle aktion alles auf einmal rauszubringen, dadurch kann nvidia nachträglich im midrange unter druck gesetzt werden,

Und das würde nicht gehen, wenn das High-End Modell zuerst gelauncht würde? Seltsame Logik.

MarcWessels
2007-03-12, 19:59:54
Die Banshee kam afaik erst im Jahr 99. Die TNT gab es schon Ende 1998 für ~299 DM und viele meiner Bekannten haben damit ihren Rechner zu Weihnachten aufgerüstet. Hatte zwar kein Glide, das meiste ließ sich aber trotzdem recht gut mit ihr spielen.Das meiste?? :| Fast alles lief schrottig auf der TNT. Auch als die TNT2Ultra kam, liefen 75% der Spiele eindeutig schlechter als auf meinen Voodoos (bzw. Einzahl, nachdem ich die Voodoo3 bekam)!

Gast
2007-03-13, 00:16:56
Das meiste?? :| Fast alles lief schrottig auf der TNT.
Sorry, wenn ich mich sehr kurz fasse, aber so einer Darstellung kann man nur eines entgegnen: Unfug, bitte belege das.

Mr. Lolman
2007-03-13, 00:37:05
Sorry, wenn ich mich sehr kurz fasse, aber so einer Darstellung kann man nur eines entgegnen: Unfug, bitte belege das.

Am besten mit nem D3D Spiel, oder? Nagut. Hier ein Beispiel der abartig tollen Performance der Riva TNT, des Voodoo2 SLI-Killers, mit dem ominösen Chipnamen "NV4":
http://images.anandtech.com/old/video/tnt2/Image144.gif



Geil darauf waren die Leute natürlich darauf wegen so überhypter Meldungen wie zB:

David Kirk's interview with Boot magazine provided tons of info about, among other things, the mysterious upcoming NV4, which according to David will outperform two Voodoo 2's in SLI!! Now that's what I'm talking about!! Six million polygons, anyone?
http://www.d128.com/archive/apr98.htm

MarcWessels
2007-03-13, 17:48:28
Am besten mit nem D3D Spiel, oder? Nagut. Hier ein Beispiel der abartig tollen Performance der Riva TNT, des Voodoo2 SLI-Killers, mit dem ominösen Chipnamen "NV4":Yep, und ich rede nicht nur über Benchmarkzahlen, sondern über persönliche Erfahrungen @Gast!

TNT2U hatte ich auch und hab' se gegen eine Voodoo3 ausgetauscht. Selbst die GeForce1 wurde leider Gottes viel zu früh von mir angeschafft - ich hätte lieber erst ab der Ti4600 der Voodoo-Welt Adieu sagen sollen.

Gast
2007-03-13, 23:32:37
Am besten mit nem D3D Spiel, oder?
Nein, bitte erst lesen, dann denken, dann posten. Und wenn schon posten, dann bitte nicht so einen "raisin-picked"-Bildchen, bei dem man denken könnte, du wolltest einen verarschen.

Marc schrieb: "Fast alles lief schrottig auf der TNT". Unter fast alles kann man IMO gut und gern >80% verstehen, mindestens aber wohl zwei Drittel.

Dafür hätte ich gern belege - oder hatte der liebe Marc etwa eine TNT Vanta/LE o.ä.?


Komisch, wieso nur finde ich kaum 1024er-Benchies mit einer Voodoo2?
http://www.anandtech.com/showdoc.aspx?i=803&p=3
http://www.anandtech.com/showdoc.aspx?i=921&p=6
http://www.firingsquad.com/hardware/g400/page11.asp
http://www.firingsquad.com/hardware/ragefury/page3.asp


Schneller als V2-SLI:
http://www.tomshardware.com/1998/10/07/nvidia_vs/page11.html

On-par mit V2:
http://www.tomshardware.com/1998/10/07/nvidia_vs/page13.html
http://www.tomshardware.com/1998/08/18/new_3d_chips_/page4.html
http://www.tomshardware.com/1998/07/20/preview_of_3dfx_voodoo_banshee/page2.html
http://www.tomshardware.com/1998/07/20/preview_of_3dfx_voodoo_banshee/page3.html
http://www.tomshardware.com/1998/07/20/preview_of_3dfx_voodoo_banshee/page4.html
http://www.tomshardware.com/1998/07/20/preview_of_3dfx_voodoo_banshee/page5.html (640: Deutlich für die V2, 800: Etwa ausgeglichen, 1024: Naja...)

Summary Quake 2 Results

If you want to play Quake 2 at 1152x864 you'll need TNT, that's simply it. Even K6-2 owners can get it to run at this resolution in case they don't mind tweaking Quake 2 a bit. Voodoo2 is still great for Quake 2 and if you run 2 Voodoo2 cards with SLI you'll get absolutely safe frame rates for each of the tested CPUs. However, 1152x864 is simply impossible. Another thing to look at is image quality. Please take my word for it and forgive me the lack of screen shots, but TNT looks a fair amount better than Voodoo2 or Banshee does.

All in all is Quake 2 certainly no reason to NOT buy a TNT card. For me it would be the reason to buy one, but I really fancy the 1152x864 resolution and you may not. Take in consideration that the two Voodoo2 boards cost you at least double the money that TNT costs and then you still need a 2D card to go with Voodoo2. In my eyes TNT already won the race as the best Quake 2 graphics card. Screen resolution plus image quality made me fall in love with it.
http://www.tomshardware.com/1998/10/07/nvidia_vs/page9.html

Gast
2007-03-13, 23:33:52
Yep, und ich rede nicht nur über Benchmarkzahlen, sondern über persönliche Erfahrungen @Gast!

Die hatte ich auch - Voodoo2 und TNT haben sich bei mir den Rechner geteilt. Und so schlecht, wie du sie hier darstellst, war sie bei weitem nicht; beide Karten hatten Stärken und Schwächen.

Raff
2007-03-13, 23:36:58
Schneller als V2-SLI:
http://www.tomshardware.com/1998/10/07/nvidia_vs/page11.html

Da läuft aber kein SLI. Ob das nun am Treiber oder am Tester lag ist wieder ein anderes Thema. Die TNT kämpft da jedenfalls gegen eine Single-V2 ... die ist genauso schnell. Erst ab 1024x768 kann man von SLI-Funktionalität ausgehen. Und da ist das Duo (natürlich) schneller als die TNT.

Nett ist aber, dass die TNT mit schwachen CPUs mehr rausholen konnte.

MfG,
Raff

Gast
2007-03-13, 23:57:54
Da läuft aber kein SLI. Ob das nun am Treiber oder am Tester lag ist wieder ein anderes Thema. Die TNT kämpft da jedenfalls gegen eine Single-V2 ... die ist genauso schnell. Erst ab 1024x768 kann man von SLI-Funktionalität ausgehen. Und da ist das Duo (natürlich) schneller als die TNT.

Nett ist aber, dass die TNT mit schwachen CPUs mehr rausholen konnte.

MfG,
Raff
Da's in 1.024 läuft, gehe ich mal davon aus, dass der Tester die Kabel nicht vergessen hatte. Viel mehr konnte man als Normalsterblicher ja nicht machen - und wenn irgendwas nicht funkt, funkt's halt nicht. So kann man auch mit SLI gekniffen sein.

Mr. Lolman
2007-03-14, 10:16:14
Nein, bitte erst lesen, dann denken, dann posten. Und wenn schon posten, dann bitte nicht so einen "raisin-picked"-Bildchen, bei dem man denken könnte, du wolltest einen verarschen.

Marc schrieb: "Fast alles lief schrottig auf der TNT". Unter fast alles kann man IMO gut und gern >80% verstehen, mindestens aber wohl zwei Drittel.

Dafür hätte ich gern belege - oder hatte der liebe Marc etwa eine TNT Vanta/LE o.ä.?


Komisch, wieso nur finde ich kaum 1024er-Benchies mit einer Voodoo2?
http://www.anandtech.com/showdoc.aspx?i=803&p=3
http://www.anandtech.com/showdoc.aspx?i=921&p=6
http://www.firingsquad.com/hardware/g400/page11.asp
http://www.firingsquad.com/hardware/ragefury/page3.asp


Schneller als V2-SLI:
http://www.tomshardware.com/1998/10/07/nvidia_vs/page11.html

On-par mit V2:
http://www.tomshardware.com/1998/10/07/nvidia_vs/page13.html
http://www.tomshardware.com/1998/08/18/new_3d_chips_/page4.html
http://www.tomshardware.com/1998/07/20/preview_of_3dfx_voodoo_banshee/page2.html
http://www.tomshardware.com/1998/07/20/preview_of_3dfx_voodoo_banshee/page3.html
http://www.tomshardware.com/1998/07/20/preview_of_3dfx_voodoo_banshee/page4.html
http://www.tomshardware.com/1998/07/20/preview_of_3dfx_voodoo_banshee/page5.html (640: Deutlich für die V2, 800: Etwa ausgeglichen, 1024: Naja...)


http://www.tomshardware.com/1998/10/07/nvidia_vs/page9.html

Da hast dir ja viel Arbeit gemacht. Gottseidank hab ich mir das 16bit der TNT nicht öfter als einmal antun müssen. Du anscheinend schon. ;)

/BTW: Du weisst aber hoffentlich auch, wieviel Gas damals die Voodoo2 mit WickedGL gegeben haben und dass das nirgends mitgetestet wurde (deswegen hatte ich auch ein d3d-Spiel rausgesucht): http://web.archive.org/web/20011204211656/http://www.wicked3d.com/products/wickedgl/test.htm

/BTW2: Und die Summary von THG, zeigt welchen Geistes Kind THG schon damals war. QII auf ner TNT in 1152x864 spielen. Das sollte mal einer probieren und dann berichten, obs echt Spaß macht...

/BTW3: Außerdem hat THG ausschliesslich mit Intel-CPUs getestet (die nächste Affinität von den Schreiberlingen). In gewissen Spielen war ne Banshee auf nem K6II/300 damals flotter als auf einem PII/@416.



Nochmal zum mitlesen:


Another thing to look at is image quality. Please take my word for it and forgive me the lack of screen shots, but TNT looks a fair amount better than Voodoo2 or Banshee does.

Wie denn? Das ist unmöglich. Entweder war das SLI Kabel kaputt, oder es lag an der NV-Brille die der Typ damals schon aufhatte. Auf jeden Fall wirkts windig, zu behaupten, dass TNT viel besser aussieht, und dann nichtmal nen Beweis liefern zu können (denn Seiten wie 3DConcept haben damals schon das Gegenteil bewiesen)


All in all is Quake 2 certainly no reason to NOT buy a TNT card. For me it would be the reason to buy one, but I really fancy the 1152x864 resolution and you may not. Take in consideration that the two Voodoo2 boards cost you at least double the money that TNT costs and then you still need a 2D card to go with Voodoo2. In my eyes TNT already won the race as the best Quake 2 graphics card. Screen resolution plus image quality made me fall in love with it.

Aha. Wegen QII musste man damals eine TNT kaufen. Die Voodoo2 SLI gabs damals schon ewig und auch für weniger als das Doppelte und ne andere GraKa hatte man eigentlich schon immer im Rechner (auch bei Komplettsystemen). Ich zB ne wahnsinnig schnelle Hercules Stingray 64, die im 2D-Bereich jeder Matrox Millenium das fürchte lehrte und einem angesichts der 2D-Werte einer TNT nur ein müdes Grinsen entlockte.


Aber gut, dass du die ganzen Links gepostet hast, so sieht man wie damals die Voodookarten bewertet wurden. THG waren doch ja auch die jenigen, die dann im großen Stil mit 32bit Tests anfingen und bei allen Voodoos ne rote Null prangen liessen. Unter Fairness versteh ich da was anderes, als gewisse Karten unter 32bit zu testen, die dort zwar nen üblen Einbruch verursachen, aber endlich eine brauchbare Darstellungsqualität an den Tag legten und dabei die unbrauchbare 16bit BQ zu ignorieren. Dass diese Probleme die Voodoos nicht hatten, wurde in den Diagrammen einfach mit ner Null abgetan. Screenshots gabs ja auch sowieso keine und dass die Redakteure von ihrem Marketinggeschreibsel überhaupt auch nur irgendwas verstanden haben, brauchte man damals eingentlich garnicht erwarten.

MarcWessels
2007-03-14, 13:54:09
Die hatte ich auch - Voodoo2 und TNT haben sich bei mir den Rechner geteilt. Und so schlecht, wie du sie hier darstellst, war sie bei weitem nicht;(...)Doch! (Rest siehe Mr. Lolmans Posting)

Gast
2007-03-15, 06:01:36
Doch! (Rest siehe Mr. Lolmans Posting)
Kindergarten.

Doch
Nein
Doch
Nein....

Lolman ist ein 3dfx-Fanboy - in dieser Hinsicht kann man nicht vernünftig mit ihm diskutieren. Rest, siehe Lolmans Posting, bes. "wie schlecht Voodoos bewertet wurden", "welche Geistes Kind ... unmöglich", blablabla.

Blutmaul
2007-03-15, 06:15:34
Mit den 32 bit tests hat er ja recht.
Das war damals überhaupt nicht praxistauglich und wurde überall als riesenvorteil verkauft.
Selbst noch auf ner Geforce waren meist 16 Bit farbtiefe eingestellt, weil kaum jemand ein System hatte das leistungsfähig genug für 32 bit war.
Ich bin auch erst mit der Radeon auf 32 Bit umgestiegen.

Und ja, am Untergang war 3Dfx selber schuld!

StefanV
2007-03-15, 06:36:31
32bit war damals auch nicht soo schlecht, wie es damals hingestellt wird, nur sollte man dafür keine Riva TNT nehmen sondern 'ne Rage128 oder Matrox G400.

Selbst die Savages und die G200 konnten den Abstand in 32bit zu der TNT verkürzen :ugly:

The_Invisible
2007-03-15, 08:29:25
Kindergarten.

Doch
Nein
Doch
Nein....

Lolman ist ein 3dfx-Fanboy - in dieser Hinsicht kann man nicht vernünftig mit ihm diskutieren. Rest, siehe Lolmans Posting, bes. "wie schlecht Voodoos bewertet wurden", "welche Geistes Kind ... unmöglich", blablabla.

ja, ist ja noch schlimmer als wie er jetzt immer ATi verteidigt

aber irgendwas muss die "perfekte" firma 3dfx doch falsch gemacht haben, sonst würde es sie heute noch geben. und sei es nur armseliges marketing.

mfg

Mr. Lolman
2007-03-15, 08:51:18
Diejenigen hier, die sich für die Materie interessieren und die das Glück hatten, auch damals schon lesen zu können, sollte eigentlich wissen, wie 3dfx Karten bewertet wurden. Das ging sogar soweit, dass man auch schon Voodoo1 und Voodoo2 tw. garnicht mehr mitgetestet hat. Da die Banshee noch nicht draussen war, durfte am ehesten noch ne Rush antreten, und die war mindestens genauso mies, wie 3dfx' Marketing ;)

Exxtreme
2007-03-15, 09:49:11
ATi/AMD werden nicht untergehen.

1. Hat AMD sehr viel mehr Standbeine als 3dfx.
2. Geizte ATi nie mit guten Entwicklertools und sie blieben somit immer konkurrenzfähig.


Und ja, wer damals die Berichtserstattung mitverfolgt hat, der weiss, daß die ganzen Reviewer sehr Checklistenfeatures-biased waren. Selbst die c't schrieb damals, daß die V5 wegen fehlender T&L-Unit nicht zukunftsfähig ist. X-D Da wurden sogar starke Vergrösserungen benutzt um den Unterschied zwischen 16 und 32-Bit zu zeigen. Nur ... wer spielt mit künstlicher Vergrösserung? Zudem gab es damals fast nie ein breitgefächertes Sortiment an getesteten Spielen. Es wurde nur UT und Q3 getestet und dies dann als D3D- und OpenGL-Performance verkauft was das Bild sehr stark verfälschte. Denn da konnte man seine Treiber schön auf diese beiden Spiele optimieren.

Im Nachhinein ziemlich scheisse das Ganze. 3dfx ist zwar im Endefekt selbst schuld aber Seiten wie Tomshardware haben da schön mitgeholfen.

SavageX
2007-03-15, 10:45:41
Das ging sogar soweit, dass man auch schon Voodoo1 und Voodoo2 tw. garnicht mehr mitgetestet hat. Da die Banshee noch nicht draussen war, durfte am ehesten noch ne Rush antreten, und die war mindestens genauso mies, wie 3dfx' Marketing ;)

Nun, wenn der Test ausdrücklich über integrierte 2D/3D Lösungen titelte und der Ausschluss von Voodoo 1 und 2 mit diesem Anforderungsprofil begründet wurde, so geht das schon in Ordnung. Und wenn 3Dfx nicht passend eine passende und zeitgemäße Lösung im Petto hatte: Deren Pech, ganz einfach.

Gast
2007-03-18, 12:40:55
X-D Da wurden sogar starke Vergrösserungen benutzt um den Unterschied zwischen 16 und 32-Bit zu zeigen. Nur ... wer spielt mit künstlicher Vergrösserung?

Das ist ein reines Print-Problem. Im Druck erkennt man Unterschied in Bildern, die auf 7x7 cm verkleinert sind nunmal kaum noch - und in 7x7 cm spielt auch kein Mensch, daher die VErgrößerung der Ausschnitte.

Animierte GIFs lassen sich auch schlecht abdrucken und Bilder hin- und herklicken, wie im Browser geht halt auch nicht.

Raff
2007-03-18, 13:04:24
Lolman ist ein 3dfx-Fanboy - in dieser Hinsicht kann man nicht vernünftig mit ihm diskutieren. Rest, siehe Lolmans Posting, bes. "wie schlecht Voodoos bewertet wurden", "welche Geistes Kind ... unmöglich", blablabla.

Ich weiß nicht, was die "Liebe" zu einer Firma mit objektiver Betrachtung der Bildqualität zu tun hat. Das 16 Bit der 3dfx-Karten ist hübscher als das aller GeForces und Radeons, um das mal so drastisch auszudrücken. Natürlich ist das heute nicht mehr von Relevanz, damals aber sehr wohl.

Wer damals (1998-1999) spielen wollte, dem bot 3dfx den besseren Deal. Schnell und schön in 16 Bit. In einer Zeit, wo 99,8% der Spiele mit 16 Bit und oft auch Glide liefen. Mit Quake 3 und ab 2000 wurde 32 Bit optisch so langsam aber sicher sinnvoll. Lahm war es aber trotzdem. Es kann niemand ernsthaft behaupten, mit einer Karte vor der GeForce DDR in akzeptablen Auflösungen in 32 Bit gespielt zu haben.

Wobei, nochmal darüber nachgedacht kann dieses "32 Bit war schon damals schöner" eigentlich nur von TNT/GeForce-Nutzern kommen. Eben weil es da öfter der Fall war, das 16 Bit war/ist ja relativ zum 3dfx-Filter hässlich.

MfG,
Raff

Gast
2007-03-18, 13:19:03
Ich weiß nicht, was die "Liebe" zu einer Firma mit objektiver Betrachtung der Bildqualität zu tun hat. Das 16 Bit der 3dfx-Karten ist hübscher als das aller GeForces und Radeons, um das mal so drastisch auszudrücken.

Das ist es eben nicht, GF sieht in 16 Bit besser aus als die Voodoos.
Hatte beide Karten und sobald mehrfach geblendet wird kann man das Dithering der Voodoos vergessen.

Raff
2007-03-18, 13:26:02
Beweise bitte. Unsere finden sich hier (http://3dcenter.de/artikel/voodoo5-6000/) zuhauf. Ungeschönt.

MfG,
Raff

minos5000
2007-03-18, 13:28:27
Das ist es eben nicht, GF sieht in 16 Bit besser aus als die Voodoos.
Hatte beide Karten und sobald mehrfach geblendet wird kann man das Dithering der Voodoos vergessen.

Das kann ich nicht bestätigen, als ich damals von meiner Voodoo2 auf Geforce umgestiegen bin viel deutlich eine gewiese Körnung der Texturen auf. Man hat sich zwar daran gewöhnt aber mir geviel die Qualität der Voodoos unter 16Bit besser.

Dafür war aber IMO die 32Bit Qualität der Voodoo4/5 nicht so toll, da die darüber auch noch mal den Filter gelegt haben und das in dem Fall eher kontraproduktiv war.

SavageX
2007-03-18, 15:32:31
Hmm... um ganz ehrlich zu sein: Ich sehe unter 16 bit bei 3Dfx keinen klaren Vorteil, zumindest nicht auf den Screenshots, die im Voodoo 5 Review zu sehen sind.

http://3dcenter.de/artikel/voodoo5-6000/UT04_VSA100-2x-16bit.php

Ziemlich störendes, sehr regelmäßiges dithering Raster. Das hat mich ja schon bei meiner Banshee z.B. bei Forsaken massiv gestört.

http://3dcenter.de/artikel/voodoo5-6000/UT04_R200-2x-2x-16bit.php

Ich sehe bei der Radeon zwar kein Antialiasing, ansonsten gefällt mir das aber sehr gut. Das dithering Raster hält sich hier sehr vornehm zurück.

http://3dcenter.de/artikel/voodoo5-6000/UT04_NV38-2x-2x-16bit.php

Dithering deutlich sichtbar, aber meiner Meinung nach nicht so schlimm wie auf dem VSA100 Screenshot (ist da wirklich schon der Filter schon mit einbezogen? Wenn nicht... was bringen die Screenshots?)

Egal wo ich hinschaue: Bei 16 bit sehe ich höchstens ein "anders", aber kein eindeutiges "besser". Dass ATI oder Nvidia bei ihrer 16 bit Darstellung "unbrauchbar" gewesen wären und deshalb eigentlich nur 3Dfx in Frage gekommen wäre, halte ich für ernsthaftig zweifelhaft.

0dal
2007-03-18, 15:44:29
Mit Quake 3 und ab 2000 wurde 32 Bit optisch so langsam aber sicher sinnvoll. Lahm war es aber trotzdem. Es kann niemand ernsthaft behaupten, mit einer Karte vor der GeForce DDR in akzeptablen Auflösungen in 32 Bit gespielt zu haben.

Doch ich. Mit einer Elsa Synergy Force in 32Bit auf 1024x768 das war nichtmal eine GeForceDDR sondern eine GeForce256 SDR mit 32 MB Ram.
Meine TNT2 (Elsa Erazor III) hat Quake3 in 32Bit nicht flüssig bei der Auflösung darstellen können, was mich immer gewurmt hat da es in 32Bit deutlich besser aussah.....die GeFrosch1 hat da deutlich mehr FPS im absolut spielbaren Bereich geliefert.

Gast
2007-03-18, 15:50:03
Ich weiß nicht, was die "Liebe" zu einer Firma mit objektiver Betrachtung der Bildqualität zu tun hat. Das 16 Bit der 3dfx-Karten ist hübscher als das aller GeForces und Radeons, um das mal so drastisch auszudrücken. Natürlich ist das heute nicht mehr von Relevanz, damals aber sehr wohl.

Wer damals (1998-1999) spielen wollte, dem bot 3dfx den besseren Deal. Schnell und schön in 16 Bit. In einer Zeit, wo 99,8% der Spiele mit 16 Bit und oft auch Glide liefen. Mit Quake 3 und ab 2000 wurde 32 Bit optisch so langsam aber sicher sinnvoll. Lahm war es aber trotzdem. Es kann niemand ernsthaft behaupten, mit einer Karte vor der GeForce DDR in akzeptablen Auflösungen in 32 Bit gespielt zu haben.

Wobei, nochmal darüber nachgedacht kann dieses "32 Bit war schon damals schöner" eigentlich nur von TNT/GeForce-Nutzern kommen. Eben weil es da öfter der Fall war, das 16 Bit war/ist ja relativ zum 3dfx-Filter hässlich.

MfG,
Raff

Ein Wort: Expendable.
Noch ein Wort: Henne-Ei-Problem. Hätte es nur Voodoos gegeben, wäre 2007 wohl anstelle des DX10-Jahres zum 32-Bit-Jahr geworden.

Gast
2007-03-18, 15:55:18
Beweise bitte. Unsere finden sich hier (http://3dcenter.de/artikel/voodoo5-6000/) zuhauf. Ungeschönt.

MfG,
Raff

Verlink doch bitte mal einen oder zwei direkt, auf denen man die Überlegenheit des 3dfxschen Postfilters (blödes Wort für einen Blurrer) sieht.

Nach ca. 80 Klicks im Artikel fiel mir irgendwie auf, dass alles, was ich bisher gesehen habe, statische Szenen offenbar mit wenig Alpha-Blending sind.

Mr. Lolman
2007-03-18, 16:00:43
Den Text muss man leider auch lesen. Tatsächlich ist in unseren Reviews nur die 16bit Qualität von 4xAA wirklich repräsentativ, da bei 2xAA im RAMDAC ein Postfilter eingesetzt wird, der aber auf Screenshots nicht sichtbar ist, da bei denen nur den Framebuffer ausgelesen wird.

Außerdem ist 3dfx' Dithering optimal. Eigentlich ists ein 2x2 Pattern und interessanterweise setzen das heutzutage auch alle besseren Bildbearbeitungsprogramme ein, da ein solcherart Pattern wohl noch am ehesten der menschlichen Wahrnehmung entgeht. Dann kam wie gesagt noch ein 2x2 Box Filter drüber, der aus diesem 2x2 Patteren jew. den Mittelwert errechnet (nach irgendwelchen Grenzwerten), was das Dithering, abermals verminderte.

Um das überhaupt auf Screenshots zu bekommen, braucht man HypersnapDX, welches aber bei 2xAA ein Banding darstellt, was tatsächlich Ingame aber nicht zu sehen ist. Steht aber eh alles im Review.

Hier ein Voodoo5 5500 PCI Q3A Screenshot (1024x768x16, 2xAA):

http://666kb.com/i/akca9rlvbdb1paxpy.jpg

Mr. Lolman
2007-03-18, 16:20:57
Verlink doch bitte mal einen oder zwei direkt, auf denen man die Überlegenheit des 3dfxschen Postfilters (blödes Wort für einen Blurrer) sieht.

Nach ca. 80 Klicks im Artikel fiel mir irgendwie auf, dass alles, was ich bisher gesehen habe, statische Szenen offenbar mit wenig Alpha-Blending sind.

Ja wie willst du denn dynamische Szenen bitte vergleichbar hinbekommen? Auch der Rauch von der UT2004 Szene ist schon arg grenzwertig, da jedesmal unterschiedlich. Aber man sieht auf den NVidia 4xAA Screenshots spätestens in Vergrößerung überall deutliches Dithering, wo bei 3dfx überhaupt keins zu sehen ist. zB gleich im 1. getestetem Spiel (gelber Hintergrund):

http://3dcenter.de/artikel/voodoo5-6000/DS2_GF2-4x-2x-16bit.php
http://3dcenter.de/artikel/voodoo5-6000/DS2_VSA100-4x-16bit.php

oder im 2. (Himmel)

http://3dcenter.de/artikel/voodoo5-6000/FAKK2_GF2-4x-2x-16bit.php
http://3dcenter.de/artikel/voodoo5-6000/FAKK2_VSA100-4x-16bit.php

beim 2xAA sieht man auch ohne Vergrößerung und Postfilter, dass 3dfx eindeutig besser ist (auch wenn die Kantenwahl in dem Screenshot NV sehr zugute kommt, da quasi keine horizontalen Kanten zu sehen sind, und deswegen NVs 2xAA kaum schlechter als das von 3dfx aussieht:

http://3dcenter.de/artikel/voodoo5-6000/FAKK2_GF2-2x-2x-16bit.php
http://3dcenter.de/artikel/voodoo5-6000/FAKK2_VSA100-2x-16bit.php

usw. usf....

Gast
2007-03-18, 16:28:36
Den Text muss man leider auch lesen. Tatsächlich ist in unseren Reviews nur die 16bit Qualität von 4xAA wirklich repräsentativ, da bei 2xAA im RAMDAC ein Postfilter eingesetzt wird, der aber auf Screenshots nicht sichtbar ist, da bei denen nur den Framebuffer ausgelesen wird.

Außerdem ist 3dfx' Dithering optimal. Eigentlich ists ein 2x2 Pattern und interessanterweise setzen das heutzutage auch alle besseren Bildbearbeitungsprogramme ein, da ein solcherart Pattern wohl noch am ehesten der menschlichen Wahrnehmung entgeht. Dann kam wie gesagt noch ein 2x2 Box Filter drüber, der aus diesem 2x2 Patteren jew. den Mittelwert errechnet (nach irgendwelchen Grenzwerten), was das Dithering, abermals verminderte.

Um das überhaupt auf Screenshots zu bekommen, braucht man HypersnapDX, welches aber bei 2xAA ein Banding darstellt, was tatsächlich Ingame aber nicht zu sehen ist. Steht aber eh alles im Review.

Hier ein Voodoo5 5500 PCI Q3A Screenshot (1024x768x16, 2xAA):

http://666kb.com/i/akca9rlvbdb1paxpy.jpg
Na, und welche soll ich da jetzt vergleichen?

Mal so, mal so - keine Ordnung drin. Den einzige Shot, der ein bißchen ordentliche Alpha-Überlagerungen zeigt, bietet ihr ja leider nur in 2xAA an - wieso eigentlich? (UT04)

Mr. Lolman
2007-03-18, 16:30:50
Na, und welche soll ich da jetzt vergleichen?

Das nur nur ein Beispiel dafür, dass Q3a auf Voodoos in 16bit durchaus brauchbar aussah.


Mal so, mal so - keine Ordnung drin. Den einzige Shot, der ein bißchen ordentliche Alpha-Überlagerungen zeigt, bietet ihr ja leider nur in 2xAA an - wieso eigentlich? (UT04)

Weil wir auch nur 2xAA gebencht haben.

Gast
2007-03-18, 16:55:10
Ja wie willst du denn dynamische Szenen bitte vergleichbar hinbekommen? Auch der Rauch von der UT2004 Szene ist schon arg grenzwertig, da jedesmal unterschiedlich.
Dass die Rauchentwicklung exakt an derselben Stelle gecaptured wird, wird nicht verlangt. Aber allgemein Rauch, Blending, Explosionen etc. sind schon vergleichbar, wenn's beim einen Pixelt und beim Anderen nicht.

QUOTE=Mr. Lolman;5335731]Aber man sieht auf den NVidia 4xAA Screenshots spätestens in Vergrößerung überall deutliches Dithering, wo bei 3dfx überhaupt keins zu sehen ist. zB gleich im 1. getestetem Spiel (gelber Hintergrund):

http://3dcenter.de/artikel/voodoo5-6000/DS2_GF2-4x-2x-16bit.php
http://3dcenter.de/artikel/voodoo5-6000/DS2_VSA100-4x-16bit.php[/quote]
Soll ich jetzt lachen oder weinen:
X-D Da wurden sogar starke Vergrösserungen benutzt um den Unterschied zwischen 16 und 32-Bit zu zeigen. Nur ... wer spielt mit künstlicher Vergrösserung?

Ihr biegt es euch zurecht, wie's gerade passt. Aber sei's drum. Für solche Fälle gibt's ja echtes 32-Bit. Hier nochmal der Vergleich zum Postfilter (ja, inkl. Vergrößerung, wie gewünscht...):
http://666kb.com/i/amqerci2en4fh561m.png





Dungeon Siege 2 Zwischensequenz
GF2 GTS 800x600x32; 2xAA: 35,3
Voodoo5 5500 800x600x16, 2xAA: 24,2
Wo sind denn die Benchmarks mit 4xAA und 16 Bit?



oder im 2. (Himmel)

http://3dcenter.de/artikel/voodoo5-6000/FAKK2_GF2-4x-2x-16bit.php
http://3dcenter.de/artikel/voodoo5-6000/FAKK2_VSA100-4x-16bit.php
Auch ohne Vergrößerung?



beim 2xAA sieht man auch ohne Vergrößerung und Postfilter, dass 3dfx eindeutig besser ist (auch wenn die Kantenwahl in dem Screenshot NV sehr zugute kommt, da quasi keine horizontalen Kanten zu sehen sind, und deswegen NVs 2xAA kaum schlechter als das von 3dfx aussieht:

http://3dcenter.de/artikel/voodoo5-6000/FAKK2_GF2-2x-2x-16bit.php
http://3dcenter.de/artikel/voodoo5-6000/FAKK2_VSA100-2x-16bit.php

usw. usf....
Ums AA geht's hier nicht... Sonst kannst du genauso anfangen, das fehlende AF (nein, gesenktes LOD ist kein Ersatz) zu bemängeln.

Gast
2007-03-18, 16:55:49
Weil wir auch nur 2xAA gebencht haben.
Hat euch sonst (DS2) auch nicht abgehalten...

Raff
2007-03-18, 17:04:06
Ich sehe eine weitere Teilung eines Threads ...

Deine Vergößerung ist leider interpoliert, also verfälscht. Was willst du damit eigentlich sagen? Dass 32 Bit hübscher ist? Soll ja mal vorkommen, vor allem in einem recht neuen Spiel ... :|

Hat euch sonst (DS2) auch nicht abgehalten...

DS2 ist mit 4x AA spielbar, bei UT2004 sieht man damit aber bei keiner getesteten Karte Land.

MfG,
Raff

Mr. Lolman
2007-03-18, 17:17:51
Auch ohne Vergrößerung?


Auf nem guten Monitor schon. BTW: Deine Vergrößerung ist eine Frechheit. Wenn du dir schon anmasst ein objektives Urteil über Darstellungsqualität abgeben zu wollen solltest du zumindest auch Kenntnisse der Grundregeln des BQ Vergleichs haben. UNd da ist eine Vergrößerung mit bikubischen/bilinearem Filter ein absolutes Tabu. Das wüsste man eigentlich auch, wenn man die 3DC Artikel lesen würde!

Den Vorwurf einer selektiven Darstellung musst eher du dir gefallen lassen. wir haben extra von jedem getestetem Spiel eine möglichst vergleichbare Szene gewählt und nicht und wie andere Tester auf 1 bis 2 willkürliche (und dabei zT beschissen komprimierte und skalierte) Vergleiche konzentriert.
Damit man das sieht muss der Monitor natürlich auch halbwegs was heissen.

Natürlich hat man bei DS2 dank der besseren Speed auf GF2 KArten auch auch die Möglichkeit zu 32bit. Aber dann kann man auch gleich 4xAA aktivieren, damit die Kanten so gut wie mit 2xAA aussehen. Schade dass das Raff nicht mitgetestet hat, aber andererseits, war das auch schon so ein derber Aufwand. Und der war die einzige Limitation in der Settingsauswahl des Reviews.

Hier noch ein 16bit Vergleich in DS2. (denn eigentlich wurde ja behauptet, dass NVs 16bit besser aussehe als 3dfx 16bit):

http://666kb.com/i/amqfc9otwzi0upqtf.gif

Gast
2007-03-18, 17:30:45
Deine Vergößerung ist leider interpoliert, also verfälscht. Was willst du damit eigentlich sagen? Dass 32 Bit hübscher ist? Soll ja mal vorkommen, vor allem in einem recht neuen Spiel ... :|
Kann auch gern nochmal den 100%-Ausschnitt nachschieben - ist aber nur per Paint um 300% vergrößert...

Was ich damit sagen will? Bilde sich jeder selbst eine Meinung, anstatt es sich von wem anders vorkauen zu lassen.



DS2 ist mit 4x AA spielbar, bei UT2004 sieht man damit aber bei keiner getesteten Karte Land.

Warum ist es dann nicht mitgebencht? Ich sehe da unverständlicherweise nur 800x600 mit 2xAA. :(

Gast
2007-03-18, 17:31:57
Auf nem guten Monitor schon. BTW: Deine Vergrößerung ist eine Frechheit. Wenn du dir schon anmasst ein objektives Urteil über Darstellungsqualität abgeben zu wollen[..]
Ab hier höre ich mal auf zu lesen. Erstens ist es wenn, dann möglicherweise eine Frechheit in deinen Augen, zweitens maße ich mir überhaupt nichts an, schon gar nicht Objektivität.

Gast
2007-03-18, 17:38:58
Sodele, hier habt ihr dasselbe nochmal ohne Vergrößerung. Das Banding bleibt dasselbe...

http://666kb.com/i/amqfuphvct5fa0q8q.bmp


Was ich damit sagen will? Ein Postfilter kann keine echten 32 Bit ersetzen.

minos5000
2007-03-18, 17:45:35
Sodele, hier habt ihr dasselbe nochmal ohne Vergrößerung. Das Banding bleibt dasselbe...

http://666kb.com/i/amqfuphvct5fa0q8q.bmp


Was ich damit sagen will? Ein Postfilter kann keine echten 32 Bit ersetzen.
Es ging ja auch nie darum 32bit zu ersetzten sondern daß 16bit von 3dfx besser aussieht als auf anderen Karten.

Raff
2007-03-18, 17:46:41
Pauschalisierungen anhand eines Bildes bringen uns auch nicht weiter. Schau dir die Shots der damaligen Spiele und UT2004 an, da bringt der Filter sehr wohl was. Und er kostet auch nach der x-ten Verleugnung seiner Qualitäten bei Weitem weniger als 32 Bit ...

MfG,
Raff

Gast
2007-03-18, 17:51:46
Es ging ja auch nie darum 32bit zu ersetzten sondern daß 16bit von 3dfx besser aussieht als auf anderen Karten.
Nö, aber es wird von vielen Fanboys als Entschuldigung hergenommen, dass 3dfx erst mit großer Verspätung auf 32 Bit Rendering setzte. Und das lasse ich so nicht gelten.

Für mich war der Postfilter immer eine nette Sache, wenn - besonders ältere und Glide-Games - kein 32 Bit anboten.

Mr. Lolman
2007-03-18, 17:52:53
Es ging ja auch nie darum 32bit zu ersetzten sondern daß 16bit von 3dfx besser aussieht als auf anderen Karten.

1. das und 2. ist beim 4xAA auch gar kein Postfilter mehr aktiv. 4xAA 16bit enstspricht somit 'echtem' 22bit. Außerdem kommt bei "32"bit Screenshots tatsächlich ein 24bit RGB Farbraum zum Einsatz. D.h. bei 4xAA stehts eigentlich 22bit vs. 24bit und nicht 16bit vs. 32bit. Das 24bit immernoch besser als 22bit ist, ist auch logisch. Aber die BQ-Unterschiede sind oft denkbar geing bis optisch nicht vorhanden. Zumindest ist 3dfx 4xAA 22bit NVs 4xAA 32bit ähnlicher als dem 16bit...

Mr. Lolman
2007-03-18, 18:03:55
Nö, aber es wird von vielen Fanboys als Entschuldigung hergenommen, dass 3dfx erst mit großer Verspätung auf 32 Bit Rendering setzte. Und das lasse ich so nicht gelten.

Für mich war der Postfilter immer eine nette Sache, wenn - besonders ältere und Glide-Games - kein 32 Bit anboten.

Es war damals von Performancehinsicht einfach nicht sinnvoll. Siehst ja selbst wie gering die Unterschiede zb 3dfx 22bit und NV 24bit in einem Spiel von 2005 sind. Und die Benchmarks zeigen klar, dass 24(32)bit auf damaliger HW noch nen deutlichen Einbruch verursacht haben.

Aber du sprichst ja eher von Voodoo Banshee und Voodoo3. Auf damaliger HW (TNT2) war der 32bit Einbruch noch größer, und das Texturblending im Gegentzg weitaus weniger stark ausgeprägt. Tatsächlich wars ja Q3a, dass erstmals den Vorteil von 32bit zeigen konnte. Und das sah aber auf Voodoos trotzdem mit 16bit auch noch sehr gut aus (wie ich oben bereits gezeigt hab)

StefanV
2007-03-18, 18:10:43
Nö, aber es wird von vielen Fanboys als Entschuldigung hergenommen, dass 3dfx erst mit großer Verspätung auf 32 Bit Rendering setzte. Und das lasse ich so nicht gelten.

Für mich war der Postfilter immer eine nette Sache, wenn - besonders ältere und Glide-Games - kein 32 Bit anboten.
Nein, die 3DFX Fans haben in diesem Punkt wirklich recht, 32bit war erst ab der Geforce nutzbar, auf nVidia Hardware.
Ansonsten war der Performanceimpact bei den alten nVidia Chips verdammt übel.


Bei Matrox, S3 und ATI schaute es damals schon anders aus, die waren um einiges schneller in 32bit als es nV damals war, oder andersrum waren sie im 16bit Mode nicht soo gut.

Gast
2007-03-18, 18:24:31
nVidia
Nvidia ist mir da mal völlig latte. Hatte 'ne G400 MAX zu dem Zeitpunkt und hätte 32 Bit nicht missen möchten,.

Gast
2007-03-18, 23:13:38
Hmm was hat das 22-Bit/32-Bit Farbtiefe Bashing hier verloren... Ist wie die AA Sample Position Geschichte, Hauptsache nen Thread gesprengt wa ^^

OnTopic: Auf den Spuren von 3DFx sicher nicht, aber genau die selbe Geschichte wie beim R520-R580 spielt sich hier wieder ab. Der Refresh wird so schnell kommen das man die 1. Generation R600 eigentlich gar nicht verfügbar machen muss. Wenn die Vorstellung sich auf Mai verschiebt, ist Juni-July Massenverfügbarkeit angesagt, und im ~Oktober sollte der 65nm R600 mit G90 Rdy fürs Whynachtsgeschäft sein.

Mr. Lolman
2007-03-19, 10:38:37
Nvidia ist mir da mal völlig latte. Hatte 'ne G400 MAX zu dem Zeitpunkt und hätte 32 Bit nicht missen möchten,.

Die hatte bestenfalls Voodoo3 3000 Geschwindigkeit (in OpenGL eher weniger) und war sauteuer. Selbst das niedriger getaktete, günstigere Modell "G400 32MB/DH" war schon doppelt so teuer wie ne Voodoo3 3000.