PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Erfahrung mit TI4600 (Asus) gesammelt (mein persönliches Fazit als GF3-User)


Kai
2002-04-29, 19:16:07
Okay,

Ich hab mir mal die neue Asus Ti4600 von meinem Kumpel für ein paar Stündchen geborgt.

Wie vielleicht einige wissen benutze ich normalerweise eine gemoddete LeadTek GF3 (@ 240/540). Mich hat einfach mal interessiert ob es sich lohnen könnte doch eine TI4600 zu holen, wenn man bereits Besitzer einer GF3 ist.

Dabei habe ich keinen 3DMurks angeschmissen, keinen Templemark und auch keinen GLMark. Also überhaupt nicht gebencht. Ich habe einfach die Spiele getestet, die ich sowieso immer spiele und die ich in Zukunft wohl spielen werde. Darunter:

Quake 3 Arena
Unreal Tournament
Medal of Honor
Jedi Knight 2
Tribes2
AVP2
Soldier of Fortune 2 (beta Testweise)
Unreal2 (alpha Testweise)
Star Trek: Bridgecommander

Zu meinen Ergebnissen:

Quake 3: Lässt sich zwar mit meiner GF3 auch problemlos mit Features wie 2X Aniso (meine Standardeinstellungen übrigens) auf 1280x1024 spielen, aber die GF4 hatte da fast ein Plus von 20 fps.

Unreal Tournament:

Wie zu erwarten war, hat sich bei UT überhaupt nix verändert, da wirklich sehr CPU limitiert. Ich hatte vielleicht 2 fps mehr mit der GF4.

Medal of Honor:

Worst Case Szenario Wald: Auch hier hat sich wenig getan - zu gross ist da einfach die CPU Limitierung. 7 fps mehr als die GF3 - mehr war nicht drin.

Jedi Knight 2:

Komischerweise war hier immernoch ein wenig Luft, obwohl wiedermal Q3A-Engine. Fast 20 fps mehr gegenüber der GF3

AVP 2:

Da Aliens vs. Predator 2 generell CPU und RAM limitiert ist, waren die 4 fps Plus für die GF4 nicht wirklich ne Überraschung für mich.

Tribes 2:

Hui, endlich mal Tribes2 in 1600x1200 flüssig zocken ;) Die GF3 hatte hier ca. 28 fps outdoor, 45 fps indoor. Die GF4 tritt mit 42 outdoor und 79 indoor an. Alles natürlich in Worst Case Szenarios, also wenn das Plasma nur so rauscht ;)

Soldier of Fortune 2:

Kaum Veränderung gegenüber der GF3. SOF2 unterstützt zwar super high-res Texturen, jedoch gab es in den FPS absolut keinen Unterschied zur mit 64 MB bestückten GF3. Die Designer sind wohl sparsam mit den Texturen umgegangen (immerhin ist das Game in fast 90 Maps aufgeteilt !) Dennoch: Die Performance in der Beta ist generell nicht sooo prall. Vor allem wenn man sich Alpha-Texturen betrachtet geht der Rechner gerne mal in die Knie (ein Grund mehr die Fensterscheiben gleich kaputtzuschiessen ;)). Das war bei der GF4 genauso wie bei der GF3.

Unreal Alpha:

Knapp 15 fps mehr für die GF4 - aber das schiebe ich dem Status dieser Techdemo die ja für die E3 gemacht wurde in die Schuhe. Da kann man die GF4 wirklich nicht für blamen ;)

Bridgecommander :

Auch hier knickte die Performance bei mehr als 15 Raumschiffen überraschenderweise richtig ein. Generell kann man der GF4 gegenüber der GF3 aber ca. 18-20 fps Plus einräumen.


Jo, das war's soweit. Wie gesagt, alle Games wurden in 1280x1024 mit 2X Aniso gezockt. Sicher hat die GF4 hier noch mehr Potential zu bieten. Will sagen, ich habe die Karte wohl ziemlich unterfordert (ohne FSAA und 4X Aniso gezockt, etc.) - aber das sind meine persönlich favorisierten Einstellungen und dies soll ja auch kein Test für die Masse sein.

Mein persönliches Fazit:
Solide Investition für Umsteiger älterer Hardware, keine Frage - aber ich für meinen Teil warte erstmal ab was noch so auf den Markt kommt, bevor ich umsteige. Das bisschen Mehrleistung ist IMO meine damals ausgegebenen 400 € für die GF3 nicht Wert.

Damit will ich auch nicht gleich sagen das ich mir sofort den NV30 krallen werde. Es gibt durchaus andere Firmen die in der Lage sind mir den Mund wässrig zu machen ;) Nur ist nVidia da momentan noch immer vorne, hehe.

Dusauber
2002-04-29, 21:16:56
Hi,
ich habe die GeForce3 von Gainward, und will die auch noch länger benutzen! Wie ich sehe hast Du die mit 240/540 übertaktet. Wie hast Du denn die Kühlung der Karte verbessert?

>Notizen wärend dem betrachten Deiner Bildergallerie: "Ich sehe da nur 2 fette Lüfter! :D Ah, da ist hinten, unten ein Gehäuselüfter, der bläst wohl Luft rein!? Sind das original Passiv-Kühler auf dem Speicher?"

Und wie hast Du den XP übertaktet? So wie ich, den FSB höhergesetzt? Denn dann wird der AGP-Bus ja auch, und damit die GraKa zusätzlich, übertaktet! Oder hast Du nur den Multi verändert?

Kai
2002-04-29, 23:24:58
Originally posted by Dusauber
"Ich sehe da nur 2 fette Lüfter! :D Ah, da ist hinten, unten ein Gehäuselüfter, der bläst wohl Luft rein!? Sind das original Passiv-Kühler auf dem Speicher?"

Nope.

Die beiden Lüfter kühlen nur die Speicherrippen der Karte, welche ich selbst ersetzt habe. Das sind die Speicherkühler aus dem Thermaltake Memory-cooling Set. Der aktive Lüfter auf der GPU wurde ersetzt durch einen CUV1AB, welchen ich ans Mobo angeschlossen habe.

Edit: Das kann man hier sehr gut sehn:
http://www.jf-clan.de/rig/pics/case/inshots/geforce3_full.jpg

Originally posted by Dusauber
Und wie hast Du den XP übertaktet? So wie ich, den FSB höhergesetzt? Denn dann wird der AGP-Bus ja auch, und damit die GraKa zusätzlich, übertaktet! Oder hast Du nur den Multi verändert?

Momentan habe ich meinen XP nur moderat übertaktet. Die Angaben auf der HP stimmen nicht mehr ganz. Der XP läuft jetzt auf 140 Mhz FSB. So wird's auch bleiben, bis ich ihn demnächst ge'unlocke'd habe. Dann werde ich ihn noch zusätzlich über den Multiplikator auf 2000+ bringen.

Piffan
2002-04-29, 23:34:48
Was sagt uns also Dein Test: Kaum ein Unterschied, wenn man die Karte nicht ausreizt.

Wenn man aber ans Eingemachte geht, also die Karte fordert, dann kann man sich ein hohes Niveau bei FSAA und AF gönnen.

Da und nur da liegt derzeit der Nutzen der G4, sie bietet nicht mehr Features als die G3 und sie ist auch nicht schneller, schließlich kann ich die CPU/Speicherleistung nicht durch Füllrate ersetzen...

Nicht unbedingt schneller, aber schöneres Bild dank Leistungsüberschuß...

Wenn dann aber mal echte DX8- Games kommen, die von der Kraft der zwei Herzen profitieren, dann zeigt sich ein weiterer Nutzen der G4.

Obwohl ich wieder jiepere, werde ich diesmal die Spiele abwarten und bei Leistungsproblemen aufrüsten, aber nur dann...

Kai
2002-04-30, 01:00:19
Originally posted by Piffan

Obwohl ich wieder jiepere, werde ich diesmal die Spiele abwarten und bei Leistungsproblemen aufrüsten, aber nur dann...

*Zustimm*

aths
2002-04-30, 01:07:02
Kai,

eine GF4Ti ist kaum dazu gedacht, ohne FSAA zu spielen. Die Ti4600 bringt mit 2x FSAA in der Regel mehr Leistung, als eine GF3Ti500 ohne FSAA. Das ist in meinen Augen auch der Grund für die GF4: Volle Qualität. Schnelle Karten gibts schon länger.

Edit: Hm, so wie die GF2 für echte DX7-Titel doch deutlich besser geeignet ist als die GF1, scheint die GF4 für echte DX8-Titel spürbar besser gewappnet zu sein, als die GF3. (Diese Annahme ist u.U. durch Vergleiche beim CodeCreature-Benchmark enstanden.)

Kai
2002-04-30, 03:28:02
IMO ist aber schon fast klar, das die Power der GF4 für die Titel, welche die von der GF4/3 unterstützten Techniken auch ausreizen wieder zu langsam ist.

Ich meine, das war doch auch schon mit der GF2 so. Als deren Features mal alle ausgereizt waren, brauchte man eine Geforce3 um die Spiele auch schön daddeln zu können.

chicki
2002-04-30, 11:33:41
hui ein tribes 2 spieler hier???
Tribes 2 ist wirklich der Hardwarefresser schlecht hin... sowohl cpu als auch GraKa. Als ich von meiner GF2 MXC erster Stunde auf ne Ti200 umgestiegen bin hab ich gedacht, dass müsste reichen um in 1024*768 32bit zu zocken - pustekuchen auf beggars outdoor wenn nichts los ist 100 fps, an der base mit viel action 7 :O. Naja jetzt hab ich erstmal die Texturen auf komprimiert (fastest) und 16bit, sowie die interrior details, building texture details und terrain details auf 75 % da läuft es halbwegsflüssig.
Ich hoffe mal mit ner neuen CPU rennt es dann richtig.
BTW es gibt das Spiel für 9 € zukaufen und n benchmark script frei im netz, imo der anspruchsvollste benchmark ever :)
@kai verrat mal deinen Inagme nick :D
mfg
eLD.J!6enX is g___

Kai
2002-04-30, 11:49:15
Mein Ingame Nick ist "7even". Freilich ohne Anführungsstriche ;)

Beggars Run kann ich mit meinem XP1800+ saugut daddeln. Auch Riverdance (Du weisst schon - oben auf dem Sniperhill runter ins Tal glotzen) - absolut fast - und ich spiele auf 1280x1024. Ich würde ja auf 1152x864 zocken (ca. 10 fps mehr), aber da hat T2 Darstellungsfehler :(

aths
2002-04-30, 15:33:18
Kai,

ich würde dir zustimmen, wenn du zusätzliche Bildverbesserungen mit ins Spiel bringst. Mit der GF3 kann man DX7-Games kaum sinnvoll schneller spielen als mit einer GTS. (>85 fps = Unsinn, >60 fps = fragwürdig.) Man kann mit der GF3 bekannterweise deutlich schöner spielen. Durch diesen Nebeneffekt zahlte sich der Kauf wohl viel mehr aus als durch die paar neuen Techdemos. (Oder würdest du das anders sehen?)

Die GF4 Ti4600 hat ggü. der GF3 Ti500 größenordnungsmäßig ca. 50% mehr Rohpower, was (meiner Theorie nach) für "echte" DX8-Titel ausreichen sollte - sagen wir @1024x768, 2x AA, 2x AF. Um nun 8x FSAA und andere Goodies zu nutzen, reicht die Power natürlich nicht. (8x FSAA wäre mit der GF4 treibertechnisch sofort machbar.)

Kai
2002-04-30, 20:00:17
Ich lasse mich bezüglich "echter DX8-Titel" absolut nicht auf Spekulationen ein aths.

Das werden wir sehen wenn die Spiele da sind.

Razor
2002-04-30, 20:28:44
@athsEdit: Hm, so wie die GF2 für echte DX7-Titel doch deutlich besser geeignet ist als die GF1, scheint die GF4 für echte DX8-Titel spürbar besser gewappnet zu sein, als die GF3. (Diese Annahme ist u.U. durch Vergleiche beim CodeCreature-Benchmark enstanden.)
Eben nicht !

Wenn man auf Features ala FSAA und AF (natürlich auch DX8 ;-) verzichtet hat, dann war auch eine gfddr noch absolut ausreichend, ist aber so anfang letzten Jahres (da gabs die gf2 schon laaaaange) vereinzelt an ihre Grenzen gestoßen, was mich auch dazu führte, mir über eine Neuanschaffung Gedanken zu machen. Als dann noch Features ala AF und AA dazu kamen, stand für mich die Entscheidung fest und kaufte mir die gf3, die ich nun seit einem Jahr besitze. Allein durch die Nutzungszeit hat sie sich schon bezahlt gemacht, vor allem wenn man bedenkt, daß sie wohl noch mindestens 6 Monate durchhalten wird. Sie ist zwar nicht mehr High-End, aber immer noch UpToDate. Was man vermutlich von einer gf4ti in 6-9 Monaten nicht mehr sagen kann...

Selbst bei dem CodeCreature-Bench ist die gf4ti zwar fast doppelt so schnell (im vergleich zur gf3), aber immer noch viel zu langsam. Insofern kann ich Kai nur in seiner Vermutung recht geben, daß bei exessiven DX8'ern die gf4 eher am unteren Ende agieren wird (wie heute die gf2).

Das bedeutet allerdings auch, daß die gf4ti sicher noch mindestens 6-9 Monate aktuell bleiben wird, bis sie dann durch etwas 'sehr Anderes' ersetzt werden wird.

@Kai
IMO ist aber schon fast klar, das die Power der GF4 für die Titel, welche die von der GF4/3 unterstützten Techniken auch ausreizen wieder zu langsam ist.

Ich meine, das war doch auch schon mit der GF2 so. Als deren Features mal alle ausgereizt waren, brauchte man eine Geforce3 um die Spiele auch schön daddeln zu können.
Seh' ich 100%'ig genauso !
Ich lasse mich bezüglich "echter DX8-Titel" absolut nicht auf Spekulationen ein aths.

Das werden wir sehen wenn die Spiele da sind.
Und genau das ist es, was viele außer acht lassen !
Es gibt noch nicht ein einziges 'richtiges' DX8-Game...
Ja nicht mal einen vernünftigen Ausblick darauf (alles deutet auf Ende diesen Jahres).

Solche Aussagen, von wegen "DX8-tauglich" und so, würde ich heute (!) nicht treffen !

Und ich bin echt gespannt, was da so von nVidia (und den anderen ;-) kommt...
Kirk David hat ja zum Herbst 2002 und (!) zum Frühling 2003 etwas 'Neues' angekündigt !
:D

@chicki

Tribes 2 ist heftigst CPU-limitiert !
'Ne gf4ti nützt Dir da ohne neuen Prozzi überhaupt nichts...

In diesem Sinne

Razor

Dusauber
2002-04-30, 22:14:35
Hallo,
ich noch mal. :jump1:
Sorry, mein Posting hat zwar nicht direkt was mit Euerer Diskution zu tun, sondern interessiere mich mehr dafür mein System mit der GF3 optimal zu übertakten. Tja, und da Kai nun mal eine gut übertaktete GF3 hat, und dazu noch einen XP, möcht ich am Ball bleiben! :)
Die beiden Lüfter kühlen nur die Speicherrippen der Karte, welche ich selbst ersetzt habe.Was heißt ersetzt? Die sind wohl von Dir so eingebaut!? Das sind die Speicherkühler aus dem Thermaltake Memory-cooling Set.und wie haste die alten Kühlkörper abgemacht? Der aktive Lüfter auf der GPU wurde ersetzt durch einen CUV1AB, welchen ich ans Mobo angeschlossen habe.Hm, den kenne ich nicht! Der sieht aber wie ein Original-Lüfter aus!?Momentan habe ich meinen XP nur moderat übertaktet. Die Angaben auf der HP stimmen nicht mehr ganz. Der XP läuft jetzt auf 140 Mhz FSB. So wird's auch bleiben, bis ich ihn demnächst ge'unlocke'd habe.Hm, FSB140 mit 240/540 und das stabil!
Ich fahre z.Z. einen FSB von 150MHz, und wollte meine GF3 mal von @220MHz auf 225MHz übertakten. Hatte aber direkt einen Hänger mit 3DMark2002SE! :( Werde dann doch den FSB wieder was runtersetzen. Denn eine höher übertaktbare Graka wäre mir lieber!Dann werde ich ihn noch zusätzlich über den Multiplikator auf 2000+ bringen.Ja, das mit dem Multi mache ich auch noch!
Aber wie sieht es mit Deinen Temps aus? Die CPU-Temp wird mit einem höherem Multi und Vcore wohl noch einiges wärmer!
Ist Dein PC laut?
Was mich noch interessieren würde, wieviel Punkte hast Du mit 3DMark2001SE?

Kai
2002-04-30, 23:13:05
Originally posted by Dusauber
Was heißt ersetzt? Die sind wohl von Dir so eingebaut!?

Siehe Frage 2:

Originally posted by Dusauber
und wie haste die alten Kühlkörper abgemacht?

Abgerissen ;) Tat zwar weh, aber die LeadTek Kühler waren nicht wirklich sonderlich fest drauf. Die neuen habe ich dann mit Sekundenkleber an den Ecken festgeklebt. Natürlich schön WLP auf die Chips.

Originally posted by Dusauber
Hm, den kenne ich nicht! Der sieht aber wie ein Original-Lüfter aus!?

Naja, ganz und gar nicht wie der Originallüfter der LeadTek GF3. Aber ja, das ist schon ein GraKa-Kühler - lediglich leistungsstärker und so wie sich's gehört aus Kupfer, nicht aus Alu.

Originally posted by Dusauber
Hm, FSB140 mit 240/540 und das stabil!


Naja, meine Graka läuft generell stabil auf 240/540. Sogar auf 245/545 - aber da ist bei meinen generell nicht soo hohen Auflösungen wenig Mehrleistung rauszuholen - und man muss die Karte ja generell nicht überstressen. Meinen FSB musste ich auf 140 runtersetzen, weil ich jetzt zwei Apacer-Module einsetze. Mit einem kann ich gnadenlos bis 155 Mhz takten, mit zweien geht's leider nicht mehr. Naja, solange ich irgendwann den Multi hebeln kann isses mir egal.

Originally posted by Dusauber
Aber wie sieht es mit Deinen Temps aus? Die CPU-Temp wird mit einem höherem Multi und Vcore wohl noch einiges wärmer!


Idle: 40 - 43°
Vollast: 50 - 52°

Originally posted by Dusauber

Ist Dein PC laut?


Nicht wirklich. Ich habe zwar ne Menge Lüfter drin und ne eigens gemoddete Abwärmtechnik (Warme Luft wird vom Prozessor direkt über eine Plastikröhre nach draussen gesogen) am laufen, aber da mein PC in einem kleinen Einbauschrank unter meinem Schreibtisch steht, höre ich ihn so gut wie gar nicht. Das lauteste gerade ist mein Monitor. Hinten am Einbauschrank ist natürlich offen damit die Luft raus kann, aber das höre ich kaum. Säuselt ein wenig.

Originally posted by Dusauber
Was mich noch interessieren würde, wieviel Punkte hast Du mit 3DMark2001SE?

Ui, schon lange nicht mehr getestet. Aber mit 145er FSB, GF3 @ 240/540 und 3DMark2001 Standardeinstellungen ca. 8600 Marks. Dazu muss ich aber sagen das ich ein eigenes Spiele-Betriebssystem habe. Da läuft nix im Hintergrund, da werden keine unnötigen Treiber geladen, kein Hintergrundbild, generell alles getuned bis zum abwinken.

aths
2002-04-30, 23:17:36
Razor: Die Zeit wird es zeigen. Ich glaube jedenfalls nicht, dass die Leute plötzlich ihre Graka schneller wechseln als vor 1-2 Jahren.

Dusauber
2002-05-01, 00:27:06
Jo danke,

quote:
--------------------------------------------------------------------------------
Originally posted by Dusauber
Was heißt ersetzt? Die sind wohl von Dir so eingebaut!?
--------------------------------------------------------------------------------



Siehe Frage 2:Ups.., da war ein Mißverständnis! Du meintest die Speicherkühler und ich die fetten GraKalüfter! :DNaja, ganz und gar nicht wie der Originallüfter der LeadTek GF3. Aber ja, das ist schon ein GraKa-Kühler - lediglich leistungsstärker und so wie sich's gehört aus Kupfer, nicht aus Alu.Und wo gibt es den?

Razor
2002-05-01, 08:12:42
Originally posted by aths
Razor: Die Zeit wird es zeigen. Ich glaube jedenfalls nicht, dass die Leute plötzlich ihre Graka schneller wechseln als vor 1-2 Jahren.
Klar wird's die Zeit zeigen...

Aber im Prinzip hatten wir das Ganze schon einmal mit dem Wechsel von gfddr auf gf2 und dann mit dem Erscheien der gf3. Für nVidia war das ein sehr einträgliches Geschäft, allerdings fand ich es absolut nicht OK, wie die gf2ultra-Käufer damals abgezockt wurden, denn diese Karte war dann gerade mal 6 Monate aktuell.

Und selbiges vermute ich zur Zeit bei der gf4ti4600...

Sicher, sie ist schneller als alles was zur Zeit am Markt ist und bietet dabei auch noch das, was die Leute wollen: Leistung satt bei DX7-Titeln und einen Satz adaptiver Features ala AA/AF, die in Punkto Leistung heute (!) kaum Wünsche offen lassen.

Aber das war damals bei der gf2ultra ähnlich...

Wie schon gesagt: Die Zeit wird's zeigen !
Würde mich aber sehr wundern, wenn ich mich da irren würde...

Bis denne

Razor

mirp
2002-05-01, 08:52:07
Razor, Du siehst das ganze zu technikbezogen. Sicher veralten Grafikkarten technologisch sehr schnell. Und wenn die neue Generation nicht nur schneller, sondern auch viele neue Funktionen bietet, wohl besonders schnell.

Aber das hat doch für den normalen Benutzer kaum Relevanz. Dem geht es doch darum zu spielen und nicht darum immer aktuelle Hardware im Rechner zu haben. Mit einer GF2 Ultra kann man doch heute noch alles spielen. Die Spiele die eine GF3 wirklich gut ausnutzten stehen erst kurz vor dem Release und sind auch noch nicht so zahlreich gesäht.

Um ihre Produkte zu verkaufen, entwickeln Spielehersteller für die Hardware der potentiellen Kunden und nicht für zukünftige Technologien.

Piffan
2002-05-01, 10:34:46
Originally posted by mirp

Um ihre Produkte zu verkaufen, entwickeln Spielehersteller für die Hardware der potentiellen Kunden und nicht für zukünftige Technologien.

Genau so ist es. Darum ist es albern, seine Kaufentscheidung im Hinblick auf zukünftige Spiele zu treffen. Es sollte vielmehr bedacht werden, daß man sofort einen Nutzen hat, nur so kann sich Hardware rentieren....Allerdings ist es auch nicht gerade sinnig, ein teures Highendprodukt zu kaufen, wenn die nächste Chipgeneration vor der Tür steht..

Leider war ich so dämlich und habe mir die G2- Ultra gekauft, kurz bevor die G3 rauskam... War doppelt doof: "Mußte" ca. ein Jahr auf AF und FSAA verzichten und habe so viel gezahlt, als wenn ich gleich die G3 genommen hätte....Nicht dass die Ultra nun altes Eisen ist, sie reicht immer noch hin, aber sie war natürlich reichlich teuer, also stimmt Razors Spruch von der "Abzocke" durchaus. (Wobei der Kauf ausgesprochen dämlich war).
Ende letzten Jahres habe ich mir dann doch noch die G3 Ti200 geholt und vermisse nun nichts mehr...
G3- Besitzer brauchen sich nicht unter Druck gesetzt fühlen, sie verpassen derzeit nichts, die G3 erfüllt im Spielealltag alle Bedürfnisse nach BQ und Performance...Selbst wenn die G4 einiges an Features voraus hätte, die Spiele nutzen es eh noch lange nicht..

Nun mal abwarten, ob sich Matrox mit einem Paukenschlag zurückmeldet, oder ob der G5 mal den Deferred renderer bringt.... die G4 ist zu wenig innovativ, als daß ein Wechsel von der G3 einen Sinn machen würde..Wenn ich neu kaufen müßte, wäre natürlich die G4 angesagt, ein bisschen Leistungsüberschuß ist nie verkehrt ;)...

Kai
2002-05-01, 12:03:13
Originally posted by Dusauber
Und wo gibt es den?

www.listan.de - Da hab ich ihn gekauft ;)

Razor
2002-05-01, 12:31:09
@mirp

Also wenn ich das richtig sehe, dann sind wir doch absolut gleicher Meinung...

Klar reicht die gf2ultra noch, aber eben ohne AA und AF. Auch stößt sie heute schon teilweise an ihre Grenzen unter 32-Bit, also muß man darauf (aber noch selten) dann auch noch verzichten.

Ich kann auch heute noch mit meiner gfddr spielen, aber eben nicht in einer Auflösung von 1024x768x32 mit 2xAA, 4xAF und maxDetails. Und DAS macht den entscheidenen Unterscheid.

Die gf4ti bietet mit einfach nichts Neues im Vergleich zu meiner gf3 !
- von TNT auf gfddr war es endlich brauchbare 32-Bit Performance und ein bissel HW T&L
- von gfddr auf gf3 war es dann brauchbares HW T&L, AA, AF und ein bissel DX8
- von der nächsten Karte erwarte ich...
(schaun' wir mal ;-)

Bis denne

Razor

Kai
2002-05-01, 12:44:17
Originally posted by Razor
@Die gf4ti bietet mit einfach nichts Neues im Vergleich zu meiner gf3 !
- von TNT auf gfddr war es endlich brauchbare 32-Bit Performance und ein bissel HW T&L
- von gfddr auf gf3 war es dann brauchbares HW T&L, AA, AF und ein bissel DX8
- von der nächsten Karte erwarte ich...
(schaun' wir mal ;-)



Was ähnliches hab ich schonmal geschrieben. Zudem ich für die Leute, welche sich jetzt die GF4 gekauft haben hoffe das sie nicht enttäuscht werden, sollten bald Games herauskommen (new Doom z.B.) die ihre Techniken auch auf GF4-Karten nicht zur Entfaltung bringen können.

Das was JohnC BEISPIELSWEISE (extra betont - es geht hier nicht nur um new Doom) da in Petto hat, schafft wie er selbst gesagt hat mit Max-Details und allem Schnickschnackkeine GF3/4, da diese viele Effekte nun einfach nicht unterstützen.

Ich finde das mutig - aber gut! Denn endlich traut sich mal jemand aus dem Einheitsbrei auszubrechen. Neue Hardware braucht das Land. Ich hab einfach keinen Bock mehr mich (was meinen Grafikkartenkonsum angeht) melken zu lassen wie ne Kuh ;)

New Doom wird IMO irgendwann mit der nächsten GraKa-Generation wie der Sprung von Software-Rendering auf 3Dfx-compatible sein. Jedenfalls war ich damals erstaunt wie Unreal aussah, als ich meine Voodoo2 in den Rechner steckte.

JohnC macht das schon richtig. Er bringt eine Software heraus, die vielleicht vorzüglich auf GF3/4 spielbar sein wird - allerdings muss man dann mit Effekten sparen (wäre gut wenn die Software diese dann auch gar nicht via Softwarerendering, Emulation oder ähnlichem zur Verfügung stellen würde). Spätestens nach dem Release ziehen die Kartenhersteller nach und bringen die neuen Features zum Glanze.

Daraus resultiert: Neue Spiele, wieder ein Schritt weiter Richtung Fotorealismus (mein persönliches Ziel ;))

Okay, ist vielleicht etwas weit ausgeholt - aber im Grunde schätze ich, das man versteht was ich sagen will. Wie gesagt, eine GF4 ist mitnichten ein Fehler, aber sie ist in meinen Augen genauso wie die GF2Ultra oder sogar die GF3 nur ein Schritt mehr, der für dicke Konten bei den Machern gesorgt hat anstatt uns wirklich weiter zu bringen. Man hält uns User doch nur künstlich bei der Stange (nicht das das jemals ein Ende haben würde, aber die Technik die wir heute fahren hängt mit der GF4 jetzt meiner Meinung nach schon mehrere Meter über'm Abgrund).

aths
2002-05-01, 12:57:11
Kai,

sobald sich ein Effekt (in sinnvoller Geschwindigkeit) per Emulation darstellen lässt, bräuchte man keine neue HW dafür.

Die GF4 ist ein meinen Augen die logische Konsequenz, siehe TNT2 und GF2. Jeweils gab es featureseitig kaum Verbesserungen, aber die 2. Ausgabe war jeweils "runder" als die HW, die die neue Technologie einführte. TNT2, GF2 und GF4 sind letztlich dazu da, den mit ihren Vorgängern aufgebauten Markt noch ein mal zu melken. Allerdings trifft das Ziel "Geld verdienen" ja auch auf TNT1, GF1 und GF3 zu.

Wenn man nicht bis mindestens Mitte 2004 mit einer GF4 Ti4600 auskommt, so müsste man sie im Nachhinein als überteuertes da zu kurzlebiges Produkt sehen. Betrachtet man den Fakt, dass TNT2 und GF2 jeweils *deutlich länger* als 2 Jahre hielten, so mache ich mir wegen der GF4 keine Sorgen.

Siehe TNT2: Nur, weil GF plötzlich Bump Mapping konnte, dauerte es verdammt lange, ehe Spiele das überhaupt unterstützten. Noch heute kann ja nicht von einer großen Verbreitung die Rede sein. So blöd das klingt, noch immer scheint DX6 HW für das meiste auszureichen.

Was ich an der neuen Generation fast schon besser finde als die neuen Features sind Dinge wie erhöhte interne Render-Genauigkeit. Mit meiner Karte habe ich in Quake3 Colorbanding.

Doomtrain
2002-05-01, 14:01:02
Originally posted by Kai




Das was JohnC da in Petto hat, schafft wie er selbst gesagt hat mit Max-Details und allem Schnickschnackkeine keine GF3/4, da diese viele Effekte nun einfach nicht unterstützen.

Man hält uns User doch nur künstlich bei der Stange (nicht das das jemals ein Ende haben würde, aber die Technik die wir heute fahren hängt mit der GF4 jetzt meiner Meinung nach schon mehrere Meter über'm Abgrund).

Ich glaube, das man auf viele Effekte verzichten kann, da man den Unterschied so oder so nicht sehen kann. Eine GeForce3 sollte noch locker bis Mitte nächsten Jahres reichen, um alle Spiele perfekt zocken zu können. (Ich werde mir allerdings für Doom eine neue Gaka holen, für Unreal2 und UT2 reicht die GeForce3 locker locker)

@Kai, was reizt dich außer dem NV30 denn noch? Ich dachte für mich an die neue MGA.

Kai
2002-05-01, 16:44:04
Originally posted by Doomtrain


@Kai, was reizt dich außer dem NV30 denn noch? Ich dachte für mich an die neue MGA.

Daran habe ich auch schon gedacht. Ich mache mir von Seiten der Grafikkartenhersteller auch keine Angst das die mal was rausbringen was nVidia Konkurrenz machen könnte. Die entscheidende Frage ist allerdings: Sehen das die Spielehersteller auch so ? ;)

Razor
2002-05-01, 22:43:21
@Kai

Ich glaube fast, daß wir, auf dieses Thema bezogen, eine fast homogene Meinung vertreten...

Die gf4ti bringt uns kaum weiter, aber sie hilft nVidia am Markt Präsenz zu zeigen und sie hilft, diejenigen zu überzeugen, die bisher noch nicht zu überzeugen waren. Sie ist nur ein Aufguß und IMO halt wieder mal das letzte Produkt einer (ehemals) neuen Technologie. Mit der gf4ti'ultra' (gf4ti4600) zieht man zahlungswilligen Kunden wieder mal das Geld aus der Tasche, obwohl dieses Produkt nur wenig mit Vernunft zu tun hat und den Begriff 'Preis-/Leitungsverhältnis' (wieder mal) ad absurdum führt.

Aber egal, mit diesem Produkt zeigen sie (nVidia) ebenso Dominaz am Markt und polieren damit ihr Image.

-

Aber in einem Punkt bin ich etwas anderer Meinung:
"Spätestens nach dem Release ziehen die Kartenhersteller nach und bringen die neuen Features zum Glanze."

Da die Softwareentwickler sehr eng mit den Hardwareentwicklern (insbesondere mit nVidia) zusammen arbeiten, kann ich mir sehr gut vorstellen, daß NV bereits im Vorwege entsprechende Entwicklungskits zur Verfügung stellt, um adäquate Hardware möglichst VOR dem Release einer solchen Software am Markt zu haben. Das hilft beiden, den Softwareentwicklern, ihr Produkt in "ganzer Pracht" zu zeigen und den Hardwareentwicklern dann ein Produkt zu haben, was dazu in der Lage ist. Und wenn man von dem "Ei oder Henne"-Prinzip ausgeht, sollte erst die Hardware plaziert werden und dann die Software (die Entwicklung erfolgt natürlich synchron !).

"Neue Spiele, wieder ein Schritt weiter Richtung Fotorealismus (mein persönliches Ziel ;))"

Das ist auch mein 'persönliches' Ziel und werde deswegen auch immer wieder auf 'neue' Technologie setzen und nicht auf 'aufgewärmte'...
;-)

@aths

Die gf4ti ist keine 'logische' Konsequenz, sondern eine, die sich aus marktwirtschaftlichen Prinzipien ergibt (wie ich ja bereits an anderer Stelle einmal schrieb). Wie schon zu Kai gesagt, hilft sie dem Marktführer am Markt präsent zu sein und wie Du ja selber auch sagtest, noch einmal kräftig den Markt zu schröpfen.

"Wenn man nicht bis mindestens Mitte 2004 mit einer GF4 Ti4600 auskommt..."

'Auskommen' wird man damit, aber eben nicht ALLES sehen können. Leistungsseitig wird sie nach und nach anderen Produkten weichen und Feature-seitig ist sie schon heute 'veraltet' (wie Du ja selber schon des öfteren zum besten gegeben hast), wenn auch unglaublich schnell.

"Betrachtet man den Fakt, dass TNT2 und GF2 jeweils *deutlich länger* als 2 Jahre hielten..."

Es gibt wohl kaum Leute, die eine Grafikkarte "länger als 2 Jahre" haben. Sicher, die Produkte haben auf jeden Fall sehr lange Marktzyklen, zuletzt aber nur noch (gilt für beide: TNT2 und gf2), um dem Low-Cost Markt, bzw. das untere Midrange-Segment zu bedienen oder eben OEM's bzw, AIB's zu versorgen. Insofern sollte man da schon Unterscheidungen treffen und dies nicht so pauschalisieren...

Ich selber schreibe mir auf die Fahne, mir eben nicht alle 6 Monate eine 'neue' GraKa zu kaufen, sondern es eben bei 1,5 bis 2 Jahren zu belassen. Auch diesmal wird diese Fausregel wieder zutreffen, aber "*deutlich länger* als 2 Jahre" halte ich für einen schlechten Witz, sorry !

"Was ich an der neuen Generation fast schon besser finde als die neuen Features sind Dinge wie erhöhte interne Render-Genauigkeit."

Was unter anderem ein Merkmal (unter vielen) naher Technologie sein wird...

@Doomtrain

"Kai, was reizt dich außer dem NV30 denn noch? Ich dachte für mich an die neue MGA"

Ich bin zwar nicht Kai, aber was da so kommen wird und interessant sein könnte ?

-der neue MGA, NV30, R300 um nur einige zu nennem...
-ev auch ein 'Ding' von den Bitboys, wenn der nene MGA nicht...
;-)

Aber ich halte es da mit Kai, denn die Spielehersteller werden den Ton angeben und die NV-Konkurrenz wird zeigen müssen, ob sie den Anforderungen gewachsen sind...

In diesem Sinne

Razor

Kai
2002-05-01, 23:03:53
Full Ack. soweit @ Razor.

Ich hätte (weil ich eigendlich abgrundtief schreibfaul bin) einfach nur gesagt: "Die wollten ATI nach der R8500 einfach nur nen Hammer an den Arsch hängen :D"

Razor
2002-05-01, 23:08:48
Hmmm... Kai,

"am Markt Präsenz zeigen" oder "Dominaz zeigen", finde ich aber 'etwas' neutraler...
Aber man kann seine Meinung natürlich auch anders vertreten !
;-)

Und es mag zwar hauptsächlich um ATI gehen, aber für alle anderen wurde die Meßlatte ja nun auch ein ganzes Stück höher gehängt und hat ein bischen Luft geschaffen, um sich nun auf den Launch der neuen Technologie vorzubereiten, gell ?

Bis denne

Razor

Richthofen
2002-05-01, 23:22:38
die GF4 bringt zwar nix neues aber ich halte es wie aths.
Ich finde es sinnvoller das Upgrade zu kaufen und nicht das neue Produkt.
Deshalb wird mir der NV30 sowie alle anderen Karten um DX9 am Allerwertesten vorbeigehen.
Neue Features sind toll aber Kinderkrankheiten schleppen die auch mit sich rum, da die neue Generation wieder einiges komplexer wird.
Die GF4 bietet den Speed der der GF3 halt noch fehlte und es sind ein paar nette Dinge hinzugekommen und der S3TC Bug ist auch raus.
Insofern find ich es gut das ich halt abgesehen von der ersteigerten GF3 diese ausgelassen habe.
Die GF4 hab ich mir auch niemals für Doom3 gekauft und ähneliche Games.
Wenn ich die im Multiplayer spiele was ich sowieso fast nur mache bei Shootern, dann ist ohnehin grafisch alles aus was auszustellen geht, denn ich will da keine schöne Grafik haben sondern Gegner(die in voller Grafik spielen) eher sehen als sie mich und dementsprechend eher fraggen.
In genau 1,5 Jahren gibts dann den Nachfolger vom NV30 und dann schlag ich wieder zu :)

Quasar
2002-05-01, 23:32:06
Ich seh das eher so: Das "neue Produkt" ist zumeist auch besser in den alten Dingen, als die alten Karten. Insofern erwirbt man das am besten abgerundete Gesamtpaket für die alte Technologie mit dem "neuen Produkt". Gleichzeitig hat man noch die Chance, evtl. mal mit ein paar Techdemos herumzuspielen und den einen oder anderen Effekt, so er denn wider erwarten doch mal in dem einen oder anderen Spiel eingesetzt wird, hinzuschalten und immer noch selber entscheiden, ob es den eventuellen Performanceverlust wert ist.

Razor
2002-05-01, 23:46:50
@Quasar
Insofern erwirbt man das am besten abgerundete Gesamtpaket für die alte Technologie mit dem "neuen Produkt".
DAS unterschreib ich zu 100% !
Und mehr wollte ich mit meinem Wortgeschwall auch gar nicht sagen...
;-)

Razor

Doomtrain
2002-05-02, 00:20:13
Originally posted by Razor




@Doomtrain

Aber ich halte es da mit Kai, denn die Spielehersteller werden den Ton angeben und die NV-Konkurrenz wird zeigen müssen, ob sie den Anforderungen gewachsen sind...

In diesem Sinne

Razor

Ich denke mal, es sollte egal sein, welcher Hersteller den Ton angibt, da alle an DX gebunden sind und nur wenig selber machen. Du weißt schon wie ich das meine.

aths
2002-05-02, 18:54:02
Razor,

natürlich wird die Konkurrenz nV gewachsen sein. Matrox, ATI, 3DLabs und PowerVR scheinen da ein paar heiße Eisen im Feuer zu haben. Ich fände es jedenfalls ausgezeichnet, wenn der Markt endlich von der drückenden nV-Dominanz befreit würde.


Kai,

ich habe noch immer nicht das Gefühl, die Ti4600 wirklich mal an ihre Grenzen getrieben und ihre Leistung ausgenutzt zu haben. Es soll nicht angreifend klingen, doch ich zweifle, dass man nach deinem so kurzen Test ("ein paar Stündchen") eine Karte wirklich beurteilen kann. Ich möchte dir wegen dem objektiv geringen Mehrgewinn natürlich kein Aufrüsten nachlegen, doch GF4-Nutzer werden wohl immer eine FSAA-Stufe, eine AF Stufe, eine Auflösung höher spielen wollen (und können.)

Dass die GeForce4 verglichen mit der 3-er sogut wie nichts zusätzlich kann stört mich eigentlich nicht, da die GeForce3-Technik weiland ein so großer Sprung war, dass sie technisch auch heute noch modern ist. (Es existiert meines Wissens kein Spiel, was auf einer GF3 nicht mit vollem Featureset läuft.) Was mich wirklich nervt ist, kein 4x RGFSAA zu haben.

Kai
2002-05-02, 19:57:17
Aths,

Ich hab ja auch nicht behauptet sie komplett beurteilen zu können. Ich wollte lediglich mal schau'n ob es sich für mich persönlich lohnen könnte und ich hab meine Erfahrungswerte hier gepostet.

Für mich steht allerdings schon länger fest, das meine nächste Karte DX9 kompatibel sein wird :)

Ich mache mir lediglich Sorgen ob die Spieleindustrie nicht zu sehr nVidia-lastig wird. Ich meine, was nützen Hammerkarten von Matrox etc. wenn es damit Darstellungsfehler, Inkompatibilitäten etc. hagelt ?

Das was man dann bei solchen Karten gegenüber dem Marktführer nämlich spart, legt man sich meistens an Ärger zu.

"doch GF4-Nutzer werden wohl immer eine FSAA-Stufe, eine AF Stufe, eine Auflösung höher spielen wollen (und können.)"

Auf die GF3 bezogen: sicher. Und auch nur so lange die Spiele nicht CPU-limitiert sind ;)

Doomtrain
2002-05-02, 20:04:41
Originally posted by Kai


Ich mache mir lediglich Sorgen ob die Spieleindustrie nicht zu sehr nVidia-lastig wird. Ich meine, was nützen Hammerkarten von Matrox etc. wenn es damit Darstellungsfehler, Inkompatibilitäten etc. hagelt ?



Nur keine Sorge, die Leute von Matrox sind genauso Profis wie die Leute von Nvidia. Die werden das schon hinkriegen. ;)

aths
2002-05-02, 20:28:43
Kai,

"aths" bitte klein schreiben. Die Spiele-Industrie *ist* sehr nV-lastig. Das macht nichts, solange sie sich streng an die Spezifikationen der APIs halten.

Ich habe kürzlich am eigenen Leibe erlebt, dass Karten vom Marktführer Problemlosigkeit wahrlich nicht garantieren.

Razor
2002-05-02, 20:42:50
@Doomtrian

"Ich denke mal, es sollte egal sein, welcher Hersteller den Ton angibt, da alle an DX gebunden sind und nur wenig selber machen. Du weißt schon wie ich das meine."

Nicht so richtig...
Die erfolgreichsten Games waren da doch eher OpenGL-Games, oder ?
Wieviel Aufwand in die Programmierung gesteckt wird, entscheiden noch immer die Entwickler/Hersteller selber und wenn sie sich's leicht machen, dan kommt so etwas wie diese fiese Lithtech-Engine heraus...
;-)

@aths
(gut so ? ;-)

"natürlich wird die Konkurrenz nV gewachsen sein. Matrox, ATI, 3DLabs und PowerVR scheinen da ein paar heiße Eisen im Feuer zu haben. Ich fände es jedenfalls ausgezeichnet, wenn der Markt endlich von der drückenden nV-Dominanz befreit würde."

Nun ja, wenn man den CEO von nVidia so 'tönen' hört, dann haben sie wohl nicht viel ihrer Entwickler-Kapazitäten in die gf4 gesteckt. Wie war noch gleich der Spruch ?

"Im August diesen Jahres wird das für die Grafikindustrie wichtigste Produkt am Markt plaziert, welches es seit Firmengründung nVidia's gegebn hat !"

So oder ähnlich...
;-)

Aber klar, im Prinzip gebe ich Dir recht, denn es wäre wirklich mal spannend, etwas aus anderer Feder zu sehen, auch wenn aus dieser Richtung nichts wirklich Überzeugendes gekommen ist...

In diesem Sinne

Razor

Dunkeltier
2002-05-02, 20:45:30
ATI und Matrox wollen aber ebenfalls den Kuchen names Prestige vernaschen, und werden dementsprechend starke Produkte auf dem Markt positionieren. Das wird ein heißes Jahr... :) Ende des Jahres ist wieder aufrüsten angesagt. ;D

Razor
2002-05-02, 20:48:31
Amen !
;-)

Razor

Kai
2002-05-03, 13:34:17
Originally posted by aths
Kai,

"aths" bitte klein schreiben.

"aths" im Allgemeinen ist ein Modem Abmelde-String.

Aths als Bezeichnung/Benennung einer Person überleitet den ursprünglichen Wortsinn in einen üblichen "Scherznamen" (Komposition, Nomen+Namen ohne Fugenelement) oder in einen singularischen "Spitznamen".

Und Deswegen schreibt man Aths für gewöhnlich gross. Da gibt's nix zu rütteln ;)

Edit: Soweit ich das gelernt habe schreibt man alle Namen bezogenen Wortflexionen gross.

aths
2002-05-03, 14:44:43
Kai,

der AT-Befehl zum Auflegen ist ath0 oder ath, (kann auch beliebig mit Großbuchstaben geschrieben werden.) "aths" als AT-Befehl sagt mir nichts.

"aths" schreibt man klein, weil die komplette Kleinschreibung zur Eigenschaft dieses Pseudos gehört. Dass "aths" gerade "aths" geschrieben wird, habe ich mal so definiert. Am Satzanfang mag das etwas unüblich aussehen ("aths kam in das Zimmer.") Doch bitte ich darum, das Pseudo richtig zu schreiben.

Kai
2002-05-03, 15:01:07
Originally posted by aths

"aths" schreibt man klein, weil die komplette Kleinschreibung zur Eigenschaft dieses Pseudos gehört.

Das Widerspricht sich aber. Ein Pseudonym kann keine Eigenschaft beinhalten, welche definiert das es klein geschrieben wird.

Aber ich respektiere die Sache mal und mache kein grosses Ding draus aths ;)

aths
2002-05-03, 15:15:59
Danke, Kai :)

Kai
2002-05-03, 15:25:47
Okay, der Wischer war gerechtfertigt - ich hab ein Komma vergessen, aths :D

aths
2002-05-03, 15:36:53
Du hast auch "widerspricht" groß geschrieben, und "das" statt "dass" verwendet, davon abgesehen würde ich "großes" mit ß schreiben :)

Zur Schreibung des Pseudo noch mal: Es gibt ja "Namen" wie MiStEr CoOl etc. Dort spielt die Groß/Kleinschreibung ebenfalls eine Rolle, sie gehört mit zum Namen. Angenommen, ich hätte aths zu @hs verkürzt, wie willst du am Satzanfang ein großes @ schreiben? So: ? :-)

Kai
2002-05-03, 15:44:42
Naja, Du weisst ja wie ich das halte mit daß und das ;) Theoretisch sind mir die Regeln bekannt - aber praktisch nerven sie mich einfach zuviel.

Übrigens: Leute wie tHe RuLA spreche ich auch mit z.b. "Rula" an. Ist mir einfach zuviel Arbeit so nen Quark zu zitieren.

aths
2002-05-03, 16:04:05
Kai,

hehe, das dass mit ss wird neuerdings mit ss und nicht ß geschrieben. ß wird nur verwendet wenn davor ein langer Vokal ist.

Kai
2002-05-03, 16:54:06
Originally posted by aths

hehe, das dass mit ss wird neuerdings mit ss und nicht ß geschrieben. ß wird nur verwendet wenn davor ein langer Vokal ist.

Was mich unendlich nervt. Die neue Rechtschreibung ist eine Farce.

aths
2002-05-03, 17:44:36
Kai,

Betrachtet man die neue Rechtschreibung unvoreingenommen, so muss man schon sagen, dass sie weniger unlogisch als die alte ist. Es gibt einige uneinsichtige Punkte, derer gab es früher allerdings deutlich mehr. Ich bin zwar nicht so ganz glücklich mit der neuen, aber habe prinzipiell nichts daran auszusetzen, dass die alte entschlackt wurde.

Razor
2002-05-03, 17:56:19
Die neue Rechtschreibung ist Scheisse !!!
Und mich darf man schreiben, wie man will...
;-)

Razor

P.S.: Warum so einen Wind wegen einer Nichtigkeit machen ?

Quasar
2002-05-03, 18:02:54
Neue Rechtschreibung? Find' ich arm!

Nicht Scheiße, oder doof oder so etwas, sondern einfach nur arm.

Der Grund für deren Einführung liegt mitnichten in der "Entschlackung" ihrer selbst begründet, sondern einfach in unserer zunehmend lernunwilligen Jugend, die immer schlechter in Rechtschreib-Tests (aka. Diktaten) abschneiden, weil die Schule heutzutage mehr und mehr eine Institution wird, die die Versäumnisse und Unzulänglichkeiten der Eltern ausbügeln soll und muss, anstelle sich um ihren Lehrauftrag zu kümmern.

Als nächstes wird noch das große und kleine Einmaleins abgeschafft, weil man dasselbe ja genausogut mittels einfacherer Summenbildung erreichen kann.

7*7=49
7+7+7+7+7+7+7=49

Schwupp, hat man ein Grundrechenart eingespart.
*kopfschüttel_und_sich_mit_Widerwillen_abwende*

aths
2002-05-03, 18:18:18
-> Rechtschreib-Diskussion bitte hier weiterführen: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=18728

Kai
2002-05-03, 20:29:50
Ich denke, wir können diesen Thread hier auch closen. Der ist IMO völlig ausdiskutiert.