PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia GPU-Schwäche in Stalker Alpha gegenüber ATi?


silverhawk
2004-01-04, 11:09:38
http://www.xbitlabs.com/articles/editorial/display/stalker.html

______________________________________________________________


ich weiß das dies noch nichts über die finale performance aussagt, aber einen ersten eindruck hat man hier schon einmal!

(del676)
2004-01-04, 11:12:47
Original geschrieben von silverhawk
http://www.xbitlabs.com/articles/editorial/display/stalker.html

______________________________________________________________


ich weiß das dies noch nichts über die finale performance aussagt, aber einen ersten eindruck hat man hier schon einmal!

wo is da na nvidia gpu schwäche?

ich würd eher sagen das karten mit 128mb ram etwas langsamer sind.

ebenso wärs schön zu wissen ob in dieser demo schon die extra effekte drin sind die nur auf nv karten laufen

LovesuckZ
2004-01-04, 11:17:53
Irgendwas stimmt an den Benches nicht.
Ich mein, hallo, die 5700U ist gleichauf mit AA/AF mit der 9600XT, aber die 5950 verliert so dermaßen?
aeh hallo...
Wobei man hier wieder sehen kann, dass mit dem AF und gerade beim Einsatz von Pixelshadern irgendas nicht stimmt.
Und wenn wir schon dabei sind: Die 5700U ist fast doppelt so schnell wie die 5600U? Ich mein, XBitlabs.com war eigentlich immer seriös, aber irgendwann haben sie dies wohl auch abgelegt.

silverhawk
2004-01-04, 11:23:41
hmm ich glaube net das xbitlabs ihre seriösität in frage stellt, die ergebnisse werden schon irgend ne erklärbare ursache haben, denke ich...

LovesuckZ
2004-01-04, 11:25:44
Original geschrieben von silverhawk
hmm ich glaube net das xbitlabs ihre seriösität in frage stellt, die ergebnisse werden schon irgend ne erklärbare ursache haben, denke ich...

Du meinst mit illegalen Versionen zu benchen und das nicht zum ersten Mal, sei kein Verlust der Seriösitaet?
Wobei die Ergebnisse ja nichtmal schlecht sind, sondern ich aber auch gerne wissen möchte, warum dir 5700U auch ohne AA/AF mit der 5900XT mithalte...
Oder besser: Ohne AA/AF ist die 5700U ein ernstzunehmender Konkurent zur 9800pro, und hier endet dann auch mein Verstaendnis für diesen "Test"...

/edit: Die Ergebnisse auf Seite 6 sind wohl ausgedacht, denn ich denke nicht, dass eine 5700U mit einer 5950U mithalten koenne...

(del676)
2004-01-04, 11:28:37
habt ihr infos gefunden mit welchen karten die benchen?

ne r9800pro mit 128 oder 256mb?
ne 5900 mit 128 oder 256mb?

Haarmann
2004-01-04, 11:30:58
Ist die 5700 nicht ein Zwitter aus einer 5600 und ner 5900? Ev erklärt das die Stärke.

LovesuckZ
2004-01-04, 11:32:51
Original geschrieben von Haarmann
Ist die 5700 nicht ein Zwitter aus einer 5600 und ner 5900? Ev erklärt das die Stärke.

Nein, er ist ein "halbierter" NV35 jedoch mit dem "ganzen" Vertexarray und verkleinerten Registerfile (Feld oder so...).

silverhawk
2004-01-04, 11:42:21
Original geschrieben von LovesuckZ
Irgendwas stimmt an den Benches nicht.
Ich mein, hallo, die 5700U ist gleichauf mit AA/AF mit der 9600XT, aber die 5950 verliert so dermaßen?
aeh hallo...
Wobei man hier wieder sehen kann, dass mit dem AF und gerade beim Einsatz von Pixelshadern irgendas nicht stimmt.
Und wenn wir schon dabei sind: Die 5700U ist fast doppelt so schnell wie die 5600U? Ich mein, XBitlabs.com war eigentlich immer seriös, aber irgendwann haben sie dies wohl auch abgelegt.

also seriösität währ in dem sinne für mich wenn gepusht werden würde ohne ende, sei es zugunsten ATi oder nVidia. Weiterhin, hier werden ja die Werte seriöus dargestellt (hoffe ich zumindest aus erfahrungen von xbitlabs), aber mit ner unreleased build zu benchen ist für mich kein angriff auf die seriösität, wie viele user fragen sich denn immer tägtäglich wie das kommende Game X auf ihrere Karte performen wird, und ob sie sich ne neue zulegen sollen/müssen! sicherlich wird dabei keine finale performance geboten aber schonmal ein vorgeschmack :)
in wie fern dieser dann vom späteren finalen abweicht ist dann rein spekulativ....

thop
2004-01-04, 12:10:21
die erklärung für das hier beschriebene phänomen hat eine zweiteilige erklärung

1.) ATI 2003 > nVidia 2003

Iceman346
2004-01-04, 12:15:05
Original geschrieben von thop
die erklärung für das hier beschriebene phänomen hat eine zweiteilige erklärung

1.) ATI 2003 > nVidia 2003
2.) nvidia fanboys kriegens immer noch net in den schädel rein :bigl:

Darum geht es ja garnicht. Ausserdem provozierst du hier grade wieder Flames...

Es geht darum, dass die FX 5700 Ultra angeblich teilweise schneller ist als ne 5900 Ultra. Und das ist imo Grund genug die Seriösität der Benchmarks anzuzweifeln.
Aber da eine Alpha gebencht wurde sind seltsame Effekte möglicherweise auch vom Programm her bedingt.

thop
2004-01-04, 12:19:42
Ausserdem provozierst du hier grade wieder Flames...
Abgesehen davon läuft das Spiel überraschend schnell .. selbst für nV Karten wird das noch dicke reichen. Also Kommando zurück, und abwarten.

Odal
2004-01-04, 12:19:54
@Silverhawk

wo werden denn da werte serioes dargestellt wenn neben den werten nichtmal ram-angaben stehen.

und wie lovesuckz schon erwaehnte mit illegalen betaversionen zu benchen ist nicht gerade serioes....

LOCHFRASS
2004-01-04, 12:19:58
http://www.xbitlabs.com/images/editorial/stalker/escape_1600_4x8x.gif

Scheint wohl ein RAM-Fresser zu sein...

silverhawk
2004-01-04, 12:25:57
ich denke mal das sich die ganze sache noch im xbit forum klären lassen würde :)

deekey777
2004-01-04, 12:28:16
Schon wieder wird einer Seite vorgeworfen, "unseriös" zu sein, da ein bestimmter GraKa-Hersteller schlechter abschneidet...

Zum Thema: Die "geleakte" Alpha ist alt, sehr alt. Älter als die Meldung der Programmierer, dass sie STALKER auf die NV3x-Generation extra anpassen werden, da nVidia zu ihnen etwas "netter" als ATi war, was das auch heissen mag.
Die vermeintliche Stärke der 5700 Ultra gegenüber der 5900 könnte vielleicht dadurch erklärt werden, dass STALKER bei nVidia-Chips zusätzlich/vermehrt auf die rohe Power der einzelnen Chips setzt (400->475MHz). Das gleiche war auch schon bei den Doom III-Tests unter http://www.tomshardware.de/graphic/20030512/nv35_geforce_fx5900ultra-10.html#doom_iii_special_preview - die 5800 Ultra schlägt sich auf dem Niveau der NV35.


@Thop: Muss das sein?

(PS: Diesen Satz auf THG liebe ich:"ARB2 ist auf NVIDIAs DX9 Karten mit der Vorabversion des Detonator FX Treibers wegen eines Bugs noch nicht lauffähig. Nach Aussagen von NVIDIA soll die ARB2 Performance mit der NV30 Leistung im endgültigen Treiber aber identisch sein.")

deekey777
2004-01-04, 12:30:38
Original geschrieben von Odal
@Silverhawk



und wie lovesuckz schon erwaehnte mit illegalen betaversionen zu benchen ist nicht gerade serioes....

Es ist okay, HW-Prototypen zu benchen, aber SW-Betas zu benchen, ist unseriös? Wenn's euch nicht passt, beschwert euch doch bei X-Bit!

Raff
2004-01-04, 12:31:18
Jo, scheint ein RAM-Fresser zu sein, das ist aber bei den Settings kein Wunder. Übrigens auch hier wieder lustig, dass die sowohl bei Füllrate als auch bei der Bandbreite deutlich unterlegene 5700U die 5900 überholt...

MfG,
Raff

(del676)
2004-01-04, 12:31:27
ist euch schon in den sinn gekommen das die 5700 ne 256mb karte und die 5900 ne 128mb karte is?
und das deswegen die 5700 in hohen auflösungen + aa vorne is?

LovesuckZ
2004-01-04, 12:34:48
Original geschrieben von Ulukay
ist euch schon in den sinn gekommen das die 5700 ne 256mb karte und die 5900 ne 128mb karte is?
und das deswegen die 5700 in hohen auflösungen + aa vorne is?

Die 5700U liegt ja nie vorne und verliert bei AA/AF sehr deutlich an Boden zur 5900. Aber, und das ist das merkwürdige: Sie liegt gleichauf mit der 5900 und auf Seite 6 sogar mit der 5950U (...), wenn man ohne AA/AF spielt und genau diese Werte bezweifel ich, da die 5700U eine halbierte NV35 Karte ist und alleine von der Rohperformance keine Chance hat...
Und das die Karte ohne AA/AF so dermaßen die 9600XT rockt, staerkt meinen Verdacht, dass die Werte nicht ganz in Ordnung sind.

Wishnu
2004-01-04, 12:39:56
Original geschrieben von LOCHFRASS
Scheint wohl ein RAM-Fresser zu sein...

Naja, 1600x1200+4xAA etc...da dürfte es wohl bei so manchem zukünftigen Spiel eng werden...

deekey777
2004-01-04, 12:41:59
Original geschrieben von LovesuckZ
...
Und dass die Karte ohne AA/AF so dermaßen die 9600XT rockt, staerkt meinen Verdacht, dass die Werte nicht ganz in Ordnung sind.

Oder die Ergebnisse zwischen ATi und nVidia sind miteinander nicht vergleichbar.

Winter[Raven]
2004-01-04, 12:42:23
ist euch schon in den sinn gekommen das die 5700 ne 256mb karte

ahhh ... Seit wann hat die FX 5700 256 MB ram ?`Ich meine es gibt doch nur die 128 MB Versionen oder ?

LovesuckZ
2004-01-04, 12:42:54
Original geschrieben von deekey777
Oder die Ergebnisse zwischen ATi und nVidia sind miteinander nicht vergleichbar.

Kann natuerlich auch sein...

Iceman346
2004-01-04, 13:03:11
Original geschrieben von LovesuckZ
Nein, er ist ein "halbierter" NV35 jedoch mit dem "ganzen" Vertexarray und verkleinerten Registerfile (Feld oder so...).

Hier ist eine mögliche Lösung des Ganzen. Eventuell braucht die Stalker Alpha generell viel Vertexshader Power. Und durch den höheren Takt der 5700 Ultra gegenüber einer 5900 NonUltra hat erstere hier mehr Leistung.
Die 9600 XT hat dagegen nur die Hälfte der Vertexshader der grossen Radeon Modelle, genauso wie die 9600 Pro.

Dalai-lamer
2004-01-04, 13:06:36
So ein Quatsch. Die bevorzugen niemals eine Grafikkarte, glaub ich nciht.
Auf Seite 5 sind die Ergebnisse genau wie ich sie mir vorgstellt habe :)
Vielleicht ist die 5700 Ultra ja in manchen Benchs schneller , würde vielelciht auch den sinn und zweck der Karte gerechtfertigen den ja viele nciht sehen. Gibt es eiegntlich schon andere Benchmarks der Karten ?

Wenn ja muss man sich ja nicht auf diesen voin einer Alpha Version beziehen, oder man sagt das es eben noch hier und da fehler in der version gibt...
naja

Major J
2004-01-04, 13:06:53
Was wäre denn anders, wenn das die offiziell veröffentlichte Stalker-Version wäre? Die Ergebnisse müssen sich doch nicht unbedingt ändern, nur weil es sich um eine Beta handelt. Fakt ist, das die 5700 Ultra nur in den "niedrigeren" Auflösungen an die 5950 Ultra heranreicht. Sobald AA/AF gefordert wird ist sie auf ähnlichem Niveau wie eine 9600 XT. Das hatten wir nicht zum ersten mal, das Spiele einzelne Grafikkarten (ungewollt) bevorteilen... wenn alles gleich wäre, bräuchte man keine unterschiedlichen Hersteller.

Nedo
2004-01-04, 13:17:54
Also ich finde, bei dem Benchmark kann was nicht stimmen :/
Wenn man sich ne fx 5900 kauft, will man, dass spiele flüssig laufen, was sie ja normalerweiße auch tun. aber bei 23,9 fps kann man nicht sagen, dass es "flüssig" is. das is für mich n performanceeinbruch.

Liegt wohl an der Stalker-Version. ich bezweifle schwer, dass sich bei solchen leistungsgrafikkarten solche Abgründe auftun können zwischen ATi und nVidia.
Warten wir lieber die finale version von Stalker ab :)

Exxtreme
2004-01-04, 13:18:18
Original geschrieben von LovesuckZ

Du meinst mit illegalen Versionen zu benchen und das nicht zum ersten Mal, sei kein Verlust der Seriösitaet?

Bitte nicht von Deutschland auf Russland schliessen. :)

deekey777
2004-01-04, 13:25:13
@Mods: Könntet ihr vielleicht den Threadtitel ändern? Was weiss ich, in "Benchmarks mit STALKER-Alpha"?

Riptor
2004-01-04, 13:38:22
Hmmmm... Sehr seltsam die Werte der FX5700 Ultra...
Ich denke, die Rohleistung der FX5700 Ultra ist aufgrund ihres Taktes so hoch. Mit AF/AA ist die FX5900 natürlich wieder schneller, dank 256-Bit Speicherinterface. Aber dennoch: Seltsam ist das schon. Interessant wäre auch, wenn eine angestaubte R9500 Pro mitgetestet würde, da die ja bekanntlich mehr Shader-Power hat, als eine R9600... Dies würde dann eindeutig festlegen, warum die R9600 Karten logischerweise so einfallen (bei der FX5600U ists klar im Vgl. zur FX5700U).

Und, achja, @ alle Flamer: Bleibt doch bitte auf der Spielwiese, wenn ihr nichts dazu zu sagen habt, es möchten hier durchaus ein paar Leute miteinander und konstruktiv darüber diskutieren, inwieweit die Benches interpretierbar sind.

Haarmann
2004-01-04, 13:51:21
LovesuckZ

Das meinte ich damit eigentlich. Ginge das Game also eher um VS Leistung, dann würde die Benchreihe Sinn ergeben.

Demirug
2004-01-04, 14:02:27
Wenn man etwas als DX9 Spiel kennzeichnet sollte man vorher vielleicht auch schauen wie viel DX9 da wirklich drin steckt. Bei den Zahlen kann es zumindestens bei den Pixelshadern nicht viel sein.

Schauen wir uns doch nur mal die Werte in der Sunset Demo an. Bei 1600*1200 erzeugen die Karten die meisten Pixel pro Sekunde. Eine 9800XT erreicht da mehr als 400MPixel/s(sichtbar). Da bleiben pro Pixel nicht mehr als 8 Shaderzyklen übrig. Selbst wenn jeder Overdraw eliminiert wurde kommt man mit 8 Zyklen nicht weit. 8 Zyklen entsprechen etwa einem voll ausgenutzten PS 1.1. Bei den 8 Zyklen sind dabei aber noch nicht mal die Shader Verluste die beim Löschen des Bildschirms und anderen Situationen entstehen abgezogen.

IMHO läuft da viel mit Singletexture ab und die Beleuchtung wird in den Vertexshadern berechnet. Das mit dem Singletexture könnte auch erklären warum die 5700U so dicht bei der 5900 liegt. Beim ST sollte sich die 5700U wieder in einem 4*1 Modus schalten lassen. Die 5900 kennt aber keinen 8*1 Modus. Gerade den Himmel welcher ja scheinbar recht viel der Fläche einnimmt habe ich als ST-Kanidat im Verdacht.

ow
2004-01-04, 14:02:37
.

Odal
2004-01-04, 14:04:22
mich wuerde mal interessieren von wann genau die alpha ist.

und dann in einem bench die FX5900 23.9 fps und die FX5950ultra 62.4 bitte?

in den meisten anderen ist der abstand nicht sehr gross

der bench ist niemals authentisch

ow
2004-01-04, 14:04:56
.

Demirug
2004-01-04, 14:05:30
Original geschrieben von Haarmann
LovesuckZ

Das meinte ich damit eigentlich. Ginge das Game also eher um VS Leistung, dann würde die Benchreihe Sinn ergeben.

IMHO skaliert es dafür noch zu stark mit der Auflösung. Die VS-Last ist ja Auflösungs unabhänig. Ausser es wird mit einem LOD gearbeitet der diese berücksichtigt. In diesem Fall kann man aber kaum noch was herausdeuten.

Ailuros
2004-01-04, 14:17:56
Original geschrieben von Demirug
Wenn man etwas als DX9 Spiel kennzeichnet sollte man vorher vielleicht auch schauen wie viel DX9 da wirklich drin steckt. Bei den Zahlen kann es zumindestens bei den Pixelshadern nicht viel sein.

Schauen wir uns doch nur mal die Werte in der Sunset Demo an. Bei 1600*1200 erzeugen die Karten die meisten Pixel pro Sekunde. Eine 9800XT erreicht da mehr als 400MPixel/s(sichtbar). Da bleiben pro Pixel nicht mehr als 8 Shaderzyklen übrig. Selbst wenn jeder Overdraw eliminiert wurde kommt man mit 8 Zyklen nicht weit. 8 Zyklen entsprechen etwa einem voll ausgenutzten PS 1.1. Bei den 8 Zyklen sind dabei aber noch nicht mal die Shader Verluste die beim Löschen des Bildschirms und anderen Situationen entstehen abgezogen.

IMHO läuft da viel mit Singletexture ab und die Beleuchtung wird in den Vertexshadern berechnet. Das mit dem Singletexture könnte auch erklären warum die 5700U so dicht bei der 5900 liegt. Beim ST sollte sich die 5700U wieder in einem 4*1 Modus schalten lassen. Die 5900 kennt aber keinen 8*1 Modus. Gerade den Himmel welcher ja scheinbar recht viel der Fläche einnimmt habe ich als ST-Kanidat im Verdacht.

Ich hab mir gerade den Thread von Anfang an durchgelesen und wollte gleich sagen dass die 5700 den 3-way multi-array seiner groesseren Brueder hat :)

---------------------------------------

Also ich sehe persoenlich keine gigantischen Unterschiede von den Leistungs-nummern und ich bin im Grunde froh dass mainstream Karten noch spielbar erscheinen in 1280*960*32 mit AA/AF in Stalker. Ein Luxus der mit HL2 oder Doom3 NICHT unter allen Faellen garantiert zu sein scheint.

Stalker sieht aber alles andere als Shader-limitiert IMHO aus. Ist mir auch schnuppe; Hauptsache dass Spiel hat anstaendiges gameplay, denn an Grafik-pracht scheint es ja nicht unbedingt zu maengeln.

LOCHFRASS
2004-01-04, 14:47:10
Original geschrieben von Odal
mich wuerde mal interessieren von wann genau die alpha ist.

und dann in einem bench die FX5900 23.9 fps und die FX5950ultra 62.4 bitte?

in den meisten anderen ist der abstand nicht sehr gross

der bench ist niemals authentisch

Vielleicht weil die 5900 nur 128 MB hat? Schau mal auf die Auflösung...

Ailuros
2004-01-04, 14:56:20
Original geschrieben von LOCHFRASS
Vielleicht weil die 5900 nur 128 MB hat? Schau mal auf die Auflösung...

Nicht nur die Aufloesung, sondern auch dass im spezifischen Fall auch 4xAA/8xAF benutzt wurde. Das deutet tatsaechlich darauf hin, dass der Framebuffer mit 128MB fuer diese Aufloesung und AA/AF zu knapp ist. Ich sehe nicht merkwuerdiges an den Resultaten, da sich die 128/256MB ram ATI Karten auch nicht so anders zu verhalten scheinen.

Odal
2004-01-04, 15:03:09
deswegen soll sie gleich fast 3mal so schnell sein? 300%?

naja das mit den fehlenden ramangeben hab ich ja schon bemaengelt an dem test.

robbitop
2004-01-04, 15:13:12
@Demi
4x1 gilt wirklich nur dann wenn kein MT UND kein PS im Einsatz ist, oder irre ich mich da?
AFAIR hat der NV31/36 nur 2FP Pipes und 2FF.

Aber es wäre natürlich denkbar daß kein PS zum Einsatz kommt sondern nur ST und VS.

Aber die Wandtexturen ect sollten doch mehr als eine Texturlage haben?
Und wird nicht die ST Fillrate von der Bandbreite limitiert wovon der NV35/38 doppelt soviel hat wie NV31/36?

Wenn das mit ST stimmt ist der Unterschied zw 9800 und 59xx schon geklärt bei noAF...allerdings sollte bei AF dann zugunsten der FX der Rückstand verkleinert werden oder?
Fragen über Fragen...

StefanV
2004-01-04, 15:21:41
Original geschrieben von Odal
deswegen soll sie gleich fast 3mal so schnell sein? 300%?

naja das mit den fehlenden ramangeben hab ich ja schon bemaengelt an dem test.
Ja, wenn der Speicher ausgeht dann kann das in manch 'blödem' Falle so ein großer Unterschied sein...

Quasar
2004-01-04, 15:22:23
Original geschrieben von Demirug
IMHO läuft da viel mit Singletexture ab und die Beleuchtung wird in den Vertexshadern berechnet.

Könnte das die Masche werden, mit der nV nun in den TWIMTBP-Games absahnen will?

So ganz von ungefähr hat ma ja sicherlich nicht der FX5700 das komplette VS-Array der nV35 gelassen. Es frisst sicherlich eine Menge Transistoren, die, wenn man sie eingespart hätte, der Taktung und somit der verfügbaren PS-Leistung zugute hätten kommen können.

nV hat aber wohl gesehen, daß hier gegen die R9600XT nicht viel mehr als ein Unentschieden zu holen wäre und den Hebel da angesetzt, wo ATi (im Mid-Range) nicht ohne redesign gleichziehen kann.

Wenn das so hinkäme, ein recht cleverer Schachzug, IMO.

Ailuros
2004-01-04, 15:31:57
Original geschrieben von Odal
deswegen soll sie gleich fast 3mal so schnell sein? 300%?

naja das mit den fehlenden ramangeben hab ich ja schon bemaengelt an dem test.

Ahhh die Magie von AGP-texturing ;D

Bei 1600x1200 mit 6xAA benötigt unser Buffer über 100 MB des lokalen Speicherplatzes.

http://www.3dcenter.de/artikel/2003/11-06.php

Ja ich weiss dass er 6x sample AA anspricht, aber der framebuffer Aufwand mit 4xAA ist trotzdem nicht minimal.

Ailuros
2004-01-04, 15:40:25
So ganz von ungefähr hat ma ja sicherlich nicht der FX5700 das komplette VS-Array der nV35 gelassen. Es frisst sicherlich eine Menge Transistoren, die, wenn man sie eingespart hätte, der Taktung und somit der verfügbaren PS-Leistung zugute hätten kommen können.


Quasar,

Zweifellos wurde die Loesung gewaehlt, die die groessten Vorteile gehabt haette. Und ja da spielen auch Forschungsresultate an was Entwickler arbeiten, eine grosse Rolle.

Zum TWIMTBP Projekt moecht ich jetzt gar nichts sagen, da fallen mir nur alberne Witze ein :D

MadMan2k
2004-01-04, 15:54:19
Original geschrieben von Quasar
nV hat aber wohl gesehen, daß hier gegen die R9600XT nicht viel mehr als ein Unentschieden zu holen wäre und den Hebel da angesetzt, wo ATi (im Mid-Range) nicht ohne redesign gleichziehen kann.

Wenn das so hinkäme, ein recht cleverer Schachzug, IMO.
glaub ich nicht, denn in die Spiele muss ja erst extra VL eingebaut werden, d.h. den Vorteil hat man nicht von heut auf morgen, sondern Frühestens in 1/2Jahr, wenn das Spiel schon in der pre-Beta-Phase befindet und sich die Engine entsprechend leicht modifizieren lässt.
Also erst nach der Lebenspahse der FX5700.
Es lönnte sich also frühestens auf die nächste Produktgeneration auswirken und bis dahin hat Ati den Braten, aufgrund diverser Leaks und auch den Anderen Quellen die Ati offenstehen, schon gerochen.

Quasar
2004-01-04, 15:57:52
MadMan2k,

Was denkst du, wie lange man Vorlauf hatte, um den nV36 zu designen und bei IBM zur Fertigung vorbeizuschicken?
Das halbe Jahr, von dem du sprichst, halte ich zwar für zu kurz, aber mit einem ganzen Jahr ist man jetzt komplett dabei, IMO.

Und wer weiß, nicht nur Intel kauft sich einen AMD und analysiert ihn...

Al-CAlifAX
2004-01-04, 16:04:35
geil bei wenigen prozents redet man schon von Schwäche. dann isses ne 1,5 jahre alte beta. die noch keine optimierungen drinne hat. aber natürlich wieder ein gefundenes fressen für alle Ati-Fans. Bravo ich freue mich für euch. Ihr seid wieder bei einer Beta, nein halt Alpha überlegen. Hmm ich verstehe die welt net mehr. Überall wird nur noch gebencht. Und jetzt sogar unfertige Games. Ich glaub ich wachse raus aus der spielgemeinde von heute, die sind mir alle zu sehr mit benchen als mit zocken beschäftigt :(

Demirug
2004-01-04, 16:16:48
Original geschrieben von robbitop
@Demi
4x1 gilt wirklich nur dann wenn kein MT UND kein PS im Einsatz ist, oder irre ich mich da?
AFAIR hat der NV31/36 nur 2FP Pipes und 2FF.

Ob man das ST jetzt mit FF oder einem PS macht ist eigentlich egal intern wird das sowieso gleich umgesetzt. Es könnte natürlich sein das bei PS nicht gebrüft wird ob diese Optimierung möglich ist.

Jeder NV3X hat einen Pixelprozessor da gibt es keine FP oder FF Pipes.

Aber es wäre natürlich denkbar daß kein PS zum Einsatz kommt sondern nur ST und VS.

Aber die Wandtexturen ect sollten doch mehr als eine Texturlage haben?

Warum? Eine Schicht reicht eigentlich immer. Das mit Base+Detail macht man nur um Texturspeicher zu sparen. Und ich sagte ja auch nicht das nur ST zum Einsatz kommt aber IMHO eben an vielen stellen.

Und wird nicht die ST Fillrate von der Bandbreite limitiert wovon der NV35/38 doppelt soviel hat wie NV31/36?

Nunja beim NV35/NV38 sieht es ja mit der ST Fillrate nicht so gut aus.

Wenn das mit ST stimmt ist der Unterschied zw 9800 und 59xx schon geklärt bei noAF...allerdings sollte bei AF dann zugunsten der FX der Rückstand verkleinert werden oder?
Fragen über Fragen...

Wir wissen doch das das AF bei den R3XX etwas günstiger ist als bei den NV3X. Wie soll man also den Rückstand aufholen?

Demirug
2004-01-04, 16:26:10
Original geschrieben von Quasar
Könnte das die Masche werden, mit der nV nun in den TWIMTBP-Games absahnen will?

In wie fern Schachzug? Eigentlich machen die Entwickler genau das was man bei einer DX7 Entwicklung macht. Den Polycount so weit erhöhen das man soviel Vertexstützpunkte hat das die Interpolationsfehler beim Licht vernachlässigbar werden. Das war ja die Idee die damals hinter HT&L gestanden hat. Echtes Per Pixel Light macht ja nur Sinn wenn sich wirklich was pro Pixel nicht linear ändert.

Das ist übrigens bei dem von MS als Parade DX9 Spiel beworbenen Spiel HL2 auch nicht anders. Man setzt dort ebenfalls viel auf Vertexlight.

aths
2004-01-04, 16:29:56
Im sind NV35 und Abkömmlinge als "richtige" DX9-Grakas geplant gewesen. Das VS-Array wird sooo viele Transistoren nun auch nicht kosten. So wie NV31 an PS-Leistung spart, was braucht man dann noch viel VS-Leistung? NV36 hat doch deutlich mehr Dampf unter der Haube.

betasilie
2004-01-04, 16:30:27
Ui, da wird NV aber einigen Leuten in die Waden beißen. Sowas macht sich garnicht gut, besonders da das Game noch lange auf sich warten lassen wird und man das schlechte Bild für NV durch den Leak erst ziemlich spät revidieren kann.

Es würde mich daher nicht wundern, wenn in nicht allzuferner Zukunft eine Demo oder ein Benchmark released wird, der die GFFXe besser dastehen lässt.

Ich finde es übrigens mal wieder äußerst unterhaltsam, dass einige NV-Fans sofort paranoid werden und x-bit vorwerfen die Benchmarks manipuliert zu haben, und dass sie unseriös sind, weil sie so einen Leak öffentlichen benchen. Einige Leute hier merken wohl garnichts mehr!? :ratlos:

robbitop
2004-01-04, 16:33:08
das meine ich so:

NoAF:
NV35 4 Texel/Takt
R3xx 8Texel/Takt

Füllratenrückstand: delta 4 Texel/Takt

AF:
NV35: 8 Texel/Takt
R3xx: 8Texel/Takt

Füllratenrückstand: delta 0

P.S
mit Texel meine ich also verfügbare Rechenleistung der TMUs in der jeweiligen Situationen.
Diese Betrachtung gibt Peakwerte an und ist damit Theorie

LovesuckZ
2004-01-04, 16:39:03
Original geschrieben von betareverse
Ich finde es übrigens mal wieder äußerst unterhaltsam, dass einige NV-Fans sofort paranoid werden und x-bit vorwerfen die Benchmarks manipuliert zu haben, und dass sie unseriös sind, weil sie so einen Leak öffentlichen benchen. Einige Leute hier merken wohl garnichts mehr!? :ratlos:

Du bist der 2. Fanatiker, ja ich sags so wie es ist, der sich über Leute lustig macht, die Dinge hinterfragen.
Und ich hoffe, dass dieses Teil deines Postings geloescht wird, denn es stoert einfach!
Schade, aber diskutieren in diesen Fporum scheint wohl dann nicht mehr zu gehen, wenn man sich nicht mit Sachen zu frieden gibt...

Original geschrieben von robbitop
AF:
NV35: 8 Texel/Takt
R3xx: 8Texel/Takt

Und das interessiert mich, warum die rv350 Karten (vorallem 9600XT) beim Einsatz vom AF so gut mit den NV35 Karten mithalten koennen (ja, ich weiß das nervt, aber die Frage wurde nicht beantwortet).

aths
2004-01-04, 16:43:16
Original geschrieben von Ailuros
Das deutet tatsaechlich darauf hin, dass der Framebuffer mit 128MB fuer diese Aufloesung und AA/AF zu knapp ist.AF erhöht die Speicher-Anforderungen nicht.

Demirug
2004-01-04, 16:44:25
Original geschrieben von robbitop
das meine ich so:

NoAF:
NV35 4 Texel/Takt
R3xx 8Texel/Takt

Füllratenrückstand: delta 4 Texel/Takt

AF:
NV35: 8 Texel/Takt
R3xx: 8Texel/Takt

Füllratenrückstand: delta 0

P.S
mit Texel meine ich also verfügbare Rechenleistung der TMUs in der jeweiligen Situationen.
Diese Betrachtung gibt Peakwerte an und ist damit Theorie

Ja die Texel/Takt sind gleich aber ich habe ja schon lange den Verdacht das ATI im Durchschnitt mit weniger Texel pro Pixel arbeitet als nV. Um das aber zu überprüfen müsste man einige Stunden investieren.

aths
2004-01-04, 16:44:41
Original geschrieben von betareverse
Ich finde es übrigens mal wieder äußerst unterhaltsam, dass einige NV-Fans sofort paranoid werden und x-bit vorwerfen die Benchmarks manipuliert zu haben, und dass sie unseriös sind, weil sie so einen Leak öffentlichen benchen. Einige Leute hier merken wohl garnichts mehr!? :ratlos: Weder das war nötig...

Original geschrieben von LovesuckZ
Du bist der 2. Fanatiker, ja ich sags so wie es ist, der sich über Leute lustig macht, die Dinge hinterfragen.
Und ich hoffe, dass dieses Teil deines Postings geloescht wird, denn es stoert einfach!
Schade, aber diskutieren in diesen Fporum scheint wohl dann nicht mehr zu gehen, wenn man sich nicht mit Sachen zu frieden gibt...... noch das.

jay.gee
2004-01-04, 16:54:53
wenn ich richtig informiert bin,arbeiten die entwickler von stawlker sehr eng mit nvidia zusammen (das sage ich als "ATI-USER") ATI war damals an stawlker nicht interessiert.

Ich denke schon dass die "nvidia-user" gute frameraten bekommen werden. genaugenommen bin ich davon überzeugt dass beide zielgruppen zufrieden gestellt werden.

irgendwie ist es hier immer das gleiche: ATI vS NVIDIA!
ich gehöre nicht zu den leuten,die einen grafikkarten-hersteller favorisieren. man sollte alles mal sachlich und neutral sehen. ich habe lange selbst nvidiakarten mein eigen genannt. jetzt habe ich halt mal eine ati ausprobiert. in den jeweiligen klassen (zb. FX5900 vs 9800pro) sehe ich auch nicht so grosse unterschiede.

beide firmen liefern sich "eigentlich" ein kopf an kopf rennen. bei dem einem game holt der eine 2 fps mehr,in einem andrem game holt der andere wieder 2fps mehr.

was sollten wir daraus lernen? beide liefern in verschiedenen preisklassen produkte ab,die von der technik ziemlich gleich auf sind. wäre das anders,und man könnte eine karte GANZ KLAR hervorheben,würde es solche diskussionen wie diese gar nicht geben ;)

nebenbei bemerkt:
ist es nicht egal ob man zb. UT2k3 in 125 oder 122 FPS spielt? auch wenn es nicht jeder wahr haben will,es ist egal, am spielgefühl ändert das nichts.

ich bin froh dass keiner von beiden zur zeit ein machtmonopol hat. das wäre defintiv ein nachteil für alle kunden.
zur zeit habe ich eine 9800pro. hätte ich eine fx5900,wäre ich nicht unglücklicher. denn beide karten sind "top-produkte",die ihre stärken je nach game sicher und locker ausspielen werden.

macht keine religion aus einer karte......in 8 monaten haben wir eh "alle" wieder andere karten unter der haube. dann lässt man die benchmarks wieder laufen,testet und testet,und wartet auf games,die endlich der neuen graka gerecht werden. das ist immer so gewesen:

meine his:
-Matrox Mystique 4MB <--- wenn schon... wenn schon ;)
da habe ich noch strike commander gespielt...

-voodoo 1 (diamond monster)
zum 1x q2 mit 3dfx effekten

-voodoo banshee (diamond)
die hatte nur 2 texturpipelienes wenn ich mich richtig erinnere.

-voodoo 3 2000 oder 3000 ? *grübel*

-geforce 2MX (3d prophet)

-ELSA Gladiac GeForce2 GTS

-geforce 3 ti-500 (leadtek)
da diese nach kurzer zeit defekt war,war comtech so net und hat sie mir ohne aufpreis gegen die ti4200 eingetauscht :) *netter service*

geforce 4 ti-4200 (pixelview)

power color radeon 9800pro ist mein aktuelles babe

zeckensack
2004-01-04, 16:55:47
Original geschrieben von Odal
und dann in einem bench die FX5900 23.9 fps und die FX5950ultra 62.4 bitte?4xAA ist auf NV38 "filter on scanout", und braucht daher viel mehr Speicher, als zB auf den aktuellen Radeons. Ich denke, die 5950U ist eine 256MB-Version, und die 'normale' 5900er eine 128MB-Version.

Die 9800XT ist ganz sicher eine 256MB-Version (es gibt AFAIK nichts anderes), bei der 9800Pro bin ich mir nicht sicher.

robbitop
2004-01-04, 17:04:08
Original geschrieben von Demirug
Ja die Texel/Takt sind gleich aber ich habe ja schon lange den Verdacht das ATI im Durchschnitt mit weniger Texel pro Pixel arbeitet als nV. Um das aber zu überprüfen müsste man einige Stunden investieren.

Kann ich dabei irgendwie behilflich sein? (habe NV35 und NV31 zur Verfügung und Zeit lässt sich schon irgendwie finden und jmd aus meinem Team hat eine R350 den ich fragen könnte)

betasilie
2004-01-04, 17:04:11
Original geschrieben von jay|gee
wenn ich richtig informiert bin,arbeiten die entwickler von stawlker sehr eng mit nvidia zusammen (das sage ich als "ATI-USER") ATI war damals an stawlker nicht interessiert.

Ich denke schon dass die "nvidia-user" gute frameraten bekommen werden. genaugenommen bin ich davon überzeugt dass beide zielgruppen zufrieden gestellt werden.


Ack. Ich glaube definitiv, dass die NV-Karten sehr gut mit STALKER laufen werden. Ich würde mich auch nicht wundern, wenn es einige Effekte/Details exklusiv auf FX-Karten geben würde, um den FXen auch einen "sichtbaren" Vorteil zu geben.

Der Leak ist trotzdem schlecht für NV, solange nicht gezeigt wird, dass ein aktuielles Build besser auf NV-Karten läuft.

Gast
2004-01-04, 17:59:18
Original geschrieben von jay|gee
[...]
nebenbei bemerkt:
ist es nicht egal ob man zb. UT2k3 in 125 oder 122 FPS spielt? auch wenn es nicht jeder wahr haben will,es ist egal, am spielgefühl ändert das nichts.
[...]

Es ist aber nicht egal wenn ich mit 30 FPS statt 120 FPS spiele. Sprich, mit einer teuer bezahlten High-End Karte noch nicht einmal die Framerate einer Mainstreamkarte des Konkurrenten erreiche. Und das trotz finanzieller Förderung durch den GPU-Hersteller. Da hört der Spaß schlicht und einfach auf.

Demirug
2004-01-04, 17:59:36
Original geschrieben von robbitop
Kann ich dabei irgendwie behilflich sein? (habe NV35 und NV31 zur Verfügung und Zeit lässt sich schon irgendwie finden und jmd aus meinem Team hat eine R350 den ich fragen könnte)

Ich müsste wohl erst mal noch ein paar Testfälle für meinen AF-Performance Tester (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=112415) bauen. Bei den bestehenden verhält sich ein R300 jedenfalls sehr merkwürdig.

Exxtreme
2004-01-04, 18:01:10
Original geschrieben von Quasar
Könnte das die Masche werden, mit der nV nun in den TWIMTBP-Games absahnen will?

So ganz von ungefähr hat ma ja sicherlich nicht der FX5700 das komplette VS-Array der nV35 gelassen. Es frisst sicherlich eine Menge Transistoren, die, wenn man sie eingespart hätte, der Taktung und somit der verfügbaren PS-Leistung zugute hätten kommen können.

nV hat aber wohl gesehen, daß hier gegen die R9600XT nicht viel mehr als ein Unentschieden zu holen wäre und den Hebel da angesetzt, wo ATi (im Mid-Range) nicht ohne redesign gleichziehen kann.

Wenn das so hinkäme, ein recht cleverer Schachzug, IMO.
Naja, man braucht schon verdammt viele Polygone damit die VS-Leistung limitiert. :) Ich glaube, soviele kriegt man nicht ohne Weiteres schnell genug durch den AGP-Port. Denn neben der Geometriedaten müssen noch viele andere Dinge durch. Und mir wäre neu, daß Stalker HOS-Support hat.

Ich glaube eher, daß es an der RAM-Menge liegt. Leider haben die bei xbitlabs nichts dazu geschrieben.

Demirug
2004-01-04, 18:05:35
[SIZE=1]Original geschrieben von Exxtreme
Naja, man braucht schon verdammt viele Polygone damit die VS-Leistung limitiert. :) Ich glaube, soviele kriegt man nicht ohne Weiteres schnell genug durch den AGP-Port. Denn neben der Geometriedaten müssen noch viele andere Dinge durch. Und mir wäre neu, daß Stalker HOS-Support hat./SIZE]

Wieso über den AGP? Geometrie kann man auch im Grafikkartenram lagern. Und man will ja gar nicht das der VS limitiert. Es geht eher darum berechnungen von Pro Pixel nach Pro Vertex zu verlagern. Dadurch wird der Flaschenhals Pixelshader auf Kosten des VS entlastet. Der Vertexshader hat aber ja wie du schon sagst meistens noch Luft.

SamLombardo
2004-01-04, 18:27:12
Original geschrieben von jay|gee
FX5900 vs 9800pro sehe ich auch nicht so grosse unterschiede.

beide firmen liefern sich "eigentlich" ein kopf an kopf rennen. bei dem einem game holt der eine 2 fps mehr,in einem andrem game holt der andere wieder 2fps mehr.

was sollten wir daraus lernen? beide liefern in verschiedenen preisklassen produkte ab,die von der technik ziemlich gleich auf sind. wäre das anders,und man könnte eine karte GANZ KLAR hervorheben,würde es solche diskussionen wie diese gar nicht geben ;)



Dito! Exakt so ist es. Dies wird auch von Seiten der NV User im Allgemeinen anerkannt (mein persönlicher Eindruck), nur andersrum nicht.:(

Und was anderes als Du geschrieben hast schreib ich auch nie! wenn es mal wieder um NVvs.Ati geht. Geflamed und gebashed wird leider wesentlich häufiger von der "anderen Seite"

Sorry für OT

zum Topic: Irgendwer hat in diesem Thread gepostet, dass es sich um eine 1,5 Jahre alte alpha handeln soll, in der NV Optimations noch nicht vorhanden waren. Und dass die FX diese braucht um ordentlich in Fahrt zu kommen ist ja bekannt. Also ist dieser Bench objektiv nicht viel mehr wert als die alten Half Life Benchmarks...
Ergo: Abwarten:)

Odal
2004-01-04, 18:32:56
ja das alpha benches absolut untauglich sind steht wohl ausser frage, allerdings waren einige ungereimtheiten unter den chips eines gleichen herstellers aufgetaucht, und man fragt sich woran das liegt.

SamLombardo
2004-01-04, 18:39:59
Original geschrieben von Odal
ja das alpha benches absolut untauglich sind steht wohl ausser frage, allerdings waren einige ungereimtheiten unter den chips eines gleichen herstellers aufgetaucht, und man fragt sich woran das liegt.

Ist natürlich richtig:)

Sam

deekey777
2004-01-04, 18:42:17
Noch etwas OT: STALKER wird für nVidia das sein, was für ATi HL2 ist (ohne die Millionen U$). Irgendwie konnte nVidia ihre Karten schneller an die Entwickler liefern als ATi. Darum mögen die Entwickler nVidia etwas mehr. Das heisst, dass STALKER auch die FX-Spielerein nutzen könnte - so gut, wie es geht. Aber die geleakte Version ist nunmal uralt. Ob sie auch schon die DX9-Sachen benutzt, keine Ahnung.

LovesuckZ
2004-01-04, 18:46:29
Original geschrieben von deekey777
[...] Aber die geleakte Version ist nunmal uralt. Ob sie auch schon die DX9-Sachen benutzt, keine Ahnung.

Stimmt, dass sollte erstmal geklaert werden.

jay.gee
2004-01-04, 18:59:33
Original geschrieben von SamLombardo
Dito! Exakt so ist es. Dies wird auch von Seiten der NV User im Allgemeinen anerkannt (mein persönlicher Eindruck), nur andersrum nicht.:(

Und was anderes als Du geschrieben hast schreib ich auch nie! wenn es mal wieder um NVvs.Ati geht. Geflamed und gebashed wird leider wesentlich häufiger von der "anderen Seite"


dazu muss man auch die heutige berichterstattung der medien mit einbeziehen. die hersteller sind darauf bedacht,das schnellste produkt abzuliefern. schlägt ati zb nvidia in gängigen benchmarks um einige wenige punkte,hat man das eigentliche ziel schon erreicht.
man steht in der liste ganz weit oben.

das unterbewusstsein der käufer,leitet dieses fälschlicherweise leider immer in eine falsche richtung.
es erweckt sich beim kunden der eindruck,als würden zwischen den karten welten liegen. dabei sind es in der regel oft nur wenige pünktchen,die beide voneinander trennt. und diese nicht mal auf alle games speziefisch gleich bezogen.

dazu kommt noch dass die ganzen benches immer auf systemen durchgeführt werden,die eigentlich nur wenige leute ihr eigen nennen. andere komponenten,schon kann ein ergebniss wieder anders aussehen.

was solls....ich bin froh,dass ich mich von medien ect nicht so manipulieren lasse. ich mache aus einer graka auch keine religion. jetzt fahre ich ati,beim nächsten mal kann es schon wieder nvidia sein.

hier mal ein paar gemeinsamkeiten der hersteller:
beide liefern highend grakas ab,die sich bis auf ein paar messbare werte in nichts nachstehen. beide bieten also ein top produkt.

beide kartenhersteller haben auch karten auf dem markt,die technisch der letzte müll sind. da bei dem ganzen zahlensalat und produktbezeichnungen die masse eh net mehr durchblickt,nutzt man dieses gechickt aus. da wird langsamer billiger speicher verbaut,pilines deaktiviert......man stetzt da ein SE,pro,ulta usw. hinter....schon ist man auch die billigschore los.
ich betone,so arbeiten beide parteien.

beide bieten auch schnelle gute preisleistungsangebote,die sich oft nur in kleinen details unterscheiden.

nun die quizfrage: welcher aspekt hat euch manipuliert? ;)
evtl. sollte man auch mal wissen,wer hintern den beiden firmen steckt,wer zu wem abgewandert ist usw (schon zu 3dfx-zeiten) wenn man das peilt,peilt man auch das beide eigentlich über die gleichen technologien verfügen.

Riptor
2004-01-04, 19:06:51
Original geschrieben von SamLombardo
Und was anderes als Du geschrieben hast schreib ich auch nie! wenn es mal wieder um NVvs.Ati geht. Geflamed und gebashed wird leider wesentlich häufiger von der "anderen Seite", Sorry für OT

Kann man endlich mal dieses mit-dem-Finger-auf-andere-zeigt-da-die-"schlimmer"-sind lassen? So wirds auch nicht besser und es ist nicht wirklich das Thema hier. Kannst dich ja hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=115532) einbringen, wie ihr euch besser vertragen könnt bzw. das Klima hier ein wenig freundlicher wird. ;)

Original geschrieben von jay|gee
was solls....ich bin froh,dass ich mich von medien ect nicht so manipulieren lasse. ich mache aus einer graka auch keine religion. jetzt fahre ich ati,beim nächsten mal kann es schon wieder nvidia sein.

Sehr, sehr löbliche Einstellung, vllt wird sie diesen Thread hier auf das Thema "ATI vs. nVidia" wieder etwas beruhigen. ;)

Zu Stlaker: Das Problem bei Stalker ist IMO das Gleiche wie bei HL² und D³: Es sagt eigentlich wieder nichts greifbares aus. Warum können die Spiele nicht einfach erscheinen, bevor andauernd Alphas und Betas "getestet" werden? Ich mein, ist ja wunderbar, man kann sich jetzt ein Bild davon machen, wie der "Stand der Dinge" bei Stalker ist (wobei nicht klar ist, wie alt oder neu die Version ist, die getestet wurde), aber im Grunde genommen bringts einen auch nicht weiter. Die großen DX9-Spiele werden eh mit R420 und NV40 erscheinen. Das Stalker-Preview zeigt eigentlich nur das, was 3D Murks 03, HL² etc. eventuell schon angedeutet haben (falls wirklich viele DX9-Shader verwendet werden!): Shaderschwäche bei den FX-Karten, kein neues Thema und trotzdem bringt es kaum was das als GROSSEN Kritikpunkt anzuheften, denn noch fehlt die Software, die die DX9-Schwäche bestätigt (Ausnahme: Das "blendende" TR:AoD...).
Damit ist Stalker wieder ein Beispiel, aber mehr auch nicht, denn die finale Version ist mal wieder meilenweit in der Ferne...
Nur: Kann es nicht sein, dass hier eher eine DX8.1 Schwäche vorliegt? Ich mein, Max Payne 2 ist auch so ein Beispiel, wo die großen FX-Karten ihrne Konkurrenten unterlegen sind, nur warum ist das so?

LovesuckZ
2004-01-04, 19:20:37
Original geschrieben von Riptor
Nur: Kann es nicht sein, dass hier eher eine DX8.1 Schwäche vorliegt? Ich mein, Max Payne 2 ist auch so ein Beispiel, wo die großen FX-Karten ihrne Konkurrenten unterlegen sind, nur warum ist das so?

anisotroper/n Filter mein Lieber, anisotroper/n Filter.

Sunrise
2004-01-04, 19:29:54
Die Benches sind recht interessant, eröffnet auch gleich wieder ein anderes Bild beider Firmen hinsichtlich der Produktverteilung.

1. Bei ATI sieht man die Abgrenzung Low-/Mid-End zu High-End SEHR deutlich. Selbst bei Auflösungen um 1024x768 (AA/AF) wird man dazu ermutigt, eine High-End ATI zu kaufen.

2. Bei NV scheint durch die stark verbesserte (inkl. Takterhöhungen) 5700 Ultra diese Grenze nicht klar ersichtlich. Eine sehr empfehlenswerte Karte wenn man Preis/Leistung in Betracht zieht, und nicht höher als 1280x1024 (inkl. AA/AF) gehen will.

(1. und 2. natürlich nur auf Basis der STALKER-Version, die bei xbitlabs getestet wurde, bitte keine falschen Rückschlüsse ziehen)

http://www.xbitlabs.com/images/editorial/stalker/escape_1600_4x8x.gif

- Erklärung bedarf allerdings der starke Einbruch der 9800 Pro gegenüber der XT. Reine Rohleistung ? Wohl kaum.

Mr. Lolman
2004-01-04, 19:35:28
Vielleicht wars nur eine 128MB 9800pro :???:

StefanV
2004-01-04, 19:51:14
@Lolman
Ehrlich gesagt kann ich mir den Abstand nur durch Speichermangel erklären.
Gerade durch den Unterschied zwischen 5900 und 5950ULTRA könnte man zu dem Schluss kommen, da der größte Unterschied zwischen diesen Karten die Speichermenge ist...

Füllrate würde eigentlich fast auszuschließen sein, wobei ich momentan nicht weiß, wie effizient die 'HSR' Methoden der FX arbeiten.

Aquaschaf
2004-01-04, 20:21:50
Bei 1600x1200 wird der Speicher mit 4xAA bei Karten mit 128MB wohl schon knapp. Ansonsten... wenn das fertige Spiel so schnell wie die Alpha läuft wäre es schön :)

Quasar
2004-01-04, 20:27:37
Wo ist denn der Post von Voodoo7mx abgeblieben. Als ich die Seite vorhin öffnete, war da noch einer und nun, als ich wieder online ging, war er auf einmal weg.... :| :| :|

Er war direkt hinter dem letzten Post von betareverse (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&postid=1462047#post1462047) in diesem Thread.

deekey777
2004-01-04, 21:36:41
Original geschrieben von Riptor

...
Nur: Kann es nicht sein, dass hier eher eine DX8.1 Schwäche vorliegt? Ich mein, Max Payne 2 ist auch so ein Beispiel, wo die großen FX-Karten ihre Konkurrenten unterlegen sind, nur warum ist das so?

Sag das aber nicht weiter :D

Schon die GT2&3 haben schon etwas in diese Richtung angedeutet (mit Vergleich zwischen dem Patch 340 und 53.03), was unlogisch ist. Vielleicht liegt es daran, dass nVidia PS 1.4 nicht mag - nur so, aus Prinzip. MP2 ist aber auch ein DX9-Spiel, welches aber PS bis 1.4 verwendet. Vielleicht ist bei der STALKER-Alpha zu diesem Zeitpunkt das gleiche gegeben, da diese 1,5 Jahre alt ist (http://www.gamestar.de/news/pc-spiele/action/14894/) und diese Alpha auch noch die "E3 2002"-Version ist und zur damaligen Präsentation noch keine DX9-Hardware verwendet werden konnte -> also nur höchstens PS 1.4. Vielleicht hätten die Leute von X-Bit sich auch etwas Mühe machen sollen und die einzelnen Shader untersuchen sollen - falls möglich.

PS: Alles nur Spekulationen, bitte nicht gleich steinigen.

Demirug
2004-01-04, 21:47:39
Wobei MP2 nur für die Spiegel PS 1.4 benutzt. Wie viele Spiegel gibt es im Spiel? Es kann also nicht wirklich an den PS 1.4 liegen.

deekey777
2004-01-04, 21:59:55
Original geschrieben von Demirug
Wobei MP2 nur für die Spiegel PS 1.4 benutzt. Wie viele Spiegel gibt es im Spiel? Es kann also nicht wirklich an den PS 1.4 liegen.

Dazu kommen noch Spiegelungen auf dem Boden: http://www.hardocp.com/image.html?image=MTA2ODg4MzI4OW5UdGxCa1ZJTUVfNV83X2wuanBn <-> http://www.hardocp.com/image.html?image=MTA2ODg4MzI4OW5UdGxCa1ZJTUVfNV80X2wuanBn und Pixel Shader Skins (bin mir aber nicht sicher), was aber bis vor Kurzem auf R2x0-Karten so aussah, ob eine dicke Lackschicht im Gesicht ist.

Und die Spiegelbilder sehen zum Kotzen aus!

Gast
2004-01-04, 22:00:24
Original geschrieben von deekey777
Sag das aber nicht weiter :D

Schon die GT2&3 haben schon etwas in diese Richtung angedeutet (mit Vergleich zwischen dem Patch 340 und 53.03), was unlogisch ist. Vielleicht liegt es daran, dass nVidia PS 1.4 nicht mag - nur so, aus Prinzip. MP2 ist aber auch ein DX9-Spiel, welches aber PS bis 1.4 verwendet. Vielleicht ist bei der STALKER-Alpha zu diesem Zeitpunkt das gleiche gegeben, da diese 1,5 Jahre alt ist (http://www.gamestar.de/news/pc-spiele/action/14894/) und diese Alpha auch noch die "E3 2002"-Version ist und zur damaligen Präsentation noch keine DX9-Hardware verwendet werden konnte -> also nur höchstens PS 1.4. Vielleicht hätten die Leute von X-Bit sich auch etwas Mühe machen sollen und die einzelnen Shader untersuchen sollen - falls möglich.

PS: Alles nur Spekulationen, bitte nicht gleich steinigen.

ich würd emal sagen dass es gesichert ist dass nicht mit der geleakten alpha getestet wurde. Denn dort sind bilder die es in der alpha so gar nicht gibt. Deshalb ist es wohl eine recht aktuelle beta die dementsprechend auch schon directx9 effekete unterstützt.

Gast
2004-01-04, 22:02:04
ok vergesst was ich da grad geschrieben habe :)

LovesuckZ
2004-01-04, 22:18:29
Original geschrieben von deekey777
[...] MP2 ist aber auch ein DX9-Spiel, welches aber PS bis 1.4 verwendet.

:???:

Ansonsten: Koennte es auch einfach nur am AF liegen?

reunion
2004-01-04, 22:25:38
Naja, ganz intressante Benchs, die allerdings wohl wiedereinmal kaum etwas aussagen... (außer das man mit einer ATI-Karte für die Zukunft gut gerüstet ist, auch für STALKER :D )

deekey777
2004-01-04, 22:44:09
Original geschrieben von LovesuckZ
:???:

Ansonsten: Koennte es auch einfach nur am AF liegen?


http://www.beyond3d.com/interviews/maxpayne2/ : "...Max Payne 2 is a DX8.1 game although it requires the DX9 runtime (why is that, btw?)..." Das beste:"In terms of performance, Max Payne 2 actually runs faster than the original game based on the same machine spec, while looking better."

Was meinst du mit AF?

"Meanwhile without the eye-candy additions, mainstream RADEON 9600-series fall behind the GeForce FX 5700 Ultra probably because the latter is capable of ultimately powerful T&L/Vertex Shaders processors." (http://www.xbitlabs.com/articles/editorial/display/stalker_7.html ; unten)

Gil-galad
2004-01-04, 23:25:06
Wieso sprechen hier immer gewisse Leute von der leaked Alpha? Das schreibt X-Bit-Labs: "The actual final version of the game we tested may behave a bit differently since software makers will continue to optimise their code"

Es handelt sich also um die aktuellste Final und nicht um irgend eine alte Alpha. Von daher sind die Werte durchaus als seriös zu erachten.

X-Bit Labs haben sehr gute Beziehungen zu diversen Herstellern, wieso sollen sie also nicht die aktuellste Final von GSC erhalten haben?

Gil-galad
2004-01-04, 23:33:18
Original geschrieben von Mr. Lolman
Vielleicht wars nur eine 128MB 9800pro :???:

Defintiv ja. Hier aus den Comments: "Does Radeon 9800Pro have 128 or 256mb ram? Our RADEON 9800 PRO was equipped with 128MB of memory."

Demirug
2004-01-04, 23:48:58
Original geschrieben von AiS|Gil-galad
Wieso sprechen hier immer gewisse Leute von der leaked Alpha? Das schreibt X-Bit-Labs: "The actual final version of the game we tested may behave a bit differently since software makers will continue to optimise their code"

Es handelt sich also um die aktuellste Final und nicht um irgend eine alte Alpha. Von daher sind die Werte durchaus als seriös zu erachten.

X-Bit Labs haben sehr gute Beziehungen zu diversen Herstellern, wieso sollen sie also nicht die aktuellste Final von GSC erhalten haben?

X-Bit Labs haben aber auch gewissen Ruf was das benutzten von geleakeden Sachen angeht. Und eine Aussage wie

Following the traditions, we test whatever software or hardware we get just to share the valuable experience with our readers.

macht auf mich nicht gerade den Eindruck als ob man diese Version über einen offiziellen Weg erhalten hat. Zudem darf GSC wahrscheinlich auch gar nicht aleine entscheiden an wenn Testversionen vergeben werden.

Zudem sagt das Zitat wenn mich mein Englisch nicht ganz im Stich lässt nichts anderes aus das es nicht die Verkaufsversion ist ohne dabei aber eine Aussage bezüglich der aktualität zu treffen.

Gil-galad
2004-01-04, 23:54:02
Ja sie sprechen aber auch von einer "actual final version". Und um eine "actual final version" handelt es sich bei der leaked Alpha sicher nicht, oder siehst Du das anders?

Demirug
2004-01-04, 23:59:07
the actual final version = die tatsächliche entgültige Version.

Die aktuelle Version = the current version.

actual ist so ein Wort das man als deutscher gerne falsch übersetzt.

deekey777
2004-01-05, 00:00:19
Es sieht so aus, dass ihr beide Recht habt! Es handelt sich wohl doch nicht um die "geleakte" Alpha, aber stutzig macht mich Comment Nr. 4:"This site just lost any shreds of reputability it may have had."&"I'm afraid they've run out of the little reputation they had left, if any.

Wonder what would happen if the STALKER team, Valve and Id got to know about the questionable affairs of Xbit labs?"

Auch der obligatorische Dank an die Entwickler fehlt. Dazu kommt noch, dass "...the developers will enable more Pixel Shaders or Vertex Shaders"

Gil-galad
2004-01-05, 00:09:48
Also halten wir fest: Es handelt sich nicht um die leaked Alpha und vermutlich um keine freigegebene aktuelle Alpha/Beta (oder was auch immer).

@ Demi Du hast ne PN (nicht wegen dem Thread)

MadMan2k
2004-01-05, 00:18:27
Original geschrieben von Demirug
actual ist so ein Wort das man als deutscher gerne falsch übersetzt.
als Russe doch wohl auch - von daher kann es durchaus sein, dass sie eine Aktuellere haben.
Näheres kann wohl nur eine Stellungnahme ihrerseits klären...

Demirug
2004-01-05, 00:22:20
Original geschrieben von AiS|Gil-galad
Also halten wir fest: Es handelt sich nicht um die leaked Alpha und vermutlich um keine freigegebene aktuelle Alpha/Beta (oder was auch immer).


Das würde dann vorraussetzen das es zwei leaked Versionen gibt. Was ich aber nicht glaube.

x-bits hat die leaked Alpha gesehen und sich gleich darauf gestürzt. Das ist doch der übliche Modus Operandi.

Gil-galad
2004-01-05, 00:36:15
Original geschrieben von Demirug
Das würde dann vorraussetzen das es zwei leaked Versionen gibt. Was ich aber nicht glaube.
Man weiss nie ;)


x-bits hat die leaked Alpha gesehen und sich gleich darauf gestürzt. Das ist doch der übliche Modus Operandi.
Durchaus vorstellbar.

OT: Wäre das aber dann nicht strafbar? Ich meine der Besitz der leaked Alpha ist ja schon strafbar. Und dann auch noch damit benchen etc.?

Exxtreme
2004-01-05, 00:39:03
Original geschrieben von AiS|Gil-galad
OT: Wäre das aber dann nicht strafbar? Ich meine der Besitz der leaked Alpha ist ja schon strafbar. Und dann auch noch damit benchen etc.?
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1461328#post1461328

;)

mapel110
2004-01-05, 00:40:08
Original geschrieben von AiS|Gil-galad
OT: Wäre das aber dann nicht strafbar? Ich meine der Besitz der leaked Alpha ist ja schon strafbar. Und dann auch noch damit benchen etc.?

tja, das stört in russland keinen. :)

/edit
ack @exxtreme

SKYNET
2004-01-05, 06:06:23
Original geschrieben von LovesuckZ
Du meinst mit illegalen Versionen zu benchen und das nicht zum ersten Mal, sei kein Verlust der Seriösitaet?
Wobei die Ergebnisse ja nichtmal schlecht sind, sondern ich aber auch gerne wissen möchte, warum dir 5700U auch ohne AA/AF mit der 5900XT mithalte...
Oder besser: Ohne AA/AF ist die 5700U ein ernstzunehmender Konkurent zur 9800pro, und hier endet dann auch mein Verstaendnis für diesen "Test"...

/edit: Die Ergebnisse auf Seite 6 sind wohl ausgedacht, denn ich denke nicht, dass eine 5700U mit einer 5950U mithalten koenne...

du weißt aber das es ne offizielle demo gibt gell ?

[edit] kupel hat falsche infos geliefert :eek:

mapel110
2004-01-05, 06:41:58
Original geschrieben von SKYNET
du weißt aber das es ne offizielle demo gibt gell ?

wo denn? (http://www.gsc-game.com/index.php)

Demirug
2004-01-05, 07:25:05
Original geschrieben von SKYNET
du weißt aber das es ne offizielle demo gibt gell ?

Könnte es sein das du Stalker und Firestarter verwechselst?

SKYNET
2004-01-05, 08:47:10
Original geschrieben von Demirug
Könnte es sein das du Stalker und Firestarter verwechselst?

[edit] kumpel hat falsche infos geliefert *asskick*
und auch sofort nen einlauf dafür kassiert ;D

deekey777
2004-01-05, 12:49:38
Noch ein interessanter Kommentar: "The problem is in the fact that they are actually using a May 2002 DirectX 7 X-ray engine for the benchmark, which won't even work with DX9-generation cards in the release of the game."

Wenn es dennoch um die Alpha handelt, dann wäre dieser "Test" die erste Peinlichkeit dieses Jahres.

zeckensack
2004-01-05, 13:37:22
Original geschrieben von AiS|Gil-galad
Ja sie sprechen aber auch von einer "actual final version". Und um eine "actual final version" handelt es sich bei der leaked Alpha sicher nicht, oder siehst Du das anders? "The actual final version of the game we tested may behave a bit differently [...]"

Würde ich so lesen:
The actual final version =>of the game we tested<= may behave a bit differently.
Und nicht so:
=>The actual final version of the game<= we tested may behave a bit differently.

Sie haben nicht die "final version" getestet. Sie haben ein Spiel getestet, dessen final version sich voraussichtlich ein wenig anders verhalten wird. Anders macht's auch keinen Sinn.

"Die Finalversion des Spiels, welche wir getestet haben, wird sich etwas anders verhalten" ... anders als was?

SamLombardo
2004-01-05, 13:54:20
dito@Zeckensack
"The actual final version of the game we tested may behave a bit differently"

Wörtlich übersetzt:
Die tatsächliche Finalversion des Spiels das wir getestet haben könnte sich etwas anders verhalten.

Ergo: Man hat nicht die Finalversion getestet:)

Gast
2004-01-05, 14:17:29
sie hatten weder eine final noch ne beta version, und sie hatten auch nie erwähnt das es sich überhaupt um stalker handelt sondern nur um noch ein dx9 spiel.

Und weil wird die nicht legale alpha version benutzt haben dürfen wir auch keine details preisgeben weil wir sonst am arsch sind

http://oblivion-lost.xu2.net/index.php?site=news.php

Gil-galad
2004-01-05, 14:27:23
"Danke für das Feedback.

Wir haben nie gesagt, dass wir das Spiel STALKER getestet haben, sondern haben nur die Überschrift unserer Benchmarks so gewählt - yet another DX9 game (noch ein DX9 Spiel)."

Das steht in der News. Komisch nur, dass es eine Demo mit dem Namen Chernobyl gibt. Aber vermutlich entwickeln grad sehr viele Spielefirmen ein Spiel, das unteranderem in Chernobyl spielt :crazy:

Also doch unseriös. Schade eigentlich.

DrumDub
2004-01-05, 15:40:42
Original geschrieben von AiS|Gil-galad
"Danke für das Feedback.

Wir haben nie gesagt, dass wir das Spiel STALKER getestet haben, sondern haben nur die Überschrift unserer Benchmarks so gewählt - yet another DX9 game (noch ein DX9 Spiel)."

Das steht in der News. Komisch nur, dass es eine Demo mit dem Namen Chernobyl gibt. Aber vermutlich entwickeln grad sehr viele Spielefirmen ein Spiel, das unteranderem in Chernobyl spielt :crazy:

Also doch unseriös. Schade eigentlich.

nene, es handelt sich schon um die alpha von stalker, mit welcher gebencht wurde. nur haben die jungs von xbitslabs wohl nach dem ärger um dei benches mit der hl2alpha/beta wohl keinen bock mehr gehabt, dass an die große glocke zu hängen... die formulierung über den eigentlichen benchmarks "Yet Another Highly-anticipated DirectX 9.0 game". so kann man ihnen nicht nachweisen, dass die benches wirklich von der alpha sind, obwohl im artikel alles darauf hinweist...

Gil-galad
2004-01-05, 15:49:56
Original geschrieben von DrumDub
nene, es handelt sich schon um die alpha von stalker, mit welcher gebencht wurde. nur haben die jungs von xbitslabs wohl nach dem ärger um dei benches mit der hl2alpha/beta wohl keinen bock mehr gehabt, dass an die große glocke zu hängen... die formulierung über den eigentlichen benchmarks "Yet Another Highly-anticipated DirectX 9.0 game". so kann man ihnen nicht nachweisen, dass die benches wirklich von der alpha sind, obwohl im artikel alles darauf hinweist...

Das macht das ganze im Endeffekt aber unseriös ;)

Black-Scorpion
2004-01-05, 16:07:59
Original geschrieben von AiS|Gil-galad
Das macht das ganze im Endeffekt aber unseriös ;)
So lange das Spiel oder eine Demo nicht erhältlich ist, sind alle Benches im Grunde unserios.
Da keine Möglichkeit (offiziell) besteht die Ergebnisse zu kontrollieren, zu bestätigen oder zu wiederlegen.

DrumDub
2004-01-05, 16:22:22
Original geschrieben von AiS|Gil-galad
Das macht das ganze im Endeffekt aber unseriös ;)

wie dem auch sei. ich hab auf jeden fall mehr vertrauen zu xbitlabs denn zu thg. auf jeden fall haben die russen schon ne menge ahung und eben keine gesetze gegen den illegalen besitz von software... ;)

Gil-galad
2004-01-05, 16:24:32
Original geschrieben von DrumDub
wie dem auch sei. ich hab auf jeden fall mehr vertrauen zu xbitlabs denn zu thg. auf jeden fall haben die russen schon ne menge ahung

Hehe da stimm ich Dir voll zu.

deekey777
2004-01-05, 16:40:38
Unseriös? Das ist doch eine Untertreibung!

betasilie
2004-01-05, 16:46:01
Original geschrieben von DrumDub
wie dem auch sei. ich hab auf jeden fall mehr vertrauen zu xbitlabs denn zu thg.
Definitiv.

Leonidas
2004-01-05, 16:55:40
Original geschrieben von AiS|Gil-galad
Wieso sprechen hier immer gewisse Leute von der leaked Alpha? Das schreibt X-Bit-Labs: "The actual final version of the game we tested may behave a bit differently since software makers will continue to optimise their code"

Es handelt sich also um die aktuellste Final und nicht um irgend eine alte Alpha. Von daher sind die Werte durchaus als seriös zu erachten.



Das dachte ich eigentlich auch, daß die Russen von den x-bit Labs sich von den Russen von den Stalker-Entwicklern eine aktuelle Version haben geben lassen.

Nun gut, Irrtum. Wäre eh egal gewesen, denn alle Benches von nicht-Retail-Versionen sind aus Prinzip nutzlos, weil sich bis zur Retail-Version immer noch etwas ändern kann.

Leonidas
2004-01-05, 17:25:14
Leonidas: your Stalker benchmarks are from the leaked version?

x-bit Labs: Anton Shilov: Hi! We've never confirmed use of any Stalkers or leaked versions, Ronald

Leonidas: ok, your "Yet Another DirectX 9 Game" benchmarks are from a leaked version?

x-bit Labs: Anton Shilov: Well, software we use is quite often obtainable from multiple sources. At some point you may call it whatever you would like :)

Gil-galad
2004-01-05, 17:27:10
Original geschrieben von Leonidas
Das dachte ich eigentlich auch, daß die Russen von den x-bit Labs sich von den Russen von den Stalker-Entwicklern eine aktuelle Version haben geben lassen.


Eigentlich sind die Stalker-Entwickler Ukrainer ;)

BTW irren ist menschlich ;)

betasilie
2004-01-05, 17:30:22
Original geschrieben von Leonidas
Leonidas: your Stalker benchmarks are from the leaked version?

x-bit Labs: Anton Shilov: Hi! We've never confirmed use of any Stalkers or leaked versions, Ronald

Leonidas: ok, your "Yet Another DirectX 9 Game" benchmarks are from a leaked version?

x-bit Labs: Anton Shilov: Well, software we use is quite often obtainable from multiple sources. At some point you may call it whatever you would like :)
:bigl: Den muss man ja alles aus der Nase ziehen. Ich frage mich was das Spielchen soll, obwohl sie keine rechtlichen Konsequenzen fürchten müssen.

Leonidas
2004-01-05, 17:31:56
Original geschrieben von AiS|Gil-galad
Eigentlich sind die Stalker-Entwickler Ukrainer ;)



Ich trete jetzt zwar allen Ukrainern auf die Füße, aber: Wo liegt da der Unterschied? Ist wie als wenn sich Bayern plötzlich eigenständig fühlen würde.

Nebenbei: Anton Shilov war mal bei Reactor Critical und ist demzufolge vermutlich auch Ukrainer.

Gil-galad
2004-01-05, 17:43:07
Original geschrieben von Leonidas
Ist wie als wenn sich Bayern plötzlich eigenständig fühlen würde.

Tun sie doch auch irgendwie ;)

Ok schluss damit, sonst artet es noch aus.

DrumDub
2004-01-05, 20:10:48
Original geschrieben von Leonidas
x-bit Labs: Anton Shilov: Well, software we use is quite often obtainable from multiple sources. At some point you may call it whatever you would like :)

sehr philisophisch ausgedrückt... ;D

Quasar
2004-01-05, 20:22:15
Original geschrieben von Leonidas
Ich trete jetzt zwar allen Ukrainern auf die Füße, aber: Wo liegt da der Unterschied? Ist wie als wenn sich Bayern plötzlich eigenständig fühlen würde.

Nebenbei: Anton Shilov war mal bei Reactor Critical und ist demzufolge vermutlich auch Ukrainer.

Hm, mal kurz nachdenken....

Auf jeden Fall sind sie nicht so freundlich zueinander, wie die dänische Minderheit in Schleswig-Holstein zu den Deutschen, die jetzt in ihrem Land herrschen.

Vielleicht liegt es daran, daß sie ein wenig unterdrückt wurden, lange Zeit?

Leonidas
2004-01-05, 20:30:49
Original geschrieben von Quasar
Hm, mal kurz nachdenken....

Auf jeden Fall sind sie nicht so freundlich zueinander, wie die dänische Minderheit in Schleswig-Holstein zu den Deutschen, die jetzt in ihrem Land herrschen.

Vielleicht liegt es daran, daß sie ein wenig unterdrückt wurden, lange Zeit?


Das mag richtig sein.

SKYNET
2004-01-06, 07:37:04
Original geschrieben von AiS|Gil-galad
Das macht das ganze im Endeffekt aber unseriös ;)

unseriös ist es nur wenn die der einen graka firmas mal nen "paar frames zustecken" so wie THG intel gerne nen paar pkt. schenkt damit sie besser dastehn in benches.

aber wenn sie mit ner alpha testen *wayne*
finds ok und würde es begrüßen wenn auch andere sites das machen würden weil man so schon ein wenig sehn kann was die aktuellen grakas bei kommenden games leisten ;)

Odal
2004-01-06, 09:02:31
das kann man halt noch nicht sehen was die leisten koennten, da optimierungen immer erst am schluss kommen.
von daher alphabench=absolut nutzlos.

das einzige was man sehen konnte waren schonmal schoene screenshots..aber die kann man auch woanderst herbekommen