PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Ist die Radeon 2900XT Reihe geflopt?


Gast
2007-08-31, 17:28:53
Hab eben nochmal bei Internetversendern die AMD-Karten durchgeschaut. Kaum einer hat noch die 2900XT auf Lager. 2600XT gibts dagegen wie geschnitten Brot. Lieferschwierigkeiten werden es wohl nicht sein.

Weiß jemand, ob inzwischen schon was am Geräuschpegel unter Last behoben wurde?

Gibt es eigentlich überhaupt einen Grund sich die 2900XT zu kaufen? - Welcher könnte das sein?

MartinRiggs
2007-08-31, 17:46:57
Weiss nicht bei welchen Versendern du schaust, aber wenn man über Geizhals schaut ist die HD2900XT eigentlich ziemlich gut lieferbar.

Coda
2007-08-31, 17:50:12
Bei Alternate ist gerade mal die HIS und die Sapphire 1024MB lieferbar. Das ist schon ungewöhnlich nach so langer Zeit.

=Floi=
2007-09-01, 01:58:02
uu werden die stückzahlen gedrosselt, damit die teuren chips weniger kosten verschlingen und eher die kleinen karten abgesetzt werden

als flop würde ich die karte auch wieder nicht bezeichnen, da es durchaus anwendungsgebiete (OGL, wissenschaftliche berechnungen ) gibt, wo die karte stark ist aber gegenüber der X1950XT ist die karte sicherlich ein rückschritt
wer zB nur Q4 und Quake Wars zockt der fährt sicherlich mit der karte besser
die 8800GTX ist nur deshalb so gut, weil sie sich einfach fast keine schwächen leistet und über die breite masse an spielen und settings sehr gut performt
ich möchte nicht wissen wie die bei ATI am G80 launch day geschaut haben ;D

James Ryan
2007-09-01, 07:08:12
Gibt es eigentlich überhaupt einen Grund sich die 2900XT zu kaufen? - Welcher könnte das sein?

Dank G80 gibt es eigentlich keinen richtigen Grund sich eine HD 2900 XT zu kaufen, es sei denn man ist wirklich ATi-Fan.

MfG :cool:

Der_Korken
2007-09-01, 11:10:44
Bei möglichen Kaufgründen wird es in der Tat eng für ATI. Man könnte vielleicht sagen, dass die Shaderpower in Zukunft interessant werden könnte und dass sie mit der GTS gleichzieht bei ähnlichem Preis ... dagegen spricht allerdings die schwache Texturpower und vor allem der hohe Stromverbrauch.

HOT
2007-09-01, 12:01:42
Bei DX10 macht ATI eine sehr gute Figur. Da ist man teilweise deutlich schneller als NV, also gibt es sehr wohl Kaufgründe, zumal die High-End Generationen heute länger halten als noch vor Jahren.
http://www.xbitlabs.com/articles/video/display/directx10-games.html

Und die 2900XT verkauft sich recht gut, vor allem, weil sie in den ganzen PC Zeitschriften (Spielezeitschriften, Hardwarezeitschriften usw.) deutlich besser wegkommt als die Geforce8800GTS.

LovesuckZ
2007-09-01, 12:06:48
Bei DX10 macht ATI eine sehr gute Figur. Da ist man teilweise deutlich schneller als NV, also gibt es sehr wohl Kaufgründe, zumal die High-End Generationen heute länger halten als noch vor Jahren.
http://www.xbitlabs.com/articles/video/display/directx10-games.html

Du kennst die Ergebnisse von Bioshock und LostPlanet? :rolleyes:


Und die 2900XT verkauft sich recht gut, vor allem, weil sie in den ganzen PC Zeitschriften (Spielezeitschriften, Hardwarezeitschriften usw.) deutlich besser wegkommt als die Geforce8800GTS.

Hast du Quellen für die guten Verkäufe der 2900XT? Die Mundpropagander ist eher negativ. Und in Zeitungen wird die Karte auch sehr abgestraft, vorallen in Sachen Lautstärke und Stromverbrauch.

Raff
2007-09-01, 12:08:53
[...] vor allem, weil sie in den ganzen PC Zeitschriften (Spielezeitschriften, Hardwarezeitschriften usw.) deutlich besser wegkommt als die Geforce8800GTS.

In welchen Zeitschriften soll das so sein? Mir ist keine bekannt, welche die 2900 XT ernsthaft lobt. Wie auch, es wäre größtenteils gelogen.

MfG,
Raff

Gast
2007-09-01, 12:13:08
"Bei DX10 macht ATI eine sehr gute Figur. Da ist man teilweise deutlich schneller als NV, also gibt es sehr wohl Kaufgründe, zumal die High-End Generationen heute länger halten als noch vor Jahren."

Uralte Treiber. Und wer sich den geringen Unterschied zwischen GTS und GTX anschaut, dem wird gleich klar das hier etwas nicht stimmt.

R600 für den Normalkunden mit seiner extremen Verspätung und anderen Problemen ist definitiv ein Flop, welchen man nun zu Preisen verkaufen muss, die definitiv unter dem liegen was man mal geplant hatte.
Die Restbestände an R600-Chips werden nun in den kommenden Monaten durch 2900Pro/GT abgestossen und man kann nur hoffen, dass es mit den für Ende07/Anfang08 geplanten GPUs für ATi wieder besser wird im High-End.

Gast
2007-09-01, 12:14:08
In welchen Zeitschriften soll das so sein? Mir ist keine bekannt, welche die 2900 XT ernsthaft lobt. Wie auch, es wäre größtenteils gelogen.

MfG,
Raff

Bitte nicht füttern, Raff.

Malabolge
2007-09-01, 12:25:35
Bitte nicht füttern, Raff.

Pssst - Operation 3D-FX2 nicht Stören !!! Hat einmal funktioniert , wird dieses mal auch klappen :wink::biggrin:

Am ende gibt eben HighEnd und Upper Mainstream Karten nur noch für 600€ Plus
Also immer schön mitbashen - so hat man sich schon mal von nem Konkurrenten "entsorgt".

ATI/AMD könnte jetzt ne Eierlegende Wollmichsau Nachlegen, aber das würde keinen Interresieren
ATI/AMD Bashing ist halt "in" zurzeit (Samsung gerüchte, Benchmurkse ja so schlecht (Penisvergleich !) , ..)

Gast
2007-09-01, 12:28:05
Pssst - Operation 3D-FX2 nicht Stören !!! Hat einmal funktioniert , wird dieses mal auch klappen :wink::biggrin:

Am ende gibt eben HighEnd und Upper Mainstream Karten nur noch für 600€ Plus
Also immer schön mitbashen - so hat man sich schon mal von nem Konkurrenten "entsorgt".

ATI/AMD könnte jetzt ne Eierlegende Wollmichsau Nachlegen, aber das würde keinen Interresieren
ATI/AMD Bashing ist halt "in" zurzeit (Samsung gerüchte, Benchmurkse ja so schlecht (Penisvergleich !) , ..)
Ein Wort: Blödsinn. (Mehr Futter gibt's nicht...)

Gast
2007-09-01, 12:57:16
Ich glaube, daß man sich bei AMD/ATI mit der 2900XT keinen Gefallen getan hat. Die Karte ist allenfalls 'vergleichbar' mit den aktuellen 8800ern von der Konkurrenz. Einen wirklichen Grund für den Kauf einer 2900XT sehe ich nicht - vor allem, weil die Kühlung wohl völlig daneben gegangen ist. Früher (in analogen Zeiten) war es noch so, daß die Karten von ATI einen Bonus bei der Bildqualität hatten. Auch am TV-Ausgang war die Bildqualität von ATI wohl besser als bei nVidia. Inzwischen sind die Displays aber digital und größer als die meisten Fernseher, so daß der analoge/TV-Ausgang kaum noch eine Rolle spielt.

Die 2900XT ist ganz auf DirectX10 ausgelegt und damit völlig innovationsarm (welcher Hersteller hat heute keine DX10 Karten im Programm?). Man hätte sich irgendein Feature überlegen sollen, welches exklusiv auf den Radeon-Karten zum Einsatz kommt. Vielleicht ein Anschluß für spezielle Eingabegeräte, die unmittelbar auf das Bild reagieren (wie zB. eine Lightgun).
Oder ein kleines TFT-Display für den 5,25"-Slot mit OC-funktionen, welches ständig die GPU-Temp und Lüfterdrehzahl anzeigt. Bei dem Preis, den AMD für die 2900XT verlangt, dürfte sowas nicht ins Gewicht fallen (jeder zweite Billigdrucker hat heute schon ein Mini-Display).

Es gibt halt nix, was die 2900XT aus der Masse heraushebt. Außer dem unter Last vielleicht etwas lauten Lüfter. Die Zeiten, wo Grafikkartenhersteller noch an eigenen Features gearbeitet haben und Spielehersteller stolz darauf waren ein 3DFx-Logo auf dem Karton zu haben, sind wohl endgültig vorbei. Heute sind das alles nur noch Klinkenputzer bei Microsoft. - Schade. :mad:

Req
2007-09-01, 13:08:59
Ich hab mir die HD2900XT jetzt bestellt, da ich mit der 8800GTS 320mb komplett unzufrieden bin, immer diese leeren versprechungen von NV das mit den Treibern alles besser wird und sich nix rührt nach fast einem Jahr. (2D Modus, Vram Bug )
Der neue Beta Treiber hilft auch nich :rolleyes:

Gast
2007-09-01, 13:55:23
Ich hab mir die HD2900XT jetzt bestellt, da ich mit der 8800GTS 320mb komplett unzufrieden bin, immer diese leeren versprechungen von NV das mit den Treibern alles besser wird und sich nix rührt nach fast einem Jahr. (2D Modus, Vram Bug )
Der neue Beta Treiber hilft auch nich :rolleyes:
Du legst Wert auf einen 2D-Modus? Wegen des Energieverbrauchs, oder warum? Dann ist die HD2900 keine gute Alternative trotz des 2D-Modus. Und unter Last brauchste de im Winter, wenn du ein kleines Zimmer hast, die Heizung nicht mehr aufdrehen.
Aber es ist trotzdem gut, dass manche trotz Mängel zu ner AMD Karte greifen, auch wenn es nur ein Tropfen auf den heißen Stein ist. Ich sehe für AMD in nächster Zeit keinen Silberstreif im High End Grakabereich. Dafür ist nV zu überlegen und dürfte in Zukunft bei Releases die Nase weiter vorn haben, wahrscheinlich werden sie den Vorsprung noch ausbauen.

Req
2007-09-01, 14:18:29
Du legst Wert auf einen 2D-Modus? Wegen des Energieverbrauchs, oder warum? Dann ist die HD2900 keine gute Alternative trotz des 2D-Modus. Und unter Last brauchste de im Winter, wenn du ein kleines Zimmer hast, die Heizung nicht mehr aufdrehen.
Aber es ist trotzdem gut, dass manche trotz Mängel zu ner AMD Karte greifen, auch wenn es nur ein Tropfen auf den heißen Stein ist. Ich sehe für AMD in nächster Zeit keinen Silberstreif im High End Grakabereich. Dafür ist nV zu überlegen und dürfte in Zukunft bei Releases die Nase weiter vorn haben, wahrscheinlich werden sie den Vorsprung noch ausbauen.
Ja leg ich, da mein PC von 8h ca. 1,5h im 3D läuft.
Die HD2900XT ist die zweitschnellste Karte die es gibt derzeit (8800Ultra ausgenommen) und wiso soll in Zukunft nich ATI die Krone übernehmen? Deine Glaskugel kannste mir ja mal leihen..lol
NV war Jahrelang hinten dran und jetzt sind sie mal besser und die Fanboys ticken komplett aus :rolleyes:

Gast
2007-09-01, 15:10:30
Ja leg ich, da mein PC von 8h ca. 1,5h im 3D läuft.
Die HD2900XT ist die zweitschnellste Karte die es gibt derzeit (8800Ultra ausgenommen) und wiso soll in Zukunft nich ATI die Krone übernehmen? Deine Glaskugel kannste mir ja mal leihen..lol
NV war Jahrelang hinten dran und jetzt sind sie mal besser und die Fanboys ticken komplett aus :rolleyes:
Dem stimme ich komplett zu.
Und wenn man sich die gestrigen News mal durchliest,sieht man doch wie wenig Ahnung doch die Leute von haben die hier gegen Ati/AMD bashen.

Bleibt bei euren Nvidia-Karten,und gut is.

reunion
2007-09-01, 15:12:32
Du kennst die Ergebnisse von Bioshock und LostPlanet? :rolleyes:


Ein Wort: Softshadows.

Coda
2007-09-01, 15:57:07
Die 2900XT ist ganz auf DirectX10 ausgelegt und damit völlig innovationsarm
Ist sie nicht. Die AA-, ALU- und TEX-Leistung ist auch unter D3D10 nicht höher. Der GS mag schneller sein als der von nVIDIA, aber das macht den Braten auch nicht fett.

Ein Wort: Softshadows.
Bioshock benützt keine Softshadows.

Gast
2007-09-01, 16:12:59
Ein Wort: Softshadows.
Ein Wort: DX10.

Bioshock benützt keine Softshadows.
Doch.

reunion
2007-09-01, 16:24:40
Bioshock benützt keine Softshadows.

Doch, und im sog. DX10-Modus werden diese wesentlich höher aufgelöst, was wohl massiv Füllrate schluckt.

Ein Wort: DX10.


Durch DX10 wird eine Karte nicht langsamer, sondern höchstens schneller.

LovesuckZ
2007-09-01, 16:34:21
Doch, und im sog. DX10-Modus werden diese wesentlich höher aufgelöst, was wohl massiv Füllrate schluckt.


Durch DX10 wird eine Karte nicht langsamer, sondern höchstens schneller.

Anscheinend nicht, wie dein oberes Zitat belegt... :rolleyes:

Coda
2007-09-01, 16:38:31
Doch, und im sog. DX10-Modus werden diese wesentlich höher aufgelöst, was wohl massiv Füllrate schluckt.
Höhere Auflösung machen noch lange keine Softshadows. Im Gegenteil eigentlich.

Doch.
Nö.

Anscheinend nicht, wie dein oberes Zitat belegt... :rolleyes:
Bei gleichen Berechnungen meint er natürlich. Wie oft noch?

reunion
2007-09-01, 16:40:05
Anscheinend nicht, wie dein oberes Zitat belegt... :rolleyes:

Wenn du verstanden hättest, was ich geschrieben habe, würde das schon passen. Erst die zusätzlichen Effekte, welche die Entwickler noch schnell hineingegurkt haben, um eine bessere BQ mittels DX10 vortäuschen zu können, kosten Leistung. DX10 erlaubt mehr und effizientere Möglichkeiten der Programmierung, bringt allerdings noch lange nicht aus dem nichts eine bessere BQ. Im Endeffekt bestehen alle heutigen DX10-Spiele aus reinen DX9-Engines, die noch schnell mittels eines D3D10-Pfades erweitert, und mit ein paar zusätzlichen Effekten aufgewertet wurden, um den Spieler eine sichtbaren Vorteil aus DX10 geben zu können. Doch den Vorteil von D3D10 wird man wie immer erst dann sehen, wenn Spielen von Anfang an darauf ausgelegt wurden, und auch exklusive Features wie der GS eingesetzt werden.

Höhere Auflösung machen noch lange keine Softshadows. Im Gegenteil eigentlich.


Von mir aus. In der Fachpresse wird das jedenfalls als Softshadows bezeichnet.

Coda
2007-09-01, 16:51:49
Softshadows ist ja auch schon ein Unwort geworden.

Gast
2007-09-01, 17:26:46
Nö.
Doch; Zitat aus der Bioshock.ini:
"UseHighDetailShadowMaps=True"
Und schau dir die Schatten bitte selbst an, die Artefakte sind eindeutig: Shadowmapping mit PCF (daher auch das "Soft" von einigen).

Wenn du jetzt immer noch bei deinem "Nö" bleibst, bitte aber mit Indizien - ich habe dir schließlich auch welche genannt.

Schlammsau
2007-09-01, 17:27:58
würd mich echt mal interessieren wie gut oder schlecht sich die 2900xt vekauft!

Gast
2007-09-01, 17:27:58
Von mir aus. In der Fachpresse wird das jedenfalls als Softshadows bezeichnet.
Sind es auch. Shadowmapping mit PCF verwischt etwas die Kanten und sorgt so für weichere Verläufe als bsw. normale Volumenschatten. Löst man die Shadow-Maps höher auf, werden diese Kanten natürlich etwas weniger "breit", aber bleiben "weich".

LovesuckZ
2007-09-01, 17:54:57
Wenn du verstanden hättest, was ich geschrieben habe, würde das schon passen. Erst die zusätzlichen Effekte, welche die Entwickler noch schnell hineingegurkt haben, um eine bessere BQ mittels DX10 vortäuschen zu können, kosten Leistung. DX10 erlaubt mehr und effizientere Möglichkeiten der Programmierung, bringt allerdings noch lange nicht aus dem nichts eine bessere BQ. Im Endeffekt bestehen alle heutigen DX10-Spiele aus reinen DX9-Engines, die noch schnell mittels eines D3D10-Pfades erweitert, und mit ein paar zusätzlichen Effekten aufgewertet wurden, um den Spieler eine sichtbaren Vorteil aus DX10 geben zu können. Doch den Vorteil von D3D10 wird man wie immer erst dann sehen, wenn Spielen von Anfang an darauf ausgelegt wurden, und auch exklusive Features wie der GS eingesetzt werden.

Soll das eine Ausrede dafür sein, dass die 2900XT nicht der Zukunftsüberflieger ist?
Es gibt Spiele mit einem D3D10 Renderer, die der 2900XT warum auch immer nicht so gut liegen. Und wenn Spiele irgendwann stärker auf die "exklusiven[n] Features" von D3D10 bauen, werden die 8800 und r600 Karten nicht mehr von Interesse sein.

reunion
2007-09-01, 18:01:26
Soll das eine Ausrede dafür sein, dass die 2900XT nicht der Zukunftsüberflieger ist?


Eine Begründung warum sie mangels Füllrate mit Softshadows schlechter zu recht kommt als die Konkurrenz. Mit DX10 hat das erstmal wenig bis gar nichts zu tun, das ist nur der Vorwand von vielen Spielen, um die Softshadows zu verkaufen.


Es gibt Spiele mit einem D3D10 Renderer, die der 2900XT warum auch immer nicht so gut liegen.


Alle verwendet im DX10 Modus Softshadows (was bekanntlich massiv Füllrate schluckt) und sind im TWIMTBP-Programm von nV.


Und wenn Spiele irgendwann stärker auf die "exklusiven[n] Features" von D3D10 bauen, werden die 8800 und r600 Karten nicht mehr von Interesse sein.

Für dich vielleicht nicht, doch für einen Käufer, der seine neue Karte länger als bis zur nächsten Generation behält schon.

_DrillSarge]I[
2007-09-01, 18:02:11
was ist an softshadows dx10 ?

Gast
2007-09-01, 18:06:02
I[;5805875']was ist an softshadows dx10 ?
Nichts, wieso?

dargo
2007-09-01, 18:07:09
Für dich vielleicht nicht, doch für einen Käufer, der seine neue Karte länger als bis zur nächsten Generation behält schon.
Sorry, das ist aber Quatsch. Softshadows werden in zukünftigen Games noch öfter benutzt als es noch in DX9 der Fall war. Wenn der R600 schon mit Softshadows so seine Probleme hat, warum sollte sich das in DX10 mit SS ändern? Von "Zukunftssicher" sehe ich hier nichts beim R600.

reunion
2007-09-01, 18:10:54
Sorry, das ist aber Quatsch. Softshadows werden in zukünftigen Games noch öfter benutzt als es noch in DX9 der Fall war. Wenn der R600 schon mit Softshadows so seine Probleme hat, warum sollte sich das in DX10 mit SS ändern? Von "Zukunftssicher" sehe ich hier nichts beim R600.

Sorry, aber habe ich irgendetwas in der Form behauptet oder zumindest angedeutet? Wie schon gesagt, ein D3D10-Renderer macht ein Spiel nicht langsamer, egal auf welcher Karte, es sind die zusätzlichen Effekte, die je nach deren Einsatz die eine oder die andere Karte bevorzugen. Deshalb sind solche Pauschalaussagen, wonach die eine oder andere Karte in D3D10 schneller ist auch Blödsinn. Das gab es vielleicht bei SM2, wo auf das FP-Format umgestellt wurde, was dem NV30 gar nicht geschmeckt hat, aber heute kann man das IMHO nur noch auf spezielle Features beziehen.

LovesuckZ
2007-09-01, 18:13:50
Alle verwendet im DX10 Modus Softshadows (was bekanntlich massiv Füllrate schluckt) und sind im TWIMTBP-Programm von nV.

Und die Spiele, die von AMD gepromotet werden, laufen auf der 2900XT besser.


Für dich vielleicht nicht, doch für einen Käufer, der seine neue Karte länger als bis zur nächsten Generation behält schon.

Es hat ca. 2 Jahre gedauert bis sich das SM3.0 von der Spieleanzahl durchsetzen konnte. Und auch nur dank den neuen Konsolen kommen zur Zeit SM3.0 Spiele heraus, die keine Fallback mehr ermöglichen. In 1 1/2 Jahren interessiert sich für 8800 und 2900XT Karten kaum noch jemand. Selbst heute zeigt die 2900XT starke Schwachpunkte, die eine bessere "Zukunftssicherheit" ausschließen.

reunion
2007-09-01, 18:34:14
Und die Spiele, die von AMD gepromotet werden, laufen auf der 2900XT besser.


So einfach ist das. Die Hersteller wissen natürlich um die Stärken und Schwächen ihrer Architektur und derer der Konkurrenz.


Es hat ca. 2 Jahre gedauert bis sich das SM3.0 von der Spieleanzahl durchsetzen konnte. Und auch nur dank den neuen Konsolen kommen zur Zeit SM3.0 Spiele heraus, die keine Fallback mehr ermöglichen. In 1 1/2 Jahren interessiert sich für 8800 und 2900XT Karten kaum noch jemand. Selbst heute zeigt die 2900XT starke Schwachpunkte, die eine bessere "Zukunftssicherheit" ausschließen.

Es geht nicht darum, ob noch ein Fallback ermöglicht wird, es geht darum, die Vorzüge von D3D10 auch auszunutzen. Das geschieht momentan IMO kaum, der ganze Code wird einfach nochmal durch den Compiler gejagt und mit ein paar höher aufgelösten Texturen ergänzt um einen sichtbaren Vorteil erzielen zu können. Das hat nichts mit D3D10 zu tun, sondern ist pures Marketing. Der neu hinzugekommen GS sollte eine Menge neuer Effekte erlauben, die man in DX9 alle nur mittels CPU berechnen kann, und auch sonst wurden viele Dinge erweitert/verbessert. Dann, aber erst dann wenn das geschehen ist, kann man ev. beurteilen, welche Karte "zukunftssicherer" ist/war in Bezug auf D3D10.

DerKleineCrisu
2007-09-01, 18:36:55
Für dich vielleicht nicht, doch für einen Käufer, der seine neue Karte länger als bis zur nächsten Generation behält schon.

hmm wiederspricht sich aber mit manchen herren hier im forum.
die müssen da " leichter " zwang sich gleich ne neue graka kaufen wenn es sie gibt ;D .


Und die Spiele, die von AMD gepromotet werden, laufen auf der 2900XT besser.

und Betriebssysteme die von Intel gepromotet werden laufen auf intel cpu´s besser :P .

Coda
2007-09-01, 18:40:22
Doch; Zitat aus der Bioshock.ini:
"UseHighDetailShadowMaps=True"
Ja höhere Auflösung. Macht aber noch lang keine Softshadows.

Und schau dir die Schatten bitte selbst an, die Artefakte sind eindeutig: Shadowmapping mit PCF (daher auch das "Soft" von einigen).
PCF ist dazu da Aliasing zu vermeiden. Softshadows sollten zumindest eine weiche Penumbra annähern. So wurde der Begriff ursprünglich geprägt

Alle verwendet im DX10 Modus Softshadows (was bekanntlich massiv Füllrate schluckt) und sind im TWIMTBP-Programm von nV.
Ja, mit dem bösen bösen TWIMTBP lässt sich natürlich alles erklären...

Nur weil ATi zu unfähig ist sein eigenes Entwicklerprogramm gescheit auf die Reihe zu bekommen. Und ja, das ist wirklich so.

Meine Meinung dazu ist, dass Entwickler sich nicht allzu sehr von solchen Dingen reinreden lassen. Niemand wird seinen Artists heute verbieten viele Texturlagen zu verwenden, weil es den ATIs nicht schmeckt.

reunion
2007-09-01, 18:45:29
Ja, mit dem bösen bösen TWIMTBP lässt sich natürlich alles erklären...

Nur weil ATi zu unfähig ist sein eigenes Entwicklerprogramm gescheit auf die Reihe zu bekommen. Und ja, das ist wirklich so.

Bestreite ich nicht, ändert an der Intention meiner Aussage aber genau gar nichts. Umsonst entdecken nicht alle Entwickler im TWIMTBP-Programm plötzlich wie toll Softshadows doch sind.

Coda
2007-09-01, 18:50:54
Softshadow ist gerade in der ganzen Industrie ein großes Thema, weil es einfach der nächste logische Schritt ist und es wird an vielen Verfahren geforscht. Deine Paranoia nervt.

dargo
2007-09-01, 18:56:51
Wenn man das so alles liest kommt man doch zu dem Gedanken ob ein Monopol doch nicht besser wäre. Karte X schmecken die Softshadows nicht, Karte Y der GS usw.
Bei einem Hersteller würde man sich nur auf die aktuelle und die Vorgängergeneration konzentrieren müssen. Für den Kunden wäre das wohl keine schlechte Lösung.

Und ich dachte DX10 bringt die zwei IHVs noch näher zusammen. :|

laser114
2007-09-01, 18:58:12
Nicht solange die eine auf Füllraten und die andere auf Arithmetik ausgelegt ist ... mal übertrieben formuliert.

Coda
2007-09-01, 18:58:20
Wenn man das so alles liest kommt man doch zu dem Gedanken ob ein Monopol doch nicht besser wäre.
Sicher nicht.

GeForce 256 -> GeForce 2

Ganze 2 Mio. Transistoren mehr, Bugfixes und nen Die-Shrink und das ganze dann mit neuen Features bewerben die schon die GeForce 256 konnte.

Nein danke, nicht nochmal.

Nicht solange die eine auf Füllraten und die andere auf Arithmetik ausgelegt ist ... mal übertrieben formuliert.
Wobei R600 ja effektiv nichtmal so viel mehr Rechenleistung hat wie immer getan wird.

dargo
2007-09-01, 19:02:09
Sicher nicht.

GeForce 256 -> GeForce 2

Ganze 2 Mio. Transistoren mehr, Bugfixes und nen Die-Shrink und das ganze dann mit neuen Features bewerben die schon die GeForce 256 konnte.

Nein danke, nicht nochmal.

Ja, du vergisst aber hier, dass sich die Spieleentwickler mehr auf eine Generation konzentieren könnten (ähnlich wie bei Konsolen). Wenn ich als Spieleentwickler jede Schwäche einer Architektur kenne würde ich alles tun um diese möglichst zu umgehen. Sowas ist aber aus Kostengründen nur bei einem Hersteller möglich (optimal natürlich bei einer und der selben Generation).

Coda
2007-09-01, 19:03:14
Das funktioniert am PC nicht, weil eine Generation zu schnell durch die nächste abgelöst wird.

dargo
2007-09-01, 19:04:50
Das funktioniert am PC nicht, weil eine Generation zu schnell durch die nächste abgelöst wird.
Beim Monopol hätten wir mit Sicherheit keine neuen GPUs in 1,5 Jahre Abständen. :wink:

Gast
2007-09-01, 19:05:02
Bestreite ich nicht, ändert an der Intention meiner Aussage aber genau gar nichts. Umsonst entdecken nicht alle Entwickler im TWIMTBP-Programm plötzlich wie toll Softshadows doch sind.
Vielleicht liegt es an der überlegener Z-Fillrate der nVidia-Grafikkarten seit der FX-Serie?
"Softshadows" gibt es in 3D Mark* seit 2005, und du willst doch nicht ernsthaft behaupten, das wäre ein TWIMTBP-Titel?

Auch STALKER nutzt eine ähnliche Technik für seine Schatten, wobei kein IHV benachteiligt wird, was bestimmt am ASUS-Logo liegt, weil ASUS Grafikkarten beider IHVs herstellt.

Coda
2007-09-01, 19:06:03
Beim Monopol hätten wir mit Sicherheit keine neuen GPUs in 1,5 Jahre Abständen. :wink:
Super. Und jetzt auch keine 8800 GTX, sondern den nächsten CineFX-Aufguss. Ne lass mal. Wirklich.

Auch STALKER nutzt eine ähnliche Technik für seine Schatten, wobei kein IHV benachteiligt wird, was bestimmt am ASUS-Logo liegt, weil ASUS Grafikkarten beider IHVs herstellt.
Stalker verwendet sogar Fetch4 auf ATI-Karten und ist TWIMTBP. Ein weiteres Beispiel wie blödsinnig dieses Argument ist.

dargo
2007-09-01, 19:08:20
"Softshadows" gibt es in 3D Mark* seit 2005, und du willst doch nicht ernsthaft behaupten, das wäre ein TWIMTBP-Titel?

Afaik sind das keine Softshadows sondern dieses PCF.

Super. Und jetzt auch keine 8800 GTX, sondern den nächsten CineFX-Aufguss. Ne lass mal. Wirklich.
Wenn die Spiele ähnlich wie mit der GTX performen würden hätte ich nichts dagegen.

Coda
2007-09-01, 19:10:03
Wenn die Spiele ähnlich wie mit der GTX performen würden hätte ich nichts dagegen.
Würden sie aber nicht. Soviel "optimieren" wie hier immer getan hat kann man nämlich gar nicht.

Gast
2007-09-01, 19:10:52
Stalker verwendet sogar Fetch4 auf ATI-Karten und ist TWIMTBP. Ein weiteres Beispiel wie blödsinnig dieses Argument ist.

Und auch das PCF funktioniert auf der HD-Generation in STALKER einwandfrei.

Spasstiger
2007-09-01, 19:11:55
Die HD2900 XT bewegt keinen GeForce-8800-Besitzer zum wechseln und kam außerdem viel zu spät auf den Markt, als bereits massenhaft 8800er-Karten verkauft wurden (siehe z.B. die Steam-Survey, der Anteil an GeForce-8800-Karten ist beachtlich).
Ganz so übel ist die Architektur der 2900 XT aber gar nicht und preis-leistungsmäßig ist sie fair platziert. Dennoch kann man wohl von einem Flop sprechen.
ATI muss jetzt im DX10-Mainstream mehr Druck machen, die kommende HD2900 Pro ist da ja vielleicht schon ein guter Schritt.

dargo
2007-09-01, 19:13:49
Würden sie aber nicht. Soviel "optimieren" wie hier immer getan hat kann man nämlich gar nicht.
Ich weiß jetzt nicht was du genau mit der CineFX gemeint hast. Ich ging da von einer G7900GTX aus, keinen NV30. :wink:
Ich würde es sogar auf die Spitze treiben und die G7950GX2 nennen. Wobei, bei einem Monopol hätten wir eine GX2 nie zu Gesicht bekommen.

reunion
2007-09-01, 19:14:16
Softshadow ist gerade in der ganzen Industrie ein großes Thema, weil es einfach der nächste logische Schritt ist und es wird an vielen Verfahren geforscht. Deine Paranoia nervt.

Meinetwegen, dann liegt es eben nicht am TWIMTBP-Programm, war ja auch nur ein möglicher Anhaltspunkt. Ich hoffe du lernst mal eine Menschen kennen, der an Paranoia leidet, dann würdest du mit diesem Begriff vermutlich nicht so um dich schlagen.

Vielleicht liegt es an der überlegener Z-Fillrate der nVidia-Grafikkarten seit der FX-Serie?


Ein weiterer Grund.


"Softshadows" gibt es in 3D Mark* seit 2005, und du willst doch nicht ernsthaft behaupten, das wäre ein TWIMTBP-Titel?

Auch STALKER nutzt eine ähnliche Technik für seine Schatten, wobei kein IHV benachteiligt wird, was bestimmt am ASUS-Logo liegt, weil ASUS Grafikkarten beider IHVs herstellt.

Jaja, ich habe verstanden.

Coda
2007-09-01, 19:15:01
Ich weiß jetzt nicht was du genau mit der CineFX gemeint hast. Ich ging da von einer G7900GTX aus, keinen NV30. :wink:
Ich auch.

StefanV
2007-09-01, 19:15:36
Ja, du vergisst aber hier, dass sich die Spieleentwickler mehr auf eine Generation konzentieren könnten (ähnlich wie bei Konsolen). Wenn ich als Spieleentwickler jede Schwäche einer Architektur kenne würde ich alles tun um diese möglichst zu umgehen. Sowas ist aber aus Kostengründen nur bei einem Hersteller möglich (optimal natürlich bei einer und der selben Generation).
Du vergisst, das wir dann quasi einen stillstand hätten, eine lange lange Zeit, in der nicht wirklich was passieren würde.

Sowas haben wir mit CPUs mal gehabt, zu Zeiten des P4s/K8.

Da hat sich absolut rein garnichts getan, über Jahre, einzig das man noch 'Nen 2. Kern draufgepappt hat...

Gast
2007-09-01, 19:19:44
Ja höhere Auflösung. Macht aber noch lang keine Softshadows.
Huppsala - da habe ich mich doch die ganze Zeit bei dir glatt verlesen. Aus irgendeinem Grund war ich fest davon überzeugt, dass du "Bioshock nutzt kein Shadowmapping" geschrieben hast...

reunion
2007-09-01, 19:20:18
Wenn man das so alles liest kommt man doch zu dem Gedanken ob ein Monopol doch nicht besser wäre. Karte X schmecken die Softshadows nicht, Karte Y der GS usw.
Bei einem Hersteller würde man sich nur auf die aktuelle und die Vorgängergeneration konzentrieren müssen. Für den Kunden wäre das wohl keine schlechte Lösung.

Und ich dachte DX10 bringt die zwei IHVs noch näher zusammen. :|

Konkurrenz ist eigentlich eine Verschwendung an Ressourcen, da hast du schon recht, in einer freien Marktwirtschaft allerdings die einzige Möglichkeit, den Fortschritt aufrecht zu erhalten und dem Kunden vernünftige Preise zu gewähren.

Mr. Lolman
2007-09-01, 19:21:14
Ganz so übel ist die Architektur der 2900 XT aber gar nicht und preis-leistungsmäßig ist sie fair platziert.

Imo mehr als das. Je neuer und aufwendiger die Spiele werden, desto besser steht die 2900XT da (wie man auch an Bioshock zB sieht). Gefloppt ist sie allenfalls hinsichtlich er Gunst der potentiellen Käufer, die einen GTX-Killer erwartet haben. Aber da ja noch das ein oder andere UE3-Spiel erscheinen wird, kann sich das ja auch noch ändern. Außerdem schätz ich mal ganz einfach ins Blaue, dass der R600 in Crysis auch nicht allzuschlecht dastehen wird...

dargo
2007-09-01, 19:25:03
Imo mehr als das. Je neuer und aufwendiger die Spiele werden, desto besser steht die 2900XT da (wie man auch an Bioshock zB sieht).
Wie oft denn noch? :|
Es wurde kein AA und nur 4xAF (standard) verwendet.

Gast
2007-09-01, 19:44:53
Imo mehr als das. Je neuer und aufwendiger die Spiele werden, desto besser steht die 2900XT da (wie man auch an Bioshock zB sieht).

DX10 (ist ja wohl "neuer" als DX9)
8800 GTX: 60 Fps
2900 XT: 43 Fps

IceLord
2007-09-01, 19:54:01
PCF ist dazu da Aliasing zu vermeiden. Softshadows sollten zumindest eine weiche Penumbra annähern. So wurde der Begriff ursprünglich geprägt
Welche Spiele mit "richtigen" Softshadows gieb't es überhaupt schon? Mir ist eigentlich nur World in Conflicts bekannt. Ich war recht beeindruckt als ich ausgerechnet in einem Strategiespiel das erste mal richtige Softshadows sah.
http://s1.directupload.net/images/070901/n2IwIrqu.jpg

Coda
2007-09-01, 20:01:41
Je neuer und aufwendiger die Spiele werden, desto besser steht die 2900XT da (wie man auch an Bioshock zB sieht)
Erstens bezweifel ich das ganz stark (und verdammt viele Leute auf Beyond3D stimmen mir da auch zu) und zweitens benützt Bioshock auch kein Anti-Aliasing - zumindest in keinem Review.

Solange nicht ein absolut GS-lastiges Spiel erscheint wird sich nichts an den Verhältnissen ändern.

LovesuckZ
2007-09-01, 20:07:26
Imo mehr als das. Je neuer und aufwendiger die Spiele werden, desto besser steht die 2900XT da (wie man auch an Bioshock zB sieht). Gefloppt ist sie allenfalls hinsichtlich er Gunst der potentiellen Käufer, die einen GTX-Killer erwartet haben. Aber da ja noch das ein oder andere UE3-Spiel erscheinen wird, kann sich das ja auch noch ändern.

Hm, die Karte liegt in neueren Spielen mit Hang zur Rechenleistung nur auf GTX Niveau. Also genau die Position, wo man sie anhand der Zahlen einordnen müsste. Ich sehe hier also kein Ausspielen der Fähigkeiten der 2900XT sondern eher eine Einhaltung der theoretischen Zahlen.

Außerdem schätz ich mal ganz einfach ins Blaue, dass der R600 in Crysis auch nicht allzuschlecht dastehen wird...

Hoffentlich funktioniert kein AA in Crysis...

Coda
2007-09-01, 20:11:58
Hoffentlich funktioniert kein AA in Crysis...
Tut es.

Gast
2007-09-01, 20:43:41
Bioshock benützt keine Softshadows.


natürlich verwendet die Unreal3-engine softshadows, das ist ja schon seit jahren bekannt.

Gast
2007-09-01, 20:49:49
Tut es.
In Ultra-einstellungen geht kein AA+AF in Crysis :wayne:
Wir werden es ja bald sehen, aber weder eine GTX od. XT werden da groß was reißen...

Coda
2007-09-01, 20:51:37
natürlich verwendet die Unreal3-engine softshadows, das ist ja schon seit jahren bekannt.
Bioshock tut es nicht. Shadowmaps machen noch lang keine Softshadows.

In Ultra-einstellungen geht kein AA+AF in Crysis
Crysis benützt kein deferred shading und auch in keinem Paper ist davon die Rede, von daher halte ich das für Bullshit.

Gast
2007-09-01, 20:51:55
natürlich verwendet die Unreal3-engine softshadows, das ist ja schon seit jahren bekannt.
Das hatten wir ja vorhin schon - sich an der Definition von "Softshadows" aufzuhängen, führt hier nicht weiter.

Gast
2007-09-01, 20:54:01
Welche Spiele mit "richtigen" Softshadows gieb't es überhaupt schon? Mir ist eigentlich nur World in Conflicts bekannt. Ich war recht beeindruckt als ich ausgerechnet in einem Strategiespiel das erste mal richtige Softshadows sah.
http://s1.directupload.net/images/070901/n2IwIrqu.jpg


softshadows gibt es doch schon ewig, riddick hatte welche, fear ebenfalls.

Coda
2007-09-01, 20:55:02
Er meint eine korrekte Penumbra, das gab's in Riddick und Fear nicht. Es wurde einfach überall gleich stark weichgezeichnet, was schlichtweg falsch ist.

Mumins
2007-09-01, 21:41:23
Dank G80 gibt es eigentlich keinen richtigen Grund sich eine HD 2900 XT zu kaufen, es sei denn man ist wirklich ATi-Fan.

MfG :cool:

Wenn es danach ginge hätte Nvidia die letzten 3 Generationen keine Karten an den Mann gebracht.

Gast
2007-09-01, 22:03:11
Wenn es danach ginge hätte Nvidia die letzten 3 Generationen keine Karten an den Mann gebracht.


wieso, mit ausnahme der FX-serie war man die meiste zeit in fast allen preisregionen mindestens gleichwertig oder aber überlegen..

Coda
2007-09-01, 22:13:59
Aber auch nur im ersten Augenblick und durch Bildqualitätsschindereien. Die X800 hatte ja sogar auch noch deutlich mehr Füllrate als die 6800. Und wenn dann noch gleichzeitig Texturiert und Gefiltert wird ist NV40 unglaublich auf verlorenem Posten.

Das habe ich damals auch nicht gesehen, weil ich dachte dass NV4x auch gleichzeitig Texturieren und Rechnen kann, was nicht der Fall ist. Es ist eine Pipeline für beides. Das ist auch der Grund warum NV40 bei reinen ALU- oder Füllraten-Betrachtung nicht im Hintertreffen war. Da ist das egal.

Texturing und Berechnungen werden auch in D3D10 das Standbein jedes Spiels sein und mit G80 wurden diese Probleme beseitigt, deshalb glaube ich auch aus gutem Grund nicht, dass R600 irgendwann wieder dermaßen wegziehen kann.

StefanV
2007-09-01, 22:22:49
Texturing und Berechnungen werden auch in D3D10 das Standbein jedes Spiels sein und mit G80 wurden diese Probleme beseitigt, deshalb glaube ich auch aus gutem Grund nicht, dass R600 irgendwann wieder dermaßen wegziehen kann.
Naja, wissen wir denn wirklich genug über G80 und R600, um sagen zu können, das die R600 sich wirklich nicht absetzen können wird?

deadkey
2007-09-01, 23:03:51
Ich nehme mal ganz stark an, dass weder G80 noch R600 in irgendeiner Weise eine Zukunft in D3D 10 haben werden.
Für "Übereffekte" fehlen beiden die Power und die Entwickler, die überhaupt erstmal auf die Idee kämen, Optimierungen für PC-Hardware vorzunehmen.
In der aktuellen und vielleicht sogar der folgenden Graka-Generation wird die Leistung unter DX9 entscheidend bleiben. Und da sehe ich den G80 vorn.
Der R600 ist eine gute Basis für eine Weiterentwicklung und hat damit durchaus seine Existenzberechtigung. D3D 10 wird aber noch eine ganze Weile brauchen, bis es im Mainstream wirklich verbreitet ist. Es bietet für den Endanwender zu wenige (keine) Features, die ein Aufrüsten von einer potenten DX9-Hardware rechtfertigen würden.
R600 hat höchstens noch den "Konsolenbonus", was ihn unter Umständen haltbarer machen könnte...Ich würde darauf aber keinerzeit meine Seele verwetten;)

Coda
2007-09-01, 23:25:35
Naja, wissen wir denn wirklich genug über G80 und R600, um sagen zu können, das die R600 sich wirklich nicht absetzen können wird?
Was genau willst du denn noch wissen? Es gibt Recheneinheiten und Textureinheiten, das ist bei D3D10 auch nicht anders. Das ist der Trugschluss den manche hier haben.

Der Geometry-Shader ist in der Expansion allerdings schneller bei R600. Da kann es sein, dass die Zukunft etwas Vorteile für die R600 bringt, aber dann müsste man schon ziemlich viel Geometrie durch einen GS laufen.

Oder ist der Fur-Wurm in Lost-Planet auf R600 so viel schneller? Ich kenne dazu keine Benchmarks.

jojo4u
2007-09-01, 23:39:44
Auch am TV-Ausgang war die Bildqualität von ATI wohl besser als bei nVidia. Inzwischen sind die Displays aber digital und größer als die meisten Fernseher, so daß der analoge/TV-Ausgang kaum noch eine Rolle spielt.


Die C't 17/07 hat bei der HD2900 3,7 MHz Tv-Out Bandbreite und der 8800 2,7 MHz Tv-Out Bandbreite gemessen. Außerdem ist die Voillbild-Automatik (bei ATI: Theater-Modus) bei nvidia verschwunden.

robbitop
2007-09-02, 00:38:45
Sicher nicht.

GeForce 256 -> GeForce 2

Ganze 2 Mio. Transistoren mehr, Bugfixes und nen Die-Shrink und das ganze dann mit neuen Features bewerben die schon die GeForce 256 konnte.

Nein danke, nicht nochmal.

Das nennt sich Refresh. War IIRC auch nur 6 Monate nach dem NV10-Launch. Was erwartest du? Die Preise haben sich damals allerdings gewaschen.

Coda
2007-09-02, 01:39:51
Ja, nur wurde damals der Refresh als ganz neue Generation verkauft. Siehe Intel mit Pentium 2->3. Genau das gleiche Spielchen.

James Ryan
2007-09-02, 10:11:06
Wenn es danach ginge hätte Nvidia die letzten 3 Generationen keine Karten an den Mann gebracht.

Technisch gesehen hast du Recht, aber NVIDIA hatte trotzdem noch zwei Vorteile bei der Gf 7 Generation: Den leisen Lüfter beim High-End Modell und den deutlich geringeren Stromverbrauch! Die beiden Gründe haben bspw. mich dazu bewegt, von einer X1900 XT/512 auf eine Gf 7900 GTX "aufzurüsten".
Welche wirklichen Vorteile hat eine HD 2900 XT nochmal gegen eine Gf 8800?

MfG :cool:

robbitop
2007-09-02, 10:23:39
Ja, nur wurde damals der Refresh als ganz neue Generation verkauft. Siehe Intel mit Pentium 2->3. Genau das gleiche Spielchen.
Die Geforce 4, die Radeon 9000/100/200, die Geforce 7, die Radeon X1050 ect pp wurden auch als neue Generation verkauft. Zumindest wenn man nach dem Namen geht. Waren aber alle irgendwie keine neue Generation.
Gut finde ich solche PR Spielchen auch nicht.

Mumins
2007-09-02, 11:49:52
wieso, mit ausnahme der FX-serie war man die meiste zeit in fast allen preisregionen mindestens gleichwertig oder aber überlegen..

Klar. Ich hatte alle diese Karten. Eine 9800 Pro war der FX überlegen. Eine X800XT PE war der 6800 Ultra überlegen und die X1900XTX war der 7900GTX überlegen.

Den leisen Lüfter beim High-End Modell und den deutlich geringeren Stromverbrauch!

Wer ne Wakü hat den interessiert der Lüfter nicht. Stromverbrauch ist in der Klasse auch Nebensache. Übrigens verbraucht ne 7900GTX im Idle mehr Strom als die X1900XTX. Das hebt den Vorteil in 3D fast auf. Von einer X1900 auf ne 7900 zu wechseln ist ja nur noch hirnrissig. Speedmäßig ein deutlicher Rückschritt.

Gast
2007-09-02, 12:28:21
Klar. Ich hatte alle diese Karten. Eine 9800 Pro war der FX überlegen. Eine X800XT PE war der 6800 Ultra überlegen und die X1900XTX war der 7900GTX überlegen.


eine 9800Pro war der FX überlegen richtig, eine X800XT war auch der 6800Ultra überlegen, nur leider waren beide karten ewig nicht erhältlich und nicht jeder kauft sich das topmodell.

darunter ging es dann X800Pro gegen 6800GT und da war plötzlich nvidia überlegen, sowohl von der performance (knapp) als auch von den features (deutlich). gleiches spiel bei 6600 vs X600, auch hier war NV überlegen und was noch viel wichtiger ist, wesentlich früher am markt.
darunter will ich garnicht vergleichen, diese karten sind eh von beiden herstellern zum vernünftigen spielen zu langsam.

bis ATI auch abseits vom absoluten high-end preis-leistungsmäßig eine gute alternative war verging leider viel zu viel zeit.
zusätzlich wird es gerade in einem forum wie diesem hier genug technikbegeisterte geben die eine technologiebremse alá ATI nicht gerne unterstützen wenn der trade-off nicht zu stark ist.

eine X1900XTX war einer 7900GTX nicht wirklich überlegen, sie ist allerdings heute deutlich überlegen, was natürlich absehbar war, allerdings zählt der erste eindruck sehr viel.
später war dann natürlich auch preismäßig nicht mehr die 7900GTX sondern die 79(5)0 der eigentliche gegner der X1900XTX, und die war lange zeit deutlich überlegen.

im mainstream gab es aber wieder das alte problem, X1600 war viel zu schwach und eine brauchbare alternative ist erst viel zu spät gekommen.

ScottManDeath
2007-09-02, 12:50:29
als flop würde ich die karte auch wieder nicht bezeichnen, da es durchaus anwendungsgebiete (OGL, wissenschaftliche berechnungen ) gibt, wo die karte stark ist

Für wissenschaftliche Dinge ist CUDA doch praktischer als CTM, da man nicht Assembler hacking machen muss um wissenschaftliche Algorithmen auf die GPU zu portieren. Die ist so schon schwierig genug wegen dem unterschiedlichen Maschinenmodell.

AFAIK unterstützt die 2900 unter OpenGL keine Features wie z.b. GS, Integer Texturen währen die 8800 dies tut.

Gast
2007-09-02, 12:55:14
Für wissenschaftliche Dinge ist CUDA doch praktischer als CTM, da man nicht Assembler hacking machen muss um wissenschaftliche Algorithmen auf die GPU zu portieren. Die ist so schon schwierig genug wegen dem unterschiedlichen Maschinenmodell.


vor allem soll CUDA wenn ich es richtig verstehe ohne portierung auch auf nachfolgerkarten laufen (sofern ein CUDA-treiber existiert), was bei CTM nicht zwangsläufig gegeben ist.

Coda
2007-09-02, 16:13:21
Die Geforce 4, die Radeon 9000/100/200, die Geforce 7, die Radeon X1050 ect pp wurden auch als neue Generation verkauft. Zumindest wenn man nach dem Namen geht. Waren aber alle irgendwie keine neue Generation.
Gut finde ich solche PR Spielchen auch nicht.
Ich meinte jetzt High-End. Bei der GeForce 4 hatte nVIDIA auch noch ein Quasi-Monopol.

Mr. Lolman
2007-09-02, 16:15:05
Ich meinte jetzt High-End. Bei der GeForce 4 hatte nVIDIA auch noch ein Quasi-Monopol.

Naja, ein halbes Jahr lang vll...

Coda
2007-09-02, 16:15:34
Was die Planung und Entwicklung kaum beeinflusst haben dürfte. NV30 war ja der Gipfel dieser Geschichte. Danach wurde es ja besser.

robbitop
2007-09-02, 16:16:08
Ich meinte jetzt High-End. Bei der GeForce 4 hatte nVIDIA auch noch ein Quasi-Monopol.
Und was ist mit der Geforce 7 Serie?

Coda
2007-09-02, 16:16:53
G70 hatte doch deutlich mehr Transistoren als NV40. Damals hätten sie das Ding einfach nur geshrinkt ;)

Gast
2007-09-02, 17:50:09
Für wissenschaftliche Dinge ist CUDA doch praktischer als CTM, da man nicht Assembler hacking machen muss um wissenschaftliche Algorithmen auf die GPU zu portieren. Die ist so schon schwierig genug wegen dem unterschiedlichen Maschinenmodell.

AFAIK unterstützt die 2900 unter OpenGL keine Features wie z.b. GS, Integer Texturen während die 8800 dies tut.
Er hat eigentlich CTM mit keinem Wort erwähnt. Die nächste Version des F@H-GPU-Clients soll den Gerüchten nach wenigstens die HD2600 unterstützen (und F@H nutzt stinknormales DirectX9).
CTM kann man eigentlich sehr schwer mit CUDA vergleichen.

AnarchX
2007-09-02, 18:02:48
G70 hatte doch deutlich mehr Transistoren als NV40. Damals hätten sie das Ding einfach nur geshrinkt ;)

Zudem wurde ja offensichtlich auch einiges gegenüber CineFX3.0 verbessert: Dual-MADD, niedrigerer Einbruch bei HQ als NV4x, ... .

Natürlich reichte es im Nachhinein auch nicht sich langfristig gegen R5xx gut zu halten, bei welchen aber die Überlegenheit durch höhere Transistorzahlen, Die-Sizes und höherem Energieverbrauch bezahlt wurde.

Hätte G80 auf "CineFX 5.0" basiert, so hätte es vielleicht ein ähnlich Situation wie bei G7x vs R5xx gegeben, aber dieses Glück war dem R600 nicht beschieden.

robbitop
2007-09-02, 18:13:51
G70 hatte doch deutlich mehr Transistoren als NV40. Damals hätten sie das Ding einfach nur geshrinkt ;)
Es war ein Refreh ohne grosse neue Features und wurde dennoch mit der Namensgebung als neue Generation verkauft.
Zudem wurde ja offensichtlich auch einiges gegenüber CineFX3.0 verbessert: Dual-MADD, niedrigerer Einbruch bei HQ als NV4x, ... .
Ja ein Refresh halt. Wie es auch die GF2 war.

Coda
2007-09-02, 18:24:37
Es war ein Refreh ohne grosse neue Features und wurde dennoch mit der Namensgebung als neue Generation verkauft.
Das war aber nicht meine Ausgangsbehauptung. Ich sagte, dass es damals nur ein Die-Shrink mit Bugfixes war. Keine weiteren Pipelines, kein Garnichts. Das würde es heute einfach nicht mehr geben.

Was genau willst du mir also mitteilen?

reunion
2007-09-02, 18:25:45
niedrigerer Einbruch bei HQ als NV4x, ... .


*Hust*
Ich hoffe du weißt, dass dieser niedrigere Einbruch einher geht mit einer gesenkten BQ im HQ-Modus. Zaubern kann auch nV nicht.


Hätte G80 auf "CineFX 5.0" basiert, so hätte es vielleicht ein ähnlich Situation wie bei G7x vs R5xx gegeben, aber dieses Glück war dem R600 nicht beschieden.

Genau das musste man sich nach NV30, nach NV40, und nach G70 anhören. Ich bin gespannt wie es nach G80 aussieht, oder ob sich G80 tatsächlich auch in Zukunft behaupten kann. Aber durch die Schwäche des R600 wird sich diese Frage diesmal wohl so nicht stellen.

robbitop
2007-09-02, 18:27:00
Das war aber nicht meine Ausgangsbehauptung. Ich sagte, dass es damals nur ein Die-Shrink mit Bugfixes war. Das würde es heute einfach nicht mehr geben.
Hast du dafuer Belege, dass es wirklich nur ein Shrink inkl Bugfixes war?

Was genau willst du mir also mitteilen?
Dass die Geforce 2 keine Ausnahme war.

Coda
2007-09-02, 18:27:28
*Hust*
Ich hoffe du weißt, dass dieser niedrigere Einbruch einher geht mit einer gesenkten BQ im HQ-Modus. Zaubern kann auch nV nicht.
Die G7x HQ-Qualität war seit einem bestimmten Treiber äquivalent zu der von NV4x. Das solltest du so langsam mal mitbekommen haben. G7x hatte zu seiner Generation wenigstens nicht mehr den Nachteil deutlich weniger Füllrate zu haben als die Konkurenz im Gegensatz zu NV4x.

Hast du dafuer Belege, dass es wirklich nur ein Shrink inkl Bugfixes war?
NV10 23 Mio. Transistoren, NV15 25 Mio. Transistoren. Keine neuen Pipelines, keine neuen Features, keine andere Performance bei gleichem Takt. Da braucht man nur 1 und 1 zusammenzählen, ich bitte dich. Bei NV10 war primär defekt, dass die zwei TMUs einer Pipeline unabhängig laufen konnten, weshalb sie als eine Tri-TMU verwendet wurden.

Dass die Geforce 2 keine Ausnahme war.
NV15 war genauso wie NV25 primär ein Die-Shrink. Da bin ich mir ziemlich sicher. Das einzig neue an NV25 war dass sie DXT1 gefixt haben, einen Vertexshader dazu und ein paar Combineroptionen zusätzlich.

reunion
2007-09-02, 18:30:19
Die G7x HQ-Qualität war seit einem bestimmten Treiber äquivalent zu der von NV4x.

Das solltest du so langsam mal mitbekommen haben.

Das halte ich nach wie vor für falsch. Woher soll denn der niedrigere Einbruch kommen? Die Architektur ist faktisch identisch. AFAIK warst es sogar du, der selber mal behauptet hat, dass ein G7x auch noch in HQ Samples einspart.

Hast du dafuer Belege, dass es wirklich nur ein Shrink inkl Bugfixes war?


Das ist doch Erbsenzählerei. Klar ist das ein starker Konkurrent die Entwicklung beschleunigt.

robbitop
2007-09-02, 18:32:42
NV10 23 Mio. Transistoren, NV15 25 Mio. Transistoren. Keine neuen Pipelines, keine neuen Features. Da braucht man nur 1 und 1 zusammenzählen, ich bitte dich.
NV30 und NV35: Differenz 5 Mio Transistoren. Das sagt also nicht viel ueber Speedups, die mit einem Refresh kommen aus. Aehnlich auch NV41 und G73.

Coda
2007-09-02, 18:37:09
Bei NV35 konnte auch viel mehr gedreht werden weil es schon programmierbare Einheiten gab. Bei NV10 gab's die Combiner und nicht mehr.

Probier's doch aus. GeForce 2 und GeForce 256 bei gleichem Takt und Trilinear. Du wirst keinen Unterschied merken.

Gast
2007-09-02, 18:38:10
Genau das musste man sich nach NV30, nach NV40, und nach G70 anhören. Ich bin gespannt wie es nach G80 aussieht, oder ob sich G80 tatsächlich auch in Zukunft behaupten kann. Aber durch die Schwäche des R600 wird sich diese Frage diesmal wohl so nicht stellen.

Die Zukunftstauglichkeit einer Karte richtet sich immer nach der Konkurrenzkarte.

LovesuckZ

reunion
2007-09-02, 18:39:56
Die Zukunftstauglichkeit einer Karte richtet sich immer nach der Konkurrenzkarte.

LovesuckZ

Eben.

Gast
2007-09-02, 18:46:17
Das halte ich nach wie vor für falsch. Woher soll denn der niedrigere Einbruch kommen? Die Architektur ist faktisch identisch. AFAIK warst es sogar du, der selber mal behauptet hat, dass ein G7x auch noch in HQ Samples einspart.

Größere Fifos und mehr Prozessoren, die die Latenz besser verstecken konnten.

Coda
2007-09-02, 18:47:48
Die Zukunftstauglichkeit einer Karte richtet sich immer nach der Konkurrenzkarte.

LovesuckZ
Keine der beiden Karten ist mehr oder weniger zukunftstrauglich meiner Meinung nach. Die Paradigmen hinter den Architekturen sind dazu viel zu ähnlich.

Beide sind Architekturen die sehr viele Threads In-Flight halten um Latenzen zu kaschieren, berechnen alles auf den selben ALUs und haben getrennte Rechen- und Textureinheiten.

Es kommt im Prinzip nur noch auf das ALU:TEX-Verhältnis an (wobei sich das auch gar nicht so stark unterscheidet wie oft getan wird zw. G80 und R600) und halt auf die Probleme mit AA von R6xx. Das wird aber sehr wahrscheinlich mit dem Refresh auch Geschichte sein.

Intel geht mit Larrabee auch genau den gleichen Weg. Im Endeffekt wird's wie bei CPUs sein wo halt noch die jeweiligen Detailoptimierungen zählen. Ist auch besser so für den Kunden.

Größere Fifos und mehr Prozessoren, die die Latenz besser verstecken konnten.
G7x kann aber keine Texturlatenz hinter Rechnungen verstecken. Grundproblem der Architektur.

Gast
2007-09-02, 18:49:38
Eben.

Danke für den Widerspruch. :rolleyes:

robbitop
2007-09-02, 18:52:28
NV15 war genauso wie NV25 primär ein Die-Shrink. Da bin ich mir ziemlich sicher. Das einzig neue an NV25 war dass sie DXT1 gefixt haben, einen Vertexshader dazu und ein paar Combineroptionen zusätzlich.
Eben. NV macht das schon seit langer Zeit so. Entweder mit minimalen Aenderungen oder mit ein bisschen mehr als minimalen Aenderungen titulieren sie Refreshes als neue Generation. Ob nun mit oder ohne ATI als Konkurrenz.
Allerdings stimme ich dem Kerngedanken, dass Konkurrenz notwendig ist, absolut zu.

Das Quasi-Monopol im jetzigen Enthusiastmarkt ist mit der G80 im Vollausbau und deren minimalem Preisverfall ueber die 9 Monate sehr gut zu erkennen.

AnarchX
2007-09-02, 18:53:38
Es kommt im Prinzip nur noch auf das ALU:TEX-Verhältnis an (wobei sich das auch gar nicht so stark unterscheidet wie oft getan wird zw. G80 und R600)

Wie ist das gemeint?
R600 arithmetisch nicht so stark wie behauptet und somit passend zur Tex-Leistung oder G80 kann die vorhandene Tex-Leistung bei weitem nicht so gut nutzen?

Gast
2007-09-02, 18:54:14
G7x kann aber keine Texturlatenz hinter Rechnungen verstecken. Grundproblem der Architektur.
Nicht innerhalb eines Prozessors wenn der FIFO voll ist, nein. Darum schrieb ich ja auch "mehr Prozessoren" und "größere FIFOs".

Coda
2007-09-02, 18:54:45
Ich schätze aber, dass sich das bald wieder ändern könnte. Ich vermute dass ein R6xx in seiner geplaneten Form mit G80 Ultra mitgehalten hätte.

Wie ist das gemeint?
R600 arithmetisch nicht so stark wie behauptet und somit passend zur Tex-Leistung oder G80 kann die vorhandene Tex-Leistung bei weitem nicht so gut nutzen?
Bei praxisrelevanten Shadern imho ersteres.

Das halte ich nach wie vor für falsch.
Das Bild erzeugte ist aber identisch.

reunion
2007-09-02, 19:01:12
Danke für den Widerspruch. :rolleyes:

Das ist kein Widerspruch. G80 wird ggü. R600 wohl auch in Zukunft gut dastehen, da R600 offensichtlich nicht das geworden ist, was er werden hätte sollen. Aber mal sehen wie es mit dem Refresh aussieht.

(wobei sich das auch gar nicht so stark unterscheidet wie oft getan wird zw. G80 und R600)

Wie wird denn getan? Die ALU-Leistung eines R600 sollte zumindest auf dem Niveau einer GTX liegen, die (theoretische) Filterleistung liegt um Größenordnungen darunter.

robbitop
2007-09-02, 19:48:28
Ich schätze aber, dass sich das bald wieder ändern könnte. Ich vermute dass ein R6xx in seiner geplaneten Form mit G80 Ultra mitgehalten hätte.

Was war denn deiner Meinung nach die geplante Form des R600?

Coda
2007-09-02, 20:10:15
Vor allem mal Anti-Aliasing das nicht so einbricht. Das kann einfach nicht sein bei so einem breiten Speicherinterface. Ergibt doch keinen Sinn.

robbitop
2007-09-02, 20:18:49
AF duerfte den R600 bei seiner geringen Fuellrate auch noch immer einiges kosten.

Coda
2007-09-02, 20:21:03
Natürlich, das habe ich ja gar nicht abgestritten. Trotzdem ist Füllrate noch lange nicht alles. Naja du hast wahrscheinlich recht, ohne AA hält sie ja auch nur in Spezialfällen mit.

Gast
2007-09-02, 20:45:57
Das halte ich nach wie vor für falsch. Woher soll denn der niedrigere Einbruch kommen? Die Architektur ist faktisch identisch. AFAIK warst es sogar du, der selber mal behauptet hat, dass ein G7x auch noch in HQ Samples einspart.


dual-MADD, mittlerweile ist ja bekannt dass bei der CineFX-architektur textur- und arithmetikoperationen sich gegenseitig blockieren können. G7x brauchte auf arithmetikebene eben ein paar takte weniger, die dann für das textursampling vorhanden sind.

up¦²
2007-09-03, 01:10:34
Diamond R600XTX FireGL V6850
2GB - wer bietet mehr? :tongue:
http://www.pcpop.com/doc/0/223/223854.shtml

Gast
2007-09-03, 02:44:46
Vor allem mal Anti-Aliasing das nicht so einbricht. Das kann einfach nicht sein bei so einem breiten Speicherinterface. Ergibt doch keinen Sinn.
Die AA-Performance wurde verbessert aber das AF zieht an der Performance.
Und das breite SI macht sich in hohen Auflösungen mit AA schon bemerkbar.

Ein Beispiel
http://img478.imageshack.us/img478/1879/lllvd5.jpg (http://imageshack.us)

LovesuckZ
2007-09-03, 08:42:41
Durch welche Information in dieser Tabelle erkennst du, dass das AA nicht das Problem ist?
Ansonsten verliert die GTS bei 8AA aufgrund des V-Ram Fehlers.

The_Invisible
2007-09-03, 08:45:41
welches spiel soll die tabelle überhaupt darstellen?

und die beschriftung der tabelle wurde anscheinend auch auch nach einem saufgelage gemacht.

mfg

Winter[Raven]
2007-09-03, 09:02:03
Durch welche Information in dieser Tabelle erkennst du, dass das AA nicht das Problem ist?
Ansonsten verliert die GTS bei 8AA aufgrund des V-Ram Fehlers.

Wobei dieser mit 164.33 abgeschwächt wurde, sollte es Nvidia noch schaffen, den auch zu beheben, dann soltte die Tabelle etwas anders aussehen.

Gast
2007-09-03, 12:34:38
Und das breite SI macht sich in hohen Auflösungen mit AA schon bemerkbar.


das liegt eher am bekannten bug in der VRAM-verwaltung bei NV (ist die 8800er etwa gar eine 320MB-version?)

bei höheren auflösungen steigt der bedarf an bandbreite sogar geringfügig weniger als der bedarf an pixelleistung.

ScottManDeath
2007-09-03, 19:54:06
Er hat eigentlich CTM mit keinem Wort erwähnt. Die nächste Version des F@H-GPU-Clients soll den Gerüchten nach wenigstens die HD2600 unterstützen (und F@H nutzt stinknormales DirectX9).
CTM kann man eigentlich sehr schwer mit CUDA vergleichen.

Er hat wissenschaftliche Anwendungen erwähnt, und da kommt CTM CUDA am nächsten, ohne IMHO wirklich konkurenzfähig zu sein.

MrMostar
2007-09-03, 21:23:12
Zur eigentlichen Frage:

Weil die ATI DX10 Karten mit neueren Treibern an Performance gewonnen haben, scheinen sich die Verhältnisse der verkauften Grafikkarten NV/ATI von 8/2 auf 7/3 zu verschieben. (Nachricht vom 2. August) (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/august/amds_partner_hd2000-verkaeufe/)

Passend zu den Aussagen der Board-Partner gibt es weitere Berichte aus Taiwan. Demnach stehe ein kleiner Wandel in der Verteilung der Verkäufe der beiden großen Grafikkartenhersteller Asus und Gigabyte an. Bisher waren 8 von 10 verkaufte Grafikkarten Nvidia-Modelle. Nun geht man davon aus, dass sich das Bild im Juli bereits zu einem 7:3-Verhältnis zu Gunsten der neuen ATi-Modelle verbessert hat.

Gast
2007-09-03, 21:27:18
wow, soweit ist man schon gesunken dass man sich über ein 7:3-verhältnis freut.

und das obwohl man eigentlich nur im high-end wirklich deutlich unterlegen ist und in den niedrigeren preisbereichen durchaus ganz gut mithalten kann, vor allem was den abverkauf der alten DX9-high-end-riege angeht.

MrMostar
2007-09-03, 21:31:33
wow, soweit ist man schon gesunken dass man sich über ein 7:3-verhältnis freut.

und das obwohl man eigentlich nur im high-end wirklich deutlich unterlegen ist und in den niedrigeren preisbereichen durchaus ganz gut mithalten kann, vor allem was den abverkauf der alten DX9-high-end-riege angeht.

Ich kann mir vorstellen, das sich manche Firmen über einen Umsatzzuwachs von ~50% ein bisschen freuen würden...
wenn jemand absolute Zahlen hat: immer her damit!

Gast
2007-09-03, 23:02:53
Die 2900 XT ist ein doppelter Griff ins Klo! Sie ist unter dx 9 verglichen mit der 8800 GTS 640 einfach zu langsam und zu stromhungrig. Und weil AMD nicht in die Gänge kommt, bekommen wir PC-Spieler keine Nachfolgegeneration von Nvidia aufgetischt, weil sie bequem ihren über 1 jahr alten erstling noch für unangemessen viel Geld verticken können..

Zum Thema Zukunftssicherheit finde ich sowohl die 8800 GTX als auch die 2900 xt einen schlechten Witz. Ich meine da schaut man sich die ersten, mit dx 10 aufgepeppten Spiele an und sie sehen hier und da marginal besser aus (mal kann das wasser mehr mal der Rauch, hallo darf ich das ach so überlegene dx10 und die ach so leistungsfähige Grafikhardware bitten was soll das???). Die Frameraten unter dx 10 sind dafür jedoch selbst bei 1280x1024 gleich indiskutabel im 30-40 fps bereich. Wer mit der nativen 22 Zoll TFT auflösung spielen will 1680x1080 der kann gleich aufgeben..

Wer soll da bitte glauben, dass wenn der erste ernstzunehmende, optisch aus der 9x generation herausragende dx10 Titel erscheint, dass dieser dann auch nur passabel läuft. Kann ich nur den Kopf schütteln, ATI und Nvidia veräppeln den Kunden. Ihre Grafikkarten sollten besser als die schnellsten dx9 ++ Karten verkauft werden, mit einer gewissen Zusatzeignung zur optischen Minimalaufbesserungen. Dafür sollte man wirklich nicht mehr als 250 Euro ausgeben.

Deshalb wurde Crysis auf der GC auch nur in der DX9 Version gezeigt.. Weil selbst zwei Vollzeit Nvidia Ingenieure bei Crytek und zwei 8800Gtx (= schlappe 1000 Euro allein für die Grakas) in den Vorführrechnern nicht ausreichen um es für Shooter flüssig d.h. FPS konstant > 30 zu laufen zu bekommen.

Call of Juarez: Naja wieso bekommen nur DX10 grakas die HiRes Texturen, das könnte meine ATI x1900 auch, da bin ich sicher.
BioShock, naja das dx10 Wasser ist das einzige nennenswerte Extrafeature. Der Rauch ist ja wohl nicht weltbewegend, habe ich in anderen Spielen schon besser gesehen. Min 350 Euro Hardware für den netten, realistischen Wassereffekt? Ich denke Nicht Bioshock ist und bleibt hohes/ höchstes DX9 Niveau aber nicht mehr.

So und jetzt überzeugt mich eines besseren!

dargo
2007-09-03, 23:20:30
ATI und Nvidia veräppeln den Kunden. Ihre Grafikkarten sollten besser als die schnellsten dx9 ++ Karten verkauft werden, mit einer gewissen Zusatzeignung zur optischen Minimalaufbesserungen.

Warum denn das? Schließlich haben beide IHVs Grafikkarten im Programm die DX10 Features unterstützen. Oder sollen die IHVs demnächst bei jeder Grafikkarte folgendes dazu schreiben:

Karte X = nicht fürs Gaming geeignet
Karte Y = bedingt fürs Gaming geeignet
Karte Z = gut fürs Gaming geeignet

:|


Deshalb wurde Crysis auf der GC auch nur in der DX9 Version gezeigt.. Weil selbst zwei Vollzeit Nvidia Ingenieure bei Crytek und zwei 8800Gtx (= schlappe 1000 Euro allein für die Grakas) in den Vorführrechnern nicht ausreichen um es für Shooter flüssig d.h. FPS konstant > 30 zu laufen zu bekommen.

Hast du dafür auch eine Quelle oder dir nur ausgedacht?


Call of Juarez: Naja wieso bekommen nur DX10 grakas die HiRes Texturen, das könnte meine ATI x1900 auch, da bin ich sicher.

Ich wüsste nicht, dass man CoJ schon in DX10 spielen kann.


So und jetzt überzeugt mich eines besseren!
Bleib besser bei deiner DX9 Graka und nerve nicht.

Gast
2007-09-04, 00:48:24
Warum denn das? Schließlich haben beide IHVs Grafikkarten im Programm die DX10 Features unterstützen. Oder sollen die IHVs demnächst bei jeder Grafikkarte folgendes dazu schreiben:

Karte X = nicht fürs Gaming geeignet
Karte Y = bedingt fürs Gaming geeignet
Karte Z = gut fürs Gaming geeignet

:|

Deine Vorschläge hören sich aus Verbrauchersicht nicht schlecht an. Wäre ja eine Faire sache zuzugeben dass die Rohleistung der 1. Generation von DX10 Graka´s nicht genug bums für ernstzunehmendes DX10 hat:) Wäre allerdings verkaufsschädigend wer zahlt schon 400+ Euro für eine böses erwachen mit den ersten DX10 Titeln nächstes Jahr??

Hast du dafür auch eine Quelle oder dir nur ausgedacht?

Zu Crysis: Die Performance ist natürlich eine böse Spekulation (schließlich kennen nur ca. 50 Crytek Mitarbeiter den aktuellen Stand bzw. die Wahrheit), die GC Rechner waren jedenfalls mit SLI 8800 GTX ausgerüstet, die 2 x Nvidia .Ings sind ebenfalls kein gerücht und dass DX10 nicht lief bzw. nicht gezeigt wurde wissen wir.. Für ein Spiel von dem zur GC nur ein Level bug arm sein muss und dessen Demo noch dieses Monat erscheint könnte man doch einen DX10 Augenaufschlag erwarten?

Ich wüsste nicht, dass man CoJ schon in DX10 spielen kann.

zu CoJ: Vielleicht ziehst du dir einfach mal die Benchmarkdemo, wenn du schon so viel Geld für dein 8800 Baby ausgegeben hast:)
http://www.gamershell.com/download_19492.shtml


Bleib besser bei deiner DX9 Graka und nerve nicht.

Falls dx9 dein Rat sein sollte:) ich bleibe sicher beim R520 bis irgend was ernsthaft Dx10 fähiges an Hardware auf dem Markt ist weshalb sollte ich sonst 400 Euro verbraten??? Und für deine Nerven empfehle ich Baldrian

Mr.Soapdown
2007-09-04, 09:10:29
Karte X = nicht fürs Gaming geeignet
Karte Y = bedingt fürs Gaming geeignet
Karte Z = gut fürs Gaming geeignet


Sollten sie wirklich dabei schreiben. Oder ein paar Beispiele auf dem Karton mit Games/Auflösungen/Qualitätseinstellungen. Ist natürlich nicht umsetztbar (nicht ironisch gemeint).

Aber so wie das im Moment läuft ist doch auch wirklich Verarsche. Das Thema Verpackungen und deren Aussehen hatten wir auch schon mal diskutiert.

Ich frage mich allerdings auch, warum mögliche Homeentertainmentkarten in der Größenordnung 2600pro und XT nicht einen echten HDMI drauf haben. Bei einer 2900XT halte ich das für "über". Bei den Kleineren könnte man echt-passiv kühlen.

Die 2900Xt ist auch vielleicht nicht mehr der große Flopp, wobei Laustärke und Verbrauch sicher immernoch am meisten abschrecken.

In großen Teilen gebe ich dem Gast recht.

sklave_gottes
2007-09-04, 11:59:28
Die 2900Xt ist auch vielleicht nicht mehr der große Flopp, wobei Laustärke und Verbrauch sicher immernoch am meisten abschrecken.

Am IDLE verbrauch ist ATI/AMD zu zeit dran. z.b. Verbraucht eine HD2900XT mit cat 7.6 im IDLE weniger als eine 8800GTS.

mfg martin

dargo
2007-09-04, 12:35:57
Deine Vorschläge hören sich aus Verbrauchersicht nicht schlecht an. Wäre ja eine Faire sache zuzugeben dass die Rohleistung der 1. Generation von DX10 Graka´s nicht genug bums für ernstzunehmendes DX10 hat Wäre allerdings verkaufsschädigend wer zahlt schon 400+ Euro für eine böses erwachen mit den ersten DX10 Titeln nächstes Jahr??
Derjenige der mehr Leistung für aktuelle Games braucht und sich nicht von irgendwelchen DX Features verblenden lässt. Was anscheinend bei dir zu funktionieren scheint.

Zu Crysis: Die Performance ist natürlich eine böse Spekulation (schließlich kennen nur ca. 50 Crytek Mitarbeiter den aktuellen Stand bzw. die Wahrheit), die GC Rechner waren jedenfalls mit SLI 8800 GTX ausgerüstet...
1. Es war eine G8800GTX verbaut und nicht zwei.
2. Was hat eine Beta-Version von Crysis mit der finalen zu tun?
3. Wo hast du auf der GC den Crysis Treiber gesehen?


zu CoJ: Vielleicht ziehst du dir einfach mal die Benchmarkdemo, wenn du schon so viel Geld für dein 8800 Baby ausgegeben hast
1. Den Benchmark kenne ich schon lange und wenn du den kennen würdest wüsstest du, dass in diesen deutlich mehr Details (ca. 33% mehr Vegetation usw.) implementiert wurden als in der DX9 Full. Ach übrigens - schon mal CoJ mit Full Details in DX9 gespielt? Selbst da reicht schon eine G8800GTX nicht aus. ;)
2. Seit wann hat ein Benchmark Aussagekraft über das entgültige Spiel? Ich sehe immer noch keinen DX10 Patch für CoJ.
3. Falls es dich interessiert - meine GTS hat mich genau 140€ Aufpreis gekostet. Ich kann damit leben. ;)

The_Invisible
2007-09-04, 13:07:12
immer die gleiche aussage und immer die gleiche antwort: man kann nicht für die zukunft kaufen.

aktuelle spiele sind mit aa/af und auflösungen >=1600 eben nicht mehr vernünftig auf der vorgängergeneration spielbar, die aktuelle generation liefert da doppelte performance oder mehr.

ob einem das wert ist muss natürlich jeder für sich entscheiden.

mfg

dargo
2007-09-04, 13:09:31
immer die gleiche aussage und immer die gleiche antwort: man kann nicht für die zukunft kaufen.

Manche raffen es leider immer noch nicht. Kann man nichts gegen machen.

Henroldus
2007-09-04, 13:16:06
Am IDLE verbrauch ist ATI/AMD zu zeit dran. z.b. Verbraucht eine HD2900XT mit cat 7.6 im IDLE weniger als eine 8800GTS.

mfg martin
der idle interessiert aber die wenigsten denn das Netzteil muss nach dem maximalen Verbrauch ausgelegt werden.
bei einer gamerkarte will man spieleleistung haben und sie nicht im idlen strom sparen lassen

Ronny145
2007-09-04, 13:45:46
Am IDLE verbrauch ist ATI/AMD zu zeit dran. z.b. Verbraucht eine HD2900XT mit cat 7.6 im IDLE weniger als eine 8800GTS.

mfg martin


Aber nicht auf jeder Karte.


der idle interessiert aber die wenigsten denn das Netzteil muss nach dem maximalen Verbrauch ausgelegt werden.
bei einer gamerkarte will man spieleleistung haben und sie nicht im idlen strom sparen lassen


Gerade Idle dürfte den meisten interessieren, da sich die Karte die meiste Zeit im Idle befindet.
Und ich glaube kaum, dass 50 Watt zur GT eine so wichtige Rolle für das Netzteil spielen. Die meisten haben eh ein ausreichendes NT verbaut.

Gast
2007-09-04, 13:56:49
Am IDLE verbrauch ist ATI/AMD zu zeit dran. z.b. Verbraucht eine HD2900XT mit cat 7.6 im IDLE weniger als eine 8800GTS.



das lustige ist ja dass die ATI-karte trotz 2D-modus einen ähnlichen idle-verbrauch wie NV ohne 2D-modus aufweist.

die NV-karte kann ich aber immer noch im 2D untertakten und komm damit noch weiter runter.

Gast
2007-09-04, 14:40:04
das lustige ist ja dass die ATI-karte trotz 2D-modus einen ähnlichen idle-verbrauch wie NV ohne 2D-modus aufweist.

die NV-karte kann ich aber immer noch im 2D untertakten und komm damit noch weiter runter.
Du Troll das geht wohl bei der 2900XT nich ? Und noch was man kann sogar die 2d Spannung auf 0,7-0,8V runternehmen ja das geht alles.

Es ist Traurig hier im 3D Center mit soviel Halbwissen überhäuft zu werden, hier gibt es leider 90% NV Fanboys :rolleyes:

The_Invisible
2007-09-04, 14:41:15
... hier gibt es leider 90% NV Fanboys :rolleyes:

also der witz ist echt der beste seit langem hier

mfg

sklave_gottes
2007-09-04, 14:43:21
der idle interessiert aber die wenigsten denn das Netzteil muss nach dem maximalen Verbrauch ausgelegt werden.
bei einer gamerkarte will man spieleleistung haben und sie nicht im idlen strom sparen lassen

Das sehe ich etwas anders, wieso sollte man unnötig viel strom verbrauchen im IDLE modus? Ich denke das es genug Menschen gibt die eine starke karte im pc haben und trotzdem damit surfen. Das mit dem netzteil auslegen wird sowieso total überschätzt, in der PCgames Hardware 09/2007 ist z.b. ein test über netzteile. Da reicht z.b. ein Targan 400watt netzteil aus um folgendes system im dauertest zu befeuern: Core2ExtremQX6700,2x8800Ultra sli....
Für quad+eine 8800ultra recihen selbst 350watt netzteile. Die meisten hier haben minimum 500watt wenn nicht sogar mehr. Also ich habe bis jetzt selten erlebt das sich jemmand wegen einer HD2900XT ein neues netzteil kaufen muss. Denk mal drüber nach...

Aber nicht auf jeder Karte.

@Ronny145
Ja das stimmt und auch nicht mit jedem Treiber, Ich wollte damit nur sagen das ich es gut finde das sich wenigstens was in die richtung tut. Bei den 8800 karten warten wir schon 8 monate auf so einen treiber.

das lustige ist ja dass die ATI-karte trotz 2D-modus einen ähnlichen idle-verbrauch wie NV ohne 2D-modus aufweist.

die NV-karte kann ich aber immer noch im 2D untertakten und komm damit noch weiter runter.

@Gast
1. wie gesagt im cat 7.6 z.b. funktionier der 2d modus richtig und da verbraucht die HD2900xt gut weniger wie die 8800gts.
2.durch untertakten holst du so gut wie nichts heraus an verbrauch habe ich schon selber öfter festgestellt zuletzt an einer x1900aiw. Viel bringen tut nur der v-core. Und den kann man bei der hd2900 sehr gut selber einstellen in 2d.

mfg martin

Gast
2007-09-04, 15:46:36
Für quad+eine 8800ultra recihen selbst 350watt netzteile.
mfg martin
Ich bin auch eher einer, der nicht vom Netzteilwahn erfasst worden ist, aber das obengenannte wäre mir zu riskant. Wenn man vom Worst Case ausgeht und die TDP von der Graka und QC nimmt, dann ist man ja schon bei 300 Watt. Kommen noch das Mainboard, Laufwerke etc. hinzu.

~Hiob~, Vers 10.1
2007-09-04, 17:56:41
Und die "guten" Nachrichten reissen nicht ab. In der neuen Gamestar steht ganz hinten und ganz klein versteckt schon die nächste Hiobsbotschaft für alle potenteillen 2900XT Kunden:

Microsoft bringt möglicherweise noch dieses Jahr eine neue DirectX-Version. Ob sie nun DX 10.1 oder DX 11 getauft wird ist egal - eins steht jedenfalls schonmal fest: Die Radeon 2900XT unterstützt den neuen Standard nicht.

Tja - GameOver.

Für eine Karte, die den Highend-Bereich anvisiert ein absoluter Killer. - Der Anschaffungspreis ist damit in keinster Weise mehr gerechtfertigt, da die 2900XT dann ab November den aktuellen DX10.1-Titeln nur noch hinterherhumpelt. Wahrscheinlich kommen pünktlich zum Weihnachtsgeschäft schon die ersten Midrange-Karten mit DX10.1/DX11 Support und die Preise für die 2900XT fallen ins Bodenlose - wenn die Karte nicht vorher bereits vom Markt genommen wird (wonach es derzeit ja aussieht).

drillsarge@woanders
2007-09-04, 17:59:11
wenn die jetzt anfangen dx monatlich ein neues featureset implementieren... toll
gibt kaum dx10 karten..tztz

reunion
2007-09-04, 18:05:33
Und die "guten" Nachrichten reissen nicht ab. In der neuen Gamestar steht ganz hinten und ganz klein versteckt schon die nächste Hiobsbotschaft für alle potenteillen 2900XT Kunden:

Microsoft bringt möglicherweise noch dieses Jahr eine neue DirectX-Version. Ob sie nun DX 10.1 oder DX 11 getauft wird ist egal - eins steht jedenfalls schonmal fest: Die Radeon 2900XT unterstützt den neuen Standard nicht.

Tja - GameOver.

Für eine Karte, die den Highend-Bereich anvisiert ein absoluter Killer. - Der Anschaffungspreis ist damit in keinster Weise mehr gerechtfertigt, da die 2900XT dann ab November den aktuellen DX10.1-Titeln nur noch hinterherhumpelt. Wahrscheinlich kommen pünktlich zum Weihnachtsgeschäft schon die ersten Midrange-Karten mit DX10.1/DX11 Support und die Preise für die 2900XT fallen ins Bodenlose - wenn die Karte nicht vorher bereits vom Markt genommen wird (wonach es derzeit ja aussieht).
Ich hoffe du meinst das nicht ernst.

Coda
2007-09-04, 18:05:54
D3D10.1 bringt so wenige neue Änderungen das es keine "Hiobsbotschaft" ist. Und ob R600 D3D10.1 nicht unterstützt steht auch noch in den Sternen. So sicher wäre ich mir da nicht. Danach wird's vorrauslichtlich lange Zeit Ruhe geben was D3D angeht. D3D11 steht noch lange nicht vor der Tür.

Zudem wird's mit ziemlicher Sicherheit niemals Titel geben die nur D3D10.1 und kein D3D10 unterstützen. Das wäre ziemlicher Blödsinn, weil selbst die Unterschiede zw. den verschiedenen D3D9-Karten einer Generation größer waren.

reunion
2007-09-04, 18:12:37
Eben, im übrigen wird ein G80 vermutlich auch kein D3D10.1 unterstützen, was ja auch logisch ist, da die Specs erst seit kurzem final sind. Es beschwert sich ja auch niemand dass ein R580 kein D3D10 unterstützt.

Coda
2007-09-04, 18:17:02
Die Specs sind schon länger final, und es könnte durchaus sein, dass G80 D3D10.1 unterstützt.

reunion
2007-09-04, 18:19:33
Laut Ailuros unterstützt nichtmal G92 D3D10.1, aber warten wir ab.

Gast
2007-09-04, 18:25:27
Siehe aktuelle News, sicher das die aktuellen von ATi und Nvidia kein DX10.1 können? Ich meine, selbst wenn nicht, wann würde das denn bitte ein Nachteil werden? Keine der hier ernsthaft argumentieren möchte kann behaupten wollen, DX10.1 wäre ein Kaufgrund. Es werden noch viele Monate vergehen, bis überhaupt DX10 erstmla richtig ausgereizt ist, Crysis wird da nur ein Anfang sein.

Gast
2007-09-04, 18:58:02
Ja, das ist sicher. Keine aktuelle Karte außer PowerVRs SGX unterstützt D3D10.1

AMC
2007-09-04, 20:06:15
fast 16.000 comments und dann so ein schmarn... nich schlecht...

Keine comments und dann so ein schmarn... :rolleyes: Reggen und genausoviel drauf haben wie coda, dann kannste sowas schreiben. Wenn er sagt, dass der G80 möglicherweise DX 10.1 unterstützen könnte, dann hat das einen guten Grund. Also husch husch ins void() mit Dir. :D

AMC

Gast
2007-09-04, 20:11:32
Ja, das ist sicher. Keine aktuelle Karte außer PowerVRs SGX unterstützt D3D10.1

PowerVRs SGX ist aber leider keine Karte;)

Coda
2007-09-04, 20:13:50
fast 16.000 comments und dann so ein schmarn... nich schlecht...
Es gibt weder ein offizielles Dementi noch eine Bestätigung dafür. Die Features sind technisch nicht so unglaublich schwierig zu implementieren, von daher sage ich dass es sein könnte.

Einiges ist nämlich definitiv in G80 enthalten was D3D10.1 fordert, u.a. FP32-Blending und Filterung, Cube-Map-Textur-Arrays und 4xMSAA. Das Render-To-Block-Compression würde man auch über den Treiber emulieren können.

Gast
2007-09-04, 20:15:43
Es gibt weder ein offizielles Dementi noch eine Bestätigung dafür. Die Features sind technisch nicht so unglaublich schwierig zu implementieren, von daher sage ich dass es sein könnte.
Sie müssten im G80 aber bereits implementiert sein - nachträglich dürfte das wohl schwierig werden, oder?

Was ist mit indizierbaren Cubemaps...?

Coda
2007-09-04, 20:41:42
Sie müssten im G80 aber bereits implementiert sein - nachträglich dürfte das wohl schwierig werden, oder?
Ja. Aber wer sagt, dass es nicht so ist? Wie gesagt, ist D3D10.1 nur ein minimales Feature-Addon zu D3D10. Den einzigen Punkt wo ich Probleme sehe sind die erweiterten Anti-Aliasing-Features. Der Rest dürfte schon vorhanden sein.

G80 kann übrigens doch Cubemap-Texture-Arrays in OpenGL, ich hab mich verschaut.

akuji13
2007-09-05, 07:48:49
Es gibt weder ein offizielles Dementi noch eine Bestätigung dafür. Die Features sind technisch nicht so unglaublich schwierig zu implementieren, von daher sage ich dass es sein könnte.

Es könnte morgen auch regnen.
Das ist eine Wischi-waschi Aussage mehr nicht.

Bis es nicht bestätigt wird, können sie es NICHT, denn auf die Bestätigung müssen wir uns verlassen.

Exxtreme
2007-09-05, 09:50:26
D3D10.1 wird erst dann interessant wenn D3D11 draussen ist.

nicht eingelogter User.
2007-09-05, 10:16:51
lol was die Gäste hier für MÜLL schreiben ist ja der Hammer.

Und die HD Reihe war und ist kein Flop, die Karten sind sehr beliebt, bei ALTERNATE sind die 512 sowie 1GB Karten ALLE ausverkauft wegen der hohen nachfrage, schon das sagt mir das es ein erfolg war/ist.

Fakt ist, die Karte ist jeden cent Wert.

Winter[Raven]
2007-09-05, 10:54:23
lol was die Gäste hier für MÜLL schreiben ist ja der Hammer.

Und die HD Reihe war und ist kein Flop, die Karten sind sehr beliebt, bei ALTERNATE sind die 512 sowie 1GB Karten ALLE ausverkauft wegen der hohen nachfrage, schon das sagt mir das es ein erfolg war/ist.

Fakt ist, die Karte ist jeden cent Wert.


Vielleicht liegt es auch einfach daran, dass AMD nicht genung liefern konnte, und dies auch bis jetzt nicht so richtig kann?

Mancko
2007-09-05, 10:55:34
lol was die Gäste hier für MÜLL schreiben ist ja der Hammer.

Und die HD Reihe war und ist kein Flop, die Karten sind sehr beliebt, bei ALTERNATE sind die 512 sowie 1GB Karten ALLE ausverkauft wegen der hohen nachfrage, schon das sagt mir das es ein erfolg war/ist.

Fakt ist, die Karte ist jeden cent Wert.

Weil jetzt bei einem Laden die Karten ausverkauft sind, heisst es nun schon die sind sehr beliebt?
Ich hab mal kurz bei Preisvergleichsseiten geschaut und da sind doch einige lieferbar. Deine Schlussfolgerung kann man so nicht ziehen. Dafür benötigt man andere Daten. Ein Blick in den Shop Alternate ist dafür nicht ausreichend.
Die besonders hohe Nachfrage kann ich nicht wirklich erkennen. Die Nachfrage nach der GTS 320 und 640 dürfte deutlich höher liegen. Das zeigen ja auch Mersury's und John Peddies Zahlen.

Ich würde mir die Karte jedenfalls nicht kaufen. Der Preis ist sicherlich in Ordnung aber mit der GTS640 fährt man problemloser und muss nicht auf irgendwelche Zukunftsvisionen und Treiberverbesserungen hoffen. Die Karte funktioniert hier und heute in den Games insgesamt besser und ist zudem auch nicht teurer.

Insofern kann man die Karte durchaus als Flop bezeichnen - auch gerade wegen der Verspätung und den markigen Sprüchen von AMD und ATI im Vorfeld. Ich erinner da nur mal an das Thema Treiber, wo man genüsslich auf die Konkurenz mit dem Finger gezeigt hat und jetzt selber dem Kunden immer wieder verspricht "neue Treiber" werden es richten.

drillsarge@woanders
2007-09-05, 11:09:04
Weil jetzt bei einem Laden die Karten ausverkauft sind, heisst es nun schon die sind sehr beliebt?
Ich hab mal kurz bei Preisvergleichsseiten geschaut und da sind doch einige lieferbar. Deine Schlussfolgerung kann man so nicht ziehen. Dafür benötigt man andere Daten. Ein Blick in den Shop Alternate ist dafür nicht ausreichend.
Die besonders hohe Nachfrage kann ich nicht wirklich erkennen. Die Nachfrage nach der GTS 320 und 640 dürfte deutlich höher liegen. Das zeigen ja auch Mersury's und John Peddies Zahlen.

Ich würde mir die Karte jedenfalls nicht kaufen. Der Preis ist sicherlich in Ordnung aber mit der GTS640 fährt man problemloser und muss nicht auf irgendwelche Zukunftsvisionen und Treiberverbesserungen hoffen. Die Karte funktioniert hier und heute in den Games insgesamt besser und ist zudem auch nicht teurer.

Insofern kann man die Karte durchaus als Flop bezeichnen - auch gerade wegen der Verspätung und den markigen Sprüchen von AMD und ATI im Vorfeld. Ich erinner da nur mal an das Thema Treiber, wo man genüsslich auf die Konkurenz mit dem Finger gezeigt hat und jetzt selber dem Kunden immer wieder verspricht "neue Treiber" werden es richten.

full ack. ich hab seit der 1. Radeon eigentlich fast nur ati hw gehabt und war immer vollendes zufrieden. Auch die 2900xt (genau 2) besitze ich und muss sagen, dass nv das zurzeit bessere produkt stellt. mies ist die neue radeon sicherlich nicht, aber auch nicht so gut wie erwartet. nun ja zum fanboy sein gehört auch sowas zu akzeptieren;)

Gast
2007-09-05, 15:20:51
Tip:

schau mal in den Foren ,die die Hardware auch genau und selber testen, ohne irgendwelchen Benchmarks zu glauben die im I-net rum geistern, 90% davon ist eh Müll und gelogen, oder halt kein fairer vergleich.

Ihr seit ja hier ganz ok, aber über irgendwelche Zahlen Pixelshader,Shaderprozessoren, Textureinheiten usw. zu reden hat dieses Forum leider GARNIX drauf.
Die Leute interessiert es nicht was die karte auf dem Papier kann oder sollte.
Der einzige der gute CPU Benchmarks macht ist Dargo ansonsten kann man 3Dcenter leider vergessen (nicht böse gemeint).
Aber das ja jetzt OT:

schau mal bei hardwareluss nach, da sind Leute die beide karten getestet haben, im selben Rechner, das selbe System, mit den neusten Treibern von NV und ATI.
Ich hab nix dagegen das die NV oder schneller ist, aber wenn dann sollte es fair bleiben oder nicht ?

Gast
2007-09-05, 15:21:43
Hardwareluxx.de mein ich :)

IceLord
2007-09-05, 18:24:18
schau mal bei hardwareluxx nach, da sind Leute die beide karten getestet haben, im selben Rechner, das selbe System, mit den neusten Treibern von NV und ATI.
Er meint wohl diesen Thread: http://www.forumdeluxx.de/forum/showthread.php?t=392734

Gast
2007-09-05, 20:04:18
zB : :)

The_Invisible
2007-09-05, 20:22:24
komisch, dass dann bei diesem test wo die fps aufgezeichnet wurden die 2900er selbst mit der 320er gts zu kämpfen hat: http://enthusiast.hardocp.com/article.html?art=MTM4NywzLCxoZW50aHVzaWFzdA==

und usertests sind immer eine sache, vor allem wenn man den user nicht kennt

mfg

laser114
2007-09-05, 20:31:58
Ist die Frage ob DX10 mit höchsten Einstellungen oder DX 10 @ höchste Einstellungen von DX9.
Hauptsächlich kommen nämlich in Bioshock unter DX10 Softshadows hinzu, die extrem viel an Füllrate kosten. Und davon hat die HD 2900 XT ja bekanntlich nicht so besonders viel.

AnarchX
2007-09-05, 20:34:10
und usertests sind immer eine sache, vor allem wenn man den user nicht kennt


Im Endeffekt ist es sogar der Zocker_28 (http://www.forum-3dcenter.org/vbulletin/member.php?u=11795) der hier im 3DC negativ auffiel:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=336422
... und das doch mit einer nicht ganz objektiven Einstellung gegenüber ATi-Produkten.

Gast
2007-09-06, 08:18:32
Bist du Fett ??? Warum wird hier immer der alte CB-Mist rausgekrammt???
Es werden doch bei NV auch nicht die Benches von Nov 06 rausgesucht..
Weil es bei 3DCenter noch keinen Test gibt und die meisten anderen Artikel nichts taugen.

MechWOLLIer
2007-09-06, 15:37:18
Bist du Fett ??? Warum wird hier immer der alte CB-Mist rausgekrammt???
Es werden doch bei NV auch nicht die Benches von Nov 06 rausgesucht..
Warum glauben eigentlich so viele, dass sich bei der HD 2900 XT mit neuen Treibern so viel getan hat? Wenn ich mal den Launch-Treiber und den aktuellen Cat 7.8 vergleiche, dazu dann die selben ForceWare-Versionen in dem Zeitraum nehme, komme ich zu einem Schluss...und zwar nicht, dass die HD 2900 XT prozentual schneller geworden ist als die GeForce 8800 GTS.

Gast
2007-09-06, 15:58:45
@MechWOLLIer
Da du keine 2900er hast kann du es ja wohl kaum vergleichen und ich hab die seit dem Release und kenn jeden Treiber (ob Final oder Beta) mit allen vorzügen/nachteilen.
Und der Stromverbrauch wurde mit dem 7.6 und 7.7 definitiv gesenkt, somit sind die angaben bei CB auch nicht real.

Coda
2007-09-06, 16:00:27
Aber auch nur im Idle.

arcanum
2007-09-06, 16:09:07
Der Alternate Großhändler Wave Computer hat gesagt das die die ATI bis auf weiteres nicht mehr verkaufen. Grund: Es sind viele GPUs abgeraucht und ATI tauscht keine, weil die angeblich overclocked waren.


So sieht es aus.

Inwiefern diese Aussage zustimmt weis ich nicht .

Ruft selber bei WAVE an und die werden euch das sagen , anscheinend ziehen alle Händler mit , sodass die 2900XT Karten weiterhin NICHT LIEFERBAR sind , aufgrund der Intollernaz seitens ATI/AMD.

Gruß

Eagleone19

quelle: http://www.forumdeluxx.de/forum/showthread.php?t=392734&page=16

Gast
2007-09-06, 16:14:32
Aber auch nur im Idle.
Unter Last ist es ja wohl auch fast unmöglich um die Stabi nicht zu gefährden.
Man kann aber mit dem ATI-Tool auch für 3D die Spannung senken von 1,2v auf 1.1-1,5 muß man natürlich austesten.

Gast
2007-09-06, 16:16:19
Ich meint 1,1-1,15V oben ;-)

@arcanum Es gibt keine Quelle alles Speku eines Users ;-(

arcanum
2007-09-06, 16:18:06
Ich meint 1,1-1,15V oben ;-)

@arcanum Es gibt keine Quelle alles Speku eines Users ;-(

das würde ich erst dann annehmen, wenn du selbst bei wave anrufst und das gegenteil bestätigst ;)

Exxtreme
2007-09-06, 16:27:10
quelle: http://www.forumdeluxx.de/forum/showthread.php?t=392734&page=16
Wenn es wirklich so wäre dann hätte man sehr viele Heulthreads in den Foren, daß Karten so abrauchen. Von daher denke ich, die Teile waren wirklich übertaktet.

Und ja, man kann sehen ob eine Karte übertaktet war wenn man Vorkehrungen trifft.

arcanum
2007-09-06, 16:45:36
Wenn es wirklich so wäre dann hätte man sehr viele Heulthreads in den Foren, daß Karten so abrauchen. Von daher denke ich, die Teile waren wirklich übertaktet.

Und ja, man kann sehen ob eine Karte übertaktet war wenn man Vorkehrungen trifft.

er hatte falsche kabel erhalten, wodurch seine karten abgeraucht sind. das zitat bezog sich jedoch auf die schlechte lieferbarkeit (siehe geizhals).

Gast
2007-09-06, 17:57:16
@MechWOLLIer
Da du keine 2900er hast kann du es ja wohl kaum vergleichen und ich hab die seit dem Release und kenn jeden Treiber (ob Final oder Beta) mit allen vorzügen/nachteilen.
Und der Stromverbrauch wurde mit dem 7.6 und 7.7 definitiv gesenkt, somit sind die angaben bei CB auch nicht real.
Wie kommst du darauf, dass er keine hat? Ich würde beinahe auf's Gegenteil wetten. Möglicherweise hat er sogar mehrere... ;)

3DoMan
2007-09-25, 15:41:53
Aber auch nur im Idle.
Die meisten Rechner Idlen vor sich hin, Idle Verbrauch ist für mich glatt wichtiger als der 3D Verbrauch. Sollte die 2900 Pro unter Idle deutlich weniger Saft ziehen als meine jetzige 8800 GTS, mache in nen Wechsel. Mir gefällt der neue Nvidia Treiber überhaupt nicht.

Gast
2007-09-25, 17:14:18
Die meisten Rechner Idlen vor sich hin, Idle Verbrauch ist für mich glatt wichtiger als der 3D Verbrauch. Sollte die 2900 Pro unter Idle deutlich weniger Saft ziehen als meine jetzige 8800 GTS, mache in nen Wechsel. Mir gefällt der neue Nvidia Treiber überhaupt nicht.

versteh ich nich was du da laberst. Du hast es doch voher gewusst wieviel die 8800GTS im idle schluckt (ca. 55watt).
und zu deiner lächerlichen 2900 Pro das die weniger verbraucht. VERGISS das mal ganz schnell. zumal sie nichmal ansatzweise die leistung deiner jetzigen 8800gts bringt.

Dr.Dirt
2007-09-25, 17:29:56
versteh ich nich was du da laberst. Du hast es doch voher gewusst wieviel die 8800GTS im idle schluckt (ca. 55watt).
und zu deiner lächerlichen 2900 Pro das die weniger verbraucht. VERGISS das mal ganz schnell. zumal sie nichmal ansatzweise die leistung deiner jetzigen 8800gts bringt.
Da spricht ja ein echter Kenner! :rolleyes:
http://www.pcgameshardware.de/?article_id=614326

Gast
2007-09-25, 17:37:51
Da spricht ja ein echter Kenner! :rolleyes:
http://www.pcgameshardware.de/?article_id=614326

eigentor mei guter?:D da is doch ganz klar die gts schneller
voher mal bissle denken?

Gast
2007-09-25, 17:59:43
Die meisten Rechner Idlen vor sich hin, Idle Verbrauch ist für mich glatt wichtiger als der 3D Verbrauch. Sollte die 2900 Pro unter Idle deutlich weniger Saft ziehen als meine jetzige 8800 GTS, mache in nen Wechsel. Mir gefällt der neue Nvidia Treiber überhaupt nicht.

Hallo. Ich finde das ja komisch das sich einer rüber aufregt das eine 2900Pro im idle! Weniger als eine 8800GTS verbraucht. Die Leistung verbraucht sie aber locker im Stromfressmodus (Games) mehr. Und das einiges. Und ich muss lachen das er ne gute 8800GTS gegen ne 2900Pro tauschen will. Das wäre ein ganz schlechter tausch. Ich idle übrigens mit meinem "kleinen" PC durch die Gegend. Spielen tu ich mit meinem "großen". Ich würde meine 8800GTS never gegen eine 2900 tauschen. Nur so als Tip. Gruss

Dr.Dirt
2007-09-25, 19:45:39
eigentor mei guter?:D da is doch ganz klar die gts schneller
voher mal bissle denken?
Nein, aber "von nicht ansatzweise" kann nun wirklich keine Rede sein. :eek:

Wobei die pro DEUTLICH preiswerter ist.

Gast
2007-09-25, 20:09:51
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1190732960

"Die Tester von TweakTown waren so begeistert von der gebotenen Leistung in diesem Preissegment, dass sie der Karte direkt den "Editor's Choice - Must Have" verliehen haben."

Dieses Fanboy gelaber ist echt lästig. Mal ist die eine besser mal die andere. Die Unterschiede sind marginal, jeder sollte selber entscheiden ob er lieber mehr fbs bei max. Details oder bei Nutzung von AA hat.

Gast
2007-09-25, 20:40:50
Wobei die pro DEUTLICH preiswerter ist.[/QUOTE]

Wo bitte ist die kastrierte 2900XT "deutlich" billiger als ne 8800GTS 320MB? Wo hat sie "deutlichen" Vorsprung mit AA/AF? Das was "deutlich" schlechter als das Nvidiaprodukt ist ist das schlechtere Lüfterkonzept! Das wollte ich mal deutlich machen. In diesem Sinne, prost Kollegen

Bumsfalara
2007-09-25, 20:47:56
Das 3dcenter und seine Gäste. Ist ja nicht zum aushalten... :(

Gast
2007-09-25, 20:55:19
Ne, ich hab nur Fakten aufgezählt. Anstatt nix zu sagen hättest du mal Argumente bringen können. Ich mag es nicht wenn eine in meinen Augen abgespeckte 2900XT so hochgejubelt wird. Wer sagt das alle Karten so hoch gehen? In einigen Tests meint man die werden von ATI gesponsort. Aber nein, anstatt auf die Turbine einzugehen zeigen die benches die ziemlich unrealistisch sind. Ich verweise auf Computerbase. Die erscheinen mir nicht so Realitätsfremd. Und jetzt sag ich noch was zur Überschrift: Ja sie ist gefloppt. Vielleicht wird die neue ATIgeneration besser. Und damit meine ich nicht die Pro. Gruss

3DoMan
2007-09-25, 21:00:45
Ne, ich hab nur Fakten aufgezählt. Anstatt nix zu sagen hättest du mal Argumente bringen können. Ich mag es nicht wenn eine in meinen Augen abgespeckte 2900XT so hochgejubelt wird. Wer sagt das alle Karten so hoch gehen? In einigen Tests meint man die werden von ATI gesponsort. Aber nein, anstatt auf die Turbine einzugehen zeigen die benches die ziemlich unrealistisch sind. Ich verweise auf Computerbase. Die erscheinen mir nicht so Realitätsfremd. Und jetzt sag ich noch was zur Überschrift: Ja sie ist gefloppt. Vielleicht wird die neue ATIgeneration besser. Und damit meine ich nicht die Pro. Gruss

Wie abgespeckt?
die Pro ist 100% identisch mit der 2900XT, lediglich der Takt ist etwas geringer. Also nix abgespeckt! Der Stromverbrauch ist identisch zur 8800 GTS bzw. wahrscheinlich leicht geringer als 8800 GTS 640MB, unter DX10 Games scheinen die ATIs Vorteile zu haben und die Vista Treiber sind auch besser sowie auch das Control Panel. Ich glaube die Pro wird der Weinachtsknaller sollte Nvidia nichts nachlegen, schließlich hat die kleine 8800 GTS schon heute zu wenig Vram und dann darf man den Vram-Bug nicht vergessen.

Nvidia hat sich ein Jahr lang auf seinen Lohrberen ausgeruht, statt endlich mal den Vram-Bug sowie Idle-Bug zu beheben. Die Preise sind auch gleich geblieben.

Gast
2007-09-25, 21:03:23
Die Pro Karten bekommen Chips die den XT-Takt nicht geschaftt haben. Bei ATI wird halt ausgemistet. Deswegen auch fragwürdig das alle so hoch gehen. Tja, ATI sollte mal nen neuen Chip entwickeln denn der ist ausgelutscht. Würde mir ja auch gerne wieder ne ATI kaufen, aber nicht so einen Stromfresser. Innovationen, ich erwarte Innovationen. Gruss

Sir Winston
2007-09-25, 21:25:28
Die Pro Karten bekommen Chips die den XT-Takt nicht geschaftt haben. Bei ATI wird halt ausgemistet. Deswegen auch fragwürdig das alle so hoch gehen. Tja, ATI sollte mal nen neuen Chip entwickeln denn der ist ausgelutscht. Würde mir ja auch gerne wieder ne ATI kaufen, aber nicht so einen Stromfresser. Innovationen, ich erwarte Innovationen. Gruss

Ich finde den Preis für diese Leistung schon ziemlich 'innovativ' - endlich mal wieder echte Konkurrenz im von P/L-Verhältnis interessantesten Bereich. Die XT kann ATI jetzt allerdings auch gleich ganz auf 'Pro' umlabeln...

Gast
2007-09-25, 21:34:10
unter DX10 Games scheinen die ATIs Vorteile zu haben und die Vista Treiber sind auch besser sowie auch das Control Panel.

Kannst du zu dem Märchen auch Quellen aufweisen?

desert
2007-09-25, 23:04:50
lt dem test von tweaktown performt die gts besser unter dx 10.

ist ja aber auch egal, bis richtige dx10 spiele kommen sind beide karten zu langsam.

Und für den preis ist es sogar ein guter kauf.

Ändert aber nichts daran das die 2900xt reihe genauso wie die 1800xt reihe geflopt ist. Kamen einfach viel zuspt auf den markt.

Dr.Dirt
2007-09-25, 23:48:51
Wo bitte ist die kastrierte 2900XT "deutlich" billiger als ne 8800GTS 320MB?
Die günstigste 8800 ist derzeit bei Geizhals mit 237€ gelistet, die günstigste 2900 Pro mit 206€. Wenn das nicht deutlich ist. :rolleyes:

Dr.Dirt
2007-09-25, 23:51:36
lt dem test von tweaktown performt die gts besser unter dx 10.

Soso.
http://www.tweaktown.com/reviews/1189/17/page_17_benchmarks_company_of_heroes_dx10_vista/index.html

Dr.Dirt
2007-09-26, 00:11:40
hahaha eine 320er karte die SEHR stark von dem ram bug befallen ist. Und noch DAS game ausgesucht wo ohnehin die superbubber 29xx serie drauf rennt. damit hast du dich klar als dämlicher fanboy hingestellt. Ich lach mich krank alda.
Nö, ich hab nur die Aussage, daß die GTS unter DX10 besser performen soll, relativiert.
Was kann den AMD dafür, wenn die Konkurenz Karten mit "RAM-Bug" vertreibt?

Sir Winston
2007-09-26, 00:24:02
Sagmal merkst dus noch? bist du echt so sau dämlich oder was? du kommst hier mit einem game und willst es relativiert haben? geh mal zum arzt
dann können wir ja weiter reden

Dann, werter Gast, mache dir doch bitte die Mühe, den Test einfach in voller Länge zu lesen - wenn das nicht zu viel verlangt ist. Wenn dessen Ergebnisse einigermaßen zutreffend sind, hat AMD/ATI hier auf jeden Fall eine Karte, welche summa summarum sehr gute Leistung zum verlangten Preis bietet. Du kannst natürlich auch einfach weiter flamen... :rolleyes:

Gast
2007-09-26, 00:29:14
Dann, werter Gast, mache dir doch bitte die Mühe, den Test einfach in voller Länge zu lesen - wenn das nicht zu viel verlangt ist. Wenn dessen Ergebnisse einigermaßen zutreffend sind, hat AMD/ATI hier auf jeden Fall eine Karte, welche summa summarum sehr gute Leistung zum verlangten Preis bietet. Du kannst natürlich auch einfach weiter flamen... :rolleyes:

? was willst du den`? lese du erstmal um was es hier geht, KLAR? hier sagt KEINER das die leistung von der Pro für den Preis nicht gut/schlecht oder was auch immer is.
also Spar dirs. Flamen willst wohl du

desert
2007-09-26, 08:14:48
Soso.
http://www.tweaktown.com/reviews/1189/17/page_17_benchmarks_company_of_heroes_dx10_vista/index.html


soso sind wir also auch ein rosinenpicker, mein gott da führt die amd in der für sie relevanten auflösung mit was war es noch 1 fps? Und dann noch ohne aa/af, wo wir doch alle wissen wir der r600 unter aa/af abgeht?

Und schauen wir doch mal die anderen tests an, da führt die gts teilweise mit 20 fps unter 1280 x 1024.

Aber schon klar, amd tritt nvidia mal wieder so richtig in den arsch:eek:

Warum kann man es nicht einfach mal akzeptieren das die karte halt schneller ist? wieso muss dann immer rosinenpickerei betrieben werden?

Verletzt das irgendwie dein ego?

Ändert doch nichts daran das die karte für den Preis ein hervorragendes Angebot ist.

Gast
2007-09-26, 10:13:40
bin ich froh, das ich meine verkackte gts noch zeitig losgeworden bin.

ich finde es eine frechheit, das z.b. der rambug selbst nach so langer zeit nicht richtig gefixt werden kann.
dazu geht SLI nicht nativ auf meinem Intel board.

NV wird mich erstmal für längere zeit nicht wiedersehen.

dargo
2007-09-26, 10:52:31
Soso.
http://www.tweaktown.com/reviews/1189/17/page_17_benchmarks_company_of_heroes_dx10_vista/index.html
Und jetzt das ganze bitte nochmal mit AF. :devil:
AA würde zumindest in den höheren Auflösungen bei der 320 GTS wenig Sinn machen, dafür bräuchte man dann schon die 640 GTS.

Aber ich weiß, die R6x0 User spielen alle ohne AA/AF. :D

Nvidia hat sich ein Jahr lang auf seinen Lohrberen ausgeruht, statt endlich mal den Vram-Bug sowie Idle-Bug zu beheben. Die Preise sind auch gleich geblieben.
Es gibt und gab beim G80 nie einen Idle-Bug. ;)

chiller
2007-09-26, 11:04:20
wie einige nich einsehen das AMD nen preisleistungskracher ausgepackt haben...

warum sollte ich mir ne gts mit 320mb kaufen wenn ich immer wieder alt+tab drücken muss? das muss mir mal einer erklären...

da kauf ich mir lieber ne karte mit 512MB kein v-ram bug und kostet weniger geld

nicht jeder hat das geld um sich ne gts 640, xt oder gtx zu kaufen

desert
2007-09-26, 11:29:37
Naja preisleistungskracher nun mal nicht. Kostet ungefähr das gleiche wie eine 8800 gts 320, vielleicht ein bischen weniger.

Ja ich weiss das geizhals sagt ab 206,00 euro, aber nicht einer hat sie dafür da, schreiben alle erst ab 16.10.2007 Und auch dann wird sie keiner für 206,00 euro kriegen.

Guter Preis ok, preisleistungskracher sieht anders aus, dann müsste die 8800 gts 320 ja auch eine sein.

Gast
2007-09-26, 11:36:43
Naja preisleistungskracher nun mal nicht. Kostet ungefähr das gleiche wie eine 8800 gts 320, vielleicht ein bischen weniger.



Da sollte man auch erst mal warten, wie die Preise sich einpendeln, vielleicht wird Nvidia ja jetzt billiger.

Dr.Dirt
2007-09-26, 13:01:15
soso sind wir also auch ein rosinenpicker
Was heißt hier Rosinenpicker? Bei Tweaktown wurden 3 dx10 Games getestet, bei einem war AMD besser, bei einem Nvidia und bei CoJ waren beide gleichschlecht. Ich weiß nicht wie man daraus die These "lt dem test von tweaktown performt die gts besser unter dx 10" ableiten kann.
Da muß man erstmal weitere Tests abwarten. Aber es geht dir vermutlich nur darum, ein Produkt, gegem das du eine perönliche Abneigung hast, schlecht zu reden. :rolleyes:

Und bitte nicht mit der 640MB GTS vergleichen, die ist deutlich teurer.

Dr.Dirt
2007-09-26, 13:03:52
vielleicht wird Nvidia ja jetzt billiger.
Wenn nicht, dann verkommt die 320er GTS zum Ladenhütter.

Dr.Dirt
2007-09-26, 13:06:12
Es gibt und gab beim G80 nie einen Idle-Bug. ;)
Stimmt, bei einem Bug hätte es ja mal den Zustand der einwandfreien Funktion geben müssen, da es aber nie implementiert war, kann man nicht von einem Bug reden. :wink: