PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon HD2900 XT Benches in der c't


Avalox/Gast
2007-05-12, 19:54:36
In der aktuellen c't (11/07) sind Benches der neuen 2900XT zu finden.

XP/Vista Oblivion, XP/Vista Prey sind gegen die Radeon X1950XTX, der GF 8800 GTS und der GF 8800 GTX gebencht worden.

Kurzum die DX9 Spiele sind auf der Geforce schneller.
Allerdings räumt ATI z.Z. noch massive Treiberprobleme mit dem im Test eingeschalteten adaptiven Antialiasing ein. Mal sehen, was da noch kommt.

Sehr interessant ist der DX10 Bench aus dem DX10 SDK PipeGS.
Dort fährt die 2900XT 150fps der 8800GTX mit erreichten 63fps und der 8800GTS mit erreichten 34 absolut davon.

So schreibt auch c't dass es eine Menge an Hinweisen gibt, dass die Geometrie Shader der Geforce 8800 nicht sehr leistungsfähig sind und sieht dieses durch die ATI Tests nun absolut bestätigt.

LovesuckZ
2007-05-12, 20:00:59
Steht auch in der Zeitschrift, wie sie sich die Bilder pro Sekunde angezeigt haben? Die Tests im D3D10 SDK soll kein Zähler enthalten sein...?!

Avalox/Gast
2007-05-12, 20:09:34
Steht auch in der Zeitschrift, wie sie sich die Bilder pro Sekunde angezeigt haben? Die Tests im D3D10 SDK soll kein Zähler enthalten sein...?!


Nein steht nicht da, wenn es so ist, dass kein Zähler vorhanden ist. So traue ich der c't durchaus zu einen dazu zu programmieren. Kommt ja schliesslich aus dem SDK.

SpaceCowboy
2007-05-12, 20:34:38
Passend dazu: Genaue Werte bei Hardtecs4u

http://www.hardtecs4u.de/?id=1178992218,83196,ht4u.php

Kira
2007-05-12, 20:43:24
treiberprobleme hin oder her, wenn die karte so viel potenzial hat, wie darüber gesprochen wird, sollte sie nach monatelanger verspätung locker paar fps mehr hinhauen als die g80

Avalox/Gast
2007-05-12, 20:44:04
ach ja. Stromverbrauch wurde auch gemessen.

Spitzenwerte. Die Durchschnittswerte liegen sehr viel niedriger.

2400XT - 25W
2600XT - 45W
2900XT - 214W
8800Ultra - 174W

LovesuckZ
2007-05-12, 20:47:38
40 Watt mehr als bei der 8800 Ultra? Das wären ja fast 60 Watt mehr als die GTX und ca. 100 Watt mehr als die GTS...
Oh, da ist mir jetzt klar, warum AMD eher über den Preis und die Software geht als über die Leistung der Karte.

Avalox/Gast
2007-05-12, 20:48:26
treiberprobleme hin oder her, wenn die karte so viel potenzial hat, wie darüber gesprochen wird, sollte sie nach monatelanger verspätung locker paar fps mehr hinhauen als die g80


Die Karte kostet wohl deutlich unter 380€, mit drei Spielen. Die momentane Leistung ohne AA ist gleich der 8800GTX. In allen drei DX10 Benchmarks rennt die 2900XT der 8800 mächtig davon. Na ja, mal sehen wie sich das weiter entwickelt.

Avalox/Gast
2007-05-12, 20:51:42
40 Watt mehr als bei der 8800 Ultra? .

Kann man so nicht sagen. Ist eben ein Spitzenwert. Lieber 0.1 Sekunden 214W. Als 10Sekunden 174W.

Um zu vergleichen braucht man die Durchschnittswerte, welche bei allen Karten sehr deutlich drunter liegen. Da wird sich einiges relativieren.

LovesuckZ
2007-05-12, 20:54:19
Kann man so nicht sagen. Ist eben ein Spitzenwert. Lieber 0.1 Sekunden 214W. Als 10Sekunden 174W.
Um zu vergleichen braucht man die Durchschnittswerte, welche bei allen Karten sehr deutlich drunter liegen. Da wird sich einiges relativieren.

Wieso? Warum sollten sich die "Durchschnittswerte" eher annähren?
Wenn die Karten voll ausgelastet werden, also kein CPU-limit herrscht, müssten die Spitzenwerte fast durchgehend erreicht werden.

Gast
2007-05-12, 20:56:39
ach ja. Stromverbrauch wurde auch gemessen.

Spitzenwerte. Die Durchschnittswerte liegen sehr viel niedriger.

2400XT - 25W
2600XT - 45W
2900XT - 214W
8800Ultra - 174W


Ui, die 2600XT scheint mir aber sehr sparsam. Und dafür solch ein aufwändiges PCB.

Da kann man ja hoffen das die ohne große Takteinschränkung den Weg ins Notebook findet. Viele Lanchpartner hatte ja Nvidia nicht für die GF8M Serie. Denke mal ein Großteil der Hersteller setzt diese Generation wieder auf ATI. Mir solls recht sein. Die G8600M GT ist mir ehrlich gesagt noch ein bisschen zu lütt.

reunion
2007-05-12, 20:57:09
Zumindest sind die Werte der 2400XT/2600XT erfreulich niedrig. In Relation dazu, und auch in Anbetracht dessen, dass die 2600XT sogar höher taktet, ist der Stromverbrauch der 2900XT viel zu hoch. Würde mich nicht wundern, wenn da irgendein Bug was vermasselt. Ob da wohl der Fehler mit den ROPs nicht ganz behoben wurde?

Gast
2007-05-12, 20:58:44
Wieso? Warum sollten sich die "Durchschnittswerte" eher annähren?
Wenn die Karten voll ausgelastet werden, also kein CPU-limit herrscht, müssten die Spitzenwerte fast durchgehend erreicht werden.

Auch diese Spitzenwerte sind eine Integration über einen gewissen (evtl auch kurzen) Zeitraum. Trotzdem kann man nicht davon ausgehen dass diese Werte dauerhaft anliegen.

Raff
2007-05-12, 21:00:06
Zumindest sind die Werte der 2400XT/2600XT erfreulich niedrig. In Relation dazu, und auch in Anbetracht dessen, dass die 2600XT sogar höher taktet, ist der Stromverbrauch der 2900XT viel zu hoch. Würde mich nicht wundern, wenn da irgendein Bug was vermasselt. Ob da wohl der Fehler mit den ROPs nicht ganz behoben wurde?

IMO eher der verzweifelte Versuch, mit Übertaktung und erhöhter Spannung etwas gegen die Konkurrenz zu tun.

MfG,
Raff

reunion
2007-05-12, 21:02:01
Die momentane Leistung ohne AA ist gleich der 8800GTX.

Eben. Ohne AA/AF liegt die Karte gleichauf mit der 8800GTX. Mit kann sie sich bei der Ergebnissen von C't kaum gegen einen R580 behaupten. IMHO liegt da noch viel Leistung brach.

Ich meine das kanns ja wohl nicht sein:

Prey 1600x1200 kein AA 16xAF
HD2900XT 90fps
X1950XTX 67fps

Prey 1600x1200 4xT-AA 16xAF
HD2900XT 56fps
X1950XTX 53fps

Gast
2007-05-12, 21:03:28
Interessant wäre mal die Verbrauchswerte des 2D Modus.
So wie das aussieht, zieht die Karte selbst in 2D mehr als die GTS (Idle).

Avalox/Gast
2007-05-12, 21:03:50
Wieso? Warum sollten sich die "Durchschnittswerte" eher annähren?
Wenn die Karten voll ausgelastet werden, also kein CPU-limit herrscht, müssten die Spitzenwerte fast durchgehend erreicht werden.


Nein überhaupt nicht. Zum einen zeigen ja die Benches, dass die 2900XT unter umständen 2.5 x so schnell ist wie eine 8800GTX. Die Karte leistet dann erheblich mehr pro W unter Umständen.

Zum anderen ist ein Spitzenwert natürlich ein Spitzenwert. c't schreibt ausdrücklich, dass die Normalwerte SEHR viel niedriger liegen. Es kann also durchaus sein, dass ein Durchschnittswert einer Karte mit niedrigen Spitzenwert höher ist, als der Durchschnittswert einer Karte mit hohen Spitzenwert. Der Spitzenwert sagt überhaupt nichts aus zum Stromverbrauch und auch damit nichts zur Wärmeentwicklung. Der Spitzenwert sagt nur was, wie das Netzteil ausgelegt sein muss, um eben diesen Spitzenwert abzudecken, wenn er denn mal benötigt wird.

Blaire
2007-05-12, 21:05:06
IMO eher der verzweifelte Versuch, mit Übertaktung und erhöhter Spannung etwas gegen die Konkurrenz zu tun.


So schauts wohl aus.

Raff
2007-05-12, 21:06:50
Eben. Ohne AA/AF liegt die Karte gleichauf mit der 8800GTX. Mit kann sie sich bei der Ergebnissen von C't kaum gegen einen R580 behaupten. IMHO liegt da noch viel Leistung brach.

Ich meine das kanns ja wohl nicht sein:

Prey 1600x1200 kein AA 16xAF
HD2900XT 90fps
X1950XTX 67fps

Prey 1600x1200 4xT-AA 16xAF
HD2900XT 56fps
X1950XTX 53fps

Man munkelt doch gerade etwas von einem Bug bei Verwendung von AAA. Dank 512 Bit sollte die Karte mit einem brauchbaren Treiber der GTX mit 8x Multisampling wegrennen.

MfG,
Raff

Avalox/Gast
2007-05-12, 21:07:32
Ui, die 2600XT scheint mir aber sehr sparsam. Und dafür solch ein aufwändiges PCB.



Die 2600 gefällt den Testern ausgezeichnet. Die Karte bietet die doppelte Rechenleistung als eine GF8600 und bietet deutlich mehr in Sachen Videobeschleunigung.

laser114
2007-05-12, 21:09:27
Die 2600 gefällt den Testern ausgezeichnet. Die Karte bietet die doppelte Rechenleistung als eine GF8600 und bietet deutlich mehr in Sachen Videobeschleunigung.

Was hat denn dann AMD bitte bei der 2900 XT verhauen? Von den Rohdaten sieht die 2600 XT doch gar nicht so stark aus - und dann dieser minimal Verbrauch...

reunion
2007-05-12, 21:11:21
IMO eher der verzweifelte Versuch, mit Übertaktung und erhöhter Spannung etwas gegen die Konkurrenz zu tun.

MfG,
Raff

Die sehr guten Übertaktungsergebnisse sprechen nicht unbedingt dafür, dass die Karte am Limit läuft. Auch takteten ja selbst die Teststamples mit bis zu 814Mhz wesentlich höher als die finale XT. Ich glaube da ist noch was im Busch.

Was hat denn dann AMD bitte bei der 2900 XT verhauen? Von den Rohdaten sieht die 2600 XT doch gar nicht so stark aus - und dann dieser minimal Verbrauch...

Naja, Ailuros erwähnte ja schon früher was von einem Bug in den ROPs, wodurch der Verbauch unnötig hoch ist. Womöglich wurde dieser nicht, oder nur teilweise gefixt.

Gast
2007-05-12, 21:11:59
Unglaublich wie wieder versucht wird, ein Fazit zu ziehen, obwohl klar ist, das die Software (Treiber) noch nicht mal annähernd ausgereizt sind.

IMO ist das alles für die Tonne. Vor dem 1.6 würde ich da gar nichts testen wollen.

Raff
2007-05-12, 21:14:41
Unglaublich wie wieder versucht wird, ein Fazit zu ziehen, obwohl klar ist, das die Software (Treiber) noch nicht mal annähernd ausgereizt sind.

IMO ist das alles für die Tonne. Vor dem 1.6 würde ich da gar nichts testen wollen.

Man muss ein Fazit ziehen, wenn das Ding kaufbar ist. Die GeForce 8 ist es auch, seit über einem halben Jahr. Wie schnell der R600 Ende des Jahres ist, ist irrelevant, da dann schon R650 und G90 rauskommen. Man kann nur hoffen, dass bis dahin die groben Schnitzer gefixt wurden.

MfG,
Raff

Gast
2007-05-12, 21:15:27
Eben. Ohne AA/AF liegt die Karte gleichauf mit der 8800GTX.

Nun, wenn die A.I Spielchen noch vorhanden sind, sind die Werte von Prey nicht aussagekräftig. In OpenGL ist auch die X1950XTX sehr konkurrenzfähig - dank optimierten Filter und Shaderreplacement. Das zieht sich durch alle OpenGL Spiele auf Basis der Doom3 Engine.

Gast
2007-05-12, 21:15:43
Naja, sollte die Karte um 350€ kosten ist sie auf jedenfall einen Blick wert :>

Gast
2007-05-12, 21:15:57
Man muss ein Fazit ziehen, wenn das Ding kaufbar ist.

Müssen schonmal gar nicht..

Die GeForce 8 ist es auch, seit über einem halben Jahr.

Diese hat selbst Monate nach Release noch deutliche Performancezuwächse durch neue Treiber erfahren, warum sollte es hier anders sein?

Gast
2007-05-12, 21:17:22
Weil es um da hier und jetzt geht!
Ich kauf die Karte nicht erst in 4 Monaten.

Avalox/Gast
2007-05-12, 21:17:30
Unglaublich wie wieder versucht wird, ein Fazit zu ziehen, obwohl klar ist, das die Software (Treiber) noch nicht mal annähernd ausgereizt sind.

IMO ist das alles für die Tonne. Vor dem 1.6 würde ich da gar nichts testen wollen.


Die c't verzichtet auf jedes Fazit zur 2900XT. Festgestellt wird, dass die GF8800 unter DX10 sehr langsam ist im Vergleich. Dort wird einiges erwartet von der neuen ATI Generation. Nur wartet die c't auf ausgereifte Treiber und DX10 Spielen. Von der GF8600 scheint die c't nicht viel zu halten und gibt dort klar der ATI 2600 den Vorzug.

Raff
2007-05-12, 21:17:33
Doch, müssen. Denn entweder man empfiehlt sie zum Launch ... oder nicht. Dass Karten beim Launch mal dezent sucken, ist definitiv nichts Neues. Die GeForce 8 hatte, wie du schon sagtest, am Anfang auch Probleme. Aber es gab keine Konkurrenz – Glück gehabt.

MfG,
Raff

Gast
2007-05-12, 21:19:42
[QUOTE=Raff;5487984]
Diese hat selbst Monate nach Release noch deutliche Performancezuwächse durch neue Treiber erfahren, warum sollte es hier anders sein?

Welche Performancezuwächse?
Das maximalste waren ca. 15% in HDR-R. Es gibt bis jetzt keinen Treiber, der die Leistung deutlich gesteigert hat.
Entweder die Leistung waren von anfang schon verdammt leistungsoptimiert oder nVidia hat noch etwas in der Hinterhand.

reunion
2007-05-12, 21:19:48
Wie schnell der R600 Ende des Jahres ist, ist irrelevant, da dann schon R650 und G90 rauskommen.


Ich verstehe diese Einstellung nicht. Dem potentiellen Käufer eines G80 oder R600 dürfte es relativ egal sein, wann die Nachfolger rauskommen. Der will wissen, von welcher Karte er länger was hat.

Gast
2007-05-12, 21:25:15
Weil es um da hier und jetzt geht!
Ich kauf die Karte nicht erst in 4 Monaten.

Du nutzt die Karte aber auch nicht jetzt sofort in DX10 "Games"... das Argument ist mehr als nur hinfällig, zumal du nicht mal passende Anwendungen vorfinden wirst.

Welche Performancezuwächse?
Das maximalste waren ca. 15% in HDR-R. Es gibt bis jetzt keinen Treiber, der die Leistung deutlich gesteigert hat.

Nö, es gab in einigen Anwendungen deutlich größere Zuwächse, speziell unter Vista. Schau dir mal die Releasenotes und entsprechende Vergleiche an.

Es dauert seine Zeit, mindestens ein paar Monate bis eine neue Architektur durch die Software völlig ausgereizt wurde.

Mit dem Argument der Refreshchips zu kommen ist wenig sinnvoll: So lange diese auf der gleichen Architektur basieren, werden sie auch die gleiche Treiberbasis und somit Speed haben. Es ist sowohl für ATI als auch NVIDIA vom Vorteil so früh wie möglich ausgereifte Treiber zu bringen - bis dato ist dies nicht geschehen.

Wenn ATI noch mehr rausquetschen kann als NVIDIA, dann ist dies schlecht für NVIDIA und gut für ATI - nicht aber umgekehrt.
ATI hätte dann auch zum Refreshchip verbesserte Treiber am Start, muss man auf jeden Fall berücksichtigen.

Was ihr hier tut ist ein eher unsinniger Vergleich: NEUE Architektur + NEUE Treiber vs. eine im Markt befindliche Karte mit bereits mehrfach ausgebesserten Treibern zu vergleichen.

Raff
2007-05-12, 21:25:32
Ich verstehe diese Einstellung nicht. Dem potentiellen Käufer eines G80 oder R600 dürfte es relativ egal sein, wann die Nachfolger rauskommen. Der will wissen, von welcher Karte er länger was hat.

Als Käufer einer neuen Karte interessiert mich primär, was ich sofort von dem neuen Ofen habe. Wenn das Ding dann in einem Jahr nicht schlapp macht, ist das auch wichtig, aber nur für die Zukunft kaufen klappt in dieser Branche nicht.

Man könnte anhand der theoretischen D3D10-Werte mutmaßen, dass der R600 in zukünftigen Spielen gut dastehen wird. Dann hat ihn Ati konsequent zur "Next Gen" gemacht ... das hilft Spielern aktuell aber wenig. Naja, mal weitere Werte abwarten, ich glaube aber nicht mehr an Wunder ...

MfG,
Raff

AnarchX
2007-05-12, 21:27:11
Die 2600 gefällt den Testern ausgezeichnet. Die Karte bietet die doppelte Rechenleistung als eine GF8600 und bietet deutlich mehr in Sachen Videobeschleunigung.

Wie kommt die ct' den auf solch einen Unsinn?:|

Gast
2007-05-12, 21:28:11
Ach komm, so schlecht sieht es doch garnicht aus :)

Es kommt eben wie immer auf den Preis an.
Um die 350€ ist auf jeden Fall ein guter Preis für die Karte mit der Ausstattung.

Raff
2007-05-12, 21:30:24
Ach komm, so schlecht sieht es doch garnicht aus :)

Es kommt eben wie immer auf den Preis an.
Um die 350€ ist auf jeden Fall ein guter Preis für die Karte mit der Ausstattung.

So kann man es auch sehen. So soll man es sogar sehen, wenn man der aktuellen Strategie von AMDs Marketingabteilung folgt. Ich wollte aber endlich wieder Konkurrenz an der Spitze. Eine Karte, die der GeForce 8 endlich mal in den Arsch tritt. War aber wohl nichts, dafür spricht eben auch die "Wir rocken für wenig Geld"-Schiene. ;(

MfG,
Raff

reunion
2007-05-12, 21:30:48
Vorallem ist das High-End-Segment kaum von Relavanz (wenn man vom Prestige absieht), das Geld wird wo anders gemacht, und da sieht es bei AMD wahrlich nicht schlecht aus, wenn sich die Karten nicht mehr arg verspäten. Die Dies sind noch dazu in jedem Segment (R600 ist noch fraglich) tw. erheblich kleiner als bei nV, was natürlich den Margen zu gute kommt.

Black-Scorpion
2007-05-12, 21:31:36
Nun, wenn die A.I Spielchen noch vorhanden sind, sind die Werte von Prey nicht aussagekräftig. In OpenGL ist auch die X1950XTX sehr konkurrenzfähig - dank optimierten Filter und Shaderreplacement. Das zieht sich durch alle OpenGL Spiele auf Basis der Doom3 Engine.
Gerade bei spielen die auf der Doom3 Engine beruhen würde ich mich hüten über ATI zu meckern.
Demirug hat damals schon gesagt das NV da deutlich mehr optimiert. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157)

LovesuckZ
2007-05-12, 21:31:51
Um die 350€ ist auf jeden Fall ein guter Preis für die Karte mit der Ausstattung.

Bei einem Stromverbrauch, der im schlimmsten Fall, um die 100 Watt (!) höher ausfallen könnte, ist das Produkt selbst für einen € kaum "gut".
Dachte man, dass nVidia mit dem IDLE - Verbrauch einen Schaden hätte, legt AMD noch einen obendrauf...

Wie kommt die ct' den auf solch einen Unsinn?:|

Wahrscheinlich haben die nur auf die DX10 Werte geschaut...
Ich kann mir ebenfalls nicht vorstellen, dass eine Karte mit fast der Hälfte an Texturleistung doppelt so schnell sein sollte...

Gast
2007-05-12, 21:32:04
Ich wollte aber endlich wieder Konkurrenz an der Spitze.

Was nützt dir und allen anderen das? Würdest du einen 699€ Boliden überhaupt kaufen?

Blaire
2007-05-12, 21:32:17
So kann man es auch sehen. So soll man es sogar sehen, wenn man der aktuellen Stragegie von AMDs Marketingabteilung folgt. Ich wollte aber endlich wieder Konkurrenz an der Spitze. Eine Karte, die der GeForce 8 endlich mal in den Arsch tritt. War aber wohl nichts, dafür spricht eben auch die "Wir rocken für wenig Geld"-Schiene. ;(


Der günstige Preis ist das eine , der hohe Strombedarf auch nicht zu unterschätzen. Das wird sicher einige Käufer abhalten vom Kauf.

Gast
2007-05-12, 21:34:00
Ach bitte.
Wartet doch mal VERNÜNFTIGE Messungen ab.

Durchschnittsverbrauch unter 3D und 2D/Idle.
Die sind wirklich interessant.

Avalox/Gast
2007-05-12, 21:34:20
Wie kommt die ct' den auf solch einen Unsinn?:|


Ich nehme mal an, weil sie eine in der Hand und getestet haben. Die maximale Leistungsaufnahme ist ja auch von der c't gemessen worden. Für das Heft 12/07 ist ein sehr umfangreicher Artikel zu den neuen ATI KArten angekündigt worden.

dildo4u
2007-05-12, 21:35:21
Die sehr guten Übertaktungsergebnisse sprechen nicht unbedingt dafür, dass die Karte am Limit läuft. Auch takteten ja selbst die Teststamples mit bis zu 814Mhz wesentlich höher als die finale XT. Ich glaube da ist noch was im Busch.

Doch die Karte läuft am Limit des selbst gesetzten und noch gerade so vertretbaren TDPs.Nicht vergessen so eine Karte soll auch in OEM PCs verbaut werden ohne 500Watt Netzteil mit massig Saft auf den 12V Leitungen.

Raff
2007-05-12, 21:35:53
Was nützt dir und allen anderen das? Würdest du einen 699€ Boliden überhaupt kaufen?

Konkurrenz in allen Bereichen sichert in allen Bereichen "passende" Preise. 8800 Ultra für 750€ (~1600 Mark!) – unmöglich, wenn es eine 2900 XTX gäbe, die ihr ein Wässerchen reichen kann.

MfG,
Raff

LovesuckZ
2007-05-12, 21:36:49
Durchschnittsverbrauch unter 3D und 2D/Idle.
Die sind wirklich interessant.

Im schlimmsten Fall läge der Unterschied zwischen der GTS und der XT bei -20/+100 Watt.
Und wer sich solche Karten kauft, wird auch in der Woche nicht wenig spielen. Und die Leute, welche solche Karten für ihre Server und Leechstation kaufen, interessiert der Stromverbrauch ebenfalls nicht.

reunion
2007-05-12, 21:36:56
Bei einem Stromverbrauch, der im schlimmsten Fall, um die 100 Watt (!) höher ausfallen könnte, ist das Produkt selbst für einen € kaum "gut".


Sagt jemand, der einen NV30 einem R300 bevorzugte.



Wahrscheinlich haben die nur auf die DX10 Werte geschaut...
Ich kann mir ebenfalls nicht vorstellen, dass eine Karte mit fast der Hälfte an Texturleistung doppelt so schnell sein sollte...

Ein R600 hat nichtmal ein drittel der Füllrate eines G80.

AnarchX
2007-05-12, 21:39:05
Ein R600 hat nichtmal ein drittel der Füllrate eines G80.

Was man auch in den passenden Tests sieht. ;)

Gast
2007-05-12, 21:39:32
Konkurrenz in allen Bereichen sichert in allen Bereichen "passende" Preise. 8800 Ultra für 750€ (~1600 Mark!) – unmöglich, wenn es eine 2900 XTX gäbe, die ihr ein Wässerchen reichen kann.

Das ist aber Spekulation. ATI müsste die bessere Karte liefern und zweitens auch noch in ausreichenden Stückzahlen, damit sie den Preis überhaupt auf einem normalen Niveau halten können. Fürs Prestige könnte man eine Karte bringen, die fast nicht lieferbar hat - das hätte nicht wirklich auswirkungen auf die Preise der Konkurrenz.

Selbst wenn sie minimal schneller wäre, so muss man immer noch deren Preisgestaltung berücksichtigen, die muss ja nicht niedriger sein!

Gast
2007-05-12, 21:39:54
Im schlimmsten Fall läge der Unterschied zwischen der GTS und der XT bei -20/+100 Watt.
Und wer sich solche Karten kauft, wird auch in der Woche nicht wenig spielen. Und die Leute, welche solche Karten für ihre Server und Leechstation kaufen, interessiert der Stromverbrauch ebenfalls nicht.

Das meine ich ja.
Der Durchschnittskäufer der Karte hat sie in seinem SpielePC.
Da wird dann gespielt und gesurfet. Sprich die Idle/2D Werte und die Durchschnittswerte unter 3D sind von interesse.

Ehrlich gesagt juckt es mich null, dass Peak3D knapp 100W mehr ist als eine GTS 640.
Sollte aber Idle/Durchschnitts 3D auch deutlich über einer GTS liegen, DANN erst werde ich drüber nachdenken, nicht eher ne GTS zu nehmen.

Gast
2007-05-12, 21:41:46
Im schlimmsten Fall läge der Unterschied zwischen der GTS und der XT bei -20/+100 Watt.



Der Stromverbrauch wird nicht in Watt gemessen.

reunion
2007-05-12, 21:43:36
Doch die Karte läuft am Limit des selbst gesetzten und noch gerade so vertretbaren TDPs.Nicht vergessen so eine Karte soll auch in OEM PCs verbaut werden ohne 500Watt Netzteil mit massig Saft auf den 12V Leitungen.

Ja, wie schon gesagt. Ich glaube, dass sie Ati bei den Taktraten für den Stromverbauch und gegen das letzte Quäntchen Leistung entschieden hat. Sonst würden nicht sogar die Testsamples mit >800Mhz laufen, und gewisse Leute die Karte jetzt schon zumindest für einen 3dmark-Durchlauf stabil mit 1150Mhz GPU-Takt betreiben können.

dildo4u
2007-05-12, 21:47:41
Echt schade das es ATI nicht geschafft hat den R600 gleich in 65nm zu bringen das würde zwei Probleme schon mal lösen Stromverbrauch und vermutlich auch die Taktraten.Wundert mich nur weil die Mittelklasse 65nm Karten ja fast zur selben Zeit fertig wurden.

AnarchX
2007-05-12, 21:51:01
Echt schade das es ATI nicht geschafft hat den R600 gleich in 65nm zu bringen das würde zwei Probleme schon mal lösen Stromverbrauch und vermutlich auch die Taktraten.Wundert mich nur weil die Mittelklasse 65nm Karten ja fast zur selben Zeit fertig wurden.

Ähm... die 65nm Mittelklasse GPUs kommen höchstwahrscheinlich erst gegen Ende Juni, Anfang Juli in größeren Mengen -> Yields.

Und die 700M Transistoren des R600 sind da nochmal eine etwas größere Hausnummer. ;)


btw.
Warum testet die c't eigentlich in Oblivion ohne AF? Wurde das so von AMD angeraten oder? :|

reunion
2007-05-12, 21:51:54
Echt schade das es ATI nicht geschafft hat den R600 gleich in 65nm zu bringen das würde zwei Probleme schon mal lösen Stromverbrauch und vermutlich auch die Taktraten.Wundert mich nur weil die Mittelklasse 65nm Karten ja fast zur selben Zeit fertig wurden.

Nur der Fertigungsprozess kann IMHO keine solchen eklatanten Unterschiede bringen. IMO hat R600 noch den Bug in den ROPs, welcher wie schon früher berichtet für den hohen Stromverbauch der ersten Testsamples verantwortlich war. Und was R600 @65nm betrifft: Da ist ein solcher High-End-Core wie R600 doch ein ganz anderes Kaliber, auch wenn sogar RV630 390mio Transistoren auf die Waage legt.

btw.
Warum testet die c't eigentlich in Oblivion ohne AF? Wurde das so von AMD angeraten oder? :|

Natürlich, alles und jeder wurde von ATi gekauft. Auch die DX10-SDK-Tests wurden durch ATi von MS abgekauft und entsprechend modifiziert, um G80 schlecht dastehen zu lassen.

Gast
2007-05-12, 21:54:38
Ein R600 hat nichtmal ein drittel der Füllrate eines G80.

Und in welcher Anwendung, die nicht mit D und 3D10 endet, ist die Karte doppelt so schnell als eine 8800GTS?
Eine 2600XT könnte mit Verwendung von AA deutlich schneller als die 8600GTS sein, da anscheinend die Speicherverwaltung nicht funktioniert. Sie fällt sogar hinter einer 7600GT zurück.

Gast
2007-05-12, 22:00:53
Nur der Fertigungsprozess kann IMHO keine solchen eklatanten Unterschiede bringen.


Nein?
nVidia konnte die Chipfläche von 110nm nach 90nm fast halbieren. Der Stromverbrauch sank ebenfalls nochmal deutlich. Der Chiptakt lag ca. 50% über den des G70, die Karte hatte mehr und höhergetakteten Speicher auf der Platine. Und trotzdem erreichte nVidia den gleichen Verbrauch.

The_Invisible
2007-05-12, 22:00:53
Vorallem ist das High-End-Segment kaum von Relavanz (wenn man vom Prestige absieht), das Geld wird wo anders gemacht, und da sieht es bei AMD wahrlich nicht schlecht aus, wenn sich die Karten nicht mehr arg verspäten. Die Dies sind noch dazu in jedem Segment (R600 ist noch fraglich) tw. erheblich kleiner als bei nV, was natürlich den Margen zu gute kommt.

naja, mit margen scheint nvidia derzeit kein problem zu haben ( http://www.golem.de/0705/52238.html ), das würde man wohl gerne bei amd sehen

und das die schnellste karte zu haben nicht wichtig ist halte ich auch für ein gerücht. kommt mir als kunde vor wie: schei*e, wir kommen nicht am g80 vorbei, die anderen sind besser, machen wir noch das beste daraus"

mfg

Coda
2007-05-12, 22:01:21
Der Stromverbrauch wird nicht in Watt gemessen.
He? In was denn sonst?

Gast
2007-05-12, 22:03:35
He? In was denn sonst?


Waren das nich kWh ?

Und die Leistungsaufnahme (die gemeint ist) wird in W gemessen.

Stimmt doch so, oder? :>

AnarchX
2007-05-12, 22:06:43
Natürlich, alles und jeder wurde von ATi gekauft. Auch die DX10-SDK-Tests wurden durch ATi von MS abgekauft und entsprechend modifiziert, um G80 schlecht dastehen zu lassen.

Würde mich nicht wundern, wenn hier ATi einen Tipp gegeben hat die GS-Demos zu testen und vielleicht auch noch die Möglichkeit gegeben hat die FPS anzuzeigen. Immerhin gibt es ja noch mehr Tests im SDK. ;)

Insgesamt macht dieser Test mit der Verwendung cpu-limitierter Szenarien, Weglassen von AF in einem Szenario wo es doch besonders wichtig ist und dann die Beweihreucherung der HD 2600(FUD um potentielle Kunden einer GF8600 in den nächsten Monaten vom Kauf abzuhalten!) ohne jeglichen Hintergrund doch einen sonderbaren Eindruck. :|

LovesuckZ
2007-05-12, 22:09:29
R6: Las Vegas, maximun settings
HD 2900XT / 8800GTS
1280x960
min:26/18
med:53/42
max83/68


http://forum.beyond3d.com/showpost.php?p=985548&postcount=5312

Enttäuschendes Ergebnis. Die XT hat eine doppelt so hohe Rechenleistung und sollte diese in einer 1:1 Xbox360 Portierung vollständig abrufen können.
Doch nur 50% in den min Werten sind wirklich nicht viel.

Avalox/Gast
2007-05-12, 22:09:54
He? In was denn sonst?


Na, in Watt pro Zeit.
Grade diese Ungenauigkeiten in den Formulierungen (auch meinen eigenen) führen ja zu völlig falschen Schlüssen.

Coda
2007-05-12, 22:13:51
Waren das nich kWh ?
Nein, das ist eine Einheit für Arbeit.

Na, in Watt pro Zeit.
Was soll bitte Watt pro Zeit sein? Leute passt mal besser im Physikunterricht aus.

Man gibt den Verbrauch sehr wohl in Watt an.

Black-Scorpion
2007-05-12, 22:16:18
Würde mich nicht wundern, wenn hier ATi einen Tipp gegeben hat die GS-Demos zu testen und vielleicht auch noch die Möglichkeit gegeben hat die FPS anzuzeigen. Immerhin gibt es ja noch mehr Tests im SDK. ;)

Insgesamt macht dieser Test mit der Verwendung cpu-limitierter Szenarien, Weglassen von AF in einem Szenario wo es doch besonders wichtig ist und dann die Beweihreucherung der HD 2600(FUD um potentielle Kunden einer GF8600 in den nächsten Monaten vom Kauf abzuhalten!) ohne jeglichen Hintergrund doch einen sonderbaren Eindruck. :|
Langsam wird es albern.
Meinst du NV gibt keine Richtlinien raus wie was am besten gebencht werden soll?
Wie war das noch nur mit Quality zu testen?
Aber ist schon schlimm wenn etwas nicht so getestet wird wie es dir am besten passt.

reunion
2007-05-12, 22:16:26
naja, mit margen scheint nvidia derzeit kein problem zu haben ( http://www.golem.de/0705/52238.html ), das würde man wohl gerne bei amd sehen

mfg

Ich denke es war offensichtlich, dass ich mich auf RV630/RV610 und damit auf die Zukunft bezog. Aber war ja fast klar, dass jetzt irgendjemand mit einer solchen Anspielung kommt.

Avalox/Gast
2007-05-12, 22:27:08
Was soll bitte Watt pro Zeit sein? Leute passt mal besser im Physikunterricht aus.


Also meine Lehrer würden schon jetzt mit den Augen drehen, wenn diese überhaupt von Verbrauch in dem Zusammenhang lesen würden.

Was kommt denn nun den allgemeinen Verständnis von elektrischen Verbrauch am nächsten?
Es ist garantiert nicht die Elektrische Leistung.
Es ist die elektrische Arbeit. Die man schliesslich auch bezahlt und dessen Bereitstellung die Umwelt belastet.

AnarchX
2007-05-12, 22:28:29
Langsam wird es albern.
Meinst du NV gibt keine Richtlinien raus wie was am besten gebencht werden soll?
Wie war das noch nur mit Quality zu testen?

Also bist du der Meinung das ATi hier ihre Finger in der Strukturierung des Testparkours hatte? :|


Aber ist schon schlimm wenn etwas nicht so getestet wird wie es dir am besten passt.

Heißt du es etwa gut, dass man hier verzerrende cpu-limitierende Tests durchführt um eine GraKa zu testen und dann noch ein essentielles BQ-Features wie AF weglässt und dafür mit TRSAA testet?

Naja, ich finde das was hier die c't liefert jedenfalls relativ unbrauchbar nur und gekrönt wird es noch von der Aussage über die HD 2600, welche die doppelte Rechenleistung einer 8600 besitzen soll.

Wo aber?

Auf dem Papier sicherlich nicht(siehe Specs) und in Spielen würde das bedeuten, dass sie auf dem Niveau einer 8800GTS liegt, aber da liegt ja schon die HD 2900XT. :uup:

reunion
2007-05-12, 22:38:53
Heißt du es etwa gut, dass man hier verzerrende cpu-limitierende Tests durchführt um eine GraKa zu testen und dann noch ein essentielles BQ-Features wie AF weglässt und dafür mit TRSAA testet?


Ja genau, und weil man von ATi gekauft wurde, führt man ausgerechnet Tests mit AAA durch, wo man laut AMD noch Treiberprobleme hat, und was bekanntlich dank SSAA enorm an Texelfüllrate verschlingt. Außerdem fehlt AF nur bei einem Test, beim anderen wurde immer mit 16x AF getestet.


Naja, ich finde das was hier die c't liefert jedenfalls relativ unbrauchbar nur und gekrönt wird es noch von der Aussage über die HD 2600, welche die doppelte Rechenleistung einer 8600 besitzen soll.

Wo aber?


120 x 0.8 x 2 = 192GFLOPs
32 x 1500 x 2 = 96GFLOPs

MADD Shaderoutput.

Black-Scorpion
2007-05-12, 22:40:30
Also bist du der Meinung das ATi hier ihre Finger in der Strukturierung des Testparkours hatte? :|
Und wennn?
Beschwert sich irgendeiner das NV das genauso macht?
Nein, natürlich nicht.

Heißt du es etwa gut, dass man hier verzerrende cpu-limitierende Tests durchführt um eine GraKa zu testen und dann noch ein essentielles BQ-Features wie AF weglässt und dafür mit TRSAA testet?

Naja, ich finde das was hier die c't liefert jedenfalls relativ unbrauchbar nur und gekrönt wird es noch von der Aussage über die HD 2600, welche die doppelte Rechenleistung einer 8600 besitzen soll.

Wo aber?

Auf dem Papier sicherlich nicht(siehe Specs) und in Spielen würde das bedeuten, dass sie auf dem Niveau einer 8800GTS liegt, aber da liegt ja schon die HD 2900XT. :uup:
Hast du schon eine HD2600 in den Händen gehabt und getestet?
Nein, wie kommst du dann darauf das die Ergebnisse unbrauchbar sind.

StefanV
2007-05-12, 22:46:59
Waren das nich kWh ?

Und die Leistungsaufnahme (die gemeint ist) wird in W gemessen.

Stimmt doch so, oder? :>
Nein, Strom wird in Ampere gemessen, daher wäre A richtig, eventuell Ah (Amperestunden)

kWh ist btw völliger Bullshit, da in Leistung die Zeit schon drin ist (logisch, denn wie wir alle wissen ist Leistung = arbeit/Zeit).
Man gibt den Verbrauch sehr wohl in Watt an.
Richtig, aber nur die Leistung, nicht den Strom ;)

Raff
2007-05-12, 22:48:51
Die Stromstärke wird in Ampere angegeben, die Spannung in Volt, der Verbrauch aber in Watt.

MfG,
Raff

StefanV
2007-05-12, 22:52:04
P = U * I

P = Leistung und die wird in der Regel in Watt angegeben oder Joule/h, Joule ist eine EInheit für die verrichtete Arbeit.

Wenn jamand von Stromaufnahme spricht, ist es falsch von Watt zu sprechen, denn Strom = AMpere.

reunion
2007-05-12, 22:55:21
Bitte löschen, Gehirnkrampf gelöst.

Avalox/Gast
2007-05-12, 23:03:51
Die Stromstärke wird in Ampere angegeben, die Spannung in Volt, der Verbrauch aber in Watt.

MfG,
Raff


Die elektrische Arbeit wird in Wattsekunden (Ws) gemessen. Du kaufst vom EWerk keine Watt(wie sollte das auch funktionieren) sondern Joule (nur anders benannt - Ws). Eben eine Menge Energie.

Mumins
2007-05-12, 23:27:14
Konkurrenz in allen Bereichen sichert in allen Bereichen "passende" Preise. 8800 Ultra für 750€ (~1600 Mark!) – unmöglich, wenn es eine 2900 XTX gäbe, die ihr ein Wässerchen reichen kann.

MfG,
Raff

Wird irgendjemand gezwungen eine Ultra zu kaufen? Die GTX genügt völlig, wer extra Speed haben will muß eben zahlen. Die Karte sollte noch viel mehr kosten, aber auch dann gibt es paar Trottel, die das hinlegen werden nur um den längsten zu haben.

Mr. Lolman
2007-05-12, 23:31:00
Die elektrische Arbeit wird in Wattsekunden (Ws) gemessen. Du kaufst vom EWerk keine Watt(wie sollte das auch funktionieren) sondern Joule (nur anders benannt - Ws). Eben eine Menge Energie.

Genau so ists. :up:

Leistung (Watt) = Arbeit/Zeit (Joule/Sekunden) bzw. (Wattsekunden/Sekunden)

Gast
2007-05-12, 23:43:27
Um mal wenigsts halbwegs wieder aufs Thema zu kommen:

Schon bekannt, wie sich die Karte preislich positionieren wird ?
Und vor allem: Wie schauts mit der Verfügbarkeit aus ?

Avalox/Gast
2007-05-12, 23:48:44
Genau so ists. :up:

EDIT: Doch nicht. Hab mich von der Gehirnverknotung anstecken lassen.

???




Schon bekannt, wie sich die Karte preislich positionieren wird ?
Und vor allem: Wie schauts mit der Verfügbarkeit aus ?


380€ mit 3 Spielen, ab 14.5.07

Die 2400(unter 100€) und 2600(XT 200€, Pro 100€) alle ab Juli 07.

Gast
2007-05-12, 23:52:10
Warum in DE so teuer ?

In der Schweiz kosten die doch nur 325€.
Okay, weniger MWTS, aber macht das soviel aus ?!


380€ ist davon mal abgesehen eindeutig zuviel, sollten die kommenden Tests nicht ein besseres Ergebniss liefern als bisher bekannt und/oder geleaked ist.

Gerade auch in Bezug auf den Verbrauch...

Coda
2007-05-12, 23:55:10
Genau so ists. :up:

Leistung (Watt) = Arbeit/Zeit (Joule/Sekunden) bzw. (Wattsekunden/Sekunden)
Ich denke das Problem ist hier, dass "Strom" umgangssprachlich eben nicht so gut definiert ist.

Wenn man von "Verbrauch" redet meint man wohl in den meisten Fällen sehr wohl die Leistung also den Verbrauch zu jedem Zeitpunkt und nicht auf irgendeine Lebensspanne umgerechnet die Arbeit.

Mr. Lolman
2007-05-12, 23:58:39
Wenn man von "Verbrauch" redet meint man wohl in den meisten Fällen sehr wohl die Leistung also den Verbrauch zu jedem Zeitpunkt und nicht auf irgendeine Lebensspanne umgerechnet die Arbeit.

Genau das hat mich dann auch kurzzeitig zweifeln lassen. Der Verbrauch ist im Gegensatz zur Leistung natürlich zeitabhängig (wie Robbitop richtig sagt ;))

???


Doppelte Hirnverknotung. X-D



Davon mal ab, warum ist das hier wichtig? Die Zeit, die ein Nutzer mit der GPU verbringt ist gleich ob nun GPU A oder B.

Naja, Ati-Karten hat man im Durchschnitt schon länger im Rechner ;D

robbitop
2007-05-13, 00:01:36
Natuerlich ist der Verbrauch zeitabhaengig. Deswegen schimpften meine Eltern in meiner Kindheit auch immer, wenn ich das Licht Tags ueber vergass auszumachen. Die Zeit x Leistungsaufnahme macht den Verbrauch und damit den Preis.

Davon mal ab, warum ist das hier wichtig? Die Zeit, die ein Nutzer mit der GPU verbringt ist gleich ob nun GPU A oder B.

Also reicht es, die Leistungsaufnahme zu vergleichen.

Avalox/Gast
2007-05-13, 00:10:03
Wenn man von "Verbrauch" redet meint man wohl in den meisten Fällen sehr wohl die Leistung also den Verbrauch zu jedem Zeitpunkt und nicht auf irgendeine Lebensspanne umgerechnet die Arbeit.

Nein das glaube ich nicht. Wenn hier über Verbrauch geredet wird, dann denken alle an die Geldbörse, an die Erwärmung ihres PCs und meinetwegen an die Umweltbelastung. Alles drei ist aber direkt auf die elektrische Arbeit und nicht die elektrische Leistung zu beziehen und aus der Angabe W überhaupt nicht zu erkennen. Die (auch) hier im Forum gerne angegebenen elektrische Leistung ist nur wichtig bei der Dimensionierung des Netzteils. Mehr kann man gar nicht ablesen. Eine GPU ist doch kein Föhn, den man einschaltet und konstant 1200W verbräht bis man ihn wieder abschaltet. Ich denke daher kommen ja die ganzen Missverständnisse im Haushalt hat man halt viele Geräte, welche konstant Leistung umsetzen.

Gast
2007-05-13, 00:11:13
Ich denke das Problem ist hier, dass "Strom" umgangssprachlich eben nicht so gut definiert ist.

Wenn man von "Verbrauch" redet meint man wohl in den meisten Fällen sehr wohl die Leistung also den Verbrauch zu jedem Zeitpunkt und nicht auf irgendeine Lebensspanne umgerechnet die Arbeit.


Selten solch einen Käse gelesen.

Wie ich vorhin schon schrieb ist auch ein "Verbrauch" zu einem "Zeitpunkt" gar nicht möglich.

Man kann nur eine Anzahl Ladungsträger in einem bestimmten Zeitraum beschreiben. Daher ist auch die angesprochenene "Spitzenleistungsaufnahme" nur eine Integration über einen bestimmten Zeitraum.

robbitop
2007-05-13, 00:11:44
Naja, Ati-Karten hat man im Durchschnitt schon länger im Rechner ;D
Ich meine die Zock-zeit (meinetwegen pro Monat oder pro Woche).

Mr. Lolman
2007-05-13, 00:21:38
Nein das glaube ich nicht. Wenn hier über Verbrauch geredet wird, dann denken alle an die Geldbörse, an die Erwärmung ihres PCs und meinetwegen an die Umweltbelastung. Alles drei ist aber direkt auf die elektrische Arbeit und nicht die elektrische Leistung zu beziehen und aus der Angabe W überhaupt nicht zu erkennen. Die (auch) hier im Forum gerne angegebenen elektrische Leistung ist nur wichtig bei der Dimensionierung des Netzteils. Mehr kann man gar nicht ablesen. Eine GPU ist doch kein Föhn, den man einschaltet und konstant 1200W verbräht bis man ihn wieder abschaltet. Ich denke daher kommen ja die ganzen Missverständnisse im Haushalt hat man halt viele Geräte, welche konstant Leistung umsetzen.

Das glaub ich wiederum nicht. Den meisten hier dürfte klar sein, dass die Angaben zur Leistungsaufnahme im 3D-Modus ermittelte Maximalwerte darstellen. Je länger man zockt, desto höher ist die verrichtete Arbeit. Kauft man sich ne HighEnd-GraKa und benutzt sie nur im 2D-Modus ist der in Reviews ermittelte Peakwert hinfällig. Braucht ne GraKa im 3D-Modus durchschnittlich 150W und man spielt 10 Stunden am Stück, hat das Ding ne Arbeit von 1,5kWh verrichtet.

Ich meine die Zock-zeit (meinetwegen pro Monat oder pro Woche).

Ja schon klar. Ich dachte nur, dass ich ins OT auch ein bisschen Spam miteinbringen könnte :)

Gast
2007-05-13, 00:24:22
die nächste oder übernächste NV Karte frisst dann auch soviel Strom.....

=Floi=
2007-05-13, 00:41:16
welche 3 spiele sollen denn dabei sein?
das HL2-EP2 pack? (das ist für mich 1 spiel)

problem ist jetzt schon der shrink auf 65nm welchen man auch jedenfall abwarten sollte und auch kann man sich nicht auf bessere treiber verlassen (siehe NV) denn auch hier könnte es ein bug in der architektur sein und die performance bleibt schlecht
entweder die karte läuft überall problemlos in DX9 (!!!) oder ich warte ab
ich verstehe da nicht wieso man ausgerechnet DX10 optimiert (typisch amd -> an ziel vorbei?! )

puntarenas
2007-05-13, 00:46:36
welche 3 spiele sollen denn dabei sein?
das HL2-EP2 pack?
HL2-EP2
Team Fortress2
Portal

Avalox/Gast
2007-05-13, 00:47:20
Braucht ne GraKa im 3D-Modus durchschnittlich 150W und man spielt 10 Stunden am Stück, hat das Ding ne Arbeit von 1,5kWh verrichtet.


Ja, aber woher bekommst du denn überhaupt eine durchschnittliche Leistungsangabe, wenn nicht gar einen Leistungsangabe bezogen auf dein spezielles Zockverhalten? Deshalb denke ich schon, dass die Idee weit verbreitet ist. Hohe spitzen Leistungsaufnahmen, gleich hohe mittlere Leistungsaufnahmen zu setzten.
Das ganz ist kritisch, weil zum einen ein Teil mit grösseren Funktionsumfang ja vielleicht grade diese spitzen Leistungsaufnahme dort in Funktionen zeigt, welche die andere Hardware gar nicht bietet oder der Benutzer vielleicht auch gar nicht nutzt. Auch aktive Stromsparmechanismen verdrehen alles.

Was macht man bei einem Auto? Da es dort überhaupt keinen vernünftigen Ansatz gibt, setzt man sich in das Auto fährt die Strecke und sieht dann nach, was man am Ende verbraucht hat.
So werden bei jedem Auto mehrere Durchschnittswerte ermittelt. Es ist völlig egal, wie viel der Motor maximal an Sprit zuführen kann.

Für einen PC müsste doch selbes möglich sein. Ein Brief in Word mit definierten Inhalt hinein geschrieben. Ein Spiel A von Anfang bis Ende, bei definierten Weg. Das wäre doch mal interessant. Aber doch nicht Festplatte A setzt 45W um. Das ist zu einfach.

Weisst du wass ich denke. Wir die Konsumenten werden grade mal wieder schön auf eine Zahl getriggert. W(att) ist nun böse, wenig W Geräte sollen gekauft werden. Nicht vergessen. Kurz zuvor war Watt aber noch toll. Da hat man gesagt, „seh da der gute Staubsauger hat 1200W“. Obwohl dieses über die Saugleistung keine Auskunft gibt. Oder die Stereoanlage hat 2x200W. Genauso wenig nützlich.
Dass führt dann zu solch dummen Geschichten, wie den Verbot von Glühlampen in Australien.
Autos sollen nach dem Schadstoffausstoss versteuert werden. Aber was geschieht, es werden Autos nach einer Motorkenngrösse versteuert, welche überhaupt keinen Rückschluss erlaubt, wie viel Dreck der Benutzer nun wirklich mit seinem Auto verursacht.

Alles schön hinter einzelnen Zahlen verbergen und kassieren.

Winter[Raven]
2007-05-13, 00:49:46
HL2-EP2
Team Fortress2
Portal

- Erweiterung, ich sehe die EP nicht als "Ganze"-Spiele
- TF - und halbes Spiel da -> MP
- Spiel zum vertreiben der Zeit, nicht wirklich erwähnenswert

StefanV
2007-05-13, 01:00:34
Autos sollen nach dem Schadstoffausstoss versteuert werden. Aber was geschieht, es werden Autos nach einer Motorkenngrösse versteuert, welche überhaupt keinen Rückschluss erlaubt, wie viel Dreck der Benutzer nun wirklich mit seinem Auto verursacht.
Sorry, aber der Punkt ist falsch!

Die Autos sollen eben NICHT nach Schadstoffausstoß besteuert werden sondern nach VERBRAUCH, denn CO2 ist kein Schadstoff!!
Denn wenn man nach Schadstoffausstoß besteuern würde, wären die Diesel unbezahlbar und würden aus dem dt. Bild völlig verschwinden, wie es in J und US der Fall ist (in Arnieland ist der Dieselmotor z.B. nicht zulassungsfähig da zu dreckig!)

Der Punkt mit der 'Motorkenngröße' ist auch richtig, aber IMO gibt es nur einen wirklich sinnvollen Weg:
Besteuerung nach Leistungsgewicht!
Strafsteuer für untermotorisierte Gefährte, normale Steuer für 'normale' Gefährte und für wirklich flotte Geräte eine leicht erhöhte.

avalox/Gast
2007-05-13, 01:08:51
Die Autos sollen eben NICHT nach Schadstoffausstoß besteuert werden sondern nach VERBRAUCH, denn CO2 ist kein Schadstoff!!



Nicht nach dem tatächlichen Verbrauch, sondern nach einer Kenngrösse des Fahrzeugs eben dem durchschnittlichen Verbrauch.

Wenn man das Fahrzeug nach den tatsächlichen Verbrauch besteuern wollte, so müsste die Mineralölsteuer entsprechend angepasst werden und die KFZ Steuer abgeschafft.
Wenn jemand mit seinem 13 Liter Van einmal die Woche zum einkaufen an den nächsten Shop fährt belastet er die Umwelt damit weniger, als wenn jemand täglich mit seinem 3 Liter Auto 100km zur Arbeit pendelt.

Aber so wird es nicht gemacht. Es wird anders gemacht, als vorgegeben wird, dass wird nicht ohne Grund geschenen. Muss man halt eigene Schlüsse draus ziehen.

=Floi=
2007-05-13, 01:08:59
also ich zahle schon auf das benzin steuern und somit zahle ich auch mehr wenn ich mehr verbrauche
(ob pro km oder weil ich mehr km fahre)

imho ist die co2 besteuerung total sinnlos da wir die steuer darauf schon längst haben!
wo ist denn ein diesel dreckiger wenn er divere kats und adblue besitzt?


---
naja somit gibt es im grunde kein richtiges spiel dazu und bei EP2 sollte mal wohl auch HL2 und EP1 gespielt haben
stalker oder ein anderer titel wäre da interesannter...

deekey777
2007-05-13, 01:31:55
ach ja. Stromverbrauch wurde auch gemessen.

Spitzenwerte. Die Durchschnittswerte liegen sehr viel niedriger.

2400XT - 25W
2600XT - 45W
2900XT - 214W
8800Ultra - 174W
Wie wurden diese ermittelt? Wie bei Xbit? Oder sind das bloß abgeschriebene Werte aus Folien von AMD (siehe 173 W bei der 8800 Ultra)?

Avalox/Gast
2007-05-13, 01:39:36
Wie wurden diese ermittelt? Wie bei Xbit? Oder sind das bloß abgeschriebene Werte aus Folien von AMD (siehe 173 W bei der 8800 Ultra)?

Steht nicht im Test.
Aber zumindest bei den beiden kleineren Karten steht eine "vorläufiges" Maximum. Was ich mal so verstehe, dass c't mit den Messungen noch nicht fertig war, bzw. noch dabei sind diese Karten zu eine höheren Leistungsaufnahme zu bewegen.

Gast
2007-05-13, 01:43:14
Wenn das wirklich Peakwerte sind, dann heißt es erstmal Entwarnung. :)

Genauso wie es Peak (max) gibt, gibt es auch Peak (min)... interessant wird daher der Durchschnittsverbrauch sein, der genau in der Mitte liegt.

Man kennt es von anderen Bauteilen... da schwankte die Spannung erheblich, weil bei hohem Verbrauch stabile Spannungen nur mit hochwertigen Bauteilen garantiert werden können. Es wäre nicht weiter verwunderlich, wenn der Durchschnittsverbrauch weit daruner liegt.

Superheld
2007-05-13, 01:47:16
trotzdem verbraucht die xt mehr wenns stimmt;)

themk
2007-05-13, 01:47:25
Von mindest und maximal Verbrauch auf einen Durchschnittsverbrauch zu schließen ist unsinnig. Die einzige Aussage die wir über diesen ziehen könnten wäre, dass er nicht unter dem Mindestverbrauch und über dem maximalen Wert liegt.

Gast
2007-05-13, 01:48:43
Mag sein, aber generell ist es so, das der Peak immer weiter ausschlägt, je näher die verbauten Komponenten dem technischen Limit kommen. Deshalb könnte der reale Verbrauch bei z.B. 170-190W liegen und das wäre wohl nicht schlecht, wenn da mit Treibern noch Performance zu holen ist und sie in DX10 wirklich so viel schneller ist.

Grestorn
2007-05-13, 10:36:09
@Avalox: Du irrst Dich mit Deiner Aussage, man müsse den Verbrauch der Karten über die kWh vergleichen.

Was willst Du denn aussagen? Die Karte verbraucht 1 kWh? Das tut sie ja nicht. Sie verbraucht bestenfalls 1kWh PRO TAG. Also:

1kWh
-------
24 h

Fällt Dir was auf? Genau. Die Zeit kürzt sich raus. Was übrig bleibt sind in diesem Beispiel 1kW / 24 also 41,7 Watt. Und nur diese Aussage ist für die Leistungsaufnahme elektrischer Geräte relevant.

Wie hoch der Verbrauch ist, ergibt sich ja nur durch die Multiplikation mit der ZEITDAUER des Gebrauchs des Gerätes. Und über diese Zeitdauer kann und will man keine Aussage machen.

PCGH_Carsten
2007-05-13, 10:47:30
In allen drei DX10 Benchmarks rennt die 2900XT der 8800 mächtig davon.
Dafür gibt es mehrere mögliche Gründe. Einer wurde bereits angesprochen und nennt sich Treiber - gut möglich dass AMD, nachdem bereits seit Monaten Kritik an den Vista-Treibern der GF geübt wurde, sich genau diese Schwachstelle rausgepickt hat um darauf aufbauend den Eindruck einer "DX10-done-right"-Karte zu propagieren. Natürlich besteht ebenso die Möglichkeit, dass Nvidia wirklich ein HW-"Problem" mit dem GS hat (Problem in Anführungszeichen, weil er ja offenbar funktioniert, nur evtl. nicht so schnell ist, wie der der Radeon). Ein anderer Grund ist derzeit noch unter NDA.

Bevor nicht die ersten richtigen DX10-Spiele auf dem Markt sind, sondern man sich hüben wie drüben auf Techdemos - vom einen oder anderen Hersteller empfohlen... - verlassen muss, würde ich in dieser Hinsicht noch kein Urteil abgeben wollen.

Zumindest sind die Werte der 2400XT/2600XT erfreulich niedrig.
Ja allerdings - und wenn man deren theoretische Werte mit denen der HD2900 XT vergleicht und dieses Verhältnis auf HD2600XT und 8600 GTS ansetzt, könnte die Mittelklasse außerordentlich erfolgreich für AMD sein.

AnarchX
2007-05-13, 10:55:49
Ja allerdings - und wenn man deren theoretische Werte mit denen der HD2900 XT vergleicht und dieses Verhältnis auf HD2600XT und 8600 GTS ansetzt, könnte die Mittelklasse außerordentlich erfolgreich für AMD sein.

Nur besteht das Problem, dass man hier doch deutlich später kommt.
Oder bezieht sich der Juli Termin nur auf Retail und die OEMs haben ihren Karten schon eher? Immerhin gibt es noch einen G98, dessen Erscheinen für Mitte 2007 spekuliert wird, der wohl der direkte Konkurrent zum RV610 ist.


Nochmal zur DX10 Performance:
http://img501.imageshack.us/img501/623/r600vsg80mp8.jpg (http://bbs.cpcw.com/viewthread.php?tid=1150115)
"OMG! Die GTX schlägt die XT um den Faktor 6!!!!1111" ;D (Und Ailuros meint, dass es nicht unbedingt mit dem Treiber zu tun hat. ;))

Naja, man sollte wohl richtige DX10-Titel abwarten und den damit verbundenen Treibern, momentan wird es wohl beiden Herstellern erstmal um die Stabilität gehen, die Leistung kommt später.

PCGH_Carsten
2007-05-13, 11:02:28
Nur besteht das Problem, dass man hier doch deutliche später kommt.
Oder bezieht sich der Juli Termin nur auf Retail und die OEMs haben ihren Karten schon eher? Immerhin gibt es noch einen G98, dessen Erscheinen für Mitte 2007 spekuliert wird, der wohl der direkte Konkurrent zum RV610 ist.
Dazu kann ich nichts sagen - i.d.R. ist es aber schon so, dass große OEMs Wochen, wenn nicht Monate haben und brauchen, um ihre Designs zu validieren. Nicht wäre schließlich blöder als ein in 100k-Stückzahlen aufgesetztes System, welches einen Serienfehler - sei es Software-Konfig, Kühlungs- oder Energieversorgungsproblem - hat.

reunion
2007-05-13, 11:13:07
Nochmal zur DX10 Performance:
http://img501.imageshack.us/img501/623/r600vsg80mp8.jpg (http://bbs.cpcw.com/viewthread.php?tid=1150115)
"OMG! Die GTX schlägt die XT um den Faktor 6!!!!1111" ;D (Und Ailuros meint, dass es nicht unbedingt mit dem Treiber zu tun hat. ;))

Naja, man sollte wohl richtige DX10-Titel abwarten und den damit verbundenen Treibern, momentan wird es wohl beiden Herstellern erstmal um die Stabilität gehen, die Leistung kommt später.

Der Unterschied ist, dass die einen Tests aus dem DX10-SDK kommen, und der andere von jemanden programmiert wurde, der auf B3D angibt, dass diese auf die "Bedürfnisse und Anforderungen" eines G80 angepasst wurden. Auch sagt ja niemand, dass die D3D10-Leistung eines G80 generell schlecht ist, für pass Reduktion und dergl. ist es natürlich von Vorteil sein, was sollte da die Schnittstelle auch ändern? Nur die GS-Leistung ist zumindest momentan auf G80 nachweislich schlecht. Schon die pure Anwesenheit eines GS - der nichts macht - soll die Leistung mal eben halbieren. Dein Vergleich mit diesem Benchmark ist also völlig am Thema vorbei. Dass man für eine finale Beurteilung natürlich noch auf beiden Seite abwarten muss, ist klar.

toroidh
2007-05-13, 11:25:12
Tja, wenn man den DX10 Leistungsmessungen Glauben schenken kann, dann kann ich meine 8800gtx wohl zum erscheinen von Crysis/UT3 durch was anderes ersetzten. Die Unterschiede sind doch sehr markant. Kann nVidia nicht noch Treibermässig das DX10 Leistungsloch aufpeppeln ?

Gast
2007-05-13, 11:26:14
hmmm

ich denk die "HighEnd"Klasse wird eh die wenigstens interessieren...... die meisten kaufen eh nur die Mittelklasse und da kann anscheind ATI sehr gut punkten ^^

Und in Zeiten von HDMI, ist eine 2600 HD sehr sehr interessant :)

dildo4u
2007-05-13, 11:26:55
Tja, wenn man den DX10 Leistungsmessungen Glauben schenken kann, dann kann ich meine 8800gtx wohl zum erscheinen von Crysis/UT3 durch was anderes ersetzten. Die Unterschiede sind doch sehr markant. Kann nVidia nicht noch Treibermässig das DX10 Leistungsloch aufpeppeln ?
Quark Crytek arbeitet schon ewig mit der 8800gtx im DX 10 Modus und hat das Game damit auch schon mhermals vorgestellt also nix mit 10fps unspielbar oder so.

Gast
2007-05-13, 11:27:07
Wartet erstmal ab. Durch die Vistaproblematik entsteht der falsche Eindruck. Beide Firmen arbeitet erstmal fleißig daran, das selbe Performancelevel unter Vista zu erreichen. Erst danach wird man wohl auf den D3D10 Zug aufspringen.

Grestorn
2007-05-13, 11:27:33
Tja, wenn man den DX10 Leistungsmessungen Glauben schenken kann, dann kann ich meine 8800gtx wohl zum erscheinen von Crysis/UT3 durch was anderes ersetzten. Die Unterschiede sind doch sehr markant. Kann nVidia nicht noch Treibermässig das DX10 Leistungsloch aufpeppeln ?

Das ist keine DX10 Leistungsmessung sondern ein einzelnes Beispiel aus dem DX10 Development Kit.

Erst mal abwarten, wie sich das entwickelt. Ich persönlich glaube nicht, dass sich die DX10 Leistung der beiden Konkurenten in realen Spielen deutlich unterschiedlich entwickeln wird.

Adam D.
2007-05-13, 11:27:44
Tja, wenn man den DX10 Leistungsmessungen Glauben schenken kann, dann kann ich meine 8800gtx wohl zum erscheinen von Crysis/UT3 durch was anderes ersetzten. Die Unterschiede sind doch sehr markant. Kann nVidia nicht noch Treibermässig das DX10 Leistungsloch aufpeppeln ?
Der DX10-Krieg beginnt erst in einigen Monaten. Ich glaube nicht, dass man aufgrund zweier solcher Demos irgendwelche Rückschlüsse auf eine generelle DX-10-Performance des G80/R600 ziehen kann. Da kommen sicher noch einige Treiber, die in dieser Hinsicht große Fortschritte bringen.

AnarchX
2007-05-13, 11:33:39
Tja, wenn man den DX10 Leistungsmessungen Glauben schenken kann, dann kann ich meine 8800gtx wohl zum erscheinen von Crysis/UT3 durch was anderes ersetzten. Die Unterschiede sind doch sehr markant. Kann nVidia nicht noch Treibermässig das DX10 Leistungsloch aufpeppeln ?

Und das ist das beste Beispiel, was eine solche Berichterstattung durch die c't anrichten kann.

UT3 soll übrigens laut Entwicklern nicht sehr von der Geometrieleistung abhängig sein, sondern mehr von der Füllrate. ;)

dildo4u
2007-05-13, 11:39:23
Und das ist das beste Beispiel, was eine solche Berichterstattung durch die c't anrichten kann.

UT3 soll übrigens laut Entwicklern nicht sehr von der Geometrieleistung abhängig sein, sondern mehr von der Füllrate. ;)
Ebend die DX10 Shader von Crysis werden von Nvidia mitgeschrieben Quakewars ist eh Nvidia Land also hat man schon mal alle wichtigen Titel 2007 Performancemäßig in der Tasche.ATI bleibt whol mal wieder nur HalfLife EP2 aber das braucht eh kaum Power.

PCGH_Carsten
2007-05-13, 11:43:55
Der Unterschied ist, dass die einen Tests aus dem DX10-SDK kommen, und der andere von jemanden programmiert wurde, der auf B3D angibt, dass diese auf die "Bedürfnisse und Anforderungen" eines G80 angepasst wurden.
Zeig mal bitte einen Link - das muss mir entgangen sein.

iDiot
2007-05-13, 11:54:33
Wurden die Chips eigentlich unter XP oder Vista oder beidem getestet?

laser114
2007-05-13, 11:59:45
Nur besteht das Problem, dass man hier doch deutlich später kommt.
Oder bezieht sich der Juli Termin nur auf Retail und die OEMs haben ihren Karten schon eher? Immerhin gibt es noch einen G98, dessen Erscheinen für Mitte 2007 spekuliert wird, der wohl der direkte Konkurrent zum RV610 ist.

Meinst du nicht, dass der G98 nicht noch eine Leistungs- und Preisklasse niedriger liegt...?

reunion
2007-05-13, 12:06:34
Zeig mal bitte einen Link - das muss mir entgangen sein.

Also note that the demo was really designed and optimized for the G80. Your mileage may vary on other platforms. There are a few "known issues" on other cards detailed in the Readme. In particular PCF is somewhat broken with ATI's latest drivers, although that's an improvement from when loading the shader on ATI would instantly reboot the computer!

http://forum.beyond3d.com/showthread.php?t=38165

deekey777
2007-05-13, 12:08:13
Quark Crytek arbeitet schon ewig mit der 8800gtx im DX 10 Modus und hat das Game damit auch schon mhermals vorgestellt also nix mit 10fps unspielbar oder so.
Um genauer zu sein: nVidia hat zwei Mitarbeitet freigestellt, die seit mindestens August Crytek beim D3D10-Pfad unterstützen.

PCGH_Carsten
2007-05-13, 12:09:46
http://forum.beyond3d.com/showthread.php?t=38165
Danke - hab ich wirklich übersehen da...

reunion
2007-05-13, 12:14:12
Danke - hab ich wirklich übersehen da...


Kein Problem. Beim später erschienen D3D10-Part schreibt er das zwar nicht mehr explizit hin, da das aber nur ein D3D10-Port ist, kann man wohl davon ausgehen, dass sich an den grundsätzlichen Optimierungen nicht viel geändert hat: http://forum.beyond3d.com/showthread.php?t=40805

PCGH_Carsten
2007-05-13, 12:22:29
Kein Problem. Beim später erschienen D3D10-Part schreibt er das zwar nicht mehr explizit hin, da das aber nur ein D3D10-Port ist, kann man wohl davon ausgehen, dass sich an den grundsätzlichen Optimierungen nicht viel geändert hat: http://forum.beyond3d.com/showthread.php?t=40805
Ach so, du meintest die D3D9-Version war speziell für den G80 optimiert - na dann. Könnte ja sein, dass PCF damit gemeint war, aber das müssen unter D3D10 alle Chips können.

Avalox/Gast
2007-05-13, 12:29:15
@Avalox: Du irrst Dich mit Deiner Aussage, man müsse den Verbrauch der Karten über die kWh vergleichen.

Was willst Du denn aussagen? Die Karte verbraucht 1 kWh? Das tut sie ja nicht. Sie verbraucht bestenfalls 1kWh PRO TAG. Also:


Nein. Es bedarf eine Aufgaben bezogenen Verbrauchsangabe.

Eine Stunde Prey Spielen bei definierten Einstellungen verbraucht(!) Energie X.
Eine Stunde Desktop bei definierten Einstellungen verbaucht(!) verbraucht Energie X.
usw.



Wie hoch der Verbrauch ist, ergibt sich ja nur durch die Multiplikation mit der ZEITDAUER des Gebrauchs des Gerätes. Und über diese Zeitdauer kann und will man keine Aussage machen.

Du benötigtst dazu aber einen praktischen Durchschnittswert der Leistungsaufnahme. Den gibt es aber nicht. Es gibt einen Spitzenwert, der kann bei der Entscheidung nach dem richtigen Netzteil wichtig sein und es gibt einen Minimalwert, der ist vielleicht interessant weil man unter diesen garantiert nicht kommt und man diesen damit bedenkenlos mit der Benutzungsdauer multiplizieren kann, um zu sehen wo man nie landen wird.

Was die Leute wissen wollen, nämlich wie teuer kommt mich der Unterhalt der Karte, sagen die Leistungsaufnahme Aussagen überhaupt nicht aus.

Was verbraucht dein Kühlschrank? Aber welche Leistungsaufnahme hat er als Spitze? Dann wenn Shockgefrostet wird und der Einsschaltstrom fliesst?
So kann man keinen Kühlschrank bewerten, deshalb gibt ein Energiesiegel, eben um es den Käufer einfacher zu machen. Solche Energiesiegel gibt es leider bei PC Komponenten nicht.

Ich gehe jede Wette ein die ATI und nVidia Karten hätten haargenau die selbe Einstufung. Die Unterschiede sind völlig unrelevant. Die angegebenen Spitzen Leistungsaufnahmen im Prinzip völlig nutzlos. Auch bei CPUs und anderen PC Komponenten ist dieses der Fall.

reunion
2007-05-13, 12:30:32
Ach so, du meintest die D3D9-Version war speziell für den G80 optimiert - na dann. Könnte ja sein, dass PCF damit gemeint war, aber das müssen unter D3D10 alle Chips können.

Es gibt jedenfalls mit Sicherheit bessere Vergleiche, als ein Demo, das jemand geschrieben hat, der nur auf einen G80 zu griff hatte, und dadurch natürlich auch nur darauf optimieren konnte. Die D3D9-Version lief auf ATi-Karten gar nicht, und die D3D10-Version läuft jetzt offenbar - wenn auch sehr bescheiden.

Gast
2007-05-13, 12:32:16
Es gibt jedenfalls mit Sicherheit bessere Vergleiche, als ein Demo, das jemand geschrieben hat, der nur auf einen G80 zu griff hatte, und dadurch natürlich auch nur darauf optimieren konnte.

Welche wären das?

reunion
2007-05-13, 12:34:20
Welche wären das?

Na, zB die DX10-SDK-Tests von MS. :)

PCGH_Carsten
2007-05-13, 12:34:29
Es gibt jedenfalls mit Sicherheit bessere Vergleiche, als ein Demo, das jemand geschrieben hat, der nur auf einen G80 zu griff hatte, und dadurch natürlich auch nur darauf optimieren konnte. Die D3D9-Version lief auf ATi-Karten gar nicht, und die D3D10-Version läuft jetzt offenbar - wenn auch sehr bescheiden.

Hm, so auf Anhieb fällt mir wenig ein. Die Samples aus dem DX-SDK wurden als das geschrieben, was sie sind: Code-Beispiele, wie eine bestimmte Funktion überhaupt zu implementieren ist. Performance ist dabei vollkommene Nebensache, da so ein Zeug vermutlich am ehesten auf dem RefRast und damit der CPU programmiert wurde.

Ich warte gespannt auf die ersten Spiele/Spieledemos, die D3D10 nutzen.

DerKleineCrisu
2007-05-13, 12:38:40
Und in Zeiten von HDMI, ist eine 2600 HD sehr sehr interessant :)

wobei mich das sehr wenig Interesiert. meine TT S2 3200 Funktioniert auch ohne ne GraKa die einen HDMI Anschluss hat. sogar mit HD Sendern.


wenn wirklich 217 w Mittelklasse Verauch ist ist es arm. sehr Arm.
AMD hattte nun genügend Zeit und dann dieser Wert. Setzen 6.


@PCGH_Carsten Stimmt das meiste Geld wird in der Mittelklasse gemacht.
Hier ist der Verbrauch noch im Rahmen. Bin mal auf Richtige Wald und Wiesen Brechmarkwerte gespannt.


@Avalox/Gast Ob wirklich die neue ATI bessere Video beschleunigung hat ?. hmm wie kann man das Testen wenn bei der 8500/8600 diese noch nicht Aktiv im treiber sind ;D .

Gast
2007-05-13, 12:39:02
Na, zB die DX10-SDK-Tests von MS. :)

Und die sind besser geeignet? Wohl nur dann, wenn man eher auf das Ergebnis, gell? ;)

Gast
2007-05-13, 12:41:03
@Avalox/Gast Ob wirklich die neue ATI bessere Video beschleunigung hat ?. hmm wie kann man das Testen wenn bei der 8500/8600 diese noch nicht Aktiv im treiber sind ;D .

Vista verwenden. ;)

reunion
2007-05-13, 12:42:17
Ich warte gespannt auf die ersten Spiele/Spieledemos, die D3D10 nutzen.

Das wird natürlich das beste sein.

Und die sind besser geeignet? Wohl nur dann, wenn man eher auf das Ergebnis, gell? ;)

Es sollte dort zumindest definitiv niemand bevorzugt werden. Das diese nicht sonderlich auf Performance optimiert sind, mag sein, nur gilt das ja für jede Karte gleichermaßen.

PCGH_Carsten
2007-05-13, 12:44:33
Das diese nicht sonderlich auf Performance optimiert sind, mag sein, nur gilt das ja für jede Karte.
Und genau das macht sie unbrauchbar. So billig wird kein Developer Performance verschenken. Stell dir einfach vor, mit "normaler Optimierung" bekommst du bei Karte X +1500% und bei Karte Y +500%.

Gast
2007-05-13, 12:44:44
Es sollte dort zumindest definitiv niemand bevorzugt werden. Das diese nicht sonderlich auf Performance optimiert sind, mag sein, nur gilt das ja für jede Karte.

Woher weißt du, dass die Beispiele nicht die oder andere Architektur bevorzugen?

Gast
2007-05-13, 12:45:14
Eins muss man hier mal anmerken. Es ist doch sehr auffallend, in welcher epischen Breite jede Stärke von NVidia hier von diversen Teilnehmen breitgetreten wird und Schwächen einfach beiseite geschoben werden. Wenns allerdings um ATI geht, siehts genau anders herum aus.

Jeder hat Stärken und Schwächen, aber für ein angebliches Technikforum ist das hier viel zu viel von Vorlieben geprägt. Echte Technikfans haben keine Vorlieben, die sind an der Technik interessiert.

reunion
2007-05-13, 12:50:38
Woher weißt du, dass die Beispiele nicht die oder andere Architektur bevorzugen?

Diese Demos wurden programmiert, da gab es höchstwahrscheinlich noch nichtmal einen G80 oder einen R600. Das ist wenn schon auf den RefRast, und damit auf eine CPU optimiert.

Grestorn
2007-05-13, 12:51:32
Eins muss man hier mal anmerken. Es ist doch sehr auffallend, in welcher epischen Breite jede Stärke von NVidia hier von diversen Teilnehmen breitgetreten wird und Schwächen einfach beiseite geschoben werden. Wenns allerdings um ATI geht, siehts genau anders herum aus.

Jeder hat Stärken und Schwächen, aber für ein angebliches Technikforum ist das hier viel zu viel von Vorlieben geprägt. Echte Technikfans haben keine Vorlieben, die sind an der Technik interessiert.

Wie "Wahrheit" liegt im Auge des Betrachters. Auch Deine.

Den Eindruck, dass hier nVidia gegen ATI bevorzugt wird, ist eben auch nur das: Dein Eindruck. Mir entsteht ein ganz anderer.

Aber so ist das nun einmal... ;)

deekey777
2007-05-13, 12:51:49
Das Beste an dem Artikel der c't ist, dass sie nicht auf die Technik eingehen und wenn doch, dann sind die Äußerungen falsch. Die Grafikkartenabteilung des heise-Verlags hat es immernoch nicht begriffen, dass die einzelnen SPs innerhalb der Vec16-ALU des G80 nicht zu einer Vec4-Einheit zusammengefasst werden, sondern alle 16 SPs die Farbkanäle (oder Koordinaten) nacheinander berechnen. Auch geht der Redakteur mit den Daten des R600 zu unkritisch um.

DerKleineCrisu
2007-05-13, 12:52:21
Vista verwenden. ;)

:ulol3: nee danke vieleicht mal wenn das erste SP dafür gibt und anständige treiber wird vista interessant...

cl55amg
2007-05-13, 14:01:17
Das Beste an dem Artikel der c't ist, dass sie nicht auf die Technik eingehen und wenn doch, dann sind die Äußerungen falsch. Die Grafikkartenabteilung des heise-Verlags hat es immernoch nicht begriffen, dass die einzelnen SPs innerhalb der Vec16-ALU des G80 nicht zu einer Vec4-Einheit zusammengefasst werden, sondern alle 16 SPs die Farbkanäle (oder Koordinaten) nacheinander berechnen. Auch geht der Redakteur mit den Daten des R600 zu unkritisch um.


Ich stimme dir zu das die c't den Grafikkartenbereich vernachlässigt.
Aber dieser ist für die c't auch nicht prioritär, sie haben ihren Schwerpunkt bei anderen Themen und ihre Leser interessieren die Grafikkarten auch nicht in dem maße das sie eine ausführliche Technologie Erklärung erwarten...

AnarchX
2007-05-13, 14:19:54
Meinst du nicht, dass der G98 nicht noch eine Leistungs- und Preisklasse niedriger liegt...?

Niedriger als der RV610? Schonmal angeschaut was dieser ist? Niedriger geht es kaum, mich würde es nicht wundern wenn dieser mit minimalen Veränderungen AMD nächster DX10-IGP wird.

laser114
2007-05-13, 14:22:43
Niedriger als der RV610? Schonmal angeschaut was dieser ist?

In ziemlich vielen Punkten 1/8 R600 ... und das dürfte doch noch relativ "viel" sein, zumindest für einen IGP. Dahingegen ist der G98 ja absolut Low-End...

Ich denke vor dem ersten DX10-IGP kommt noch irgendwas auf RV5xx-Basis...

Gast
2007-05-13, 14:35:04
ich hab mir jetzt die benches angesehen und wenn die 2900 XT in DirectX10 wirklich mehr als doppelt so schnell ist wie eine 8800 GTX wär das aber schon ein zeimlich starkes argument. immerhin wird es nach dem offiziellen start des r600 nicht mehr lange dauern bis erste dX10 Spiele da sind. Immerhin kaufen solche Karten eh nur Leute die immer das Neuester Spielen wollen. Jemand der heute noch bei Battlefield 1942 sitz ist sowieso nicht bereit soviel Geld auszugeben.

Wär ja witzig wenn die r600 bei Crysis im dX10-Pfad so schnell ist wie die 8800GTX auf dX9 ;)

Gast
2007-05-13, 14:51:17
ich hab mir jetzt die benches angesehen und wenn die 2900 XT in DirectX10 wirklich mehr als doppelt so schnell ist wie eine 8800 GTX wär das aber schon ein zeimlich starkes argument. immerhin wird es nach dem offiziellen start des r600 nicht mehr lange dauern bis erste dX10 Spiele da sind. Immerhin kaufen solche Karten eh nur Leute die immer das Neuester Spielen wollen. Jemand der heute noch bei Battlefield 1942 sitz ist sowieso nicht bereit soviel Geld auszugeben.

Wär ja witzig wenn die r600 bei Crysis im dX10-Pfad so schnell ist wie die 8800GTX auf dX9 ;)
Was sollen denn jetzt für D3D10 Spiele kommen? Ich dachte, eines der ersten wird Crysis werden und das soll ja afaik frühstens Spätherbst diesen Jahres rauskommen. Zudem muss aus Kompatibilitätsgründen der DX9 Pfad mitgeschleppt werden. Das werden sich am Anfang eh nur die Entwicklungsstudios leisten können, die einen finanziell starken Publisher haben.

reunion
2007-05-13, 15:17:39
Niedriger als der RV610? Schonmal angeschaut was dieser ist? Niedriger geht es kaum, mich würde es nicht wundern wenn dieser mit minimalen Veränderungen AMD nächster DX10-IGP wird.

RV610 kommt in 65nm auf eine Die-Fläche von immerhin 82mm². Viel zu viel für eine IGP, und da fehlt noch die Northbridge. Im übrigen ist ein G86 auch nicht mehr als 1/8 G80.

Exxtreme
2007-05-13, 16:05:11
ich hab mir jetzt die benches angesehen und wenn die 2900 XT in DirectX10 wirklich mehr als doppelt so schnell ist wie eine 8800 GTX wär das aber schon ein zeimlich starkes argument. immerhin wird es nach dem offiziellen start des r600 nicht mehr lange dauern bis erste dX10 Spiele da sind. Immerhin kaufen solche Karten eh nur Leute die immer das Neuester Spielen wollen. Jemand der heute noch bei Battlefield 1942 sitz ist sowieso nicht bereit soviel Geld auszugeben.

Wär ja witzig wenn die r600 bei Crysis im dX10-Pfad so schnell ist wie die 8800GTX auf dX9 ;)
Naja, in Glaskugeln zu schauen kann nach hinten losgehen speziell dann wenn es irgendwelche Reviews suggerieren, daß GraKa X zukunfts(un)tauglich ist. Der Voodoo5 lebte sehr viel länger als von irgendwelchen Reviewern prophezeit genauso wie der R420. Den ach so zukünftssicheren weil fast Shader 3.0 GF5800/GF5900 kräht heute kaum noch ein Hahn nach.

Ich persönlich schaue bei neuen GraKas erstmal auf AA und AF-Qualität und dann auf den AA und AF-Speed. Das bringt erstmal bei allen Spielen was.

Demirug
2007-05-13, 16:34:33
Die Zukunftssicherheit einer GPU hängt von ihrer Verbreitung ab. Was sich gut verkauft hat kann von den Entwicklern nicht ignoriert werden.

Die Zukunftssicherheit aufgrund von irgendwelchen Messungen zu bestimmen wird dagegen immer unzuverlässiger. Man bräuchte Unmengen von Shadern und selbst dann hat man noch nicht unbedingt einen repräsentativen Querschnitt für zukünftige Spiele.

Gast
2007-05-13, 16:50:55
Die Zukunftssicherheit einer GPU hängt von ihrer Verbreitung ab. Was sich gut verkauft hat kann von den Entwicklern nicht ignoriert werden....



So ist es. Nur sah/hörte man von Dir bisher eine ganz andere Argumentation.

Auch deine (bisherige)Einflussnahme trägt nicht unwesentlich zur Meinung hier im Forum bei.

Demirug
2007-05-13, 17:22:06
So ist es. Nur sah/hörte man von Dir bisher eine ganz andere Argumentation.

Daran das ein breites Featureset die Wahrscheinlichkeit erhöht das auch zukünftige Spiele überhaupt startet hat sich nichts geändert. Für jemanden der sich alle 12 Monate oder noch öfter eine neue Karte kauft hat das jedoch sowieso keine Bedeutung.

Auch deine (bisherige)Einflussnahme trägt nicht unwesentlich zur Meinung hier im Forum bei.

Wer sich als Spieler durch meine Meinung als Entwickler beeinflussen lässt ist selber schuld.

MadManniMan
2007-05-14, 02:22:51
OT: schön, daß nicht mehr gemerged wird! :up:

Danke, Leute!