PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was geht mit ATI? - 3870X2


:o)Uhummel
2008-01-16, 13:33:37
:confused:Hey Leute, warum bauen die Leute bei ATI nur 16 TMU/TAUs in Ihre Grafikchips (2900Serie, 38xx) ein, während NV z.B. bei der "neuen" (128 SE) 8800GT 56/56 bietet!!!
OK, es kommt natl. stark auf die Leistungsfähigkeit der Einheiten ab, aber ich denke, dass die "wenigen" Einheiten die ATI-Produkte stark ausbremsen.-Bsp.:
Die neue Radeon HD 3870X2 mit 2 Chips im 3DMurks06 bei 2560x1600 ca.9600 Pkt. hinbringt. Ne einzelne 8800Ultra schafft ja ca. 8000! Dabei bietet die ATI-Karte um einiges mehr Speicherbandbreite als eine GTX/Ultra und zusätzl. noch um einiges höhere Taktraten beim Chip. Warum bietet ATI keine getrennten Taktdomänen usw...?
Was meint Ihr dazu? Es geht AMD/ATI eh schon "schlecht". Natl. sind die Karten nicht schlecht, aber z.T. ist NV in jedem Marktsegment eindeutig der Sieger.(Ich sag nur 8800GT,auch bei der Videoengine haben sie stark aufgeholt)-Ausser viell. im absoluten Low-End-Bereich

Gruß ;o)Uhum

GeneralHanno
2008-01-16, 13:47:56
zunächst: ATi verbaut doppelt so viele TAUs wie TMUs, also auf dem R600/RV670 befinden sich 32TAUs und 16TMUs. Zudem sind diese höher getaktet als bei Nvidia. Dennoch liegt Nvidia im Bereich der Texel- und Z-Füllraten extrem weit vorne.

:o)Uhummel
2008-01-16, 13:50:50
Ok, sorry. Natl. sind es 32 TAUs und 16 TMUs. Das ändert aber níx an dem Problem, dass NV gerade bei den Füllraten mit ATI den "Boden wischt"!

Odal
2008-01-16, 13:50:56
weil sich mehr TMUs in mehr transistoren und geringerer taktfreudigkeit wiederspiegeln

ATI setzt seit dem RV560 R580 auf eine Architektur welche auf hauptsächlich Arithmetische Leistung ausgelegt worden ist. Die Texturleistung wird hauptsächlich durch erhöhten Takt mitgesteigert. Beim R580 und Derivate sah man das es auf lange Sicht hin aufging und dieser auch heute noch durchaus brauchbar ist im Gegensatz zum etwas schwächelnden G70/71.
Wie die Zukunft wird lässt sich immer schwer im Vorfeld sagen und wie die Tendenz G80/R600 aussieht auch...

Ich sehe auch nicht NV als Sieger in jedem Marktsegment....dafür fangen Performance Karten erst ab ca. 250€ an was nicht jeder bereit ist auszugeben...im Moment gehört ihnen das Segment ab 250€ (aber nur wenn kein Crossfire eingesetzt wird) dort gibts aber weitaus weniger Käufer wie manche denken.
Ich glaube auch das im Lowend/Midend OEM Bereich mehr Wert auf den Schriftzug DX10.1 HD ready gelegt wird als du denkst. Ich habe in letzterzeit so einige neue OEM PCs gesehen und da waren meistens AMD X2 und ATI HD2600pro (welche zwar nur DX10 beherrscht ) und drunter verbaut...

Gast
2008-01-16, 13:57:02
ATI geht es wieder gut, die HD38X0 Serie ist ein voller Erfolg, die Karten gehen weg wie warme Semmeln. Im highend Bereich haben sie mit der X2 auch wieder einen Vertreter, der sich sogar günstig herstellen lässt.

:o)Uhummel
2008-01-16, 14:10:11
@Odal. Stimmt. Das mit jedem Marktsegment außer absolutes Low-End war übertrieben.

:o)Uhummel
2008-01-16, 14:19:48
Aber es ist trotzdem ein schlechter Scherz! Eine Dual-Karte mit 2 von ATIs derzeit besten Chips schafft gerade mal ca. 2000 Pkt. mehr als ein einzelnes NV-High-End-Modell.-Außerdem kommen von NV ja demnächst auch "neue" Chips. Ich kann eben nicht verstehen,warum ATI keine Taktdomänen und mehr TMU/TAUs ... verbaut.

INDEX75
2008-01-16, 14:27:10
ATI geht es wieder gut, die HD38X0 Serie ist ein voller Erfolg, die Karten gehen weg wie warme Semmeln.Ich fürchte das es weit mehr benötigt als nur die 3870 und 3850 damit es ATI /AMD wieder "gut geht". nV ist so, auch nicht mit der 3870X2, beizukommen.

MfG
i75

Super Grobi
2008-01-16, 14:29:50
Aber es ist trotzdem ein schlechter Scherz! Eine Dual-Karte mit 2 von ATI derzeit besten Chips schafft gerade mal etwas mehr als 2000 Pkt. als ein einzelnes NV-High-End-Modell.-Außerdem kommen von NV ja demnächst auch "neue" Chips. Ich kann eben nicht verstehen,warum ATI keine Taktdomänen und mehr TMU/TAUs ... verbaut.

Was du alles so erzählst :rolleyes:

Schon mal dran gedacht, das Ati bei der Entwicklung ganz andere Ziele im Auge hatte?

:uhammer:
SG

Odal
2008-01-16, 14:39:47
ich denke mal weil die architektur einfach nicht darauf ausgelegt ist...bei taktdomainen müsste das ganze schon so laufen das es nicht irgendwo zu hoher latenz und stalls kommt...ich denke mal das das chipdesign recht gut angepasst ist...mehr TMUs werden da nicht soviel bringen wie sie theoretisch könnten....

ausserdem ist es eine designentscheidung ob man wenig TMUs mit hohem takt dafür viele ALUs mit gleichem Takt (aber nicht so hohem wie bei der Konkurenz) baut als viele TMUs die gering getaktet sind und wenig ALUs die extrem hoch getaktet sind baut...

viele TMUs und viele ALUs wird der Transistorcount und Prozeß/Kosten nicht hergeben welche dann auch noch hoch getaktet sein sollen....

wenn Crossfire anständig funktioniert kann ich mir die 3870 X2 durchaus als Kostengünstige Alternative vorstellen....die 3870 besitzt 666Mio transistoren in 55nm und der G92 besitzt 754 transistoren in 65nm...letzterer ist somit deutlich grösser und sicherlich auch teurer zu fertigen genemigt sich dabei viel mehr strom.....

der G92 zieht im idle doppelt soviel saft wie der RV670...er wird deutlich heisser und somit schwieriger zu kühlen
eine G92 Dual GPU Karte erwarte (spekulativ) ich ähnlich der 7950X2 mit 2PCBs und 2x88GT chips...was durch die zwei pcbs nochmal mehr strom fressen dürfte....letztere können vermutlich kühlungs/platzbedingt auch nicht so hoch getaktet werden sind somit nicht viel schneller als eine 3870 X2 fressen dabei aber mehr als das doppelte an saft im idle und dürften durch mehr transistoren und 65nm teurer zu fertigen sein...

ich denke nicht das NVidia ursprünglich eine G80/92 X2 Karte geplant hat und eben nur nachzieht um sich nicht die Spitze klauen zu lassen..wobei ihre chips und dualgpu design deutlich schlechter für sowas geeignet ist...

AnarchX
2008-01-16, 14:46:13
ich denke nicht das NVidia ursprünglich eine G80/92 X2 Karte geplant hat und eben nur nachzieht um sich nicht die Spitze klauen zu lassen..wobei ihre chips und dualgpu design deutlich schlechter für sowas geeignet ist...

Die Gerüchte über eine neue GX2 sind älter als jene über die Radeon X2(X). ;)

Gast
2008-01-16, 14:53:28
Die Gerüchte über eine neue GX2 sind älter als jene über die Radeon X2(X). ;)

War bei nV aufgrund der 7900GX2 auch naheliegender. Wie es wirklich war werden wir ohnehin nie erfahren.

Coda
2008-01-16, 15:01:38
ATI geht es wieder gut, die HD38X0 Serie ist ein voller Erfolg, die Karten gehen weg wie warme Semmeln. Im highend Bereich haben sie mit der X2 auch wieder einen Vertreter, der sich sogar günstig herstellen lässt.
Auf Hardwareseite vielleicht. Nur leider ist die Software extrem mangelhaft und ich glaube nicht, dass sich da viel tut bis zum Release.

Schon mal dran gedacht, das Ati bei der Entwicklung ganz andere Ziele im Auge hatte?
Was für "andere Dinge"? Es geht darum in den Spielen die beste Leistung zu bieten, sonst nichts.

Das Design verbrät für seine arithemtische Leistung (die in der Praxis nichtmal höher ist als von einem vergleichbaren nV-Chip) einfach viel zu viel Transistoren.

Gast
2008-01-16, 15:25:00
Ich kann eben nicht verstehen,warum ATI keine Taktdomänen und mehr TMU/TAUs ... verbaut.

weil man das nicht von heute auf morgen bauen kann?

NV hat am G80-design über 5 jahre gearbeitet, das kann man nicht mal so in einem jahr "nachmachen".

Gast
2008-01-16, 15:47:49
Das Design verbrät für seine arithemtische Leistung (die in der Praxis nichtmal höher ist als von einem vergleichbaren nV-Chip) einfach viel zu viel Transistoren.

Da fragt man sich wie es AMD dann schafft vergleichbare Leistung zu liefern wenn man überall hinten ist. Momentan benötigen eigentlich alle vergleichbaren NV-Chips deutlich mehr Die-Fläche/Transistoren als die von AMD. Die Leistung/Transistor ist ebenso wie die Leistung/Watt trotz fehlender Taktdomaine allemal konkurrenzfähig.

Gast
2008-01-16, 15:48:50
Da fragt man sich wie es AMD dann schafft vergleichbare Leistung zu liefern wenn man überall hinten ist. Momentan benötigen eigentlich alle vergleichbaren NV-Chips deutlich mehr Die-Fläche/Transistoren als die von AMD. Die Leistung/Transistor ist ebenso wie die Leistung/Watt trotz fehlender Taktdomaine allemal konkurrenzfähig.

/Edit: Und dazu fehlen bei NV noch Features.

Gast
2008-01-16, 16:08:19
Momentan benötigen eigentlich alle vergleichbaren NV-Chips deutlich mehr Die-Fläche/Transistoren als die von AMD. Die Leistung/Transistor ist ebenso wie die Leistung/Watt trotz fehlender Taktdomaine allemal konkurrenzfähig.

AMD hat den kleineren Fertigungsprozeß.

Coda
2008-01-16, 16:16:02
Da fragt man sich wie es AMD dann schafft vergleichbare Leistung zu liefern wenn man überall hinten ist. Momentan benötigen eigentlich alle vergleichbaren NV-Chips deutlich mehr Die-Fläche/Transistoren als die von AMD. Die Leistung/Transistor ist ebenso wie die Leistung/Watt trotz fehlender Taktdomaine allemal konkurrenzfähig.
Kleinerer Herstellungsprozess...

Außerdem ist der Texturfilter auch mit AI. off noch versaut.

zunächst: ATi verbaut doppelt so viele TAUs wie TMUs, also auf dem R600/RV670 befinden sich 32TAUs und 16TMUs..
Das ergibt doch keinen Sinn. Was bringt es doppelt so viele Adressen zu generieren als man überhaupt filtern kann?

reunion
2008-01-16, 16:23:19
Kleinerer Herstellungsprozess...


Nicht nur. Auch sonst schlägt sich ein RV670 für seine 666mio Transistoren mehr als brauchbar. Und dabei erreicht man auch bei gleicher Strukturbreite eine höhere Packdichte als NV und hat mehr Features zu bieten. Und selbst wenn ist das auch kein Argument, wenn NV so spät auf neue Prozesse umrüstet muss man eben mit den Nachteilen leben.


Das ergibt doch keinen Sinn. Was bringt es doppelt so viele Adressen zu generieren als man überhaupt filtern kann?

Für die nicht weniger als 80 Point Sampling TMUs bei einem R600/RV670.

deekey777
2008-01-16, 16:29:38
Was du alles so erzählst :rolleyes:

Schon mal dran gedacht, das Ati bei der Entwicklung ganz andere Ziele im Auge hatte?

:uhammer:
SG
Sagen wir mal so: ATi hat sich seit 2002 etwas vertan.

Super Grobi
2008-01-16, 16:34:13
Sagen wir mal so: ATi hat sich seit 2002 etwas vertan.

Klar, aber Ati hat das beste draus gemacht und ,wie ich schon erwähnte, die Ziele anders gesteckt. --> Günstiger Chip der stromspart und mit dem man Geld verdienen will/muss.

Deshalb finde ich den Vergleich mit einer 8800 Ultra einfach so lustig.

SG

tombman
2008-01-16, 16:40:15
Die neue Radeon HD 3870X2 mit 2 Chips im 3DMurks06 bei 2560x1600 ca.9600 Pkt. hinbringt. Ne einzelne 8800Ultra schafft ja ca. 8000!
Triple SLI schafft den ATI Wert sogar mit 8xAA zusätzlich :cool:

Grivel
2008-01-16, 16:40:30
Ich fürchte das es weit mehr benötigt als nur die 3870 und 3850 damit es ATI /AMD wieder "gut geht". nV ist so, auch nicht mit der 3870X2, beizukommen.

MfG
i75

ähm ATI stand alone schreibt schwarze Zahlen ;-)

Gast
2008-01-16, 16:44:31
Günstiger Chip der stromspart und mit dem man Geld verdienen will/muss.

naja, wirklich hat das auch nicht funktioniert. beim R600 war der stromverbrauch im verhältnis zur verfügbaren leistung gigantisch, bei der HD3xxx-serie ist er immerhin konkurrenzfähig, aber auch nicht wirklich besser.

Eggcake
2008-01-16, 16:47:56
Nicht wirklich besser? Ahja.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/31/#abschnitt_leistungsaufnahme

Stimmt. Extrem schlecht!

deekey777
2008-01-16, 16:55:30
Wenn es um Verbrauch der Grafikkarten geht, ist Xbitlabs die bessere Quelle als Messungen an der Steckdose.
http://www.xbitlabs.com/articles/video/display/gainward-bliss-8800gt_5.html#sect0
CB geibt nur die Leistung des Testrechners mit unterschiedlichen Grafikkarten wieder. Wenn man aber eigenen Rechner zusammenbauen will, so sind Messungen des Verbrauchs der Grafikkarte viel aussagekräftiger.

...

Für die nicht weniger als 80 Point Sampling TMUs bei einem R600/RV670.
Und was hat er davon? Gar nichts. Der R600 kann FP16-Texturen genau so schnell wie die INT8-Texturen filtern. Ist das nicht toll? Insbesondere wenn FP16-Texturen kaum eine Rolle spielen.
Ach ja, die INT16-Texturen werden mit halbem Speed gefiltert. Mit dem Start des R520 wurde gepredigt, gerade diese zu nutzen. Manchmal weiß ATi selbst nicht, was sie wollen. ;(

Eggcake
2008-01-16, 17:24:39
Solange die Graka am gleichen Testsystem angeschlossen ist, kann man den Wert durchaus auf vergleichende Weise verwenden.

Aber du hast natürlich recht...
Der 3870 kann man von mir aus vieles vorwerfen wenn der Tag lang ist - doch zu hoher Stromverbrauch ganz sicher nicht...

Gast
2008-01-16, 17:26:32
ähm ATI stand alone schreibt schwarze Zahlen ;-)

Nein, da irrst du, auch ATIs Zahlen sind rot.

Gast
2008-01-16, 18:51:26
Nein.

Coda
2008-01-16, 19:04:04
Nicht nur. Auch sonst schlägt sich ein RV670 für seine 666mio Transistoren mehr als brauchbar. Und dabei erreicht man auch bei gleicher Strukturbreite eine höhere Packdichte als NV und hat mehr Features zu bieten. Und selbst wenn ist das auch kein Argument, wenn NV so spät auf neue Prozesse umrüstet muss man eben mit den Nachteilen leben.
Stromverbrauch stört eh fast niemanden. G92 ist eine Notlösung, das ist schon richtig. ATI kann froh sein, dass sich nVIDIA nicht so sehr angestrengt hat.

Für die nicht weniger als 80 Point Sampling TMUs bei einem R600/RV670.
Die man praktisch für Nichts einsetzen kann.

reunion
2008-01-16, 19:09:06
Stromverbrauch stört eh fast niemanden.


Mag sein, darum ging es auch nicht. Du sagtest sinngemäß das die Architektur ineffizient mit den Transistoren umgehen würde. Wo ist ein nV-Chip, der mit gleich viel Transistoren schneller, oder mit weniger Transistoren gleich schnell ist? Von den Features mal abgesehen.


G92 ist eine Notlösung, das ist schon richtig.


Inwiefern eine Notlösung?


ATI kann froh sein, dass sich nVIDIA nicht so sehr angestrengt hat.


Als ob AMD alles herausgeholt hätte. Ganz im Gegenteil, man hätte noch wesentlich mehr Spielraum als NV was zusätzliche Transistoren betrifft.

Die man praktisch für Nichts einsetzen kann.

Was sich ATi dabei gedacht hat weiß ich nicht. Irgendeinen Sinn werden die Dinger schon haben.

LovesuckZ
2008-01-16, 19:12:02
Als ob AMD alles herausgeholt hätte. Ganz im Gegenteil, man hätte noch wesentlich mehr Spielraum als NV was zusätzliche Transistoren betrifft.

Woher stamm deineThese? Der Stromverbrauch der 3870 und die schlechtere Verfügbarkeit sprechen bände, dass zur Zeit eben nicht mehr gegangen ist.

Rainman2k
2008-01-16, 19:12:47
Stromverbrauch stört eh fast niemanden. G92 ist eine Notlösung, das ist schon richtig. ATI kann froh sein, dass sich nVIDIA nicht so sehr angestrengt hat.


Die man praktisch für Nichts einsetzen kann.

Sorry,
hochachtung vor deinem job und programmierarbeiten, oder was auch immer du machst.
aber das fanboy gelaver suckt derbst.

Stromverbrauch stört niemanden, wenn ich das lese.
Jezt, wo ATi nach ner sehr guten Serie (ab 9500 NP bis einschl. 9800 Pro) im moment etwas schwächelt (wobei sie das nach meiner Meinung nicht wirklich tun) seid ihr wieder ganz gross mit eurem blubbla.
Ich hab auch Nv Karten, die Okay sind, davon mal ab.
aber vollstenst zufrieden war ich nur mit ATi Karten.
Nv hat fast 10 Jahre gebraucht, bis sie kapiert haben, wie man einen Tv out richtig ansteuert.
Das komplettpaket bei ATi ist prei leistung eigentlich IMMER besser gewesen, ausnahmen Nvidia seits (gf 1 DDR 256 nach ca 1 jahr, Gf 4 ti 4200) gab es auch.

Gruss

Rainman2k
2008-01-16, 19:14:45
Woher stamm deineThese? Der Stromverbrauch der 3870 und die schlechtere Verfügbarkeit sprechen bände, dass zur Zeit eben nicht mehr gegangen ist.


Immerhin besser oder gleich verfügbar wie ne 8800 gt.
und die hatte mehr als 1 Monat vorsprung.

Gruss

reunion
2008-01-16, 19:16:38
Woher stamm deineThese? Der Stromverbrauch der 3870 und die schlechtere Verfügbarkeit sprechen bände, dass zur Zeit eben nicht mehr gegangen ist.

Nein, das ergibt keinen Sinn. Und nein, ich kaue das sicher nicht noch zehn mal durch.

Gast
2008-01-16, 19:19:10
Triple SLI schafft den ATI Wert sogar mit 8xAA zusätzlich :cool:

.. hm .. und wieviel strom wird da mitgefressen? ^^
.. also ich find 9600 Pkt. gar nich mal so schlecht .. wenn man noch bedenkt dass die treiber so wie architektur selbst noch so ziemlich in babystadium sind.

.. bin gespannt wie's in einem jahr aussieht und ab wann die NV die archi nachahmt^^

LovesuckZ
2008-01-16, 19:26:57
Immerhin besser oder gleich verfügbar wie ne 8800 gt.
und die hatte mehr als 1 Monat vorsprung.

Gruss

Besser ist das Zauberwort.

Nein, das ergibt keinen Sinn. Und nein, ich kaue das sicher nicht noch zehn mal durch.

Es ergibt also einen Sinn, dass AMD zum Zeitpunkt der r670 mehr Transistoren hätte aufbringen können, jedoch die r670 Karten - vorallen die 3870 - nicht besser zur Verfügung mit einem besseren Stromverbrauch bringen konnte? :confused:

laser114
2008-01-16, 19:29:34
Alles eine Frage der Spannung, die AMD relativ hoch gewählt hat bei der 3870. Mehr Transistoren wären sicher möglich gewesen, auf jeden Fall zumindest ins ursprünglich geplante Q1 08.

reunion
2008-01-16, 19:31:49
Es ergibt also einen Sinn, dass AMD zum Zeitpunkt der r670 mehr Transistoren hätte aufbringen können, jedoch die r670 Karten - vorallen die 3870 - nicht besser zur Verfügung mit einem besseren Stromverbrauch bringen konnte? :confused:

Was ist daran so schwer zu verstehen, dass die Nachfrage sowohl bei der 8800GT als auch bei der 3870 höher ist als erwartet und man das nicht von heute auf morgen umstellen kann? Der Stromverbauch wurde ggü. dem R600 halbiert, was du daran auszusetzen hast weiß ich bei besten Willen nicht. Das eine 8800GT unter Last geringfügig weniger verbraucht ist aufgrund der niedrigeren Spannung logisch.

LovesuckZ
2008-01-16, 19:31:55
Alles eine Frage der Spannung, die AMD relativ hoch gewählt hat bei der 3870. Mehr Transistoren wären sicher möglich gewesen, auf jeden Fall zumindest ins ursprünglich geplante Q1 08.

Der rv670 war das geplante Q1 08 Produkt - als A12 Sample.
Das A11 reicht für die 3850, jedoch wurde es für doe 3870 schon eng. Die war erst einem Monat nach Vorstellung richtig verfügbar - im Gegensatz zur 3850.

Was ist daran so schwer zu verstehen, dass die Nachfrage sowohl bei der 8800GT als auch bei der 3870 höher ist als erwartet und man das nicht von heute auf morgen umstellen kann? Der Stromverbauch wurde ggü. dem R600 halbiert, was du daran auszusetzen hast weiß ich bei besten Willen nicht.

Und die Nachfrage an die 3850 war dann unterirdisch? :confused:
Ja gegenüber dem r600, das ist jedoch uninteressant, wenn es Konkurrenzprodukte gibt.

Odal
2008-01-16, 19:35:50
Sorry,
hochachtung vor deinem job und programmierarbeiten, oder was auch immer du machst.
aber das fanboy gelaver suckt derbst.

Stromverbrauch stört niemanden, wenn ich das lese.
Jezt, wo ATi nach ner sehr guten Serie (ab 9500 NP bis einschl. 9800 Pro) im moment etwas schwächelt (wobei sie das nach meiner Meinung nicht wirklich tun) seid ihr wieder ganz gross mit eurem blubbla.
Ich hab auch Nv Karten, die Okay sind, davon mal ab.
aber vollstenst zufrieden war ich nur mit ATi Karten.
Nv hat fast 10 Jahre gebraucht, bis sie kapiert haben, wie man einen Tv out richtig ansteuert.
Das komplettpaket bei ATi ist prei leistung eigentlich IMMER besser gewesen, ausnahmen Nvidia seits (gf 1 DDR 256 nach ca 1 jahr, Gf 4 ti 4200) gab es auch.

Gruss

das schlimme ist ja sonst hiess es von solchen leuten immer features features features ist für "uns" entwickler wichtig egal erstmal ob performant oder nicht...ständig wurde auf den X800 Karten herumgehackt weil sie kein SM3 boten auch wenn sie schneller waren als die jeweiligen NV40
nun bietet die neuste ATI Generation mehr techlevel features und es wird trotzdem drauf herumgehackt...

oder die leute die damals den G70/71 verteidigt haben...ja stromverbrauch ist ja so wichtig...die deutlich bessere BQ die besseren Features (AA+HDRR) die deutlich bessere Performance wurde dort ignoriert....

jetzt bietet NV mal leicht bessere BQ und etwas mehr Performance trotz schlechteren techlevel features und deutlich mehr stromverbrauch höheren kosten etc. und trotzdem halten sie dem die stange....

immer schön das fähnchen in den wind hängen....

hier wird unterschwellig sogar die geringere fertigungsgrösse und daraus bessere chipeigenschaften (grösse/stromverbrauch/abwärme) als nachteil hingestellt...


verdrehte welt?

Eggcake
2008-01-16, 19:39:49
Kann gewissen Argumentationen auch nicht wirklich folgen...jeden 3. Post kommt ein neuer Vorwurf.

Woher stamm deineThese? Der Stromverbrauch der 3870 und die schlechtere Verfügbarkeit sprechen bände, dass zur Zeit eben nicht mehr gegangen ist.

Dann muss Nvidia ja am Boden zerstört sein, wenn man nach dem Angebot der Karten urteilen will :|

Coda
2008-01-16, 19:39:54
Inwiefern eine Notlösung?
Das Design existiert überhaupt nur wegen RV670. Das Packing ist extrem beschissen, was darauf hindeutet dass da viel automatisiert wurde, d.h. hastig gemacht.

Und mir geht es um die Grundarchitektur. Und da hat ATi bei gleichem Zeitaufwand/Prozess derzeit definitiv das Nachsehen. Das kann man nicht wegdiskutieren.

Sorry,
hochachtung vor deinem job und programmierarbeiten, oder was auch immer du machst.
aber das fanboy gelaver suckt derbst.
Das ist kein Fanboy-Gelaber. Es ist mir sowas von schnurz egal, was auf dem Silizium steht was ich besitze.

Stromverbrauch stört niemanden, wenn ich das lese.
Ich gehe fest davon aus, dass das 95% der Konsumenten nichhtmal wissen was eine GPU verbraucht. Und selbst wenn sie es wissen: Da gibt's auch noch mindestens 50% die nur auf die Leistung schauen.

Insofern ist es marktwirtschaftlich für nVIDIA wirklich weitgehend "egal". Hauptsache man sprengt den Rahmen nicht extrem, dann gibt's auch keine negative Presse, die dann evtl. doch Aufsehen erregt.

reunion
2008-01-16, 19:40:04
Und die Nachfrage an die 3850 war dann unterirdisch? :confused:


Es soll noch etwas zwischen hoch und unterirdisch geben.


Ja gegenüber dem r600, das ist jedoch uninteressant, wenn es Konkurrenzprodukte gibt.

Siehe mein Edit.

LovesuckZ
2008-01-16, 19:59:34
Es soll noch etwas zwischen hoch und unterirdisch geben.


Argumentiv hast du die schlechte bis nicht vorhandene Verfügbarkeit der 3870 im ersten Monat mit der hohen Nachfrage begründet. Da die 3850 aber in Massen in den Shops war, hätte sie eine deutlich schlechtere - sagen wir unterirdische - Nachfrage gehabt haben.

Gast
2008-01-16, 20:01:34
Argumentiv hast du die schlechte bis nicht vorhandene Verfügbarkeit der 3870 im ersten Monat mit der hohen Nachfrage begründet. Da die 3850 aber in Massen in den Shops war, hätte sie eine deutlich schlechtere - sagen wir unterirdische - Nachfrage gehabt haben.
Vielleicht war ATI realistisch, die Kunden aber nicht. Insgesamt ist die 3850 eigentlich ein Preis-/Leistungsknüller, bei der 3870 kann man das schon nicht mehr ohne weiteres unterstreichen.

Dazu kamen ja irgendwelche (Fertugungs-)Probleme, jedenfalls wurden doch schinbar einige Karten zurückgerufen.

Odal
2008-01-16, 20:03:20
Argumentiv hast du die schlechte bis nicht vorhandene Verfügbarkeit der 3870 im ersten Monat mit der hohen Nachfrage begründet. Da die 3850 aber in Massen in den Shops war, hätte sie eine deutlich schlechtere - sagen wir unterirdische - Nachfrage gehabt haben.

irrtum vor weihnachten war es sehr schwer eine 3850 zu einem einigermaßen vernünftigen preis zu bekommen....sobald was irgendwo verfügbar war und das durch die foren ging wars kurz darauf schon wieder auf nicht verfügbar

deekey777
2008-01-16, 20:07:02
Schon wieder diese Verfügbarkeitssache: Die Karten waren relativ schlecht verfügbar, weil die Nachfrage enorm war. Dazu gab es auch Berichte, dass das PCB der HD3870 einen Fehler aufwies, was zu einer weiteren Verknappung geführt hat. AMD hat nicht umsonst die 3850 gepusht.

Redneck
2008-01-16, 21:12:24
Sorry,
hochachtung vor deinem job und programmierarbeiten, oder was auch immer du machst.
aber das fanboy gelaver suckt derbst.

Stromverbrauch stört niemanden, wenn ich das lese.
Jezt, wo ATi nach ner sehr guten Serie (ab 9500 NP bis einschl. 9800 Pro) im moment etwas schwächelt (wobei sie das nach meiner Meinung nicht wirklich tun) seid ihr wieder ganz gross mit eurem blubbla.
Ich hab auch Nv Karten, die Okay sind, davon mal ab.
aber vollstenst zufrieden war ich nur mit ATi Karten.
Nv hat fast 10 Jahre gebraucht, bis sie kapiert haben, wie man einen Tv out richtig ansteuert.
Das komplettpaket bei ATi ist prei leistung eigentlich IMMER besser gewesen, ausnahmen Nvidia seits (gf 1 DDR 256 nach ca 1 jahr, Gf 4 ti 4200) gab es auch.

Gruss

kann mich dem nur anschliessen.
Wenn der Stromverbrauch so uninterssant wäre, warum wird er hier im Forum bei jeder neuen Graka Generation als Argument pro/Kontra von vielen gebracht ?
Weshalb wird überhaupt in Mags getestet wie hoch der Stromverbrauch ist, wenn es eh egal ist ?
Genausogut koennte mann darüber schreiben warum es überhaupt BQ Tests gibt. Man koennte ja annehmen das 95% der User eh keine Vergleichsmöglichkeit haben und es ihnen demnach auch egal ist/sein kann.....

Kein Wunder das vieles nach Fanboy Meinungsmache aussieht, wenn
nur Kontra oder nur Pro Argumente für die eine oder andere Seite gebracht werden (muß halt jeder selber wissen ob er/sie an solchen Grabenkämpfen teilnehmen will)...

Gast
2008-01-16, 21:32:27
Das eine 8800GT unter Last geringfügig weniger verbraucht ist aufgrund der niedrigeren Spannung logisch.

da die 8800GT mehr transistoren und einen gröberen fertigungsprozess hat ist es alles andere als logisch, dass sie weniger spannung braucht und damit auch (geringfügig) weniger strom. das ganze ist eher ein armutszeugnis für den 55nm-prozess von TSMC.

im gegensatz zum R600, bei dem wohl nur die extremsten NV-hasser zugegriffen haben, ist der RV670 durchaus eine gute alternative. der preis passt zur vorhandenen leistung, der stromverbrauch ist aus performance-per-watt-sicht zwar schlechter als bei der konkurrenz, aber immer noch in ordnung.

ein wirklich herausragendes argument für die RV670-karten gibt es allerdings nicht, sie sind überall etwas schlechter, dafür aber auch etwas billiger als die konkurrenz.

reunion
2008-01-16, 22:27:36
da die 8800GT mehr transistoren und einen gröberen fertigungsprozess hat ist es alles andere als logisch, dass sie weniger spannung braucht und damit auch (geringfügig) weniger strom. das ganze ist eher ein armutszeugnis für den 55nm-prozess von TSMC.

Ein breiterer Chip braucht eben nicht so hohe Taktraten und damit nicht so hohe Spannungen um auf dieselbe Leistung zu kommen. Ein doppelter Rv670 mit den halben Taktraten wäre bei gleicher Leistung auch stromsparender. Der 55nm Prozess scheint allerdings tatsächlich schlechter als 65nm zu sein was die Leistungsaufnahme betrifft, wenn man den Vorabtests von RV620/RV635 glauben kann.


im gegensatz zum R600, bei dem wohl nur die extremsten NV-hasser zugegriffen haben, ist der RV670 durchaus eine gute alternative. der preis passt zur vorhandenen leistung, der stromverbrauch ist aus performance-per-watt-sicht zwar schlechter als bei der konkurrenz, aber immer noch in ordnung.

Der Stromverbrauch ist summa summarum schon deutlich niedriger als bei einer 8800GT. Die 3 Watt mehr unter Last werden durch Powerplay mehr als wett gemacht. Die Karte taktet sich selbst unter 3D öfter runter, wenn die Last niedrig genug ist.


ein wirklich herausragendes argument für die RV670-karten gibt es allerdings nicht, sie sind überall etwas schlechter, dafür aber auch etwas billiger als die konkurrenz.

Naja, sie hat schon durch Powerplay, die Multimediafeatures, D3D10.1, Dual-Slot Kühler, etc. gewisse Vorteile, die allerdings zugegebenermaßen die wenigsten interessieren dürften, zudem ist sie ja wie du richtig sagst etwas billiger und deswegen durchaus ein gutes Angebot.

Gast
2008-01-16, 22:37:26
Ein breiterer Chip braucht eben nicht so hohe Taktraten und damit nicht so hohe Spannungen um auf dieselbe Leistung zu kommen.

Die Recheneinheiten von nVidia laufen mit 1500Mhz - nichts mit breiterer Architektur.

Gast
2008-01-16, 22:41:24
Ein doppelter Rv670 mit den halben Taktraten wäre bei gleicher Leistung auch stromsparender.

das ist stark zu bezweifeln, ein doppelter RV670 würde wahrscheinilch nichtmal die halben taktraten des jetztigen schaffen.

deekey777
2008-01-16, 22:43:02
Stromverbrauch stört eh fast niemanden. G92 ist eine Notlösung, das ist schon richtig. ATI kann froh sein, dass sich nVIDIA nicht so sehr angestrengt hat.

Natürlich interessiert das kaum jemanden, die meisten holen eine PSU mit mehr als 500 W, damit sie "auf der sicheren Seite" sind. Und natürlich damit schön angeben können.
das ist stark zu bezweifeln, ein doppelter RV670 würde wahrscheinilch nichtmal die halben taktraten des jetztigen schaffen.
Jetzt mal Butter bei die Fische: ATi braucht definitiv keinen doppelten RV670, sondern einen Grafikchip, der entweder 32 "volle" Textureneinheiten hat (Anzahl der TAs gleich Anzahl der TF) oder noch ein "TMU-SIMD".
Der G92 ist riesig. Ist er auch so viel teurer als der RV670, damit wir darüber diskutieren müssen?

Coda
2008-01-16, 22:45:37
das ist stark zu bezweifeln, ein doppelter RV670 würde wahrscheinilch nichtmal die halben taktraten des jetztigen schaffen.
Und wieso sollte das so sein? Man müsste wohl die Spannung senken um nicht >200W zu verbrauchen, aber 75% Takt sollten schon drin sein.

Gast
2008-01-16, 22:46:46
Der Stromverbrauch ist summa summarum schon deutlich niedriger als bei einer 8800GT. Die 3 Watt mehr unter Last werden durch Powerplay mehr als wett gemacht. Die Karte taktet sich selbst unter 3D öfter runter, wenn die Last niedrig genug ist.

naja, am wichtigsten ist noch immer der verbrauch unter last, schließlich muss die stromversorgung und kühlung darauf ausgelegt sein, und hier sind beide mehr oder weniger gleich auf (die paar watt unterschied werte ich mal als gleichstand), wobei aber NV doch um einiges mehr an leistung liefert.

der idle-verbrauch bei NV ist zwar nicht gerade schön, aber nicht so wahnsinnig wichtig, schließlich ist es da kein problem die kühlung leise zu halten. und untertakten kann man auch die NV-karten wenn man will, hat beim G80 immerhin 20-30W (primärseitig) gebracht. damit kommt man zwar sicher nicht in RV670-regionen, aber der unterschied dürfte dann ziemlich zu vernachlässigende 10-20W sein.

Rainman2k
2008-01-16, 23:02:04
die 8800 gt ist sicher keine schlechte Karte,. für NV bestimmt sowas wie die 4200 TI. (für uns als user)
Aber für 50 e weniger bei gleicher austattung bekomme ich bei ATi trotzdem das bessere Paket.
Verfügbarkeit dürfte bei beidne Karten ja im moment gleich sein...

Und was die 2900 xt betrifft, und nur nv hasser:
ich habe mir damals eine 2900 xt geholt.
Warum?
war von ATi das feinste was es gab, auch wenn sien strommonster war.
war kein überflieger, zugegebener maßen - aber die Leistung war gigantisch.
Selbst mit der so hochgelobten 8800 GTS konnte sie sich vom "spielfeeling" her locker messen, es lief einfach deutlich "smoother" trotz weniger FPS.

Hab trotzdem nu ne 3870, denn 2 Stundne gespielt = 1 Stunde licht brennen lassen ist mir zu krass gewesen.

Die 3870 sind im moment extrem gute Karten, und mit dem 8.1er Catalyst ist vom spielempfindne bisher! alles besser geworden!
Und das ende der Fahnenstange ist da noch nicht erreicht, wie uns ATi oftmals lehrte!

Gruss

Coda
2008-01-17, 00:59:57
Selbst mit der so hochgelobten 8800 GTS konnte sie sich vom "spielfeeling" her locker messen, es lief einfach deutlich "smoother" trotz weniger FPS.
Das ist Unfug. Wenn dann war das Prerender-Limit anders. Das kann man aber einstellen bei nV.

Hauwech
2008-01-17, 02:42:13
Der 0.1er Vorteil von ATI mag zwar nett sein, es muss sich aber noch herausstellen, ob daraus irgendein Spiel Nutzen ziehen wird. PS1.4 wurde quasi nicht benutzt. SM2.0a auch nicht, SM2.0b weiss ich im Moment nicht, wahrscheinlich aber auch nicht großartig wenn überhaupt.
Und dann immer wieder das gleiche Blabla von den Fraktionen: SM3 muss man haben, SM4.0 muss man haben, SM4.1 muss man haben. Fazit: Für Grüne oder Rote ist immer das, was der andere Hersteller nicht hat oder allgemein besser kann, ungemein (überlebens)wichtig.
Natürlich, es gibt Vorteile bei fortschrittlicheren Techniken (SM2, SM3, D3D10/10.1), nur wenn das Umfeld nicht stimmt (Vista + D3D10) kann ich mir davon so gesehen (XP) auch nichts kaufen. Da zählt dann nur (überschüssige) Leistung die ich in BQ umsetzen kann und zwar sofort.
Die Zeit wird natürlich auch gerne vergessen.

SP1 mit 10.1 Unterstützung steht zwar an, ist aber auch noch nicht draussen. Nutzen im Moment also gleich 0 und das sofort nach Release für jedes Spielchen Patches rauskommen werden, mag ich doch bezweifeln. Einige ja, aber erstmal abwarten ob dadurch überhaupt was zu sehen/spüren ist. Eye-Candy ist zwar nett, aber wenn es auf allem und jedem ist, och nö.

Nicht zu vergessen: Nvidia hat so einige Male doch überrascht. Sei es mit "Wundertreibern" zu GF3 Zeiten oder zB mit dem G80. Ebenso ATI mit R300. Der jetzt so von einigen hochgelobte 0.1 Vorteil könnte sich vielleicht doch noch mit Erscheinen von SP1 in einen Gleichstand ändern. Vielleicht, vielleicht auch nicht wobei es nach nicht aussieht. Selbst wenn nicht, der kleinste gemeinsame Nenner zählt, Patches nicht mitgezählt.

Was bleibt sind Videofeatures, Stromverbrauch im Leerlauf und Lautstärke. Zu Videofeatures können andere mehr sagen da mich das nicht wirklich interessiert. Läuft ein Film bei mir, ist es mir persönlich egal ob die CPU oder die GPU das macht. Mag für einige/viele ein Grund sein, zu ATI zu tendieren.

Stromverbauch im Idle ist vielleicht für einige ein Thema. Für die, die ihren Strom selbst zahlen müssen oder ein grünes Gewissen beruhigen wollen. Es kann ja bei dem einen oder anderen durchaus ein paar Euro im Jahr ausmachen aber ehrlich gesagt, umbringen wird es mit Sicherheit keinen. Ein Rechner muss ja auch nicht 24/7 laufen und andere Bereiche im Haushalt dürften da wesentlich mehr ins Kontor hauen. Im Zweifelsfall gibt es für das "normale" Arbyten immer noch die Option einen sehr günstigen, leisen und sparsamen Zweitrechner aufzubauen, sei es durch "Altmetallverwertung" oder günstig erstandene Hardware.

Ja natürlich ist der Verbrauch unter Last nicht unwichtig und ich denke wir alle wünschen uns da deutlich niedrigere Werte, allerdings, wer Leistung will, muss dafür auch bezahlen. Von nichts kommt nichts. Wem das ganze zu heiss wird, kauft es eben nicht und muss sich eben mit weniger Leistung zufrieden geben, ja und?

Die Kühlung ist dabei eigentlich auch Wurscht; Hauptsache, es wird leise gekühlt. Ob nun 20 oder 40 Watt im Idle lautlos weggekühlt werden, wayne? DualSlot-Lüfter sind zwar schön, solange sie aber Staubsaugercharakter haben, nein danke. Unter Vollast nehmen sich beide nicht so viel das es sogar beim Netzteil eine Leistungsklasse niedriger sein könnte. Die meisten gehen auf Nummer sicher und wählen eine Nummer größer wobei hier natürlich die Qualitätsunterschiede bei NTs auf jeden Fall eine Rolle spielen.

Mein Senf

Gast
2008-01-17, 07:43:51
Und wieso sollte das so sein? Man müsste wohl die Spannung senken um nicht >200W zu verbrauchen, aber 75% Takt sollten schon drin sein.

Der Stromverbauch sollte linear mit der Anzahl der Funktionseinheiten skalieren. Ein doppelter RV670 mit den selben Taktraten würde demzufolge sicher nicht mehr als ein R600 benötigen.

Gast
2008-01-17, 07:46:19
Jetzt mal Butter bei die Fische: ATi braucht definitiv keinen doppelten RV670, sondern einen Grafikchip, der entweder 32 "volle" Textureneinheiten hat (Anzahl der TAs gleich Anzahl der TF) oder noch ein "TMU-SIMD".

Natürlich bräuchte man einen doppelten RV670. Die Shaderpower ist zwar gut, aber auch nicht überragend. Und die ALU-Last steigt ohnehin kontinuierlich.


Der G92 ist riesig. Ist er auch so viel teurer als der RV670, damit wir darüber diskutieren müssen?

Das Die ist gute 60% größer, aber wann ist es denn deiner Meinung nach relevant?

Gast
2008-01-17, 07:47:54
Die Recheneinheiten von nVidia laufen mit 1500Mhz - nichts mit breiterer Architektur.

Mehr Transistoren.

seahawk
2008-01-17, 08:06:02
Hier wird RV670 imho zu unrecht gebasht.

Fakten :

- sehr niedriger Idle-Verbrauch, gut unter 3D
- gute Stockkühlung
- DX10.1 und damit für Entwickler ein weiterer Schritt
- guter Preis
- bessere Verfügbarkeit
- gute Performance

Eigentlich müßte RV670 der dominante Chip im Markt sein und nicht G92.

:o)Uhummel
2008-01-17, 08:36:30
Thx@all für Eure Beiträge. Hab ich mal wieder für etwas Wirbel gesorgt und einiges gelernt ;o) Die R6xx-Serie ist bestimmt nicht schlecht, aber einige technische Details wie die TMU/TAUs gehen mir einfach nicht runter und ob DX10.1 viel bringt wage ich zu bezweifeln! (Es gibt ja kaum Games, die D3D10 anständig nutzen und wenn,dann braucht man ne High-End-Karte um einigerm.flüssig zocken zu können -Ich sag nur Crysis!)

Ich kaufe Grakas nach der P/L und da ist NV z.Zt. in fast jedem Segment überlegen!! P.s. Außerdem hat das mit der kleineren Fertigungsgröße nicht nur Vorteile.-U.a. Komplexer zu fertigen, Problem mit Leckströmen usw ... Das ATI durch die kleinere Fertigungsgröße finanzielle Vorteile hat glaube ich nicht.-Wenn dann sind diese wahrschl. sehr gering. Ich persönlich bin von der R6xx-Serie entäuscht!

Gruß@all ;o)Uhum

Stray_bullet
2008-01-17, 10:35:07
Schon mal dran gedacht, das Ati bei der Entwicklung ganz andere Ziele im Auge hatte?
SG


Was für "andere Dinge"? Es geht darum in den Spielen die beste Leistung zu bieten, sonst nichts.

Das Design verbrät für seine arithemtische Leistung (die in der Praxis nichtmal höher ist als von einem vergleichbaren nV-Chip) einfach viel zu viel Transistoren.

Welche Anwendungen profitieren eigentlich von der "arithmetische Leistung"?
CAD/CAE vielleicht? -> http://www.3dprofessor.org/Reviews%20Folder%20Pages/FireGLV8650/FireGLV8650P12a.htm

Gast
2008-01-17, 10:59:54
Thx@all für Eure Beiträge. Hab ich mal wieder für etwas Wirbel gesorgt und einiges gelernt ;o) Die R6xx-Serie ist bestimmt nicht schlecht, aber einige technische Details wie die TMU/TAUs gehen mir einfach nicht runter und ob DX10.1 viel bringt wage ich zu bezweifeln! (Es gibt ja kaum Games, die D3D10 anständig nutzen und wenn,dann braucht man ne High-End-Karte um einigerm.flüssig zocken zu können -Ich sag nur Crysis!)

...
Gruß@all ;o)Uhum

GPU- Architekturen sind heutzutage zu komplex als dass der Großteil aller hier im Forum aktiver Poster auch nur ansatzweise den Einfluß bestimmter Designmerkmale einschätzen könnten.

Du kannst also gerne deine Einschätzung zum TMU/TAU Verhältnis abgeben, die Beurteilung, ob das wirklich von entscheidender Relevanz ist, traue ich Dir nicht zu.

Gast
2008-01-17, 11:34:52
GPU- Architekturen sind heutzutage zu komplex als dass der Großteil aller hier im Forum aktiver Poster auch nur ansatzweise den Einfluß bestimmter Designmerkmale einschätzen könnten.

Du kannst also gerne deine Einschätzung zum TMU/TAU Verhältnis abgeben, die Beurteilung, ob das wirklich von entscheidender Relevanz ist, traue ich Dir nicht zu.

Deshalb habe ich ja auch gefragt, was die anderen darüber denken. Lies mal meinen 1. bzw. den 2. Thread.

Gast
2008-01-17, 11:35:45
[QUOTE=Rainman2k;6199005
war von ATi das feinste was es gab, auch wenn sien strommonster war.[/QUOTE]

also ein NV-hasser ;)

es gab nicht einen einzigen rationalen grund der damals für den R600 gesprochen hat, einzig ein "ATI-Fan" konnte den kaufen.

Gast
2008-01-17, 11:36:59
Welche Anwendungen profitieren eigentlich von der "arithmetische Leistung"?
CAD/CAE vielleicht? -> http://www.3dprofessor.org/Reviews%20Folder%20Pages/FireGLV8650/FireGLV8650P12a.htm

nein, CAD-programme brauchen so wenig arithmetische leistung, dass sie sogar im reinen software-betrieb vernünftig bedienbar bleiben.

:o)Uhummel
2008-01-17, 11:37:38
Deshalb habe ich ja auch gefragt, was die Anderen darüber denken. Lies mal meinen 1. bzw. den 2. Thread.

Nochmal thx@all. P.s. Sorry, hab gar nicht gemerkt, daß ich nicht mehr angemeldet war. Das oben geschriebene war natl. von mir. Gruß ;o)Uhum

Nochmal für Dich lieber Gast den zweiten: Thx@all für Eure Beiträge. Hab ich mal wieder für etwas Wirbel gesorgt und einiges gelernt ;o) Die R6xx-Serie ist bestimmt nicht schlecht, aber einige technische Details wie die TMU/TAUs gehen mir einfach nicht runter und ob DX10.1 viel bringt wage ich zu bezweifeln! (Es gibt ja kaum Games, die D3D10 anständig nutzen und wenn,dann braucht man ne High-End-Karte um einigerm.flüssig zocken zu können -Ich sag nur Crysis!)

Ich kaufe Grakas nach der P/L und da ist NV z.Zt. in fast jedem Segment überlegen!! P.s. Außerdem hat das mit der kleineren Fertigungsgröße nicht nur Vorteile.-U.a. Komplexer zu fertigen, Problem mit Leckströmen usw ... Das ATI durch die kleinere Fertigungsgröße finanzielle Vorteile hat glaube ich nicht.-Wenn dann sind diese wahrschl. sehr gering. Ich persönlich bin von der R6xx-Serie entäuscht!

Gruß@all ;o)Uhum

Gast
2008-01-17, 11:38:09
Hier wird RV670 imho zu unrecht gebasht.


wo wird der RV670 gebasht?

ich sehe überall nur aussagen, die ihn als brauchbare, wenn auch nicht gerade herausragende alternative darstellen.

Gast
2008-01-17, 11:39:51
Der jetzt so von einigen hochgelobte 0.1 Vorteil könnte sich vielleicht doch noch mit Erscheinen von SP1 in einen Gleichstand ändern.

wo wird den der 0.1er-vorteil hochgelobt? (außer in ATI-marketingfolien)

ich sehe eigentlich nur meldungen, die den unterschied zwischen DX10 und 10.1 als so klein darstellen, dass er zu vernachlässigen ist.

Labberlippe
2008-01-17, 12:08:37
Hi

Alle Jahre wieder.

Richtig. ATI ist eh fürn Arsch.
Die neuen Karten sind ja arschlahm.
Die Filterqualität ist derart schlecht, das man sofort blind wird.
Durch deren Treiber crasht ein system sofort.
HD-DVD braucht eh kein Schwein durch die neuen CPUs.
Der Stromverbrauch kennt keine Grenzen.

Anders gesagt AMD macht mit ATi 2008 pleite.

Was fällt auch dennen ein keine vernünftige High End Karte zu erstellen, damit die Gamer Community zufrieden ist.

Gruss Labberlippe

Zockerfrettchen
2008-01-17, 13:47:55
Ich hoffe das meinst du ironisch?

Gast
2008-01-17, 16:55:22
Das ATI durch die kleinere Fertigungsgröße finanzielle Vorteile hat glaube ich nicht.-Wenn dann sind diese wahrschl. sehr gering.
weniger Flaeche bedeutet, mehr Chips passen auf ein Silizium-Wafer - kein unwesentlicher Kostenfaktor der Chipherstellung ...

Coda
2008-01-17, 17:10:34
Zudem wird mit einem kleinere Die auch die Ausbeute deutlich besser.

StefanV
2008-01-17, 17:12:48
Ich hoffe das meinst du ironisch?
Nein, das war purer Sarkasmus ;)

@Labberlippe
Schön dich mal wieder öfter zu sehen, weiter so =)

Ansonsten heißts wohl abwarten und Tee rauchen, interessant ist die HD3870x2 durchaus, allein schon wegen der zusätzlichen AA Modi

AnarchX
2008-01-17, 17:18:23
Ansonsten heißts wohl abwarten und Tee rauchen, interessant ist die HD3870x2 durchaus, allein schon wegen der zusätzlichen AA Modi
Weil man ja auch 16xRGMSAA (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/3/#abschnitt_16x_crossfire_aa)benötigt...

Gast
2008-01-17, 17:20:43
Zudem wird mit einem kleinere Die auch die Ausbeute deutlich besser.

Nein, das gilt nur, wenn der Wafer selbst eine erhebliche Anzahl an Fehlern aufweist, was aber selten der Fall ist.

Labberlippe
2008-01-17, 17:23:23
Nein, das war purer Sarkasmus ;)

@Labberlippe
Schön dich mal wieder öfter zu sehen, weiter so =)

Ansonsten heißts wohl abwarten und Tee rauchen, interessant ist die HD3870x2 durchaus, allein schon wegen der zusätzlichen AA Modi


Hi

Seas :wave2:

Ich würde auch mal sagen abwarten bis die x2 offiziel da ist und die ersten benches gibt.

Was einige hier wieder mal für Argumentationen geben, hält man ja fast nicht aus.

So mies ist wie "getan" wird ist die 38xx sicher nicht.

Klar hat ATi mit der Vorgänger Serie einen Bock geschossen, wurde aber mit der neuen "Generation" ja wieder fast korrigiert.

Ich sehe die neuen Karten als sehr empfehlenswert an.

gruss Labberlippe

Gast
2008-01-17, 17:35:14
Was einige hier wieder mal für Argumentationen geben, hält man ja fast nicht aus.
So mies ist wie "getan" wird ist die 38xx sicher nicht.


wo wird die 38xx mies gemacht?

fast alle beschreiben die serie als eine brauchbare midrange-alternative mit gutem preis-leistungsverhältnis.

AGENT_SMITH
2008-01-17, 18:48:27
Nochmal thx@all. P.s. Sorry, hab gar nicht gemerkt, daß ich nicht mehr angemeldet war. Das oben geschriebene war natl. von mir. Gruß ;o)Uhum

(Es gibt ja kaum Games, die D3D10 anständig nutzen und wenn,dann braucht man ne High-End-Karte um einigerm.flüssig zocken zu können -Ich sag nur Crysis!)


Gruß@all ;o)Uhum

hmm, wie gut das ich auf solche Aussagen nie gehört habe. Komischerweise kann ich Crysis mit meinem System und der 3850 er auf 1600x1200 HIGH (all) flüssig spielen kann, und das ohne rückelchen egal ob in single oder online Modus.

:o)Uhummel
2008-01-18, 08:28:29
hmm, wie gut das ich auf solche Aussagen nie gehört habe. Komischerweise kann ich Crysis mit meinem System und der 3850 er auf 1600x1200 HIGH (all) flüssig spielen kann, und das ohne rückelchen egal ob in single oder online Modus.

Dann biste aber mit sehr niedrigen Frameraten zufrieden. Wobei 25 Fps ja eigtl. für das menschl. Auge ausreichen. Das mit der High-End-Karte war etwas übertrieben. Ich meinte eigtl. alles ab 3850/8800xx aufwärts. Außerdem: Hast Du Vista? Nur dann kannst Du überhaupt den höchsten Detailgrad wählen?-Das geht ja nur unter Dx10 und da braucht man min. 38xx/8800xx um eingerm. vernünftig zocken zu k.. Das habe ich damit gemeint. Der D3D9-Modus läuft auch auf schwächeren bzw. älteren Grakas noch zufiredenstellend. Gruß ;o)Uhum

Eggcake
2008-01-18, 11:57:28
Wobei 25 Fps ja eigtl. für das menschl. Auge ausreichen.

Stimmt soviel ich weiss nicht ganz. Gibt da ne Seite im Internet, welche das Thema behandelt. Leider URL vergessen.

Auf jeden Fall kann jede Person die ich kenne in Games einen Unterschied zwischen 30 und 60 FPS feststellen....

Gast
2008-01-18, 12:31:07
Auf jeden Fall kann jede Person die ich kenne in Games einen Unterschied zwischen 30 und 60 FPS feststellen....

bei crysis und reinem beobachten bezweifle ich das stark, das motion-blur dürfte die unterschiede überdecken.

syronth
2008-01-18, 13:02:27
Dann biste aber mit sehr niedrigen Frameraten zufrieden. Wobei 25 Fps ja eigtl. für das menschl. Auge ausreichen.

Das wurde doch schon dutzende Male allein auf 3DC diskutiert, wobei dann auch sehr oft 25 Hz und 25 FPS durcheinander geworfen wurden. Ab 20 bis 25 FPS (= Untergrenze) nimmt man eine durchgängige Bewegung wahr, das reicht für's Kino gemeinhin, 'dank' MB (Motionblur).
Ohne MB kann jeder ein Bildruckeln wahrnehmen und ist auch jeder in der Lage, noch einen Unterschied zwischen 30 und 60 FPS zu erkennen. Das gilt btw auch für das Kino - zu kurze Verschlusszeiten bei der Kamera und man kann bei schnellen Schwenks auf der Leinwand ein Bildruckeln wahrnehmen.

Ob es aber einen stört oder nicht, hängt von der persönlichen Präferenz ab und auch, ob man künstliches MB als Kompensierung mag oder nicht. Ich tippe darauf, dass das schlicht damit zusammenhängt, was man sonst mit welchen FPS spielt. Ist man an hohe FPS stark gewöhnt, erkennt man auch trotz MB die niedrigen FPS in Crysis. Ich kann das selbst nachempfinden, wenn ich vorher eine Runde CoD4 o.ä. spiele und gleich darauf Crysis, wobei ich mich allerdings nach ein paar Minuten umgewöhnt habe.

Monitorfrequenzen haben damit nichts zu tun, die sollte nach Möglichkeit über 75 Hz liegen, nur bevor jemand das einwerfen sollte. Das sind zwei paar Schuhe.

[/summarisation]

Liszca
2008-01-18, 13:47:27
Triple SLI schafft den ATI Wert sogar mit 8xAA zusätzlich :cool:

gut das du das erwähnst, hätte sonst vergessen was ich mir nie leisten werde!;D

Eggcake
2008-01-18, 14:37:28
bei crysis und reinem beobachten bezweifle ich das stark, das motion-blur dürfte die unterschiede überdecken.

Jo klar, wollte nur darauf hinweisen, dass 25 FPS halt nicht gleich 25 FPS sind.
Viele nörgeln, dass Motion Blur Leistung kostet - doch sehen eben nicht, dass es zwar paar FPS weniger sind, jedoch viel flüssiger rüberkommt. Ich spiele Crysis auf konstanten 30 FPS ("spezielle" Situationen mal aussen vorgelassen wie Flugzeugträger oder ähnliches), mit Motion Blur. Und trotzdem kommts mir nicht flüssig vor.

Liszca
2008-01-18, 19:43:56
Jo klar, wollte nur darauf hinweisen, dass 25 FPS halt nicht gleich 25 FPS sind.
Viele nörgeln, dass Motion Blur Leistung kostet - doch sehen eben nicht, dass es zwar paar FPS weniger sind, jedoch viel flüssiger rüberkommt. Ich spiele Crysis auf konstanten 30 FPS ("spezielle" Situationen mal aussen vorgelassen wie Flugzeugträger oder ähnliches), mit Motion Blur. Und trotzdem kommts mir nicht flüssig vor.

motion blur macht die wenigen bilder noch weniger, und das ganze wird für mich noch schlimmer zu spielen, auch schon mit der radeon 2900 pro die ich mal hatte.

AGENT_SMITH
2008-01-19, 02:29:29
Dann biste aber mit sehr niedrigen Frameraten zufrieden. Wobei 25 Fps ja eigtl. für das menschl. Auge ausreichen. Das mit der High-End-Karte war etwas übertrieben. Ich meinte eigtl. alles ab 3850/8800xx aufwärts. Außerdem: Hast Du Vista? Nur dann kannst Du überhaupt den höchsten Detailgrad wählen?-Das geht ja nur unter Dx10 und da braucht man min. 38xx/8800xx um eingerm. vernünftig zocken zu k.. Das habe ich damit gemeint. Der D3D9-Modus läuft auch auf schwächeren bzw. älteren Grakas noch zufiredenstellend. Gruß ;o)Uhum

Ich use kein Vista und komischer Weise läuft bei mir Crysis wie gesagt mit 35-40 FPS nicht auf Very High, sondern auf HIGH das genügt aber auch mit 1600x1200 Auflüsung. Es giebt User die ebenfals die gleiche graka wie ich benutzen, nur das sie entweder AM2 6000 oder AM2 6400 er haben, und bei denen läuft Crysis unter XP mit bis zur 45 FPS. Dabei mus ich aber auch noch sagen, kein AA zur gange. Glaube mir were es der Fall gewesen das ich mit dieser graka Crysis bei der Auflüsung nicht zocken kann, hätte ich noch die möglichkeit gehabt 70€ drauf zu zahlen, und auf eine 8800 GT umzutauschen. Vista muss noch etwas reifen, da mit ich es mir holle, da bleibe ich lieber noch bei XP und DX9.

MFG

P.S. wenn die CPU und die Graka nicht übertaktet sind läuft Crysis mit 26-27 FPS.

Gast
2008-01-22, 11:06:22
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1200984348

vinacis_vivids
2008-01-22, 14:42:42
Hier ein review der 3870x2
http://www.pconline.com.cn/diy/graphics/reviews/0801/1210234.html