PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23

S940@Gast
2009-08-24, 18:10:15
Und natürlich sieht es nach fake aus.
Das muss nichts heißen, AMD Folien sehen oft nach fake aus ;-)

Coda
2009-08-24, 18:44:09
Ein Cluster = 4TMUs/16 vec5 ALUs.
Ein Cluster hatte bei ATI schon 8, 12 oder 16 ALUs + 1 Quad-TMU.

Mehr als 16 ALUs halte ich aber wegen der Branch-Granularität für eher unwahrscheinlich.

StefanV
2009-08-24, 19:23:37
System Requirements for Radeon HD 5870
http://vr-zone.com/articles/suggested-system-requirements-for-radeon-hd-5870/7470.html?doc=7470
Schaut doch schon mal nicht soo schlecht aus, ist zumindest mal das gleiche wie bei HD4870/90 und den GTXen.

Gut, immer noch (deutlich?) über 150W, aber weit ab von den neuerdings spezifizierten 300W...

derguru
2009-08-24, 19:38:28
davon konnte man wohl ausgehen wenn eine 4770 ca.80w verbraucht.

Knuddelbearli
2009-08-24, 19:45:56
denke in games wird der verbrauch eher geringer werden da mit GPGPU-Programmierung unter DX11 viel öfters solche Fälle wie bei Furemark entstehen wo man weit über jede Spezifikation schießt.

Schlammsau
2009-08-24, 19:49:00
denke in games wird der verbrauch eher geringer werden da mit GPGPU-Programmierung unter DX11 viel öfters solche Fälle wie bei Furemark entstehen wo man weit über jede Spezifikation schießt.

Glaskugel?

horn 12
2009-08-24, 20:14:31
Und wiederum ein Neues, ganz anderes Datum, diesmal jedoch auch ein "echter" Hardlauch mit genügend Verfügbarkeit.
Also in knapp einem Monat!

http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/641-hd5800-serie-offiziell-am-22-september

Alexander
2009-08-24, 20:50:13
Entschuldigt bitte meine Lesefaulheit. Die neuen Modelle, die im Oktober rauskommen werden..... reden wir hier über eine Karte mit der Leistung einer 4890 aber deutlich weniger Stromverbrauch und ca 200€? Oder kommen erstmal nur Modelle mit extrem viel Leistung, viel Stromverbraucht und 300€ oder mehr?

Ich frag nur, weil ich meine neue 4870 Vapor-X wieder zurück schicken muss, da sie sich nicht einbauen lässt, während mir die 4890 Vapor-X zu laut sind, sich aber einbauen ließe. Die 4870 hat einen zu fetten Kühler auf der Oberseite. :mad:

Knuddelbearli
2009-08-24, 20:51:47
beides vermutlich

LovesuckZ
2009-08-24, 20:54:28
Entschuldigt bitte meine Lesefaulheit. Die neuen Modelle, die im Oktober rauskommen werden..... reden wir hier über eine Karte mit der Leistung einer 4890 aber deutlich weniger Stromverbrauch und ca 200€? Oder kommen erstmal nur Modelle mit extrem viel Leistung, viel Stromverbraucht und 300€ oder mehr?


Entweder schneller und gleicher Stromverbrauch (199€) oder leicht langsamer und stromsparender (99€).

nagus
2009-08-24, 20:58:57
Entschuldigt bitte meine Lesefaulheit. Die neuen Modelle, die im Oktober rauskommen werden..... reden wir hier über eine Karte mit der Leistung einer 4890 aber deutlich weniger Stromverbrauch und ca 200€? Oder kommen erstmal nur Modelle mit extrem viel Leistung, viel Stromverbraucht und 300€ oder mehr?

Ich frag nur, weil ich meine neue 4870 Vapor-X wieder zurück schicken muss, da sie sich nicht einbauen lässt, während mir die 4890 Vapor-X zu laut sind, sich aber einbauen ließe. Die 4870 hat einen zu fetten Kühler auf der Oberseite. :mad:

1. kommen die im september und nicht im oktober
2. beides, da AMD eine vollständige dx11 familie in 40nm vorstellen will (also von lowend bis highend)
3. die vapor-x sind zu LAUT?! da stimmt aber irgendwas nicht weil die eigentlich als ziemlich leise gelten...

Gast
2009-08-24, 21:03:45
Massenverfügbarkeit erst Anfang Oktober, in Europa/USA. Asien ist wieder 2 Wochen voraus.

Alexander
2009-08-24, 21:05:29
1. kommen die im september und nicht im oktober
2. beides, da AMD eine vollständige dx11 familie in 40nm vorstellen will (also von lowend bis highend)
3. die vapor-x sind zu LAUT?! da stimmt aber irgendwas nicht weil die eigentlich als ziemlich leise gelten...
1. wäre super, aber vielleicht wie so oft erstmal auf dem Papier.....
2. cool
3. Die 4870 Vapor-X ist leise, die 4890 leider nicht mehr wirklich (für meine Begriffe).

Entweder schneller und gleicher Stromverbrauch (199€) oder leicht langsamer und stromsparender (99€).
Meinst du allen ernstes, dass eine etwas langsamere Karte, also auf dem Niveau einer 4870 für 100€ zu haben sein wird? Dieses Jahr? :eek:
Kann ich echt nicht glauben. Würde aber warten, wenn der Preis in etwa stimmen sollte.

Gast
2009-08-24, 21:06:07
In Taiwan,china und japan werden die Karten ja auch gefertigt.Kein wunder das sie da früher da sind.

Tomahawk
2009-08-24, 21:13:12
3. Die 4870 Vapor-X ist leise, die 4890 leider nicht mehr wirklich (für meine Begriffe).

Für deine Begriffe? Inwiefern ist dir deine zu laut?

Die c't hat idle 0,3 und Last 2,3 gemessen. da muss dein exemplar defekt sein.

Edit: sone natürlich

Palpatin
2009-08-24, 21:16:15
Das die neuen Modell ab Semptember verfügbar sind ist möglich, an leise alternativ Kühlermodelle alla Vapor und Toxic schon im Semptember glaub ich nicht, denk das steht in den Sternen ab wann die zu haben sind.
Die 4890 Toxic dürfte unter last noch nen Tick leiser sein als die Vapor X.

Alexander
2009-08-24, 21:22:50
Für deine Begriffe? Inwiefern ist dir deine zu laut?

Die c't hat idle 0,3 und Last 2,3 gemessen. da muss dein exemplar defekt sein.

Edit: sone natürlich
Ich habe die 4890 vapor-x gar nicht hier gehabt, da sie laut Raff und laut Computerbase deutlich lauter ist als die 4870 vapor-x. Zumindest unter last.

Armaq
2009-08-24, 21:51:21
Was erzählst du da? Wie kann die 4870 nicht passen, die 4890 aber schon? Die VaporX sind baugleich. Du meinst Atomic und/oder Toxic.

Also die 4870 ist unter OCCT auch nicht mehr leise.

Alexander
2009-08-24, 22:12:32
Was erzählst du da? Wie kann die 4870 nicht passen, die 4890 aber schon? Die VaporX sind baugleich.

Also die 4870 ist unter OCCT auch nicht mehr leise.
Falsch. Sie sind nicht baugleich.

http://www.computerbase.de/bildstrecke/25720/13/
Diesen Kühlkörper hat die 4890 VaporX NICHT mehr. Außer man kauft sie mit 2GB.
http://www.computerbase.de/bildstrecke/25720/3/

Und er kollidiert mit meinen Rambänken.

Was bedeutet OCCT?

reunion
2009-08-24, 22:13:15
According to Donanimhaber.com, ATi Radeon HD 5870 (Code Name: Cypress XT) will be cheaper than GeForce GTX 285 and will come with $299. And also same source underlines that ATi R800 (Code Name: Hemlock - 2x RV870) will launch in Mid-Nov.

Dass die 5870 $299 kosten wird war so gut wie klar, bei der 5850 werden wohl auch wie gehabt $199 angepeilt.

http://www.donanimhaber.com/ATi_HD_5870_GTX_285ten_daha_ucuz_olacak-15397.htm
http://vr-zone.com/forums/474375/ati-radeon-hd-5870-will-be-cheaper-than-geforce-gtx-285.html

Armaq
2009-08-24, 22:16:45
Falsch. Sie sind nicht baugleich.

http://www.computerbase.de/bildstrecke/25720/13/
Diesen Kühlkörper hat die 4890 VaporX NICHT mehr. Außer man kauft sie mit 2GB.
http://www.computerbase.de/bildstrecke/25720/3/

Und er kollidiert mit meinen Rambänken.

Was bedeutet OCCT?
Was kollidiert womit? Darf ich davon mal ein Foto sehen. Ich hab 3 Sapphire verbaut und das die Rückseite mit einer Rambank kollidieren soll, kann ich mir gerade zu genau 0% vorstellen.

http://www.computerbase.de/bildstrecke/25720/1/ Diese Karte gibt es mit Passivkühler hinten in der 2GB-Variante für die 4870. Ohne P-Kühler ist es die 1 GB Variante und die ist käuflich (meine ist 2 Wochen alt).

LovesuckZ
2009-08-24, 22:17:39
Meinst du allen ernstes, dass eine etwas langsamere Karte, also auf dem Niveau einer 4870 für 100€ zu haben sein wird? Dieses Jahr? :eek:
Kann ich echt nicht glauben. Würde aber warten, wenn der Preis in etwa stimmen sollte.

Wenn AMD die komplette Palette veröffentlich - ja. Anders würde es auch mit der Abstufung nicht funktionieren.

Gast
2009-08-24, 22:21:34
Meinst du allen ernstes, dass eine etwas langsamere Karte, also auf dem Niveau einer 4870 für 100€ zu haben sein wird? Dieses Jahr? :eek:
Die 4870er gibts bereits für knapp 100 Euro, da wäre das überhaupt nicht verwunderlich.

ciao

Alex

Alexander
2009-08-24, 22:24:53
@Armaq
Sag mal rede ich chinesisch? Der fette schwarze Kühler, der nur auf einem der beiden Fotos zu sehen ist, wird bei der 4870 beim 1GB Modell verbaut. Bei der 4890 jedoch nur noch beim 2 GB Modell.

Und du wirst dir auch ohne Foto sicherlich vorstellen können, wie die Graka in Relation zu den Rambänken positioniert wird. Es fehlen 2 verdammte Millimeter. Die weisse Klammer, die man zumacht, um den Speicher zu fixieren ist im Weg.

Armaq
2009-08-24, 22:29:06
@Armaq
Sag mal rede ich chinesisch? Der fette schwarze Kühler, der nur auf einem der beiden Fotos zu sehen ist, wird bei der 4870 beim 1GB Modell verbaut. Bei der 4890 jedoch nur noch beim 2 GB Modell.

Und du wirst dir auch ohne Foto sicherlich vorstellen können, wie die Graka in Relation zu den Rambänken positioniert wird. Es fehlen 2 verdammte Millimeter. Die weisse Klammer, die man zumacht, um den Speicher zu fixieren ist im Weg.
Ich besitze die 4870 1 GB VaporX und habe keine schwarzen Kühler.

deekey777
2009-08-24, 22:29:15
Was hat das mit dem Thema zu tun? Regelt das doch per PN.

AnarchX
2009-08-24, 22:29:42
Dass die 5870 $299 kosten wird war so gut wie klar, bei der 5850 werden wohl auch wie gehabt $199 angepeilt.

http://www.donanimhaber.com/ATi_HD_5870_GTX_285ten_daha_ucuz_olacak-15397.htm
http://vr-zone.com/forums/474375/ati-radeon-hd-5870-will-be-cheaper-than-geforce-gtx-285.html
Donanimhaber schreibt jedoch bei der 5850 $249:
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.donanimhaber.com%2FATi_HD_5870_GTX_285ten_daha_ucuz _olacak-15397.htm&sl=tr&tl=en&hl=de&ie=UTF-8
... was übrigens auch schon mal Chiphell als Untergrenze für die RV870-Karten genannt wurde.

Da fällt der Unterschied zwischen 5850 und 5870 wohl möglich diesmal geringer aus und eine 5870 2GiB (inkl. OC?) dürfte es wohl dann für $399 geben, wie es Chiphell auch schrieb.

Die 5670?(Juniper XT) würde ich bei $149/179 sehen.

MR2
2009-08-24, 22:42:30
Wenn dann ist das wohl nur der Einführungspreis, bei den ersten wenigen Karten.. Dollarpreise sind hierzulande ja wohl leider Europreise und 399Euro für die 2GB Version scheint mir etwas zu hoch. OC versionen wird es wohl erst viel später geben.

horn 12
2009-08-24, 22:44:50
Wäre echt möglich, Erfahrung dafür sammelte man mit dem RV790 und dem hohen OC Potential.
Gut möglich dass eine HD5850 ca. GTX 285 Performance hat, eine HD5870 gute 20% darüber und eine 2GB 5870 975/1250 ? in etwa dann GTX 295 Performance,- ---> wohl keine schlecht Wahl.
Was düften denn die angegebenen 299 bzw. 399 Dollar welche Euro Preise, besser gesagt Endkundenpreise schlussendlich sein... ?

AnarchX
2009-08-24, 22:45:44
Wenn dann ist das wohl nur der Einführungspreis. Dollarpreise sind hierzulande ja wohl leider Europreise
Das ist bei Grafikkarten schon lange nicht mehr der Fall, so waren z.B. 4850 und 4870 sehr zeitig nach dem Launch für ~150€ bzw. ~220€ verfügbar.

derguru
2009-08-24, 22:54:46
ich glaub der meint die deppensteuer von ca. 50 euro die die händler gerne zum start einfordern.mit ca. 280 euro sollte man schon rechnen für eine 299$ karte,jedenfalls zum start.

kann es sein das dieser paperlaunch deswegen zustande kommt weil man somit verhindern will das die händler die karten schon vor der nda verkaufen,wie es schon bei der 4850 vor einem jahr war?

MR2
2009-08-24, 23:04:18
..., so waren z.B. 4850 und 4870 sehr zeitig nach dem Launch für ~150€ bzw. ~220€ verfügbar.

Stimmt, waren relativ günstig.Ich kannte nur nicht mehr die angegebenen DollarPreise der 4870. Ins Klo hab ich wohl mit der 8800GT gegriffen, für 259Euro;-) 50Euro Deppensteuer kommen da schon hin...Wenn die angegebene Leistung und der Preis der xt stimmt dann schlag ich wohl spätestens im Oktober zu. Hoffentlich hat das Spulenpfieben mit der HD5xxxer Serie ein Ende. Das nervt ziemlich!

Was ich eben noch nicht so richtig glauben kann sind die 140Gb Speicherbandbreite. Finde das arg wenig. Irgendwas ist da faul!

horn 12
2009-08-25, 00:11:49
Nun endweder ist der RV870 (Crypress HD5870 1GB) wirklich nicht viel schneller als eine GTX 285 OC
ODER ABER
AMD-ATI will den Markt um alles in der Welt sofort dominieren bevor NV mit ihrem wahrscheinlich doch recht ansehlichen aber recht teuren Flagschiff antritt und zu diesem hat man als "Kleine Antwort" die HD5870 X² so Mitte November parat, wenn da NV bereits liefern kann ?! Wer weiß ?

Und eine GTX 395 wird es so schnell nicht geben... Vor Anfang 2010 rechne ich schwer damit, da kann schon langsam der RV870/800 Refresh vor der Türe stehen.

Gast
2009-08-25, 00:56:49
Und eine GTX 395 wird es so schnell nicht geben... Vor Anfang 2010 rechne ich schwer damit, da kann schon langsam der RV870/800 Refresh vor der Türe stehen.

Warum sollte Nvidia keine Dualchip Variante zum Launch bringen? Spricht nichts aber auch garnichts dagegen.

Nightspider
2009-08-25, 02:21:59
Warum sollte Nvidia keine Dualchip Variante zum Launch bringen? Spricht nichts aber auch garnichts dagegen.

Zu viel Hitze auf zu kleinem Raum ?

Eine DualKarte auf GT300 Basis müsste ja schon zwei 8 polige Stromanschlüsse benötigen.

Da bräuchte man schon einen Kühlkörper der deutlich stärker ist als der von der GTX 295-Karte.

Gast
2009-08-25, 02:39:50
Zu viel Hitze auf zu kleinem Raum ?

Eine DualKarte auf GT300 Basis müsste ja schon zwei 8 polige Stromanschlüsse benötigen.

Da bräuchte man schon einen Kühlkörper der deutlich stärker ist als der von der GTX 295-Karte.

Woher willst du wissen wie warm und stromhungrig der GT300 wird? Die GTX295 SinglePCB galt ja als Testlauf dafür, ich bin sicher wenn der Markt es erfordert wird Nvidia eine Dualchip Variante auch zum Launch vorstellen, die wissen schon längst was Ati bringt uns bis November ist ja noch etwas Zeit. ;)

AnarchX
2009-08-25, 09:34:33
OCCT-Offtopic-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=463532
Bitte beim Thema RV8xx/HD5000 bleiben.

nagus
2009-08-25, 09:50:33
was mich ein wenig verwundert ist, dass bei diesen daten die gestern aufgetaucht sind nichts von der busbandbreite steht. könnte das fehlen der angabe "256 bit memory-bus" bedeutetn, dass AMD uns vielleicht doch mit 512 bit überrascht? immerhin sollen ja beide 1GB ram haben und über 2TF. Das könnte für die kleine 5850er 2,1 TF und für die 5870er 2,4 bedeuten (oder noch mehr??) nur hab ich die sorgen, dass die bandbreite dafür zu unterdimensioniert ist...

AnarchX
2009-08-25, 09:56:17
Eine $249 Karte mit 512-Bit GDDR5 mag ich doch eher bezweifeln, zudem spricht hier auch eher der 300-350mm² große Die dagegen.
Von der Perfomance wäre eine Bandbreitenverdopplung sicherlich nett, aber bei Preisen <$300 wird man wohl an dieser Stelle doch sparen müssen und eher den Weg über >2GHz GDDR5 gehen, der in Zukunft auch billiger wird, immerhin gibt es dafür mittlerweile 4 Hersteller. ;)

Gast
2009-08-25, 10:00:57
was mich ein wenig verwundert ist, dass bei diesen daten die gestern aufgetaucht sind nichts von der busbandbreite steht. könnte das fehlen der angabe "256 bit memory-bus" bedeutetn, dass AMD uns vielleicht doch mit 512 bit überrascht? immerhin sollen ja beide 1GB ram haben und über 2TF. Das könnte für die kleine 5850er 2,1 TF und für die 5870er 2,4 bedeuten (oder noch mehr??) nur hab ich die sorgen, dass die bandbreite dafür zu unterdimensioniert ist...

Da fehlt aber nicht nur die Bandbreite, sondern auch alle anderen Angaben, die Rückschlüsse auf die Leistung geben könnten ... !

nagus
2009-08-25, 10:02:40
Da fehlt aber nicht nur die Bandbreite, sondern auch alle anderen Angaben, die Rückschlüsse auf die Leistung geben könnten ... !

ja schon aber ich sag mal die busbreite wenn die gleich geblieben wäre, wäre das ja was relativ "unkritisches".... anders die taktfrequenz oder die shaderanzahl.

reunion
2009-08-25, 10:03:04
was mich ein wenig verwundert ist, dass bei diesen daten die gestern aufgetaucht sind nichts von der busbandbreite steht. könnte das fehlen der angabe "256 bit memory-bus" bedeutetn, dass AMD uns vielleicht doch mit 512 bit überrascht? immerhin sollen ja beide 1GB ram haben und über 2TF. Das könnte für die kleine 5850er 2,1 TF und für die 5870er 2,4 bedeuten (oder noch mehr??) nur hab ich die sorgen, dass die bandbreite dafür zu unterdimensioniert ist...

512-bit wäre schon alleine vom Pinout vermutlich nicht machbar, dazu ist das Die zu klein. Zumal ich auch nicht den großen Bandbreitenschock sehe. Bei der 4870 bringt die doppelte Bandbreite durch GDDR5 vielleicht 10-15%, wenn RV870 doppelt so schnell wird würde es dort ähnlich aussehen beim Vergleich 256bit vs. 512-bit SI. Die Bandbreite vs. Rechenleistung wird sich auf einem ähnlichem Niveau wie bei der 4850 oder 4770 einpendeln, falls es jetzt tatsächlich nur 16 Cluster werden sogar mehr als das.

Schlammsau
2009-08-25, 10:03:28
Eine $249 Karte mit 512-Bit GDDR5 mag ich doch eher bezweifeln, zudem spricht hier auch eher der 300-350mm² große Die dagegen.
Von der Perfomance wäre eine Bandbreitenverdopplung sicherlich nett, aber bei Preisen <$300 wird man wohl an dieser Stelle doch sparen müssen und eher den Weg über >2GHz GDDR5 gehen, der in Zukunft auch billiger wird, immerhin gibt es dafür mittlerweile 4 Hersteller. ;)
Ich glaube nicht, dass der RV870 für ~250$ angeboten wird. Wohl eher für 300-350$, anfangs zumindest.

AnarchX
2009-08-25, 10:04:01
Zu viel Hitze auf zu kleinem Raum ?

Eine DualKarte auf GT300 Basis müsste ja schon zwei 8 polige Stromanschlüsse benötigen.

Da bräuchte man schon einen Kühlkörper der deutlich stärker ist als der von der GTX 295-Karte.

Wenn man Nvidia glaubt, dann soll die größere/größte Single-GT300-SKU sparsamer als die GTX 285 sein, dazu wohl möglich noch ein etwas größerer Unterschied zwischen RV870 und GT300 als zwischen RV770 und GT200 und es sollte eine Dual-GT300, die eine passende Leistung unter 300W bringt, doch möglich sein.

Ich glaube nicht, dass der RV870 für ~250$ angeboten wird. Wohl eher für 300-350$, anfangs zumindest.
Das wird ganz eine Frage der Verfügbarkeit sein, wenn diese nicht stimmt kann natürlich ganz schnell aus $=€ werden und gar noch mehr.

Gast
2009-08-25, 10:08:37
Zu viel Hitze auf zu kleinem Raum ?

Nimmst du an, ohne Fakten zur Hand zu haben.

Die Chips sind 500mm² groß. Das ist schonmal ein guter Wärmeübergang zum Kühler.
Wie viel Spannung und mit welchem Takt die Chips laufen weißt du nicht. Du weißt nichtmal was ein einzelner GT300 auf dem Topmodell braucht.
Hart am Limit müssen sie nicht laufen und sind dennoch ein gutes Stück vor 5870 X2.

Auch siehe GTX 295, man hat den Takt reduziert, Einheiten deaktiviert, eine Dual GTX 285 wäre tatsächlich kaum machbar, aber eine schnellere GTX 295 als es sie gibt wäre kein Problem.
Tatsache ist, das bereits die GTX 295 reicht, um mit der 4870 X2 mitzuspielen. Und jetzt, da sie billiger wird kann sie auch mit 5870 mithalten, solange in den Reviews die nicht vorhandenen D3D11 Spiele mitgetestet werden wird sie gut mitspielen.

Eine DualKarte auf GT300 Basis müsste ja schon zwei 8 polige Stromanschlüsse benötigen.

Weißt du auch nicht.
Kann natürlich sein, bereits die 4870 X2 hätte 2 8pol gebraucht.

Da bräuchte man schon einen Kühlkörper der deutlich stärker ist als der von der GTX 295-Karte. Das ist das einzige, was stimmen könnte.
Aber keine Sorge, die GTX 295 ist ein gutes Stück sparsamer als die 4870 X2, hier ist also noch Luft.

Schlammsau
2009-08-25, 10:21:59
Aber keine Sorge, die GTX 295 ist ein gutes Stück sparsamer als die 4870 X2, hier ist also noch Luft.

Es sind nur 30W (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_zotac_geforce_gtx_295_single-pcb/4/#abschnitt_sonstige_messungen) unter Last! :rolleyes:

Gast
2009-08-25, 10:40:08
Es sind nur 30W (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_zotac_geforce_gtx_295_single-pcb/4/#abschnitt_sonstige_messungen) unter Last! :rolleyes:
Und unter Volllast?

Gast
2009-08-25, 10:40:51
Es sind nur 30W (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_zotac_geforce_gtx_295_single-pcb/4/#abschnitt_sonstige_messungen) unter Last! :rolleyes:
CBs Messungen sind ein Witz.
1. Gesamtsystem wird vermessen
2. Der Flyby ist nicht besonders fordernd.

Hier hat selbst B wieder mal ein anderes Ergebniss, sind 45W. Seltsam das du das nicht verlinkt hast.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/24/#abschnitt_leistungsaufnahme


Jedenfalls ist deutlich, was ich damit asdrücken wollte. Eine GTX 295 hat zur 4870 X2 thermisch gesehen etwas Luft.
Eine GTX 395 ist auch thermischer Sicht überhaupt kein Problem. Die einzige Frage ist, wie schnell sie im Vergleich zu einer einzelnen GTX 380 ausfallen wird.

Gast
2009-08-25, 10:41:38
eine Dual GTX 285 wäre tatsächlich kaum machbar,
Asus Mars?

mboeller
2009-08-25, 10:48:11
ja schon aber ich sag mal die busbreite wenn die gleich geblieben wäre, wäre das ja was relativ "unkritisches".... anders die taktfrequenz oder die shaderanzahl.

Nimm als Vergleichsbasis nicht die 4850 sondern die 4770, dann passt es wieder:

4770: 750 x 640 Shader + 800MHz GDDR5 mit 128bit
= 960GFlops + 51,2GB/sec => 18,75GFlops / GB/sec

5870: 850 x 1600 Shader + 1200MHz GDDR5 mit 256bit
= 2720GFlops + 153,6GB/sec => 17,7GFLops / GB/sec

Und ich bezweifele ein wenig das die 5870 wirklich 1600 Shader bei 850MHz hat. Eher sind es nur 1280 Shader oder eine geringere Frequenz.

Gast
2009-08-25, 10:48:42
Asus Mars?
Stimmt, ganz vergessen.

Mit selektierten Chips wär man sogar dennoch kaum über dem Verbrauch einer GTX 295.

LovesuckZ
2009-08-25, 10:52:18
Und ich bezweifele ein wenig das die 5870 wirklich 1600 Shader bei 850MHz hat. Eher sind es nur 1280 Shader oder eine geringere Frequenz.

1280 wären es nur, wenn die D3D11 Implementierung um die 45mm^2 kosten würde bzw. man weniger Transistoren in die reinen Daten gesteckt hätte.
Bei ca. 310mm^2 sind ist jedoch ein doppelter rv770 mit D3D11 möglich.

nagus
2009-08-25, 10:53:06
Und ich bezweifele ein wenig das die 5870 wirklich 1600 Shader bei 850MHz hat. Eher sind es nur 1280 Shader oder eine geringere Frequenz.

ich bezweifle was du bezweifelst. ;) 1280 shader wäre eine ZIEMLICH magere steigerung. ich glaub eher es sidn 1600 oder sogar mehr. die 800 hat schienen auch zu viel für die rv770... ich hoffe es wird diesmal wieder ähnlich. ich glaube auch, dass amd wieder absichtlich untertreibt. 5870er vs. 285 ist wahrscheinlich genauso untertrieben wir damals die aussage, dass die 4870er gegen die 9800GTX konkurriert (ich beziehe mich auf beyond3d)

aylano
2009-08-25, 11:13:57
Wenn man Nvidia glaubt, dann soll die größere/größte Single-GT300-SKU sparsamer als die GTX 285 sein, dazu wohl möglich noch ein etwas größerer Unterschied zwischen RV870 und GT300 als zwischen RV770 und GT200 und es sollte eine Dual-GT300, die eine passende Leistung unter 300W bringt, doch möglich sein.

GT200b hatte ja einige Respinns, wo sie AFAIK jedesmal stromsparender wurde.
Wieviele Respins hatte schon der GT300?
Immerhin sollen die Dies fast gleich groß werden, aber Relativ hat AFAIK der GT300 ein paar Transistoren.

-----

Mit 640 (RV830) & 1600 (RV870) Shadern, wäre der Abstand wieder das 2,5 Fache wie beim RV730 (320) & RV770 (800 Shadern)

crux2005
2009-08-25, 11:17:01
damals die aussage, dass die 4870er gegen die 9800GTX konkurriert (ich beziehe mich auf beyond3d)

am Anfang der Entwicklung war es so geplant...

LovesuckZ
2009-08-25, 11:20:16
am Anfang der Entwicklung war es so geplant...

Was eine komplette Bullshitaussage ist, da es zum Start der Entwicklung vielleicht gerademal den G80 gab...

Triskaine
2009-08-25, 11:25:20
RV770 sollte ursprünglich nur 8 Cluster besitzen, also 640 Sps und 32 TMUs. Da man aber durch den 256-bit Bus padlimitiert war, konnte man bzw. musste man noch 2 Cluster mehr dazu nehmen um den freien Platz aufzufüllen. Ansonten wäre die 4870 wohl tatsächlich auf 9800 GTX Niveau gelandet.

Palpatin
2009-08-25, 11:25:57
Rein vom Speicherinterface her, vermute ich das die 5850 in etwa 4770 mal 2 an Performance liefert was in etwa ja 4850 mal 2 ist und was mit 256 bit Interface bei 1,6 GHZ DDR 5 zu realisieren wär, die 5870 sollte dann mit 2,x GHZ schnellen Speicher nochmal gut 20-30% drauflegen können und in etwa auf doppeltem 4870 Niveau liegen.

LovesuckZ
2009-08-25, 11:32:44
RV770 sollte ursprünglich nur 8 Cluster besitzen, also 640 Sps und 32 TMUs. Da man aber durch den 256-bit Bus padlimitiert war, konnte man bzw. musste man noch 2 Cluster mehr dazu nehmen um den freien Platz aufzufüllen. Ansonten wäre die 4870 wohl tatsächlich auf 9800 GTX Niveau gelandet.

Sie wussten beim Start der Entwicklung nicht, was eine 9800GTX sein würde. Diese Aussage ist einfach nur verlogen.
Abgesehen davon wäre es doch sehr peinlich gewesen, wenn man nur auf 9800GTX Niveau gelandet wäre - denn wäre man selbst im dritten Anlauf gerademal ca. 15% schneller als eine 8800GTX. Und das wäre eine sehr große Katastrophe gewesen.

AnarchX
2009-08-25, 11:33:23
RV770 sollte ursprünglich nur 8 Cluster besitzen, also 640 Sps und 32 TMUs. Da man aber durch den 256-bit Bus padlimitiert war, konnte man bzw. musste man noch 2 Cluster mehr dazu nehmen um den freien Platz aufzufüllen. Ansonten wäre die 4870 wohl tatsächlich auf 9800 GTX Niveau gelandet.
Dazu kam aber wohl auch noch, dass die 9800 GTX um einiges niedriger getaktet war als erwartet. Ende 2007 gab es ja Andeutungen in Richtung 800/2000/1500MHz, woraus dann 675/1670/1100MHz wurden.


Mit 640 (RV830) & 1600 (RV870) Shadern, wäre der Abstand wieder das 2,5 Fache wie beim RV730 (320) & RV770 (800 Shadern)
Wobei der Abstand bei der Bandbreite wohl diesmal nicht wieder 3.6 sein wird, zumal es momentan bei RV830 doch eher nach 800SPs aussieht, wenn man die Vantage Ergebnisse betrachtet.

Triskaine
2009-08-25, 11:35:15
Rein vom Speicherinterface her, vermute ich das die 5850 in etwa 4770 mal 2 an Performance liefert was in etwa ja 4850 mal 2 ist und was mit 256 bit Interface bei 1,6 GHZ DDR 5 zu realisieren wär, die 5870 sollte dann mit 2,x GHZ schnellen Speicher nochmal gut 20-30% drauflegen können und in etwa auf doppeltem 4870 Niveau liegen.

Das Limit bei kaufbarem GDDR5 liegt momentan bei 1,2-1,25 GHz (also ein effektiv Takt von 4,8 bis 5 GHz). Eine 5870 käme damit auf 160 GB/s. Ob das für über 2 Teraflops genügt können nur die ATi Ingenieure wissen.

reunion
2009-08-25, 11:35:35
Sie wussten beim Start der Entwicklung nicht, was eine 9800GTX sein würde. Diese Aussage ist einfach nur verlogen.

Beim Start der Entwicklung ist das auch noch wenig relevant. Sie wollten zum Start der Entwicklung im Preisbereich zwischen 200-300$ eine konkurrenzfähige Karte bringen. Genau wie heute mit RV870. Dafür hätte damals 9800GTX-Leistung auch gereicht.


Abgesehen davon wäre es doch sehr peinlich gewesen, wenn man nur auf 9800GTX Niveau gelandet wäre - denn wäre man selbst im dritten Anlauf gerademal ca. 15% schneller als eine 8800GTX. Und das wäre eine sehr große Katastrophe gewesen.

Performancechip -> High-End-Chip. Auch wenn ich weiß das du es nicht einsehen willst. X2 -> High-End.

reunion
2009-08-25, 11:37:24
Dazu kam aber wohl auch noch, dass die 9800 GTX um einiges niedriger getaktet war als erwartet. Ende 2007 gab es ja Andeutungen in Richtung 800/2000/1500MHz, woraus dann 675/1670/1100MHz wurden.


Andeutungen gab es viele. Zumindest die 1500Mhz Speichertakt sind selbst heute noch realitätsfern mit GDDR3. Und ob man sich wirklich durch 65nm eine Taktratensteigerung in den Regionen erhoffte wage ich auch zu bezweifeln. Ist ja nicht so das es bei anderen Fertigungsschritten vergleichbare Steigerungen gab.

LovesuckZ
2009-08-25, 11:42:52
Beim Start der Entwicklung ist das auch noch wenig relevant. Sie wollten zum Start der Entwicklung im Preisbereich zwischen 200-300$ eine konkurrenzfähige Karte bringen. Genau wie heute mit RV870. Dafür hätte damals 9800GTX-Leistung auch gereicht.

2005/2006 gab es keine 9800GTX. :rolleyes:
Sie können nur eigene Hardware als Zielsetzung nehmen und da war mindesten 80% zum rv670 wohl das Minimalziel.


Performancechip -> High-End-Chip. Auch wenn ich weiß das du es nicht einsehen willst. X2 -> High-End.

G80 und G92 war Performance und High-End. :rolleyes:

Schlammsau
2009-08-25, 11:43:37
Dazu kam aber wohl auch noch, dass die 9800 GTX um einiges niedriger getaktet war als erwartet. Ende 2007 gab es ja Andeutungen in Richtung 800/2000/1500MHz, woraus dann 675/1670/1100MHz wurden.

1500Mhz mit GDDR? Das war ja nichtmal mit DDR4 drin.

Triskaine
2009-08-25, 11:44:31
Während der Entwicklung ist die Konkurrenz praktisch immer ein bewegliches Ziel und dementsprechend werden auch die endgültigen Leistungsdaten aller Chips festgelegt. Die 4850 sollte ursprünglich einen Takt von 500 MHz haben der dann last-minute auf 625 MHz hoch gesetzt wurde um besser mit der 9800 GTX konkurrieren zu können. Diese Entscheidung ist wohl auch der Grund für die Thermischen Probleme der 4850, denn die Kühllösung stand zu diesem Zeitpunkt bereits fest. Ähnliches geschah bei der 8800 GT die von 96 auf 112 Shader aufgestockt wurde als nVidia vom frühen Erscheinen der 3870 wind bekam. Interessanterweise mit ähnlichen Folgen wie das pimping der 4850.
Man sieht also das die Entwickler sich tatsächlich stark an Konkurrenzprodukten orientieren, allerdings erst in der Endphase der Entwicklung.

AnarchX
2009-08-25, 11:45:02
Das Limit bei kaufbarem GDDR5 liegt momentan bei 1,2-1,25 GHz (also ein effektiv Takt von 4,8 bis 5 GHz).
Hynix meint bis zu 6Gbps liefern zu können:
http://img193.imageshack.us/img193/6540/hynixgddr5.png (http://img193.imageshack.us/i/hynixgddr5.png/)
http://www.hynix.com/inc/pdfDownload.jsp?path=/datasheet/Databook/Q3%2709_Databook_GraphicsMemory.pdf

Da könnte ich mir doch vorstellen, dass Samsung wohl auch mehr als den 0.4ns 5Gbps GDDR5 liefern könnte, den sie in der öffentliche Liste haben.

Bleibt natürlich die Frage, ob solcher Speicher in die BOM einer $299 GraKa passt. ;)

reunion
2009-08-25, 11:50:06
Hynix meint bis zu 6Gbps liefern zu können:
http://img193.imageshack.us/img193/6540/hynixgddr5.png (http://img193.imageshack.us/i/hynixgddr5.png/)
http://www.hynix.com/inc/pdfDownload.jsp?path=/datasheet/Databook/Q3%2709_Databook_GraphicsMemory.pdf

Da könnte ich mir doch vorstellen, dass Samsung wohl auch mehr als den 0.4ns 5Gbps GDDR5 liefern könnte, den sie in der öffentliche Liste haben.

Bleibt natürlich die Frage, ob solcher Speicher in die BOM einer $299 GraKa passt. ;)

Das würde immerhin bis zu 1,5Ghz Takt ermöglichen und wäre >50% mehr als auf einer 4890.

Ailuros
2009-08-25, 11:54:33
Wie oft in der Vergangenheit seid Ihr auf die Nase gefallen mit den aufgefuehrten Speichervarianten von diversen Herstellern und mit dem was am Ende auf GPUs ankam?

Triskaine
2009-08-25, 11:56:53
Hmm, interessant. Allerdings sollte man bedenken das meines Wissens noch nie auf einer Karte der schnellste verfügbare Speicher verbaut wurde UND auch mit seiner maximalen Taktrate lief.

LovesuckZ
2009-08-25, 11:57:39
Man sieht also das die Entwickler sich tatsächlich stark an Konkurrenzprodukten orientieren, allerdings erst in der Endphase der Entwicklung.

Das ist auch die einzige Möglichkeit. Der Start und das Ziel der Entwicklung werden wesentlich früher festgesetzt. Und der Markt ist im stetigen Wandeln. Aber Aussagen wie "wir wollten von Anfang nur 9800GTX Leistung erreichen" oder "wir wollten ein konkurrenzfähiges Produkt in 199-299$" sind einfach nur verlogen, da erst am Ende der Entwicklung kurz vorm Markteintritt der Tatsächliche Markt und die Leistungsfähigkeit der Hardware bekannt ist.

Ailuros
2009-08-25, 11:58:58
Hmm, interessant. Allerdings sollte man bedenken das meines Wissens noch nie auf einer Karte der schnellste verfügbare Speicher verbaut wurde UND auch mit seiner maximalen Taktrate lief.

Genau das meine ich.

reunion
2009-08-25, 12:05:51
Das ist auch die einzige Möglichkeit. Der Start und das Ziel der Entwicklung werden wesentlich früher festgesetzt. Und der Markt ist im stetigen Wandeln. Aber Aussagen wie "wir wollten von Anfang nur 9800GTX Leistung erreichen" oder "wir wollten ein konkurrenzfähiges Produkt in 199-299$" sind einfach nur verlogen, da erst am Ende der Entwicklung kurz vorm Markteintritt der Tatsächliche Markt und die Leistungsfähigkeit der Hardware bekannt ist.

Schön, das ändert nichts daran das man sich Ziele setzt. Verlogen ist daran gar nichts. "Wir wollten von Anfang nur 9800GTX Leistung erreichen" ist natürlich BS, da es diese damals noch gar nicht gab. Aber man setzt sich sehr wohl Ziele wie den anvisierten Verkaufspreis, also wie zB bei RV770 ein "konkurrenzfähiges Produkt in 199-299$". Ob das der Markt dann zulässt wird sich zeigen. Man hätte für RV770 auch wesentlich mehr verlangen können, aber man blieb bis zum Schluss bei anvisierten Ziel von 199-299$.

Bei jedem Produkt gibt es einen anvisierten Verkaufspreis den man benötigt um bei den zu erwartenden Stückzahlen Gewinn X zu erreichen. Ob man den dann tatsächlich genau so erreicht ist natürlich offen.

mboeller
2009-08-25, 12:39:36
Frage / Idee:

Dual Shader => könnte das heißen, das man auf einer 5850/5870 gleichzeitig 1 Shadercore mit angenommen 800 Shadern für ComputeShading benutzen kann und den anderen Shadercore mit ebenfalls angenommen 800 Shadern für die Spielegrafik?

Oder wäre das Verschwendung von Resourcen?

StefanV
2009-08-25, 12:39:54
CBs Messungen sind ein Witz.
1. Gesamtsystem wird vermessen
2. Der Flyby ist nicht besonders fordernd.
Wie sollens denn sonst machen, wenn nicht Gesamtsystem?!
Nicht jeder kann sich die entsprechenden Adapter leisten bzw hat das entsprechende Equipment...

Gast
2009-08-25, 12:45:18
Wie sollens denn sonst machen, wenn nicht Gesamtsystem?!
Nicht jeder kann sich die entsprechenden Adapter leisten bzw hat das entsprechende Equipment...
Vollkommen klar.
Nur sollte man nicht solche Messungen als Beleg nehmen wie sich eine Karte im Vergleich zu einer anderen schlägt.

CB ist nicht 3DC. Genausogut hätte er oder ht4u oder PCGH verlinken können.

Coda
2009-08-25, 12:58:49
Dual Shader => könnte das heißen, das man auf einer 5850/5870 gleichzeitig 1 Shadercore mit angenommen 800 Shadern für ComputeShading benutzen kann und den anderen Shadercore mit ebenfalls angenommen 800 Shadern für die Spielegrafik?

Oder wäre das Verschwendung von Resourcen?
Die viel bessere Frage ist: Wozu soll das gut sein?

Und ja, im Endeffekt würde man dadurch nichts gewinnen und nur Leistung verschenken.

Nakai
2009-08-25, 13:08:09
Mhh, der RV830 ist 11,5*15,5 groß. Wenn der RV870 ein aus zwei solchen Dinger besteht, also auf einem Die, wären das 22,5*15,5 was 356,5mm² ergibt.
Das wären 2*800SPs für den RV870.


mfg Nakai

Knuddelbearli
2009-08-25, 13:16:55
für die "Dualcore" Lösung würde sprechen das es wohl demnächst einen nicht nativen 12 kerner von AMD gibt ^^

glaube aber trotzdem nicht drann

Gast
2009-08-25, 14:01:48
Wie sollens denn sonst machen, wenn nicht Gesamtsystem?!
Nicht jeder kann sich die entsprechenden Adapter leisten bzw hat das entsprechende Equipment...
CB ist eine GmBH, informiere dich mal, wieviel Haft-Kapital diese Gesellschaftsform voraussetzt und dann vergleiche das mal mit den Kosten für so einen Adapter (den man i.Ü. auch selbst löten kann wie bei HT4U).

Coda
2009-08-25, 15:03:50
für die "Dualcore" Lösung würde sprechen das es wohl demnächst einen nicht nativen 12 kerner von AMD gibt ^^
Was nochmal genau haben CPUs und GPUs miteinander zu tun?

Gast
2009-08-25, 15:33:07
"PUs", sind also beides processing units ...

w0mbat
2009-08-25, 15:42:40
Did I already mention that a new reference in texture quality is coming towards us soon for all those IQ freaks out there?

http://forum.beyond3d.com/showpost.php?p=1325724&postcount=2010

YEAH BABY :D

Ailuros
2009-08-25, 15:48:03
http://forum.beyond3d.com/showpost.php?p=1325724&postcount=2010

YEAH BABY :D

Jetzt wird's aber wirklich interessant! :biggrin:

Gast
2009-08-25, 15:48:32
Kann mir bitte jemand erklären, warum es hier immer wieder Leute gibt, die etwas von schlechter Texturqualität u.s.w. schreiben? Worum geht es genau? Gibt es gute Artikel zum Thema?

Danke.

Gast
2009-08-25, 15:49:47
Gute Maßnahme, dann kann Nvidia für die lausige HQ-Filterung endlich mal die Prügel bekommen, die Nvidia verdient.

Mal nebenbei, wer ist dieser Forenuser CJ aus der verlinkten Quelle?

Gast
2009-08-25, 15:51:56
Kann mir bitte jemand erklären, warum es hier immer wieder Leute gibt, die etwas von schlechter Texturqualität u.s.w. schreiben? Worum geht es genau? Gibt es gute Artikel zum Thema?

Danke.

Falls das kein Trollversuch ist:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=456731

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455055

Viel Spass!

LovesuckZ
2009-08-25, 15:52:26
http://forum.beyond3d.com/showpost.php?p=1325724&postcount=2010

YEAH BABY :D

Hm, warum die Freude?
Überlebt hast du die letzten 2 1/2 doch auch, oder? ;)

w0mbat
2009-08-25, 15:53:20
[...]
Mal nebenbei, wer ist dieser Forenuser CJ aus der verlinkten Quelle?

Der, der bisher immer alles vor allen anderen wusste und immer Recht hatte. Also eine sehr vertrauenswürdige Quelle.


Hm, warum die Freude?
Überlebt hast du die letzten 2 1/2 doch auch, oder? ;)

Ich hab noch eine X1900er und die war damals super (ist sie jetzt auch noch).

LovesuckZ
2009-08-25, 15:55:50
Ich hab noch eine X1900er und die war damals super (ist sie jetzt auch noch).

War auch nur Sarkasmus. :)
Ich bin gespannt, wie die Leute es aufnehmen. Zur Zeit müssten es ihnen ja komplett egal sein.

/edit: Ich weiß noch zum r520, als AMD die deutliche Verbesserung brachte. Aber man müsste heute schon deutlich besser sein, wenn man die Leute überzeugen will - vielleicht 32x/64x AF?

Ailuros
2009-08-25, 15:56:38
Gute Maßnahme, dann kann Nvidia für die lausige HQ-Filterung endlich mal die Prügel bekommen, die Nvidia verdient.

Schnell zurueck in die Zeitschleusse in der Dich jemand seit 2005 vergessen hat...

Gast
2009-08-25, 15:58:52
Ich bin gespannt, wie die Leute es aufnehmen. Zur Zeit müssten es ihnen ja komplett egal sein.
Welche Leute meinst du denn? Den "Liebhabern von 8xMSAA" dürfte es tatsächlich egal sein, obwohl ich nicht weiß, ob so jemand existiert (8xAA, noAAA, 16xLQAF). Den einen oder anderen Nvidia-User kann man aber durchaus loken, für mich zum Beispiel würden ATI-Karten schlagartig wieder interessanter. :)

MartinRiggs
2009-08-25, 15:59:03
War auch nur Sarkasmus. :)
Ich bin gespannt, wie die Leute es aufnehmen. Zur Zeit müssten es ihnen ja komplett egal sein.

/edit: Ich weiß noch zum r520, als AMD die deutliche Verbesserung brachte. Aber man müsste heute schon deutlich besser sein, wenn man die Leute überzeugen will - vielleicht 32x/64x AF?

Also ich würde mich auch freuen über eine astreine Texturfilterung, klar kann ich mit der HD4870 leben, aber ich weiss auch das es definitiv besser geht.
Wäre ja schön wenn AMD die Filterung zum Positiven ändert.

mapel110
2009-08-25, 16:01:55
An einen höheren AF-Grad glaube ich nicht. Da wird sich, wie Coda denke ich richtig vermutet, etwas am Grundfilter ändern. Sonst hat man ja schließlich nichts davon. Schaut doch mal genau hin, wie viel sich in Spielen zwischen 8x und 16xAF tut. Das wirkt sich nur auf einen kleinen Bruchteil der Szene aus. Wenn jetzt jemand mit 32xAF ankäme, würde ich das nicht als entscheidendes Kaufkriterium ansehen.

mboeller
2009-08-25, 16:02:36
- vielleicht 32x/64x AF?

Bringt doch nichts. Selbst jetzt sind nur wenige Bereiche mit 16xAF gefiltert.

MR2
2009-08-25, 16:12:44
@startseite

"Was ATI genau macht, bliebe natürlich abzuwarten, aber die Annahme von 1600 Shader-Einheiten an einem 512 Bit DDR Speicherinterface für den RV870-Chip erscheint durchaus plausibel.

Die Annahme eines vergrößerten Speicherinterfaces beim RV870-Chip wird auch durch einige Aussagen untermauert, welche ATI der PCGH gegenüber getrofften hat. Dabei erwähnte man eben explizit die Speicherbandbreite als Problem der bisherigen Chips, was dann doch auf eine größere Veränderung bei den kommenden Chips hindeutet."

genau das mein ich eben auch....:rolleyes:

LovesuckZ
2009-08-25, 16:12:50
Bringt doch nichts. Selbst jetzt sind nur wenige Bereiche mit 16xAF gefiltert.

Ist es nicht abhängig von der Position zur Fläche? zZ spiele ich WoW und je nach Kameraposition wäre ein höhrerer Grad schon angebracht.

Gast
2009-08-25, 16:18:32
Ist es nicht abhängig von der Position zur Fläche? zZ spiele ich WoW und je nach Kameraposition wäre ein höhrerer Grad schon angebracht.
Ist die Zahl vor dem "x" beim AF nicht völlig wurschd, wenn die Samples hinterher sowieso wieder eingespart werden?

reunion
2009-08-25, 16:24:02
http://forum.beyond3d.com/showpost.php?p=1325724&postcount=2010

YEAH BABY :D

Nett, damit würden auch wieder ATi-Karten für mich in Frage kommen wenn NV das nicht nochmal deutlich topt mit GT300.

derguru
2009-08-25, 16:29:46
ich hoffe das stimmt auch,aber dieser CJ hatte schon öfter richtig gelegen.:love2:

mboeller
2009-08-25, 16:35:41
Ist es nicht abhängig von der Position zur Fläche? zZ spiele ich WoW und je nach Kameraposition wäre ein höhrerer Grad schon angebracht.

Annahme eine ebene Fläche vor deinem Spielecharakter (h=2m)

=> der Winkel zw. dem Spielecharakter und der Fläche ändert sich je nach Entfernung. Nur die am weitest vom Spielecharakter entfernten Bereiche der Fläche haben einen so geringen Winkel zur Blickrichtung das mehr als 16xAF eine Verbesserung bringen würden. Ergo nur sehr wenige Bereiche im Bild würden von sowas profitieren.

Ich hoffe meine Erklärung ist nicht zu verworren und stimmt auch soweit. :)

[edit]:

Soweit ich weiß bedeutet 16xAF sowas wie 1/16 = sin(x) od 1/16 = tan(x). Das würde bedeuten das alles bis auf die letzten x = ~3,5° von dem Spielecharakter weg zum Horizont wird richtig gefiltert. 32xAF würde dann nur für den Bereich zw. 3,5° und 1,75° eine Verbesserung bringen.

Ich hoffe das das so stimmt. Sicher bin ich mir nicht.

Nakai
2009-08-25, 16:54:32
Nett, damit würden auch wieder ATi-Karten für mich in Frage kommen wenn NV das nicht nochmal deutlich topt mit GT300.

Jetzt müssten die Treiber noch besser werden, dann wäre ATI wieder eine Alternative. ;(

Besseres AF und mehr AF-Modi wäre nicht schlecht...


mfg Nakai


€: ATI AI soll endlich mal alle Optimierungen entkoppeln...

Gast
2009-08-25, 17:13:48
Gute Maßnahme, dann kann Nvidia für die lausige HQ-Filterung endlich mal die Prügel bekommen, die Nvidia verdient.

Ich nehme an du hast Recht mit deiner ironischen Bemerkung.
AMD wird dafür in höchten Tönen gelobt werden, während ab sofort Nvidia schlecht gemacht wird.

Es ist schön, wenn AMD tatsächlich versucht die Konkurrenz nicht nur einzuholen, sondern (erstmal?) zu überholen.
Aber der bittere Beigeschmack der unfairen Berichterstattung bleibt kleben.

Ich frage mich auch, wie es in den anderen Bereichen aussieht.
Fällt AI weg? Ist die Filterung nach Wunsch immer gut? Gibt es nach Wunsch immer SSAAA? Gibt es Shader AA?

Gast
2009-08-25, 17:15:05
Ist die Zahl vor dem "x" beim AF nicht völlig wurschd, wenn die Samples hinterher sowieso wieder eingespart werden?
Nein, wenn vorne eine 8x statt einer 16 stände würde man es nicht mit der 16 der Konkurrenz in einem Balken vergleichen.

nagus
2009-08-25, 17:19:55
http://forum.beyond3d.com/showpost.php?p=1325724&postcount=2010

YEAH BABY :D

na GOTT SEI DANK. dann gibts für die IQ Fanatiker wenigstens nix mehr zu meckern und heulen

Gast
2009-08-25, 17:22:23
na GOTT SEI DANK. dann gibts für die IQ Fanatiker wenigstens nix mehr zu meckern und heulen
Es gibt immer Gründe zu meckern. Sonst gibts keinen Fortschritt.
Diese Gründe wurde auch schon teils genannt.

Black-Scorpion
2009-08-25, 17:23:12
Da würde ich mir keine Gedanken machen.
Die üblichen werden ganz sicher auch weiter dass Haar in der Suppe suchen und auch finden.

Eggcake
2009-08-25, 17:50:58
PCGH ist lustig:

Heute: http://www.pcgameshardware.de/aid,693495/Erste-Bilder-einer-angeblichen-Radeon-HD-5850-gesichtet/Grafikkarte/News/

Vom April: http://www.pcgameshardware.de/aid,674778/Special-Gefaelschte-Hardware-Bilder-Update-Geforce-GTX-390/Fun/News/bildergalerie/bildergalerie/?iid=975813

:D

Schlammsau
2009-08-25, 17:57:48
PCGH ist lustig:

Heute: http://www.pcgameshardware.de/aid,693495/Erste-Bilder-einer-angeblichen-Radeon-HD-5850-gesichtet/Grafikkarte/News/

Vom April: http://www.pcgameshardware.de/aid,674778/Special-Gefaelschte-Hardware-Bilder-Update-Geforce-GTX-390/Fun/News/bildergalerie/bildergalerie/?iid=975813

:D

Wohl ein verspäteter Aprilscherz. ;D

Botcruscher
2009-08-25, 17:57:56
Da hat jemand ein Sommerloch.:freak:

mapel110
2009-08-25, 18:07:58
Das Bessere ist des Guten Feind. ^^

Ich fänds ehrlich gesagt blamabel, wenn nvidia nach über 3 Jahren nichts an der Texturfilterung drehen würde und einfach nur zusieht, was ATI wohl machen wird.
Aber wir werden sehen. Überraschungen gabs ja immer wieder.

Coda
2009-08-25, 18:16:42
Ist es nicht abhängig von der Position zur Fläche?
Nein, allein vom Verzerrungsgrad der Textur. Wird für jedes Pixel neu ausgerechnet und dann entsprechend AF angewendet.

Soweit ich weiß bedeutet 16xAF sowas wie 1/16 = sin(x) od 1/16 = tan(x). Das würde bedeuten das alles bis auf die letzten x = ~3,5° von dem Spielecharakter weg zum Horizont wird richtig gefiltert. 32xAF würde dann nur für den Bereich zw. 3,5° und 1,75° eine Verbesserung bringen.

Ich hoffe das das so stimmt. Sicher bin ich mir nicht.
Nein, da stimmt gar nichts. Weder Pixelshader noch TMUs wissen irgendwas von einem Winkel.

Ich fänds ehrlich gesagt blamabel, wenn nvidia nach über 3 Jahren nichts an der Texturfilterung drehen würde und einfach nur zusieht, was ATI wohl machen wird.
Herkömmliches AF ist zumindest bis auf ein paar Kleinigkeiten in der Positionsberechnung (da ist ATI sogar besser) und abgesehen von den Problemen mit negativem LOD bereits vollständig sauber implementiert.

Ich bin auch gespannt was die IHVs so bringen werden, aber das muss man dann auch kritisch hinterfragen und nicht blind dem Marketing glauben.

Armaq
2009-08-25, 18:17:52
ATI klingt sehr selbstbewusst. Sie haben da wohl ein richtig dickes Ding im Hinterzimmer. Wenn sie Stromsparoptionen, gute (nicht sehr gute/exzellente) Geschwindigkeit (4870*1,9), (ultra)HQ-AF, bisheriges AA und eine akzeptable Lautstärke vom Start weg bringen und die Preise wirklich bei 199/299 liegen, dann haben sie alles richtig gemacht.

Fraglich nur, ob es danach auch richtig weiterläuft.

xiao didi *
2009-08-25, 18:18:16
Ich fänds ehrlich gesagt blamabel, wenn nvidia nach über 3 Jahren nichts an der Texturfilterung drehen würde
Was soll Nvidia denn auch noch an ihrem Filter verbessern? :confused:
Laut Aussagen von Coda ist er bereits optimal.

derguru
2009-08-25, 18:20:07
Das Bessere ist des Guten Feind. ^^

Ich fänds ehrlich gesagt blamabel, wenn nvidia nach über 3 Jahren nichts an der Texturfilterung drehen würde und einfach nur zusieht, was ATI wohl machen wird.
Aber wir werden sehen. Überraschungen gabs ja immer wieder.
ist denn überhaupt ein viel besseres af möglich als das jetzige HQ AF,also jetzt nicht basierend auf 16,32 oder 64AF?
wenn amd es schafft ein filter wie nvs HQ zu realisieren bin ich schon zufrieden.

optimal wäre es wohl wenn es wie im standbild einen vorkäme.

Coda
2009-08-25, 18:22:56
Laut Aussagen von Coda ist er bereits optimal.
Wo habe ich das geschrieben? Ich habe gesagt, dass man z.B. durchaus noch was am Grundfilter machen kann. Zudem wird die feiner aufgelöste Mip etwas unterabgetastet. Wobei das weniger ein Problem ist.

Wenn es optimal wäre würde es überhaupt nicht flimmern - was nicht der Fall ist. Auch NV HQ flimmert noch ein wenig.

Blaire
2009-08-25, 18:26:57
ist denn überhaupt ein viel besseres af möglich als das jetzige HQ AF,also jetzt nicht basierend auf 16,32 oder 64AF?

Bestimmt, die Frage ist ob man es überhaupt noch wahrnimmt, einige sehen ja selbst das Flimmern nicht. Ich tät mich eigentlich mehr über neue SSAA Modis freuen...wird aber wohl ein Wunschtraum bleiben.

reunion
2009-08-25, 18:28:24
Herkömmliches AF ist zumindest bis auf ein paar Kleinigkeiten in der Positionsberechnung (da ist ATI sogar besser) und abgesehen von den Problemen mit negativem LOD bereits vollständig sauber implementiert.


Wo habe ich das geschrieben? Ich habe gesagt, dass man z.B. durchaus noch was am Grundfilter machen kann. Zudem wird die feiner aufgelöste Mip etwas unterabgetastet. Wobei das weniger ein Problem ist.

Wenn es optimal wäre würde es überhaupt nicht flimmern - was nicht der Fall ist. Auch NV HQ flimmert noch ein wenig.

Na immerhin, das klang vor kurzem noch anders:

Die NVIDIA TMUs filtern mit HQ bereits schon praktisch optimal. Weniger Flimmern ist mit einem trilinearen Grundfilter nicht mehr möglich.


Aber vielleicht wurde ja auch wirklich ein anderer Filter "entwickelt".

xiao didi *
2009-08-25, 18:30:02
Wo habe ich das geschrieben? Ich habe gesagt, dass man z.B. durchaus noch was am Grundfilter machen kann. Zudem wird die feiner aufgelöste Mip etwas unterabgetastet. Wobei das weniger ein Problem ist.

Wenn es optimal wäre würde es überhaupt nicht flimmern - was nicht der Fall ist. Auch NV HQ flimmert noch ein wenig.
Sry, ich hätte präziser sein sollen:
Du hattest einmal geschrieben, dass der anisotrope Filter annähernd optimal sei.

Gast
2009-08-25, 19:15:20
PCGH ist lustig:

Heute: http://www.pcgameshardware.de/aid,693495/Erste-Bilder-einer-angeblichen-Radeon-HD-5850-gesichtet/Grafikkarte/News/

Vom April: http://www.pcgameshardware.de/aid,674778/Special-Gefaelschte-Hardware-Bilder-Update-Geforce-GTX-390/Fun/News/bildergalerie/bildergalerie/?iid=975813

:D

Einfach nur peinlich, PCGH eben ... unterstes Niveau ganz groß.

Nakai
2009-08-25, 19:37:08
Euch sollte schon klar sein, dass die News von unterschiedlichen Autoren reingestellt werden und nicht jeder einen totalen Überblick hat.
Wenn der Autor das nicht gekannt hat, kann man dem Autor amateurhaftigkeit unterstellen, aber nicht PCGH...wobei das schon etwas abfärben kann.

Wenn man ganz fies ist, dann kann man behaupten, dass dies nur für Publicity gemacht wurde. Naja irgendwie muss sich eine Seite auch finanzieren.

Da hat jemand ein Sommerloch.

Und was ist hinter dem Loch? ;D


mfg Nakai

Coda
2009-08-25, 19:38:13
Na immerhin, das klang vor kurzem noch anders:

Ja, viel zu tun ist ja auch nicht mehr. Das bisschen Flimmern sollte halt beseitigt werden.

Höhere Verzerrungsgrade als 16:1 erwarte ich jedenfalls nicht.

Aber vielleicht wurde ja auch wirklich ein anderer Filter "entwickelt".
Definiere "anders". Jeglicher Texturfilter hat das Parallelogramm/die Ellipse zu samplen das entsteht wenn man das Pixel auf die Textur projeziert. Momentan nimmt man dazu Samples entlang der längsten Achse der Ellipse (Feline).

In dem FAST-Paper wird gesagt, dass das Flimmern davon kommt, dass die eine Mip überabgetaste während die andere unterabgetastet wird. Das tut aber auch schon reine Trilineare Filterung und da fällt das ja auch nicht auf.

Deshalb sage ich (und andere hier) dass der Box-Filter (Bilinear) als Grundfilter einfach dafür sorgt dass es noch flimmert. Mal abwarten. Evtl. kann man die Samples auch noch ein wenig besser verteilen als nur entlang der Achse.

Aber anstatt mal zu würdigen das man sich mit sowas beschäftigt bekommt man ja eh nur dumme Kommentare von Leuten wie dir hier zu hören.

Spasstiger
2009-08-25, 20:03:28
Einer der Computerbase-Redakteure hat im CB-Forum eine Tabelle mit seltsamen Spezifikationen gepostet:

http://img2.pict.com/22/8d/54/1518993/0/rv870specs1.png

Quelle: http://www.computerbase.de/forum/showthread.php?p=6520664#post6520664

Wäre dann wohl ALU-mäßig eine 12*20*VEC5-Organisation und TMU-mäßig eine 12*8-Organisation. Das ALU-TMU-Verhältnis würde sich damit Richtung TMUs verschieben, was ja die Gerüchte zur besseren Filterqualität stützt. Und eine Rechenleistung von 2,2 Teraflops passt auch besser zu Aussage "more than 2 teraFLOPS" (http://forum.beyond3d.com/showpost.php?p=1325233&postcount=1936) als 2,8 Teraflops.
Zudem wäre mit dieser reduzierten Rechenleistung auch die relativ geringe Speicherbandbreite noch nicht so kritisch.

Coda
2009-08-25, 20:07:58
12er Cluster würden auch für bessere Branch-Granularität sorgen. Wenn ATI tatsächlich auch noch bessere Filter anbietet dann bin ich wirklich positiv überrascht.

Triskaine
2009-08-25, 20:09:43
Diese Tabelle schwirrt schon länger rum und basiert auf einer Meldung vom ATi Forum, die glaube ich im Mai rauskam. Sie ist also mit an Sicherheit grenzender Wahrscheinlichkeit murks.

w0mbat
2009-08-25, 20:14:55
Die gibts schon eine ganze Weile und wurde schon als Fake deklariert. Kann natürlich auch wahr sein, das weiß ich nicht.

Ich fände die Specs gut.

LovesuckZ
2009-08-25, 20:16:49
Es werden 1600 Recheneinheiten. Da bin ich mir ziemlich sicher.

derguru
2009-08-25, 20:19:50
ehrlich gesagt vertraue ich eher chiphell mit den daten 1600s/80tmus/32rops/256bit,die haben die karten vorort.:rolleyes:

Tarkin
2009-08-25, 20:22:36
Einfach nur peinlich, PCGH eben ... unterstes Niveau ganz groß.

EPIC FAIL würde ich da sagen ... naja, sowas kann passieren.

Trotzdem ziemlich peinlich!

Coda
2009-08-25, 20:24:08
Wieso, sie verwenden doch den Konjunktiv. So schlimm finde ich das nicht.

Spasstiger
2009-08-25, 20:25:34
ehrlich gesagt vertraue ich eher chiphell mit den daten 1600s/80tmus/32rops/256bit,die haben die karten vorort.:rolleyes:
Das fände ich auch hübscher. Dann weiß man, dass die Karte doppelt so schnell wie eine HD 4870 werden wird.

Gast
2009-08-25, 20:32:48
Das fände ich auch hübscher. Dann weiß man, dass die Karte doppelt so schnell wie eine HD 4870 werden wird.

Mit einer nur geringfüfig höheren Speicherbandbreite?

Coda
2009-08-25, 20:35:31
Das fände ich auch hübscher. Dann weiß man, dass die Karte doppelt so schnell wie eine HD 4870 werden wird.
Das weiß man dann noch lange nicht. Da spielen auch noch genug andere Faktoren mit rein.

Die reine Rechenleistung muss auch erstmal auf den Boden gebracht werden. Nicht, dass ich es bezweifel, dass ATI da seine Hausaufgaben gemacht hat.

Spasstiger
2009-08-25, 20:52:33
Mit einer nur geringfüfig höheren Speicherbandbreite?
Aber dafür einer mehr als doppelt so hohen Rechenleistung, Pixelfüllrate und Texelfüllrate.

derguru
2009-08-25, 21:02:13
Mit einer nur geringfüfig höheren Speicherbandbreite?
wieso gering,6 gbs speicher machen 192gb/s und das sollte reichen.soll ja anscheinend lieferbar sein.

horn 12
2009-08-25, 21:30:54
Sehr schön ---> Immer mehr Infos und es kann nicht mehr lange dauern bis endlich mal erste 3DMark Werte daherschiessen werden, oder einige aktuelle Spiele Benchmarks.
Die NDA Sperre ist zwar noch nicht rum, denke aber einige werden zumindest die Katze ein wenig aus dem Sack schauen lassen.
Wenn die BQ gebessert wurde, der Lüfter leise agaiert 2D + 3D und die HD4870 X² gar geschlagen werden könnte,- Hut ab AMD-ATI ---> wenn dann noch der Preis stimmt... Alle Achtung!
Dann wäre ein Rundum DX11 Produkt am Markt bis NV Kontert, zumindest bis dahin das Non-Plus Ultra.

Wie man sieht ist die HD4870 X² nun mehr recht sparsam am Markt vertreten, auch die Sapphire Listungen sind nicht mehr all zu viele, zumindest jene welche die Karte liefern können.

Coda
2009-08-25, 21:33:37
Sehr schön ---> Immer mehr Infos
Wo?

crux2005
2009-08-25, 22:04:57
Was eine komplette Bullshitaussage ist, da es zum Start der Entwicklung vielleicht gerademal den G80 gab...

Schön das du es als bs abstempelst. Fakt ist aber, das sie der refresh GPU vom G80 im high-end konkurrieren wollten. Das es die GF 9800 GTX noch nicht gab ist klar. :P

Gast
2009-08-25, 22:05:43
Sehr schön ---> Immer mehr Infos und es kann nicht mehr lange dauern bis endlich mal erste 3DMark Werte daherschiessen werden, oder einige aktuelle Spiele Benchmarks.
Naja, performance gabs ja schon

Gast
2009-08-25, 23:09:45
3DMark2001 SE: 164863

Ailuros
2009-08-26, 07:17:20
na GOTT SEI DANK. dann gibts für die IQ Fanatiker wenigstens nix mehr zu meckern und heulen

Qualitaet und Fanatik passen nicht in den gleichen Satz. Es sind eher die echten Fanatiker die sich jeden Scheiss den Hals runterwuergen lassen und dann auch noch darauf bestehen dass es das tollste ueberhaupt ist.

Gast
2009-08-26, 07:54:40
Qualitaet und Fanatik passen nicht in den gleichen Satz. Es sind eher die echten Fanatiker die sich jeden Scheiss den Hals runterwuergen lassen und dann auch noch darauf bestehen dass es das tollste ueberhaupt ist.

ich denke es geht um ati's bq, da musst du jetzt auch nicht übertreiben.
keiner sagte sie wäre das tollste überhaupt, viele sagten eher dass ihnen der unterschied nicht augescheinlich ist.

Tarkin
2009-08-26, 08:38:08
Qualitaet und Fanatik passen nicht in den gleichen Satz. Es sind eher die echten Fanatiker die sich jeden Scheiss den Hals runterwuergen lassen und dann auch noch darauf bestehen dass es das tollste ueberhaupt ist.

Man könnte auch dagegenhalten, dass es typisch ist bzw. einer gewissen Mentalität entspricht sich über jeden SHICE aufzuregen, ständig ein Thema aufzuwärmen und es 1000fach durchzukauen - für nichts und wieder nichts :P

Ailuros
2009-08-26, 09:39:05
ich denke es geht um ati's bq, da musst du jetzt auch nicht übertreiben.

Es gibt bei Bildqualitaet kein absolutes Optimum, ergo gibt es stets Platz fuer Verbesserungen und dabei ist es mir wurscht ob es sich um ATI oder NVIDIA handelt. Jede Anstrengung ist willkommen.

Man könnte auch dagegenhalten, dass es typisch ist bzw. einer gewissen Mentalität entspricht sich über jeden SHICE aufzuregen, ständig ein Thema aufzuwärmen und es 1000fach durchzukauen - für nichts und wieder nichts :P

Sich fuer bessere Bildqualitaet anzustrengen halte ich nicht als jeglichen Scheiss; jeglicher SCHEISS in meinem Buch ist wenn man wie MANCHE HIER nur wahlweise Kritik ausuebt und alles negative vom bevorzugten IHV elegant unter den Teppich kehrt. Waere es alles wirklich so nebenwichtig und "nichts und wieder nichts" wuerden sicht die ATI engineers wohl auch kein bisschen anstrengen etwas zu aendern. Wenn ein IHV etwas aendert heisst es auch dass man erstmal einsieht dass man etwas besser machen kann. Am Ende bleiben nur die Deppen uebrig die konstant nur unter den Teppich zu kehren wissen, sonst nichts und wieder nichts.

nagus
2009-08-26, 10:21:15
Qualitaet und Fanatik passen nicht in den gleichen Satz. Es sind eher die echten Fanatiker die sich jeden Scheiss den Hals runterwuergen lassen und dann auch noch darauf bestehen dass es das tollste ueberhaupt ist.

ich glaube dein problem ist, dass du das viel zu eng siehst. deine aussage z.b. eben: ich nehme an du beziehst dich auf meine meinung, dass ich den AF Filter bei AMD ausreichend finde und zwar deshalb, weil er im spiele-alltag zu wenig - oder anders gesasgt im vergleich zu nvidias default einstellung - quasi nicht zu unterscheiden - auffällt?

1. habe ich NIEMALS auch nur annähernd angedeutet, dass AMDs Filter das "tollste überhaupt" ist
2. bin ich kein fanatiker der sich jeden "shice" den hals runter würgen lässt - stell dir vor ich hab mich schon über den einen oder anderen bug im catalyst crew fedback-programm beschwert. .... auch über AF filter mit der bitte um verbesserung - nicht weil ich nicht damit leben kann sondern weil ich diese lächerlichen never-ending-mir-is-fad-und-mir-fällt-sonst-nix-mehr-ein-also-beschwer-ich-mich-wieder-mal-über-die-filterqualität-diskussionen nicht mehr sehen kann.

und jetzt bitte zurück zum thema
damit bist aber jetzt nicht zwangsweise DU gemeint sondern gewisse andere subjekte hier im forum die mit einer perversen vorlieber immer wieder diese thema ausgraben und damit irgendwelche flame-bashing-troll-wars auszutragen.

Gast
2009-08-26, 10:36:11
Man könnte auch dagegenhalten, dass es typisch ist bzw. einer gewissen Mentalität entspricht sich über jeden SHICE aufzuregen, ständig ein Thema aufzuwärmen und es 1000fach durchzukauen - für nichts und wieder nichts :P
Wohin die Abwesenheit der von dir beschriebenen Mentalität führt, sieht man schön an den Konsolen: Hauptsache auf ner großen Glotze, Hauptsache es steht "HD" drauf, egal wie dann die Auflösung wirklcih ist, Blurfilter statt richtigem AA, Matschtexturen usw.

[ x ] Für Fortschritt, gegen Stillstand und Bevormundung.

Ailuros
2009-08-26, 10:44:40
ich glaube dein problem ist, dass du das viel zu eng siehst. deine aussage z.b. eben: ich nehme an du beziehst dich auf meine meinung, dass ich den AF Filter bei AMD ausreichend finde und zwar deshalb, weil er im spiele-alltag zu wenig - oder anders gesasgt im vergleich zu nvidias default einstellung - quasi nicht zu unterscheiden - auffällt?

Sag mal dreht sich die Welt nur um Dich oder was? Ich hab nirgends Deinen oder jeglichen anderen Namen erwaehnt. Wer sich jetzt trotzdem angesprochen fuehlt, kann ich leider nichts gegen seine Gewissensbisse oder seine absichtliche Blindheit etwas anrichten.

1. habe ich NIEMALS auch nur annähernd angedeutet, dass AMDs Filter das "tollste überhaupt" ist

Es wird aber besser werden und ich will hoffen dass Du auch in der Zukunft keinen Unterschied sehen wirst.


2. bin ich kein fanatiker der sich jeden "shice" den hals runter würgen lässt - stell dir vor ich hab mich schon über den einen oder anderen bug im catalyst crew fedback-programm beschwert. .... auch über AF filter mit der bitte um verbesserung - nicht weil ich nicht damit leben kann sondern weil ich diese lächerlichen never-ending-mir-is-fad-und-mir-fällt-sonst-nix-mehr-ein-also-beschwer-ich-mich-wieder-mal-über-die-filterqualität-diskussionen nicht mehr sehen kann.

Wie gesagt wenn Du Dich angesprochen fuehltest und Zeit verschwendest Dich ueber etwas zu entschuldigen welches NIE DIREKT AUF DICH GEZIEHLT WAR....was sagt man denn dazu? Man kann sich natuerlich auch die Augen selber ausreissen.....

und jetzt bitte zurück zum thema
damit bist aber jetzt nicht zwangsweise DU gemeint sondern gewisse andere subjekte hier im forum die mit einer perversen vorlieber immer wieder diese thema ausgraben und damit irgendwelche flame-bashing-troll-wars auszutragen.

Wir koennen es auch anders machen: wir schicken JEDEN Stoerfaktor fuer einige Zeit oder permanent in Urlaub ohne jegliche Ausnahme und dann ist wirklich Ruhe.

nagus
2009-08-26, 11:05:25
...

Wie gesagt wenn Du Dich angesprochen fuehltest und Zeit verschwendest Dich ueber etwas zu entschuldigen welches NIE DIREKT AUF DICH GEZIEHLT WAR....was sagt man denn dazu? Man kann sich natuerlich auch die Augen selber ausreissen.....
...

wenn du mein posting zitierst, ist das dann so abwegig, dass du dich auf mich beziehst? tut mir leid wenn ich mich zu angesprochen gefühlt habe.

Ailuros
2009-08-26, 11:14:12
wenn du mein posting zitierst, ist das dann so abwegig, dass du dich auf mich beziehst? tut mir leid wenn ich mich zu angesprochen gefühlt habe.

Nochmal Qualitaet und Fanatik passen nicht in den gleichen Satz. Jemand der fanatische Perspektiven zu einem jeglichem Thema hat, hat in meinem Buch nichts mit jeglicher Qualitaet zu tun. Es war ein ziemlich klare Antwort auf Deine "IQ Fanatiker" Bezeichnung und sonst nichts.

Tarkin
2009-08-26, 11:17:13
Wohin die Abwesenheit der von dir beschriebenen Mentalität führt, sieht man schön an den Konsolen: Hauptsache auf ner großen Glotze, Hauptsache es steht "HD" drauf, egal wie dann die Auflösung wirklcih ist, Blurfilter statt richtigem AA, Matschtexturen usw.

[ x ] Für Fortschritt, gegen Stillstand und Bevormundung.

Du kannst mir glauben wenn ich sage, dass mir die verdammten Konsolen gehörig am Keks gehen weil die veraltete Hardware in den letzten Jahren zu einem Stillstand der Entwicklung bei PC Spielen geführt hat (siehe Wolfenstein). Ich würde sogar soweit gehen zu behaupten Konsolen machen PC Spiele kaputt.

Aber was hat das mit meiner Aussage bzgl. Aufreger-Mentalität zu tun?

Wie auch immer. Die Filterqualität wird mit der neuen 58XX Generation besser werden - das hat aber meiner Meinung nach nichts damit zu tun, dass hier und anderswo sich ständig über die ach so hässliche Filterqualität auf ATi Hardware beschwert wurde.

Ailuros
2009-08-26, 11:19:11
Dass Evergreen angeblich eine bessere Filterungsqualitaet liefern koennte ist Grund zum feiern FUER ALLE und kein Grund ueber Bloedsinn zu diskuttieren.

Gast
2009-08-26, 11:27:27
Jup. Das sehe ich genauso und eine verbesserte BQ ist bei mir immer ganz gleich ob von ATI oder NV immer willkommen.

Gast
2009-08-26, 11:38:24
Bin ein Dau, daher die Frage: Wenn am Gerücht mit der besseren BQ etwas Wahres dran sein sollte, wird es dann bei angenommenen 256-Bit @~4.4GB/s nicht etwas eng - oder aber besteht die Möglichkeit, dass sich das bessere BQ-Featureset nicht nur auf DX11-only Games bezieht?

Denn wenn nicht, dann kann man imo davon ausgehen, dass der R(V)8xx performancetechnisch ein ziemlicher Hammer wird (sry 4 UGS)!

LovesuckZ
2009-08-26, 11:44:09
Dass Evergreen angeblich eine bessere Filterungsqualitaet liefern koennte ist Grund zum feiern FUER ALLE und kein Grund ueber Bloedsinn zu diskuttieren.

Verstehe ich nicht. Denen, den es bis heute stört, werden doch von denen, die vollkommen zufrieden sind, niedergemacht - "IQ Fanatiker"...
Ich wüsste nicht, warum eine bessere Filterqualität bei AMD positiv aufgenommen werden sollte. Wer heute sich hier hinstellt und die Unterschiede negiert, kann morgen nicht in der Front stehen und von toller Filterung reden. Schlussendlich können die Medien die mögliche verbesserte Qualität garnicht loben, denn sie würden ihr Gesicht verlieren.

Ailuros
2009-08-26, 11:48:35
Bin ein Dau, daher die Frage: Wenn am Gerücht mit der besseren BQ etwas Wahres dran sein sollte, wird es dann bei angenommenen 256-Bit @~4.4GB/s nicht etwas eng - oder aber besteht die Möglichkeit, dass sich das bessere BQ-Featureset nicht nur auf DX11-only Games bezieht?

Denn wenn nicht, dann kann man imo davon ausgehen, dass der R(V)8xx performancetechnisch ein ziemlicher Hammer wird (sry 4 UGS)!

Die Andeutung spielte eher deutlich auf bessere Filterungsqualitaet an. Bis jetzt ist noch gar nichts bekannt um was es sich genau handeln koennte. Es koennte aber sein dass eine gewisse Bandbreiten-Limitierung (falls diese ueberhaupt vorhanden ist) zur theoretischen Verbesserung beitragen koennte. Auf der seligen GF2 GTS kam das damalige (nicht adaptive) 2xAF mit relativ kleinem Leistungsverlust, eben weil die GPU Bandbreiten-limitiert war und Fuellrate im Ueberschuss dadurch hatte.

Schlammsau
2009-08-26, 11:52:19
Schaden wird die spekulative Bildqualitätsverbesserung mit Sicherheit nicht, aber wenn ich ehrlich bin und wie jeder hier weiss, ist die AF Quali für mich kein Kaufgrund.

Warum sollte es für den Rest kein Grund zum Feiern sein?
99% der Userschaft (und auch ich) haben nie bezweifelt, dass nVidia besser filtern kann, es hat sie nur einfach nie gestört! ;)

Da verwechselst du was LZ!

Ailuros
2009-08-26, 11:53:16
Verstehe ich nicht. Denen, den es bis heute stört, werden doch von denen, die vollkommen zufrieden sind, niedergemacht - "IQ Fanatiker"...
Ich wüsste nicht, warum eine bessere Filterqualität bei AMD positiv aufgenommen werden sollte.

Weil es erstmal ein Schritt in die richtige Richtung ist IMHO. Soll dass heissen dass ich persoenlich froh war ueber den Umstieg von G7x auf G80 von der Filterungsqualitaet und deren Leistung?

Wer heute sich hier hinstellt und die Unterschiede negiert, kann morgen nicht in der Front stehen und von toller Filterung reden. Schlussendlich können die Medien die mögliche verbesserte Qualität garnicht loben, denn sie würden ihr Gesicht verlieren.

Dafuer muesste man wissen was genau geaendert wurde, ueber welches ich momentan keine Ahnung habe.

***edit: und da Schlammsau das Thema "Kaufgrund" gerade beruehrte, fuer mich persoenlich ist eine bessere Filterungsqualitaet fuer jegliche Evergreen GPU durchaus ein sehr guter Kaufgrund.

Aquaschaf
2009-08-26, 11:54:03
Ich wüsste nicht, warum eine bessere Filterqualität bei AMD positiv aufgenommen werden sollte.

Man hat als Mensch mit einem Auge für Filterqualität wieder eine Auswahl zwischen Produkten von mehr als einem Hersteller. Ergo mehr Konkurrenz in diesem Marktsegment und das ist positiv.

LovesuckZ
2009-08-26, 11:55:35
Und dann wird ihnen die mögliche verbesserte Qualität am sogenannten Arsch vorbeigehen. Das Loben von Medien und Forumsteilnehmern müsste von ihnen sogar kritisiert werden, da es sich nur ganz, ganz minimale Unterschiede handele und man sowieso nur ein IQ Fanatiker wäre. Die alte Qualität war für 99% einfach 100% ausreichend.

Ich sehe hier ein riesiger Problem, wie der Vorteil überhaupt vermitteln werden kann, wenn der heutige Status keine Kritik erfährt.

Gast
2009-08-26, 11:58:58
Aber was hat das mit meiner Aussage bzgl. Aufreger-Mentalität zu tun?

Konsolenspieler fressen kritiklos, was ihnen vorgeworfen wird. Wie sich die Bildqualität entwickelt (hat), siehst du ja selbst. Es färbt sogar leider durch Cross Plattform auf den PC-Spiele-Markt durch.

Wenn sich niemand aufregt und Verbesserungen fordert, wird es zu einem Stillstand oder gar Rückschritt kommen - siehe Nvidia mit GF6/7: Die meisten User waren mit dem zufrieden was ATi bot, also hat man sich auch die Transistoren gespart.

Schlammsau
2009-08-26, 12:00:52
***edit: und da Schlammsau das Thema "Kaufgrund" gerade beruehrte, fuer mich persoenlich ist eine bessere Filterungsqualitaet fuer jegliche Evergreen GPU durchaus ein sehr guter Kaufgrund.

Freut mich.

Ich zocke 90% der Zeit nur noch von der Couch aus über den PC. Ganz selten werden Spiele direkt am PC gezockt.
Mein TV ist rund 2 1/2 Meter entfernt, was meinste wieviel ich da vom AF mitbekomme?

Mich hat die "minderwertige" Filterquali von ATi noch nie gestört.

Eggcake
2009-08-26, 12:07:16
@LoveSuckZ

Falls (ich sage nur falls) die Filterqualität von ATI diejenige von NV überschreitet, müsstest du konsequenterweise auch NV hart kritisieren - den Tag will ich erleben!
Ansonsten: können wir die Diskussion nicht auf den Zeitpunkt verschieben, wenn es auch wirklich soweit ist und nicht jetzt schon über dieses "riesige Problem" diskutieren?

Gast
2009-08-26, 12:10:00
Die Andeutung spielte eher deutlich auf bessere Filterungsqualitaet an. Bis jetzt ist noch gar nichts bekannt um was es sich genau handeln koennte. Es koennte aber sein dass eine gewisse Bandbreiten-Limitierung (falls diese ueberhaupt vorhanden ist) zur theoretischen Verbesserung beitragen koennte. Auf der seligen GF2 GTS kam das damalige (nicht adaptive) 2xAF mit relativ kleinem Leistungsverlust, eben weil die GPU Bandbreiten-limitiert war und Fuellrate im Ueberschuss dadurch hatte.

Danke für die Antwort :). Trotzdem noch eine, wenn auch vermutlich dämliche Frage: Wäre das Design dann nicht mehr als evolutionär, denn bisher ging man ja imo nur von einem erweiterten RV770 bzw. 790 aus?

LovesuckZ
2009-08-26, 12:10:44
@LoveSuckZ
Falls (ich sage nur falls) die Filterqualität von ATI diejenige von NV überschreitet, müsstest du konsequenterweise auch NV hart kritisieren - den Tag will ich erleben!


Ziemlich unsinnig. Die Qualität der G8x/9x/200 Karten wurde nicht gesenkt. Wenn AMD besser ist, kann man nVidia wohl kaum kritisieren, warum sie nicht schon im November 2006 das Oktober 2009 Niveau erreicht haben...

crux2005
2009-08-26, 12:11:21
Wir koennen es auch anders machen: wir schicken JEDEN Stoerfaktor fuer einige Zeit oder permanent in Urlaub ohne jegliche Ausnahme und dann ist wirklich Ruhe.

auf griechische Inseln? ;D;D

(sry, aber das musste ich schreiben :biggrin:)

Eggcake
2009-08-26, 12:11:47
Wie ich bereits sagte: selbst eine bessere Filterqualität von ATI würde bei dir die Kritik auf AMD lenken und nicht auf NV - weshalb noch darüber diskutieren?

Ailuros
2009-08-26, 12:49:31
Freut mich.

Ich zocke 90% der Zeit nur noch von der Couch aus über den PC. Ganz selten werden Spiele direkt am PC gezockt.
Mein TV ist rund 2 1/2 Meter entfernt, was meinste wieviel ich da vom AF mitbekomme?

Mich hat die "minderwertige" Filterquali von ATi noch nie gestört.

Es ist alles Geschmacksache und wie es einem jeglichen persoenlich steht. Wenn Du nur 2.5m vom TV entfernt bist und dieser vielleicht auch noch ein LCD sein koennte mit sagen wir 32" Diagonale, ist von Grund auf schon jeder Pixel so gigantisch dass es keinen Sinn mehr macht ueber jegliche Filterung zu reden.

Versteh mich nicht falsch; ich respektiere durchaus jedermanns Bevorzugungen. Ich erwarte dann aber ebenso zumindest den gleichen Respekt fuer meine eigenen Bevorzugungen.

auf griechische Inseln? ;D;D

(sry, aber das musste ich schreiben :biggrin:)

Klingt aber nicht nach irgendeiner Strafe LOL ;)

Danke für die Antwort :). Trotzdem noch eine, wenn auch vermutlich dämliche Frage: Wäre das Design dann nicht mehr als evolutionär, denn bisher ging man ja imo nur von einem erweiterten RV770 bzw. 790 aus?


Nein wieso auch? Schau her Du hast auf 4870 folgendes:

30 GTexels/s bei 115.2 GB/s

Wenn Du jetzt theoretisch </= 60 GTexels bei =/<160 GB/s haettest, koennte es sein dass unter Bedingungen die Bandbreite limitiert. In dem Fall ist lediglich die mangelnde Bandbreite schuld an jeglicher moeglicher Limitierung als der Design selber.

Gast
2009-08-26, 13:06:38
Es ist alles Geschmacksache und wie es einem jeglichen persoenlich steht. Wenn Du nur 2.5m vom TV entfernt bist und dieser vielleicht auch noch ein LCD sein koennte mit sagen wir 32" Diagonale, ist von Grund auf schon jeder Pixel so gigantisch dass es keinen Sinn mehr macht ueber jegliche Filterung zu reden.

Versteh mich nicht falsch; ich respektiere durchaus jedermanns Bevorzugungen. Ich erwarte dann aber ebenso zumindest den gleichen Respekt fuer meine eigenen Bevorzugungen.



Klingt aber nicht nach irgendeiner Strafe LOL ;)


Nein wieso auch? Schau her Du hast auf 4870 folgendes:

30 GTexels/s bei 115.2 GB/s

Wenn Du jetzt theoretisch </= 60 GTexels bei =/<160 GB/s haettest, koennte es sein dass unter Bedingungen die Bandbreite limitiert. In dem Fall ist lediglich die mangelnde Bandbreite schuld an jeglicher moeglicher Limitierung als der Design selber.

eben?!

Ailuros
2009-08-26, 13:58:28
eben?!

Was soll daran mehr als evolutionaer sein?

Gast
2009-08-26, 18:09:14
Wurde eigentlich schon Samples für Reviews rausgeschickt?

Gast
2009-08-26, 18:13:10
ja

Ailuros
2009-08-26, 19:59:22
ja

Sei Dir nicht so selbstsicher. Devsamples ja; der Rest noch nicht.

AnarchX
2009-08-26, 20:00:47
Gary Kay hatte doch schonmal angedeutet, dass er eine Karte hat:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7471038#post7471038

horn 12
2009-08-26, 20:06:16
Und warum ist es erneut so still um den RV870, am Montag gings ja noch, aber HEUTE gar keine Neuigkeiten mehr... Grrr!:mad:
Will endlich mal einige Benchmarks sehen, oder ZUMINDEST etwas über den Lüfter unter IDLE / LAST erfragen.

Ailuros
2009-08-26, 20:08:11
Und warum ist es erneut so still um den RV870, am Montag gings ja noch, aber HEUTE gar keine Neuigkeiten mehr... Grrr!:mad:
Will endlich mal einige Benchmarks sehen, oder ZUMINDEST etwas über den Lüfter unter IDLE / LAST erfragen.

Benchmarks? Junge Du hasts eilig. Erstmal denke ich dass es zwar leaks geben wird aber nichts anstaendiges und das ernste Zeug kommt erst nachdem das NDA auslaeuft. Es ist immer noch August....:rolleyes:

Gary Kay hatte doch schonmal angedeutet, dass er eine Karte hat:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7471038#post7471038

Na dann will ich mal hoffen dass er sich ueber die etlichen Wochen die er Zeit hat, sich richtig ueber die GPU lehnt und nicht wieder nur ein paar langweilige Balken praesentiert die auch ein 8-jaehriger zusammenstellen kann.

Armaq
2009-08-26, 23:37:31
Wo ist der nette Link von Nvidias Chef hin? Rechenleistung x570. War recht interessant und absolut unglaubwürdig, wenn er wirklich reine Rechenleistung und nicht Performance in irgendwas meint.

dschie
2009-08-26, 23:58:51
http://www.xbitlabs.com/news/video/d...of_Nvidia.html

nagus
2009-08-27, 00:07:01
Wo ist der nette Link von Nvidias Chef hin? Rechenleistung x570. War recht interessant und absolut unglaubwürdig, wenn er wirklich reine Rechenleistung und nicht Performance in irgendwas meint.

das ist ihm wahrscheinlich in einem fiebertraum "gekommen".

Armaq
2009-08-27, 00:13:51
das ist ihm wahrscheinlich in einem fiebertraum "gekommen".
Da ja allg. von einem Chip for a specific job gesprochen wird, gehe ich von programmable GPU-Code aus. Dann macht das sicher Sinn.

Ailuros
2009-08-27, 08:29:26
Ich bin zu faul jetzt 4 Posts in der Reihe zu loeschen (damit Ihr auch nicht meckert), aber der Link ueber Huang's 570x BS existiert im GT300 thread wo er auch hingehoert.

reunion
2009-08-27, 18:11:10
More Details about ATi Eyefinity Technology:

ATI Eyefinity technology is something pretty cool that will be available the upcoming Radeon HD 5800 series. It allows you to extend your game view across 3 displays like the Matrox TripleHead2Go except that it gonna be much more powerful. That's over 12 megapixels at 2560 x 1600 resolution for the ultimate gaming experience. It is ideal for flight sim, racing games, role paying games, real-time strategy, first-person shooter and even multimedia apps. So how powerful exactly this card is?

This card sports a 2nd gen TeraScale engine that delivers more than 2 teraFLOPS of processing power. With so much power pack inside, it supports a new anisotropic filtering method too. If one isn't enough, you can get up to 1.8X graphics performance boost by pairing them up. The launch is around the corner and reviews will start popping out by middle of September Stay tuned for more information.

http://vr-zone.com/articles/more-details-about-ati-eyefinity-technology/7518.html?doc=7518

mapel110
2009-08-27, 18:25:18
Leider keine neuen Details. Wissen wir ja seit dem PCGH-Interview vor einigen Wochen.

Gast
2009-08-27, 19:06:15
Haben Spieler, die drei Displays z.B. in CSS einsetzen, nicht einen großen Vorteil gegenüber anderen Spielern mit nur einem Monitor?

AnarchX
2009-08-27, 19:08:16
Da man unter CSS wohl das FOV nicht anpassen kann, dürfte das wohl kein großes Problem sein.

Coda
2009-08-27, 19:18:59
Es wird aber entweder der horizontale FOV aus dem vertikalen berechnet oder andersrum. Bei festen vertikalem FOV sieht man durch mehrere Bildschirme tatsächlich mehr.

Bei festem horizontalem (sehr selten) entsprechend weniger.

ShadowXX
2009-08-27, 20:13:51
More Details about ATi Eyefinity Technology:

This card sports a 2nd gen TeraScale engine that delivers more than 2 teraFLOPS of processing power. With so much power pack inside, it supports a new anisotropic filtering method too. If one isn't enough, you can get up to 1.8X graphics performance boost by pairing them up. The launch is around the corner and reviews will start popping out by middle of September Stay tuned for more information.

http://vr-zone.com/articles/more-details-about-ati-eyefinity-technology/7518.html?doc=7518
new != better.....

Man wird sehen was da nun wirklich kommt, aber momentan bin ich da etwas skeptisch.

reunion
2009-08-27, 20:16:39
new != better.....

Man wird sehen was da nun wirklich kommt, aber momentan bin ich da etwas skeptisch.

Richtig, aber das RV8xx eine neue Referenz in der Filterqualität setzen soll kam ja von CJ.

LovesuckZ
2009-08-27, 20:18:32
Und kann er das einschätzen? Es kann einfach sein, dass ein ähnlicher nVidia-HQ Modus standard ist und somit man - wie beim rv420 - sich als "New Leader" positionieren kann.

Gast
2009-08-27, 20:30:21
Richtig, aber das RV8xx eine neue Referenz in der Filterqualität setzen soll kam ja von CJ.
Genau genommen hat er von einer neuen Referenz in Sachen Texturqualität gesprochen - Filter hat er (leider) nicht erwähnt.

-Carsten

reunion
2009-08-27, 20:31:45
Genau genommen hat er von einer neuen Referenz in Sachen Texturqualität gesprochen - Filter hat er (leider) nicht erwähnt.

-Carsten

Die Texturqualität einer Grafikkarte kann sich nur über die Qualität der Filter definieren.

Gast
2009-08-27, 20:36:48
Richtig, aber das RV8xx eine neue Referenz in der Filterqualität setzen soll kam ja von CJ.

Und du nimmst das auch für bare Münze? Die können viel behaupten...

reunion
2009-08-27, 20:40:45
Und du nimmst das auch für bare Münze? Die können viel behaupten...

Natürlich muss man abwarten. Die Aussagen kommen jedenfalls von AMDs Marketingmaterial das vor kurzem verschickt wurde, eine nackte Lüge oder Falschinformation kann man faktisch ausschließen.

Gast
2009-08-27, 20:55:41
Und kann er das einschätzen? Es kann einfach sein, dass ein ähnlicher nVidia-HQ Modus standard ist und somit man - wie beim rv420 - sich als "New Leader" positionieren kann.

Ist das jetzt schlecht?

Gast
2009-08-27, 20:56:32
Die Texturqualität einer Grafikkarte kann sich nur über die Qualität der Filter definieren.
Natürlich stimmt das (nicht). Das Marketing kann die Texturqualität noch ganz anders definieren: Zum Beispiel über die Texturgröße, denn spätestens seit SLI und SLI und Crossfire wissen wir ja: The longer your benchmark bars, the longer your e-Penix!

Dasselbe gilt natürlich auch für Texturen. Eine 256²-Textur sieht "sowieso scheiße aus" (konnte ja sogar schon 3dfx), 2048²-Texturen müssens mindestens sein (weil, Nvidia is ja viel Toller) aber mit D3D11 gibt's sogar 16384² Texturen - was meinste wie toll die erst aussehen? :)

-Carsten

reunion
2009-08-27, 21:01:46
Natürlich stimmt das (nicht). Das Marketing kann die Texturqualität noch ganz anders definieren: Zum Beispiel über die Texturgröße, denn spätestens seit SLI und SLI und Crossfire wissen wir ja: The longer your benchmark bars, the longer your e-Penix!

Dasselbe gilt natürlich auch für Texturen. Eine 256²-Textur sieht "sowieso scheiße aus" (konnte ja sogar schon 3dfx), 2048²-Texturen müssens mindestens sein (weil, Nvidia is ja viel Toller) aber mit D3D11 gibt's sogar 16384² Texturen - was meinste wie toll die erst aussehen? :)

-Carsten

Okay, dem Marketing kann man so etwas natürlich zutrauen. Auch wenn das eine ziemliche Verarsche wäre. Wie immer gilt: Time will tell!

Gast
2009-08-27, 21:05:14
Okay, dem Marketing kann man so etwas natürlich zutrauen. Auch wenn das eine ziemliche Verarsche wäre. Wie immer gilt: Time will tell!
Richtig – und ich denke wir hoffen beide, dass du hier Recht behältst und wir wirklich auch bessere Filter neben den größeren Texturauflösungen sehen.

–Carsten

Gast
2009-08-27, 23:27:21
Ist das jetzt schlecht?
Wenn die Presse das 1zu1 abtippt: Ja!

horn 12
2009-08-28, 16:32:24
Jepp. denke auch!
Wenn gar nicht früher.
Ebenso ist die HD4870 X² so gut wie ausverkauft, wenige Restposten von Sapphire/ Gigabyte sollten in 2 bis 3 Wochen fast leergeräumt sein, andere Hersteller können Deutschlandweit, ebenso Italienweit nimmer liefern, sind schon EOL.

Somit hat eine HD5870 1024 freie Fahrt und wird NICHT durch das Eigenprodukt behindert, ebenso wenn die toll werden sollte diese Karte könnten doch gar einige umsteigen von HD4870 X² auf die Neue 5870-er Serie.

deekey777
2009-08-28, 19:22:42
Und kann er das einschätzen? Es kann einfach sein, dass ein ähnlicher nVidia-HQ Modus standard ist und somit man - wie beim rv420 - sich als "New Leader" positionieren kann.
Du meinst R520.
Aber auch die "adaptive" Filterung des R420 war revolutionär...

Gouvernator
2009-08-28, 22:21:23
Haben Spieler, die drei Displays z.B. in CSS einsetzen, nicht einen großen Vorteil gegenüber anderen Spielern mit nur einem Monitor?
Oh ja das haben die...

Wenn das mit Surround Gaming so stimmt dann ist es eine Sensation für mich.

y33H@
2009-08-28, 22:25:34
Bereits mit 16:9 statt 5:4 hast du einen immensen Vorteil ;)

Gouvernator
2009-08-28, 22:29:05
Bereits mit 16:9 statt 5:4 hast du einen immensen Vorteil ;)
Naja beim Surround sind es dann Welten... Ich frage mich ob es nur mit digitalen TFTs gehen würde. Wenn auch mit analogen CRTs dann drehe ich durch.

Coda
2009-08-28, 22:53:54
Oh ja das haben die...

Wenn das mit Surround Gaming so stimmt dann ist es eine Sensation für mich.
Das ist aber eine reine Treibergeschichte.

derguru
2009-08-28, 23:09:41
hat jemand erfahrung mit surround gaming? kann ich mir kaum vorstellen das das soo ein erlebniss sein soll,da verliert man doch ständig den überblick oder nicht?
omg wenn ich mir das vorstelle 3*22 zoll tfts und dann ein shooter,da muss man aber schon weit weg vom tisch sitzen um den überblick zu bewahren.

Nightspider
2009-08-28, 23:10:33
Naja beim Surround sind es dann Welten... Ich frage mich ob es nur mit digitalen TFTs gehen würde. Wenn auch mit analogen CRTs dann drehe ich durch.

LoL ?

Das hängt doch nicht vom Bildschirm ab.

Natürlich kannst du auch 3 CRTs, OLEDs, Beamer oder was weiß ich an ein TripleHeadToGo oder eben an die neuen Karten anschließen.

Ich warte mal lieber auf so ein "langes" gebogenes OLED ohne Reaktionszeit und mit pulsierendem Bild. Dann tret ich allen bei CounterStrike und UnrealTournament in den Arsch. :freak:

Gast
2009-08-29, 01:39:20
Ich warte mal lieber auf so ein "langes" gebogenes OLED ohne Reaktionszeit und mit pulsierendem Bild. Dann tret ich allen bei CounterStrike und UnrealTournament in den Arsch. :freak:
der thread sollte vlt. umbenannt werden in "tanz den niveau-limbo" :D
btw. ich hab ne kaputte 17er röhre, da pulsiert das bild auch ganz ordentlich ... kann ich dir für wenig geld abtreten. bei interesse bitte pn.

N0Thing
2009-08-29, 01:57:58
hat jemand erfahrung mit surround gaming? kann ich mir kaum vorstellen das das soo ein erlebniss sein soll,da verliert man doch ständig den überblick oder nicht?
omg wenn ich mir das vorstelle 3*22 zoll tfts und dann ein shooter,da muss man aber schon weit weg vom tisch sitzen um den überblick zu bewahren.


Würde mich auch mal interessieren. Nen Freund will bei seinem nächsten PC-Upgrade wohl drei Monitore via Matrox Triple-Head Lösung benutzen, sowohl zum arbeiten, als auch zum Spielen. Ich merke schon hin und wieder bei meinem 22" 16:10 TFT, daß ich nicht das ganze Bild wahrnehme, sondern nur einen Teil, wie sieht es dann erst mit drei Monitoren aus?
Und welche Grafikkarte muß man im PC haben, damit die Geschichte überhaupt Sinn macht?

HD-Ronny
2009-08-29, 04:56:35
Und welche Grafikkarte muß man im PC haben, damit die Geschichte überhaupt Sinn macht?

Hm, eine HD5870 z.B ??

Gouvernator
2009-08-29, 08:30:10
Ich habe recht viel Erfahrung mit Surround Gaming. Bis jetzt geht das nur mit Matrox entweder Analog TripleHead oder Digital Triple Head. Jeweils kostet so ein Gerät um die 200€. Aternativ gibt es noch die Möglichkeit Soft TH2Go zu verwenden das ist ein freies Programm das in fast jedem Spiel funktioniert man braucht lediglich eine 2 Graka für den dritten Monitor.
Der Nachteil einer solchen software Lösung lag bisher in der Performance. Matrox Teile hatten ihr Manko bei den hohen Auflösungen. Man kann z.B. bei Matrox keine 3 1920x1200 anschließen.

ATI Lösung würde quasi alle Fliegen auf einmal schlagen. Erstens keine Begrenzungen der Auflösungen und/oder Hz, und zweitens keine Performance Verluste.

Ich merke schon hin und wieder bei meinem 22" 16:10 TFT, daß ich nicht das ganze Bild wahrnehme, sondern nur einen Teil, wie sieht es dann erst mit drei Monitoren aus?

Es ist einbisschen ungewohnt . Aber man gewöhnt sich sehr schnell. Bei manchen Spielen mit grossen Displays (1920x1200) hat man den Eindruck zu schweben... auf jeden Fall sehr geil.

RLZ
2009-08-29, 09:05:37
Das soll wohl ATIs Marketing Gegenstück zu 3DVision werden.
Die Vergangenheit zeigt, dass es sehr viel Sinn macht, wenn die Hardwarehersteller versuchen unterschiedliche neue Technologien durchzudrücken. :rolleyes:

horn 12
2009-08-29, 09:35:29
Nun muss ich nur noch die HD4870 an den Mann/ Frau bringen, die HD5870 1GB/ 2GB ist so gut wie gekauft. Wird sicher an die HD4870 X² rankommen, denn ansonsten würde die nicht eingestampft werden bis die HD5870 X² da wäre. Preislich soll sie wohl zwischen 250 bis 300 Euro liegen, die 2GB Version wohl 30-40 Euro darüber. Aber was solls, danach ist mal Ruhe angesagt bei mir bis Ende 2011.

Gast
2009-08-29, 10:34:26
Aber auch die "adaptive" Filterung des R420 war revolutionär...
Nö, das konnte auch RV350/360 schon.

Gast
2009-08-29, 10:35:23
Das ist aber eine reine Treibergeschichte.

Stereoskopie auch – das macht IMO weder das eine noch das andere weniger "nice to have".

–Carsten

2B-Maverick
2009-08-29, 10:47:09
Stereoskopie auch – das macht IMO weder das eine noch das andere weniger "nice to have".

–Carsten

Triple-Head mit 3D - das wäre doch mal was!

Wäre abzuwarten, ob die Fremd-3D-Treiber mit dem neuen Triple-Head von ATI klarkommen. ..... =)
DAS wäre was... träum... :wink:

Gast
2009-08-29, 11:29:03
Nun muss ich nur noch die HD4870 an den Mann/ Frau bringen, die HD5870 1GB/ 2GB ist so gut wie gekauft. Wird sicher an die HD4870 X² rankommen, denn ansonsten würde die nicht eingestampft werden bis die HD5870 X² da wäre. Preislich soll sie wohl zwischen 250 bis 300 Euro liegen, die 2GB Version wohl 30-40 Euro darüber. Aber was solls, danach ist mal Ruhe angesagt bei mir bis Ende 2011.

Auch wenn dies jetzt nicht OnTopic ist, aber es muss jetzt einfach mal gesagt werden: @horn 12, was denkst du eigentlich wen deine persönliche Hardwareanschaffungspolitik in den nächsten Jahren interessiert?
Man muss nicht ständig zu einem Thema posten das einen interessiert nur um mitgeredet zu haben, spekulier anhand von Informationen die dir evtl vorliegen (oder auch nicht) mit, oder lass es bleiben, aber verschon uns doch bitte mit solchen Nonsense Postings.

Coda
2009-08-29, 15:29:54
Stereoskopie auch – das macht IMO weder das eine noch das andere weniger "nice to have".

–Carsten
Ich meinte damit nur, dass wenn einer es implementiert es nicht lange dauern wird bis der ganze Markt es unterstützen muss. Das ist alles.

reunion
2009-08-29, 16:13:14
Das ist aber eine reine Treibergeschichte.

Warum reine Treibergeschichte? Ohne entsprechende Hardware wird man wohl kaum drei Monitore ansteuern können. Ansonsten würde man nicht auf den professionellen Karten für mehr als zwei Monitore zwei Chips verbauen.

reunion
2009-08-29, 16:16:31
Das soll wohl ATIs Marketing Gegenstück zu 3DVision werden.
Die Vergangenheit zeigt, dass es sehr viel Sinn macht, wenn die Hardwarehersteller versuchen unterschiedliche neue Technologien durchzudrücken. :rolleyes:

Bei dem Eyefinity braucht man nichts durchzudrücken. Wenn die Karte drei Monitore erlaubt und dem Spiel entsprechend vorgaukeln kann das es sich um einen handelt geht das mit jeder App.

RLZ
2009-08-29, 16:50:26
Bei dem Eyefinity braucht man nichts durchzudrücken. Wenn die Karte drei Monitore erlaubt und dem Spiel entsprechend vorgaukeln kann das es sich um einen handelt geht das mit jeder App.
Arbeiten die mit nur einem Viewport und einer Projektsfläche?
Bei 3 Monitoren würde ich eigentlich doch gern die beiden äußeren Bildschirm anwinkeln, was dann einen ordentliche Fehler bei der Darstellung geben müsste. (hab allerdings noch nie sowas benutzt, deswegen alles imo)

Coda
2009-08-30, 12:52:19
Ich gehe von einer Projektionsfläche aus. Alles andere würde ja eine Anpassung der Applikationen erfordern.

Warum reine Treibergeschichte? Ohne entsprechende Hardware wird man wohl kaum drei Monitore ansteuern können. Ansonsten würde man nicht auf den professionellen Karten für mehr als zwei Monitore zwei Chips verbauen.
Ja gut, die Hardware um drei Monitore anzusteuern muss vorhanden sein. Ich meinte eher das 3D-Bild über drei Monitore auszugeben als wäre es einer.

Ich finde das ganze ist aber eh ein bisschen ein Marketing-Stunt. Die Anzahl der Leute die sowas machen ist wohl sehr gering.

=Floi=
2009-08-30, 15:45:37
mir reicht ein 16:10 monitor. man muß erst mal 1920X1200 flüssig schaffen...

Blacksoul
2009-08-30, 15:47:58
Ich finde das ganze ist aber eh ein bisschen ein Marketing-Stunt. Die Anzahl der Leute die sowas machen ist wohl sehr gering.

Ich frage mich auch, ob es dann bei Spielen wie Crossfire an feste Profile gebunden ist. Mich persönlich interessiert es sowieso nur für den Desktop. Das erspart mir dann die zweite Karte.


t.b.d

Daredevil
2009-08-30, 15:50:55
Ich finde das ganze ist aber eh ein bisschen ein Marketing-Stunt. Die Anzahl der Leute die sowas machen ist wohl sehr gering.
Vllt. soll das ja ein "Nagut, wir haben zwar keine 3DBrille, aber das hier! Und dafür brauch man auch keine extra Hardware!" sein.

reunion
2009-08-30, 16:03:21
Ich finde das ganze ist aber eh ein bisschen ein Marketing-Stunt. Die Anzahl der Leute die sowas machen ist wohl sehr gering.

Der Punkt ist das die Leute welche sowas machen bisher zur teuren Matrox-Lösung greifen mussten, welche auch noch Einschränkungen unterlegen war. Jetzt bekommt man das quasi "for free" und ohne Gefrickel. Aber viel interessanter ist für mich ohnehin die Möglichkeit drei Monitoren überhaupt anschließen zu können, denn dadurch kann ich auch noch zusätzliche zu meinen zwei Monitoren meinen Fernseher anhängen ohne eine zweite Karte kaufen zu müssen. Das war es mir bisher nicht wert.

Gast
2009-08-30, 17:06:02
Trotzdem Schwachsinn und eigentlich kein Grund das hier als Feature anzupreisen. Das sind alles unwichtige Dinge.

YfOrU
2009-08-30, 17:36:36
Hoffentlich zieht sich das Feature durch die ganze Produktpalette denn das wäre auch bei den so genannten Office Karten sehr praktisch. Zwei Bildschirme und zusätzlich ein Präsentationsgerät ohne zweite Graphikkarte, lästigem umstecken oder einer Matrox Lösung.

So gering ist die Zahl der Anwender mit 2 Bildschirmen übrigens nicht, wer im IT Bereich auch über das Homeoffice arbeitet hat oft auch ein separates Display für Outlook usw.

StefanV
2009-08-30, 17:50:24
Es schaut so aus, als ob das der Fall ist, siehst ja am BIld der anderen aufgetauchten Karte mit 128bit SI...

Black-Scorpion
2009-08-30, 19:33:35
Trotzdem Schwachsinn und eigentlich kein Grund das hier als Feature anzupreisen. Das sind alles unwichtige Dinge.
Seit wann bestimmst du was Schwachsinn ist und was nicht?
Soll ATI dich etwa fragen was sie als Feature anpreisen können und was nicht?

Botcruscher
2009-08-30, 19:55:09
Die Zahl der potentiellen Nutzer ist auf jeden Fall deutlich größer als bei Multigpu. Und für den Mist werden Millionen verbrannt, bei gerade mal 3 bis 5% Nutzern. Bei 3 Displays ergibt die Technik das erste mal einen richtigen Sinn. Vorallem hat man bei 3 Displays nicht den Balken genau durch Sehfeld und Zielkreuz. 3 Displays sind imo _das_ Feature.

Gast
2009-08-30, 19:56:57
Seit wann bestimmst du was Schwachsinn ist und was nicht?
Soll ATI dich etwa fragen was sie als Feature anpreisen können und was nicht?

Wir können ja gern mal ne Umfrage machen dann siehst du was die meisten davon halten. Na wie ist es? Solchen Firlefanz braucht niemand, da gibts wichtigere Dinge.

Gast
2009-08-30, 19:59:48
Die Zahl der potentiellen Nutzer ist auf jeden Fall deutlich größer als bei Multigpu. Und für den Mist werden Millionen verbrannt, bei gerade mal 3 bis 5% Nutzern. Bei 3 Displays ergibt die Technik das erste mal einen richtigen Sinn. Vorallem hat man bei 3 Displays nicht den Balken genau durch Sehfeld und Zielkreuz. 3 Displays sind imo _das_ Feature.

Bei drei TFT schon garnicht, die meisten zeigen einen nen Vogel wenn man sowas überhaupt erwähnt.

2B-Maverick
2009-08-30, 20:00:00
Wir können ja gern mal ne Umfrage machen dann siehst du was die meisten davon halten. Na wie ist es? Solchen Firlefanz braucht niemand, da gibts wichtigere Dinge.

Findest DU!
Für mich wäre Tiple-Monitor der einzige Upgrade-Grund von meiner 4850.

Gast
2009-08-30, 20:00:30
Findest DU!
Für mich wäre Tiple-Monitor der einzige Upgrade-Grund von meiner 4850.

Gut für dich, bist aber nicht die Allgemeinheit.

Eggcake
2009-08-30, 20:09:01
Und du schon?

Black-Scorpion
2009-08-30, 20:11:18
Gut für dich, bist aber nicht die Allgemeinheit.
Das sagst ausgerechnet du?
Du bist derjenige der es als Firlefanz bezeichnet und aus welchem Grund?
Weil du der Nabel der Welt bist und genau weißt was Millionen Nutzer so brauchen und was nicht?
Hochmut kommt vor dem Fall und so hoch wie du fliegst könnte das eine verdammt harte Landung werden.

Botcruscher
2009-08-30, 20:15:08
Bei drei TFT schon garnicht, die meisten zeigen einen nen Vogel wenn man sowas überhaupt erwähnt.

Es muss ja nicht TN sein und bei der Ausrichtung geht auch noch was.

Gast
2009-08-30, 20:38:27
Das sagst ausgerechnet du?
Du bist derjenige der es als Firlefanz bezeichnet und aus welchem Grund?
Weil du der Nabel der Welt bist und genau weißt was Millionen Nutzer so brauchen und was nicht?
Hochmut kommt vor dem Fall und so hoch wie du fliegst könnte das eine verdammt harte Landung werden.

Millionen brauchen das...die Welt hat drauf gewartet 3 Stromschleudern nebeneinander aufzubaun.

Gouvernator
2009-08-30, 20:48:01
In Widescreengaming-Forum flippen manche aus deswegen schon...

Übrigens hat NV etwas vergleichbares im Angebot aber fragt nicht was das kostet! Das geht nur bei 8000$ QuadroPlex Karten. Nennt sich Mosaic-SLI...

@GAST
Trotzdem Schwachsinn und eigentlich kein Grund das hier als Feature anzupreisen. Das sind alles unwichtige Dinge.
Wie gesagt dieses Feature ist normalerweise sauteuer zu haben. Damit macht AMD ein ziemlich nettes Geschenk.

4 Vitamins
2009-08-30, 21:07:14
Bei drei TFT schon garnicht, die meisten zeigen einen nen Vogel wenn man sowas überhaupt erwähnt.

Mit wievielen hast du denn gesprochen?
2 000 000 oder mehr?
WAS NUR MIT 3en..................LOL

ps. schon in betracht gezogen dass sie dir den vogel aus anderen gründen zeigen? (taubenzüchter beispielweise zeigen anderen sehr gerne ihre vögel:tongue:)

gruss

Gast
2009-08-30, 21:12:49
@GAST

Wie gesagt dieses Feature ist normalerweise sauteuer zu haben. Damit macht AMD ein ziemlich nettes Geschenk.

Welcher normale Mensch kauft sich sowas? Die Zielgruppe ist extrem klein, von der erforderlichen Rechenpower ganz zu schweigen.

Gast
2009-08-30, 21:15:44
Mit wievielen hast du denn gesprochen?
2 000 000 oder mehr?
WAS NUR MIT 3en..................LOL


Zeig mir doch mal die Millionen User die drauf warten...

Daredevil
2009-08-30, 21:16:47
Es ist ein Feature, Features sind kaufgründe und davon kann man nie genug haben.
Ich sehe das mometan als Äquivalent zu Nvidias 3DBrille, brauch man auch nicht so wirklich, wenn man sich aber für interessiert ist das sehr sehr nett.

Es macht nix schneller ,leiser ,besser. Es erhöht das Spielerlebnis einfach nur.
Nur das es auch noch Leute die die 3 Monitore professionell einsetzen oder einfach nur weil sie Platz brauchen, da hat ATI eindeutig das wertvollere Feature.

Gouvernator
2009-08-30, 21:17:21
Welcher normale Mensch kauft sich sowas? Die Zielgruppe ist extrem klein, von der erforderlichen Rechenpower ganz zu schweigen.
Du brauchst nur 350€ um dir 3 TFTs zu kaufen. Das ist nicht die Welt... Niemand braucht 1500€ Displays dafür. Ich habe seit Jahren 3 CRTs stehen.

Gast
2009-08-30, 21:19:13
Es macht nix schneller ,leiser ,besser. Es erhöht das Spielerlebnis einfach nur.


Das möchte ich doch stark bezweifeln, alleine die Ränder würden mich bei Spielen schon extrem stören.

Botcruscher
2009-08-30, 21:20:30
Nebenbei hat der Strategie und Simulationsbereich genug freie Grafikpower. X³ mit Surround Gaming... ich kotz ab.=)

Das möchte ich doch stark bezweifeln, alleine die Ränder würden mich bei Spielen schon extrem stören.

Im Simulationsbreich absolut unwichtig. Cockpit mod gratis. ;)

Daredevil
2009-08-30, 21:22:06
Das möchte ich doch stark bezweifeln, alleine die Ränder würden mich bei Spielen schon extrem stören.
Deswegen nimmt man ja auch tfts mit dünnem Rand ;)
Zudem bemerkt man mit der Zeit die Ränder eh nicht mehr so wenn man sich auf das Spiel konzentriert.

4 Vitamins
2009-08-30, 21:24:36
Welcher normale Mensch kauft sich sowas? Die Zielgruppe ist extrem klein, von der erforderlichen Rechenpower ganz zu schweigen.

Drei gute monis kosten ca.600 euro, locker bezahlbar!
Da jeder eh schon einen monitor hat, müssen nur noch 2 monitore gekauft werden also ca. 400 euro.

Es wäre folgendes Szenario möglich:
strategigame X:
1 Monitor-links: Map
2 Monitor-mitte: Game
3 Monitor-rechts: Befehlinterface/ ausgewählte upgrade menüs usw.

Flugsimulation X:

1 Monitor-links: Außenansicht
2 Monitor-mitte: Cockpit
3 Monitor-rechts: rearview/map/zielcam usw.

Es gibt Unmengen an Möglichkeiten um 3 Monitore zu nutzen, auch in anderen Bereichen.

gruss

Gast
2009-08-30, 21:25:00
Deswegen nimmt man ja auch tfts mit dünnem Rand ;)
Zudem bemerkt man mit der Zeit die Ränder eh nicht mehr so wenn man sich auf das Spiel konzentriert.

Doch man merkt es und es ist störend. Dünn oder dicke Ränder spielt keine Rolle, es ist kein natürlicher Übergang.

Gast
2009-08-30, 21:27:27
nur bis man 2560x1600 auf 3 displays schafft wird wohl noch ne vergehen

ich bin mir auch nicht sicher ob da nicht aus kostengründen bei den günstigeren karten nur 2 dvi übrig bleiben

mal abwarten

Daredevil
2009-08-30, 21:32:59
Doch man merkt es und es ist störend. Dünn oder dicke Ränder spielt keine Rolle, es ist kein natürlicher Übergang.
Was stört dich jetzt eigentlich daran das Ati sowas machen will?
Das so etwas exisitiert?
Ich mein.... wenn du es nicht nutzen will, lässt du es einfach und gut ist.

Oder hast du etwa Angst das es mit Nvidia verglichen wird die so etwas nicht haben? ;)