PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Southern Islands - 28nm - Q3 11 - Q2 12


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11

X.Perry_Mental
2011-12-19, 14:07:03
http://img1.imagehousing.com/25/9bccf6e31bc3f7ddaf4658263e4f81bd.jpg
http://tweakers.net/ext/f/rW3iDVY7bUPoKnIKkKzchKST/full.png
http://gathering.tweakers.net/forum/list_messages/1467521/17

Im Schnitt ist das eine gemittelte Mehrleistung gegenüber der 580 von ca. 45%. Wenn man die Werte ernst nimmt und extreme Rosinenpickerei unterstellt, liegt die durchschnittliche Mehrleistung wohl deutlich unterhalb dieser 45%. Die bisher an der einen oder anderen Stelle unterstellte Leistung "580 plus 20% bis 30%" könnte also stimmen.

uweskw
2011-12-19, 14:07:44
Oder noch weiter getrennt: Einen einzigen Rechner als TV-Zuspieler und gleichzeitig Arbeits-/Zockrechner. Im Wohnzimmer wird ein Film geguckt und woanders gezockt. Und keiner hört was von dem anderen.
Klingt recht nützlich!

BlackBirdSR
2011-12-19, 14:13:13
All diese Aufregung:

Dabei sind doch die Informationsbrocken einiger Leute recht eindeutig.

AMD wird eine neue "High End" GPU vorstellen, welche ca. 30% über der GTX 580 liegt. Dies wird allerdings zu einem unverschämt hohen Preis passieren.
Die Karte wird dann Ende Januar breitere Verfügbarkeit vorweisen können und schon kurz darauf den "High End" Status verlieren, bei unter $300 landen und die GTX580 endgültig Ramschniveau erreichen.. ;)

Superheld
2011-12-19, 14:15:06
neliz

Ich sage etwa 30% bis 40% schneller als eine 580 in BF3

http://translate.google.de/translate?hl=de&sl=auto&tl=de&u=http%3A%2F%2Fgathering.tweakers.net%2Fforum%2Flist_messages%2F1467521%2F17

Kinman
2011-12-19, 14:15:36
Klappt jetzt auch schon mit mehreren Audiogeräten. Ich habe mittlerweile dessen 4.

Audigy 2 ZS als normale Soundkarte für Lautsprecher
Onboard Audio (nicht verwendet)
"Grafikkarten-Audio" (nicht verwendet)
USB-Audio vom Headset
Theoretisch kommt noch einmal Front-Panel-Audio dazu, wenn ich die Buchsen vom Gehäuse beim Onboard-Audio anstecken würde. Mit Windows 7 kann man steuern, was über welches Gerät ausgegeben werden sollte.

Wobei ich nur Skype (Headset) extra habe, alles andere läuft über die Lautsprecher.

---

Ich bin auch gespannt, ob es endlich möglich wird, GPU-Scaling ein für alle mal im CCC abzuschalten. Das klappt bei mir seit der 5770er nicht mehr. Egal was ich mache, es wird immer GPU-Scaling verwendet.

lg Kinman

Skysnake
2011-12-19, 14:16:05
Für ein Mehrplatzsystem wäre Multi-Point-Audio sicherlich ein nette Sache.
Ja denke ich auch, dass das für so etwas gedacht ist. Geht wahrscheinlich dann auch mit ner VM oder sonst was.

Da kann man sich dann eventuell einzelne Rechner in den Büros sparen, oder halt für Werbewiedergabe etc. so etwas verwenden. Für den normalen Heimanwender ist das eher weniger gedacht.

uweskw
2011-12-19, 14:16:40
Klar, und auf eine 7950 mit Leistung über GTX580 Niveau können wir uns schon freuen.

Duplex
2011-12-19, 14:28:26
neliz von MSI ist schon eine relative gute Quelle. Und unter Tessellation sind wohl 80% gegenüber Cayman durchaus möglich.

In einem weniger selektierten Parkour wird man wohl 30-40% vor der GTX 580 liegen.
Siehste also nur 30-40% vor GTX580...also 50-60% mehr als Cayman...
Für eine neue Architektur die 2048 Shader & 384 Bit SI hat ist das nicht viel...
Wenn die 7970 mit 4AA, 16AF in FullHD 30-40% mehr Leistung als eine GTX580 abliefert & das AF Problem gefixt wurde, dann ist die Karte 400 € wert.

derguru
2011-12-19, 14:31:19
problem ist das eine gtx580 um die 400€ kostet.
na hoffen wir mal das außer AF noch andere BQ maßnahmen getroffen wurden denn wenn es 30-40% bei 4aa/16 af sein sollte kann man bei sgssaa locker eine schippe drauflegen.

Ronny145
2011-12-19, 14:32:18
+30-40% GTX580 wäre super nach der gestrigen Informationslage.

LovesuckZ
2011-12-19, 14:32:41
Wenn die 7970 mit 4AA, 16AF in FullHD 30-40% mehr Leistung als eine GTX580 abliefert & das AF Problem gefixt wurde, dann ist die Karte 400 € wert.

In diesen Settings wird der Abstand (deutlich) geringer sein. Hätte AMD das Front-End verbessert, hätte man wohl auch hier endlich die Rohleistung ausspielen können. Weil um hier 40% vor der GTX580 zu sein, müsste die Karte 70% schneller als die 6970 sein.

aufkrawall
2011-12-19, 14:35:27
Wenn die 7970 mit 4AA, 16AF in FullHD 30-40% mehr Leistung als eine GTX580 abliefert & das AF Problem gefixt wurde, dann ist die Karte 400 € wert.
Aber nur, wenn die GTX 580 drastisch im Preis sinkt, was sie wohl vorerst nicht tun wird.

AnarchX
2011-12-19, 14:39:30
Zumal man auch mit der 3GiB 580 fairerweise vergleichen sollte: http://geizhals.at/deutschland/?cat=gra16_512&sort=p&xf=1439_GTX+580~132_2048#xf_top

Die GTX 285 1GiB hatte zum 5870 Launch übrigens nur 260€ gekostet. :ugly:

derguru
2011-12-19, 14:43:03
und der vorgänger 4870 ~150€

tja der cayman hat kaum an wert verloren selbst jetzt nicht,kein wunder das die 7ner so teuer werden.

LovesuckZ
2011-12-19, 14:46:05
Damals hat sich der Aufpreis auch halbwegs gerechtigt: DX11 und SGSSAA.
So wie es zur Zeit aussieht, muss man schon ein Auge auf die "2D" Features werfen, um zu der 7970 greifen zu wollen. 500€+ sind kein Pappenstil, die 330€ der 5870 waren für viele eher hinzulegen.

AnarchX
2011-12-19, 14:46:20
und der vorgänger 4870 ~150€
~100€ (http://www.computerbase.de/artikel/grafikkarten/2009/test-ati-radeon-hd-5870/28/#abschnitt_preisleistungverhaeltnis) ! :D, aber Vorgänger ist eher die 4890.

Vielleicht bietet ja die 7950 1,5GiB ein deutlich vernünftigeres P/L-Verhältnis.

Duplex
2011-12-19, 14:47:20
+30-40% GTX580 wäre super nach der gestrigen Informationslage.
Das wäre nur Super wenn das auch mit 4AA 16AF erreicht werden kann ;)

In diesen Settings wird der Abstand (deutlich) geringer sein. Hätte AMD das Front-End verbessert, hätte man wohl auch hier endlich die Rohleistung ausspielen können. Weil um hier 40% vor der GTX580 zu sein, müsste die Karte 70% schneller als die 6970 sein.
Wird das Frontend vom GCN gegenüber Cypress/Cayman etwa nicht großartig verbessert :confused:
Aber nur, wenn die GTX 580 drastisch im Preis sinkt, was sie wohl vorerst nicht tun wird.
problem ist das eine gtx580 um die 400€ kostet.
Wartet mal bis die 7930 kommt, wenn die mit der GTX580 mithalten kann, was ich aber bezweifel, dann wird AMD die 7930 wischen 250-270 € vermarkten, die GTX580 wird dann sofort im preis reduziert oder EOL :(

aufkrawall
2011-12-19, 14:48:41
Wartet mal bis die 7930 kommt, wenn die mit der GTX580 mithalten kann, was ich aber bezweifel, dann wird AMD die 7930 wischen 250-270 € vermarkten, die GTX580 wird dann sofort im preis reduziert oder EOL :(
Erstmal muss was lieferbar sein, sonst sind das alles nur Luftschlösser.

LovesuckZ
2011-12-19, 14:49:18
Wird das Frontend vom GCN gegenüber Cypress/Cayman etwa nicht großartig verbessert :confused:


Nein, jedenfalls nicht soweit, dass man weniger Einheiten unter einem Rasterizer hat. Bei Cayman waren es 12 SIMD Engines, jetzt sind 16 CUs. Ich denke schon, dass es negative Auswirkung auf die Effizienz hat und vorallem in kleineren Auflösungen (<=1080p) auch der Vorsprung vor Cayman nicht großartig sein wird.

uweskw
2011-12-19, 14:59:25
....Ich denke schon, dass es negative Auswirkung auf die Effizienz hat und vorallem in kleineren Auflösungen (<=1080p) auch der Vorsprung vor Cayman nicht großartig sein wird.

Leistung brauche ich unter hohen Auflösungen und hohen AA SSAA Settings.
Ob ich bei 1280x1024 dann 100FPS oder 300FPS habe ist mir total schnuppe.

Ailuros
2011-12-19, 15:00:43
Nein, jedenfalls nicht soweit, dass man weniger Einheiten unter einem Rasterizer hat. Bei Cayman waren es 24 SIMD Engines, jetzt sind 32 CUs. Ich denke schon, dass es negative Auswirkung auf die Effizienz hat und vorallem in kleineren Auflösungen (<=1080p) auch der Vorsprung vor Cayman nicht großartig sein wird.

Es war schon immer so. Die 8800GTX war auch nur relativ gering vor einer 7950GX2 oder sogar 7900GTX in 1280 und ueberhaupt in 3dfurz05/06 ohne AA/AF. Erst in sehr hohen Aufloesungen und ueberhaupt mit HQ AF wurde der Unterschied wirklich brutal aber damals eher selten ueber 260-300%.

Ein paar Jahre spaeter:

http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf

Weder GCN noch Kepler werden bei ihrem launch irgendwelche durchschnittliche Wunderleistung auf den Tisch bringen im Vergleich zu ihren Vorgaengern, ohne dass das zu erwartete "bis zu 2x Mal Leistung" ungueltig sein wird. Je mehr neue und anspruchsvollere Spiele dazukommen und auch staerkere CPUs werden beide GPU Generationen die Chance haben ihre "Fuesse" besser auszudehnen. Kein IHV entwickelt eine neue Architektur fuer die Spiele/Applikationen von gestern.

boxleitnerb
2011-12-19, 15:04:26
Also wenn wir mal im Schnitt 30-35% vor der 580 annehmen, den zur 6970 möglicherweise etwas niedrigeren Verbrauch und nochmal 5-10% Reserve durch Treiber einrechnen, ist es nicht wirklich schlecht. Ich hätte jetzt doch mehr erwartet, aber ein Reinfall scheint es nicht zu werden.

G 80
2011-12-19, 15:08:31
Bei der 7900 GTX ist irgendwas sowiso kaputt. Ich halte GF 5-7 sowiso für totalen Mist aber 1/2 Leistung der 7900 GTX zu X1800 XT hätte ich jetzt nicht auch nicht erwartet. Ka ob da nicht doch was im Argen liegt ... Bug im Treiber oder was weis ich ...

2900 XT (nicht mal) 20 % über der XTX mit AA passt war auch immer schon so. 88 GTX knapp mal 2 zur XTX passt auch - war ebenfalls so.

8800 GTX ~ 4850 evenfalls gleichgeblieben.

Bis auf den hinichen 7900 GTX wert ist alles so wie mans kennt ....

Ailuros
2011-12-19, 15:11:32
Also wenn wir mal im Schnitt 30-35% vor der 580 annehmen, den zur 6970 möglicherweise etwas niedrigeren Verbrauch und nochmal 5-10% Reserve durch Treiber einrechnen, ist es nicht wirklich schlecht. Ich hätte jetzt doch mehr erwartet, aber ein Reinfall scheint es nicht zu werden.

Ich hab es ausserhalb vom Preis nie als Reinfall angesehen und die 580+30-40% klingt mir immer noch nicht als 7970 Material. Warten wir die ersten unabhaengigen Messungen ab; bis zu dem Punkt erwarte ich einen Schnitt mehr fuer die fuer XT und 580+20-30% fuer die PRO.

Bei der 7900 GTX ist irgendwas sowiso kaputt. Ich halte GF 5-7 sowiso für totalen Mist aber 1/2 Leistung der 7900 GTX zu X1800 XT hätte ich jetzt nicht auch nicht erwartet. Ka ob da nicht doch was im Argen liegt ... Bug im Treiber oder was weis ich ...

2900 XT (nicht mal) 20 % über der XTX mit AA passt war auch immer schon so. 88 GTX knapp mal 2 zur XTX passt auch - war ebenfalls so.

8800 GTX ~ 4850 evenfalls gleichgeblieben.

Bis auf den hinichen 7900 GTX wert ist alles so wie mans kennt ....

Es ging mir eher darum dass GPUs beim launch selten bis nie ihre volle Kraft vorzeigen koennen. Erstens muessen die veralteten Applikationen von benchmark-Sammlungen in reviews verschwinden und zweitens liegt stets ein guter Happen an Leistung auch in zukuenftigen Treibern versteckt.

LovesuckZ
2011-12-19, 15:14:03
Apoppin von Alienbabeltech.com schreibt, dass die Folie ein Fake sei:
http://forums.anandtech.com/showpost.php?p=32733011&postcount=772

Bei der 7900 GTX ist irgendwas sowiso kaputt. Ich halte GF 5-7 sowiso für totalen Mist aber 1/2 Leistung der 7900 GTX zu X1800 XT hätte ich jetzt nicht auch nicht erwartet. Ka ob da nicht doch was im Argen liegt ... Bug im Treiber oder was weis ich ...


CineFX - mehr muss man wohl nicht sagen. :D

AnarchX
2011-12-19, 15:16:12
Bei der 7900 GTX ist irgendwas sowiso kaputt. Ich halte GF 5-7 sowiso für totalen Mist aber 1/2 Leistung der 7900 GTX zu X1800 XT hätte ich jetzt nicht auch nicht erwartet. Ka ob da nicht doch was im Argen liegt ... Bug im Treiber oder was weis ich ...

Wenn man nicht andere Savegames verwendet hat, ist G70 in einigen Spielen gegenüber älteren Vergleichstests langsamer geworden.
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/8/#abschnitt_fear
http://www.computerbase.de/artikel/grafikkarten/2009/test-14-grafikkarten-im-vergleich/5/#abschnitt_fear
Die 7900GTX ist 30 FPS langsamer auf der schnelleren Plattform...

Ich hab es ausserhalb vom Preis nie als Reinfall angesehen und die 580+30-40% klingt mir immer noch nicht als 7970 Material. Warten wir die ersten unabhaengigen Messungen ab; bis zu dem Punkt erwarte ich einen Schnitt mehr fuer die fuer XT und 580+20-30% fuer die PRO.

Wohl ~45% für die XT laut Neliz' Folie, die wahrscheinlich aus dem Reviewers Guide kommt.
Apoppin von Alienbabeltech.com schreibt, dass die Folie ein Fake sei:
http://forums.anandtech.com/showpost.php?p=32733011&postcount=772

Klingt eher danach, dass zwischen realen Messungen und AMDs Messungen ein größerer Unterschied liegen könnte.

Spasstiger
2011-12-19, 15:17:46
CineFX - mehr muss man wohl nicht sagen. :D
Jo, eine Radeon X1800 XT doppelt so schnell wie die GeForce 7900 GTX ist kein Bug, sondern schlicht und einfach CineFX.
Ich weiß noch bei Oblivion damals die Benchmarks. Auf einer Radeon 9800 Pro mit Parallax Mapping und anderen Spässen (nicht max. Details) 20-30 fps, mit einer GeForce FX 5900 Ultra bei gleichen Settings nur 5 fps. Die Ini, die ich mir damals für meine Radeon 9700 für 25+ fps in Oblivion gebastelt habe, hat auf keiner GeForce FX spielbare Frameraten produziert.
Aber mittlerweile hat keine Architektur mehr so gravierende Schwächen, dass sich so ein Fall in Zukunft wiederholt. Die Tessellationsschwäche wird in Zukunft immer unbedeutender, weil die Shaderlast stärker steigt als die Geometrielast und weil man den Tessellationsfaktor anpassen kann. Mit niedrigen Tessellationsfaktoren haben die aktuellen Radeons keine Probleme, brechen nicht stärker ein als die Konkurrenz.

mboeller
2011-12-19, 15:21:46
Also wenn wir mal im Schnitt 30-35% vor der 580 annehmen, den zur 6970 möglicherweise etwas niedrigeren Verbrauch und nochmal 5-10% Reserve durch Treiber einrechnen, ist es nicht wirklich schlecht. Ich hätte jetzt doch mehr erwartet, aber ein Reinfall scheint es nicht zu werden.

Was habt ihr eigentlich? Habt ihr Wunder erwartet?

Wenn die HD7970 im Mittel wirklich 35% schneller ist als eine GTX580 dann ist sie (siehe Posting von Ailuros) ca. 60% schneller als eine HD6970. So eine gute Skalierung hat noch nicht einmal die HD5870 im Vergleich zur HD4890 geschafft (incl. AA+AF), siehe wiederum das Posting von Ailuros.

aufkrawall
2011-12-19, 15:22:00
Auf einer Radeon 9800 Pro mit Parallax Mapping und anderen Spässen (nicht max. Details) 20-30 fps
Viel POM wars ja sicherlich nicht. ;)
Ich erinnere mich nur noch an ein paar Felsen hier und da.

LovesuckZ
2011-12-19, 15:22:36
Und Fudzilla berichtet von 2800 Punkten im Extreme-Settings vom 3DMark11: http://www.fudzilla.com/graphics/item/25259-radeon-hd-7970-close-to-hd-6990

Das sind 55% zur 6970 und 33% zur GTX580.

/edit: Ich muss sagen, dass 33% wären ziemlich schlecht, wenn man überlegt, dass die 7970 mehr als 2x soviel Rechenleistung und Texturleistung besitzt...

Spasstiger
2011-12-19, 15:24:01
Viel POM wars ja sicherlich nicht. ;)
Ich erinnere mich nur noch an ein paar Felsen hier und da.
Es betrifft fast alle Oberflächen. Höhlen, Gebäude und Felsen sind komplett mit POM geschmückt, Baumrinden afair auch. Die GeForce-FX-Karten sind mit POM damals jedenfalls in den fps-Keller gerutscht.

/EDIT: Wobei, bei den Gebäuden bin ich mir nicht sicher. Da war es wohl gemischt.

aufkrawall
2011-12-19, 15:30:09
Es betrifft fast alle Oberflächen. Höhlen, Gebäude und Felsen sind komplett mit POM geschmückt, Baumrinden afair auch. Die GeForce-FX-Karten sind mit POM damals jedenfalls in den fps-Keller gerutscht.
Interessant. :)
Ich fand die Grafik allerdings recht langweilig, Gothic 3 war ein anderes Kaliber.

boxleitnerb
2011-12-19, 15:34:56
Was habt ihr eigentlich? Habt ihr Wunder erwartet?

Wenn die HD7970 im Mittel wirklich 35% schneller ist als eine GTX580 dann ist sie (siehe Posting von Ailuros) ca. 60% schneller als eine HD6970. So eine gute Skalierung hat noch nicht einmal die HD5870 im Vergleich zur HD4890 geschafft (incl. AA+AF), siehe wiederum das Posting von Ailuros.

Mit 28nm UND einer neuen Architektur? Ein kleines Wunder schon :)

aufkrawall
2011-12-19, 15:41:27
Mit 28nm UND einer neuen Architektur? Ein kleines Wunder schon :)
Woher kommt denn nun zusammengefasst dieser "Engpass" (etwas übertrieben)?
Die Transistoren alle für GPGPU verbraten? Oder Design einfach ineffizient?

uweskw
2011-12-19, 15:49:15
Woher kommt denn nun zusammengefasst dieser "Engpass" (etwas übertrieben)?
Die Transistoren alle für GPGPU verbraten? Oder Design einfach ineffizient?
AMD ist mit der Leistung genau dort wo sie hin wollten. Deswegen der vorgezogene Launch. Die haben sicherlich Luft nach oben. Bin schon gespannt wie die OC-Fähigkeiten ausfallen.....;-)

mboeller
2011-12-19, 15:49:58
Mit 28nm UND einer neuen Architektur? Ein kleines Wunder schon :)

HD5870 [40nm] <-> HD4890 [55nm]:

2154 Mio Transistoren ; 959 Mio Transistoren
2720 GFlops ; 1360 GFlops
27,2 GPixel ; 13,6 GPixel
68 GTexel ; 34 GTexel

also überall Faktor 2 besser (basierend auf wikipedia, war zu faul wo anders zu suchen) und mehr als doppelt so viele Transistoren. Trotzdem ist die HD5870 im Mittel (incl. AA+AF) nur 44%schneller und ohne AA+AF nur 39% schneller (siehe Link von Ailuros).

Ergo hast du IMHO schon ein großes Wunder erwartet, nicht nur ein kleines. ;)

mironicus
2011-12-19, 15:50:39
Wird die 7950 wohl auch wieder freischaltbar sein...? :D

derguru
2011-12-19, 15:52:37
Wird die 7950 wohl auch wieder freischaltbar sein...? :D
das kannste dir abschminken.:biggrin:

Ailuros
2011-12-19, 15:58:15
Wird die 7950 wohl auch wieder freischaltbar sein...? :D

Vendors haben zumindest keine Pflicht sich zu 100% an vorgeschriebene Spezifikationen zu halten.

Distroia
2011-12-19, 16:04:48
Woher kommt denn nun zusammengefasst dieser "Engpass" (etwas übertrieben)?
Die Transistoren alle für GPGPU verbraten? Oder Design einfach ineffizient?

Welchen "Engpass" meinst du genau? Du musst auch die DIE-Fläche bedenken. Der Chip ist wahrscheinlich nicht mal 40% größer als ein hypotetischer, auf 28nm geshrinkter GF110. Dabei geht man aber schon von einem perfekten Shrink aus, also einer Halbierung der Fläche durch den neuen Herstellungsprozess - in der Praxis wird es aber etwas weniger sein. Wenn die Performance auch im Bereich dieser 40% steigt, ist das doch mehr als in Ordnung. AMD hätte erstmal den längsten Penis, und die 7950 könnte sich direkt über der GTX580 einordnen. Wenn dann durch die neue Architektur die üblichen "AMD-Probleme" noch beseitigt wären, würden sie genau da stehen, wo sie hin müssen. NVidia scheint sich ja noch etwas Zeit zu lassen und AMD könnte dann mit einem größeren und leicht verbesserten Chip kontern ...

Mit der neuen Architektur wird sich die Performance wahrscheinlich noch ein bisschen durch neue Treiber verbessern lassen und für einen Refresh ist sicher auch noch etwas Verbesserungspotential drin.

Spasstiger
2011-12-19, 16:15:21
Interessant. :)
Ich habs nochmal nachgeprüft, in Städten ist der Anteil von Bildschirmpixeln mit Parallax Mapping fast 100%, außerhalb immer noch ein nicht unerheblicher Anteil:
http://www.abload.de/thumb/oblivion_parallaxem5q0.jpg (http://www.abload.de/image.php?img=oblivion_parallaxem5q0.jpg) http://www.abload.de/thumb/oblivion_parallax2d86pz.jpg (http://www.abload.de/image.php?img=oblivion_parallax2d86pz.jpg) http://www.abload.de/thumb/oblivion_parallax3uq14r.jpg (http://www.abload.de/image.php?img=oblivion_parallax3uq14r.jpg)
Alles was die Farbe der Umgebungsbeleuchtung annimmt und nicht die originale Texturfarbe hat, ist mit Parallax Mapping behandelt.

Duplex
2011-12-19, 16:26:11
Nein, jedenfalls nicht soweit, dass man weniger Einheiten unter einem Rasterizer hat. Bei Cayman waren es 12 SIMD Engines, jetzt sind 16 CUs. Ich denke schon, dass es negative Auswirkung auf die Effizienz hat und vorallem in kleineren Auflösungen (<=1080p) auch der Vorsprung vor Cayman nicht großartig sein wird.
Und woher willst du wissen wie die neuen 16 CUs arbeiten?
Wir werden die Einheiten bei GCN unter einem Rasterizer gestuert? Durch hohe Taktraten oder laufen die mit GPU Basistakt?

Ich hab es ausserhalb vom Preis nie als Reinfall angesehen und die 580+30-40% klingt mir immer noch nicht als 7970 Material. Warten wir die ersten unabhaengigen Messungen ab; bis zu dem Punkt erwarte ich einen Schnitt mehr fuer die fuer XT und 580+20-30% fuer die PRO.
Optimistisch!
Du gehst also davon aus das die 7950 (Pro) 20-30% schneller als die GTX580 wird? Dann wäre die 7970 möglicherweise 40-50% schneller als GTX580, dann braucht Nvidia gegen Tahiti aber auch GK100 um wieder schneller zu sein.

boxleitnerb
2011-12-19, 16:34:47
Lol, den brauchen sie so oder so. Alles andere ist doch Quatsch mit Soße :)

Raff
2011-12-19, 16:43:55
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, das schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff

aufkrawall
2011-12-19, 16:44:26
Welchen "Engpass" meinst du genau?

Deshalb hab ich den Begriff auch als übertrieben gekennzeichnet. ;)
Die GPU ist ein Transistormonster, 10% mehr hätten da schon drin sein können.
Ok, da können wir eigentlich erst richtig drüber reden, wenn es einen Finaltreiber und richtige Spielebenchmarks gibt.


Du musst auch die DIE-Fläche bedenken. Der Chip ist wahrscheinlich nicht mal 40% größer als ein hypotetischer, auf 28nm geshrinkter GF110.

Der bis zur Radeon 7970 auch eigentlich als Transistormonster galt.
Gerade mit Cayman verglichen ist es doch ein großer Sprung, wo dann performancemäßig etwas mehr bei rum kommen könnte.


Wenn die Performance auch im Bereich dieser 40% steigt, ist das doch mehr als in Ordnung.

40% wären schon richtig gut. 20% (es hieß ja ~20-30%) wären mies.


Wenn dann durch die neue Architektur die üblichen "AMD-Probleme" noch beseitigt wären, würden sie genau da stehen, wo sie hin müssen.

Breitere AA-Unterstützung wäre IMO wichtiger als etwas besserere AF. Von ersterer hab ich hier aber noch nichts gelesen.


NVidia scheint sich ja noch etwas Zeit zu lassen und AMD könnte dann mit einem größeren und leicht verbesserten Chip kontern ...

Wahrscheinlich müssen sie das auch, um was gegen Kepler in der Hand zu haben.


Mit der neuen Architektur wird sich die Performance wahrscheinlich noch ein bisschen durch neue Treiber verbessern lassen
Ich wäre schon froh, wenn die Treiber nicht völlig bugverseucht wären, wär ja leider nicht das erste Mal.


Ich habs nochmal nachgeprüft, in Städten ist der Anteil von Bildschirmpixeln mit Parallax Mapping fast 100%, außerhalb immer noch ein nicht unerheblicher Anteil:
http://www.abload.de/thumb/oblivion_parallaxem5q0.jpg (http://www.abload.de/image.php?img=oblivion_parallaxem5q0.jpg) http://www.abload.de/thumb/oblivion_parallax2d86pz.jpg (http://www.abload.de/image.php?img=oblivion_parallax2d86pz.jpg)
Alles was weiß/grau ist und nicht die originale Texturfarbe hat, ist mit Parallax Mapping behandelt.
Sorry, ich hab PM und POM durcheinander gebracht.
POM gab es glaub ich wirklich nur auf einigen Steinen, wenn überhaupt.

Ronny145
2011-12-19, 16:48:17
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, dass schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff


Das ist richtig. Ich persönlich kann auf die letzten 10-20% Leistung verzichten, wenn dafür der Verbrauch 100 Watt niedriger liegt.

M4xw0lf
2011-12-19, 16:48:44
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, dass schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff

Das wäre schon ganz schön gut :D

Ich glaub ich fahre heute nacht kurz rüber nach Fürth... hab da was zu erledigen :sneak:

dildo4u
2011-12-19, 16:50:14
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, dass schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff
Im High-End Bereich(400-500€) imo eher uninteressant,ich denke viele hätten lieber ne Karte mit 250Watt,als das AMD wieder so viel Platz nach oben lässt,das sie später ihren Multi GPU Rotzt gut verkaufen können.Bei 50% sähe ich schon wesentlich mehr Leute aufrüsten als bei 30.

boxleitnerb
2011-12-19, 16:50:56
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, dass schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff

200W bei was? Furmark? Crysis? SGSSAA? Also 30% zur 580 mehr Performance bei ca. 25% weniger Saft (nehmen wir die 580 mal mit 250W an, siehe HT4U). Also Stromverbrauch in etwa auf GTX570 Level? Perf/W hätte sich dann ggü. der 6970 um ca. 50% gebessert.

LovesuckZ
2011-12-19, 16:52:47
Und woher willst du wissen wie die neuen 16 CUs arbeiten?


Es geht nicht um die CUs, sondern um das Befüttern. Die Setup- und Geometrieeinheiten befinden sich immer noch außerhalb der CUs. In einer seriellen Pipeline ist es daher notwendig jegliche Zeitverzögerung auszuschließen, um maximale Leistung zu erhalten. Wir reden hier von ca. 30% Mehrleistung bei doppelt so hoher Textur- und Rechenleistung.

Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, dass schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff

Ganz normal für einen Shrink. GTX560TI ist auch 30%-40% schneller als eine GTX285 bei weniger Verbrauch. Das ist keine Kunst.

Wesentlich interessanter wären 70% Mehrleistung bei gleichem Verbrauch - was z.B. g80 gegenüber rv580 schaffte. Und das auf dem selben Fertigungsprozeß.

derguru
2011-12-19, 16:58:03
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, das schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff

klingt schon mal gut,der neue kühler sollte auch leise seinen dienst verrichten,fehlt nur irgendwas an neuen bq-feature abgesehen vom af aber da habe ich wirklich wenig hoffnung.

Im High-End Bereich(400-500€) imo eher uninteressant,ich denke viele hätten lieber ne Karte mit 250Watt,als das AMD wieder so viel Platz nach oben lässt,das sie später ihren Multi GPU Rotzt gut verkaufen können.Bei 50% sähe ich schon wesentlich mehr Leute aufrüsten als bei 30.
die 250W hast du mit oc bestimmt und dann haste auch deine ~50%;)

aylano
2011-12-19, 16:58:57
Also wenn wir mal im Schnitt 30-35% vor der 580 annehmen, den zur 6970 möglicherweise etwas niedrigeren Verbrauch und nochmal 5-10% Reserve durch Treiber einrechnen, ist es nicht wirklich schlecht. Ich hätte jetzt doch mehr erwartet, aber ein Reinfall scheint es nicht zu werden.
Klingt fast exakt wie bei Cypress, der bei der Einführung (ohne zu wissen wie GTX480 genau wird) auch nicht so schlecht war, aber nach einem Reinfall nicht schien.

Was habt ihr eigentlich? Habt ihr Wunder erwartet?
Wenn wenn wenn der Stromverbrauch dann noch um 10-20% gegenüber HD 6970 sinkt, dann hätten wir eventuell ein kleines Wunder.

Zergra
2011-12-19, 17:00:34
Nunja ich denke wenn amd wollte hätten sie auch mehr Leistung gebracht... doch dann hätte die Spitzen karte auch 800€ gekostet.... das würde wieder dazu führen das kaum jmd die karte kaufen würde und sich die Entwicklung nicht lohnen würde... sie warten halt lieber ...

LovesuckZ
2011-12-19, 17:01:37
Nunja ich denke wenn amd wollte hätten sie auch mehr Leistung gebracht... doch dann hätte die Spitzen karte auch 800€ gekostet.... das würde wieder dazu führen das kaum jmd die karte kaufen würde und sich die Entwicklung nicht lohnen würde... sie warten halt lieber ...

Ja - wie jedes mal. :freak:
Wundertreiber, Zurückhaltleistung, Megarefresh. Wie bei nVidia so auch bei AMD.

Coda
2011-12-19, 17:05:13
klingt schon mal gut,der neue kühler sollte auch leise seinen dienst verrichten,fehlt nur irgendwas an neuen bq-feature abgesehen vom af aber da habe ich wirklich wenig hoffnung.
Gibt auch nicht mehr viel an was man dann noch drehen könnte. Schon gar nicht mit D3D11+

derguru
2011-12-19, 17:30:44
Gibt auch nicht mehr viel an was man dann noch drehen könnte. Schon gar nicht mit D3D11+

ja leider und an was inoffiziell wie bei nv glaube ich schon mal gar nicht.habe nur eine klitzekleine hoffnung bei custom resolution die in der pr folie unter eyefinity stand,vielleicht kann man damit irgendwas ds-mäßig machen.
http://www.abload.de/img/amdradeonhd7900_anaoz1x4aw.jpg

deekey777
2011-12-19, 17:31:50
Paar Spielereien mit dem APP SDK 2.6, Kernel Analyzer und dem OpenCL 1.2 Treiber:
http://www.abload.de/thumb/appka111fq65u.png (http://www.abload.de/image.php?img=appka111fq65u.png)

Hübie
2011-12-19, 17:36:43
Also wenn das mit den kommunizierten 35% stimmt kommt auch diese Generation nicht in Frage. Worst case in the witcher 2 waren mit meinem System 24 fps mit ubersampling@ultra settings (FHD). Wenn ich da 35% drauf packe sind es 32 fps was die Sache nicht rund macht.
Da die Lemminge ja nur mit 4xMSAA oder bestenfalls mal mit 8xMSAA benchen schmälert das die Aussicht auf mehr sinnvolle Performance dann doch schon arg.
In den meisten Spielen braucht man einfach nicht viel mehr als 40-50 fps. Alles darüber hinaus wird von mir in BQ investiert.
Ich weiß ja nicht wie ihr das seht, aber immer längere Balken waren damals zu R300-Zeiten interessant, aber mittlerweile...:confused:

AnarchX
2011-12-19, 17:38:15
Paar Spielereien mit dem APP SDK 2.6, Kernel Analyzer und dem OpenCL 1.2 Treiber:
http://www.abload.de/thumb/appka111fq65u.png (http://www.abload.de/image.php?img=appka111fq65u.png)
Sind doch alles bekannte Codenamen.

Raff
2011-12-19, 17:41:18
Da die Lemminge ja nur mit 4xMSAA oder bestenfalls mal mit 8xMSAA benchen schmälert das die Aussicht auf mehr sinnvolle Performance dann doch schon arg.

Ich kenne mehrere Seiten, die SGSSAA mittesten. ;) Bei PCGH wird's gewiss einige Supersample-Benchmarks geben.

MfG,
Raff

mironicus
2011-12-19, 17:45:25
Bei dem Verbrauch (unter 200 Watt) könnte man die GPU ja sogar mit einem guten 400 Watt-Netzteil betreiben, wenn man die CPU nicht dazu groß übertaktet.

derguru
2011-12-19, 17:46:00
Ich kenne mehrere Seiten, die SGSSAA mittesten. ;) Bei PCGH wird's gewiss einige Supersample-Benchmarks geben.

MfG,
Raff

und das sind alles deutsche seiten,nicht eine internationale dabei,das sagt ja schon alles über die bq-spezies aus dem ausland.:freak:

uweskw
2011-12-19, 17:46:05
Ich kenne mehrere Seiten, die SGSSAA mittesten. ;) Bei PCGH wird's gewiss einige Supersample-Benchmarks geben.

MfG,
Raff

auch unter DX11?

Leonidas
2011-12-19, 17:46:07
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, das schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff


Das ist der richtige Ansatz. Dafür kann man dann sogar Geld verlangen.

mironicus
2011-12-19, 17:48:54
Am besten für 399 Euro, dann würde ich sofort zuschlagen. :D

Dural
2011-12-19, 17:50:22
Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?




Für die erste GPU einer neuen Architektur ist das super, zudem die GTX580 nicht gerade "schlecht" ist.

Bei AMD beziehungsweisse ATi hat man es wenigstens im Griff wenn es wirklich so kommt. Bei AMD / CPUs frag ich mich des öfftern was um alles in der Welt die genau Anstellen ;)

LovesuckZ
2011-12-19, 17:50:35
Das ist der richtige Ansatz. Dafür kann man dann sogar Geld verlangen.

Äh, nein, nicht wirklich. High-End Hardware ist Leistung. Niemand gibt unnötig Geld aus, um weniger Strom zu verbrauchen. Solche Leute würden eher ihre Ansprüche herunterschrauben und sich dann günstige und stromsparende Grafikkarten kaufen.

Eine GTX580 gibt es schon für 380€. Eine 7970 soll für angebliche 549€ über den Tisch gehen. Da wird man sich richtig schwertun, wenn es um Spieleleistung geht.

Gipsel
2011-12-19, 17:54:36
Paar Spielereien mit dem APP SDK 2.6, Kernel Analyzer und dem OpenCL 1.2 Treiber:
http://www.abload.de/thumb/appka111fq65u.png (http://www.abload.de/image.php?img=appka111fq65u.png)
Jetzt geht es eben auch mit dem StreamKernelAnalyzer. Bisher mußte man da mit einem Beta-Treiber eine kleine CAL-App schreiben und darin den Disassembler für das kompilierte Image aufrufen. Im Screenshot sieht man ja noch nicht mal den ISA-Code für GCN, im B3D-Forum habe ich schon vor ein paar Monaten (edit: Ende Juni) (http://forum.beyond3d.com/showthread.php?p=1563408#post1563408) ein paar so generierte Sachen gepostet. ;)

AnarchX
2011-12-19, 17:55:38
Eine GTX580 gibt es schon für 380€. Eine 7970 soll für angebliche 549€ über den Tisch gehen. Da wird man sich richtig schwertun, wenn es um Spieleleistung geht.

380€ *1,3 = ~500€. Der Rest ist Aufpreis für 3GiB und das modernste Feature-Set am Markt. ;)
Würde Nvidia die GTX 580 für unter 300€, wie damals die 285 anbieten, wäre so ein hoher Preis natürlich fragwürdig. Wobei für die 5870 auch einige Enthusiasten >400€ zahlten, als das Angebot die Nachfrage unterschritt.

gedi
2011-12-19, 17:55:58
Äh, nein, nicht wirklich. High-End Hardware ist Leistung. Niemand gibt unnötig Geld aus, um weniger Strom zu verbrauchen. Solche Leute würden eher ihre Ansprüche herunterschrauben und sich dann günstige und stromsparende Grafikkarten kaufen.

Eine GTX580 gibt es schon für 380€. Eine 7970 soll für angebliche 549€ über den Tisch gehen. Da wird man sich richtig schwertun, wenn es um Spieleleistung geht.

Wenn die Leistung mit SSAA nochmals deutlich über 50% liegt, dann geben vor allem Enthusiasten gerne Geld für so eine Karte aus. Eingeschränkte Vorrausetzung natürlich: Das Ding muss API-unabhängig sein.

Hübie
2011-12-19, 17:56:59
Ich kenne mehrere Seiten, die SGSSAA mittesten. ;) Bei PCGH wird's gewiss einige Supersample-Benchmarks geben.

MfG,
Raff

Ich auch. Aber wir sind mehr oder minder insider aka nerds ;D Ausserdem brauchst du hier nicht die Werbetrommel rühren, wir kennen deinen Arbeitgeber :freak:;D
SSAA ist aber nur sinnvoll wenn man das auch bei AMD endlich (fast) überall applizieren kann. Ich hatte mir extra ne GTX 580 gekauft um das zu nutzen - aber leider ist die Leistung immer noch zu schwach. TES 5 z.B. generiert meist gute fps aber bricht an bestimmten Stellen so dermaßen ein, das man nicht vernünftig kämpfen kann. Witcher 2 genau das gleiche Spielchen. 24 fps worst case (in einer cutscence waren es sogar nur 12 :eek:). Als nächstes Teste ich RAGE. Vllt wirds da was. Aber nicht mal das alte Borderlands ließ sich flüssig mit (4x)SGSSAA hämmern.

Also kurzum: nicht alles ist Gold was glänzt und daher warte ich sehnsüchtig auf mehr Durchsatz bei den neuen Modellen.

@Gipsel: Angeber :tongue: ;D Die code-Schnipsel bringen ja eh noch nix.

LovesuckZ
2011-12-19, 18:02:42
380€ *1,3 = ~500€. Der Rest ist Aufpreis für 3GiB und das modernste Feature-Set am Markt. ;)
Würde Nvidia die GTX 580 für unter 300€, wie damals die 285 anbieten, wäre so ein hoher Preis natürlich fragwürdig. Wobei für die 5870 auch einige Enthusiasten >400€ zahlten, als das Angebot die Nachfrage unterschritt.

Das Fanboys auf beiden Seiten soviel ausgeben, ist doch klar. Außerdem würde ich erstmal abwarten, ob die 30%+ nicht nur irgendwelche Extremsettings sind.

Aber mit der Erfahrung der GT200 würde ich vorsichtig sein, mir "underperforming" ohne Konkurrenz ins Haus zu holen. Wenn AMD aufgrund von nVidia genötigt wird, ihre Preise zu senken, hat man ziemlich schnell ziemlich viel Geld in den Sand gesetzt.

deekey777
2011-12-19, 18:02:43
Jetzt geht es eben auch mit dem StreamKernelAnalyzer. Bisher mußte man da mit einem Beta-Treiber eine kleine CAL-App schreiben und darin den Disassembler für das kompilierte Image aufrufen. Im Screenshot sieht man ja noch nicht mal den ISA-Code für GCN, im B3D-Forum habe ich schon vor ein paar Monaten (edit: Ende Juni) (http://forum.beyond3d.com/showthread.php?p=1563408#post1563408) ein paar so generierte Sachen gepostet. ;)
Der ist dabei, willst du haben? :D

Gipsel
2011-12-19, 18:16:44
@Gipsel: Angeber :tongue: ;D Die code-Schnipsel bringen ja eh noch nix.
Nun, ich habe damals schon im Juni/Juli ein paar interessante Details zur Funktionsweise der CUs herausbekommen und z.B. die Befehle des GCN Instruction Sets gepostet sowie das Handling von ausstehenden Speicheroperationen erklärt. Außerdem sage ich schon seit damals auch, daß drei GCN-Chips kommen (wegen der drei GCN-IDs im Treiber), und außer Trinity keine andere VLIW4-GPU (Letzteres benötigte noch ein wenig Nachdenken).

Also insofern hat das schon was gebracht. :tongue:

Knuddelbearli
2011-12-19, 18:24:20
Also wenn das mit den kommunizierten 35% stimmt kommt auch diese Generation nicht in Frage. Worst case in the witcher 2 waren mit meinem System 24 fps mit ubersampling@ultra settings (FHD). Wenn ich da 35% drauf packe sind es 32 fps was die Sache nicht rund macht.
Da die Lemminge ja nur mit 4xMSAA oder bestenfalls mal mit 8xMSAA benchen schmälert das die Aussicht auf mehr sinnvolle Performance dann doch schon arg.
In den meisten Spielen braucht man einfach nicht viel mehr als 40-50 fps. Alles darüber hinaus wird von mir in BQ investiert.
Ich weiß ja nicht wie ihr das seht, aber immer längere Balken waren damals zu R300-Zeiten interessant, aber mittlerweile...:confused:

unter SS wird es sicher deutlich mehr, da enur dort die komplette Rogleistung abgerufen werden kann.

bei 7680*1600 reche ich persönlich gut mit einer verdoppelung der FPS ( auch dank des mehr an VRAM ) in etlichen Games. dazu auch weniger aufploppende texturen die man nicht im fps diagramm sieht.

Knuddelbearli
2011-12-19, 18:25:09
und das sind alles deutsche seiten,nicht eine internationale dabei,das sagt ja schon alles über die bq-spezies aus dem ausland.:freak:

in forum werden wir nicht umsonst oft BQ Nazis genannt ^^

Schaffe89
2011-12-19, 18:39:37
Äh, nein, nicht wirklich. High-End Hardware ist Leistung. Niemand gibt unnötig Geld aus, um weniger Strom zu verbrauchen. Solche Leute würden eher ihre Ansprüche herunterschrauben und sich dann günstige und stromsparende Grafikkarten kaufen.


Natürlich kann man für ein Produkt mehr Geld verlangen, welches bei vergleichbarer Leistung weniger Strom verbraucht, leiser und daher schlicht besser ist.
Bei deiner Aussage fehlt eindeutig die Logik.

Wenn AMD aufgrund von nVidia genötigt wird, ihre Preise zu senken, hat man ziemlich schnell ziemlich viel Geld in den Sand gesetzt.

Naja, in den letzten Jahren war dies nicht der Fall.
Diesmal könnte es ja eventuell so sein.
Ich glaube aber, dass es Nvidia erstmal sehr schwer haben wird mit den geshrinkten Fermi an die Performance einer HD 7970 ranzukommen, eher höchstens HD7950 Niveau, wie mit GF114.

AnarchX
2011-12-19, 18:42:12
Ich glaube aber, dass es Nvidia erstmal sehr schwer haben wird mit den geshrinkten Fermi an die Performance einer HD 7970 ranzukommen, eher höchstens HD7950 Niveau, wie mit GF114.
Abseits von Mainstream (GF117) und eventuell Low-End (GF119@28nm) wird es keine geshrinkten Fermis geben, sondern Kepler GPUs, die nach Ailuros' Quellen wohl möglich ebenso große Architekturveränderungen aufweisen könnten, wie AMDs GCN, was natürlich nichts über die resultierende Leistung aussagt. ;) Jedenfalls scheint man mit GK104 wohl in Richtung der 7950 landen zu wollen, mit kleinerem Die und wohl nur 256-Bit PCB.

Skysnake
2011-12-19, 18:49:07
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, das schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff
Das hört sich sogar sehr lecker an :D

Da sollte dann auch wirklich genug Luft nach oben für OC bleiben.

Paar Spielereien mit dem APP SDK 2.6, Kernel Analyzer und dem OpenCL 1.2 Treiber:
http://www.abload.de/thumb/appka111fq65u.png (http://www.abload.de/image.php?img=appka111fq65u.png)
Interessant.

Funktioneirt der Kernel Analyzer wieder? Das letzte mal als ich mit ihm arbeiten wollte, hat AMD den kaputt gepatched -.-

Gibts schon Ausgaben zu Tahiti?

deekey777
2011-12-19, 18:54:38
...
Interessant.

Funktioneirt der Kernel Analyzer wieder? Das letzte mal als ich mit ihm arbeiten wollte, hat AMD den kaputt gepatched -.-

Gibts schon Ausgaben zu Tahiti?
__kernel
void
nbody_sim(
__global float4* pos ,
__global float4* vel,
int numBodies,
float deltaTime,
float epsSqr,
__local float4* localPos,
__global float4* newPosition,
__global float4* newVelocity)
{
unsigned int tid = get_local_id(0);
unsigned int gid = get_global_id(0);
unsigned int localSize = get_local_size(0);

// Number of tiles we need to iterate
unsigned int numTiles = numBodies / localSize;

// position of this work-item
float4 myPos = pos[gid];
float4 acc = (float4)(0.0f, 0.0f, 0.0f, 0.0f);

for(int i = 0; i < numTiles; ++i)
{
// load one tile into local memory
int idx = i * localSize + tid;
localPos[tid] = pos[idx];

// Synchronize to make sure data is available for processing
barrier(CLK_LOCAL_MEM_FENCE);

// calculate acceleration effect due to each body
// a[i->j] = m[j] * r[i->j] / (r^2 + epsSqr)^(3/2)
for(int j = 0; j < localSize; ++j)
{
// Calculate acceleartion caused by particle j on particle i
float4 r = localPos[j] - myPos;
float distSqr = r.x * r.x + r.y * r.y + r.z * r.z;
float invDist = 1.0f / sqrt(distSqr + epsSqr);
float invDistCube = invDist * invDist * invDist;
float s = localPos[j].w * invDistCube;

// accumulate effect of all particles
acc += s * r;
}

// Synchronize so that next tile can be loaded
barrier(CLK_LOCAL_MEM_FENCE);
}

float4 oldVel = vel[gid];

// updated position and velocity
float4 newPos = myPos + oldVel * deltaTime + acc * 0.5f * deltaTime * deltaTime;
newPos.w = myPos.w;
float4 newVel = oldVel + acc * deltaTime;

// write to global memory
newPosition[gid] = newPos;
newVelocity[gid] = newVel;
}


Das ist der Code der n-body-sim aus dem APP.
Und das ist die GPU-ISA des Tahiti:
ShaderType = IL_SHADER_COMPUTE
TargetChip = t
; ------------- SC_SRCSHADER Dump ------------------
SC_SHADERSTATE: u32NumIntVSConst = 0
SC_SHADERSTATE: u32NumIntPSConst = 0
SC_SHADERSTATE: u32NumIntGSConst = 0
SC_SHADERSTATE: u32NumBoolVSConst = 0
SC_SHADERSTATE: u32NumBoolPSConst = 0
SC_SHADERSTATE: u32NumBoolGSConst = 0
SC_SHADERSTATE: u32NumFloatVSConst = 0
SC_SHADERSTATE: u32NumFloatPSConst = 0
SC_SHADERSTATE: u32NumFloatGSConst = 0
fConstantsAvailable = 0
iConstantsAvailable = 0
bConstantsAvailable = 0
u32SCOptions[0] = 0x01A00000
SCOption_IGNORE_SAMPLE_L_BUG
SCOption_FLOAT_DO_NOT_DIST
SCOption_FLOAT_DO_NOT_REASSOC

u32SCOptions[1] = 0x00000000

u32SCOptions[2] = 0x20800001
SCOption_R800_UAV_NONARRAY_FIXUP
SCOption_R1000_BYTE_SHORT_WRITE_WORKAROUND_BUG317611
SCOption_R1000_READLANE_SMRD_WORKAROUND_BUG343479

; -------- Disassembly --------------------
shader main
asic(SI_ASIC)
type(CS)

s_mov_b32 m0, 0x00008000 // 00000000: BEFC03FF 00008000
s_buffer_load_dword s0, s[4:7], 0x04 // 00000008: C2000504
s_buffer_load_dword s1, s[4:7], 0x18 // 0000000C: C2008518
s_buffer_load_dword s4, s[8:11], 0x00 // 00000010: C2020900
s_buffer_load_dword s5, s[8:11], 0x04 // 00000014: C2028904
s_buffer_load_dword s6, s[8:11], 0x08 // 00000018: C2030908
s_buffer_load_dword s7, s[8:11], 0x0c // 0000001C: C203890C
s_buffer_load_dword s13, s[8:11], 0x10 // 00000020: C2068910
s_buffer_load_dword s14, s[8:11], 0x14 // 00000024: C2070914
s_waitcnt lgkmcnt(0) // 00000028: BF8C007F
s_mul_i32 s12, s12, s0 // 0000002C: 930C000C
s_add_i32 s1, s12, s1 // 00000030: 8101010C
v_add_i32 v1, vcc, s1, v0 // 00000034: 4A020001
v_cvt_f32_u32 v2, s0 // 00000038: 7E040C00
v_rcp_f32 v2, v2 // 0000003C: 7E045502
v_mul_f32 v2, 0x4f800000, v2 // 00000040: 100404FF 4F800000
v_cvt_u32_f32 v2, v2 // 00000048: 7E040F02
v_mul_lo_u32 v3, s0, v2 // 0000004C: D2D20003 02020400
v_mul_hi_u32 v4, s0, v2 // 00000054: D2D40004 02020400
v_sub_i32 v5, vcc, 0, v3 // 0000005C: 4C0A0680
v_cmp_ne_i32 s[16:17], v4, 0 // 00000060: D10A0010 00010104
v_cndmask_b32 v3, v5, v3, s[16:17] // 00000068: D2000003 00420705
v_mul_hi_u32 v3, v3, v2 // 00000070: D2D40003 02020503
v_sub_i32 v4, vcc, v2, v3 // 00000078: 4C080702
v_add_i32 v2, vcc, v2, v3 // 0000007C: 4A040702
v_cndmask_b32 v2, v2, v4, s[16:17] // 00000080: D2000002 00420902
v_mul_hi_u32 v2, v2, s6 // 00000088: D2D40002 02000D02
v_mul_lo_u32 v3, v2, s0 // 00000090: D2D20003 02000102
v_sub_i32 v4, vcc, s6, v3 // 00000098: 4C080606
v_cmp_ge_u32 s[16:17], s6, v3 // 0000009C: D18C0010 00020606
v_cmp_ge_u32 s[18:19], v4, s0 // 000000A4: D18C0012 00000104
s_and_b64 s[18:19], s[16:17], s[18:19] // 000000AC: 87921210
v_addc_u32 v2, vcc, v2, 0, s[18:19] // 000000B0: D2506A02 00490102
v_addc_u32 v2, vcc, v2, -1, s[16:17] // 000000B8: D2506A02 00418302
v_cmp_ne_i32 vcc, s0, 0 // 000000C0: D10A006A 00010000
v_cndmask_b32 v2, -1, v2, vcc // 000000C8: 000404C1
v_lshlrev_b32 v1, 4, v1 // 000000CC: 34020284
v_add_i32 v3, vcc, s4, v1 // 000000D0: 4A060204
s_buffer_load_dword s1, s[8:11], 0x18 // 000000D4: C2008918
s_buffer_load_dword s6, s[8:11], 0x1c // 000000D8: C203091C
s_load_dwordx4 s[8:11], s[2:3], 0x58 // 000000DC: C0840358
s_waitcnt lgkmcnt(0) // 000000E0: BF8C007F
tbuffer_load_format_xyzw v[3:6], v3, s[8:11], 0 offen format:[BUF_DATA_FORMAT_32_32_32_32,BUF_NUM_FORMAT_FLOAT] // 000000E4: EBF31000 80020303
v_mov_b32 v7, 0 // 000000EC: 7E0E0280
v_cmp_ne_i32 vcc, v2, v7 // 000000F0: 7D0A0F02
s_cbranch_vccz label_0088 // 000000F4: BF86004A
s_lshl_b32 s12, s0, 4 // 000000F8: 8F0C8400
v_lshlrev_b32 v0, 4, v0 // 000000FC: 34000084
v_add_i32 v18, vcc, s4, v0 // 00000100: 4A240004
v_readfirstlane_b32 s4, v2 // 00000104: 7E080502
v_mov_b32 v19, 0 // 00000108: 7E260280
v_mov_b32 v2, 0 // 0000010C: 7E040280
v_mov_b32 v7, 0 // 00000110: 7E0E0280
v_mov_b32 v8, 0 // 00000114: 7E100280
label_0046:
s_waitcnt 0x0000 // 00000118: BF8C0000
v_add_i32 v11, vcc, s14, v0 // 0000011C: 4A16000E
tbuffer_load_format_xyzw v[12:15], v18, s[8:11], 0 offen format:[BUF_DATA_FORMAT_32_32_32_32,BUF_NUM_FORMAT_FLOAT] // 00000120: EBF31000 80020C12
s_waitcnt vmcnt(0) // 00000128: BF8C1F70
ds_write2_b32 v11, v12, v13 offset1:1 // 0000012C: D8380100 000D0C0B
ds_write2_b32 v11, v14, v15 offset0:2 offset1:3 // 00000134: D8380302 000F0E0B
s_waitcnt lgkmcnt(0) // 0000013C: BF8C007F
s_barrier // 00000140: BF8A0000
s_cmp_eq_i32 s0, 0 // 00000144: BF008000
s_cbranch_scc1 label_007F // 00000148: BF85002C
s_mov_b32 s15, s0 // 0000014C: BE8F0300
s_mov_b32 s16, s14 // 00000150: BE90030E
label_0055:
s_waitcnt 0x0000 // 00000154: BF8C0000
v_mov_b32 v11, s16 // 00000158: 7E160210
s_mov_b32 s17, 0x6f800000 // 0000015C: BE9103FF 6F800000
v_mov_b32 v12, 0x2f800000 // 00000164: 7E1802FF 2F800000
s_addk_i32 s16, 0x0010 // 0000016C: B7900010
s_add_i32 s18, -1, s15 // 00000170: 81120FC1
ds_read2_b32 v[13:14], v11 offset1:1 // 00000174: D8DC0100 0D00000B
ds_read2_b32 v[15:16], v11 offset0:2 offset1:3 // 0000017C: D8DC0302 0F00000B
s_waitcnt lgkmcnt(1) // 00000184: BF8C017F
v_subrev_f32 v11, v3, v13 // 00000188: 0A161B03
v_subrev_f32 v13, v4, v14 // 0000018C: 0A1A1D04
s_waitcnt lgkmcnt(0) // 00000190: BF8C007F
v_subrev_f32 v14, v5, v15 // 00000194: 0A1C1F05
v_subrev_f32 v15, v6, v16 // 00000198: 0A1E2106
v_mul_f32 v17, v11, v11 // 0000019C: 1022170B
v_mac_f32 v17, v13, v13 // 000001A0: 3E221B0D
v_mac_f32 v17, v14, v14 // 000001A4: 3E221D0E
v_add_f32 v17, s13, v17 // 000001A8: 0622220D
v_sqrt_f32 v17, v17 // 000001AC: 7E226711
v_cmp_gt_f32 vcc, abs(v17), s17 // 000001B0: D008016A 00002311
v_cndmask_b32 v12, 1.0, v12, vcc // 000001B8: 001818F2
v_mul_f32 v17, v17, v12 // 000001BC: 10221911
v_rcp_f32 v17, v17 // 000001C0: 7E225511
v_mul_f32 v12, v12, v17 // 000001C4: 1018230C
v_mul_f32 v17, v12, v12 // 000001C8: 1022190C
v_mul_f32 v12, v12, v17 // 000001CC: 1018230C
v_mul_f32 v12, v16, v12 // 000001D0: 10181910
v_mac_f32 v19, v11, v12 // 000001D4: 3E26190B
v_mac_f32 v2, v13, v12 // 000001D8: 3E04190D
v_mac_f32 v7, v14, v12 // 000001DC: 3E0E190E
v_mac_f32 v8, v15, v12 // 000001E0: 3E10190F
s_cmp_eq_i32 s15, 1 // 000001E4: BF00810F
s_cbranch_scc0 label_007C // 000001E8: BF840001
s_branch label_007F // 000001EC: BF820003
label_007C:
s_mov_b32 s15, s18 // 000001F0: BE8F0312
s_branch label_0055 // 000001F4: BF82FFD7
s_branch label_007F // 000001F8: BF820000
label_007F:
v_add_i32 v18, vcc, s12, v18 // 000001FC: 4A24240C
s_add_i32 s15, -1, s4 // 00000200: 810F04C1
s_barrier // 00000204: BF8A0000
s_cmp_eq_i32 s4, 1 // 00000208: BF008104
s_cbranch_scc0 label_0085 // 0000020C: BF840001
s_branch label_008C // 00000210: BF820007
label_0085:
s_mov_b32 s4, s15 // 00000214: BE84030F
s_branch label_0046 // 00000218: BF82FFBF
s_branch label_008C // 0000021C: BF820004
label_0088:
v_mov_b32 v19, 0 // 00000220: 7E260280
v_mov_b32 v2, 0 // 00000224: 7E040280
v_mov_b32 v7, 0 // 00000228: 7E0E0280
v_mov_b32 v8, 0 // 0000022C: 7E100280
label_008C:
v_mul_f32 v9, 0.5, v19 // 00000230: 101226F0
v_mul_f32 v10, 0.5, v2 // 00000234: 101404F0
v_mul_f32 v11, 0.5, v7 // 00000238: 10160EF0
v_mul_f32 v9, s7, v9 // 0000023C: 10121207
v_mul_f32 v10, s7, v10 // 00000240: 10141407
v_mul_f32 v11, s7, v11 // 00000244: 10161607
v_add_i32 v12, vcc, s5, v1 // 00000248: 4A180205
v_add_i32 v13, vcc, s1, v1 // 0000024C: 4A1A0201
v_add_i32 v1, vcc, s6, v1 // 00000250: 4A020206
s_load_dwordx4 s[8:11], s[2:3], 0x60 // 00000254: C0840360
s_load_dwordx4 s[12:15], s[2:3], 0x68 // 00000258: C0860368
s_load_dwordx4 s[0:3], s[2:3], 0x50 // 0000025C: C0800350
s_waitcnt lgkmcnt(0) // 00000260: BF8C007F
tbuffer_load_format_xyzw v[14:17], v12, s[8:11], 0 offen format:[BUF_DATA_FORMAT_32_32_32_32,BUF_NUM_FORMAT_FLOAT] // 00000264: EBF31000 80020E0C
s_waitcnt vmcnt(0) // 0000026C: BF8C1F70
v_mac_f32 v3, s7, v14 // 00000270: 3E061C07
v_mac_f32 v4, s7, v15 // 00000274: 3E081E07
v_mac_f32 v5, s7, v16 // 00000278: 3E0A2007
v_mac_f32 v3, s7, v9 // 0000027C: 3E061207
v_mac_f32 v4, s7, v10 // 00000280: 3E081407
v_mac_f32 v5, s7, v11 // 00000284: 3E0A1607
tbuffer_store_format_xyzw v[3:6], v13, s[12:15], 0 offen format:[BUF_DATA_FORMAT_32_32_32_32,BUF_NUM_FORMAT_FLOAT] // 00000288: EBF71000 8003030D
s_waitcnt expcnt(0) // 00000290: BF8C1F0F
v_mad_f32 v3, s7, v19, v14 // 00000294: D2820003 043A2607
v_mad_f32 v4, s7, v2, v15 // 0000029C: D2820004 043E0407
v_mad_f32 v5, s7, v7, v16 // 000002A4: D2820005 04420E07
v_mad_f32 v6, s7, v8, v17 // 000002AC: D2820006 04461007
tbuffer_store_format_xyzw v[3:6], v1, s[0:3], 0 offen format:[BUF_DATA_FORMAT_32_32_32_32,BUF_NUM_FORMAT_FLOAT] // 000002B4: EBF71000 80000301
s_endpgm // 000002BC: BF810000
end

; ----------------- CS Data ------------------------

codeLenInByte = 704;Bytes

userElementCount = 3;
; userElements[0] = PTR_UAV_TABLE
, 0
, s[2:3]
; userElements[1] = IMM_CONST_BUFFER
, 0
, s[4:7]
; userElements[2] = IMM_CONST_BUFFER
, 1
, s[8:11]
extUserElementCount = 0;
NumVgprs = 20;
NumSgprs = 20;
FloatMode = 192;
IeeeMode = 0;
ScratchSize = 0;
; texResourceUsage[0] = 0x00000000
; texResourceUsage[1] = 0x00000000
; texResourceUsage[2] = 0x00000000
; texResourceUsage[3] = 0x00000000
; texResourceUsage[4] = 0x00000000
; texResourceUsage[5] = 0x00000000
; texResourceUsage[6] = 0x00000000
; texResourceUsage[7] = 0x00000000
; fetch4ResourceUsage[0] = 0x00000000
; fetch4ResourceUsage[1] = 0x00000000
; fetch4ResourceUsage[2] = 0x00000000
; fetch4ResourceUsage[3] = 0x00000000
; fetch4ResourceUsage[4] = 0x00000000
; fetch4ResourceUsage[5] = 0x00000000
; fetch4ResourceUsage[6] = 0x00000000
; fetch4ResourceUsage[7] = 0x00000000
; texSamplerUsage = 0x00000000
; constBufUsage = 0x00000000

;COMPUTE_PGM_RSRC2 = 0x00400098
COMPUTE_PGM_RSRC2:USER_SGPR = 12
COMPUTE_PGM_RSRC2:TGID_X_EN = 1
COMPUTE_PGM_RSRC2:LDS_SIZE = 128

Zum Vergleich die des Cayman:
ShaderType = IL_SHADER_COMPUTE
TargetChip = c
; ------------- SC_SRCSHADER Dump ------------------
SC_SHADERSTATE: u32NumIntVSConst = 0
SC_SHADERSTATE: u32NumIntPSConst = 0
SC_SHADERSTATE: u32NumIntGSConst = 0
SC_SHADERSTATE: u32NumBoolVSConst = 0
SC_SHADERSTATE: u32NumBoolPSConst = 0
SC_SHADERSTATE: u32NumBoolGSConst = 0
SC_SHADERSTATE: u32NumFloatVSConst = 0
SC_SHADERSTATE: u32NumFloatPSConst = 0
SC_SHADERSTATE: u32NumFloatGSConst = 0
fConstantsAvailable = 0
iConstantsAvailable = 0
bConstantsAvailable = 0
u32SCOptions[0] = 0x01A00000
SCOption_IGNORE_SAMPLE_L_BUG
SCOption_FLOAT_DO_NOT_DIST
SCOption_FLOAT_DO_NOT_REASSOC

u32SCOptions[1] = 0x00202000
SCOption_R600_ERROR_ON_DOUBLE_MEMEXP
SCOption_SET_VPM_FOR_SCATTER

u32SCOptions[2] = 0x00020041
SCOption_R800_UAV_NONARRAY_FIXUP
SCOption_R800_UAV_NONUAV_SYNC_WORKAROUND_BUG216513_1
SCOption_R900_BRANCH_IN_NESTED_LOOPS_WORKAROUND_BUG281276


; -------- Disassembly --------------------
00 ALU: ADDR(32) CNT(32) KCACHE0(CB0:0-15) KCACHE1(CB1:0-15)
0 x: MULLO_INT ____, R1.x, KC0[1].x
y: MULLO_INT ____, R1.x, KC0[1].x
z: MULLO_INT ____, R1.x, KC0[1].x
w: MULLO_INT ____, R1.x, KC0[1].x
1 x: MOV R4.x, 0.0f
y: ADD_INT ____, R0.x, PV0.z
w: U_TO_F R1.w, KC0[1].x
2 x: ADD_INT R1.x, PV1.y, KC0[6].x
y: MOV R4.y, 0.0f
z: MOV R4.z, 0.0f
w: MOV R4.w, 0.0f
3 x: RCP_e ____, R1.w
y: RCP_e ____, R1.w
z: RCP_e ____, R1.w
4 y: MUL_e ____, PV3.z, (0x4F800000, 4294967296f).x
5 x: F_TO_U R2.x, PV4.y
y: LSHL R3.y, R1.x, 4
6 x: MULLO_UINT ____, KC0[1].x, PV5.x
y: MULLO_UINT ____, KC0[1].x, PV5.x
z: MULLO_UINT ____, KC0[1].x, PV5.x
w: MULLO_UINT R1.w, KC0[1].x, PV5.x
7 x: MULHI_UINT ____, KC0[1].x, R2.x
y: MULHI_UINT ____, KC0[1].x, R2.x
z: MULHI_UINT R1.z, KC0[1].x, R2.x
w: MULHI_UINT ____, KC0[1].x, R2.x
8 x: ADD_INT ____, KC1[0].x, R3.y
y: SUB_INT ____, 0.0f, R1.w
9 x: CNDE_INT R1.x, R1.z, PV8.y, R1.w
y: LSHR R1.y, PV8.x, 4
01 TEX: ADDR(192) CNT(1)
10 VFETCH R5, R1.y, fc175 FORMAT(32_32_32_32_FLOAT)
FETCH_TYPE(NO_INDEX_OFFSET)
02 ALU_PUSH_BEFORE: ADDR(64) CNT(27) KCACHE0(CB1:0-15) KCACHE1(CB0:0-15)
11 x: MULHI_UINT ____, R1.x, R2.x
y: MULHI_UINT ____, R1.x, R2.x
z: MULHI_UINT ____, R1.x, R2.x
w: MULHI_UINT ____, R1.x, R2.x
12 y: ADD_INT ____, R2.x, PV11.w
z: SUB_INT ____, R2.x, PV11.w
13 x: CNDE_INT R127.x, R1.z, PV12.y, PV12.z
14 x: MULHI_UINT ____, PV13.x, KC0[2].x
y: MULHI_UINT ____, PV13.x, KC0[2].x
z: MULHI_UINT ____, PV13.x, KC0[2].x
w: MULHI_UINT R1.w, PV13.x, KC0[2].x
15 x: MULLO_UINT ____, PV14.w, KC1[1].x
y: MULLO_UINT ____, PV14.w, KC1[1].x
z: MULLO_UINT ____, PV14.w, KC1[1].x
w: MULLO_UINT ____, PV14.w, KC1[1].x
16 x: SETGE_UINT R2.x, KC0[2].x, PV15.z
y: SUB_INT ____, KC0[2].x, PV15.z
z: ADD_INT R1.z, -1, R1.w
w: ADD_INT R2.w, R1.w, 1
17 z: SETGE_UINT ____, PV16.y, KC1[1].x
18 y: AND_INT ____, R2.x, PV17.z
19 x: CNDE_INT R127.x, PV18.y, R1.w, R2.w
20 z: CNDE_INT R127.z, R2.x, R1.z, PV19.x
21 x: CNDE_INT R6.x, KC1[1].x, -1, PV20.z
w: CNDE_INT R0.w, KC1[1].x, -1, PV20.z
22 z: SETE_INT R0.z, PV21.w, 0.0f
23 x: PREDE_INT ____, R0.z, 0.0f UPDATE_EXEC_MASK UPDATE_PRED
03 JUMP POP_CNT(1) ADDR(19)
04 ALU: ADDR(91) CNT(8) KCACHE0(CB0:0-15) KCACHE1(CB1:0-15)
24 x: MOV R4.x, 0.0f
y: LSHL ____, R0.x, 4
z: LSHL R0.z, KC0[1].x, 4
25 x: ADD_INT R7.x, KC1[0].x, PV24.y
y: MOV R4.y, 0.0f
z: MOV R4.z, 0.0f
w: MOV R4.w, 0.0f
05 LOOP_DX10 i0 FAIL_JUMP_ADDR(18)
06 ALU: ADDR(99) CNT(3)
26 x: LSHR R1.x, R7.x, 4
y: LSHL R1.y, R0.x, 4 VEC_120
07 TEX: ADDR(194) CNT(1)
27 VFETCH R2, R1.x, fc175 FORMAT(32_32_32_32_FLOAT)
FETCH_TYPE(NO_INDEX_OFFSET)
08 ALU: ADDR(102) CNT(8) KCACHE0(CB1:0-15)
28 w: ADD_INT ____, KC0[5].x, R1.y
29 x: LDS_WRITE_REL (offset: 1) ____, PV28.w, R2.x, R2.y
z: ADD_INT ____, PV28.w, 8
30 x: LDS_XCHG_REL_RET (offset: 1) QAB, PV29.z, R2.z, R2.w
31 x: MOV ____, QA[30].pop
y: MOV ____, QB[30].pop VEC_120
32 x: GROUP_BARRIER ____
09 ALU_PUSH_BEFORE: ADDR(110) CNT(3) KCACHE0(CB0:0-15) KCACHE1(CB1:0-15)
33 x: MOV R8.x, KC1[5].x
z: MOV R3.z, KC0[1].x
34 x: PREDNE_INT ____, KC0[1].x, 0.0f UPDATE_EXEC_MASK UPDATE_PRED
10 JUMP POP_CNT(1) ADDR(15)
11 LOOP_DX10 i0 FAIL_JUMP_ADDR(14)
12 ALU: ADDR(113) CNT(41) KCACHE0(CB1:0-15)
35 x: LDS_READ_RET QA, R8.x
y: ADD_INT R1.y, R8.x, 12
z: ADD_INT ____, R8.x, 4
w: ADD_INT ____, R8.x, 8
36 x: LDS_READ2_RET QAB, PV35.z, PV35.w
z: ADD_INT R3.z, -1, R3.z
37 x: LDS_READ_RET QA, R1.y
38 x: ADD_INT R8.x, R8.x, 16
39 w: ADD R1.w, -R5.x, QA[35].pop VEC_102
40 y: ADD R2.y, -R5.y, QA[36].pop VEC_102
z: ADD R2.z, -R5.z, QB[36].pop
w: MUL_e ____, PV39.w, PV39.w
41 x: MULADD_e R127.x, PV40.y, PV40.y, PV40.w
y: MOV R1.y, QA[37].pop
42 x: ADD R3.x, -R5.w, PV41.y
z: MULADD_e R127.z, R2.z, R2.z, PV41.x
43 w: ADD ____, KC0[4].x, PV42.z
44 x: SQRT_e R1.x, PV43.w
y: SQRT_e ____, PV43.w
z: SQRT_e ____, PV43.w
45 y: MAX_DX10 ____, PV44.x, -PV44.x
46 z: SETGT_DX10 ____, PV45.y, (0x6F800000, 7.922816251e28f).x
47 x: CNDE_INT R2.x, PV46.z, 1065353216, 796917760
48 w: MUL_e ____, R1.x, PV47.x
49 x: RCP_e ____, PV48.w
y: RCP_e ____, PV48.w
z: RCP_e ____, PV48.w
50 z: MUL_e R1.z, R2.x, PV49.y
51 x: MUL_e ____, PV50.z, PV50.z
52 w: MUL_e ____, R1.z, PV51.x
53 y: MUL_e ____, R1.y, PV52.w
54 x: MULADD_e R4.x, R1.w, PV53.y, R4.x
y: MULADD_e R4.y, R2.y, PV53.y, R4.y
z: MULADD_e R4.z, R2.z, PV53.y, R4.z
w: MULADD_e R4.w, R3.x, PV53.y, R4.w
55 x: PREDNE_INT ____, R3.z, 0.0f UPDATE_EXEC_MASK BREAK UPDATE_PRED
13 ENDLOOP i0 PASS_JUMP_ADDR(12)
14 POP (1) ADDR(15)
15 ALU: ADDR(154) CNT(3)
56 x: ADD_INT R7.x, R7.x, R0.z
57 x: ADD_INT R6.x, -1, R6.x
58 x: GROUP_BARRIER ____
16 ALU: ADDR(157) CNT(1)
59 x: PREDNE_INT ____, R6.x, 0.0f UPDATE_EXEC_MASK BREAK UPDATE_PRED
17 ENDLOOP i0 PASS_JUMP_ADDR(6)
18 POP (1) ADDR(19)
19 ALU: ADDR(158) CNT(9) KCACHE0(CB1:0-15)
60 x: MUL_e ____, R4.y, 0.5
y: MUL_e ____, R4.x, 0.5
z: MUL_e ____, R4.z, 0.5
w: ADD_INT ____, KC0[1].x, R3.y
61 x: MUL_e R0.x, KC0[3].x, PV60.y
y: MUL_e R0.y, KC0[3].x, PV60.x
z: LSHR R0.z, PV60.w, 4
w: MUL_e R0.w, KC0[3].x, PV60.z
20 TEX: ADDR(196) CNT(1)
62 VFETCH R2, R0.z, fc175 FORMAT(32_32_32_32_FLOAT)
FETCH_TYPE(NO_INDEX_OFFSET)
21 ALU: ADDR(167) CNT(13) KCACHE0(CB1:0-15)
63 x: MULADD_e R127.x, KC0[3].x, R2.y, R5.y
y: MULADD_e R127.y, KC0[3].x, R2.x, R5.x
z: ADD_INT R0.z, KC0[6].x, R3.y VEC_102
w: MULADD_e R127.w, KC0[3].x, R2.z, R5.z
64 x: MULADD_e R1.x, KC0[3].x, R0.x, PV63.y
y: MULADD_e R1.y, KC0[3].x, R0.y, PV63.x
z: MULADD_e R1.z, KC0[3].x, R0.w, PV63.w
w: MOV R1.w, R5.w
65 x: LSHR R0.x, R0.z, 2
y: ADD_INT R0.y, KC0[7].x, R3.y
z: MULADD_e R3.z, KC0[3].x, R4.z, R2.z
w: MULADD_e R3.w, KC0[3].x, R4.w, R2.w
22 MEM_RAT_CACHELESS_STORE_DWORD__NI: RAT(11)[R0], R1, ARRAY_SIZE(4) MARK VPM
23 ALU: ADDR(180) CNT(4) KCACHE0(CB1:0-15)
66 x: MULADD_e R3.x, KC0[3].x, R4.x, R2.x
y: MULADD_e R3.y, KC0[3].x, R4.y, R2.y
67 x: LSHR R2.x, R0.y, 2
24 MEM_RAT_CACHELESS_STORE_DWORD__NI: RAT(11)[R2], R3, ARRAY_SIZE(4) MARK VPM
25 END
END_OF_PROGRAM

; ----------------- CS Data ------------------------
; Input Semantic Mappings
; No input mappings

GprPoolSize = 0
CodeLen = 1584;Bytes
PGM_END_CF = 0; words(64 bit)
PGM_END_ALU = 0; words(64 bit)
PGM_END_FETCH = 0; words(64 bit)
MaxScratchRegsNeeded = 0
;AluPacking = 0.0
;AluClauses = 0
;PowerThrottleRate = 0.0
; texResourceUsage[0] = 0x00000000
; texResourceUsage[1] = 0x00000000
; texResourceUsage[2] = 0x00000000
; texResourceUsage[3] = 0x00000000
; texResourceUsage[4] = 0x00000000
; texResourceUsage[5] = 0x00000000
; texResourceUsage[6] = 0x00000000
; texResourceUsage[7] = 0x00000000
; fetch4ResourceUsage[0] = 0x00000000
; fetch4ResourceUsage[1] = 0x00000000
; fetch4ResourceUsage[2] = 0x00000000
; fetch4ResourceUsage[3] = 0x00000000
; fetch4ResourceUsage[4] = 0x00000000
; fetch4ResourceUsage[5] = 0x00000000
; fetch4ResourceUsage[6] = 0x00000000
; fetch4ResourceUsage[7] = 0x00000000
; texSamplerUsage = 0x00000000
; constBufUsage = 0x00000000
ResourcesAffectAlphaOutput[0] = 0x00000000
ResourcesAffectAlphaOutput[1] = 0x00000000
ResourcesAffectAlphaOutput[2] = 0x00000000
ResourcesAffectAlphaOutput[3] = 0x00000000
ResourcesAffectAlphaOutput[4] = 0x00000000
ResourcesAffectAlphaOutput[5] = 0x00000000
ResourcesAffectAlphaOutput[6] = 0x00000000
ResourcesAffectAlphaOutput[7] = 0x00000000

;SQ_PGM_RESOURCES = 0x30000409
SQ_PGM_RESOURCES:NUM_GPRS = 9
SQ_PGM_RESOURCES:STACK_SIZE = 4
SQ_PGM_RESOURCES:PRIME_CACHE_ENABLE = 1
;SQ_PGM_RESOURCES_2 = 0x000000C0
SQ_LDS_ALLOC:SIZE = 0x00002000
; RatOpIsUsed = 0x800
; NumThreadPerGroupFlattened = 256
; SetBufferForNumGroup = true

horn 12
2011-12-19, 19:02:02
Noch immer KEINE verkaufsfertigen Pappschachteln aus dem Fernost zu sehen, ;(
bzw. gar Karten welche unter der Hand verkauft werden und somit KEINE NDA Brecher wären, AUßER Der Händler selbst!:wink:
Mittwoch wird es wohl spätestens soweit sein...

HarryHirsch
2011-12-19, 19:03:17
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, das schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff

testet ihr auch ob crossfire aa endlich bei allen modi läuft?

Henroldus
2011-12-19, 19:15:08
es könnte doch interessant sein, ob das neue Interface PCIe Gen3 Geschwindigkeitsvorteile bringt wenn man schon so damit wirbt. Mal schauen ob es einen Unterschied macht, wenn die Karte und "alter" und neuen Generation gebenched wird

Gipsel
2011-12-19, 19:15:40
Das ist der Code der n-body-sim aus dem APP.
Und das ist die GPU-ISA des Tahiti:
Zum Vergleich die des Cayman:
Wie schon in dem von mir im Juni gepostetem Beispiel (;)) zeigt sich, daß auch beim nbody-Code die Codegröße im Vergleich zu den VLIW-Architekturen stark sinkt (grob die Hälfte). Weiterhin sieht man (ebenso wie bei dem Integer-Arithmetik-Code bei B3D), daß durch die Skalarregister (und der einzelnen Allozierung, nicht mehr in ganzen xyzw-4er-Gruppen) der Bedarf an Vektorregistern sinkt (20 floats pro Element für GCN, 36 für Cayman).

Skysnake
2011-12-19, 19:35:05
Jo, vor allem der kleinere Code ist halt schon krass.

Dass der Bedarf an Registern sinkt ist auch sehr zu begrüßen. Damit kann man dann wieder etwas mehr Auslastung erreichen.

Superheld
2011-12-19, 22:49:22
http://www.abload.de/img/bf3afgm6tw.jpg (http://www.abload.de/image.php?img=bf3afgm6tw.jpg)
http://www.xtremesystems.org/forums/showthread.php?277324-Radeon-HD-7000-Revealed-AMD-to-Mix-GCN-with-VLIW4-amp-VLIW5-Architectures/page18

Zergra
2011-12-19, 22:55:21
sieht doch nicht schlecht aus :D nur fehlt der untertitel... der ist nicht richtig zu lesen... nochmal für die die es nicht lesen können :

GTX580 vs 7970 : 1920x1080 FXAA / MSAA - 5760x1080 FXAA /MSAA ( 4xMSAA? )

Knuddelbearli
2011-12-19, 23:09:54
sieht doch eher anch fake aus

habe zumindest noch nie eine so gestaltete folie von amd gesehen
und finde auch nirgends nen fehler ^^

Zergra brauchst du eien Brille? Meine Augen sind vor lauter zocken mit AMD Karten ( der war für Hugo G80 und LZ ^^ ) chon echt mies aber lese da ohne zweifel 5760*1080 4xMSAA

Zergra
2011-12-19, 23:16:58
Zegra brauchst du en Brille?

ähmm nööö :D sehtest 100% :P ich seh da 1080 ;D alleine von der logik müsste das auch so sein 5760 /3 = 1920 und das werden 3 Bildschirme a 1920x1080 sein... wie bekommst du da die 10 Pixel auf der Höhe her...
aber schau mal genauer hin :D

Knuddelbearli
2011-12-19, 23:37:31
argh vertippt ^^

Nighthawk13
2011-12-20, 00:39:35
es könnte doch interessant sein, ob das neue Interface PCIe Gen3 Geschwindigkeitsvorteile bringt wenn man schon so damit wirbt. Mal schauen ob es einen Unterschied macht, wenn die Karte und "alter" und neuen Generation gebenched wird
Fürs Avg-FPS Benchen bringts wenig, vielleicht 2%?
Textur-Nachladen/Swapping wird flüssiger(ist wohl eher später bei den Midrange-Karten mit <3GB VRam relevant).
Könnt mir vorstellen, dass das der Hauptgrund für PCIe3 GPGPU war: Da gibt's öfters Situationen, wo der PCIe-Bus limitiert.

Superheld
2011-12-20, 01:50:59
neue pics..

http://88.198.39.57/7970/af.png
http://88.198.39.57/7970/hd3d.png
http://88.198.39.57/7970/mbp.png
http://88.198.39.57/7970/uae.png

http://www.xtremesystems.org/forums/showthread.php?277324-Radeon-HD-7000-Revealed-AMD-to-Mix-GCN-with-VLIW4-amp-VLIW5-Architectures&p=5019328&viewfull=1#post5019328

Screemer
2011-12-20, 01:59:58
bei den gpgpu geschichten kommt im schnitt ja gut 200% der 6970 raus. teils sogar weit mehr. nicht schlecht.

derguru
2011-12-20, 02:14:24
codas filtertest gehört nun zum standard.:biggrin:

bin gespannt ob es eventuell sogar nv-af übertrumpfen kann.

Gipsel
2011-12-20, 02:24:00
Und somit praktisch direkt von AMD selbst die Bestätigung, daß sie bisher schlicht die einzelnen Werte mit falschen Gewichten verrechnet (und zumindest in HQ nicht an Samples gespart) haben. :rolleyes:

Und Tahiti hat nur 1:4 DP (mindestens die HD7970). Erkennt man am Mandelbrot DP Test, der nur ~60% schneller wird. Die Rohleistung steigt um 40%, der Rest kommt vom schnelleren Kontrollfluß (macht jetzt die Skalareinheit), schätze ich mal.

Skysnake
2011-12-20, 02:28:59
Ja scheint so :biggrin:

Die GPGPU-Verbesserungen scheinen etwas zwiespältig. AES256 geht ja richtig ab, fragt sich nur, ob die da etwas mit einer SFU eingebaut haben wie bei den CPUs. Wenn ja, ist es halt fürn Poppes, außer halt bei AES.

Mandelbrot sieht halt auch nicht so knalle aus mit 50% mehr performance. Hatte mir da wirklich mehr verspochen :(

Wobei man natürlich schauen muss, ob das jetzt mit 1:2 oder 1:4 DP:SP ermittelt wurde. Wenn es 1:4 ist, dann siehts gar nicht so schlecht aus, da die Profi-Karten dann 3 mal so viel Performance hätten wie die 6970 :biggrin:

Das wäre schon nicht schlecht. :biggrin:

EDIT:
Warum haben die kein DGEMM dabei -.-

Dann könnte man direkt mit MIC vergleichen. Wenn die 1:4 aber stimmt, wie auch Gipsel vermutet, dann sollte sich das, denke ich mal, mit den ~1TFlop/s (DP) ausgehen. Damit wäre man auf Augenhöhe mit MIC.

NEED so ne Karte zum testen -.-

uweskw
2011-12-20, 02:34:07
neue pics..

http://88.198.39.57/7970/mbp.png



AMD PowerTune Technology kapier ich nicht.
Was soll die Grafik aussagen?
30% mehr Stromverbrauch als die 5870?
Untapped performance?
Blickt wer durch?

Skysnake
2011-12-20, 02:37:44
Denk doch einfach an die CPUs.

Wenn die Karte schlecht ausgelastet wird, taktet Sie höher, um die TDP aus zu reizen. Wenn dafür so "Power-Viren" kommen wie der Fellwürfel, dann taktet Sie niedriger. Damit bleibst du immer in der Spezifikation, holst aber das Maximum aus der Architektur/TDP raus.

Man muss halt nicht mehr nach der Anwendung mit der höchsten Leistungsaufnahme alles abriegeln.

uweskw
2011-12-20, 02:47:30
Soweit klar funktioniert ja auch bestens,(CPUs?) aber was hat das mit der Grafik zu tun?

Skysnake
2011-12-20, 02:56:17
Es ist halt die gleiche Technik, und da fragt auch keiner, warum man das macht :ugly:

uweskw
2011-12-20, 03:00:46
Ahhh, du verstehst die Grafik genausowenig wie ich.

Superheld
2011-12-20, 06:40:12
ich kapiers auch nich..

..
http://88.198.39.57/7970/prt.png

V2.0
2011-12-20, 07:19:30
Bedenkt das gute Verhältnis aus Bums und Leistungsaufnahme. Die Bildraten einer GTX 580 zu kloppen ist keine große Herausforderung, das schaffen oft schon OC-Modelle der HD 6970. Wie klingen +30 Prozent zur 580 bei weniger als 200 Watt für euch?

MfG,
Raff

Wenn der Kühler die 200W dann auch mit Ruhe belohnt, dann ist das eine Superkarte.

Ailuros
2011-12-20, 07:20:38
AMD PowerTune Technology kapier ich nicht.
Was soll die Grafik aussagen?
30% mehr Stromverbrauch als die 5870?
Untapped performance?
Blickt wer durch?

Was soll man da durchblicken? Sind doch alles nur Marketing-slides. Mehr Leistung pro Watt, aber zwischen 40 und 28nm gibt es auch einen ziemlich guten Abstand.

G 80
2011-12-20, 07:43:29
Nochmal zum AF Slide und zum herausstreichen:

-repariert
-kein Flimmern, und das ohne zu matschen
-autom. eingeschaltet = Standard?
-gratis
-volle Winkelunabhängigkeit

Das wäre mal was, wenn _echtes_ HQ AF (auch Intel IGP haben doch einen HQ Modus oder nicht ;D) nicht nur möglich SONDERN auch (fast) gratis UND sogar noch Treiberstandard wäre.

Letzteres hat nicht mal NV gebracht und von vorletzterem sogar schon ein bischen entfernt ....

Ailuros
2011-12-20, 08:00:26
IHVs behaupten "for free" normalerweise bei <10% Verlust fuer etwas. Stellenweise duerfte HQ AF immer etwas mehr als gar nichts kosten, aber wohl nicht der Rede wert es auszuschalten. Deshalb will ich es erstmal sehen dass es im Treiber default sein wird bevor ich es glaube. Marketing Kerle wuerden sogar nackt nachts auf dem Balkon Huener rumpfen wenn es selbst nur um 1% Leistung ginge.

"enabled automatically" ist sogar so bekloppt formuliert dass es mir eher Sorgen macht.

marc-05
2011-12-20, 08:38:30
AMD PowerTune Technology kapier ich nicht.
Was soll die Grafik aussagen?
30% mehr Stromverbrauch als die 5870?

Mit PowerTune kann man die TPD/Stromaufnahme beeinflussen,gabs erstmals bei den HD 69xx Karte (+/- 20% Powertune)

Bei HT4u wird funktionsweiße gut erklärt
http://ht4u.net/reviews/2010/amd_powertune_technology/
http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index7.php

Raff
2011-12-20, 08:41:48
"enabled automatically" ist sogar so bekloppt formuliert dass es mir eher Sorgen macht.

Das wird wohl nichts anderes bedeuten als "in Hardware gegossen".

MfG,
Raff

M4xw0lf
2011-12-20, 08:48:52
Das wird wohl nichts anderes bedeuten als "in Hardware gegossen".

MfG,
Raff

Ailuros Sorgen sind also unbegründet? :wink:

Raff
2011-12-20, 08:52:32
"We don't comment on ..." Äh, ich meine: Coda hatte Recht.

MfG,
Raff

Soul
2011-12-20, 08:59:31
http://88.198.39.57/7970/hd3d.png

Das mit den 600 Spiele passt so ziemlich zu TriDef. Bekommt man mit der 79xx Klasse auch gleich die AMD TriDef Software mit?

G 80
2011-12-20, 09:01:28
@ Ailuros: Ich stimme dir zu, in jedem Punkt.

Naja oben habe ich wiedergegeben was ATI sagt/zumindest auf der Foilie stand.


Obs dann wirklich so kommt .....

Drum auch das "(fast) gratis" und meine skepsis über den Treiberstandard, wenn nichtmal NV das macht(e).

Und gratis selbst ist für mich eher G80/G92 Niveau mit <4%. Fast gratis ist zB Fermit mit idR <10 %, schlimmsten Fall <15 %.

Wobei ich nicht hoffe, das der Trend bei NV anhält. 25 % für AF verballern ist unnötig, aber wäre immer noch besser als krüppel AF ohne Besserungsmöglichkeit.


Bin gespannt ob die jew. Fraktionen jetzt angelaufen kommen mit ihrer Definition was gratis und große Unterschiede sind.

2x4 % durch 8xGen 2 statt 16xGen 2 MGPU ist nichts. 5 Treiber die jew. 1,2 % bringen sind eine Menge, etc ....

:freak::wink:

samm
2011-12-20, 09:21:05
Vermutung: Gratis und "enabled automatically" im Vergleich mit dem vorherigen AF - d.h. es kostet nicht mehr als das HQ AF der HD6xxx und es ist automatisch korrekt berechnet, sobald man HQ AF aktiviert (also kein Schalter "HQ AF / wirkich HQ AF" xD). Was auch logisch ist, da man vorher ja keine Berechnungen sparte, sondern nur falsch / ungünstig rechnete.

Raff
2011-12-20, 09:24:07
Ja, typische Marketing-Verdrehung. Statt zu schreiben "Wir haben vorher Scheiße gebaut, sry." steht da nun "Yeah, wir haben die Qualität verbessert, ohne dass es was kostet und ohne dass der Nutzer eingreifen muss."

MfG,
Raff

G 80
2011-12-20, 09:43:00
Ich glaube ihr habt recht (Samm, Raff) wenn ich da jetzt so drüber nachdenke ergibt das was ihr schreibt mehr als nur Sinn.


Wobei:

>>>>> Marketing Kerle wuerden sogar nackt nachts auf dem Balkon Huener rumpfen wenn es selbst nur um 1% Leistung ginge.

>>>>kein Schalter "HQ AF / wirkich HQ AF"

>>>>Statt zu schreiben "Wir haben vorher Scheiße gebaut, sry." steht da nun "Yeah, wir haben die Qualität verbessert, ohne dass es was kostet und ohne dass der Nutzer eingreifen muss."


Made my Day, weils ja wirklich genau so ist! :lol::up:

john carmack
2011-12-20, 10:37:10
So wie ich das lese könnten die 7900er richtig gute Karten werden :) wenn auch viel Marketing dabei ist.

Wie seht Ihr das?
Und wenn alls so eintrifft, denkt Ihr das Kepler dier 7900er weit übertreffen wird oder gibt es ein Kopf-an-Kopf rennen...?

Dural
2011-12-20, 10:44:27
kannst dir es ja selber ausrechnen, 60-80% wird kepler sicher mehr haben als die GTX580....


Wie es scheint, ist AMD wieder im üblichen 50% schema wie damals bei 4890 / 5870.
Wo bei ich es ziemlich erstaunlich finde das bis jetzt und nicht mal in den Folien irgend welche aussage kräftigen Benchmarks ersichtlich sind.

LovesuckZ
2011-12-20, 11:01:11
bei den gpgpu geschichten kommt im schnitt ja gut 200% der 6970 raus. teils sogar weit mehr. nicht schlecht.

Naja. Ein Großteil macht das Cache-System aus. Fermi ist bei Raytracing auch mehr als 2x so schnell als Cayman.

Und die Sache mit dem Powertune ist auch lustig. Wieso nimmt man eigentlich nicht die 6970 als vergleich? Achja, die unterstützt es ja schon. :freak:

kiss
2011-12-20, 11:09:30
Ich finde es schon ziemlich krass das eigentlich kein Spiel auf dem Markt ist welches die derzeitigen Grafikkarten zum ruckeln bringt. Ich gehe jetzt von FullHD und ca 4AA und 16AF aus. Mit meiner 6950 läuft alles super flüssig.

Ich freue mich riesig auf die neue Generation und hoffe AMD legt mal richtig die Fleischpeitsche aufn Tisch. Haben Sie nach dem Bulldozer auf jedenfall verdient.

Bald kommt schon wieder eine neue Generation mit noch mehr Power.
Früher gabs eigentlich immer ein Spiel welches die Grakas gekillt hat.

Ich bin auch irgendwie froh darüber das es nicht mehr so schnell geht.

Ich war letztens beim Kollegen und dort hat er mir Dirt3 auf der xbox360. Der Typ hat einen 46 Zoll Fernseher. Als ich gesehen habe wie scheisse das aussieht und wirklich alles im flimmern war habe ich im vorgeschlagen meinen Rechner mal mitzubringen. Er fragte gleich wieso...

Ich habe am nächsten Tag meinen Rechner mitgebracht und via HDMI an den Fernseher angestöpselt.

Als ich dann Dirt in Full HD + Voll AA und AF angeschaltet haben viel beim meinem Kollegen die Kinnlade aufn Boden. Es war nichts mehr am flimmern und das Bild war so ruhig wie ein Foto an der Wand. Die Grafikqualität ist deutlich gestiegen und macht mit dem xbox360 Controller mehr Spaß als die xbox360 grütze. Ok danach habe ich im Battlefield III gezeigt und dann is er völlig abgeklappt. Wir haben danach die xbox angeschaltet und dann wurde im erst richtig bewusst wie schlecht die Bildqualität der Box is.

Jetzt lässt er sich einen neuen Rechner vom Weihnachtsmann bauen. :freak:

Skysnake
2011-12-20, 11:14:12
sodele hier noch ein paar Slides von PCGH, ich glaub die sind neu.

Sorry PCGH :(

EDIT: Sorry, ganz vergessen, dass das hier zu nem deep-link führt -.- habs gefixed

fondness
2011-12-20, 11:19:57
sodele hier noch ein paar Slides von PCGH, ich glaub die sind neu.

Sorry PCGH :(

http://www.pcgameshardware.de/screenshots/original/2011/12/AMD-Radeon-HD-7970__6_.png
http://www.pcgameshardware.de/screenshots/original/2011/12/AMD-Radeon-HD-7970__7_.png

Hast du die Screens noch irgend wo im Cache? "No Deeplinking please!"

aufkrawall
2011-12-20, 11:21:51
Ich finde es schon ziemlich krass das eigentlich kein Spiel auf dem Markt ist welches die derzeitigen Grafikkarten zum ruckeln bringt.

Ist eine ziemliche subjektive und oT (das soll ein Adjektiv sein) Aussage.

M4xw0lf
2011-12-20, 11:23:54
Hast du die Screens noch irgend wo im Cache? "No Deeplinking please!"

Sie sind hier: http://www.pcgameshardware.de/aid,860567/Radeon-HD-7970-Erste-Leaks-versprechen-60-Prozent-mehr-Performance-als-GTX-580/Grafikkarte/News/bildergalerie/?iid=1606770

Botcruscher
2011-12-20, 11:43:11
Die Pro mit 1920SP wäre nett. Bis jetzt hat man ja mit deutlich weniger spekuliert.

Skysnake
2011-12-20, 11:45:14
jup, wären gerade einmal 2 CUs weniger.

Ich hoffe nur, das Sie noch irgendwas in der Hinterhand haben gegen den GK100. Wäre schade, wenn Sie dort dann gnadenlos abgeledert würden. Das würde nämlich auch wieder zu total überzogenen Preisen führen.

y33H@
2011-12-20, 11:49:05
Wenn GK100 so stark wird, dann haben sie nur New Zealand - der aber mikroruckelt und laggt, wie üblich halt. Außer sie fixen das, was ich aber bezweifle.

LovesuckZ
2011-12-20, 11:51:16
Ich verstehe die Aufregung nicht. Dann sinkt eben der Preis. nVidia zieht bei gleichschnellen Zeug mit. Also so wie in den letzten Jahren.

fondness
2011-12-20, 11:53:03
Sehe ich ähnlich. Letztlich wird der Preis zu beginn ohnehin von den 28nm Kapazitäten bestimmt.

boxleitnerb
2011-12-20, 11:53:16
Wenn GK100 so stark wird, dann haben sie nur New Zealand - der aber mikroruckelt und laggt, wie üblich halt. Außer sie fixen das, was ich aber bezweifle.

Apoppin von alienbabletech meint, die geleakten Benchmarks gelten für die Karte nach Tahiti. Dass damit die 7990 gemeint ist, glaube ich nicht - für die wäre das viiiiel zu langsam. Könnte AMD nach 1-3 Monaten eine Ultra nachschieben?

LovesuckZ
2011-12-20, 11:57:16
Apoppin von alienbabletech meint, die geleakten Benchmarks gelten für die Karte nach Tahiti. Dass damit die 7990 gemeint ist, glaube ich nicht - für die wäre das viiiiel zu langsam. Könnte AMD nach 1-3 Monaten eine Ultra nachschieben?

Morgen/heute will er ein Preview hochstellen. Er steht nicht unter NDA. Laut ihm soll AMD nur ausgewählten Publikationen ein Testsample zuschicken.

Klingt nach GTX295.

boxleitnerb
2011-12-20, 11:59:58
Wie meinst du das?

LovesuckZ
2011-12-20, 12:02:26
Wie meinst du das?

Die Previews der GTX295 kurz vor Jahresende 2008 vergessen? :biggrin:
Okay, da waren die Tester stärker limitiert in der Spieleauswahl. Es ist trotzdem ein bisschen komisch, dass sie zwar den "Launch" vorziehen, aber dann nicht jedem Tester eine Karte senden...

Dural
2011-12-20, 12:03:39
ja wie so wohl, eine hand voll karten sollte ja auch noch in den handel kommen um keinen reinen paperlaunch zu tätigen ;D :freak: :rolleyes:

AMD versucht mit allen mittel so früh wie möglich den launch durch zu führen, was ja sehr interessant ist da doch das konkurenz produkt weit und breit nicht ersichtlich ist, hat da wohl jemand angst vor kepler? ;)

Telema
2011-12-20, 12:21:11
Ich finde es schon ziemlich krass das eigentlich kein Spiel auf dem Markt ist welches die derzeitigen Grafikkarten zum ruckeln bringt. Ich gehe jetzt von FullHD und ca 4AA und 16AF aus. Mit meiner 6950 läuft alles super flüssig.

Ich freue mich riesig auf die neue Generation und hoffe AMD legt mal richtig die Fleischpeitsche aufn Tisch. Haben Sie nach dem Bulldozer auf jedenfall verdient.

Bald kommt schon wieder eine neue Generation mit noch mehr Power.
Früher gabs eigentlich immer ein Spiel welches die Grakas gekillt hat.

Ich bin auch irgendwie froh darüber das es nicht mehr so schnell geht.

Ich war letztens beim Kollegen und dort hat er mir Dirt3 auf der xbox360. Der Typ hat einen 46 Zoll Fernseher. Als ich gesehen habe wie scheisse das aussieht und wirklich alles im flimmern war habe ich im vorgeschlagen meinen Rechner mal mitzubringen. Er fragte gleich wieso...

Ich habe am nächsten Tag meinen Rechner mitgebracht und via HDMI an den Fernseher angestöpselt.

Als ich dann Dirt in Full HD + Voll AA und AF angeschaltet haben viel beim meinem Kollegen die Kinnlade aufn Boden. Es war nichts mehr am flimmern und das Bild war so ruhig wie ein Foto an der Wand. Die Grafikqualität ist deutlich gestiegen und macht mit dem xbox360 Controller mehr Spaß als die xbox360 grütze. Ok danach habe ich im Battlefield III gezeigt und dann is er völlig abgeklappt. Wir haben danach die xbox angeschaltet und dann wurde im erst richtig bewusst wie schlecht die Bildqualität der Box is.

Jetzt lässt er sich einen neuen Rechner vom Weihnachtsmann bauen. :freak:

Also Rechenleistung kann mie nie genug haben bei einer Grafikkarte.

In meinen Fall würde ich gerne 3D, DS, SSAA und HQ AF aktvieren. Dafür reicht meine GTX 480 fast nicht mehr aus. Daher warte ich schon sehnsüchtig auf die NextGen Grakkas :)

Neon3D
2011-12-20, 12:22:55
IHVs behaupten "for free" normalerweise bei <10% Verlust fuer etwas. Stellenweise duerfte HQ AF immer etwas mehr als gar nichts kosten, aber wohl nicht der Rede wert es auszuschalten. Deshalb will ich es erstmal sehen dass es im Treiber default sein wird bevor ich es glaube. Marketing Kerle wuerden sogar nackt nachts auf dem Balkon Huener rumpfen wenn es selbst nur um 1% Leistung ginge.

"enabled automatically" ist sogar so bekloppt formuliert dass es mir eher Sorgen macht.

das IHVs bei <10% von "for free" spricht ist ja wohl eine frechheit:mad:

mathematisch korrekt von gratis zu sprechen ist eindeutig nur <5% ! denn alles oberhalb von 5% ist laut definition SIGNIFIKANT.

Superheld
2011-12-20, 12:32:34
Also Rechenleistung kann mie nie genug haben bei einer Grafikkarte.

In meinen Fall würde ich gerne 3D, DS, SSAA und HQ AF aktvieren. Dafür reicht meine GTX 480 fast nicht mehr aus. Daher warte ich schon sehnsüchtig auf die NextGen Grakkas :)

und wenns das nicht gibt, holste dir die trotzdem ?;(

Iruwen
2011-12-20, 12:33:03
Dann ändert man halt die Definition.

/e: wenns DS oder SSAA nicht gibt kann ich persönlich mit der Karte nix anfangen. Mit "normalen" Settings läuft BF3 auch so hinreichend flüssig.

boxleitnerb
2011-12-20, 12:33:57
Is Tahiti Short-lived?

The most interesting thing about this launch is that it appears that Tahiti’s HD 7970 may be short-lived. AMD’s 28nm yields are known to not be great and the specifications of the new GPU indicate that something strange is going on. The chip itself is quite complex with 4.3 billion transistors but its core only runs at a very conservative 925MHz. Most telling is that its performance is not that great except in DX11 games and especially in heavily tessellated scenarios – only about 25% faster than a GTX 580 overall.

Inside sources tell ABT that the HD 7970 is likely to be released much like GF 100 Fermi was. Originally, Nvidia released the hot-running and poor-yielding GTX 480 which was later reworked into the greatly improved GF110 GTX 580. It is pure speculation, however, that this new HD 7970 may ship with some parts disabled that may be enabled in a respin to meet the next generation of Fermi, the GTX 680 in Q1 of 2012.

At the very least, the HD 7970 is debuting very conservatively as a possibly new strategy from AMD’s new CEO. Timing is good as it shows up at the very end of the year so that AMD can now claim the fastest single-GPU crown, and it brings new life to their partners line-up in time for CES. Best of all, it gives AMD time to respin the chips into higher-performing video cards so as to meet the GTX 680.

We are also hearing that across the board, the stock HD 7970 is a bit disappointing as it only scores about 20-30% faster than the stock GTX 580 – well within reach of an overclocked GTX 580 and priced similarly at about $550. We are also hearing that in a few older DX9 games, it is not that much faster than than the previous generation’s HD 6970, and AMD’s emphasis will be on DX11 and heavily tessellated games.

http://alienbabeltech.com/main/amds-upcoming-hd-7970-exposed-a-short-lived-video-card

;D zum Fettgedruckten. Aber Tessellation ist ja unwichtig...

Neon3D
2011-12-20, 12:37:36
Dann ändert man halt die Definition.
achso und dann wird aus 1+1 = 3 gemacht, weils dann gut ankommt bei der käufergemeinde. der balken sieht dann ja noch größer aus, aber blos keine beträge an den fetten balken schreiben, sonst könnte man ja sehen was für ne ver@rschung mit den folien gemacht wird.

Spasstiger
2011-12-20, 12:41:08
Nach 2 Jahren DX11 dürfen sich die Anforderungen doch mal ändern, oder? :wink:
Schon bei Cayman hat AMD einen stärkeren Fokus auf Tessellation gesetzt und den größten Performancevorteil gegenüber Cypress mit aktiver Tessellation erreicht.

@Neon3D: Du regst dich unnötig auf. AMD spricht davon, dass der neue AF-Algorithmus gegenüber dem alten AF-Algorithmus keine Performance kostet, was kein Wunder ist, da einfach die Hardware gefixt wurde. Den alten Hardwarefehler kann man auf Tahiti gar nicht mehr reproduzieren. Wir Raff schon sagt, AMD will nur nicht an die Große Glocke hängen, dass sie seit 2007 bei der AF-Hardwareimplementierung Mist gebaut haben.

boxleitnerb
2011-12-20, 12:44:45
Ich finds nur lustig, wie jeder damals auf Nvidia eingehauen hat, obwohl sie es zum Erscheinen der API gleich "richtig" gemacht haben. Auf mich persönlich macht es keinen guten Eindruck, etwas als wenig wichtig zu deklarieren und dann doch dem Konkurrenten nachzueifern. Wirklich viel hat man jetzt nicht verpasst...diesmal. Aber ein fader Beigeschmack bleibt.

Spasstiger
2011-12-20, 12:49:38
Keiner hat auf Nvidia wegen "DX11 done right" eingehauen. Die Kritik am GF100 bezog sich auf die geringe Energieeffizienz im Vergleich zur Radeon HD 5870, den hohen Stromverbrauch und die hohe Lautstärke. Die GTX 480 war die erste Single-GPU-Grafikkarte, die in Furmark die 300 Watt gesprengt hat und war dabei in Furmark sogar langsamer als die HD 5870.
Über die Architektur hat niemand gemeckert.

Neon3D
2011-12-20, 12:53:11
@spasstiger
es sind eher die synt. benches die mich ärgern, da sie keine echte aussage über die performance der gra.karte machen. wir bekommen gerade mal die hälfte der versprochen mehrleistung von 50% gegenüber der gtx580 und die diagramme der folien sollen davon ablenken. es sind diese verdummungs- ich meine vertuschungsaktion die mich stört.

@boxleitnerb
vielen dank für den link von alienbabeltech.

boxleitnerb
2011-12-20, 12:56:41
Und du meinst, DX11 done right hat keine Transistoren gekostet und ist nicht zu Lasten der Effizienz in DX9/10 gegangen? Die ganzen Fanboys haben sich bei Tessellationbenchmarks aufgeregt und hätten diese am liebsten nie gesehen. Dort ist die Energieeffizienz von Fermi aber hervorragend. Fermi war eben seiner Zeit deutlich voraus. Es war eine Designentscheidung, da muss man Kompromisse an anderer Stelle eingehen. Vielleicht wird das AMD jetzt auch spüren.

Langenscheiss
2011-12-20, 12:58:22
Zum AF:
Wenn AMD tatsächlich nur mit der unterschiedlichen Gewichtung der einzelnen Samples (was sie, so vermute ich laut Ergebnisse aus dem B3D-Forum, bisher überhaupt nicht gemacht haben) ihre Probleme beseitigen konnten, dann dürfte das wirklich fast gar nichts an Performance gekostet haben. Dass sie nicht an Samples sparen, ist ja schon längst bekannt, weshalb ich mir das durchaus vorstellen kann. Bin mal gespannt, ob AMD diese eigentlich total sinnlose Baustelle endlich loswird. In diesem Zusammenhang würde mich auch interessieren, was sie aus dem "Performance"-Modus im Treiber machen. Vielleicht wirds ja wieder ein richtiger Performance-Modus und nicht ein Quality mit LOD-Bias.

LovesuckZ
2011-12-20, 13:11:24
Ich finds nur lustig, wie jeder damals auf Nvidia eingehauen hat, obwohl sie es zum Erscheinen der API gleich "richtig" gemacht haben. Auf mich persönlich macht es keinen guten Eindruck, etwas als wenig wichtig zu deklarieren und dann doch dem Konkurrenten nachzueifern. Wirklich viel hat man jetzt nicht verpasst...diesmal. Aber ein fader Beigeschmack bleibt.

Man hat deswegen nichts verpasst, weil AMD es verhindert hat. Schau dir Spiele wie Dragon Age 2, Dirt, Shogun oder Deux Ex an. Dagegen hast du dann Spiele wie Civ5, HAWX2, Crysis 2 und Batman:AC.

Hätte AMD aktiv mitgeholfen, hätte man heute schon viel mehr Spiele, die einen deutlichen Sprung im Geometrielevel aufweisen.

Aber zum Glück ändern sie ja jetzt anscheinend ihre Meinung.

boxleitnerb
2011-12-20, 13:15:16
Man hat deswegen nichts verpasst, weil AMD es verhindert hat. Schau dir Spiele wie Dragon Age 2, Dirt, Shogun oder Deux Ex an. Dagegen hast du dann Spiele wie Civ5, HAWX2, Crysis 2 und Batman:AC.

Hätte AMD aktiv mitgeholfen, hätte man heute schon viel mehr Spiele, die einen deutlichen Sprung im Geometrielevel aufweisen.

Aber zum Glück ändern sie ja jetzt anscheinend ihre Meinung.

Naja fairerweise muss man sagen, dass neue Features auch bei Unterstützung beider Seiten eine ganze Weile brauchen, um sich durchzusetzen. Ich kann mich im Übrigen nicht dran erinnern, wann beide IHVs zuletzt vergleichbare Performance in neuen APIs gehabt hätten.

In DX9 hat Nvidia mit FX5800 versagt
DX9c gabs erstmal nur von Nvidia
In DX10 (und generell) AMD mit HD2000
Und 2009 halt DX11 bzw. genauer gesagt Tessellation. Rechenleistung für DirectCompute hat AMD ja eigentlich genug.

Blöd für uns Spieler, aber so wie es gelaufen ist, ist das nun wirklich keine Ausnahme, eher die Regel.

Skysnake
2011-12-20, 13:19:25
Naja, Tesselation ist schon ein SEHR zweischneidiges Schwert. Man sollte Features einsetzen, wo Sie sinn machen, und nicht einfach nur weil man sie hat, ohne jedweden verstand.

War doch hier oder in nem anderen Topic eine Analyse von Crysis2 und Tesselation gepostet worden. Wenn gerade Flächen wie bei den Straßensperren mit Polygonen zugeknallt werden wie blöd, dann hat das nichts mehr mit Sinn zu tun, sondern ist einfach nur um des Einsatzes des Features willens.

Genau so die Sache mit dem Wasser, welches mit Tesselation berechnet wird für die GESAMTE Fläche, wenn nur irgendwo ein winzig mini kleines Stückchen Wasser zu sehen ist. Da wurde auf Performance und sinnvollen Einsatz einfach ein ziemlich dicker Haufen gesetzt, und wenn man erst aufgrund von Solchen MEGA Fails die sehr hohe Tesselationleistung von nVidia benötigt, dann tuts mir ganz ehrlich leid, dann gehören die Programmierer mal ganz böse abgestraft für so nen Rotz.

Da aber solche Fails produziert werden... ist es dennoch gut das AMD dort an der Leistungsschraube dreht, auch wenn es mir deutlich lieber wäre, wenn die Softwareentwickler einfach keinen Mist bauen würden...

N0Thing
2011-12-20, 13:20:25
Und du meinst, DX11 done right hat keine Transistoren gekostet und ist nicht zu Lasten der Effizienz in DX9/10 gegangen? Die ganzen Fanboys haben sich bei Tessellationbenchmarks aufgeregt und hätten diese am liebsten nie gesehen. Dort ist die Energieeffizienz von Fermi aber hervorragend. Fermi war eben seiner Zeit deutlich voraus. Es war eine Designentscheidung, da muss man Kompromisse an anderer Stelle eingehen. Vielleicht wird das AMD jetzt auch spüren.

Ich meine mich zu erinnern, daß die Nvidia-Jünger Tessellation als nicht wichtig oder Trueform reloaded bezeichnet haben, bis klar war, daß Nvidia mit Fermi einen sehr starken Fokus auf Tessellation legt. Dann war auf einmal Tessellation das Kernelement von DX11 und sogar das Maß der Dinge für alle zukünftigen Spiele.
Und der Kreis dreht sich jetzt eben wieder weiter, nun werden die AMD-Jünger sagen, daß Tessellation inzwischen wichtig geworden ist und passend dazu auch die Geometrieleistung bei AMD angehoben wurde. Intelligent design, oder so. :rolleyes:

Es wird ja auch schon in diesem Speku-Thread deutlich, wer nachher bei Tahiti ein Büschel Haare in der Suppe findet und wem auch eine salzige Suppe schmecken würde. ;)

Um auf deinen ersten Satz zurück zu kommen: Mich würde es schon sehr interessieren zu erfahren, ob die GCN-Architektur wirklich Nachteile bei DX9 hat.

deekey777
2011-12-20, 13:27:22
neue pics..
...
http://88.198.39.57/7970/uae.png

http://www.xtremesystems.org/forums/showthread.php?277324-Radeon-HD-7000-Revealed-AMD-to-Mix-GCN-with-VLIW4-amp-VLIW5-Architectures&p=5019328&viewfull=1#post5019328
Ich glaube, man sollte diese Ergebnisse nicht zu ernst nehmen. Wie es aussieht, haben sie SiSoft Sandra benutzt, zumindest bei der Verschlüsselung. Und hier vertrugen sich die VLIW-Architektur und Sandra nicht so gut, daher wohl dieser enorme Vorsprung.
Dades Lux und SmartPT: Ich habe kein Recht, seine Anwendungen zu kritisieren, aber ich weiß nicht, wie gut sie optmiert sind. Als sie kamen, waren Raddeons den Geforces überlegen, dann mit jeder weiteren Version legten die Geforces zu, so dass es nicht klar ist, wie gut die Radeons berücksichtig werden.

Gaestle
2011-12-20, 13:28:00
http://alienbabeltech.com/main/amds-upcoming-hd-7970-exposed-a-short-lived-video-card



Wenn das zutrifft, ist es doch nicht schlecht:

0% Zuwachs in DX9 im vgl. zu 580GTX
X% Zuwachs in DX11 im vgl. zu 580GTX
25% Zuwachs im Gesamtdurchschnitt

Wenn DX9 und DX11 50/50 verteilt sind, bedeutet das 50% Zuwachs in DX11.

Nur: welchen Anteil hat DX10 am Gesamtdurchschnitt?

boxleitnerb
2011-12-20, 13:29:38
So kannst du nicht rechnen. Es gibt mehr TMUs und ein kleines bisschen mehr Takt. Auch unter DX9 wird schon was rumkommen.

Langenscheiss
2011-12-20, 13:31:34
Naja, Tesselation ist schon ein SEHR zweischneidiges Schwert. Man sollte Features einsetzen, wo Sie sinn machen, und nicht einfach nur weil man sie hat, ohne jedweden verstand.

War doch hier oder in nem anderen Topic eine Analyse von Crysis2 und Tesselation gepostet worden. Wenn gerade Flächen wie bei den Straßensperren mit Polygonen zugeknallt werden wie blöd, dann hat das nichts mehr mit Sinn zu tun, sondern ist einfach nur um des Einsatzes des Features willens.

Genau so die Sache mit dem Wasser, welches mit Tesselation berechnet wird für die GESAMTE Fläche, wenn nur irgendwo ein winzig mini kleines Stückchen Wasser zu sehen ist. Da wurde auf Performance und sinnvollen Einsatz einfach ein ziemlich dicker Haufen gesetzt, und wenn man erst aufgrund von Solchen MEGA Fails die sehr hohe Tesselationleistung von nVidia benötigt, dann tuts mir ganz ehrlich leid, dann gehören die Programmierer mal ganz böse abgestraft für so nen Rotz.

Da aber solche Fails produziert werden... ist es dennoch gut das AMD dort an der Leistungsschraube dreht, auch wenn es mir deutlich lieber wäre, wenn die Softwareentwickler einfach keinen Mist bauen würden...

Naja, beim Fall Crysis 2 kann man entweder böse Absichten unterstellen oder die Entwickler für inkompetent erklären. Eine derartige Verschwendung ist jedenfalls nicht die Regel. Bei BF3 ist es doch (für einen auf hohe FPS ausgelegten Multiplayer-Titel) noch ganz sinnvoll eingesetzt. Man vermutet sowieso schon, dass bei Crytek intern für diesen Bockmisst mal wieder einige Leute für Unmenschen erklärt worden sind ;)

Hugo78
2011-12-20, 13:34:41
Wenn DX9 und DX11 50/50 verteilt sind, bedeutet das 50% Zuwachs in DX11.

Nochmal...

We are also hearing that across the board, the stock HD 7970 is a bit disappointing as it only scores about 20-30% faster than the stock GTX 580 – well within reach of an overclocked GTX 580

LovesuckZ
2011-12-20, 13:43:25
Naja, beim Fall Crysis 2 kann man entweder böse Absichten unterstellen oder die Entwickler für inkompetent erklären. Eine derartige Verschwendung ist jedenfalls nicht die Regel. Bei BF3 ist es doch (für einen auf hohe FPS ausgelegten Multiplayer-Titel) noch ganz sinnvoll eingesetzt. Man vermutet sowieso schon, dass bei Crytek intern für diesen Bockmisst mal wieder einige Leute für Unmenschen erklärt worden sind ;)

BF3 benutzt kaum bis kein Tessellation. Das Geometrieniveau des Spiels ist für das, was es sein wollte, ein Witz. Da nehme ich doch liebers Crytek mit ihrer Implementierung.

Ansonsten ist die Diskussion sowieso überflüssig. Fehlendes Verständnis, was Tessellation überhaupt ist und wieso es eingesetzt gehört, führt einfach nur zu langweiligen Diskussionen.

Fakt ist, dass AMD aktiv gegen Tessellation war und es sogar in Misskredit bringen wollte. Und das hat dazu geführt, dass die Verbreitung eben langsamer von statten ging als man es sich als Spieler mit Hang zur Grafik eben wünschte.

Daher ist eine 180° Wendung in diesem Thema willkommen.

y33H@
2011-12-20, 13:46:04
Die Previews der GTX295 kurz vor Jahresende 2008 vergessen? Okay, da waren die Tester stärker limitiert in der Spieleauswahl.Nvidia limitiert nicht, genauso wie AMD - wo kommen wir denn da hin, wenn es heißt ihr dürft nur "X und Y" testen. Es gibt nur Empfehlungen ...

LovesuckZ
2011-12-20, 13:48:09
Nvidia limitiert nicht, genauso wie AMD - wo kommen wir denn da hin, wenn es heißt ihr dürft nur "X und Y" testen. Es gibt nur Empfehlungen ...

Bei den Previews zur GTX295 haben sie limitiert - nur 4 Spiele und so.

V2.0
2011-12-20, 13:48:37
Ich würde sagen AMD bringt Tesselationleistung, wo sie anfängt Sinn zu machen. Besser hätte man das gar nicht machen können.

Skysnake
2011-12-20, 13:52:45
BF3 benutzt kaum bis kein Tessellation. Das Geometrieniveau des Spiels ist für das, was es sein wollte, ein Witz. Da nehme ich doch liebers Crytek mit ihrer Implementierung.

Ansonsten ist die Diskussion sowieso überflüssig. Fehlendes Verständnis, was Tessellation überhaupt ist und wieso es eingesetzt gehört, führt einfach nur zu langweiligen Diskussionen.

Fakt ist, dass AMD aktiv gegen Tessellation war und es sogar in Misskredit bringen wollte. Und das hat dazu geführt, dass die Verbreitung eben langsamer von statten ging als man es sich als Spieler mit Hang zur Grafik eben wünschte.

Daher ist eine 180° Wendung in diesem Thema willkommen.

Ähm aber sonst gehts noch:freak:

BF3 sieht sehr gut aus, auch wenn ich es mir wegen Origin NIEMALS kaufen würde, aber dann noch zu sagen, dass dir die Crytek Implementierung lieber ist, wo mit Rechenleistung einfach wie bekloppt um sich geschmissen wird ohne Hirn und Verstand, ist nicht nachvollziehbar.

Sorry, aber das man Dinge NICHT berechnet, die man nicht sieht lernt man eigentlich ganz ganz ganz früh. Wie besoffen man sein muss, um auf so ne Idee zu kommen kann ich mir nicht vorstellen, aber dann so was auch noch "bejubeln" sprengt dann echt alles -.-

Winter[Raven]
2011-12-20, 13:54:28
Ich würde sagen AMD bringt Tesselationleistung, wo sie anfängt Sinn zu machen. Besser hätte man das gar nicht machen können.

Wenn du schon so anfängst, dann leiste ich es mir AMD in diesem Fall als Parasit zu bezeichnen. Nvidia in den DEV support + R&D Geld stecken lassen, die Vorarbeit erledigen und sich dann als Fähnchen um Wind drehen.... ja ne, ist klar.

LovesuckZ
2011-12-20, 13:56:31
Ähm aber sonst gehts noch:freak:

BF3 sieht sehr gut aus, auch wenn ich es mir wegen Origin NIEMALS kaufen würde, aber dann noch zu sagen, dass dir die Crytek Implementierung lieber ist, wo mit Rechenleistung einfach wie bekloppt um sich geschmissen wird ohne Hirn und Verstand, ist nicht nachvollziehbar.

Klar, wenn man kein Wert auf Geometrie legt, sieht Battlefield 3 toll aus. :rolleyes:


Sorry, aber das man Dinge NICHT berechnet, die man nicht sieht lernt man eigentlich ganz ganz ganz früh. Wie besoffen man sein muss, um auf so ne Idee zu kommen kann ich mir nicht vorstellen, aber dann so was auch noch "bejubeln" sprengt dann echt alles -.-

Und du zeigst wieder: Kein Verständnis der Technik -> Komplette Fehleinschätzung des Einsatzes -> Ablehnung.

Ich habe in meinem Studium gelernt, dass Informationen zu Wissen zu Verständnis zu Erkennen führt. Es sollte einige echt mal anfangen sich einzulesen, bevor sie absoluten nonsens widergeben.

Es ist so sinnlos in diesem Forum über Tessellation zu reden, weil es anscheinend ein Thema ist, dass man nicht verstehen will. So what. Denk ruhig, dass Crytek missgebaut hat. Ich freue mich jedenfalls, dass AMD anscheinend ihre Meinung ändern wird.

Gipsel
2011-12-20, 13:59:39
http://alienbabeltech.com/main/amds-upcoming-hd-7970-exposed-a-short-lived-video-cardEin paar Sachen halte ich für ein wenig zweifelhaft. Z.B. daß die ROPs angeblich fest an die CU-Gruppen gebunden sind (ich meine da im Schema ein Crossbar zwischen den CUs und den ROPs zu erkennen, dieser orangene Balken hat im Cayman-Schaubild auch die Export-Crossbar gekennzeichnet, das wird wieder so sein). Daß man das über die TMUs auch sagt, ist sicher Schwachsinn, da die TMUs (wie schon seit der R700-Serie) natürlich fest zu jeder einzelnen CU gehören, die hängen direkt am (Tex/Vektor-)L1, der in jeder CU sitzt.
Weiterhin halte ich die angepeilte 925MHz Taktfrequenz nicht für übermäßig niedrig. So habe ich nach der AFDS-Präsentation schon im Juni gesagt, daß die angepeilten Taktraten bei <=1GHz liegen werden. Natürlich kann man spekulieren (und wird damit wahrscheinlich sogar Recht haben), daß insbesondere am Anfang des 28nm-Ramps bei TSMC die Yields noch nicht traumhaft sind, so daß man später (eventuell mit optimiertem Stepping a la GTX580) dann auch über 1 GHz kommen kann. Aber das ist doch jetzt nicht überraschend.

Edit:
Die auf den Folien bei PCGH für die Bewegungsschätzung hervorgehobenen Instruktionen qsad und mqsad habe ich übrigens auch schon im Juni explizit erwähnt. Nur mal so am Rande.

PulsarS
2011-12-20, 14:01:15
BF3 benutzt kaum bis kein Tessellation. Das Geometrieniveau des Spiels ist für das, was es sein wollte, ein Witz. Da nehme ich doch liebers Crytek mit ihrer Implementierung.
Ist das dein Ernst?
Du scheinst ja von Tessellation überhaupt keine Ahnung zu haben, aber das habe ich dir ja schon vor ca. 1 Jahr gesagt.
Die Implementierung der Tessellation in Crysis 2 ist sehr bescheiden, aber das hat selbst Crytek schon erkannt:
http://www.pcgameshardware.de/aid,845197/Selbstkritik-Tessellation-in-Crysis-2-laut-Crytek-schlecht-implementiert-Cryengine-2-ein-Ressourcen-Verschwender/Action-Spiel/News/
Aber du scheinst dich ja besser auszukennen, als die Entwickler selbst... :rolleyes:

Ansonsten ist die Diskussion sowieso überflüssig. Fehlendes Verständnis, was Tessellation überhaupt ist und wieso es eingesetzt gehört, führt einfach nur zu langweiligen Diskussionen.
Dann halte dich aus Diskussionen über Tessellation raus.
Wenn man von einem Thema keine Ahnung hat, dann einfach die Griffel von der Tastatur lassen

Edit: Sorry für den späten Edit zum Thema Tesselation, wollte nur meine Behauptung durch einen Link belegen.

Gipsel
2011-12-20, 14:07:45
Könnt ihr die Tessellationsdiskussion bitte im passenden Thread weiterführen?

Danke!

Skysnake
2011-12-20, 14:12:28
Edit:
Die auf den Folien bei PCGH für die Bewegungsschätzung hervorgehobenen Instruktionen qsad und mqsad habe ich übrigens auch schon im Juni explizit erwähnt. Nur mal so am Rande.

Ist mir entgangen, hattest du dort schon eine Ahnung, was das sein soll?

Und jetzt mal ne spezielle Frage noch an dich:
Wie wird denn das umgesetzt? Hat man quasi nur ein Makro, oder haben die wirklich Hardware dafür verbaut?

Gipsel
2011-12-20, 14:25:40
Ist mir entgangen, hattest du dort schon eine Ahnung, was das sein soll?

Und jetzt mal ne spezielle Frage noch an dich:
Wie wird denn das umgesetzt? Hat man quasi nur ein Makro, oder haben die wirklich Hardware dafür verbaut?
Was die Instruktionen selbst machen, ist schon klar gewesen:
masked sums of absolute differences (v_msad) or sad instructions on quadbytes (v_qsad_u8 and v_mqsad_u8)
Ich habe seit damals eine grobe/rudimentäre Doku über die Funktionen der (meisten) GCN-Befehle sowie einen halbwegs funktionierenden Shadercompiler für GCN (http://forum.beyond3d.com/showthread.php?p=1563408#post1563408). ;)

edit:
V_MQSAD_U8:
D.u = Masked Quad-Byte SAD with accum_lo/hi(S0.u[63:0], S1.u[31:0], S2.u[63:0])

V_QSAD_U8:
D.u = Quad-Byte SAD with accum_lo/hi(S0.u[63:0], S1.u[31:0], S2.u[63:0])
D ist das Zielregister (.u gibt den Typ als unsigned integer an); S0, S1, S2 sind die drei Quelloperanden, wobei S0 und S2 64Bit breit sind (also zwei aufeinanderfolgende Register, das erste davon wird referenziert)
Die eigentliche Neuerung gegenüber Cypress/Cayman sind die SADs mit einzelnen Bytes, Words oder DWords (vorher gab es nur QSADs auf Bytes), sowie das die QSADs maskiert werden können (über eine 64Bit-Maske in den Skalarregistern). Außerdem gab es bisher zwei getrennte Anweisungen (sad_accum/sad_accum_hi), die den niedriger bzw. höherwertigen Teil akkumuliert haben:
dst = |src0[31:24] - src1[31:24]| + |src0[23:16] - src1[23:16]| + |src0[15:8] - src1[15:8]| + |src0[7:0] - src1[7:0]| + src2
dst = (|src0[31:24] - src1[31:24]| + |src0[23:16] - src1[23:16]| + |src0[15:8] - src1[15:8]| + |src0[7:0] - src1[7:0]|) << 16 + src2
Dies passiert jetzt offenbar parallel mit einer Anweisung.
[/edit]

Die SAD-Anweisungen an sich gibt es schon länger (Cypress) und können auch über eine OpenCL-Erweiterung (cl_amd_media_ops) genutzt werden. Mit GCN kommt jetzt cl_amd_media_ops2, mit ein paar neuen/erweiterten Funktionen, die eben z.B. diese Bewegungsschätzgeschichte (aber wohl auch noch mehr) noch weiter beschleunigen können.

Und ja, diese Instruktionen sind in Hardware gegossen, werden also von den Vektor-ALUs direkt so ausgeführt.

y33H@
2011-12-20, 14:28:51
Bei den Previews zur GTX295 haben sie limitiert - nur 4 Spiele und so.Ich sehe *hier* (http://www.pcgameshardware.de/aid,670858/Geforce-GTX-295-Erster-Test-der-Nvidia-Dual-Grafikkarte/Grafikkarte/Test/?page=8) sechs Spiele (CoD W@W, CW, F3, FC2, L4D, RDG) :tongue:

deekey777
2011-12-20, 14:38:52
Ein paar Sachen halte ich für ein wenig zweifelhaft. Z.B. daß die ROPs angeblich fest an die CU-Gruppen gebunden sind (ich meine da im Schema ein Crossbar zwischen den CUs und den ROPs zu erkennen, dieser orangene Balken hat im Cayman-Schaubild auch die Export-Crossbar gekennzeichnet, das wird wieder so sein). Daß man das über die TMUs auch sagt, ist sicher Schwachsinn, da die TMUs (wie schon seit der R700-Serie) natürlich fest zu jeder einzelnen CU gehören, die hängen direkt am (Tex/Vektor-)L1, der in jeder CU sitzt.
Weiterhin halte ich die angepeilte 925MHz Taktfrequenz nicht für übermäßig niedrig. So habe ich nach der AFDS-Präsentation schon im Juni gesagt, daß die angepeilten Taktraten bei <=1GHz liegen werden. Natürlich kann man spekulieren (und wird damit wahrscheinlich sogar Recht haben), daß insbesondere am Anfang des 28nm-Ramps bei TSMC die Yields noch nicht traumhaft sind, so daß man später (eventuell mit optimiertem Stepping a la GTX580) dann auch über 1 GHz kommen kann. Aber das ist doch jetzt nicht überraschend.

...
http://alienbabeltech.com/main/amds-upcoming-hd-7970-exposed-a-short-lived-video-card/2
In the new GCN architecture, ROPs are no longer directly coupled to the memory-controllers.
Das waren sie auch vorher nicht.
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/2.html

Aber wenn man den neuen Folien glaubt, so entsteht der Eindruck, dass es zwei RBE-Blöcke sind, die über je einen Shader Export (gelb-orangene Balken) mit den CUs verbunden sind.

Ailuros
2011-12-20, 14:52:39
Steht eigentlich irgendwo in irgend einer Folie drin wie der eigentliche TDP der XT aussehen wird? Entweder hatte AMD wieder einen Bulldozer blonden Moment damit oder einfach nur mit Absicht irregefuehrt. Nur 2 Tage vor dem "launch" und die eigentliche TDP steigt ploetzlich um einiges :rolleyes:

LovesuckZ
2011-12-20, 14:55:49
Ich habe von 210 Watt als TDP gelesen und 250 Watt für PowerTune.

Gaestle
2011-12-20, 14:57:06
Nochmal...


Exakt DAVON bin ich ausgegangen. "across the board [...] 20-30%" werden bei mir zu "25% Gesamtdurchschnitt".

Zuzüglich der Aussage "in a few older DX9 games, it is not that much faster" die bei mir zu 0% Zuwachs in DX9 wird, kommt dann die von mir aufgemachte Rechnung zustande.

boxleitnerb ist ja anderer Meinung. Wenn man das "that" im Zitat sieht, hat er wahrscheinlich auch Recht.

Zergra
2011-12-20, 14:57:30
vllt warens ja auch zwei verschiedene karten von denen die rede war... und jetzt einfach das an licht kam oder es kamen falsche infos an Tageslicht

LovesuckZ
2011-12-20, 15:00:41
Exakt DAVON bin ich ausgegangen. "across the board [...] 20-30%" werden bei mir zu "25% Gesamtdurchschnitt".

Zuzüglich der Aussage "in a few older DX9 games, it is not that much faster" die bei mir zu 0% Zuwachs in DX9 wird, kommt dann die von mir aufgemachte Rechnung zustande.

Wer sagt, dass die GTX580 in diesen alten Spielen nicht genauso federn lassen muss?

Der Bezug zu den älteren Spielen ist die 6970.

ich kann es mir aber nicht vorstellen, da im Grunde alles erhöht wurde: Bandbreite, Rechenleistung, Texturleistung, Pixelleistung...

Gaestle
2011-12-20, 15:05:07
ich kann es mir aber nicht vorstellen, da im Grunde alles erhöht wurde: Bandbreite, Rechenleistung, Texturleistung, Pixelleistung...

boxleitnerb hat ja auch entsprechend argumentiert. Habe oben parallel zu Deinem Post editiert.

Ailuros
2011-12-20, 15:08:46
Ich habe von 210 Watt als TDP gelesen und 250 Watt für PowerTune.

Danke. Wusste ich nicht. Na ich will hoffen dass die fast 6990 Leistung im default erreicht wird.

Gipsel
2011-12-20, 15:14:32
http://alienbabeltech.com/main/amds-upcoming-hd-7970-exposed-a-short-lived-video-card/2
In the new GCN architecture, ROPs are no longer directly coupled to the memory-controllers.
Das waren sie auch vorher nicht.
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/2.html
Ich habe mich auf dieses Zitat bezogen:
With Tahiti’s new GCN architecture, each CU cluster accesses their own TMU/ROPs directlywas auch falsch ist. Da sitzt ja noch ein Shader-Export-Crossbar dazwischen (wie schon vorher, jetzt eventuell in zwei Teile partitioniert).

Egal wie man es dreht, die haben da ein paar Sachen offensichtlich in den falschen Hals bekommen (also nicht verstanden).

deekey777
2011-12-20, 15:26:07
...

..
http://88.198.39.57/7970/prt.png
Was heißt das genau? Mehr als 4xAF in Rage? Ein 16kx16k großes Pagefile in Rage?

Skysnake
2011-12-20, 15:29:36
Was die Instruktionen selbst machen, ist schon klar gewesen:

Ich habe seit damals eine grobe/rudimentäre Doku über die Funktionen der (meisten) GCN-Befehle sowie einen halbwegs funktionierenden Shadercompiler für GCN (http://forum.beyond3d.com/showthread.php?p=1563408#post1563408). ;)

edit:
V_MQSAD_U8:
D.u = Masked Quad-Byte SAD with accum_lo/hi(S0.u[63:0], S1.u[31:0], S2.u[63:0])

V_QSAD_U8:
D.u = Quad-Byte SAD with accum_lo/hi(S0.u[63:0], S1.u[31:0], S2.u[63:0])
D ist das Zielregister (.u gibt den Typ als unsigned integer an); S0, S1, S2 sind die drei Quelloperanden, wobei S0 und S2 64Bit breit sind (also zwei aufeinanderfolgende Register, das erste davon wird referenziert)
Die eigentliche Neuerung gegenüber Cypress/Cayman sind die SADs mit einzelnen Bytes, Words oder DWords (vorher gab es nur QSADs auf Bytes), sowie das die QSADs maskiert werden können (über eine 64Bit-Maske in den Skalarregistern). Außerdem gab es bisher zwei getrennte Anweisungen (sad_accum/sad_accum_hi), die den niedriger bzw. höherwertigen Teil akkumuliert haben:
dst = |src0[31:24] - src1[31:24]| + |src0[23:16] - src1[23:16]| + |src0[15:8] - src1[15:8]| + |src0[7:0] - src1[7:0]| + src2
dst = (|src0[31:24] - src1[31:24]| + |src0[23:16] - src1[23:16]| + |src0[15:8] - src1[15:8]| + |src0[7:0] - src1[7:0]|) << 16 + src2
Dies passiert jetzt offenbar parallel mit einer Anweisung.
[/edit]

Die SAD-Anweisungen an sich gibt es schon länger (Cypress) und können auch über eine OpenCL-Erweiterung (cl_amd_media_ops) genutzt werden. Mit GCN kommt jetzt cl_amd_media_ops2, mit ein paar neuen/erweiterten Funktionen, die eben z.B. diese Bewegungsschätzgeschichte (aber wohl auch noch mehr) noch weiter beschleunigen können.

Und ja, diese Instruktionen sind in Hardware gegossen, werden also von den Vektor-ALUs direkt so ausgeführt.

Ok, ganz interessant, aber warum ist S1 nur 32 Bit lang?

Und, wird der Vorteil der Ausführung in einer Instruction nicht wieder dadurch aufgefressen, das man jetzt eben 2 Takte braucht für einen Warp? (CUDA-Sprech)

Noch was allgemeines. Wenn ich das soweit überblicken kann, allgemein auch mit den Beispielen für die Kernels etc. Kann man davon ausgehen, dass das Frontend, was den Decodeaufwand anbelangt, entlastet wird? Wenn ja, was bringt mir das direkt? Hatte Cayman hier einen Flaschenhals, oder kann man einfach Ressourcen sparen/mehr Threads händeln.

Ist S2 dann die Maskierung?

Und kannst du mir/uns, wenn es geht erklären, was der Befehl jetzt genau macht, also welche mathematische Operation da jetzt durchgeführt wird. Sprich Ausgangsdaten->folgende Manipulation->Ergebnis.

Kann mir irgendwie nicht so ganz vorstellen, was da jetzt wirklich gemacht wird.

AnarchX
2011-12-20, 15:30:31
Video mit den Benchmarkfolien des Reviewer Guides: http://www.donanimhaber.com/ekran-karti/haberleri/AMD-Radeon-HD-7970-detayli-test-sonuclari.htm

Mal eine Auswahl im Anhang.

LovesuckZ
2011-12-20, 15:31:59
Kann jemand Screenshots für die machen, die kein Zugriff haben?

/edit: Danke. Da sieht man auch erstmal den Maßstab, wenn auch die 6970 mitverglichen wird in den Settings. Selbst gegenüber der 6970 ist man nur zwischen 30-50% schneller. Und da sehe ich ziemliche Probleme, um den Leuten den 2x Preis abzuschwatzen.

boxleitnerb
2011-12-20, 15:40:13
AnarchX hat im Grunde schon alles Interessante rausgepickt. Die 580 geht halt unter, wenn ihr der Speicher ausgeht.

dildo4u
2011-12-20, 15:42:47
AnarchX hat im Grunde schon alles Interessante rausgepickt. Die 580 geht halt unter, wenn ihr der Speicher ausgeht.
Bin mal gespannt ob es überhaupt korrekte Review's mit 3GB 580 geben wird vermutlich nicht.

boxleitnerb
2011-12-20, 15:42:53
Die Reviews könnten hier und da aber auch so langsam ins CPU-Limit reinlaufen. Alles unter 1600p braucht gar nicht gebencht werden eigentlich, jedenfalls mit XT.

Raff
2011-12-20, 15:44:25
Danke. Wusste ich nicht. Na ich will hoffen dass die fast 6990 Leistung im default erreicht wird.

Wie soll sie das mit den bekannten Spex schaffen?

Die Reviews könnten hier und da aber auch so langsam ins CPU-Limit reinlaufen.

Zumindest bei einer SMT-Sandy mit 4,5 GHz ist das selten, kommt aber definitiv vor.

MfG,
Raff

AnarchX
2011-12-20, 15:48:13
/edit: Danke. Da sieht man auch erstmal den Maßstab, wenn auch die 6970 mitverglichen wird in den Settings. Selbst gegenüber der 6970 ist man nur zwischen 30-50% schneller. Und da sehe ich ziemliche Probleme, um den Leuten den 2x Preis abzuschwatzen.
Sieht wohl danach aus, dass man dieser mal noch stärker Benchmarks selektiert hat, als bei vorherigen Launches...

BF3-Detail im Anhang.
edit: Skyrim :ulol:

LovesuckZ
2011-12-20, 15:53:21
Sieht wohl danach aus, dass man dieser mal noch stärker Benchmarks selektiert hat, als bei vorherigen Launches...

BF3-Detail im Anhang.

Naja, es sieht nicht nach starker Selektierung aus. nVidia's Fermi hat eben zu wenig Rohleistung, AMD dagegen ziemlich viel. Aber dies kommt eben erst in hohen Auflösungen zu tragen. Und da SI kaum auf die Rohleistung etwas raufpackt und das Front-End weiterhin unterentwickelt ist, ist es am Ende nicht überraschend, dass man auch kaum schneller als Cayman ist bei "Graphics".

/edit: Man siehts ja an BF3: 33% schneller als die 6970 bei wohl gleichem Stromverbrauch...

edit2: Skyrim :ulol:

/edit3: Und da ist Batman:AC.

aylano
2011-12-20, 15:58:20
So wie ich das lese könnten die 7900er richtig gute Karten werden ...

Wie seht Ihr das?
Und wenn alls so eintrifft, denkt Ihr das Kepler dier 7900er weit übertreffen wird oder gibt es ein Kopf-an-Kopf rennen...?
+50% Performance bei gleichen/geringeren Stromverbrauch wäre schon eine Hohe Latte.
Das wurde auch bei HD 5870 erreicht trotz deutlicher Tesselation-Erhöhung sowie ECC? & C++-Einführung von Thaiti.
Bei einen wiederholten Ähnlichern Gesamt-Sprung (Performance-pro-Watt, Performance-pro-mm²) des Thaiti gegen GK100 wie bei HD 5870 gegenüber GF100, könnte es in Worst-Case-Szenarien auch ein Wechsel in GPU-Sinlge-Karten führen.
Aber ob Thaiti wirklich soooooo "Top" wird, wie es jetzt den Anschein hat, muss man selbstverständlich abwarten.


High-End-Kepler hat meiner Meinung einen großen Einschätzungs-Radius.

Einerseits weiß man nicht, ob AMD mit der neuen Architektur sich bei problematischen Fertigungen wieder so leicht tut wie früher mit VILW und die Architektur einfacher (=flexibler & schneller?) am Markt bringen kann, wie Nvidia.
(Hier rede ich von bis zu einem Quartal)

Die Zweite Unbekannte ist, wie schlecht 28nm wirklich ist.
Es hieß einmal im Gerüchte-Wald, GK100 wird einen geringen TDP als GF100 haben und somit hätte 28nm eine bessere relative Qualität als 40nm (Nicht vergessen, 40nm hat noch am Schluss einen +0,05V höhere Spannung bei allen Refreshkarten "bewirkt".
Mittlerweile sind die Zeichen (unter anderem wegen der Verspätung) deutlich, dass 28nm relativ (=nach Plan usw) zu 40nm noch schlechter ist.
(Hier rede ich von Plus-Minus-einem Quartal)

Kurz gesagt.
Anstatt, dass sie mit GK100 wieder auf Plan-mäßige Stromverbraus des GTX285 mit -25%-Prozentpunkte zu kommen, könnte (falls 28nm wirklich noch schlechter ist)wieder bis zu +25%-Stromverbrauchs-Erhöhung (wie bei GTX285 --> GTX480) passieren, was erhebliche Probleme (Verzögerung, Performance-Reduktion usw) eventuell bis in Höhe "des 16.Block-Abschaltung" des Fermis bedeuten.

Entscheidender sehe ich IMO weniger die Performance, die erwartungsgemäß höher liegen sollte, sondern die Einführung.
Schließlich kommt irgendwann ja der Thaiti-Nachfolger.
GK100 (non-Teildeaktiviert und ohne erheblichen Taktsenkungen) würde ich aus obengenannten beiden Variablen zwischen Mitte 2Q und bis zu Ende 4Q als Realistische Möglichkeit einschätzen.
(Zusammengefasst: Wegen 350 statt 500mm²-Chip, was wieder ein Quartal bedeutet, könnte GK100 3.Quartale mit Plus-Minus-1Quartal nach Thaiti kommen.)

Thaiti mit +50%-Performance bei gleicher HD6970-Stromverbrauch, würde mich so überraschen, wie ein GK100 Mitte April. Wenn das eine Realistisch wird, dann könnte das andere genauso realistisch werden. Aber die Anzeichen des GK100s sehen nunmal teils ziemlich schlecht aus.

Die Einführung von Grafikkarten werden höchstwahrscheinlich das Thema im Jahr 2012.

Raff
2011-12-20, 16:04:37
edit2: Skyrim :ulol:

Ich wette, es war sauschwer für AMD, eine Einstellung zu finden, bei der man vorne liegt. ;) Das läuft nach wie vor auf Geforce-Karten deutlich besser, warum auch immer.

MfG,
Raff

derguru
2011-12-20, 16:09:05
so schwer kann es nicht sein denn cb hat auch eine stelle gefunden.;)
http://www.computerbase.de/artikel/spiele/2011/test-the-elder-scrolls-v-skyrim/8/#abschnitt_gpubenchmarks

Soul
2011-12-20, 16:13:49
Benches für 1920 * 1080 oder 1920 * 1200 wären besser da die meisten solche Monitore besitzen.

y33H@
2011-12-20, 16:18:59
Bin mal gespannt ob es überhaupt korrekte Review's mit 3GB 580 geben wird vermutlich nicht.Ich wette dagegen :biggrin:

Ronny145
2011-12-20, 16:31:22
Bei Skyrim ist nicht sicher wie stark die CPU limitiert. Wenn die einen Bulldozer mit Default Takt verwenden, sogar recht wahrscheinlich.

AnarchX
2011-12-20, 16:34:26
Im Primary System ist ein 3960X: http://www.abload.de/img/snapshot2011122017093fhb1q.jpg

Alle Folien: http://www.abload.de/gallery.php?key=5RqT4nFZ

M4xw0lf
2011-12-20, 16:45:35
Ich wette dagegen :biggrin:

Ich will euer fettes Review, jetzt. :wink:

Raff
2011-12-20, 16:46:16
Steht doch alles schon im Internet. :rolleyes:

MfG,
Raff

M4xw0lf
2011-12-20, 16:50:39
Steht doch alles schon im Internet. :rolleyes:

MfG,
Raff

Nicht bei der Seite meines Vertrauens ^^ :wave2:
Außerdem interessieren ja noch andere Werte als die Spieleleistung... Stromverbrauch, Lautstärke, das ewige AF-Thema, DS und AA, etc. etc.

R.I.P.
2011-12-20, 17:07:23
Zumindest bei einer SMT-Sandy mit 4,5 GHz ist das selten, kommt aber definitiv vor.

MfG,
Raff

Bzgl. CPU Limit: wie glaubt ihr sieht es bei einem CF Tri-Setup einer 7870 oder 7950 aus? :freak: Was muß man fahren, wenn bereits bei einer einzelnen 7970 mit einem 4,5Ghz Sandy CPU Limit auftritt :eek:

mapel110
2011-12-20, 17:08:19
so schwer kann es nicht sein denn cb hat auch eine stelle gefunden.;)
http://www.computerbase.de/artikel/spiele/2011/test-the-elder-scrolls-v-skyrim/8/#abschnitt_gpubenchmarks
Da waren bei nvidia wohl auch noch keine Optimierungen im Treiber für dieses Spiel. GTX 460 deutlich langsamer als GTX 285. Da stimmt dann logischerweise etwas nicht.

derguru
2011-12-20, 17:12:07
Bzgl. CPU Limit: wie glaubt ihr sieht es bei einem CF Tri-Setup einer 7870 oder 7950 aus? :freak: Was muß man fahren, wenn bereits bei einer einzelnen 7970 mit einem 4,5Ghz Sandy CPU Limit auftritt :eek:
wer mit mit normalo settings spielt und sich dafür 3*7950 anschafft ist selber schuld,am besten noc mit einem 19" 1280*1024.:freak:

AnarchX
2011-12-20, 17:26:16
http://www.abload.de/img/10_7970_manfromatlantlyrcg.jpg

http://forum.beyond3d.com/showthread.php?p=1607317#post1607317

R.I.P.
2011-12-20, 17:27:35
wer mit mit normalo settings spielt und sich dafür 3*7950 anschafft ist selber schuld,am besten noc mit einem 19" 1280*1024.:freak:

Ich Idiot habe natürlich vergessen zu fragen unter welchen Einstellungen :freak: , da hast du recht :(

Superheld
2011-12-20, 17:35:53
C2, Tesselation ist nur bei Ultra an oder ?

http://www.abload.de/img/160jrb.jpg (http://www.abload.de/image.php?img=160jrb.jpg)

LovesuckZ
2011-12-20, 17:37:06
Ja - Ultra ist Tessellation.

Langenscheiss
2011-12-20, 17:37:57
Steht doch alles schon im Internet. :rolleyes:

MfG,
Raff

Wie bereits gesagt: Das wirklich interessante, nämlich das Verhältnis zwischen Mehrleistung und Bildqualität sowie tatsächlichem Spieleverbrauch, ist entscheidend. Und dazu steht mal gar nichts im Netz. Denn dazu müsste man die Karte wirklich testen, anstatt P-Längen von anderen abzuschreiben ;)

deekey777
2011-12-20, 17:40:17
C2, Tesselation ist nur bei Ultra an oder ?

http://www.abload.de/img/160jrb.jpg (http://www.abload.de/image.php?img=160jrb.jpg)
Ultra Objects (+POM) und Ultra Water.

Wobei alles auf Ultra schon heftig ist.

Raff
2011-12-20, 17:40:55
Wie bereits gesagt: Das wirklich interessante, nämlich das Verhältnis zwischen Mehrleistung und Bildqualität sowie tatsächlichem Spieleverbrauch, ist entscheidend. Und dazu steht mal gar nichts im Netz. Denn dazu müsste man die Karte wirklich testen, anstatt P-Längen von anderen abzuschreiben ;)

Der Aha- bzw. Überraschungseffekt ist trotzdem völlig am Sack. Diese Leaker sind ekelhafte Spielverderber.

MfG,
Raff

kunibätt
2011-12-20, 18:07:59
Zum GTX580-Launch (oder HD6970, bin mir da nicht mehr so sicher) hat die PCGH Crysis 1 in 3840x2400(2160) gebencht. Wäre nice, wenn dieses Setting nochmal gefahren werden würde, meinetwegen auch ohne Neubenches der "alten" Karten. Crysis 2 mit Tesselation performt kaum besser und sieht schön shice aus :tongue:

LovesuckZ
2011-12-20, 18:20:37
Danke. Wusste ich nicht. Na ich will hoffen dass die fast 6990 Leistung im default erreicht wird.

Und hier nochmal in Bild, aber ohne Ton:
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2011/oclabru-7970-2.jpg

Hey, guck an, Hardwareluxx fängt schon an zu leaken. :D

Davon abgesehen scheint es eine 33% verbesserte Perf/Watt gegenüber Cayman zu geben. Doch schon ein bisschen enttäuchsend für SI. Nach den ganzen Ankündigungen und vorallem nach der Architekturänderung hätte ich mehr erwartet...

aufkrawall
2011-12-20, 18:25:40
Die Pixelfüllrate ist praktisch gleich geblieben.
Wenn Kepler da gleichzieht, wars das mit dem Performance-Vorteil bei SSAA?

Soul
2011-12-20, 18:26:29
wer mit mit normalo settings spielt und sich dafür 3*7950 anschafft ist selber schuld,am besten noc mit einem 19" 1280*1024.:freak:

Ich selber wär mit einer 7970 und ner 1920*1080 Auflösung zufrieden mit allen Einstellungen auf High und flüssig in 3D. Ich denke das schafft die locker ;)

LovesuckZ
2011-12-20, 18:32:00
Die Pixelfüllrate ist praktisch gleich geblieben.
Wenn Kepler da gleichzieht, wars das mit dem Performance-Vorteil bei SSAA?

Na, Textur- und Rechenleistung wird dort benötigt. Mit 16xSSAA ist auch eine GT200 schneller als eine GTX580. :D

aufkrawall
2011-12-20, 18:36:49
Na, Textur- und Rechenleistung wird dort benötigt. Mit 16xSSAA ist auch eine GT200 schneller als eine GTX580. :D
OGSSAA ist doch nichts viel anderes als Downsampling?
Warum sollte eine GPU mit weniger Rechenleistung da Vorteile haben?
Bei SGSSAA ist zudem alles vor Fermi fürchterlich langsam.

Coda
2011-12-20, 18:40:52
Na, Textur- und Rechenleistung wird dort benötigt. Mit 16xSSAA ist auch eine GT200 schneller als eine GTX580. :D
So ein Blödsinn.

Distroia
2011-12-20, 19:06:16
Davon abgesehen scheint es eine 33% verbesserte Perf/Watt gegenüber Cayman zu geben.

Ja, ne ist klar. ;D Wie du auf die Zahl kommst, würde mich echt mal interessieren.

Doch schon ein bisschen enttäuchsend für SI.

Bitte benutze nicht das Wort "enttäuschend", wenn du es nicht so meinst. Oder willst du allen ernstes behaupten, du hättest auf ein gutes Resultat gehofft?

dildo4u
2011-12-20, 19:07:30
Ja, ne ist klar. ;D Wie du auf die Zahl kommst, würde mich echt mal interessieren.

Steht auf der Folie.

Distroia
2011-12-20, 19:37:11
Steht auf der Folie.

Wo?

LovesuckZ
2011-12-20, 19:47:15
Wenn du selbst nicht in der Lage bist basierend auf den vorhandenen Werten diese Aussage rekapitulieren zu können, unterlasse es doch einfach, diese Unfähigkeit dem Forum zur Schau zustellen.

Distroia
2011-12-20, 19:55:36
Wenn du selbst nicht in der Lage bist basierend auf den vorhandenen Werten diese Aussage rekapitulieren zu können, unterlasse es doch einfach, diese Unfähigkeit dem Forum zur Schau zustellen.

OK, du kannst es nicht. Alles klar.

horn 12
2011-12-20, 20:12:46
Wo beleiben die 1920x1200/ 1080 -er Benchmarkresultate.
Muss man sich wohl bis Donnerstag gedulden, denn die 2560x1600 interessieren wohl weitaus weniger!

PS: Was sollte denn die HD7950-er Karte kosten zum Launch.
Knappe 400 Euro laut neuesten Infos?

Raff
2011-12-20, 20:17:06
Wo beleiben die 1920x1200/ 1080 -er Benchmarkresultate.
Muss man sich wohl bis Donnerstag gedulden, denn die 2560x1600 interessieren wohl weitaus weniger!

2.560x1.600 sollte einen selbst dann interessieren, wenn man nur ein 1680er-Display hat. 1.920x1.080 ist zwar Mainstream, aber nichtsdestotrotz Kindergeburtstag in Zeiten der Cross-Plattform-Spiele. Wir reden hier schließlich von High-End-Kolossen, die lustig Transistoren schaukeln, wenn die GPU-Last ausbleibt. Dann werden all die schönen Balken plötzlich aussagefrei, weil sie alle gleich lang sind. Hohe Auflösungen oder Supersample-AA zeigen, was die Kisten wirklich können, gewähren gar einen Ausblick auf höhere Workloads kommender Spiele.

PS: Was sollte denn die HD7950-er Karte kosten zum Launch.
Knappe 400 Euro laut neuesten Infos?

Welche HD 7950? Der Papier-Tiger? ;)

MfG,
Raff

M4xw0lf
2011-12-20, 20:18:41
Ich spiel auch noch in 1050p, aber die Leistung lässt sich ganz großartig mit SSAA verbraten.

Dural
2011-12-20, 20:19:28
33% wären aber ziemlich schlecht... :rolleyes:


kommt das so echt von AMD? :eek:

M4xw0lf
2011-12-20, 20:20:41
33% wären aber ziemlich schlecht... :rolleyes:


kommt das so echt von AMD? :eek:

Äh wie - 33% mehr Leistung pro Watt sollen schlecht sein?

boxleitnerb
2011-12-20, 20:21:11
Wo beleiben die 1920x1200/ 1080 -er Benchmarkresultate.
Muss man sich wohl bis Donnerstag gedulden, denn die 2560x1600 interessieren wohl weitaus weniger!

PS: Was sollte denn die HD7950-er Karte kosten zum Launch.
Knappe 400 Euro laut neuesten Infos?

Rechne doch zurück. Das kannst du 1:1 übertragen, wenn du die Settings nur hoch genug schraubst und die CPU nicht bremst. Bisschen muss man auch selbst mitdenken ;)

Langenscheiss
2011-12-20, 20:26:06
Ich spiel auch noch in 1050p, aber die Leistung lässt sich ganz großartig mit SSAA verbraten.

Da ich nicht auch noch wieder Geld fürn neuen Monitor ausgeben möchte, bleib ich lieber bei meinen 1680x1050 und haue dafür SSAA rein. Ist mir deutlich lieber als diese hohen Auflösungen. Und genau da versagt ja AMD, denn SSAA gibt es zumindest mit den jetzigen Treibern nur für dx9. Also wohin mit der Leistung? Da bleiben dann wohl nur noch eine hohe Auflösung und Tesselation intensive Anwendungen, zumindest im Spielebereich.

MadManniMan
2011-12-20, 20:28:01
Äh wie - 33% mehr Leistung pro Watt sollen schlecht sein?

Jap, bei 40 nm vs. 28 nm tatsächlich. 100 % würde ich auch nicht automatisch erwarten, aber 75 % schon.

Dural
2011-12-20, 20:28:27
Äh wie - 33% mehr Leistung pro Watt sollen schlecht sein?

Jep, kein Wunder setzen die OEMs alle auf Kepler :wink:

Raff
2011-12-20, 20:28:39
Optimismus ist Mangel an Information.

MfG,
Raff

Ronny145
2011-12-20, 20:29:58
Ich spiel auch noch in 1050p, aber die Leistung lässt sich ganz großartig mit SSAA verbraten.


Das ist leider nicht immer möglich, besonders bei AMD. ;(

M4xw0lf
2011-12-20, 20:30:46
Jep, kein Wunder setzen die OEMs alle auf Kepler :wink:

Soweit ich weiß kann man mit nichtexistenter Hardware auch als OEM keine PCs bauen.

Das ist leider nicht immer möglich, besonders bei AMD. ;(

Bei den Spielen die ich zuletzt gezockt habe gings immer zum Glück (Fallout New Vegas, Portal1/2, Skyrim).

Langenscheiss
2011-12-20, 20:32:39
Außerdem: Ist denn überhaupt sicher, dass Kepler soviel schneller wird?

M4xw0lf
2011-12-20, 20:33:35
Außerdem: Ist denn überhaupt sicher, dass Kepler soviel schneller wird?

Na klar, war bei Fermi doch auch klar... ups. :freak:

Botcruscher
2011-12-20, 20:34:39
Dazu gibt es auch kein Hotclock mehr und der Chip muss damit deutlich in die Breite gehen. Warten wir mal ab ob er schneller wird und vor allem wann.

dildo4u
2011-12-20, 20:41:43
Außerdem: Ist denn überhaupt sicher, dass Kepler soviel schneller wird?
3 Milliarden in 40nm gegen 4.3 in 28nm,da hat NV massig Luft wenn die Die ca Fermi Größe hat.Da der große Umbau(Richung GPGPU) ja schon mit Fermi passiert ist,dürfte das meiste,der ca 5.5 Milliarden Transistoren in die Verbreitung,(1024 SP)der Architektur gesteckt werden.Laut der Roadmap kommt der große Chip erst im Sommer,von daher hat NV jede Zeit auch die Taktziele zu erreichen,vorher kommt die 660TI(512sp@1Ghz).

Skysnake
2011-12-20, 20:45:01
kleine Info zur Verfügbarkeit. Vor Ende Januar kann man sich wohl die Karten abschreiben, wie eine vertrauenswürdige Quelle berichtete.

Zergra
2011-12-20, 20:57:34
kleine Info zur Verfügbarkeit. Vor Ende Januar kann man sich wohl die Karten abschreiben, wie eine vertrauenswürdige Quelle berichtete.
Quelle wäre net :D

Ronny145
2011-12-20, 20:59:59
http://1.bp.blogspot.com/-t8BGU7X5w7E/TvDjow8HQTI/AAAAAAAABk8/c4AXPeyi3Pc/s1600/resulrs7970.png

Lässt sich an den Zahlen was retten?

ach bei der 7970 ist ein schwarzer Balken. Dann nicht.

M4xw0lf
2011-12-20, 21:12:27
Quelle wäre net :D

"eine vertrauenswürdige", sagt er doch :tongue:

http://1.bp.blogspot.com/-t8BGU7X5w7E/TvDjow8HQTI/AAAAAAAABk8/c4AXPeyi3Pc/s1600/resulrs7970.png

Lässt sich an den Zahlen was retten?

Angenommen da werden immer 7970 und 6990/590 verglichen, dann scheint jedenfalls die 7970 mitunter vorne zu liegen.

y33H@
2011-12-20, 21:15:51
Wenn CF nicht geht? *SCNR*

Skysnake
2011-12-20, 21:18:57
Quelle wäre net :D
Hersteller. Mehr kann ich nicht sagen.

Wird frühestens Ende Januar ne Karte bekommen, von welchem Hersteller ist noch nicht klar. Steh mit mehreren in Kontakt.

LovesuckZ
2011-12-20, 21:19:19
Wen es interessiert:
Slides über das Produkt: http://www.megaupload.com/?d=37TFTYDX
Reviewguide: http://www.megaupload.com/?d=H86KSABC

Distroia
2011-12-20, 21:19:26
Der schwarze Balken bei den Verbrauchswerten ist etwas weiter links. Da kann man die letzte Pixelspalte bei der mittleren Ziffer erkennen. :freak:

Eggcake
2011-12-20, 21:20:47
Naja, merkwürdig. Bei Vantage Extreme ist doch die Punktzahl der 6990 und der GTX590 höher als die der 7970 - 1x ist's rot, 1x blau. Was soll man aus den Farben also ableiten?

LovesuckZ
2011-12-20, 21:26:33
Die Farben sind nur für 6990 <> GTX590 relevant.

Duplex
2011-12-20, 21:30:02
Wenn die eine GTX580 mit nur 1,5GB verwendet haben und die Auflösung 2560 ist kann man die balken vergessen...

Eggcake
2011-12-20, 21:33:35
Die Farben sind nur für 6990 <> GTX590 relevant.

Wieso sind manchmal 2 blau bzw. rot? Raff's (pun intended) net :ugly:

Raff
2011-12-20, 21:34:31
Selbst in 2.560x1.600 sind 1,5 GiB fast immer ausreichend (es sei denn, man testet mit [mehr als] 8x MSAA, dann gibt's ab und an mehr oder minder aufs Brett).

MfG,
Raff

LovesuckZ
2011-12-20, 21:35:05
Wieso sind manchmal 2 blau bzw. rot? Raff's (pun intended) net :ugly:

Hä? Dort, wo die GTX590 vorne ist, ist sie blau bzw. umgekehrt. Das hat nichts mit der 7970 zu tun.

deekey777
2011-12-20, 21:35:25
Wenn die eine GTX580 mit nur 1,5GB verwendet haben und die Auflösung 2560 ist kann man die balken vergessen...
Sagt wer?

uweskw
2011-12-20, 21:38:18
Hmm, im Review-Guide nicht ein Wort über SSAA, obwohl AMD da doch schon mit der 6970 deutlich vor der GTX580 liegt.
Aber wer macht sich so viel Mühe mit einem Fake?
Werd grad nicht so richtig schlau aus der Sache.