PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23

derguru
2009-08-08, 12:43:06
Das Problem bei solchen Werten ist immer das sich auch die Latenz deutlich verschlechtert. Für brauchbare Werte müsste man hier eine 4850 mit gleichem Takt nehmen.

was meinst du mit damit,wenn ich runter takte werden die latenzen noch schlechter als sie schon sind?
warum sollte man mit einer 4850 vergleichen wenn dort die latenzen durch gddr3 deutlich besser sind.eine 4850 karte als vergleich zunehmen mit gleichem takt ist blödsinn.sieht man ja auch beim cb test das bei gleichem takt die 4870 ca. 15% langsamer ist als eine 4850 karte.

es ist doch ganz einfach ob speicherbandbreite was bringt,einfach den speicher übertakten und schauen ob sich das lohnt und wie du bei anandtech gesehen hast lohnt sich das schon bei einer 4890 1ghz karte.dann will ich nicht wissen wie es ist wenn die angebliche 5870 mit "doppleter power" bei gleicher bandbreite ausgebremst wird.

reunion
2009-08-08, 13:09:16
was meinst du mit damit,wenn ich runter takte werden die latenzen noch schlechter als sie schon sind?
warum sollte man mit einer 4850 vergleichen wenn dort die latenzen durch gddr3 deutlich besser sind.eine 4850 karte als vergleich zunehmen mit gleichem takt ist blödsinn.sieht man ja auch beim cb test das bei gleichem takt die 4870 ca. 15% langsamer ist als eine 4850 karte.

Man will wissen ob RV770 an der Bandbreite hängt. Deshalb ist es unsinnig den GDDR5 zu untertakten, denn damit sinkt die Latenz maßgeblich. Die Latenzen von GDDR3 sind nicht besser wie von GDDR5, nur wenn ich den Takt des GDDR5 halbiere sind sie natürlich besser.


es ist doch ganz einfach ob speicherbandbreite was bringt,einfach den speicher übertakten und schauen ob sich das lohnt und wie du bei anandtech gesehen hast lohnt sich das schon bei einer 4890 1ghz karte.dann will ich nicht wissen wie es ist wenn die angebliche 5870 mit "doppleter power" bei gleicher bandbreite ausgebremst wird.

Speichertakt übertakten bringt immer etwas, alleine schon weil die Latenzen sinken und ein Streamprozessor nie genug Bandbreite haben kann. Die Frage ist wieviel es bringt. Und da sind für mich die 4850 und die 4770 klare Indizien, dass eine 4870 aktuelle mehr als genug Bandbreite hat. Nochmal: Eine hypothetische 5870 mit 1600SPs und 1100Mhz 256bit GDDR5 hätte nicht weniger Bandbreite im Verhältnis zur Leistung wie eine 4850 oder eine 4770.

Captain Future
2009-08-08, 13:44:26
Der Wert mit heruntergetaktetem GDDR5 ist durch die schlechten Latenzen natürlich wertlos, das habe ich hinten schonmal angemerkt wie jemand damit eine Speicherbandbreitenlimitierung zeigen wollte.

Latenzen sind bei Grafikspeicher quasi wertlos. +/- 1-3%, wenn der MC gut gemacht ist was er bei RV<7xx nicht war, daher war dort auch die 3870 mit GDDR4 etwas im Nachteil. Beim RV770 (und neuer, hoffe ich) wird der Effekt kaum spürbar sein.

Und da sind für mich die 4850 und die 4770 klare Indizien, dass eine 4870 aktuelle mehr als genug Bandbreite hat.
Das kommt immer auf die Anwendung drauf an…

Nochmal: Eine hypothetische 5870 mit 1600SPs und 1100Mhz 256bit GDDR5 hätte nicht weniger Bandbreite im Verhältnis zur Leistung wie eine 4850 oder eine 4770.
Leistung? Watt? GFLOPS? GTex?…

Nochmal zum Mitmeißeln:

HD 4850 : 1.000 GFLOPS, 63,5 GB/s -> 63,5 Byte/FLOP
HD 4770 : 960 GFLOPS, 57,6 GB/s -> 60 Byte/FLOP
HD "5870": 2.400 GFLOPS, 140,8 GB/s -> 58,6 Byte/FLOP

Und das auch nur bei der konservativen Einschätzung von 750 MHz Kerntakt für RV870. Sind es 850 oder 900 MHz, sieht's schlechter aus.
Sollten die TMUs auch aufgestockt werden, sind die Byte pro Texel gar katastrophal niedrig, etwa auf NV-Niveau ;)

reunion
2009-08-08, 14:21:07
Latenzen sind bei Grafikspeicher quasi wertlos. +/- 1-3%, wenn der MC gut gemacht ist was er bei RV<7xx nicht war, daher war dort auch die 3870 mit GDDR4 etwas im Nachteil. Beim RV770 (und neuer, hoffe ich) wird der Effekt kaum spürbar sein.


Latenzen sind bei GPUs natürlich nicht so wichtig wie bei CPUs, wertlos ist aber was anderes. Das jetzt auf den MC zu schieben ist ziemlich billig. Wenn du dir die Werte ansiehst, wirst du feststellen, dass der Latenzunterschied von niedrig getaktetem GDDR5 im Vergleich zu GDDR3 bei gleicher Bandbreite zu erheblichen Leistungseinbrüchen führt.


Das kommt immer auf die Anwendung drauf an…

Eine Binsenweisheit, wie toll. Und jetzt bitte etwas mit Substanz. Extrembeispiele gibt es immer. Die durchschnittliche Leistung zeigt das ich recht habe.


Leistung? Watt? GFLOPS? GTex?…

1600SPs/80TMUs wird von Chiphell angegeben wie du sicher gesehen hast, also ist das völlig belanglos. Was du mit den Watt hier bezwecken willst außer dich dumm zu stellen bleibt wohl dein Geheimnis.


Nochmal zum Mitmeißeln:

HD 4850 : 1.000 GFLOPS, 63,5 GB/s -> 63,5 Byte/FLOP
HD 4770 : 960 GFLOPS, 57,6 GB/s -> 60 Byte/FLOP
HD "5870": 2.400 GFLOPS, 140,8 GB/s -> 58,6 Byte/FLOP


Nichts anderes habe ich behauptet, aber auch das weißt du hoffentlich. Das ist für mich kein maßgeblicher Unterschied. Wenn eine 4850/4770 nicht/kaum bandbreitenlimitiert ist, dann wird es diese hypothetische 5870 eben so wenig sein.

w0mbat
2009-08-08, 14:22:42
Die HD5870 soll nur 1,1GHz GDDR5 bekommen? Übertaktete HD4890 fahren jetzt schon 1,05GHz GDDR5, bei der HD5870 werden wir wohl mindestens 1,25GHz, wenn nicht mehr sehen.

1,25GHz (5Gbps) wären 160GB/s. Bei 1,5GHz (6Gbps) hätten wir schon 192GB/s. Bei verfügbaren 7Gbps Chips wären auch 224GB/s möglich.

Gast
2009-08-08, 14:25:49
Ich denke, dass anfangs wohl noch 5GBps-Chips verbaut werden, diese aber auch tatsächlich mit 1,25GHz betrieben werden.

V2.0
2009-08-08, 14:34:46
Man wird auch auf die Leistungsaufnahme achten müssen.

Captain Future
2009-08-08, 15:25:07
Latenzen sind bei GPUs natürlich nicht so wichtig wie bei CPUs, wertlos ist aber was anderes. Das jetzt auf den MC zu schieben ist ziemlich billig. Wenn du dir die Werte ansiehst, wirst du feststellen, dass der Latenzunterschied von niedrig getaktetem GDDR5 im Vergleich zu GDDR3 bei gleicher Bandbreite zu erheblichen Leistungseinbrüchen führt.
Wo kann ich mir "die Werte" ansehen? Ich kenne bisher nur GDDR3 und 4 - und das eben beim RV670, dessen MC - egal wie billig du es finden magst - ja auch von AMD so eingeschätzt wurde, dass er nicht überarbeitet, sondern komplett ausgetauscht wurde.

Eine Binsenweisheit, wie toll. Und jetzt bitte etwas mit Substanz. Extrembeispiele gibt es immer. Die durchschnittliche Leistung zeigt das ich recht habe.
Was ist "die durchschnittliche Leistung", die dir Recht gibt?

[QUOTE=reunion;7461636]1600SPs/80TMUs wird von Chiphell angegeben wie du sicher gesehen hast, also ist das völlig belanglos. Was du mit den Watt hier bezwecken willst außer dich dumm zu stellen bleibt wohl dein Geheimnis.
Was auch immer für dich Leistung ist. Kann ja auch Fps in einem bestimmten Spiel sein oder 3DMarks oder sonstwas. Wollte nur sichergehen - für manche ist nachfragen aber auch was dummes, gell?

[QUOTE=reunion;7461636]Nichts anderes habe ich behauptet, aber auch das weißt du hoffentlich. Das ist für mich kein maßgeblicher Unterschied. Wenn eine 4850/4770 nicht/kaum bandbreitenlimitiert ist, dann wird es diese hypothetische 5870 eben so wenig sein.

Cool, 4770 nicht bandbreitenlimitiert? Muss ich verpasst haben:
"Die Leistungssteigerung durch die 20 Prozent mehr GPU- und 25 Prozent mehr Speichertakt ist enorm: Die Karte rechnet im Schnitt 25 Prozent schneller, was eine relative Bandbreitenlimitierung durch das 128-Bit-Interface nahelegt. (http://www.pcgameshardware.de/aid,682645/Test-Ati-Radeon-HD-4770-vs-HD-4850-und-Geforce-9800-GT/Grafikkarte/Test/?page=4)

8 Prozent (5870 - 4850) - und das noch bei dem pessimistischen Taktziel von 750 MHz für RV870 - sind schon ein ziemlicher Unterschied - ob der für dich relevant ist oder nicht, spielt eigentlich keine Rolle.

reunion
2009-08-08, 15:53:08
Wo kann ich mir "die Werte" ansehen? Ich kenne bisher nur GDDR3 und 4 - und das eben beim RV670, dessen MC - egal wie billig du es finden magst - ja auch von AMD so eingeschätzt wurde, dass er nicht überarbeitet, sondern komplett ausgetauscht wurde.

Den CB-Test den ich hinten verlinkt habe. Wenn man den GDDR5 Speicher einer 4870 so weit herunter taktet das sie dieselbe Bandbreite wie eine 4850 hat bricht sie extrem ein. Ich dachte das wüsstest du.


Was ist "die durchschnittliche Leistung", die dir Recht gibt?

Durchschnittliche Leistung ist ein Begriff den jeder welcher der deutschen Sprache mächtig ist verstehen sollte. Das die eine oder andere Anwendung mehr oder weniger von mehr Bandbreite profitiert ist vollkommen logisch.


Was auch immer für dich Leistung ist. Kann ja auch Fps in einem bestimmten Spiel sein oder 3DMarks oder sonstwas. Wollte nur sichergehen - für manche ist nachfragen aber auch was dummes, gell?

Ja, wenn du mit Watt ankommst obwohl aus dem Kontext klar was anderes hervor geht dann ist das für mich dumm stellen.


Cool, 4770 nicht bandbreitenlimitiert? Muss ich verpasst haben:
"Die Leistungssteigerung durch die 20 Prozent mehr GPU- und 25 Prozent mehr Speichertakt ist enorm: Die Karte rechnet im Schnitt 25 Prozent schneller, was eine relative Bandbreitenlimitierung durch das 128-Bit-Interface nahelegt. (http://www.pcgameshardware.de/aid,682645/Test-Ati-Radeon-HD-4770-vs-HD-4850-und-Geforce-9800-GT/Grafikkarte/Test/?page=4)


Schön, da sind wir wieder bei dem Punkt dass dann eine 4870/90 wesentlich weiter davon ziehen müsste mit der doppelten Bandbreite wenn das doch so viel bringt. Nochmal: Ich bestreite nicht das mehr Bandbreite in bestimmten Anwendungen noch mehr Leistung bringen kann, aber ich sehe nicht wo eine 4770/4850 durch die Bandbreite entscheidend ausgebremst wird.


8 Prozent (5870 - 4850) - und das noch bei dem pessimistischen Taktziel von 750 MHz für RV870 - sind schon ein ziemlicher Unterschied - ob der für dich relevant ist oder nicht, spielt eigentlich keine Rolle.

Oben kommst du mit der 4770, jetzt nimmst du wieder die 4850. Im Vergleich zur 4770 wären es noch wahnwitzige ~2.5%. Ungeheuerlich. Aber wie w0mbat oben schon geschrieben hat wären bei 5Gbps Chips auch 1,25Ghz möglich. Das wäre dann geradezu obszöne ~14% mehr Bandbreite ggü. 1.1Ghz. Damit könnte man den Chip dann auch mit 850Mht takten um dasselbe Verhältnis beizubehalten. Entweiige Optimierungen am MC noch gar nicht berücksichtigt.

Captain Future
2009-08-08, 16:02:42
*hihi*
8 Prozent sind für dich also nicht maßgeblich, 12 Prozent aber schon "extrem"?

Wie dem auch sei, nein, den CB-Test habe ich nicht gesehen bis eben. 12% Verlust durch Timings sind allerdings doch ein wenig "schlimmer" als ich geschätzt hatte.

Was die bb-Limitierung bei 4850/4770 angeht, müssen wir wohl übereinkommen, darin nicht übereinzukommen. Ich interpretiere die vorliegenden Daten - zum Beispiel 25% Fps-Plus bei 20/25% GPU/MEM-OC - offenbar anders als du.

reunion
2009-08-08, 16:08:12
*hihi*
8 Prozent sind für dich also nicht maßgeblich, 12 Prozent aber schon "extrem"?


Es kommt immer auf die Erwartungshaltung an. 12% nur wegen Timings sind wie du ja unter selbst zugibt IMO schon ziemlich "extrem". Im übrigen sind es zur 4770 welche du als Vergleich heran gezogen hattest nur 2.5%.


Was die bb-Limitierung bei 4850/4770 angeht, müssen wir wohl übereinkommen, darin nicht übereinzukommen. Ich interpretiere die vorliegenden Daten - zum Beispiel 25% Fps-Plus bei 20/25% GPU/MEM-OC - offenbar anders als du.

Schön. Man sollte halt auch andere Daten wie der 4870 mit doppelter Bandbreite nicht ignorieren.

Captain Future
2009-08-08, 16:14:24
Die HD4870 kann man IMO nicht vergleichen - viele Tests zeigen, dass die CPU limitiert, die Engine dichtmacht oder sonstwas. Außerdem gilt Amdahl in abgewandelter Form: Mehr Speicherbandbreite kann nur Engpässe in der Speicherbandbreite beheben. Wenn was anderes bremst, hilft's nicht.

anddill
2009-08-08, 16:21:47
Schon aufgrund der Speichermenge wäre ATI gut beraten, auch mal ein krummes Speicherinterface zu verwenden. 512MB ist auch für die speichersparenden ATIs inzwischen etwas knapp, 1GB nicht wirklich nötig. Irgendwas um 700MB wäre mMn. optimal für eine Maisnstreamkarte.

reunion
2009-08-08, 16:25:37
Die HD4870 kann man IMO nicht vergleichen - viele Tests zeigen, dass die CPU limitiert, die Engine dichtmacht oder sonstwas.


Die Engine macht dicht bei mehr Bandbreite. Interessant. Und bei einer GPU welche vielleicht 30% schneller ist soll auf einmal überall die CPU limitieren? Auch das ist lächerlich. Wenn wir hier zwei GPUs vergleichen würden wo eine 2-3 mal so schnell wäre wäre das Argument angebracht, aber in diesem Leistungsbereich wird es hier nicht zu großen Unterschieden kommen. Ansonsten muss man ja nicht unbedingt die Werte nehmen welche in 1280 x 1024 ohne AA/AF gebencht wurden.


Außerdem gilt Amdahl in abgewandelter Form: Mehr Speicherbandbreite kann nur Engpässe in der Speicherbandbreite beheben. Wenn was anderes bremst, hilft's nicht.

Das ist wieder so eine Binsenweisheit. Mehr Bandbreite kann natürlich nur Engpässe in der Speicherbandbreite beheben. Blöd wenn diese kaum vorhanden sind.

derguru
2009-08-08, 16:34:11
eine 4870 setzt sich ja auch von der füllrate kaum ab von der 4770,kein wunder das die karte von der bandbreite nicht profitiert.aber man sieht sehr gut wenn man das potenzial einer 4890 ausnutzt das dann die speicherbandbreite ein höheren stellenwert hat und das wird dann bei einer 5870 noch eine größere rolle spielen.

hier sieht man das doch sehr gut,eine 4890 default ist identisch wie eine mit 4890 mit 1,2ghz ramtakt.
aber wenn man den coretakt wie hier auf 1ghz hoch jagd und ddadurch die füllrate erhöht profitiert man aufeinmal vom ramtakt.
bei quak korrigieren:biggrin:

http://www.abload.de/img/18843sxli.png

reunion
2009-08-08, 16:40:48
eine 4870 setzt sich ja auch von der füllrate kaum ab von der 4770,kein wunder das die karte von der bandbreite nicht profitiert.aber man sieht sehr gut wenn man das potenzial einer 4890 ausnutzt das dann die speicherbandbreite ein höheren stellenwert hat und das wird dann bei einer 5870 noch eine größere rolle spielen.

hier sieht man das doch sehr gut,eine 4890 default ist identisch wie eine mit 4890 mit 1,2ghz ramtakt.
aber wenn man den coretakt wie hier auf 1ghz hoch jagd und ddadurch die füllrate erhöht profitiert man aufeinmal vom ramtakt.
bei quak korrigieren:biggrin:

http://www.abload.de/img/18843sxli.png

Rosinenpickerei. Und selbst hier bringen 24% mehr Speicherbandbreite nur 8% mehr Leistung wenn man von den üblichen Messtoleranzen absieht und davon das sich Anandtech hier in der Vergangenheit nicht gerade mit Ruhm bekleckert hat. Eine Limitierung sieht jedenfalls anders aus.

derguru
2009-08-08, 16:59:44
da gibts noch mehr rosinen:D
lol was für ein gewinn erwartest du denn,1zu1 oder was?
das Anandtech sich in der vergangenheit nicht mit ruhm bekleckert hat tut nichts zur sache,die werden sicherlich nicht bei einer übertakteten 4890 einen anderen treiber genutzt haben,billige ausrede.

reunion
2009-08-08, 17:03:30
da gibts noch mehr rosinen:D
lol was für ein gewinn erwartest du denn,1zu1 oder was?
das Anandtech sich in der vergangenheit nicht mit ruhm bekleckert hat tut nichts zur sache,die werden sicherlich nicht bei einer übertakteten 4890 einen anderen treiber genutzt haben,billige ausrede.

Verlinke mal den Artikel.

V2.0
2009-08-08, 17:07:01
Können wir die 48X0 Debatte auslagern, denn ob das Verhalten dieser Karte Relevanz für RV870 hat muss sich erst zeigen.

derguru
2009-08-08, 17:10:25
Verlinke mal den Artikel.
http://www.anandtech.com/video/showdoc.aspx?i=3555&p=18
Können wir die 48X0 Debatte auslagern, denn ob das Verhalten dieser Karte Relevanz für RV870 hat muss sich erst zeigen.
:up:X-D

Gast
2009-08-08, 17:17:28
Nun, Amd/ Ati ist sich sicherlich bewusst wo es beim RV770 noch fehlte, werden kaum diesen "Fehler" ein zweites Mal bringen.
Mann kann wohl mit grosser Sicherheit davon ausgehen, dass der RV870 dennoch ein wunderbarer GPU Chip wird,- bei dem ATI hoffe mal alles richtig gemacht hat.
Zudem will ATI wohl noch hinzu ueber den Preis punkten,- dies sollte dann echt reinhauen

aylano
2009-08-08, 17:29:56
Ach, meinten sie das? Wie gut, dass du das so genau weisst.

Sie sagten das so, und so hatte ich es in Erinnerung.

mboeller
2009-08-08, 20:05:52
in dem Jon Peddie PDF über Multi-GPU steht übrigens folgende Passage:

ATI’s new approach offered four modes of operation, scan-line interleave, split frame interleave,
alternate frame interleave, and checkerboard interleave. In May of 2005 the company reintroduced
the technology and named it Crossfire.

ATi hat also am Anfang nicht nur auf AFR gesetzt. Vielleicht nutzen sie ja jetzt für den RV870 etwas von dem alten Wissen, obwohl die Anforderungen an eine GPU heutzutage ja ein "wenig" anders sind als 2001-2005.

anddill
2009-08-08, 22:25:01
in dem Jon Peddie PDF über Multi-GPU steht übrigens folgende Passage:



ATi hat also am Anfang nicht nur auf AFR gesetzt. Vielleicht nutzen sie ja jetzt für den RV870 etwas von dem alten Wissen, obwohl die Anforderungen an eine GPU heutzutage ja ein "wenig" anders sind als 2001-2005.

Seitdem ein großer Teil der Geometrieberechnung im Grafikchip steckt, geht das nicht mehr so einfach mit dem Bild unterteilen.
ABER: heute wäre es machbar, das bischen Vertex- und Geometriekram dann einfach doppelt zu rechnen. Die Hauptlast sind Pixelshader, und die lassen sich nun wieder sehr gut per Tiling/SFR aufteilen.

Ailuros
2009-08-09, 07:43:55
Die HD5870 soll nur 1,1GHz GDDR5 bekommen? Übertaktete HD4890 fahren jetzt schon 1,05GHz GDDR5, bei der HD5870 werden wir wohl mindestens 1,25GHz, wenn nicht mehr sehen.

1,25GHz (5Gbps) wären 160GB/s. Bei 1,5GHz (6Gbps) hätten wir schon 192GB/s. Bei verfügbaren 7Gbps Chips wären auch 224GB/s möglich.

1.25 duerfte noch im Raum des moeglichen liegen; alles darueber zu teuer und zu selten.

Wobei IMO ~160GB/s fuer einen chip mit den spekulierten Specs auch gut genug sein koennte.

-------------------------------------------------------

Was den Rest betrifft: zwar waere es uebertrieben zu behaupten dass man fuer arithmetic ueberhaupt keine Bandbreite braucht, aber der vorige GFLOP zu Bandbreite Vergleich ist nicht besonders viel wert.

Eine um weit bessere Basis fuer spekulative Mathe waere eine Relation zwischen Pixel-fuellraten und Bandbreite und stets natuerlich fuer hohe Aufloesungen. Eine hypothetische "5850" waere in dem Fall ein ganz anderes Tier und kann natuerlich mit ihrem Preis-/Leistungs-Verhaeltnis mit wesentlich weniger Bandbreite antanzen als eine "5870" (angenommen AMD skaliert hier auch nur Frequenzen wie bei 4870 vs. 4850).

Ailuros
2009-08-09, 07:46:08
ATi hat also am Anfang nicht nur auf AFR gesetzt. Vielleicht nutzen sie ja jetzt für den RV870 etwas von dem alten Wissen, obwohl die Anforderungen an eine GPU heutzutage ja ein "wenig" anders sind als 2001-2005.

Es ist bei beiden IHVs so seit ~2004.

reunion
2009-08-09, 10:31:25
in dem Jon Peddie PDF über Multi-GPU steht übrigens folgende Passage:



ATi hat also am Anfang nicht nur auf AFR gesetzt. Vielleicht nutzen sie ja jetzt für den RV870 etwas von dem alten Wissen, obwohl die Anforderungen an eine GPU heutzutage ja ein "wenig" anders sind als 2001-2005.

Irgend ein SFR-Verfahren wie Supertiling oder so ähnlich wäre eine Konsequenz aus diesem Verbundenen Dice, zweifelsfrei. Denn SFR ist heute nur so langsam, bzw. nicht mehr einsetzbar, weil dort die eine GPU häufig auf den Speicherinhalt der anderen zugreifen muss und das aufwändig über eine schmalen Bus geschoben werden muss. Durch die Verbundenen Dice sollte mehr als genug Bandbreite generiert werden können, bzw. setzt man vielleicht eh auf shared memory, dann hätte sich das Problem von selbst gelöst.

Hvoralek
2009-08-09, 13:44:52
Rosinenpickerei. Und selbst hier bringen 24% mehr Speicherbandbreite nur 8% mehr LeistungEin 1600SP/256- bit- RV870 hätte allerdings je nach Takt fast die doppelte Leistung wie der RV770 in diesem Test, aber auch nur etwa dieselbe Bandbreite. Natürlich ist das nicht 1:1 übertragbar, aber schon ein Indiz, dass bei knapp der doppelten Rechenleistung diese Bandbreite schon sehr knapp werden könnte.

reunion
2009-08-09, 14:13:10
Ein 1600SP/256- bit- RV870 hätte allerdings je nach Takt fast die doppelte Leistung wie der RV770 in diesem Test, aber auch nur etwa dieselbe Bandbreite. Natürlich ist das nicht 1:1 übertragbar, aber schon ein Indiz, dass bei knapp der doppelten Rechenleistung diese Bandbreite schon sehr knapp werden könnte.

Ja, wie schon gesagt, es wird Situation geben, wo sie knapp werden könnte. Nichtsdestotrotz haben eine 4850 oder 4770 auch nicht mehr Bandbreite und diese hängen auch nicht unbedingt an der Bandbreite wenn ich die Leistung mit den 4870/4890-Chips mit doppelt so viel Bandbreite vergleiche. Rosinen wird man immer finden, auf der einen oder der anderen Seite.

w0mbat
2009-08-09, 14:18:20
Ich glaube immer noch an mehr als 256bit. mMn wird es bei AMD dazu langsam Zeit, auch wenn sie mit dem R600 eine schlechte Erfahrung gemacht haben.

RV830 mit 192bit und RV870 mit 384bit wäre super.

dargo
2009-08-09, 15:03:07
RV830 mit 192bit und RV870 mit 384bit wäre super.
Schön wärs ja (nicht nur aus Performancesicht), so eine HD487(9)0*2 mit 1,5GB Vram wäre ideal. :)

V2.0
2009-08-09, 15:08:25
Nur ist 2x128 oder auch 2x192 eben nicht 256Bit und auch nicht 384Bit.

Selbst ein SFR Chip braucht mehr Bandbreite und er wird auch weniger effektiv gemotrie erzeugen können, da es bei der Aufteilung der Screens im Triangles geben wird, die die Trennung durchstoßen.

dargo
2009-08-09, 15:19:37
Nur ist 2x128 oder auch 2x192 eben nicht 256Bit und auch nicht 384Bit.

Eigentlich schon, zumindest bei AFR. Warum sollte dies bei SFR anders sein?

=Floi=
2009-08-09, 15:56:51
ati wird schon aus kostengründen die billigeren chips verbauen. das kommt eben davon. die paar % und fälle wo die speicherbandbreite gefordert wird falles eben unter den tisch und man bekommt einfach größere schwankzugen zu den einzelnen games.

Gast
2009-08-09, 16:10:05
ati wird schon aus kostengründen die billigeren chips verbauen. das kommt eben davon. die paar % und fälle wo die speicherbandbreite gefordert wird falles eben unter den tisch und man bekommt einfach größere schwankzugen zu den einzelnen games.

na da hat einer wohl etwas zu tief ins glas geschaut !

Hvoralek
2009-08-09, 16:25:10
Ja, wie schon gesagt, es wird Situation geben, wo sie knapp werden könnte. Nichtsdestotrotz haben eine 4850 oder 4770 auch nicht mehr Bandbreite und diese hängen auch nicht unbedingt an der Bandbreite wenn ich die Leistung mit den 4870/4890-Chips mit doppelt so viel Bandbreite vergleiche. Rosinen wird man immer finden, auf der einen oder der anderen Seite.Wenn man RV870 als Doppel- RV770 + D3D11 annimmt und in der Konstellation selbst bei einem RV770 diese Bandbreite zu ~1/3 in Mehrleistung umgesetzt wird, wäre dort dieselbe Bandbreite für RV870 klar zu wenig. Eng werden könnte es dann durchaus auch noch deutlich häufiger. Andererseits sind die Ingenieure bei AMD ja auch nicht dämlich.

Inwieweit die 4770 an der Bandbreite hängt, ist glaube ich noch umstritten. Die 4850 verwendet allerdings GDDR3, was ja offenbar schon einmal einen erheblichen Unterschied macht.

V2.0
2009-08-09, 16:30:31
Eigentlich schon, zumindest bei AFR. Warum sollte dies bei SFR anders sein?

Ist doch schon beim AFR Prinzip nicht der Fall. Bringe ich ein AFR Set-Up in einem Bereich bei dem die Single-Karte von der Bandbreite limitiert wird, erwischt es auch das AFR System, obwohl es rechnerisch ja die doppelte Bandbreite haben sollte.

Bei SFR kommt jetzt noch dazu, dass die beiden Chips wesentlich mehr Daten tauschen müssen da sie nun miteinander rechnen und nicht "hintereinander".

w0mbat
2009-08-09, 16:44:10
Nur ist 2x128 oder auch 2x192 eben nicht 256Bit und auch nicht 384Bit.

Selbst ein SFR Chip braucht mehr Bandbreite und er wird auch weniger effektiv gemotrie erzeugen können, da es bei der Aufteilung der Screens im Triangles geben wird, die die Trennung durchstoßen.

Der 300mm²+ Chip ist aber doch nicht 2*192bit sonder eben 384bit. Es geht hier nicht um die X2.

mboeller
2009-08-09, 16:44:28
Ist doch schon beim AFR Prinzip nicht der Fall. Bringe ich ein AFR Set-Up in einem Bereich bei dem die Single-Karte von der Bandbreite limitiert wird, erwischt es auch das AFR System, obwohl es rechnerisch ja die doppelte Bandbreite haben sollte.

Bei SFR kommt jetzt noch dazu, dass die beiden Chips wesentlich mehr Daten tauschen müssen da sie nun miteinander rechnen und nicht "hintereinander".


die "Chips" sind aber auf einem Die und müssen die Daten, soweit ich weiß nur untereinander abgleichen. Die Speicherbandbreite sollte davon nur gering, oder gar nicht betroffen sein. Wenn Vertex, Texturen oder anderes Informationen untereinander ausgetauscht werden müssen wird hier nur die "on-Die" Verbindung der beiden "Chips" belastet aber nicht die Speicheranbindung. Es ist sowieso fraglich inwieweit es sich beim RV870 wirklich um 2 Chips auf einem Die handelt. Sehr wahrscheinlich ist es eine Dual-Core GPU, also eigentlich 1 Chips mit 2 Rendercores.

V2.0
2009-08-09, 16:52:51
Erstmal ist mehr als 256Bit reine Spekulation.

Aber ein Problem wird sich bei SFR stellen. Die Aufteilung des Frames wird nie optimal sein, so dass beide Chips ein Render Target bearbeiten müssen und am Ende ein fertiges Bild an den Framebuffer ausgeben müssen. Es ist imho unwahrscheinlich, dass dies ohne Speicherzugriff möglich ist.

|MatMan|
2009-08-09, 23:29:18
Die "Dual-Core-GPU" Speku ist für mich totaler Quark wenn man sich ein wenig mit mit Design und Produktion von solchen Dingen beschäftigt hat.
"2 Chips auf einem Die" ist einfach sinnlos oder "1 Chip und 2 Rendercores", das hat man ja prinzipiell jetzt schon (nur mit mehr als 2 "Rendercores").

Und das den Fake-Sot von vor ein paar Seiten "einfach" in der Mitte durch zu sägen ist ja wohl total lachhaft... ;D

Von daher braucht man sich auch nicht den Kopf über mögliche AFR/SFR Probleme eines solches "Chips" den Kopf zerbrechen.

Ailuros
2009-08-10, 06:33:24
die "Chips" sind aber auf einem Die und müssen die Daten, soweit ich weiß nur untereinander abgleichen. Die Speicherbandbreite sollte davon nur gering, oder gar nicht betroffen sein. Wenn Vertex, Texturen oder anderes Informationen untereinander ausgetauscht werden müssen wird hier nur die "on-Die" Verbindung der beiden "Chips" belastet aber nicht die Speicheranbindung. Es ist sowieso fraglich inwieweit es sich beim RV870 wirklich um 2 Chips auf einem Die handelt. Sehr wahrscheinlich ist es eine Dual-Core GPU, also eigentlich 1 Chips mit 2 Rendercores.

Wenn schon Rys bei B3D bei der spekulativen Debatte dort mitmacht, koennte es durchaus sein dass es sich doch um "dual core" in irgend einer Art handelt. Auf jeden Fall steht eine merkwuerdige relevante Bezeichnung in AMD's vertraulichem Werbematerial ;)

Wie schon gesagt finde ich jegliche Sorgen ueber SFR generell uebertrieben in solch einem Fall; wo man nichts verwerfen kann sortiert man einfach Dreiecke. Natuerlich fuehrt es stets zu einem overhead aber nichts IMO dass man nicht verschmerzen koennte.

reunion
2009-08-10, 09:51:02
Wenn schon Rys bei B3D bei der spekulativen Debatte dort mitmacht, koennte es durchaus sein dass es sich doch um "dual core" in irgend einer Art handelt. Auf jeden Fall steht eine merkwuerdige relevante Bezeichnung in AMD's vertraulichem Werbematerial ;)

Wie schon gesagt finde ich jegliche Sorgen ueber SFR generell uebertrieben in solch einem Fall; wo man nichts verwerfen kann sortiert man einfach Dreiecke. Natuerlich fuehrt es stets zu einem overhead aber nichts IMO dass man nicht verschmerzen koennte.

Wundert mich nicht. Die Leute von Chiphell haben schon mehrmals bewiesen das sie einen sehr guten Draht zu AMD haben. Dann stimmen vermutlich auch die 1600SPs/80TMUs.

Heute ist im übrigen eh schon der 10. August, also in einem Monat sollten die Karten kommen oder zumindest der Launch-Event über die Bühne gehen. Da wird es Zeit das harte Fakten auftauchen - Bilder, Benchmarks, Technische Daten.

nagus
2009-08-10, 09:58:52
ich glaub das ist "neu" bzw. neu bestätigt?

RV870:
1600SP 256bit 80TMU 32ROP

RV830:
800SP 128bit 40TMU 16ROP

http://74.125.95.132/translate_c?hl=...YYpBtd5wgI2Osg

AnarchX
2009-08-10, 10:01:31
Nein, hier gibt es diese Info noch mit ein paar anderen Gerüchten von Chiphell:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7460261#post7460261

Gast
2009-08-10, 10:18:35
Nun, nehme stark an dass die Geruechte war sind, dies mit dem DualCore muss sich aber erst zeigen. Aber etwas in der Richtung wird es wohl schlussendlich werden. Falls wirklich HD4870X2 +20 bis 30% erreicht werden sollte, dann hat Amd-Ati die Hausaufgaben mehr als gemeistert.
Fakt ist auch dass die HD4870 X2 von Tag zu Tag schwerer zu bekommen, bzw. gar zu liefern ist.

Gast
2009-08-10, 10:44:15
http://geizhals.at/eu/a355516.html

Beginnender Ausverkauf der HD4870 X2 ... ...
Sapphire wird wohl bald einen Preis von ca. 250 Euro anstreben, bei der grossen Verfuegbarkeit an Ihren Sapphire X2 Karten...
Die 300+ Euro Preise der HD5870 scheinen sich immer mehr zu bestaetigen, bei vielleicht gar +20% Mehrperformance als die X2 Karte.

reunion
2009-08-10, 10:58:18
ich glaub das ist "neu" bzw. neu bestätigt?

RV870:
1600SP 256bit 80TMU 32ROP

RV830:
800SP 128bit 40TMU 16ROP

http://74.125.95.132/translate_c?hl=...YYpBtd5wgI2Osg

Von den Specs her sollte damit selbst ohne jegliche Effizienzsteigerungen locker 2 x RV790 Leistung machbar sein. Die Frage ist nur die Bandbreite vorallem auch ggü. GT300. Denn diesmal wird auch NV auf GDDR5 setzen und kann damit dank 512bit SI natürlich auf die doppelte Bandbreite zurückgreifen. Gegen GT300 wird man so kaum eine Chance haben, zumal NV wohl kaum ein zweites mal so blöd sein wird und haufenweise Die-Space für DP-ALUs opfert.

AnarchX
2009-08-10, 11:06:15
Von den Specs her sollte damit selbst ohne jegliche Effizienzsteigerungen locker 2 x RV790 Leistung machbar sein.
Würde man jetzt RV7xx einfach auf 20 SIMDs aufblasen, würde ich doch bezweifeln, dass da eine solche Leistungssteigerung gegenüber RV770/RV790 möglich wäre.

Dieses Dual-Core-Design wird schon seinen Hintergrund haben, damit man aus den 20 SIMDs noch ein entsprechende Leistungssteigerung holen kann.

reunion
2009-08-10, 11:10:34
Würde man jetzt RV7xx einfach auf 20 SIMDs aufblasen, würde ich doch bezweifeln, dass da eine solche Leistungssteigerung gegenüber RV770/RV790 möglich wäre.

Hm? Und weshalb? Das man dann natürlich auch den Threadprozessor oder wie man das Ding nennt entsprechend aufblasen muss sollte klar sein. Sonst skaliert man prinzipiell linear mit der EInheitenanzahl.


Dieses Dual-Core-Design wird schon seinen Hintergrund haben, damit man aus den 20 SIMDs noch ein entsprechende Leistungssteigerung holen kann.

Dieses Dual-Core Design hat ganz einfach den Grund sich die Entwicklung eines großen Chips zu ersparen. Aber schon interessant was man dort nicht alles hinein interpretieren kann. IMG macht ja im Grunde nichts anderes.

AnarchX
2009-08-10, 11:21:38
Gerade die Skalierung der Effizienz ist es ja die auch IMGTec bei ihrem Prinzip bewirbt.
So soll ein SGX-MP16 sich wohl durchaus gegen eine HD4850 behaupten können (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7398220&postcount=6), trotz deutlich geringerer Rohleistung.

reunion
2009-08-10, 11:28:35
Gerade die Skalierung der Effizienz ist es ja die auch IMGTec bei ihrem Prinzip bewirbt.
So soll ein SGX-MP16 sich wohl durchaus gegen eine HD4850 behaupten können (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7398220&postcount=6), trotz deutlich geringerer Rohleistung.

Natürlich bewirbt man die Skalierung der Effizienz bei einem solchen Design. Da sind halt viele gleich mal skeptisch wenn man Dual-Core hört. Das heißt aber noch lange nicht das ein natives Design schlechter skalieren würde, ganz im Gegenteil. Es ist halt wie immer eine Kosten/Nutzen-Rechnung.

Das sich ein SGX-MP16 gegen eine 4850 behaupten könnte halte ich für einen schlechten Scherz. Bei allem Respekt vor Ailuros, aber es ist bekannt das er bei IMG alles ein wenig rosiger sieht. Sie haben zwar tolle stromsparende Designs, aber AMD und NV sind auch nicht blöd. Ein SGX-MP16 ist winzig klein, man sollte schon die Realität im Auge behalten.

Hvoralek
2009-08-10, 12:33:36
Ein paar Sachen, die wohl auch hier reinpassen:

Mal bissl was Neues aus der aktuellen PCGH:
-AMD hat 250 Mio Dollar für die Entwicklung der Directx11-Hardware ausgegeben
-Evergreen-Team bestand bereits seit 2004
-AMD erwähnt besonders Speicherbandbreite als Problem und sucht dort verstärkt nach Lösungen
-AMD sagt, beide Hersteller hätten beim AF noch großen Spielraum und AMD wird hier auch etwas tun. Beim AA sei das Niveau aber so hoch, dass man hier kaum noch was tun könne. Es wird noch andere BQ-Features mit Evergreen geben.
(Hervorhebungen von mir)

Ailuros
2009-08-10, 13:57:35
Natürlich bewirbt man die Skalierung der Effizienz bei einem solchen Design. Da sind halt viele gleich mal skeptisch wenn man Dual-Core hört. Das heißt aber noch lange nicht das ein natives Design schlechter skalieren würde, ganz im Gegenteil. Es ist halt wie immer eine Kosten/Nutzen-Rechnung.

Das sich ein SGX-MP16 gegen eine 4850 behaupten könnte halte ich für einen schlechten Scherz. Bei allem Respekt vor Ailuros, aber es ist bekannt das er bei IMG alles ein wenig rosiger sieht. Sie haben zwar tolle stromsparende Designs, aber AMD und NV sind auch nicht blöd. Ein SGX-MP16 ist winzig klein, man sollte schon die Realität im Auge behalten.

Wieso ist ein SGX543 MP16 winzig? Unter 65nm sind es stolze 128mm2 und dabei fehlt womoeglich noch dass bisschen extra dass ein SGX545 (12.5mm2@65nm) fuer D3D10.1 Komplianz hat. Ausserdem wurde SGX nicht als GPU entwickelt, sondern als eingebetteter Grafik-chip dessen Latenz eben eine Skalierung von bis zu 16 cores erlaubt. Zum Zeitpunkt wo sich so ein hypothetisches 16MP cluster realisieren koennte (zumindest 32nm) wuerde es einen verdammt konkurrrenzfaehigen Notebook SoC daraus geben, wobei zu dem Zeitpunkt eine 4850 auch etwas ueber low end GPU Niveau liegen wird.

Hammer es Dir in Deinen Schaedel dass SGX erstmal kein GPU chip ist (sonst muesste man im gegebenen Fall auch zusaetzliche Latenz-Bekaempfung in die die area mitberechnen) und zweitens hat das Ding MIMD Einheiten und es ist bei kleinen Dreiecken ueber 4x Mal so effizient wie eine jegliche heutige GPU.

Wenn Du die oeffentlichen Daten nur mal schnell durchgekaemmt hast, heist es nicht dass Du das Ganze auch richtig kapiert hast. Uebrigens verlinkte AnarchX auf einen Post wo ich klipp und klar sagte dass ein MP stellenweise einer 4850 die Zaehne zeigen kann. In einem SoC kaempfen die CPU mit der GPU stets um die gemeinsame Bandbreite, deshalb sind TBDRs eben so geeignet fuer eingebettetes Zeug.

Wenn es jetzt zu SFR kommt, skalieren alle Aspekte selbst GPGPU auf SGX fast linear. Erstens weil es hw Unterstuetzung fuer das Zeug in jeglichem 543 gibt und zweitens weil jegliches AFR auf einem TBDR der absolute Selbstmord waere; scharf nachdenken hilft.

Und wenn's schon sein muss eine gute Loesung nicht die bisherigen Bandbreiten-Kopfschmerzen zu haben waere selbstverstaendlich TBDR. In solch einem Fall haetten sie eine hypothetische "RV870" auch locker mit 4850 Bandbreite ausstatten und das Ding wuerde nie stoenen. Nur wer die Patent-klagen bezaehlen wuerde weiss ich noch nicht...

Ob NVIDIA oder AMD bloed sind was den eingebetteten Bereich betrifft will ich Dir nicht direkt beantworten, aber Tegra steht noch halbwegs anstaendig gegen einen SGX54x0 gegenueber; AMD kann froh sein dass sie ihr handheld Zeug an Qualcolmm verkauft hat um sich bei ihnen zu raechen heh....

Captain Future
2009-08-10, 21:45:01
Die Engine macht dicht bei mehr Bandbreite. Interessant. Und bei einer GPU welche vielleicht 30% schneller ist soll auf einmal überall die CPU limitieren? Auch das ist lächerlich.
Schön, dass alles, was du nicht verstehst, lächerlich ist. Eine 4870 hat, FYI, auch ein bißchen mehr Kerntakt und kann im einen oder anderen Fall schonmal ins CPU-Limit vorstoßen, wo die 4850 es noch nicht erreicht.

Aber dein Verhalten hier zeigt mir deutlich, dass du nur am Rechthaben interessiert bist, nicht am Diskutieren. Dafür ist mir meine Zeit zu schade. Bye.

Coda
2009-08-10, 22:48:27
Seitdem ein großer Teil der Geometrieberechnung im Grafikchip steckt, geht das nicht mehr so einfach mit dem Bild unterteilen.
ABER: heute wäre es machbar, das bischen Vertex- und Geometriekram dann einfach doppelt zu rechnen. Die Hauptlast sind Pixelshader, und die lassen sich nun wieder sehr gut per Tiling/SFR aufteilen.
Das D3D11-Design führt aber dazu dass es sehr viel mehr Geometriearbeit gibt, und SFR/Tiling funktioniert aus anderen Gründen eh nicht (Latenzen beim Austausch von Buffern).

][immy
2009-08-10, 23:14:37
Die "Dual-Core-GPU" Speku ist für mich totaler Quark wenn man sich ein wenig mit mit Design und Produktion von solchen Dingen beschäftigt hat.
"2 Chips auf einem Die" ist einfach sinnlos oder "1 Chip und 2 Rendercores", das hat man ja prinzipiell jetzt schon (nur mit mehr als 2 "Rendercores").


und warum wäre es das totaler schwachfug?
1 "kleinerer" chip ist günstiger in der entwicklung
2 chips auf einem DIE erhöhen die ausbeute (also die chance das zumindest einer funktioniert)
Crossfire on a chip kann auch günstiger vom Board-layout sein

also das mit dem 40TMUs und 800 SP bei einem 128-bit speicherinterface halte ich für spekulation. irgendwer hier im forum hat schonmal gesagt, das 16 TMUs an einem 256 bit speicherinterface schon overkill sind (war glaub ich zur x800). langsam aber sicher müssen sie wohl doch mal das interface verbreitern. es sei denn sie würden doch mal in die richtung von großen und schenllen caches gehen um so ein wenig mehr bandbreite kurzfristig zur verfügung zu haben.

Coda
2009-08-10, 23:17:59
[immy;7465868']1 "kleinerer" chip ist günstiger in der entwicklung
Als ob es einfach magisch funktionieren würde zwei normale IMR zusammenzupappen ohne jegliche Glue-Logic. Diese wäre wie ich schon früher im Thread geschrieben habe wahrscheinlich aufwändiger als einfach normal zu skalieren.

Evtl. kommen diese Gerüchte aber davon, dass es zwei Rasterizer gibt. Dann wären wirklich zwei vollständige Render-Pipelines vorhanden, auch wenn der Workload der Rasterizer (hoffentlich) auf alle ALUs aufgeteilt wird. Kann sehr gut sein.

[immy;7465868']2 chips auf einem DIE erhöhen die ausbeute (also die chance das zumindest einer funktioniert)
Man kann jetzt schon viel fein granulierter einzelne Funktionsblöcke abschalten. Das Argument ist hinfällig.

Ailuros
2009-08-11, 10:26:17
Als ob es einfach magisch funktionieren würde zwei normale IMR zusammenzupappen ohne jegliche Glue-Logic. Diese wäre wie ich schon früher im Thread geschrieben habe wahrscheinlich aufwändiger als einfach normal zu skalieren.

Wie schon erwaehnt das chiphell Geruecht ueber dual core kam ja mit dem Ansatz dass das packaging um einiges mehr kostet. Ob es nun stimmt oder nicht...*schulterzuck*

Evtl. kommen diese Gerüchte aber davon, dass es zwei Rasterizer gibt. Dann wären wirklich zwei vollständige Render-Pipelines vorhanden, auch wenn der Workload der Rasterizer (hoffentlich) auf alle ALUs aufgeteilt wird. Kann sehr gut sein.

Uhmmm ist es nicht genauso umstaendlich zwei rasterizer auf einem chip zu haben wie 2 cores? Ich meine es geht in beiden Faellen wie die jeweiligen Aufgaben verteilt werden. Waere es nicht einfacher die Effizienz im rasterizer versuchen zu verdoppeln?

AnarchX
2009-08-11, 10:34:02
[immy;7465868']
also das mit dem 40TMUs und 800 SP bei einem 128-bit speicherinterface halte ich für spekulation. irgendwer hier im forum hat schonmal gesagt, das 16 TMUs an einem 256 bit speicherinterface schon overkill sind (war glaub ich zur x800). langsam aber sicher müssen sie wohl doch mal das interface verbreitern. es sei denn sie würden doch mal in die richtung von großen und schenllen caches gehen um so ein wenig mehr bandbreite kurzfristig zur verfügung zu haben.
RV830/840 wird aber wohl auch GDDR5 nutzen, was dann wohl 50-65GB/s Speicherbandbreite bedeutet. Nicht übermäßig viel, aber für einen Mainstream-Chip doch mehr als ausreichend.

Dass die 40 TMUs dadurch limitiert werden sollen ist auch weit hergeholt, immerhin spielen wir ja heute keine Spiele mehr mit Single-Texture-Oberflächen und mit reiner bilineare Filterung. ;)

Hugo
2009-08-11, 10:39:30
was für mich komisch klingt und mich skeptisch zum "dualcore" macht, ist das RV870 300mm² groß sein soll und RV840 181mm² (das wäre ja möglich) aber
wenn ich RV870 teile komm ich auf 2 "cores" mit 150mm², dass heißt daraus kann mann keinen RV840 gewinnen, wenn ein "core" defekt sein sollte
Also ist der Ausbeute Vorteil, meiner Meinung nach, nicht vorhanden, gegenüber einem monolitischem singlechip mit 300mm²
einziger Vorteil ist es nur einen kleinen Chip zu designen

für mich klingts logischer den 120mm² chip als "core" für den "dualcore" RV870 zu nutzen. 2x 120mm² = 240mm² und die 60mm² die noch übrig sind werden für zusätzliche Logik verwendet um die Kerne effizient arbeiten zu lasssen

oder die Angaben zur Die-size stimmen nicht ;-)

Hugo
2009-08-11, 10:49:56
http://ht4u.net/news/20753_weitere_details_zu_amds_kommenden_dx-11-grafikchips_-_rv870_mit_1600_shadereinheiten/

HPVD
2009-08-11, 11:16:30
http://ht4u.net/news/20753_weitere_details_zu_amds_kommenden_dx-11-grafikchips_-_rv870_mit_1600_shadereinheiten/

Inhalt:

[Update] 11.08.2009, 08:10
Unser Leser crishan hat uns mittlerweile darauf aufmerksam gemacht, dass unsere Befürchtungen um einen gefälschten Die-Shot berechtigt sind. So stammen die beiden Teile mit den Shadereinheiten (links und rechts auf dem Bild zu finden) vom RV770 und die Bereiche in der Mitte bzw. ganz oben im Bild vom aktuellen Phenom II. Somit dürfte auch der Rest der Meldung von Chiphell auf äußert wackligen Beinen stehen.

AnarchX
2009-08-11, 11:18:27
Wobei man hier anmerken sollte, dass die Spezifikationen durch Chiphell direkt veröffentlicht wurden, während der Die-Shot von einem einfachen User gepostet wurde.

Hugo
2009-08-11, 11:25:55
Inhalt:

[Update] 11.08.2009, 08:10
Unser Leser crishan hat uns mittlerweile darauf aufmerksam gemacht, dass unsere Befürchtungen um einen gefälschten Die-Shot berechtigt sind. So stammen die beiden Teile mit den Shadereinheiten (links und rechts auf dem Bild zu finden) vom RV770 und die Bereiche in der Mitte bzw. ganz oben im Bild vom aktuellen Phenom II. Somit dürfte auch der Rest der Meldung von Chiphell auf äußert wackligen Beinen stehen.


genau das mein ich ja :rolleyes:


Wobei man hier anmerken sollte, dass Spezifikationen durch Chiphell direkt veröffentlicht wurden, während der Die-Shot von einem einfachen User gepostet wurde.

mag sein trotzdem klingen die Chipgrößen unglaubwürdig

S940
2009-08-11, 11:37:05
oder die Angaben zur Die-size stimmen nicht ;-)
Die werden schon stimmen, nur das "dualcore" Gerücht wird falsch sein.
Ich bleib vorerst bei meiner Meinung, das werden einfach nur 2 SIMD Cluster sein, die eben getrennt am Bild per SFR rechnen. Wahrscheinlich hat dann einer das etwas überinterpretiert.
Der eine AMD Mensch meinte im PCGH Interview ja auch, dass der Scheduler um einiges komplexer wurde, das werte ich mal als Hinweis ;-)

Aber noch immer gilt: Man weiss nichts Genaues. :D

ciao

Alex

Hugo
2009-08-11, 11:39:44
kann sein dass das dualcoregerücht nicht stimmt, aber ich seh keinen sinn darin wenn ich trotzdem nicht den halben chip verwenden kann, kann ich auch gleich nen singlecore mit 300mm² entwickeln

w0mbat
2009-08-11, 11:44:35
Wobei man hier anmerken sollte, dass die Spezifikationen durch Chiphell direkt veröffentlicht wurden, während der Die-Shot von einem einfachen User gepostet wurde.

Nein, die Info stammt von HKEPC. Les den letzten Satz:
以上消息都從內地AMD中國內部人士透露

AnarchX
2009-08-11, 11:48:17
Nein, die Info stammt von HKEPC. Les den letzten Satz:
Der Die Shot ist von " geminimay":
http://209.85.129.132/translate_c?hl=de&ie=UTF-8&sl=zh-CN&tl=en&u=http://bbs.chiphell.com/viewthread.php%3Ftid%3D50821%26extra%3Dpage%253D1%26page%3D4&rurl=translate.google.ch&usg=ALkJrhhg_U08TAhsoEvO32m3bdmVGyK0Nw
Und wurde sogar noch vor den letzten Gerüchten gepostet - Die-Shot Seite 4, Gerüchte(300-350mm²) Seite 5.
Wenn das eine HW-Seite einfach via Copy&Paste als News bringt, ist sie imo doch selbst schuld. ;)

@ Dual-Core:
Wenn ihr die finalen Spezifikationen seht, werdet ihr feststellen, dass wir auch andere Teile der Hardware deutlich aufgepumpt haben; unter anderem auch, weil wir jetzt einfach komplexere Chips herstellen können.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7452232#post7452232

S940
2009-08-11, 11:48:49
kann sein dass das dualcoregerücht nicht stimmt, aber ich seh keinen sinn darin wenn ich trotzdem nicht den halben chip verwenden kann, kann ich auch gleich nen singlecore mit 300mm² entwickeln
Naja vielleicht wäre der Schedulaufwand für 1600 SPUs noch größer als für 2x800 & SFR, oder die Aufteilung gibt Vorteile bei GPGPU ... :confused:

Hugo
2009-08-11, 12:08:04
Naja vielleicht wäre der Schedulaufwand für 1600 SPUs noch größer als für 2x800 & SFR, oder die Aufteilung gibt Vorteile bei GPGPU ... :confused:

keine Ahnung ich bin da nich der Experte :rolleyes:

Coda
2009-08-11, 13:05:51
Ich bleib vorerst bei meiner Meinung, das werden einfach nur 2 SIMD Cluster sein, die eben getrennt am Bild per SFR rechnen.
SFR wäre absolut beschissenes Load-Balancing. Und zwei Rechencluster auch.

Wenn dann Tiling mit gemeinsamem Cluster, aber auch das ist eher unwahrscheinlich.

Ich bin derzeit der Meinung dass RV870 eher ein evolutionäres Design wird.

S940
2009-08-11, 14:26:32
SFR wäre absolut beschissenes Load-Balancing. Und zwei Rechencluster auch.

Wenn dann Tiling mit gemeinsamem Cluster, aber auch das ist eher unwahrscheinlich.

Ich bin derzeit der Meinung dass RV870 eher ein evolutionäres Design wird.
Ok, da ich von GPUs nicht wirklich Ahnung habe nehm mal an, dass Du mehr davon verstehst und stimme zu ^^
Also dann überhaupt nichts mit "dual" ;-)
Fragt sich nur, wo dann die Gerüchte herkamen ... am Ende waren es nur die 1600er Shader ...

ciao

Alex

Ailuros
2009-08-11, 19:00:23
SFR wäre absolut beschissenes Load-Balancing. Und zwei Rechencluster auch.

Wenn dann Tiling mit gemeinsamem Cluster, aber auch das ist eher unwahrscheinlich.

Ich bin derzeit der Meinung dass RV870 eher ein evolutionäres Design wird.

Als evolutionaer wurde es bis jetzt stets beschrieben hinter den Kulissen; selbst wenn das dual-core stimmen sollte wuerde ich das Ding immer noch nicht als "revolutionaer" ansehen.

S940
2009-08-11, 22:28:30
Als evolutionaer wurde es bis jetzt stets beschrieben hinter den Kulissen; selbst wenn das dual-core stimmen sollte wuerde ich das Ding immer noch nicht als "revolutionaer" ansehen.
Revolution wirds wohl kaum noch geben ... der VLIW Kern wird mit dem Bulldozer Kern gekreuzt und taugt dann nicht nur als GPU, sondern auch auf x86 Vector CoProzessor mit Datenaustausch über die Register. Die 5er Stream Processor Units bleiben deshalb sicherlich auf Dauer erhalten.

ciao

Alex

Coda
2009-08-11, 22:31:38
Eher unwahrscheinlich. GPU-Recheneinheiten haben sehr große Latenzen und dafür sehr hohen Durchsatz. Das passt nicht in ein CPU-Design.

AnarchX
2009-08-11, 22:51:06
QuakeCon Newsletter von AMD:
AMD will be showcasing some cool technology—access to see "The Future" will be limited.
http://amd-member.com/Newsletters/AMDGame/Wolfenstein09.html

S940
2009-08-11, 23:05:22
Eher unwahrscheinlich. GPU-Recheneinheiten haben sehr große Latenzen und dafür sehr hohen Durchsatz. Das passt nicht in ein CPU-Design.
Dann schau Dir mal das US Patent US20090160863 an ...
http://www.freepatentsonline.com/20090160863.pdf

S940
2009-08-11, 23:12:45
QuakeCon Newsletter von AMD
Na doll ... "Runs great on i7", macht AMD jetzt schon Werbung für Intel :freak:

w0mbat
2009-08-11, 23:40:55
Wo steht dass denn?

S940
2009-08-12, 00:05:19
Wo steht dass denn?
Auf der Wolfenstein Seite .. auf der AMD Seite steht natürlich nur was von ATi ;-)
Finde es aber trotzdem lustig ^^

Coda
2009-08-12, 00:21:59
Dann schau Dir mal das US Patent US20090160863 an ...
http://www.freepatentsonline.com/20090160863.pdf
Da steht auch nichts drin was daran etwas ändern würde.

S940
2009-08-12, 00:25:47
Da steht auch nichts drin was daran etwas ändern würde.
Äh ... bitte genauer ... AMD plant laut den Patent eine CPU+GPU Kombination auf unterster Ebene. So schwerwiegend können die von Dir genannten Punkte also nicht sein.

Coda
2009-08-12, 07:54:46
Da steht etwas von "Instructions for Graphics", nicht von GPUs. Das ganze klingt eher nach alternativen Auführungsmodi ala ARM.

Und nur weil jemand ein Patent anmeldet heißt das noch lange nicht, dass da etwas geplant ist. Das kann reine Hirnspinnerei sein.

Imho lassen sich GPU-ALUs nicht sinnvoll in ein CPU-Design integrieren. Aus vielerlei Gründen. Es läuft eher auf etwas wie Cell hinaus mit der GPU als Coprozessor.

S940
2009-08-12, 08:45:40
Da steht etwas von "Instructions for Graphics", nicht von GPUs. Lach, und wo meinst Du, sollen die Instruktionen dann ausgeführt werden ? In einer Integer ALU ;-)
Im Ernst, schau mal nicht nur die Bilder an, sondern les auch die Abkürzungeserklärungen. Da gibts neben den "normalen Integer/FP ALUs, die "EU" (Execution Units) genannt werden, auch eine "GEU" (Graphics Execution Unit), wenn damit keine VLIW Cores gemeint sind, was sonst ...

Und nur weil jemand ein Patent anmeldet heißt das noch lange nicht, dass da etwas geplant ist. Das kann reine Hirnspinnerei sein.
Jo, das oder Deine Annahme ist falsch ;)
Wer recht hat sieht man dann in ein paar Jahren .. oder nicht :D
Imho lassen sich GPU-ALUs nicht sinnvoll in ein CPU-Design integrieren. Aus vielerlei Gründen. Es läuft eher auf etwas wie Cell hinaus mit der GPU als Coprozessor.
Jo sowas wie Cell + 08/15 GPU Funktionen für onboard Sachen. Eventuell haben wir uns falsch verstanden, ich rede hier nicht von einer high-end GPU/Grafikkarte, da fehlt natürlich die Speicherbandbreite ...

ciao

Alex

S940
2009-08-12, 09:46:29
Mal wieder was zum Thema, angeblich gibts eine sechste Evergreen Karte, (Karten) Codenamen "Trillian":

http://www.semiaccurate.com/2009/08/11/evergreen-has-six-members/

ciao

Alex

Ailuros
2009-08-12, 10:28:47
Revolution wirds wohl kaum noch geben ... der VLIW Kern wird mit dem Bulldozer Kern gekreuzt und taugt dann nicht nur als GPU, sondern auch auf x86 Vector CoProzessor mit Datenaustausch über die Register. Die 5er Stream Processor Units bleiben deshalb sicherlich auf Dauer erhalten.

ciao

Alex

Schlecht fuer's pedigree LOL :freak: Es wurde Dir ja schon ausreichend beantwortet. Fusion = SoC.


Jo sowas wie Cell + 08/15 GPU Funktionen für onboard Sachen. Eventuell haben wir uns falsch verstanden, ich rede hier nicht von einer high-end GPU/Grafikkarte, da fehlt natürlich die Speicherbandbreite ...

ciao

Alex

Es gibt heute im eingebetteten Markt multimedia only gp Prozessoren, nur sind diese ausserhalb den einfachen multimedia Funktionen so schneckenlahm gegen irgend eine andere eingebettete GPU dass es nicht mehr schoen ist.

Gast
2009-08-12, 20:17:06
Nur noch 3 bis 4 Graka-Hersteller welche die HD4870 X2 liefern,- auch die Sapphire Online-Haendler fallen jeden Tag.
Nur beim Preis geht es einfach nicht runter,- und dies obwohl nur mehr ein Monat bis zur HD5870 hin ist.
Horrorpreise bis knapp 400 Euro werden wohl Ladenhueter bleiben wenn mal die HD5870 da ist,- da waere es besser diese schnell unters Volk zu bringen

deLuxX`
2009-08-12, 22:27:47
Horrorpreise bis knapp 400 Euro werden wohl Ladenhueter bleiben wenn mal die HD5870 da ist,- da waere es besser diese schnell unters Volk zu bringen

Wenn es die schnellste Singlechip Grafikkarte zu dem Zeitpunkt ist, wäre der Preis angemessen und sie wäre fern von einem "Ladenhüter".

w0mbat
2009-08-12, 22:30:49
Er redet von der HD4870 X2.

deLuxX`
2009-08-12, 22:44:49
Das erklärt das ganze natürlich.;)

Raff
2009-08-12, 22:48:22
Nur noch 3 bis 4 Graka-Hersteller welche die HD4870 X2 liefern,- auch die Sapphire Online-Haendler fallen jeden Tag.
Nur beim Preis geht es einfach nicht runter,- und dies obwohl nur mehr ein Monat bis zur HD5870 hin ist.
Horrorpreise bis knapp 400 Euro werden wohl Ladenhueter bleiben wenn mal die HD5870 da ist,- da waere es besser diese schnell unters Volk zu bringen

Die gewiss nicht günstig zu fertigende HD 4870 X2 wird obsolet, sobald die nächste Generation da ist. Bis dahin ist AMD von unten bis oben (300 €uro) gut aufgestellt. Was die HD 4870 X2 nicht reißen kann, soll HD-4890-Crossfire richten. Zwei dieser Karten bieten jetzt schon das bessere Preis-Leistungs-Verhältnis. Dabei ist beides Mikroruckel-Grütze – eine Solo-4890 mit ordentlich OC ist die deutlich bessere Wahl ... und gefühlt kaum langsamer. Aber das wird gerne ignoriert, denn 2 ist eben mehr als 1.

MfG,
Raff

Gast
2009-08-13, 03:38:59
Aber das wird gerne ignoriert, denn 2 ist eben mehr als 1.


Wenn man nicht vorgefertigte Settings verwendet, sondern diese richtig anpasst dann ist das immer der Fall.

S940
2009-08-13, 08:55:52
Es gibt heute im eingebetteten Markt multimedia only gp Prozessoren, nur sind diese ausserhalb den einfachen multimedia Funktionen so schneckenlahm gegen irgend eine andere eingebettete GPU dass es nicht mehr schoen ist.
Hmmm... und ? Langsamer als ein heutiger K10 + Chipsatzgafik wird so ein Fusion sicherlich nicht werden. Als Vorteil bleibt die Möglichkeit die SPUs als Vector CoProzessor zu benützen. Allerdings wird das bei der 1. Generation sicherlich auch noch per OpenCL Umweg gehen. Der Unterschied wird also erst einmal nicht großartig sein.

ciao

Alex

AnarchX
2009-08-13, 08:56:57
384-Bit RV8xx und ein Pre-Launch-Event am 10. September in Tapei:
http://bbs.pczilla.net/thread-3616-1-1.html
http://bbs.pczilla.net/thread-3685-1-1.html

Henroldus
2009-08-13, 09:28:26
384-Bit???
das ist jetzt aber neu, ansich aber auch schlüssig. von 256 auf 512Bit SI-Breite wäre wohl mit Kanonen auf Spatzen geschossen, zumindest bei ATI.
etwas schnellerer GDDR5 Speicher sollte hier den Rest erledigen.
Spart insgesamt natürlich auch den Aufwand beim Platinendesign und hält die Kosten unten.
Abwarten.

X.Perry_Mental
2009-08-13, 09:29:38
bitte löschen...

w0mbat
2009-08-13, 09:45:58
War abzusehen.

S940
2009-08-13, 09:47:13
384-Bit RV8xx und ein Pre-Launch-Event am 10. September in Tapei:
http://bbs.pczilla.net/thread-3616-1-1.html
http://bbs.pczilla.net/thread-3685-1-1.html
Kannst Du dort den hidden content lesen ?

Ansonsten steht da ja nicht viel...

ciao

Alex

AnarchX
2009-08-13, 09:50:37
Kannst Du dort den hidden content lesen ?

http://forum.beyond3d.com/showpost.php?p=1320814&postcount=1519

S940
2009-08-13, 09:59:10
http://forum.beyond3d.com/showpost.php?p=1320814&postcount=1519
1518 passt besser:
http://forum.beyond3d.com/showpost.php?p=1320809&postcount=1518

Wie auch immer ... der Kollege dort hat wohl Zugriff, na glauben wir Ihm mal ;-)

ciao

Alex

AnarchX
2009-08-13, 10:01:34
Sofern, denn diese Quelle korrekt ist.

Aber bei bis zu 350mm² und wohl ~2 Mrd. Transitoren wäre ein 384-Bit SI doch schon angebracht.

Leonidas @ Firefox
2009-08-13, 10:13:53
http://forum.beyond3d.com/showpost.php?p=1320814&postcount=1519

According to the plan of TSMC, TSMC will massively produce 32/28nm chips in the first quarter of 2010.

source: http://bbs.pczilla.net/thread-3687-1-1.html

It seems we should wait until next year for DX11 graphics cards.



Ich hab die Leute gefressen, die nicht zwischen LP- und HP-Produktion unterscheiden können. TSMC soll im Q1/10 ernsthafte Grafikchips in 32/28nm herstellen, wenn Intel zu diesem Zeitpunkt gerade einmal erste CPUs in 32nm bringt und Intel bei der Fertigungstechnologie die letzten 10 Jahre *immer* einen Vorsprung von einem halben bis zu einem ganzen Jahr vor AMD/GF, TSMC & Co. hatte?!

Ailuros
2009-08-13, 10:18:28
Hmmm... und ? Langsamer als ein heutiger K10 + Chipsatzgafik wird so ein Fusion sicherlich nicht werden. Als Vorteil bleibt die Möglichkeit die SPUs als Vector CoProzessor zu benützen. Allerdings wird das bei der 1. Generation sicherlich auch noch per OpenCL Umweg gehen. Der Unterschied wird also erst einmal nicht großartig sein.

ciao

Alex

Afaik ist Fusion ein SoC = System on chip oder anders in dem Ding wird es eine CPU und eine GPU geben und kein Aldi-Allzweck-Mixer. Besser so?

Ailuros
2009-08-13, 10:20:50
Sofern, denn diese Quelle korrekt ist.

Aber bei bis zu 350mm² und wohl ~2 Mrd. Transitoren wäre ein 384-Bit SI doch schon angebracht.

Tja nur muss mir dann reunion erklaeren warum die erstmal angebliche 140GB/sec fuer eine "RV870" selbst theoretische ausgereicht haetten :P

S940
2009-08-13, 10:57:30
Afaik ist Fusion ein SoC = System on chip oder anders in dem Ding wird es eine CPU und eine GPU geben und kein Aldi-Allzweck-Mixer. Besser so?
Das was Du mit SoC meinst ist das, was ich mit Generation 1 meinte. Im der Patentschrift zu sehen in Fig.4:

Ein CPU Block(EU) hüben, ein GPU Block(GEU) drüben, Kopplung per XBAR:
http://img4.abload.de/img/fig59lt6.png


Das Aldi Allzweckmesser gibts aber auch:
http://img4.abload.de/img/fig4ea2j.png

Ob das ganze jetzt "Hirnspinnerei" ist, oder mal real erhältlich sein wird ... weiss nur AMD allein ;-)

ciao

Alex

Ailuros
2009-08-13, 12:11:32
Es ist keine Hirnspinnerei; man passt lediglich verschiedene SoCs an verschiedene Maerkte an.

Ein SoC mit einem GPU Block ist eben fuer u.a. auch maessiges 3D brauchbar und ein SoC mit einem multimedia GP prozessor (!= GPU) eben nur fuer multimedia only Quark.

Wie schon gesagt es ist nichts Neues; den Schnickschnack gibt es schon heute wie z.B. Creative's Zii Dingsbums (aus dem Hause 3DLabs). Ein multimedia Prozessor mit SIMD clusters die miteinander als MIMD verbunden sind. Eine GPU oder eventuell "GPU-artig" wuerde ich das Ding aber nicht nennen; im besten Fall general purpose processor.

http://www.ziilabs.com/products/ziilabs_zms05_datasheet_28JAN09.pdf

V2.0
2009-08-13, 12:21:41
Wenn 384Bit stimmt, dann hat ATI sich also entscheiden die Bandbreite zu verringern. Denn wenn es praktishc ein doppelter RV770, dann wurde die Speicheranbing von 256 auf 192 Bit reduziert.

Ailuros
2009-08-13, 12:26:26
Wenn 384Bit stimmt, dann hat ATI sich also entscheiden die Bandbreite zu verringern. Denn wenn es praktishc ein doppelter RV770, dann wurde die Speicheranbing von 256 auf 192 Bit reduziert.

Werden wir uns erstmal einig dass "RV870" wohl nicht unter 160GB/s Bandbreite haben wird, damit wir erstmal einen Ausgangspunkt haben ;)

V2.0
2009-08-13, 12:55:55
Einig.

LovesuckZ
2009-08-13, 12:56:34
Aber bei bis zu 350mm² und wohl ~2 Mrd. Transitoren wäre ein 384-Bit SI doch schon angebracht.

Na hoffentlich nicht als Single-GPU. Damit hätte man nach G80, r600 und GT200 den viertgrößten Chip. Klingt nicht nach einer Mainstreamlösung.

AnarchX
2009-08-13, 13:00:33
Bei Chiphell meinte man ja: RV870-SKUs $249-399.

Nakai
2009-08-13, 13:07:44
RV870 hat 384Bit-SI. R800 könnte 2*256Bit-SI haben, vorallem wie will man 24 Bausteine um ein spekuliertes MCM herumbringen?


Bei Chiphell meinte man ja: RV870-SKUs $249-399.


Mhh, wenn man früher als NV auf dem Markt ist, dann ist der Preis realistisch.


mfg Nakai

Ailuros
2009-08-13, 13:10:24
Bei Chiphell meinte man ja: RV870-SKUs $249-399.

Bei chiphell haben auch manche einen Vogel; warum nicht gleich $100-550 damit man auch gleich alle Moeglichkeiten abdeckt?

Lovesuck,

RV870 ist keine mainstream sonder Performance GPU. Unter 350mm2 wird auch NV's Performance Loesung nicht sein.

xiao didi *
2009-08-13, 13:18:23
Weiß man schon etwas über Atis AF-Strategie bei der neuen Generation? Wird es bei den leider nur begrenzten Auswahlmöglichkeiten bleiben?

w0mbat
2009-08-13, 13:23:15
Laut diversen Gerüchten soll an der AF Qualität gearbeitet worden sein, ob es aber mehr Einstellungen gibt weiß noch niemand.

Edit/
Cat out of Le Bag.. Juniper XT scores ~P9500
http://forum.beyond3d.com/showpost.php?p=1320899&postcount=1533

crux2005
2009-08-13, 13:30:39
und welche GPU ist jetzt Jupiter? "RV840"?

AnarchX
2009-08-13, 13:33:28
Diese P9500 (also zwischen 4850 und 4870) würden durchaus zu dem 18xmm² Die passen, welchen man 800SPs und 128-Bit GDDR5 nachsagt.

Nakai
2009-08-13, 13:34:50
Diese P9500 (also zwischen 4850 und 4870) würden durchaus zu dem 18xmm² Die passen, welchen man 800SPs und 128-Bit GDDR5 nachsagt.

Dann haben wir keine besonderen Effizienzsteigerungen...schade eigentlich


mfg Nakai

crux2005
2009-08-13, 13:35:47
Die bringen erst die neuen Treiber. ;D

AnarchX
2009-08-13, 13:39:39
Dann haben wir keine besonderen Effizienzsteigerungen...schade eigentlich

Naja, das Performance Preset nutzt ja weder AA noch AF.

Ailuros
2009-08-13, 13:39:42
Dann haben wir keine besonderen Effizienzsteigerungen...schade eigentlich


mfg Nakai

3dmark Vantage? *gaehn*

Nakai
2009-08-13, 13:44:08
3dmark Vantage? *gaehn*

Ja und? Ich glaube kaum, dass der RV8xx so unähnlich mit der RV7xx-Architektur ist. IMO spicht der Wert eher gegen eine deutliche Performancesteigerung durch Architekturänderungen. Aber solange die Karte nicht released wurde kann man nichts sagen.

Naja, das Performance Preset nutzt ja weder AA noch AF.

Auch wieder wahr.


mfg Nakai

Gast
2009-08-13, 13:46:18
Nun, der 10-19 September ist ja nun so gut wie sicher, ebenso ein Hardlauch mit mindestens doch zufriedenstellender Verfügbarkeit gleich zu Beginn beim Lauchtermin.
Immer mehr Infos sickern durch, kann also nimmer all zu lange dauern.

Vielleicht ist an den Problemen bei NV doch mehr dran als man glauben will, und die RV740 GPU wurde komplett zurückgesteckt für die RV8x0 Familie.:cool::eek:

Wenn es ein Hardlaunch wird, müssen doch schon Wochen vor dem Launch erste Tests im Internet auftauchen, oder nicht? Ich freue mich schon drauf. :D

derguru
2009-08-13, 13:48:49
384 bit,dann gibts wohl demnächst 1,5gb karten:biggrin:
ja,ja die speicherbandbreite reicht bei 256bit,nicht war.:rolleyes:
beim standard ram also 1 ghz sind es somit 192GB/s,das sollte reichen.(später oc karten mit 1,25ghz)
prelaunch im september und dann im oktober passend zum launch von win7 der hardlaunch.

Ailuros
2009-08-13, 13:52:06
Ja und? Ich glaube kaum, dass der RV8xx so unähnlich mit der RV7xx-Architektur ist. IMO spicht der Wert eher gegen eine deutliche Performancesteigerung durch Architekturänderungen. Aber solange die Karte nicht released wurde kann man nichts sagen.

Ich muesste mehr als vier Augen zudruecken um Vantage selbst als logische "Vorhersage" fuer D3D10 Spiele anzusehen. Wie dem auch sei muessen wir wirklich diese alberne Debatte ueber die falschen Interpretation von synthetischen Benchmarks durch den Dreck ziehen?

w0mbat
2009-08-13, 14:01:41
Dann haben wir keine besonderen Effizienzsteigerungen...schade eigentlich


mfg Nakai

1. Ist Vantage, vor allem der P-Bench, kein guter Performance-Indikator.

2. Wissen wir nicht wie hoch die Karte taktet. Der Takt könnte ja auch niedriger als der der HD4850 sein.

3. Wie schon gesagt, die doppelt so schnellen Treiber kommen noch :tongue:

igg
2009-08-13, 14:14:44
Interessanter als die Frage ob Vantage ein zuverlässiger Leistungsindidikator ist, wäre mal zu prüfen, ob die dort festgestellten Werte die durchschnittliche Spieleperformance wiederspiegeln.

Der Wert als solches sagt ohne Takt eigentlich nichts aus, könnte aber darauf hinweisen, dass DX11 für ATI nicht umsonst war.

w0mbat
2009-08-13, 14:36:50
Zu den Performance Spekus:

Uhm.. who said it is as much as 800SP's for JXT?
http://forum.beyond3d.com/showpost.php?p=1320924&postcount=1539

S940
2009-08-13, 14:37:54
Der Wert als solches sagt ohne Takt eigentlich nichts aus, könnte aber darauf hinweisen, dass DX11 für ATI nicht umsonst war.
Solange das nur der Mainstreampart ist ... ok. Die 4670 war Anno dazumal auch nicht schneller als ne 3870 ...

ciao

Alex

AnarchX
2009-08-13, 14:51:37
Zu den Performance Spekus:

Wenn man von RV740 ausgeht und annimmt, dass AMD nicht die Transitordichte von diesem bei den D3D11-Chips einhalten kann, wären auch für den 18xmm² Chip wohl 640SPs+D3D11 denkbar.

Aber für ~P9500 sollte dann der Takt doch um einiges über der HD4770 liegen.

w0mbat
2009-08-13, 14:57:33
Oder man hat anderweitig verbessert.

LovesuckZ
2009-08-13, 15:01:31
Vantage sagt nichts aus - hier liegt eine GTX280 auch fast mit 2x vor einer 9800GTX.

AnarchX
2009-08-13, 18:19:36
Die Review-Samples sind wohl schon an die Redaktionen ausgeliefert(bingo13 = Gary Key von Anandtech):
http://www.xtremesystems.org/forums/showpost.php?p=3957884&postcount=29

Da dürfte es wohl bis zu einem brauchbaren Leak nicht mehr lange dauern.

Mal sehen was AMD noch auf den QuakeCon präsentieren will:
Setting up #area64 at #quakecon - The Future is almost ready, who wants to see it? #amd
http://twitter.com/ianmcnaughton

Nightspider
2009-08-13, 18:57:48
Dann haben die teuren R870 Karten wohl 1,5 GB GDDR5 VRAM und die billigeren Versionen 768 MB VRAM.

derguru
2009-08-13, 19:41:02
welche billigen versionen?
die 5870 wird 1,5gb haben und die x2 auch.

Nightspider
2009-08-13, 19:46:21
welche billigen versionen?
die 5870 wird 1,5gb haben und die x2 auch.

Na wenn angeblich 5-6 vers. Karten erscheinen werden.

Vielleicht eine HD5850 mit halbem VRAM.

derguru
2009-08-13, 19:48:27
eine 5850 wird bestimmt ein 256bit haben oder weniger und kein 384bit.:rolleyes:

CrazyIvan
2009-08-13, 19:50:40
Solche Aussagen kann man sich derzeit sparen, da absolut gar nichts sicher ist. Die 384bit kommen von einer einzigen Quelle und sind - wenn auch alles in allem schlüssig klingend - von keiner anderen Quelle bestätigt.

Tarkin
2009-08-14, 09:20:27
jetzt wirds interessant...

http://www.nordichardware.com/news,9783.html

Wird wohl einiges "leaken" in den kommenden Stunden =)

HPVD
2009-08-14, 09:29:53
jetzt wirds interessant...

http://www.nordichardware.com/news,9783.html

Wird wohl einiges "leaken" in den kommenden Stunden =)

na dass klingt doch nach info fortschritt ;D

was in der Meldung auffällt:

"...Numbers are pointing to something like 384-bit and GDDR5 with the high-end X2 part, 192-bit and GDDR5 with the performance part..."

384-bit nur für die X2 ??

Gruß HPVD

derguru
2009-08-14, 09:42:15
die 5870 und x2 werden sicherlich 384 bit haben,5850 dann 192 bit usw.
Solche Aussagen kann man sich derzeit sparen, da absolut gar nichts sicher ist. Die 384bit kommen von einer einzigen Quelle und sind - wenn auch alles in allem schlüssig klingend - von keiner anderen Quelle bestätigt.

ach wer soll denn die quellen bestätigen,AMD oder was?einer kommt mit der quelle und alle anderen schreiben es ab und tun dabei so als ob sie die ersten waren.

Gast
2009-08-14, 11:46:25
Nun, wird wohl nicht mehr all zu lange dauern, vielleicht sickert ja zu Mittag was durch, Benchmarks zu 3D Mark 06, oder was in der Richtung.
Oder gar einige bestaetigte GPU RV870-er Infos.

Nakai
2009-08-14, 11:53:35
2x192Bit wäre zu wenig für die HD5870, für die X2 wäre das sogar möglich.
Mindestens 256Bit für die HD5870, für die HD5870X2 könnte es vorerst anders aussehen.

Wenn das 180mm²-Ding 640 SPs haben wird, was hat dann der Performancechip um die 300mm²?;)
Ich gehe mal von mindestens 1600SPs aus.

Nun, wird wohl nicht mehr all zu lange dauern, vielleicht sickert ja zu Mittag was durch, Benchmarks zu 3D Mark 06, oder was in der Richtung.
Oder gar einige bestaetigte GPU RV870-er Infos.

Anzahl der SPs, Takt und 3DMark(Extreme?) oder was andres würd mir reichen, damit wir einen Unterschied zur alten Gen sehen können.


mfg Nakai

robbitop
2009-08-14, 11:56:29
Wenn RV870 wirklich > 250 mm^2 hat, wird das Ding auch > 192 bit SI haben. Sonst verpufft ja die ganze Rohleistung. Wenn es wirklich ein >=300 mm^2 Chip ist, würde ich wirklich auf ein 384 Bit SI tippen.

Ailuros
2009-08-14, 14:36:14
Wieso seid Ihr Euch alle so sicher dass es tatsaechlich 1600SPs sind?

S940
2009-08-14, 14:39:01
Wieso seid Ihr Euch alle so sicher dass es tatsaechlich 1600SPs sind?
Weils gut klingt ... genauso wie die 384bit ... wissen tut man aber in beiden Fälle genausowenig: Irgendwo gabs mal nen Hauch eines Hinweises in nem chin. Forum ...

ciao

Alex

Botcruscher
2009-08-14, 14:39:34
Einen doppelten RV740(als Grundlage) kann ich mir zumindest nicht so einfach vorstellen. Und irgendwo muss die Leistung ja herkommen. Weniger als die 1600 wären schon etwas enttäuschend und an Taktdomänen glaube ich jetzt nicht unbedingt.

PS: Und mehr sind aufgrund der spekulierten die-größe unwahrscheinlich. Wobei es naürlich auch mehr sein dürfen...

Ailuros
2009-08-14, 14:48:31
Weils gut klingt ... genauso wie die 384bit ... wissen tut man aber in beiden Fälle genausowenig: Irgendwo gabs mal nen Hauch eines Hinweises in nem chin. Forum ...

ciao

Alex

Ich will persoenlich nicht bei AMD's Affen-zirkus mitmachen. Dass mit Absicht so grosse Verwirrung gestiftet wird sollte wohl klar sein.

S940
2009-08-14, 14:50:20
bitte löschen :)

S940
2009-08-14, 14:50:46
Ich will persoenlich nicht bei AMD's Affen-zirkus mitmachen. Dass mit Absicht so grosse Verwirrung gestiftet wird sollte wohl klar sein.
Dann solltest Du hier nicht posten :D
Dass das alles höchstspekulativ ist, ist wohl jedem klar (hoff ich ^^).

Botcruscher
2009-08-14, 14:52:49
Ein doppel nicht post.:freak:

"Was zählt ist aufm Platz." Also, wo bleiben die Leaks.

Nakai
2009-08-14, 15:08:49
Wieso seid Ihr Euch alle so sicher dass es tatsaechlich 1600SPs sind?

Mhh, wenn du es so ausdrückst, kann man entweder darauf schließen, dass es entweder mehr oder weniger sind, oder dass evtl gar anders gezählt wird und dass die Zeit des "klassischen" SP-Zählens vorrüber ist.;)

Also wenn du schon von "tatsächlich" sprichst, dann könnte man das falsch interpretieren.;D



mfg Nakai

igg
2009-08-14, 15:11:02
oder dass evtl gar anders gezählt wird und dass die Zeit des SP-Zählens vorrüber ist
War das nicht beim RV770 auch schon so?

Ailuros
2009-08-14, 15:17:20
"RV870" ist die revolutionaerste GPU ueberhaupt da sie zu 100% elastisch ist:

1200-1600SPs
260-360mm2
192-384bit Bus
140-240GB/s
$249-$399

....besser geht's wohl gar nicht....

Mhh, wenn du es so ausdrückst, kann man entweder darauf schließen, dass es entweder mehr oder weniger sind, oder dass evtl gar anders gezählt wird und dass die Zeit des "klassischen" SP-Zählens vorrüber ist.

Also wenn du schon von "tatsächlich" sprichst, dann könnte man das falsch interpretieren.

Der chip und PCB besteht aus 100% Elastan (tm) :D

derguru
2009-08-14, 15:19:10
Ich will persoenlich nicht bei AMD's Affen-zirkus mitmachen. Dass mit Absicht so grosse Verwirrung gestiftet wird sollte wohl klar sein.
naja eigentlich haste recht aber hier ist man halt im spekulatiusfred.
beim rv770 hat sich doch die 480s gerücht fast bis zum release gehalten gehabt.:biggrin:

ich sag nur;D
Exklusiv: Finale RV770-Spezifikationen enthüllt
(http://www.hardware-infos.com/news.php?news=2075)

Nakai
2009-08-14, 15:27:05
"RV870" ist die revolutionaerste GPU ueberhaupt da sie zu 100% elastisch ist:

1200-1600SPs
260-360mm2
192-384bit Bus
140-240GB/s
$249-$399

....besser geht's wohl gar nicht....

Das kauf ich dir etz einfachmal ab.;D

Der chip und PCB besteht aus 100% Elastan (tm)

:freak:

Ich hoffe es sickern mal ein paar Infos von der QuakeCon durch.


mfg Nakai

Ailuros
2009-08-14, 15:37:44
Nur die Anzahl der ROPs passt mir noch nicht; sonst duerfte das Puzzle in Zwischenzeit ziemlich klar sein ;)

Nakai
2009-08-14, 16:12:43
RV770 hatte 4 ROPs pro 64Bit-SI. Wenn man das beibehält, dann ergeben sich 24 ROPs für 384Bit.
Aber ich spekuliere mal, dass man die Anzahl der ROPs unabhängig vom SI macht. Würde das Vorteile bei MGPU bringen? Dann wären 32 ROPs relativ passend.


mfg Nakai

Gast
2009-08-14, 16:45:25
Die ROPs sind shcon seit jeher unabhängig vom SI.

Ailuros
2009-08-14, 17:12:07
Die ROPs sind shcon seit jeher unabhängig vom SI.

Ein Keks fuer unseren Gast; hab ich glatt vergessen. Merci bien ;)

nagus
2009-08-14, 19:37:12
http://farm3.static.flickr.com/2631/3816255777_6cd0898941_o.jpg

:)

Gast
2009-08-14, 19:52:58
"you won't believe your eyes" = tolle d3d11-effekte? tesalator done right?

w0mbat
2009-08-14, 19:53:18
Ach wirklich, 10. September, damit hätte niemand gerechnet ;)

Raff
2009-08-14, 20:33:35
"you won't believe your eyes" = tolle d3d11-effekte? tesalator done right?

Flimmerfreies AF?

Ach ... nee, die Hoffnung habe ich schon aufgegeben. :naughty:

MfG,
Raff

w0mbat
2009-08-14, 20:39:59
BTW: Pre-Briefing am 3. September ;)

mapel110
2009-08-14, 21:10:25
Flimmerfreies AF?

Ach ... nee, die Hoffnung habe ich schon aufgegeben. :naughty:

MfG,
Raff
Im PCGH-Interview meinte aber doch einer von ATI, dass beide IHVs beim AF noch großen Spielraum hätten und sich daran auch was ändern werde bei ATI.

Tarkin
2009-08-14, 22:21:00
BTW: Pre-Briefing am 3. September ;)

Wie jetzt? Pre-Briefing am 03.09, Presse am 10.09 und Launch am 17.09?

oder meinst du mit "Pre" das Presse Briefing und der Launch geht schon am 10.09 über die Bühne?

:confused:

AnarchX
2009-08-14, 22:33:12
Bei Chiphell nennt man den 16.09. als Launch, jedoch nur eine Papierversion. Die HW soll erst im Oktober verfügbar sein.

Gast
2009-08-14, 23:42:13
Bei Chiphell nennt man den 16.09. als Launch, jedoch nur eine Papierversion. Die HW soll erst im Oktober verfügbar sein.

Dann schätz ich mal wird Nvidia im Oktober auch nen Paperlaunch und Benchmarks zeigen und versuchen die Leute vom Kauf abzuhalten. ;)

LovesuckZ
2009-08-14, 23:48:24
AMD wird bestimmt keinen Paperlaunch bringen - das wäre viel zu lächerlich, nachdem man so schön durch die Gegend spoilert.

w0mbat
2009-08-14, 23:51:27
Anfang Oktober ist nicht lächerlich, sonder immer noch vor Nvidia, also sehr gut für AMD.

LovesuckZ
2009-08-14, 23:55:42
2-4 Wochen den Markt ohne Karten zu belassen ist in Anbetracht des eigenen Hypes lächerlich. nVidia kann dann sehr leicht auf ihrer GPU Technology Conference ebenfalls mit einem Paperlaunch kontern.
Paperlaunch sind schlecht und sollten wieder kritisiert werden.

/edit: Und wieso sollten sie einen Paperlaunch bringen, wenn sie doch angeblich zeitlich so im Vorteil wären? Entweder sie wissen, dass nVidia auf "ihrer" Messe etwas präsentieren und wollen einfach früher dran sein oder sie machen keinen Paper/Soft-Launch.

Ailuros
2009-08-15, 07:03:05
2-4 Wochen den Markt ohne Karten zu belassen ist in Anbetracht des eigenen Hypes lächerlich. nVidia kann dann sehr leicht auf ihrer GPU Technology Conference ebenfalls mit einem Paperlaunch kontern.
Paperlaunch sind schlecht und sollten wieder kritisiert werden.

/edit: Und wieso sollten sie einen Paperlaunch bringen, wenn sie doch angeblich zeitlich so im Vorteil wären? Entweder sie wissen, dass nVidia auf "ihrer" Messe etwas präsentieren und wollen einfach früher dran sein oder sie machen keinen Paper/Soft-Launch.

Das letzte auf dass ich jetzt Lust habe ist wieder eine endlose Debatte ueber die Definition eines "Paperlaunch" zu lesen. Es gibt diverse fertige SKUs und mehrere Evergreen SKUs liegen momentan in Massenproduktion.

Ihre pre oder pre-pre-briefings haben eher Intel als alles andere im Auge.

Gast
2009-08-15, 08:37:07
Gabs eigentlich schon Infos darüber wie NV den 10.9. von ATI zu kontern gedenkt?

Gast
2009-08-15, 08:49:25
Gabs eigentlich schon Infos darüber wie NV den 10.9. von ATI zu kontern gedenkt?

Dass weiß wahrscheinlich nicht einmal NV selber so genau. :D

AnarchX
2009-08-15, 09:11:46
AMD demos DX11 hardware at QuakeCon 2009
Inside this system is the Evergreen GPU reference card - though we weren't allowed to open up the case to actually SEE the card. I did take a peek at the back though and it was a dual-slot cooled card with a pair of DisplayPort outputs and a single DVI output. The rest of the system was basic AMD-system components on Windows 7 OS.
http://www.pcper.com/comments.php?nid=7640

Hört sich doch etwas nach der Chiphell-Karte an, wo auch nur ein DVI-Ausgang sichtbar ist.

Gast
2009-08-15, 09:27:55
sowas wie Paperlaunch gibts garnicht,Launch is Launch

horn 12
2009-08-15, 09:34:22
Wird KEINEN Paperlaunch geben MEINER Meinung nach, da wird man sich sicher nicht blamieren wollen, falls Ihnen Nvidia noch zuvor kommen sollte mit eventuell einzelnen Vorzeige-Karten Ende September/ Anfang Oktober womöglich.
Werden sicherlich um den 10 September auch liefern können, wieviel Karten und zu welchem Preis ist halt ungewiss!
Aber werden sicherlich nicht klein beigeben und nur mal die Karten vorstellen denn DX11 ist AMD-ATI sicherlich zu wichtig,- schon aus Prestigefrage direkt Karten liefern zu können.

Gast
2009-08-15, 10:05:38
Dass weiß wahrscheinlich nicht einmal NV selber so genau. :D
Naja, die werden es schon wissen was sie tun... wenn sie bereits lauffähige Karten haben können sie Testmuster an sehr wenige Seiten (=> Überraschung) verschicken, Pressemitteilung/Announcements versenden, ...

Ailuros
2009-08-15, 10:20:24
Momentan besteht keine einzige Chance dass NVIDIA frueher ankuendigt als AMD.

Gast
2009-08-15, 11:09:55
Wird ein Paperlaunch, weil die ersten Einheiten in Japan und China nicht vor Oktober zu kaufen sein werden...
Sagt wer?

Wenn die schon lauffähige Muster haben, dann sollte es kein Problem sein zumindest eine geringe Menge auf den Markt zu bringen.

Es reichen ja schon 1000 oder so aus, damit es kein Paperlaunch wird... ;)

horn 12
2009-08-15, 12:33:17
Genau, sind ja knappe/ 4 Wochen noch und bis dahin sollte sie dies "locker" hinbekommen für einen gewissen Hardlaunch,- auch wenn die Masse an Karten dann wohl Anfang bis Mitte Oktober kommen wird.
Wichtig ist halt KEIN Paperlaunch!

Gast
2009-08-15, 14:25:49
Es reichen ja schon 1000 oder so aus, damit es kein Paperlaunch wird... ;)
Mit 1000 deckt man die Presse ab. ;)

Je nach Preis müssen ein paar 10000 am Start verfügbar sein und es müssen sofort weitere nachrücken, nicht erst 2 Monate später.

Nakai
2009-08-15, 14:39:24
Es geht offensichtlich nur darum zu zeigen, dass man der Erste auf dem Markt ist. Der wahre DX11-Kampf geht erst 2010 los, wenn NV mitmischt und ATI Ende des Jahres dann die nächsten Refreshkarten liefert.


mfg Nakai

][immy
2009-08-15, 15:24:57
2-4 Wochen den Markt ohne Karten zu belassen ist in Anbetracht des eigenen Hypes lächerlich. nVidia kann dann sehr leicht auf ihrer GPU Technology Conference ebenfalls mit einem Paperlaunch kontern.
Paperlaunch sind schlecht und sollten wieder kritisiert werden.


und jetzt erzähl mir mal, welcher launch von neuen Grafikkarten-generationen in den letzten jahren kein Paperlaunch war (im sinne von nur wenige Karten zum launch auf dem markt). weder nvidia noch ati haben es wirklich hinbekommen in den letzten jahren die karten auch wirklich auf den markt zu bringen. aber da spricht ja auch nichts wirklich gegen.
schließlich werden die wirklichen profite im OEM-markt gemacht und bis der endlich die neue Hardware einsetzt, das dauert. Aber wenn man früher anfängt benchmarks zu veröffentlichen, springt der OEM-markt auch früher auf die neue generation an.

LovesuckZ
2009-08-15, 16:23:07
[immy;7474355']und jetzt erzähl mir mal, welcher launch von neuen Grafikkarten-generationen in den letzten jahren kein Paperlaunch war (im sinne von nur wenige Karten zum launch auf dem markt). weder nvidia noch ati haben es wirklich hinbekommen in den letzten jahren die karten auch wirklich auf den markt zu bringen. aber da spricht ja auch nichts wirklich gegen.
schließlich werden die wirklichen profite im OEM-markt gemacht und bis der endlich die neue Hardware einsetzt, das dauert. Aber wenn man früher anfängt benchmarks zu veröffentlichen, springt der OEM-markt auch früher auf die neue generation an.

Der letzte Paperlaunch war die GTX295. Seit dem NV40 und r420 Disaster hat sich die Mentalität deutlich verändert. Und wer es vergessen hat: Beide Karten wurde ca. zeitgleich im April 2004 präsentiert und erst im Juni verfügbar.
Was bringen denn Paperlaunches? Im Mobile-Sektor ist es gang und gäbe und trotzdem adaptiert kein OEM die Karten schneller. AMD's rv740m wurde auf der Cebit präsentiert und wird wohl nie seinen Weg in ein Notebook schaffen. nVidia zeigte Mitte Juni die 40nm Notebookchips - zwei Monate später kann man Acer Books mit einer Version kaufen.
Für mich als Kunden sind Paperlaunches nur dann interessant, wenn es ein abschließendes Bild gibt. Aber keine Verfügbarkeit als erster der neue Hardware präsentiert ist schlecht und sehr lächerlich.

horn 12
2009-08-15, 16:28:24
Nun, der R600 (2900XT) RV670 (HD3870) und RV770 (HD4870) waren alles Hardlaunch oder nach maximal 3-5 Tagen lieferbar, so wird AMD-ATI diesesmal sicher nicht wieder einen Schritt zurückgehen.
Ebenso die HD4870 X2 war bald lieferbar, nicht wie die GTX 295 DualSlot Version.
Denn sie wissen dass da viel auf dem Spiel steht, und werden alles daran setzen Karten am, bzw. um den Lauchtag herum auch liefern zu können,- zu welchem Preis dann die Händler/ ATI die Karten dann anbietet ist eine andere Frage.
Da wird man wohl den Deppenaufschlag bezahlen müssen!

YfOrU
2009-08-15, 16:36:23
Irgendjemand hat immer etwas auszusetzen. Wenn die Produkte in großen Mengen verfügbar sind hat das zur Folge das diese über diverse Ecken vor Ablauf des NDA am Markt verfügbar werden. Beispiele wären die 4850 oder aktuell: http://www.computerbase.de/news/hardware/prozessoren/intel/2009/august/intels_prozessoren_nda/

Sind es nur wenige oder der Markteintritt findet erst ein paar Wochen nach der Produktvorstellung statt kritisiert die Welt einen Paperlaunch.

Gast
2009-08-15, 16:44:35
Irgendjemand hat immer etwas auszusetzen. Wenn die Produkte in großen Mengen verfügbar sind hat das zur Folge das diese über diverse Ecken vor Ablauf des NDA am Markt verfügbar werden. Beispiele wären die 4850 oder aktuell: http://www.computerbase.de/news/hardware/prozessoren/intel/2009/august/intels_prozessoren_nda/
...


wer hat daran was auszusetzen ausser die hersteller? nda sollten verboten werden ;)

HPVD
2009-08-15, 16:48:17
der ATI Catalyst 9.8 ist erschienen und bietet unter anderem scheinbar sehr sehr große Geschwindigkeitsoptimierungem im CrossfireX Betrieb:

Changelog 9.8 (Auszug):

Performance Improvements:

* Battleforge DirectX 10/DirectX 10.1 performance improves of up to 50% with the largest gains in configurations using ATI CrossFireX™ technology.
* Company of Heroes DirectX 10 performance improves of up to 77%.
* Crysis DirectX 10 performance of ATI CrossFireX technology in dual mode improves of up to 10% and quad mode performance improves of up to 34%.
* Crysis Warhead DirectX 10 performance of ATI CrossFireX technology in dual mode improves of up to 7% and quad mode performance improves of up to 69%.
* Far Cry 2 DirectX 10 performance of ATI CrossFireX technology in dual mode improves of up to 50% and quad mode performance improves of up to 88%.
* Tom Clancy’s H.A.W.X. DirectX 10/DirectX 10.1 performance of ATI CrossFireX technology in dual mode improves of up to 40% and with quad mode performance improving of up to 60%.
* UnigineTropics OpenGL performance improvements of up to 20%.
* UnigineTropics DirectX 10 performance of ATI CrossFireX technology in quad mode improvements of up to 20%.
* World in Conflict DirectX 10 performance improvements of up to by 10%.

(http://www.the3dzone.de/2009/08/15/qc-09-ati-catalyst-9-8-pre-release/)

Wenn man soviel aus "normalem" CrossfireX rausholt (rausholen kann) und das kurz bevor eigentlich eine neue "Verbindungstechnologie" erwartet wird (Dualcore), so könnte man ja fast vermuten, dass auch alles kommende weiterhin auf CrossfireX basiert .....

Gruß HPVD

CrazyIvan
2009-08-15, 17:17:56
@YforU
Genau so sehe ich das auch. Kann mich noch deutlich an das Geningel der CB erinnern, dass Hinz und Kunz bereits Reviews mit im Handel gekauften 4850 machen konnte, während CB an das NDA gebunden war. Harter als dieser Launch geht nicht. Bin voller Hoffnung, dass beide großen IHVs an dieser Strategie festhalten - Prestigeobjekt DX11 hin oder her.

Gast
2009-08-15, 17:36:03
Ich sehe das so:

anfang/mitte september werden die karten von ATI vorgestellt, inkl. reviews der üblichen seiten im netz. solange die breite verfügbarkeit mit erscheinen von win7 gegeben ist (22 okt), ist wohl für ATI alles nach plan gelaufen.
einzig nvidia ist eine unbekannte, aber ich glaube nicht dass sie es bis win7 schaffen etwas auf den markt zu bringen (ausser in absoluten mini "mengen"). dafür ist bisher eigentlich noch gar nichts bekannt, keine hardware im umlauf, nix zu hören von denen...
möglicherweise spart sich ATI das x2 modell auf, um etwas zu haben wenn nvidia dann ihren launch hat.

viele wenns und abers, ich weiss, von mir aus könnte ati morgen schon launchen, dann wüsste man wenigstens worauf man sich freuen kann (oder auch nicht) ;)

cu,
Alex

Gast
2009-08-15, 18:44:39
Mit dem ATI-Launch ist noch niemand geholfen, entscheiden kann man erst, wenn beide liefern können. Besonders liebevolle Bindungen an kapitalistische Großunternehmen berechtigen natürlich zum Direktkauf, aber da sind Reviews ja sowieso egal. :)

w0mbat
2009-08-15, 20:17:35
Cypress kommt (zumindest in einer Version) mit 1Gb VRAM. Also wohl doch kein 384bit SI.

S940
2009-08-15, 20:31:18
Cypress kommt (zumindest in einer Version) mit 1Gb VRAM. Also wohl doch kein 384bit SI.
Und wie bombensicher ist dieses 9.395te Gerücht ? ;-)

horn 12
2009-08-15, 21:12:08
AMD-ATI pusht nun so enorm DX11 und wird es sich nicht nehmen lassen wenn sie schon als erster deren Hardware am Start haben, den Markt von Anfang an schon zu sättigen,- und dies ist halt durch extremes P/L Verhältnis viel einfacher zu gewährleisten.
Seit dem R600 "Fiasko" fuhr ATI diese Schiene, und in die selben Stapfen ist dann wohl auch AMD getreten,- und sie fahren recht gut damit. Gar besser als man vermutet hatte.
Würde es anders rum aussehen würde sich Nvidia den DX11 Part dumm und dämlich bezahlen lassen wollen.
Dies ist eben der kleine ABER eben so wichtige Unterschied zwischen diesen beiden großen Konkurrenten.
Wenn es auch bei AMD-ATI nun anders kommen sollte, werden die wenigsten drauf anspringen und bis zum Release von NV abwarten,- Dies denke ich möchte ATI bereits im Keim ersticken lassen.

@AnarchX
Wie denkst Du dazu und Heute gar nichts Neues zum RV870?:biggrin:

Ailuros
2009-08-15, 22:21:06
Cypress kommt (zumindest in einer Version) mit 1Gb VRAM. Also wohl doch kein 384bit SI.

Bei einem hypothetischen menage a trois auf einem die haette man schon einen 384bit Bus insgesamt....oooops :eek::tongue:

------------------------

An alle: setzt bitte einen Punkt mit dem Thema "Paperlaunch" denn es reicht so langsam mit dem Unsinn.

Mein Cypress Puzzle ist wohl in der Zwischenzeit fertig und irgendwo muss ich den Enthusiasmus mancher verpasst haben....

=Floi=
2009-08-15, 22:25:27
ati muß erster sein, weil der g300 besser und schneller wird. bis jetzt gab es eher gerüchte um einen paperlaunch. warum denn nicht.
zumindest hätte man dann endlich die technischen daten und wirklich versämen wird man in den ersten monaten eh noch nichts.

Ailuros
2009-08-15, 22:34:53
ati muß erster sein, weil der g300 besser und schneller wird.

Tut mir leid aber wo steht der Beweiss oder wenigstens eine Andeutung in die Richtung? Dally sagte auf PCGH dass das SP zu DP Ratio von 8:1 kleiner werden wird mit der naechsten Generation. Weisst Du oder jemand anders ob es sich um dedizierte DP Einheiten handelt? Ich auf jeden Fall weiss es noch nicht....

bis jetzt gab es eher gerüchte um einen paperlaunch. warum denn nicht.
zumindest hätte man dann endlich die technischen daten und wirklich versämen wird man in den ersten monaten eh noch nichts.

Papierfranzen und technische Daten zaubern mir keine Bilder auf den Bildschirm als Verbraucher.

Gast
2009-08-15, 22:44:18
Mit dem ATI-Launch ist noch niemand geholfen, entscheiden kann man erst, wenn beide liefern können. Besonders liebevolle Bindungen an kapitalistische Großunternehmen berechtigen natürlich zum Direktkauf, aber da sind Reviews ja sowieso egal. :)
Das ist nur bedingt richtig.
Wenn jemand sich zu Weihnachten eine neu Grafikkarte zulegen will, dann interresiert ihn nicht als noob, ob da 1 oder 2 Monate später Nvidia nachzieht.
Man entscheidet zu einem bestimmten Zeitpunkt, dass man sich eine neue Grafikkarte zulegen will und kauft.
Wenn zu diesem Zeitpunkt nur AMD/ATI DX11 liefern (und dabei noch schneller sind), sieht es schlecht für NV aus.
Ich persönlich würde auch warten, da durch die Konkurrenz der Preis sinken wird.
Nur interressiert das die Leute nicht, die keine Ahnung von der Materie haben, sich aber dennoch eine neue Grafikkarte zu Weihnachten hollen wollen... ;)

AnarchX
2009-08-15, 23:08:38
http://img256.imageshack.us/img256/774/directx11videocard.jpg (http://img256.imageshack.us/i/directx11videocard.jpg/)
http://www.legitreviews.com/article/1040/1/

http://img6.imageshack.us/img6/3972/30797rv870bild.png (http://img6.imageshack.us/i/30797rv870bild.png/)


Auch wirkt die Slotblende so, als ob hier ein DVI auf der Höhe des 2. Slots über dem PCB ist, was man zwar bei manchen AIB-Design schon gesehen hat, aber bei einer solchen Karte doch eher kontraproduktiv der Entlüftung gegenübersteht. Ausser eben, dass hier ein Nutzen dahinter steht, nämlich, dass die Karte wirklich drei benutzbare Bildausgänge hat, was wieder für mehr als eine GPU spräche.

Ob da RV870 wohl doch gar 4 Bildausgänge bedienen kann? ;)

btw.
Graphics: EG CYPRESS 1024MB
http://global.phoronix-test-suite.com/?k=profile&u=root-13488-18327-24183

Sorkalm
2009-08-16, 01:41:59
Das ist nur bedingt richtig.
Wenn jemand sich zu Weihnachten eine neu Grafikkarte zulegen will, dann interresiert ihn nicht als noob, ob da 1 oder 2 Monate später Nvidia nachzieht.
Man entscheidet zu einem bestimmten Zeitpunkt, dass man sich eine neue Grafikkarte zulegen will und kauft.

Richtig. Zu jedem Zeitpunkt werden auf den Markt Entscheidugen getroffen und die dort verfügbaren Produkte abgeglichen. Nur ein Bruchteil beobachtete den Markt auf längere Zeit und überlegt, wann Schnäppchen abzugreifen sind. Es ist auch ziemlich sinnvoll, genau dann eine neue Grafikkarte zu kaufen, wann man eine braucht. Und nicht wenn die Preise verhältnismäßig günstig sind. Steigende Preise sind sowieso eher nicht zu erwarten. Und wer länger warten, hat halt länger eine alte Grafikkarte, unter Umständen präferiert er aber halt heutigen Konsum einer neuen Karte eher. ;)

=Floi=
2009-08-16, 02:09:19
ich habe keine daten, aber ich gehe mal davon aus. nv wird den größeren DIE sicherlich gut nützen. für mich zählt nur SP. die bisherigen daten, wie die 512 shadercores sollten schon für eine leistungssteigerung sorgen. selbst unverändert würden sie schon zu einer brauchbaren steigerung führen und ich gehe auch von einer höheren taktrate aus.

mit der veröffentlichung der daten hätten wir gewissheit und tests. wenn es die hardware dann erst 3 monate später zu kaufen gibt kann ich auch damit leben. ich kann dann wenigstens planen und mich entscheiden, was ich wann kaufe.

Ailuros
2009-08-16, 08:32:22
ich habe keine daten, aber ich gehe mal davon aus. nv wird den größeren DIE sicherlich gut nützen. für mich zählt nur SP.

Fuer alle Mainstream-Verbraucher wie Du und ich zaehlt nur SP. Dally sagte dass das Ziel fuer die Zukunft eine 2:1 SP : DP Relation waere und deutete zur gleichen Zeit an dass die heutige 8:1 Relation kleiner wird. Kommt jetzt DP aus den ALUs wass ich persoenlich als die beste insgesamt Loesung empfinden wuerde dann ist es ja auch kein Problem, und ja hier reden wir dann auch ueber eine theoretische 4:1 Relation wie auf heutigen Radeons und LRB.

Kommt aber dieses 4:1 aus getrennten Einheiten brauchen sie zumindest so viele DP Einheiten dass sie auch ueber 600GFLOPs DP erreichen muessen. Vereinfacht von dem grossen DIE geht ein ziemlich fetter Batzen an Transistoren an etwas dass der Normalverbraucher nicht gebrauchen kann.

die bisherigen daten, wie die 512 shadercores sollten schon für eine leistungssteigerung sorgen. selbst unverändert würden sie schon zu einer brauchbaren steigerung führen und ich gehe auch von einer höheren taktrate aus.

Kein Zweifel nur kann mir leider das vorige Dilemma um einiges veraendern. Je groesser der Abstand einer G300 zu RV870 desto besser fuer NV; und dieser Abstand darf natuerlich nicht von X Prozentual an nicht 3D relevantem Zeug gefaerdet werden. Ich bin schon einmal auf die Nase gefallen mit GT200; bis zum Punkt wo ich ein zu 100% klares Bild habe gehe ich persoenlich kein Risiko ein.

Wuerden die NV engineers nicht so hartnaeckig darauf bestehen dass die getrennten DP Einheiten so effizient sind (welches auch stimmen duerfte) haette ich auch keinen Anlass zu jeglichem Zweifel.

mit der veröffentlichung der daten hätten wir gewissheit und tests. wenn es die hardware dann erst 3 monate später zu kaufen gibt kann ich auch damit leben. ich kann dann wenigstens planen und mich entscheiden, was ich wann kaufe.

Wie schon erwaehnt NV hat seit einiger Zeit alle Fugen geschlossen. Entweder kommt es zu einer fast unerwarteten Ueberraschung oder es ist etwas faul an der Sache und sie werden sich die Finger wundbluten nur mit limitierter Presse und Dev-HW etwas vorzeigen fuer dieses Jahr und nennenswerte Verfuegbarkeit erst im naechsten Jahr.

Hvoralek
2009-08-16, 14:03:44
Kommt jetzt DP aus den ALUs wass ich persoenlich als die beste insgesamt Loesung empfinden wuerde dann ist es ja auch kein Problem, und ja hier reden wir dann auch ueber eine theoretische 4:1 Relation wie auf heutigen Radeons und LRB.Ist es nicht 4:1 bei MUL und sogar 2:1 bei ADD? Wenn G300- ALUs mit 1 MADD+ 1 voll nutzbaren MUL ankommen, könnte man auf die Weise vll. sogar 1/2 des SP- MADD- Durchsatzes in DP erreichen?

deekey777
2009-08-16, 14:30:02
Um es ganz kompliziert zu machen: Es ist ein Viertel der 4/5 der SP-Performance (DP-MADD), da die T-Einheit nicht DP-fähig ist. In machen Fällen ist 2/5 möglich (DP-ADD).

Hvoralek
2009-08-16, 14:53:36
T- Einheit? :confused:

Blacksoul
2009-08-16, 15:07:50
http://img256.imageshack.us/img256/774/directx11videocard.jpg (http://img256.imageshack.us/i/directx11videocard.jpg/)
http://www.legitreviews.com/article/1040/1/

http://img6.imageshack.us/img6/3972/30797rv870bild.png (http://img6.imageshack.us/i/30797rv870bild.png/)



Ob da RV870 wohl doch gar 4 Bildausgänge bedienen kann? ;)

btw.

http://global.phoronix-test-suite.com/?k=profile&u=root-13488-18327-24183


Wenn man die Ausgänge gleichzeitig nutzen kann, dann muss ich mir wieder eine Radeon kaufen, verdammt. :(


t.b.d

AnarchX
2009-08-16, 15:30:29
Wobei es momentan schon ein paar Single-GPU-Karten mit 4 Ausgängen gibt, jedoch ist dort immer ein DSub-Ausgang dabei und eben nur 2 Ausgänge simultan benutzbar.

Wenn man zwei DVI-Ausgänge verbaut, hätte man hier ja eigentlich auf den HDMI verzichten können. Aber vielleicht eben doch mehr als 2 benutzbare Ausgänge.

deekey777
2009-08-16, 17:04:24
T- Einheit? :confused:
Ein Treaadprocessor besteht aus fünf SPs: XYZW und der "fetten" T-Einheit, die zB cos, sin usw beherrscht. Keine Ahnung, ob das ein Vorteil oder ein Nachteil ist, aber zB auf dem RV670 sollen im Mixed-Mode bis zu 350 GFLOPS möglich sein.

Schlammsau
2009-08-16, 18:15:20
http://img256.imageshack.us/img256/774/directx11videocard.jpg (http://img256.imageshack.us/i/directx11videocard.jpg/)
http://www.legitreviews.com/article/1040/1/

http://img6.imageshack.us/img6/3972/30797rv870bild.png (http://img6.imageshack.us/i/30797rv870bild.png/)



Ob da RV870 wohl doch gar 4 Bildausgänge bedienen kann? ;)

btw.

http://global.phoronix-test-suite.com/?k=profile&u=root-13488-18327-24183


Was mich doch stark verwundert, ist diese im Vergleich zu seinen Vorgängern, winzige Abluftöffnung. Cypress ist doch die Enthusiast Variante oder?

deekey777
2009-08-16, 18:34:14
Hm, ein RV870 in einem Rechner mit einem Athlon II 250?

horn 12
2009-08-16, 19:03:16
Ja, vielleicht wird der 40-er GPU nicht mehr so arg heiss wie die HD48X0-er Serie.

AnarchX
2009-08-16, 19:12:16
Was mich doch stark verwundert, ist diese im Vergleich zu seinen Vorgängern, winzige Abluftöffnung. Cypress ist doch die Enthusiast Variante oder?
Und gerade da stellt sich die Frage, warum AMD beim 2. Slot noch einen DVI verbaut hat.
Immerhin kann ja der DVI im 1. Slot ja auch die Analog-Ausgabe übernehmen.


Ja, vielleicht wird der 40-er GPU nicht mehr so arg heiss wie die HD48X0-er Serie.
2x 6-Pin soll die Karte ja haben, also wird der reale Verbrauch wohl doch schon um die 150W oder höher liegen.

crux2005
2009-08-16, 19:27:10
Und gerade da stellt sich die Frage, warum AMD beim 2. Slot noch einen DVI verbaut hat.
Immerhin kann ja der DVI im 1. Slot ja auch die Analog-Ausgabe übernehmen

2 GPUs wären eine mögliche Erklärung dafür...

nagus
2009-08-16, 19:33:02
2 GPUs wären eine mögliche Erklärung dafür...

sehe ich auch so.
entweder ist das eine X2 oder ein "2 chip" ding auf einem die.

Gast
2009-08-16, 19:36:13
Was mich doch stark verwundert, ist diese im Vergleich zu seinen Vorgängern, winzige Abluftöffnung.
Landet eben mehr im Gehäuse. Bei den 400W einer 4870 X2 ist bereits kein Spass mehr die ganze Wärme durch diesen engen Slot zu quetschen.

Gast
2009-08-16, 19:36:47
2 GPUs wären eine mögliche Erklärung dafür...
Also wahrscheinlich AFR.

reunion
2009-08-16, 19:46:39
Mein Cypress Puzzle ist wohl in der Zwischenzeit fertig und irgendwo muss ich den Enthusiasmus mancher verpasst haben....

Na dann zeig mal dein Puzzle. Beim RV770 war dein Enthusiasmus ja auch nicht vorhanden, also muss das ja nicht viel heißen.

Hvoralek
2009-08-16, 20:46:04
Ein Treaadprocessor besteht aus fünf SPs: XYZW und der "fetten" T-Einheit, die zB cos, sin usw beherrscht. Keine Ahnung, ob das ein Vorteil oder ein Nachteil ist, aber zB auf dem RV670 sollen im Mixed-Mode bis zu 350 GFLOPS möglich sein.Ich dachte immer, dass die 5. MADD- Einheit bei RV6/7xx für DP nicht genutzt wird, liegt daran, dass sich der Verwaltungsaufwand nicht lohnen würde, um noch vier SP- FLOPS aus verschiedenen Vec5 "zuammenzukramen". Wieso sollte die zusätzliche SFU da stören?

Jedenfalls hat das wohl nichts damit zu tun, wie man bei G300 die SP- ALUs für DP nutzen könnte.

Gast
2009-08-17, 09:14:24
GT300 wird weiterhin dedizierte DP-Einheiten haben. Ob es einen G300 gibt, weiß ich aber leider nicht.


Carsten

Coda
2009-08-17, 10:40:42
Irgendwie fände ich es besser wenn du den Konjunktiv benutzen würdest, auch wenn deine Quelle noch so NVIDIA nahe ist.

Es gab auch schon früher gezielte Desinformation.

reunion
2009-08-17, 10:45:05
GT300 wird weiterhin dedizierte DP-Einheiten haben. Ob es einen G300 gibt, weiß ich aber leider nicht.


Carsten

Wenn es so sein sollte kann ich das absolut nicht nachvollziehen, es sei denn es gibt technische Probleme mit ihren skalaren ALUs. Da geht haufenweise Die-Fläche für etwas drauf das kaum jemand benötigt. Noch dazu wäre eine ähnliche Variante wie sie AMD oder Intel macht auch noch schneller. Da können sie noch so viele Folien mit ihren tollen denorms machen, das lockt niemanden vorm Ofen hervor.

Coda
2009-08-17, 10:55:54
Da können sie noch so viele Folien mit ihren tollen denorms machen, das lockt niemanden vorm Ofen hervor.
Mal wieder top substanzloses Bashing :up:

reunion
2009-08-17, 11:03:38
Mal wieder top substanzloses Bashing :up:

Ja, wirklich top wie du wieder mal einen Satz heraus pickst und absolut nichts sagst außer mich persönlich anzumachen. Aber so kennen wir dich ja. Wie wäre es mit Substanz, wenn du schon Substanzlosigkeit kritisierst?

Es ist nunmal eine Tatsache das NV haufenweise Folien zu ihren angeblich überlegenen dezidierten DP-Einheiten gezeigt hat, aber wenn ich mir diverse Aussagen von Entwicklern durchlese bleibt da nicht viel mehr außer ein beträchtlicher Transistorenaufwand und nicht gerade überragende Performance. Die denorms sind vielleicht nett, aber ob dafür dieser Aufwand gerechtfertigt ist wage ich zu bezweifeln. Nicht mehr und nicht weniger habe ich gesagt.

Coda
2009-08-17, 11:14:55
Ja, wirklich top wie du wieder mal einen Satz heraus pickst und absolut nichts sagst außer mich persönlich anzumachen. Aber so kennen wir dich ja. Wie wäre es mit Substanz, wenn du schon Substanzlosigkeit kritisierst?

Es ist nunmal eine Tatsache das NV haufenweise Folien zu ihren angeblich überlegenen dezidierten DP-Einheiten gezeigt hat, aber wenn ich mir diverse Aussagen von Entwicklern durchlese bleibt da nicht viel mehr außer ein beträchtlicher Transistorenaufwand und nicht gerade überragende Performance. Die denorms sind vielleicht nett, aber ob dafür dieser Aufwand gerechtfertigt ist wage ich zu bezweifeln. Nicht mehr und nicht weniger habe ich gesagt.
Diverse Entwickler = Ein Kommentar in diesem Forum was du auf die Allgemeinheit überträgst?

ATI unterstützt in Stream nichtmal Double-Precision-SQRT (um genauer zu sein: Gar keine Spezialfunktionen), und das ist für numerische Simulationen absolut unverzichtbar. Der DP-Support ist trotz überlegenem MADD-Durchsatz ein Witz.

reunion
2009-08-17, 11:38:35
Diverse Entwickler = Ein Kommentar in diesem Forum was du auf die Allgemeinheit überträgst?

Du bist auch nur ein Kommentar in diesem Forum. Und nein, nicht nur ein Kommentar.


ATI unterstützt in Stream nichtmal Double-Precision-SQRT (um genauer zu sein: Gar keine Spezialfunktionen), und das ist für numerische Simulationen absolut unverzichtbar. Der DP-Support ist trotz überlegenem MADD-Durchsatz ein Witz.

NV unterstützt auch keine Spezialfunktionen in Hardware AFAIK, muss alles über Bibliotheken simuliert werden. Aber wundert mich kein bisschen das du AMD DP für eine Witz hältst. Die Leistung ist ja auch völlig nebensächlich und sonst ist NV ja überall um Lichtjahre voraus.

Coda
2009-08-17, 11:41:44
NV unterstützt auch keine Spezialfunktionen in Hardware AFAIK, muss alles über Bibliotheken simuliert werden.
Es ist aber vorhanden und es gibt sehr wohl ein paar Instructions die benötigt werden um es IEEE754 konform umzusetzen.

Was will ich mit DP-Support mit tollem Durchsatz wenn er praktisch nicht benutzbar ist?

reunion
2009-08-17, 11:44:43
Es ist aber vorhanden und es gibt sehr wohl ein paar Instructions die benötigt werden um es IEEE754 konform umzusetzen.

Was will ich mit DP-Support mit tollem Durchsatz wenn er praktisch nicht benutzbar ist?

Aja, und warum genau soll ich das bei AMD nicht über Bibliotheken nachbilden können?

Coda
2009-08-17, 11:46:46
Sie tun es nicht. Das ist doch der Punkt. Wie lange gibt es jetzt schon DP fähige Hardware?

Genau das ist auch das Problem, dass sie bei ATI grundsätzlich quer durch den sämtlichen Dev-Support zieht. Es wird meistens nur das absolut notwendigste getan um für den Endkunden ein wenig Zusatz PR zu generieren.

Und für eine IEEE754 konforme Wurzelfunktion braucht man Hardware. Nur mit Taylorreihen und MADDs bekommst man die benötigte ULP nicht hin.

reunion
2009-08-17, 12:10:44
Sie tun es nicht. Das ist doch der Punkt. Wie lange gibt es jetzt schon DP fähige Hardware?

Dann muss man sich eine solche Bibliothek eben von woanders her portieren.


Genau das ist auch das Problem, dass sie bei ATI grundsätzlich quer durch den sämtlichen Dev-Support zieht. Es wird meistens nur das absolut notwendigste getan um für den Endkunden ein wenig Zusatz PR zu generieren.

Ja, der Dev-Support ist leider nach wie vor sehr dürftig bei ATi.


Und für eine IEEE754 konforme Wurzelfunktion braucht man Hardware. Nur mit Taylorreihen und MADDs bekommst man die benötigte ULP nicht hin.

Möglich. Was offizielles bekommt man dazu ja nicht.

Coda
2009-08-17, 12:17:03
Dann muss man sich eine solche Bibliothek eben von woanders her portieren.
Genau, ich programmier mir erstmal absolut elementare Funktionen nur damit ich etwas benutzen kann :freak:

Mal ganz abgesehen davon, dass man das performant nur in IL-Assembler machen kann und einen Inline-Assembler kennt Brook+ nicht. Das gehört ganz einfach vom Compiler emitiert.

pest
2009-08-17, 12:26:37
Und für eine IEEE754 konforme Wurzelfunktion braucht man Hardware. Nur mit Taylorreihen und MADDs bekommst man die benötigte ULP nicht hin.

Eine Taylorreihenentwicklung ist jetzt nicht das was ich als effizient ansehen würde :freak:

horn 12
2009-08-17, 12:31:29
http://www.fudzilla.com/content/view/15076/1/

reunion
2009-08-17, 12:33:54
Genau, ich programmier mir erstmal absolut elementare Funktionen nur damit ich etwas benutzen kann :freak:


Ich habe geschrieben portieren, nicht programmieren. Man muss das Rad ja nun wirklich nicht jedes mal neu erfinden.

Aquaschaf
2009-08-17, 12:46:37
Ich habe geschrieben portieren, nicht programmieren. Man muss das Rad ja nun wirklich nicht jedes mal neu erfinden.

In dem Fall ist besteht aber gerade die Kunst darin es möglichst effizient für die spezielle Hardware zu implementieren.

deekey777
2009-08-17, 12:54:09
Wenn es so sein sollte kann ich das absolut nicht nachvollziehen, es sei denn es gibt technische Probleme mit ihren skalaren ALUs. Da geht haufenweise Die-Fläche für etwas drauf das kaum jemand benötigt. Noch dazu wäre eine ähnliche Variante wie sie AMD oder Intel macht auch noch schneller. Da können sie noch so viele Folien mit ihren tollen denorms machen, das lockt niemanden vorm Ofen hervor.
Wie kommst du eigentlich darauf?
Haufenweise ist es nicht, es ist nur ein DP-MADD je Core - mit ohne gar nichts.

GT300 wird weiterhin dedizierte DP-Einheiten haben. Ob es einen G300 gibt, weiß ich aber leider nicht.


Carsten
Meine Frage: Wird es bei Entweder-Oder bleiben, oder bekommen die DP-Einheiten zB ihr eigenes Registerfile etc, damit ein Core SP und DP parallel ausführen kann (Mixed-Mode)?

reunion
2009-08-17, 13:06:32
Wie kommst du eigentlich darauf?
Haufenweise ist es nicht, es ist nur ein DP-MADD je Core - mit ohne gar nichts.

Ich habe jedenfalls keine bessere Erklärung dafür warum ein GT200 derart aufgebläht ist ggü. den nicht DP-fähigen GPUs.

Ailuros
2009-08-17, 13:23:17
Na dann zeig mal dein Puzzle. Beim RV770 war dein Enthusiasmus ja auch nicht vorhanden, also muss das ja nicht viel heißen.

Ich will Dir gerade gar nichts zeigen. Die Welt wird sich auf jeden Fall nicht schneller drehen nach der Evergreen Vorstellung, ganz im Gegenteil was das entourage eines gewissen Herren (sprich CJ, Charlie und noch ein paar andere bedeutungslose Anhaenger) momentan glauben lassen wollen. Das Resultat bewegt sich auf jeden Fall nicht ausserhalb was die meissten von uns bis jetzt erwartet haben.

Gegen orchestrierte Marketing-Kampagnen bin ich leider allergisch, ueberhaupt wenn ich vom Obermeister dieser Bande vor Jahren fast aufs Kreuz genagelt wurde mit illegalem Taktiken, obwohl ich eigentlich unschuldig war.

Part deux kommt aber auch gleich noch.......

***edit:

Part deux wie versprochen:

Ja, wirklich top wie du wieder mal einen Satz heraus pickst und absolut nichts sagst außer mich persönlich anzumachen. Aber so kennen wir dich ja. Wie wäre es mit Substanz, wenn du schon Substanzlosigkeit kritisierst?

Das dumme ist eben dass Du ebenso wie ich nichtmal faehig bist zwei Linien an code zusammenzukritzeln. Welche Substanz nochmal?

AnarchX
2009-08-17, 13:27:02
Noch ein paar Fotos der QuakeCon-Systeme:
http://forums.techpowerup.com/showpost.php?p=1516763&postcount=9

Luxactor
2009-08-17, 13:52:12
Hmm... erkennen tut man ja nicht besonders viel auf den Bildern (innen). Schnell und heimlich mitm Handy geschossen und Fokus total verfehlt. :uup:

deekey777
2009-08-17, 14:00:07
Wenn man das Bild von Chipdings im Kopf hat, so erkennt man schon, was drin steckt.

derguru
2009-08-17, 14:05:10
der erste wert ist von einer 4870x² karte,das zweite von einer der neuen karten oder was?

reunion
2009-08-17, 14:11:25
der erste wert ist von einer 4870x² karte,das zweite von einer der neuen karten oder was?

Nein, der zweite ist auch von einer 4870 X2. Sieht man unten links.

derguru
2009-08-17, 14:19:38
ohmann,sorry:anonym:

Gipsel
2009-08-17, 15:06:39
Und für eine IEEE754 konforme Wurzelfunktion braucht man Hardware. Nur mit Taylorreihen und MADDs bekommst man die benötigte ULP nicht hin.
Taylorreihen sind für sowas wirklich ungeeignet, wie hier schon angemerkt wurde. Aber Hardware benötigt man dafür kaum spezielle. FMADD hilft aber teilweise schon.
Man muss das Rad ja nun wirklich nicht jedes mal neu erfinden.
In dem Fall ist besteht aber gerade die Kunst darin es möglichst effizient für die spezielle Hardware zu implementieren.
Die Implementation der Wurzel (wenn kein Hardwaresupport wie bei x86 vorhanden) sieht eigentlich überall gleich aus. Das mache ich auf ATI praktisch genauso, wie nv das in ihrer Bibliothek implementiert hat. Das ist auch kein Geheimnis, daß da üblicherweise das Newton- bzw. Newton-Raphson-Verfahren benutzt wird. Das gute daran, mit jeder Iteration verdoppelt sich die Anzahl der korrekten Stellen, sprich, es konvergiert sehr schnell. Nimmt man das single precision Resultat als erste Schätzung, benötigt man nur 2 Iterationen (die nur aus Multiplikationen und Additionen bestehen), um ein korrektes double precision Resultat zu erhalten. Nur wenn man verschiedene Rundungsmodi haben will, erfordert das mehr Aufwand. Deswegen ist eine selbstgebaute Quadratwurzel in CUDA laut deren Forum auch etwas schneller, als die integrierte Funktion ;)
Für Interessierte: Newton-Verfahren für Quadratwurzel bei Wikipedia (http://de.wikipedia.org/wiki/Newton-Verfahren#Erstes_Beispiel) oder auch hier eine Einführung von von Paul Hsieh (http://www.azillionmonkeys.com/qed/sqroot.html).

Meine Frage: Wird es bei Entweder-Oder bleiben, oder bekommen die DP-Einheiten zB ihr eigenes Registerfile etc, damit ein Core SP und DP parallel ausführen kann (Mixed-Mode)?
Ein getrenntes Registerfile dürfte eventuell schwierig werden, da man ja meist schon mit den gleichen Daten (zumindest zum Teil) rechnen möchte. Das würde also mehr Ports am Registerfile und ein Aufbohren des Schedulers erfordern, wenn das parallel erfolgen soll. Da fragt sich aber schon, ob es den Aufwand rechtfertigt, da doch meist eines von beiden deutlich überwiegt. Das Entweder-Oder bremst jetzt nicht soo stark.

Vielleicht kann man die DP-Funktionalität aber auch in die SFUs integrieren. Da wäre es bei nv wohl am besten aufgehoben (eine SFU behandelt jetzt auch schon 4 SP-MULs parallel, die etwas verbreitern und noch ein paar Addierer [billig] dazu und fertig ist), solange nv die normalen ALUs nicht anders organisiert und kooperativ arbeiten läßt. Ein DP-MADD pro SFU wäre eine glatte Verdopplung der jetzigen DP-Leistung pro SM und man würde die extra-Einheit sparen. Bei 1.5GHz (512 Shader-ALUs und 128 SFUs) wären das immerhin schon 384 GFlops in DP. Verglichen mit den jetzigen ~90GFlops ein ordentlicher Schub. Fragt sich nur, ob das mit den schnellern denorms und dem echten FMADD richtig paßt oder irgendwas dieser Lösung im Weg steht.

Botcruscher
2009-08-17, 15:21:10
Es scheint ja immerhin die gleiche Karte wie bei Chiphell zu sein. Damit werden auch die 1600PS wahrscheinlicher. Hauptsache es sind nicht nur 1280.

AnarchX
2009-08-17, 15:29:35
Umso glaubwürdiger erscheinen auch die auf der Chiphell-Hauptseite veröffentlichten Spezifikationen.

Die 256-Bit passen auch zum "EG CYPRESS 1024MB " (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7474980#post7474980), der mittlerweile auch wieder aus der Phoronix-Datenbank verschwunden ist.

Wenn Juniper (RV830/840) bei P9500 liegt, dann könnten auch die >P17k stimmen die bei Chiphell durch den kundigen User cfcnc genannt wurden:
http://bbs.chiphell.com/viewthread.php?tid=49649&extra=page%3D2

Bleibt die Frage wie die Leistung in realen Anwendungen aussehen wird.

horn 12
2009-08-17, 15:30:21
http://www.abload.de/image.php?img=p8140097i8b4.jpg

Wie lange dauert die Messe, bzw. die Quakecon denn noch ?