PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

boxleitnerb
2009-11-18, 11:23:36
Über BQ-Features ist noch gar nichts bekannt, oder?

LovesuckZ
2009-11-18, 11:24:13
Über BQ-Features ist noch gar nichts bekannt, oder?

Nein.

Ailuros
2009-11-18, 11:39:32
A3 hat nichts mit chip- sondern eher mit yields-Verbesserungen zu tun.

igg
2009-11-18, 11:48:12
A3 hat nichts mit chip- sondern eher mit yields-Verbesserungen zu tun.
Na dann sollten sie ja eigentlich in der Lage sein Performance-Zahlen anzugeben. Dass sie sich das jetzt nicht trauen (Helmlock-Launch) lässt böses ahnen.

Gipsel
2009-11-18, 12:12:05
Theo hat seinem Artikel nVidia NV100 [Fermi] is less powerful than GeForce GTX 285? (http://www.brightsideofnews.com/news/2009/11/17/nvidia-nv100-fermi-is-less-powerful-than-geforce-gtx-285.aspx) inzwischen zwei lesenswerte Updates spendiert, die ein wenig auf die Unterschiede zwischen Fermi, Geforce und Quadro eingehen:

Zitat:
"Following our article, we were contacted by Mr. Andy Keane, General Manager of Tesla Business and Mr. Andrew Humber, Senior PR Manager for Tesla products. In a long discussion, we discussed the topics in this article and topics of Tesla business in general. First and foremost, Tesla is the slowest clocked member of Fermi-GPU architecture as it has to qualify for supercomputers."

und:
"In order to satisfy the required multi-year under 100% stress, nVidia Tesla C2050/2070 went through following changes when compared to the Quadro card [which again, will be downclocked from the consumer cards]:
Bisher waren die Tesla-Karten also nicht für Dauerbetrieb ausgelegt? Wer's glaubt ...

* Memory vendor is providing specific ECC version of GDDR5 memory: ECC GDDR5 SDRAM
Das würde erklären, warum sogar AMD-Mitarbeiter gesagt haben, daß die Verfügbarkeit von Teslas durch die Speicherchips limitiert wird. Dachte eigentlich, daß bezieht sich auf die 6GB-Versionen, aber vielleicht ja auch auf die 3GB-Varianten.
* ECC is enabled from both the GPU side and Memory side, there are significant performance penalties, hence the GFLOPS number is significantly lower than on Quadro / GeForce cards.
Aha, kann mir mal einer erklären, wie ECC zu einer Verringerung der theoretischen Peakleistung führen soll? Speicherbandbreite (und damit Benchmarkwerte) okay, aber Peakleistung? Das klingt doch ziemlich fishy.
* ECC will be disabled on GeForce cards and most likely on Quadro cards
* The capacitors used are of highest quality
* Power regulation is completely different and optimized for usage in Rack systems - you can use either a single 8-pin or dual 6-pin connectors
* Multiple fault-protection
* DVI was brought in on demand from the customers to reduce costs
* Larger thermal exhaust than Quadro/GeForce to reduce the thermal load
Alles schön und gut, begründet aber keinen Performanceunterschied.
* Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode.???
Das sollte nv mal erklären, höhere Spannungen und dann eine Art "Turbo-Mode" auf GeForces, auf Teslas aber konstant niedrigerer Takt?

Ailuros
2009-11-18, 12:17:49
Na dann sollten sie ja eigentlich in der Lage sein Performance-Zahlen anzugeben. Dass sie sich das jetzt nicht trauen (Helmlock-Launch) lässt böses ahnen.

Offiziell von NVIDIA wuerde es einem paperlaunch entsprechen.

Gast
2009-11-18, 13:00:48
Aha, kann mir mal einer erklären, wie ECC zu einer Verringerung der theoretischen Peakleistung führen soll? Speicherbandbreite (und damit Benchmarkwerte) okay, aber Peakleistung? Das klingt doch ziemlich fishy.

Alles schön und gut, begründet aber keinen Performanceunterschied.
???


nachdem ich das hier gelesen hatte:

Following our article, we were contacted by Mr. Andy Keane, General Manager of Tesla Business and Mr. Andrew Humber, Senior PR Manager for Tesla products.

habe ich mir den Rest gespart. Manager-Speak eben. Bzw. noch schlimmer, PR-Manager-Speak....bläh....

Das sollte wohl erklären wie die "rosigen" Aussichten zustande kommen, oder? Wenn ich die Realität mit den Sprüchen des Top-Managments in meiner Firma vergleiche.....

Gast
2009-11-18, 13:23:35
Ja aber auch nur bis zu einem gewissen Punkt. Ich bezweifle dass NV etwas vorstellen will dass nennenswerte Verbrauchsunterschiede zu einer heutigen 285 hat.


Wirklich?
Die Frage ist was man ATIs Dual-GPU-Karte entgegenstellen will, die wohl auch die 300W ausnutzen wird.

Eine eigene Dual-Karte mit zwangsweise reduzierten Taktfrequenzen um innerhalb der 300W zu bleiben, oder eine stark höher getaktete Single-GPU-Karte die auch an die 300W kommt.

Die Frage ist was der effizientere Weg ist, sowohl von den Kosten als auch vom Stromverbrauch.

Ich könnte mir durchaus vorstellen, dass Nvidia zu einer Single-GPU-Karte greift, sofern sie leistungsmäßig halbwegs mit ATIs Dualkarte mithalten kann und sich auch der Stromverbrauch in ähnlichen Bereichen bewegt.
Funktionieren kann das natürlich nur wenn es genügend GPUs gibt die sich hoch genug takten lassen.

Mr. Lolman
2009-11-18, 13:34:40
die dividende wird nicht vom umsatz abgeleitet sonderm vom aktienkurs!
100% dividende wäre der wert des aktuellen aktienkurses.

Glaubst du, oder weißt du?
Die Dividende ist der Teil des Gewinns, den eine Aktiengesellschaft an ihre Aktionäre oder eine Genossenschaft an ihre Mitglieder ausschüttet. Bei der GmbH spricht man statt von einer Dividende von einer Gewinnausschüttung. Die Höhe der Dividende orientiert sich am Gewinn des Unternehmens, wobei in der Regel ein Teil des Gewinns einbehalten und den Rücklagen zugeführt wird, um beispielsweise Investitionen zu finanzieren. Im Einzelfall kann auch eine sog. Sonderdividende unabhängig vom Jahresüberschuss gezahlt werden.
http://de.wikipedia.org/wiki/Dividende

LovesuckZ
2009-11-18, 13:45:16
Da hier im Thread mal erwähnt wurde, dass OpenCL AMD helfen würde, sich im GPGPU besser durchsetzen zu können:


Also on the OpenCL front, NVIDIA says it has added new extensions to OpenCL 1.0, including support for double precision, OpenGL interoperability and the new OpenCL Installable Client Device (ICD). "NVIDIA is the only vendor supporting OpenCL features beyond the minimum conformance level," the company boasts in a release.
http://www.hexus.net/content/item.php?item=21193&page=2

Auch OpenCL wird nichts daran ändern, dass AMD selbst etwas machen muss. Und je weiter nVidia davon zieht, umso schlimmer wird die Situation für AMD.

Sorkalm
2009-11-18, 13:47:15
Genauergesagt hängt die Höhe der Dividende vom Bilanzgewinn ab (vom Jahresüberschuss kann man sie noch nicht so gut ableiten, da kommen eben noch die ganzen Rücklagen etc. dazu). Wobei der Bilanzgewinn auch noch thesauriert werden kann.

Was vom Aktienkurs und -anzahl abhängt, ist eine zukunftsorientierte Form des Unternehmenswertes. Den musst du z. B. mindestens zahlen, wenn du das Unternehmen übernehmen willst.

Gipsel
2009-11-18, 13:55:04
Da hier im Thread mal erwähnt wurde, dass OpenCL AMD helfen würde, sich im GPGPU besser durchsetzen zu können:
Also on the OpenCL front, NVIDIA says it has added new extensions to OpenCL 1.0, including support for double precision, OpenGL interoperability and the new OpenCL Installable Client Device (ICD). "NVIDIA is the only vendor supporting OpenCL features beyond the minimum conformance level," the company boasts in a release.Was glatt gelogen ist.

Ailuros
2009-11-18, 13:56:14
Wirklich?
Die Frage ist was man ATIs Dual-GPU-Karte entgegenstellen will, die wohl auch die 300W ausnutzen wird.

Eine eigene Dual-Karte mit zwangsweise reduzierten Taktfrequenzen um innerhalb der 300W zu bleiben, oder eine stark höher getaktete Single-GPU-Karte die auch an die 300W kommt.

Die Frage ist was der effizientere Weg ist, sowohl von den Kosten als auch vom Stromverbrauch.

Ich könnte mir durchaus vorstellen, dass Nvidia zu einer Single-GPU-Karte greift, sofern sie leistungsmäßig halbwegs mit ATIs Dualkarte mithalten kann und sich auch der Stromverbrauch in ähnlichen Bereichen bewegt.
Funktionieren kann das natürlich nur wenn es genügend GPUs gibt die sich hoch genug takten lassen.

NV's Ziel war und ist sich mit der 380 auf 285 Verbrauchsnivaeu zu halten. Ob sie nun tatsaechlich zu einer dual chip Variante gehen steht noch in den Sternen auf jeden Fall ist es zumindest theoretisch nicht unmoeglich. Mit dem zeitigen yield Zustand klingt es leicht idiotisch momentan, aber wie dem auch sei es klang nie nach entweder/oder Option was die single chip Variante betrifft.

MorPheuZ
2009-11-18, 13:57:24
Habt ihr euch mal überlegt, dass die Teslas eventuell im A1/A2 Stepping laufen, und die Geforce-Fermis im A3 Stepping?

MfG :cool:

Was meint ihr zu der These? Könnte das sein dass nv die "GeForce" just um stillen kämmerlien paralell entwickelte?

Ailuros
2009-11-18, 14:03:57
Was meint ihr zu der These? Könnte das sein dass nv die "GeForce" just um stillen kämmerlien paralell entwickelte?

A1 wird nicht kommerziell erhaeltlich sein und von dem Punkt ab ist es wurscht ob ein board mit einem A2 oder A3 chip ausgestattet sind. Hoechstwahrscheinlich benutzen sie A2 samples hautsaechlich fuer die Presse, Devsamples und fuer sie selber.

Sagt Dir das Bild vielleicht etwas? http://www.computerbase.de/bildstrecke/27497/17/

igg
2009-11-18, 14:21:47
A1 wird nicht kommerziell erhaeltlich sein und von dem Punkt ab ist es wurscht ob ein board mit einem A2 oder A3 chip ausgestattet sind. Hoechstwahrscheinlich benutzen sie A2 samples hautsaechlich fuer die Presse, Devsamples und fuer sie selber.
Was spricht dann dagegen jetzt einen astreinen Paperlaunch hinzulegen? Dann wüssten wir ob es sich zu warten lohnt und AMDs Weihnachtsgeschäft wäre nicht ganz so üppig...

MorPheuZ
2009-11-18, 14:25:05
Ja klar. Die Frage war: könnte es sein dass die Tesla und die GF100 ev. nach dem A2 ev. gesplittet wurde und nach einem eigenen Fertigungsprozess (Geschäftsprozess)zu Ende gebracht werden (Stichwort: modularer Aufbau). Also die GF100 hat schlussendlich nix mit Tesla zu tun.

mapel110
2009-11-18, 14:29:04
Was spricht dann dagegen jetzt einen astreinen Paperlaunch hinzulegen? Dann wüssten wir ob es sich zu warten lohnt und AMDs Weihnachtsgeschäft wäre nicht ganz so üppig...
Welches Weihnachtsgeschäft von AMD?
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&xf=891_Radeon+HD+5850%7E132_1024%7E891_Radeon+HD+5870

Es macht mehr Sinn für nvidia, zu warten und bis zum Release noch kräftig an den Treibern zu feilen.
Wie eilig es ATI hatte, sah man ja an der fehldenden LOD-Anpassung für SSAA. Ich hoffe, nvidia bringt so was nicht zum Start.

Coda
2009-11-18, 14:29:41
Was spricht dann dagegen jetzt einen astreinen Paperlaunch hinzulegen? Dann wüssten wir ob es sich zu warten lohnt und AMDs Weihnachtsgeschäft wäre nicht ganz so üppig...
Wenn sie wirklich schneller sind dann wird es so kommen. Wenn nicht, dann wird man über FUD gehen ;)

Ailuros
2009-11-18, 14:33:04
Was spricht dann dagegen jetzt einen astreinen Paperlaunch hinzulegen?

Die Tatsache dass sie bis jetzt keinen Paperlaunch vorgenommen haben vielleicht?

Dann wüssten wir ob es sich zu warten lohnt und AMDs Weihnachtsgeschäft wäre nicht ganz so üppig...

Auf was wartet "Ihr" denn genau? Denn wenn es um eine Performance DX11 GPU ginge ist diese schon maessig erhaeltlich und GF100 ist wohl nicht in der gleichen Kategorie; sonst stellt Euch alternativ an die 5970 Warteschlange denn genau das ist das Bild von AMD's "ueppigen" high end Weihnachtsgeschaeft.

Ailuros
2009-11-18, 14:34:44
Ja klar. Die Frage war: könnte es sein dass die Tesla und die GF100 ev. nach dem A2 ev. gesplittet wurde und nach einem eigenen Fertigungsprozess (Geschäftsprozess)zu Ende gebracht werden (Stichwort: modularer Aufbau). Also die GF100 hat schlussendlich nix mit Tesla zu tun.

Nein. NV gibt selber Q2 2010 fuer HPC an was wohl ziemlich klar auf A3 only deutet.

Was soll Tesla mit GeForce nicht zu tun haben? Lies mal ein bisschen zurueck und Du wirst schon sehen dass es sich um das ein und dasselbe bei der high end Variante handelt; ECC wird auf GeForce abgeschaltet was wohl darauf hindeutet dass es auch auf GFs existiert.


Es macht mehr Sinn für nvidia, zu warten und bis zum Release noch kräftig an den Treibern zu feilen.
Wie eilig es ATI hatte, sah man ja an der fehldenden LOD-Anpassung für SSAA. Ich hoffe, nvidia bringt so was nicht zum Start.

Ich lass mich gerne eines besseren belehren aber ich habe den Eindruck dass eine LOD Anpassung wenn man TSAA auf alle Texturen erweitert erstmal gar nicht geht. Natuerlich koennte es ATI in einem submenu erlauben LOD zusaetzlich einzustellen, aber das ist ein anderes Kapitel.

reunion
2009-11-18, 14:37:20
Die Tatsache dass sie bis jetzt keinen Paperlaunch vorgenommen haben vielleicht?


Da gab es genug. GTX295 zB erst kürzlich.

Wenn sie wirklich schneller sind dann wird es so kommen. Wenn nicht, dann wird man über FUD gehen ;)

So sehe ich das auch.

igg
2009-11-18, 14:38:26
http://twitter.com/NVIDIAGeForce
"Stay tuned to this channel for the Fermi Fun Facts of the Week tweets!"
?

James Ryan
2009-11-18, 14:38:46
Ja klar. Die Frage war: könnte es sein dass die Tesla und die GF100 ev. nach dem A2 ev. gesplittet wurde und nach einem eigenen Fertigungsprozess (Geschäftsprozess)zu Ende gebracht werden (Stichwort: modularer Aufbau). Also die GF100 hat schlussendlich nix mit Tesla zu tun.

Ich dachte da etwas anders:
A2 ist quasi "fertig", aktuell werden Teslas in diesem Stepping produziert, eventuell auch ein paar Geforce-Pressesamples.

A3 ist aber greifbar nah, bzw. wird auch schon benutzt, aber zuerst für die Geforces, und wenn die Kapazitäten es erlauben, auch für die Teslas.

Vorteil wäre: Teslas wären relativ zügig lieferbar (takten ja eh nicht so hoch, daher reicht erstmal das A2-Stepping aus), Geforce-Karten bräuchten aber wegen des hohen Taktes das A3-Stepping.
Daher kommen erstmal die niedrig getakteten Teslas mit A2, später dann die hoch taktenden Geforces mit A3!

Wäre nicht das erste Mal: Beim G80 kam die Ultra auch deutlich später, im A3 Stepping und mit deutlich höherem Takt!

MfG :cool:

reunion
2009-11-18, 14:39:31
Ich lass mich gerne eines besseren belehren aber ich habe den Eindruck dass eine LOD Anpassung wenn man TSAA auf alle Texturen erweitert erstmal gar nicht geht. Natuerlich koennte es ATI in einem submenu erlauben LOD zusaetzlich einzustellen, aber das ist ein anderes Kapitel.

Ab Cat 9.11 wird das LoD angepasst.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7667178&postcount=464

Ailuros
2009-11-18, 14:42:31
Da gab es genug. GTX295 zB erst kürzlich.

So und jetzt drehen wir uns ueber etliche Seiten wieder im Kreis rum was genau ein Paperlaunch ist oder was? Im 295 Sinn ist auch die 5970 ein Paperlaunch heute, dem ich aber nicht persoenlich zustimme weder fuer den einen oder anderen Fall.

dildo4u
2009-11-18, 14:43:41
Ich schätze die Performance von Fermi hängt mher als je zu vor vom Treiber ab,möglich das die Hardware fertig wäre,der Treiber aber noch spackt.Siehe auch ATI dort ist der Performance Verlust mit Tesselation heftig,obwhol die Karte extra Einheiten dafür hat.

http://www.pcgameshardware.de/aid,698039/Unigine-Heaven-mit-DirectX-11-Tessellation-Grafikkarten-Benchmarks/Grafikkarte/Test/

http://www.pcgameshardware.de/aid,699416/Stalker-Call-of-Pripyat-DirectX-11-im-Test-gegen-DirectX-10/Action-Spiel/Test/

reunion
2009-11-18, 14:45:01
So und jetzt drehen wir uns ueber etliche Seiten wieder im Kreis rum was genau ein Paperlaunch ist oder was? Im 295 Sinn ist auch die 5970 ein Paperlaunch heute, dem ich aber nicht persoenlich zustimme weder fuer den einen oder anderen Fall.

5970 kann ich heute kaufen, GTX295 gab es null bis Ende Jannuar, denn es dort begann die Auslieferung. Aber hat eh keinen Sinn.

Ailuros
2009-11-18, 14:48:35
Ich dachte da etwas anders:
A2 ist quasi "fertig", aktuell werden Teslas in diesem Stepping produziert, eventuell auch ein paar Geforce-Pressesamples.

A3 ist aber greifbar nah, bzw. wird auch schon benutzt, aber zuerst für die Geforces, und wenn die Kapazitäten es erlauben, auch für die Teslas.

Vorteil wäre: Teslas wären relativ zügig lieferbar (takten ja eh nicht so hoch, daher reicht erstmal das A2-Stepping aus), Geforce-Karten bräuchten aber wegen des hohen Taktes das A3-Stepping.
Daher kommen erstmal die niedrig getakteten Teslas mit A2, später dann die hoch taktenden Geforces mit A3!

Wäre nicht das erste Mal: Beim G80 kam die Ultra auch deutlich später, im A3 Stepping und mit deutlich höherem Takt!

MfG :cool:

NVIDIA gibt selber an dass die yields bei A2 komplett fuer die Tonne sind. Wenn A2 in besserem Zustand waere haetten sie auch nicht A3 noetig gehabt. Einen relativ kleinen Schub von A2 zu bestellen ist ein gewaltiger Unterschied zu groesseren Produktionsmengen und in dem Fall ist A2 viel zu teuer.

Die 90nm yields lagen fuer G80 auf einem monstroesen Prozentual im Vergleich zu 40G fuer GF100. Fuer A2 schwankt es zwischen 4 und 40+% je nach wafer. Glaubst Du ehrlich NV spinnt und bestellt etliche A2 wafer nur weil es Spass mach eventuell nur eine handvoll operativer chips von einem gelegentlichen wafer zu bekommen?

Ailuros
2009-11-18, 14:49:58
5970 kann ich heute kaufen, GTX295 gab es null bis Ende Jannuar, denn es dort begann die Auslieferung. Aber hat eh keinen Sinn.

Dann stell Dich an die Leine der Vorbestellung. Es hat eher Sinn Dich mal wieder zu nerven genau dann wenn Du nicht einsehen kannst dass Du genauso nervst.

dildo4u
2009-11-18, 14:52:52
5970 kann ich heute kaufen, GTX295 gab es null bis Ende Jannuar, denn es dort begann die Auslieferung. Aber hat eh keinen Sinn.
Du pralst ernsthaft mit Verfügbarkeit von 40nm ATI Chips?Es gibt genug "Bekloppte" die erste Charge wird näste Woche ausverkauft sein und dann gibt's bis 2010 nix mher.

reunion
2009-11-18, 14:53:46
Du praslt ernsthaft mit Verfügbarkeit von 40nm ATI Chips?Es gibt genug "Bekloppte" die Charge wird näste Woche ausverkauft,sein und dann gibt bis 2010 nix mher.

Niemand prahlt, du kannst nicht sinnerfassend lesen, sonst würdest du verstehen was ich geschrieben habe.

Menace
2009-11-18, 14:58:33
Dann stell Dich an die Leine der Vorbestellung.

:confused: Es gab die Variante OC von Sapphire laut alternate.de im selben Laden zu kaufen (616,-). Entweder ihre Lagerstandsanzeige war falsch oder die Karte(n) wurde(n) verkauft. Oder verstehe ich was falsch?

http://www.alternate.de/html/solrSearch/toArticle.html?articleId=384869&query=5970&referer=detail&link=solrSearch%2Flisting.productDetails

Edit: auch die Powercolor wird in Geizhals.at noch grün dargestellt (alternate). Ist in der Zwischenzeit auch verkauft.

mapel110
2009-11-18, 14:59:42
NVIDIA gibt selber an dass die yields bei A2 komplett fuer die Tonne sind. Wenn A2 in besserem Zustand waere haetten sie auch nicht A3 noetig gehabt. Einen relativ kleinen Schub von A2 zu bestellen ist ein gewaltiger Unterschied zu groesseren Produktionsmengen und in dem Fall ist A2 viel zu teuer.

Die 90nm yields lagen fuer G80 auf einem monstroesen Prozentual im Vergleich zu 40G fuer GF100. Fuer A2 schwankt es zwischen 4 und 40+% je nach wafer. Glaubst Du ehrlich NV spinnt und bestellt etliche A2 wafer nur weil es Spass mach eventuell nur eine handvoll operativer chips von einem gelegentlichen wafer zu bekommen?
TSMC hat doch ohnehin miese Ausbeute bei 40nm. Wie kann dann nvidia sagen, dass sie einen Respin brauchen? Also muss es doch noch andere Probleme geben.

dildo4u
2009-11-18, 15:01:18
Niemand prahlt, du kannst nicht sinnerfassend lesen, sonst würdest du verstehen was ich geschrieben habe.
Keine Karten oder kaum Karten = Paperlaunch.ATI hat mit dem DX11 Launch whol alles verspielt,ich möchte nicht wissen wie vielen OEM's sie Karten versprochen haben,die jetzt keine fürs Weihnachtsgeschäft bekommen.Es gab nie eine reale Chance das AMD 09 mit einem DX11 Paperlaunch Boden gut macht,eher das man eine ganze Menge Partner verärgert.

Ailuros
2009-11-18, 15:03:26
TSMC hat doch ohnehin miese Ausbeute bei 40nm. Wie kann dann nvidia sagen, dass sie einen Respin brauchen? Also muss es doch noch andere Probleme geben.

NV arbeitet mit TSMC fuer A3 zusammen um angeblich yields zu verbessern. Was dabei genau herauskommt kann wohl kaum jemand momentan wissen.

V2.0
2009-11-18, 15:06:50
Dazu müßte man den exakten Fehler kennen. Und warten wir mal ab, ob nicht auch schon präsentierte Chips bald in neuen Revesionen im Laden liegen werden.

Ailuros
2009-11-18, 15:08:18
:confused: Es gab die Variante OC von Sapphire laut alternate.de im selben Laden zu kaufen (616,-). Entweder ihre Lagerstandsanzeige war falsch oder die Karte(n) wurde(n) verkauft. Oder verstehe ich was falsch?

http://www.alternate.de/html/solrSearch/toArticle.html?articleId=384869&query=5970&referer=detail&link=solrSearch%2Flisting.productDetails

Edit: auch die Powercolor wird in Geizhals.at noch grün dargestellt (alternate). Ist in der Zwischenzeit auch verkauft.

Bon apetit. Und nein es ist kein boesartiger Scherz sondern die bittere Realitaet. Die erste inlaendischen Preise hier sind Wucherpreise fuer nonOC Varianten und daran ist natuerlich nicht AMD schuld sondern die Mittelmaenner die die uebermaessige Knappheit ausnutzen. 565 Euro ist momentan der niedrigste Preis und noch keine Verfuegbarkeit.

Menace
2009-11-18, 15:10:22
Mich wundert es eher, dass sie verkauft wurden. Es müssen wirklich Enthusiasten sein.

derguru
2009-11-18, 15:17:03
Mich wundert es eher, dass sie verkauft wurden. Es müssen wirklich Enthusiasten sein.

vielleicht hatten die ja nur 1-2 karten.:wink:

LovesuckZ
2009-11-18, 15:23:36
Wäre mal interessant zu wissen, wer soviel Geld für im Grunde zuwenig Mehrwert ausgibt. Ich habe vor 3 Jahren 600€ für eine 8800GTX bezahlt und die hatte schon 768MB Speicher. Heute gibt es für den selben Preis gerademal 1GB. Wenn man dann noch überlegt, dass eine einfache 4890 mit 1GB für 150€ verkauft wird, sieht das für die 5970 ziemlich bescheiden aus.

dargo
2009-11-18, 15:25:58
Ich schätze die Performance von Fermi hängt mher als je zu vor vom Treiber ab,möglich das die Hardware fertig wäre,der Treiber aber noch spackt.Siehe auch ATI dort ist der Performance Verlust mit Tesselation heftig,obwhol die Karte extra Einheiten dafür hat.

http://www.pcgameshardware.de/aid,698039/Unigine-Heaven-mit-DirectX-11-Tessellation-Grafikkarten-Benchmarks/Grafikkarte/Test/

Das ist auch nicht verwunderlich wenn praktisch die gesamte Szene @max. tesseliert wird. Reduziere den Detaillevel um beispielweise 25% - du wirst auf den ersten Blick keinen Unterschied feststellen, die Performance steigt aber.

Was erwarten alle denn, dass Tesselation for free ist? :|

Coda
2009-11-18, 15:32:13
Ich schätze die Performance von Fermi hängt mher als je zu vor vom Treiber ab,möglich das die Hardware fertig wäre,der Treiber aber noch spackt.Siehe auch ATI dort ist der Performance Verlust mit Tesselation heftig,obwhol die Karte extra Einheiten dafür hat.
Wer sagt dass Fermi keine HW-Tesselation hat? Soweit ich weiß ist die Software-These inzwischen vom Tisch.

Das Problem ist auch eher weniger die Tesselation als der Effizienzverlust durch die vielen kleinen Dreiecke.

Gast
2009-11-18, 16:06:16
Wäre mal interessant zu wissen, wer soviel Geld für im Grunde zuwenig Mehrwert ausgibt. Ich habe vor 3 Jahren 600€ für eine 8800GTX bezahlt und die hatte schon 768MB Speicher. Heute gibt es für den selben Preis gerademal 1GB. Wenn man dann noch überlegt, dass eine einfache 4890 mit 1GB für 150€ verkauft wird, sieht das für die 5970 ziemlich bescheiden aus.

Eine 8800GTX 768MB ist 600 EUR plus accrued int Wert, eine 5870 1GB aber keine 550? Verquere Logik.

LovesuckZ
2009-11-18, 16:07:02
GF100 - von hinten (http://www.vizworld.com/2009/11/nvidias-fermi-sc09/).
Sollte Fermi sein, ansonsten geht die Kritik an die Seite, die die falsche Karte fotografiert hat!

Sollte es eine GF100 sein, dann gibt es anscheinend keinen NVIO. Die Karte ist 6,2x schneller als die alte Tesla.

Eine 8800GTX 768MB ist 600 EUR plus accrued int Wert, eine 5870 1GB aber keine 550? Verquere Logik.

Stimmt, wie kann ich nur eine alte 600€ High-End Karte mit einer neuen 600€ High-End Karte vergleichen. Ich schäme mich dafür, wirklich. :(

AnarchX
2009-11-18, 16:14:59
GF100 - von hinten (http://www.vizworld.com/2009/11/nvidias-fermi-sc09/).
Sollte Fermi sein, ansonsten geht die Kritik an die Seite, die die falsche Karte fotografiert hat!

Ist offenbar das GeForce-Design.
Und mit 21 FPS ist man schon mal gute 10% schneller als das Terminator-Board bei der GTC.

Coda
2009-11-18, 16:16:16
Eine 8800GTX 768MB ist 600 EUR plus accrued int Wert, eine 5870 1GB aber keine 550? Verquere Logik.
Ich versteh dich nicht ganz.

LovesuckZ muss ich insofern recht geben, dass Dual-GPU-High-End-Karten neben den Mikrorucklern wirklich das Problem mitbringen, dass man effektiv nur halb so viel VRAM hat.

LovesuckZ
2009-11-18, 16:18:39
Ist offenbar das GeForce-Design.
Und mit 21 FPS ist man schon mal gute 10% schneller als das Terminator-Board bei der GTC.

Sie verwenden auch das erste GTX295 Design mit der offenen Platine. Ob das schon eine Andeutung für eine Sandwich-X2 Version ist? :D

/edit: Zur GTC ist man jetzt knapp 19% schneller. Kann sich also noch um A1 handeln, dass auf eine Karte gekommen ist.

Reaping_Ant
2009-11-18, 16:19:15
GF100 - von hinten (http://www.vizworld.com/2009/11/nvidias-fermi-sc09/).
Sollte Fermi sein, ansonsten geht die Kritik an die Seite, die die falsche Karte fotografiert hat!

Kommt hin, zumindest die Stromanschlüsse, der fehlende NVIO und die 12 Speicherbausteine passen zu keiner anderen Karte, die mir spontan einfällt.
Wird aber wohl eine Quadro oder Geforce sein, bei der offiziell gezeigten Tesla waren die Stromanschlüsse und die Beschleunigungslöcher im PCB etwas anders angeordnet, außerdem gibt's hier 2 DVI Anschlüsse.

w0mbat
2009-11-18, 16:19:44
Eine 8800GTX 768MB ist 600 EUR plus accrued int Wert, eine 5870 1GB aber keine 550? Verquere Logik.

Nein, ein HD5870 sollte aktuelle einfach mit 2GB kommen.

reunion
2009-11-18, 16:20:31
Warum immer nur 5x-6x? Bei der DP Leistung des GT200 sollte ein GF100 selbst bei nur 1.2Ghz zumindest theoretisch 8x mehr Leistung erreichen.

Gast
2009-11-18, 16:21:55
Keine Karten oder kaum Karten = Paperlaunch.ATI hat mit dem DX11 Launch whol alles verspielt,ich möchte nicht wissen wie vielen OEM's sie Karten versprochen haben,die jetzt keine fürs Weihnachtsgeschäft bekommen.Es gab nie eine reale Chance das AMD 09 mit einem DX11 Paperlaunch Boden gut macht,eher das man eine ganze Menge Partner verärgert.

Für Dich sind 0 und 1 gleichwertig? Nichts = Etwas < etwas mehr = Nichts ~ etwas mehr ;D
Nicht übel.. wirklich nicht übel.. :D
Zu viel Emotionen im Spiel? ;)

reunion
2009-11-18, 16:22:57
LovesuckZ muss ich insofern recht geben, dass Dual-GPU-High-End-Karten neben den Mikrorucklern wirklich das Problem mitbringen, dass man effektiv nur halb so viel VRAM hat.

Und was hat das mit dem Thema zu tun außer das du wieder mal auf eine Flame von LovesuckZ aufspringst?

Coda
2009-11-18, 16:25:04
Das hat mit dem Thema zu tun, dass ich Hemlock einfach nicht als Konkurrenz zu Fermi sehe.

Gast
2009-11-18, 16:31:14
Das hat mit dem Thema zu tun, dass ich Hemlock einfach nicht als Konkurrenz zu Fermi sehe.

Sondern? Zu Johann Lafers neuem Kochtopfset?

LovesuckZ
2009-11-18, 16:31:59
Kommt hin, zumindest die Stromanschlüsse, der fehlende NVIO und die 12 Speicherbausteine passen zu keiner anderen Karte, die mir spontan einfällt.
Wird aber wohl eine Quadro oder Geforce sein, bei der offiziell gezeigten Tesla waren die Stromanschlüsse und die Beschleunigungslöcher im PCB etwas anders angeordnet, außerdem gibt's hier 2 DVI Anschlüsse.

Scheint wirklich die GF100 zu sein - schon lustig, dass sie die Geforce-Version zeigen. :D
Jetzt müsste man wissen, ob es sich hier um A1 oder A2 handelt. Denn 6,2x Mehrleistung sind ca. 944MHz beim Shadertakt bei 16 Cores.

Coda
2009-11-18, 16:41:12
Sondern? Zu Johann Lafers neuem Kochtopfset?
Zu einer Dual-Chip-Fermi-Karte. AFR-Karten sind einfach keine gleichwertige Konkurrenz.

Selbst wenn ich beliebig Geld zur Verfügung hätte würde ich mir sowas nicht kaufen.

Gipsel
2009-11-18, 17:07:08
Warum immer nur 5x-6x? Bei der DP Leistung des GT200 sollte ein GF100 selbst bei nur 1.2Ghz zumindest theoretisch 8x mehr Leistung erreichen.
Wenn Ihr Euch erinnert, war ich schon beim Fermi-Whitepaper in Bezug auf das Half-Rate-DP ein wenig skeptisch (hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7581844#post7581844) oder auch hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7571052#post7571052)).
Nicht, daß es vielleicht nicht zu rechtfertigen wäre, Half-Rate-DP zu behaupten (kann ATI für Additionen ja im Prinzip auch ;)). Allerdings habe ich mich schon gefragt, wie wahrscheinlich es ist, daß nv sowohl die Einheiten als auch die Registerfiles entsprechend aufbohrt. Beides zusammen ist nämlich recht teuer, allerdings bringt das eine ohne das andere auch nicht den vollen Vorteil.

Jawed hat im B3D-Forum (http://forum.beyond3d.com/showthread.php?p=1360024#post1360024) nun das gleiche Argument mit den Registerfiles bemüht. Im Moment sieht es etwas danach aus, daß die Ausführungseinheiten zwar Half-Rate-DP können, allerdings eben die Registerfiles eventuell nicht genügend Ports besitzen, um das (zumindest für FMAs) auch dauerhaft zur Verfügung stellen zu können. Das erklärt zumindest die Speedups kleiner acht im Verhältnis zu GT200. Besonders auffällig ist ja auch, daß Nvidia selber gerade für Matrixmultiplikationen (praktisch nur FMAs) nur Faktor 4 angibt. Also entweder gibt es ein kleines Problem mit der Registerbandbreite, oder der Faktor 4 stammt von einem sehr frühen Sample mit ~700MHz Shadertakt.

derguru
2009-11-18, 17:28:34
fermi konkurrent wird die im 1Q. kommende xtx.mit besserem speicher +mehr kerntakt sind locker 20% drin.

Gast
2009-11-18, 17:43:53
Nein, ein HD5870 sollte aktuelle einfach mit 2GB kommen.


Warum? Wer von euch kann einschätzen inwiefern das Auswirkungen auf die Performance hat? Ich habe mir 1 Karte mit 1GB Speicher gekauft, preis-leistungsmäßig geht diese voll in Ordnung. Warum diese jetzt unbedingt 2GB haben müsste erschliesst sich mir nicht. Ich dachte wir sind hier soweit dass wir die Grafikkarten nicht primär anhand der Speicherausstattung bewerten.

Ailuros
2009-11-18, 17:45:34
Wer sagt dass Fermi keine HW-Tesselation hat? Soweit ich weiß ist die Software-These inzwischen vom Tisch.

Das Problem ist auch eher weniger die Tesselation als der Effizienzverlust durch die vielen kleinen Dreiecke.

Uhmmm ja zum letzten, nur bezweifle ich dass weder/noch eine anstaendige Loesung fuer die Effizienz der vielen kleinen Dreiecke hat. Braucht man ja auch noch nicht; erstmal die Unterstuetzung; hohe Effizienz spaeter.

Coda
2009-11-18, 17:47:03
Ich bezweifle dass sich das bei einem Immediate-Mode-Dreiecks-Rasterizer viel machen lässt. PVR ist da vermutlich besser aufgestellt

Ailuros
2009-11-18, 17:52:06
Ich bezweifle dass sich das bei einem Immediate-Mode-Dreiecks-Rasterizer viel machen lässt. PVR ist da vermutlich besser aufgestellt

Wieso? (ehrliche Frage).

Coda
2009-11-18, 17:54:28
Weil ein TBDR zuerst bestimmt für welche Pixel ein bestimmter Shader angewendet wird. Wenn man dann einen zusammenhängenden Patch mit vielen Dreiecken shaded wird die ganze Fläche so effizient gerendert wie ein großes zusammenhängendes Dreieck dieser Größe auch.

Bei IMRs wird jedes Dreieck einzeln angefasst mit entsprechendem Verschnitt.

Ailuros
2009-11-18, 17:59:42
Weil ein TBR zuerst bestimmt für welche Pixel ein bestimmter Shader angewendet wird. Wenn man dann einen zusammenhängenden Patch mit vielen Dreiecken shaded wird die ganze Fläche so effizient gerendert wie ein großes zusammenhängendes Dreieck dieser Größe auch.

Bei IMRs wird jedes Dreieck einzeln angefasst mit entsprechendem Verschnitt.

Tja das komische ist dass die Effizienz des PowerVR mit kleinen Dreiecken radikal gestiegen ist bei SGX im Vergleich selbst zur vaporware Series5 GPU. Ich dachte bisher dass MIMD beim ersten eher eine Rolle mitspielt.

Wie dem auch sei noch eine dumme OT Frage und dann machen wir schluss damit: duerfte LRB theoretisch dann nicht auch davon profitieren wenn Du recht haben solltest?

Coda
2009-11-18, 18:00:56
Ich dachte bisher dass MIMD beim ersten eher eine Rolle mitspielt.
Ich halte es für unwahrscheinlich, dass SGX MIMD-Einheiten hat. Das ist in GPUs generell eine schlechte Idee.

duerfte LRB theoretisch dann nicht auch davon profitieren wenn Du recht haben solltest?
Nö, das ist ja ein Tile Based IMR, kein TBDR.

LRB hat eine Granularität von 4x4 Pixeln. NVIDIA 8x4 Pixel (G80). Bei ATI weiß ich die genaue Form nicht.

Gipsel
2009-11-18, 18:27:06
LRB hat eine Granularität von 4x4 Pixeln. NVIDIA 8x4 Pixel (G80). Bei ATI weiß ich die genaue Form nicht.
Na 8x8, zumindest bei den Exemplaren mit 64er Wavefronts, ansonsten auch 8x4. Allerdings ist man ja nicht sklavisch auf diese Tiles festgelegt, da die Hardware das doch mit nur wenig Mehraufwand auch umsortieren kann.

Ich hab's in den LRB Thread kopiert; bitte dort weiter.

Coda
2009-11-18, 18:32:30
Was hat 8x8? G80 hat sicher 8x4, die Warps sind 32 Pixel groß. Die Warp-Size hat sich auch seither nicht verändert und wird es auch mit Fermi nicht tun.

Allerdings ist man ja nicht sklavisch auf diese Tiles festgelegt, da die Hardware das doch mit nur wenig Mehraufwand auch umsortieren kann.
Doch, es ist immer 8x4 bei G80. Da wird leider nichts umsortiert.

PHuV
2009-11-18, 18:36:46
GF100 - von hinten (http://www.vizworld.com/2009/11/nvidias-fermi-sc09/).
Sollte Fermi sein, ansonsten geht die Kritik an die Seite, die die falsche Karte fotografiert hat!

Sollte es eine GF100 sein, dann gibt es anscheinend keinen NVIO. Die Karte ist 6,2x schneller als die alte Tesla.


Wenn das wirklich Fermi ist, halleluja. :eek: Faktor 6,2 bei einer so komplexen Simulation ist heftig. Ich glaube nicht, daß das gefaked ist, sonst würde sich Nvidia komplett unglaubwürdig machen.

Coda
2009-11-18, 18:38:25
Das Demo ist schon sehr lange bekannt und läuft mit Double-Precision. Natürlich ist die viel schneller auf Fermi, das sagt überhaupts nichts über die Spieleleistung aus.

Coda
2009-11-18, 18:39:55
Na 8x8, zumindest bei den Exemplaren mit 64er Wavefronts, ansonsten auch 8x4. Allerdings ist man ja nicht sklavisch auf diese Tiles festgelegt, da die Hardware das doch mit nur wenig Mehraufwand auch umsortieren kann.
Ach jetzt versteh ich was du gemeint hast :)

8x8 kann sein, ich weiß aber nicht ob die nicht evtl. umsortieren.

Gipsel
2009-11-18, 18:52:17
Ach jetzt versteh ich was du gemeint hast :)

8x8 kann sein, ich weiß aber nicht ob die nicht evtl. umsortieren.
8x8 ist das native Layout. Angeblich (habe ich mal in irgendeiner Doku gelesen) können allerdings abweichende Layouts mit einem geringen Overhead (keine Ahnung wieviel) mit einer 2x2=Quad Granularität zu 64er Gruppen zusammengefaßt werden.

Ailuros
2009-11-18, 18:52:20
Das Demo ist schon sehr lange bekannt und läuft mit Double-Precision. Natürlich ist die viel schneller auf Fermi, das sagt überhaupts nichts über die Spieleleistung aus.

Jensen betonte aber dass das demo auf noch nicht fertigem Silizium auf Fermi laeuft:

http://www.nvidia.com/object/fermi_architecture.html

Links das video mit Jensen.

Gipsel
2009-11-18, 18:58:04
Jensen betonte aber dass das demo auf noch nicht fertigem Silizium auf Fermi laeuft:

http://www.nvidia.com/object/fermi_architecture.html

Links das video mit Jensen.
Damals war das aber auch nur Faktor ~5 schneller, inzwischen immerhin schon Faktor 6,2 ;)

Nightspider
2009-11-18, 19:07:16
Ich gehe auch davon aus das A3 würde höhere Taktraten ist.

Das war bisher immer so, das ein neueres Stepping mehr Takt und OC-Potential gebracht hat.

Nochmal ne Frage zur Anzahl der Shader: Hat Fermi nun 512 oder 384 Unified Shader ?

Die_Allianz
2009-11-18, 19:23:59
ist das schon durch?
http://twitpic.com/pyhdf

http://s3.amazonaws.com/twitpic/photos/full/43599219.jpg?AWSAccessKeyId=0ZRYP5X5F6FSMBCCSE82&Expires=1258569522&Signature=63e4xJjx3MXg5t2JfqKWWDDtcZc%3D

Ailuros
2009-11-18, 19:30:52
Ich gehe auch davon aus das A3 würde höhere Taktraten ist.

Das war bisher immer so, das ein neueres Stepping mehr Takt und OC-Potential gebracht hat.

Nochmal ne Frage zur Anzahl der Shader: Hat Fermi nun 512 oder 384 Unified Shader ?

16 SMs oder cluster mit je 32SPs/cluster ergo 512SPs
8 TMUs/cluster ergo 128 TMUs
6*64bit SI mit je 8 ROPs pro partition ergo 48 ROPs

Dural
2009-11-18, 20:35:55
ist das schon durch?
http://twitpic.com/pyhdf

http://s3.amazonaws.com/twitpic/photos/full/43599219.jpg?AWSAccessKeyId=0ZRYP5X5F6FSMBCCSE82&Expires=1258569522&Signature=63e4xJjx3MXg5t2JfqKWWDDtcZc%3D

erkenne die karte nicht, ist es wirklich fermi?

mictasm
2009-11-18, 20:41:21
erkenne die karte nicht, ist es wirklich fermi?
Auf Seite 287 von Ailuros verlinkt.

Nightspider
2009-11-18, 20:48:53
Wenn Nvidia tatsächlich mehr als doppelt soviel Uniefied Shader hat wie der GT200 und die Taktraten auf ähnlichem Level sind stehen die Chancen imho wirklich nicht schlecht das die Performance >50% liegt.

Klar, AMD hat die Shader auch verdoppelt...aber nicht alle Einheiten ebenso verdoppelt...zudem präsentiert Nvidia uns eine komplett neue Architektur, wo es im normalfall schon so sein sollte, das die Effizienz erhöhrt wird.

Also ich hoffe immernoch auf Leistungswert + 80-120 %...auch wenn mich dafür einige lynchen werden...ich hoffe es ja nur.
Nvidia lässt sich bestimmt auch nicht ohne Grund genügend Zeit für ein A3 Stepping.

GT200+113,3%Shadereinheiten+/-ArchitektureEffizienz...wenn da nur 50% rauskommen würden, wäre das ziemlich enttäuschend...

reunion
2009-11-18, 20:52:28
Klar, AMD hat die Shader auch verdoppelt...aber nicht alle Einheiten ebenso verdoppelt...


Umgekehrt ist es richtig.

w0mbat
2009-11-18, 21:12:58
Auf Seite 287 von Ailuros verlinkt.

Wir sind gerade auf Seite 117, da passt was nicht :wink:

Schlammsau
2009-11-18, 21:18:52
Also ich hoffe immernoch auf Leistungswert + 80-120 %...auch wenn mich dafür einige lynchen werden...ich hoffe es ja nur.
Nvidia lässt sich bestimmt auch nicht ohne Grund genügend Zeit für ein A3 Stepping.

Tagträumer.

25 - 50% zur Vorgängergeneration im Schnitt.

Nightspider
2009-11-18, 21:26:04
Tagträumer.

25 - 50% zur Vorgängergeneration im Schnitt.

25%- ...wird ja immer besser :freak:

Da würde Nvidia besser kommen den G200 in 40nm zu shrinken und nur den Takt anzuheben...;D

Sorkalm
2009-11-18, 21:28:10
Wir sind gerade auf Seite 117, da passt was nicht :wink:

Aber nicht in den Standardeinstellungen. Da haste im Kontrollzentrum was bezüglich der Anzahl der Posts pro Seite verstellt.

Rampage 2
2009-11-18, 21:28:15
Da ich mir bald einen 24"-Monitor mit 1080-Auflösung zulegen werde, werde ich eine viel stärkere GPU brauchen - auch wegen DX11. Anfangs hatte ich noch vor, mir eine GTX 285 für 250-300€ zu kaufen. Aber da die Verfügbarkeit miserabel ist und die neue Nvidia-GPU-Generation vor der Tür steht, habe ich mich entschlossen, den Verkaufsstart von DX11-Mainstream-Karten abzuwarten. Ich habe allerdings keine Vorstellung, wann diese kommt und welche Leistungsdimensionen sie erreichen wird. Daher wüsste ich gerne, wie ihr den Einführungstermin und die Rohleistung einschätzt. Meine Überlegungen:

Verkaufsstart: Frühjahr 2010

Rohleistung:

Also ich sehe hier drei Möglichkeiten:

Set 1 (optimal): 32 Pixelpipelines/64 TMU's/256 SP's/256Bit SI an GDDR5-RAM
Taktraten: 800MHz Core/2GHz Shader/2GHz (physikalisch) Speicher

Set 2 (realistisch): 16 PP's/64 TMU's/128 SP's/256Bit SI an GDDR5-RAM
Taktraten: 800MHz Core/2,5GHz Shader/1,5-2GHz (physikalisch) Speicher

Set 3 (Worst-Case): 16 PP's/32 TMU's/128 SP's/256Bit SI an GDDR5-RAM
Taktraten: 800MHz Core/2,5GHz Shader/1,5GHz (physikalisch) Speicher

Hoffe, wenigstens diesmal realistische Szenarien gemacht zu haben.

boxleitnerb
2009-11-18, 21:28:40
Gibt halt mehrere Tagträumer hier :D
Die Radeon-Fraktion hätte es ja am liebsten, wenn Fermi langsamer als GT200 wäre und doppelt soviel verbrauchen würde bei einer Kartenlänge von einem Meter ;)
Spekulieren ist ja lustig, aber dieser penetrante kindische Kleinkrieg ist doch langsam lächerlich.

LovesuckZ
2009-11-18, 21:37:28
Vorallen hat GF100 bei gleichem Core-, Shader- und Speichertakt zur GTX285 genau:
60% mehr Texel-Fillrate
50% mehr Pixel-Fillrate
50% mehr Speichertakt
123% mehr Rechenleistung.

Warum da auch nur 25% Mehrleistung rauskommen soll, ist mir schleierhaft...

davidzo
2009-11-18, 21:38:47
Wir sind gerade auf Seite 117, da passt was nicht :wink:

du benutzt nicht die foren standardsicht, oder?


25%- ...wird ja immer besser :freak:

Da würde Nvidia besser kommen den G200 in 40nm zu shrinken und nur den Takt anzuheben...;D

Ne, dann könnte man sich die Supercomputerambitionen abschminken, trotz CUDA und so. AMD hat bei DP seit rv770 zumindest theoretisch dermaßen die Nase vorn.

Gibt halt mehrere Tagträumer hier :D
Die Radeon-Fraktion hätte es ja am liebsten, wenn Fermi langsamer als GT200 wäre und doppelt soviel verbrauchen würde bei einer Kartenlänge von einem Meter ;)


Wünsche mir eine karte wie die 5870 und eine etwas schächere ala 5850, dazu ne dualchipkarte etwa auf 5970 bereich. Schöne Linuxtreiber dazu!
- Dann fallen die Preise für alle am stärksten.

Vorallen hat GF100 bei gleichem Core-, Shader- und Speichertakt zur GTX285 genau:
60% mehr Texel-Fillrate
50% mehr Pixel-Fillrate
50% mehr Speichertakt
123% mehr Rechenleistung.

Warum da auch nur 25% Mehrleistung rauskommen soll, ist mir schleierhaft...

fermi hat aber nicht denselben Core- und shadertakt wie die GTX285. Selbst bei GT200 Architekturen musste nvidia vor TSMCs grottigem 40nm kapitulieren und runtergehen, siehe die unübertaktbaren gt220 mit 550mhz. fermi ist noch größer und die teslakarten erreichen ja gerademal 500mhz. Im übrigen sagt der Speichertakt garnichts aus, wenn sich die tiefe des interface verändert, man sollte besser mit speicherbandbreite argumentieren, deine zahlen stimmten in bezug auf den takt auch nicht ganz.
Sieht dann eher so aus:
45% mehr Texel-Fillrate
40% mehr Pixel-Fillrate
45% mehr Speicherbandbreite (bei 2,4Ghz GDDR5 -> 230GB/s)
20% mehr Rechenleistung (singleprecision)

Sieht alles gut aus, bis auf das letzte, das macht mir noch gedanken, selbst wenn die effizienz durch caches etc. noch massiv gestiegen sein soll sind 20% mehr shaderleistung für nextgen einfach zu wenig. wenn dann noch der tesselator etc. in software ist, dann siehts in dx11spielen schlecht aus für fermi.
denke aber dass nvidia den takt noch wieder in richtung gtx285 bringt, also 20% mehr, sonst wäre das in der tat eine ernüchternde neuvorstellung und gerademal eben genug für eine 5870.

Nightspider
2009-11-18, 21:41:35
Ne, dann könnte man sich die Supercomputerambitionen abschminken, trotz CUDA und so. AMD hat bei DP seit rv770 zumindest theoretisch dermaßen die Nase vorn.

Naja, wenn Nvidia wirklich nur 25+% mehr Leistung will könnte man ja wirklich 2 vers. Schienen fahren...für Gamer GT200 shrinken, Geld sparen + Mehrleistung und für Server Fermi ähnliche Architekturen entwicklen... ;D

Coda
2009-11-18, 22:09:29
GT200 shrinken würde nichts bringen. Die alte Architektur skaliert nicht auf so viele Einheiten.

Gast
2009-11-18, 22:18:28
Ich schätze die Performance von Fermi hängt mher als je zu vor vom Treiber ab,möglich das die Hardware fertig wäre,der Treiber aber noch spackt.Siehe auch ATI dort ist der Performance Verlust mit Tesselation heftig,obwhol die Karte extra Einheiten dafür hat.



Natürlich bricht die Performance ein wenn man das zigfache an Polygonen zu berechnen hat, wie soll es auch anders sein.

LovesuckZ
2009-11-18, 22:21:13
fermi hat aber nicht denselben Core- und shadertakt wie die GTX285.

Stimmt, es könnten auch mehr sein. Danke für den Hinweis. :D
Bis jetzt gibt es keine Angaben zur GF100. Selbst wenn der Shadertakt nur bei 1230MHz läge, hätte man immer noch 78% mehr Rechenleistung. SP-Flops ist sowieso uninteressant, da wir nicht wissen, inwieweit die Mul auch verwendet wird.
Und 648MHz beim Coretakt sollte kein Hinderniss darstellen. Daran kränkt es nicht bei nVidia.

Coda
2009-11-18, 22:21:27
Natürlich bricht die Performance ein wenn man das zigfache an Polygonen zu berechnen hat, wie soll es auch anders sein.
Nun, die Vertex-Arbeit ist eigentlich vernachlässigbar. Wenn die Rasterisierung dadurch nicht so viel ineffizienter werden würde wäre das eigentlich kein großes Thema.

Reiner Polycount ist schon lange kein gutes Performancekriterium mehr.

Schlammsau
2009-11-18, 22:23:46
Naja, wenn Nvidia wirklich nur 25+% mehr Leistung will könnte man ja wirklich 2 vers. Schienen fahren...für Gamer GT200 shrinken, Geld sparen + Mehrleistung und für Server Fermi ähnliche Architekturen entwicklen... ;D

Und was ist dann mit DX11?

G!ZMo
2009-11-18, 22:34:15
Und was ist dann mit DX11?
Wer brauch schon DX11?:freak:

Gast
2009-11-18, 22:35:15
Wenn Nvidia tatsächlich mehr als doppelt soviel Uniefied Shader hat wie der GT200 und die Taktraten auf ähnlichem Level sind stehen die Chancen imho wirklich nicht schlecht das die Performance >50% liegt.

Spieleleistung hängt noch immer großteils an der TMU-Power, und da sind es nur 60% mehr.

+50-60% sind realistisch, mehr wären eine Überraschung.

reunion
2009-11-18, 22:36:08
Und 648MHz beim Coretakt sollte kein Hinderniss darstellen. Daran kränkt es nicht bei nVidia.

Sagt wer? Auch der Coretakt liegt sehr niedrig.

Gast
2009-11-18, 22:43:45
Nun, die Vertex-Arbeit ist eigentlich vernachlässigbar. Wenn die Rasterisierung dadurch nicht so viel ineffizienter werden würde wäre das eigentlich kein großes Thema.

Wenn man es so extrem betreibt wie die Techdemo sicher nicht, im Zeitalter von unified shader nimmt die höhere Vertexlast auch dem Pixelshader Performance weg.

Die neuen Shader für dei Tesselationsstages brauchen sicher auch noch ein wenig, und wie du eben sagst bricht natürlich die Effizienz mit kleinen Dreiecken stark ein.

Und da sich nicht immer alles schön Front2Back ausgeht wird der Overdraw auch ein wenig ansteigen.

Gast
2009-11-18, 23:01:05
Spieleleistung hängt noch immer großteils an der TMU-Power, und da sind es nur 60% mehr.

Ist deshalb 16x HQAF so billig?

Wie auch immer, selbst wenn du Recht hättest, hier und da den Texturfilter "optimiert" und es flutscht als ob nichts wär.

Undertaker
2009-11-18, 23:03:06
Sagt wer? Auch der Coretakt liegt sehr niedrig.

Gab es da nicht die Limitierung, dass dieser nicht über ein bestimmtes Verhältnis zum Shadertakt steigen darf? Wenn dem so war, würde ein Taktproblem der Shaderdomain den Coretakt gleich mit ausbremsen.

LovesuckZ
2009-11-18, 23:09:21
Gab es da nicht die Limitierung, dass dieser nicht über ein bestimmtes Verhältnis zum Shadertakt steigen darf? Wenn dem so war, würde ein Taktproblem der Shaderdomain den Coretakt gleich mit ausbremsen.

Core und Shadertakt sind unabhängig. Warum also der Coretakt niedriger sein sollte, ist eine ziemlich komische Aussage. Die 8800GTX hat 575Mhz C und 1350Mhz S Takt, die GTX280 hat 602Mhz C und 1296Mhz S Takt.

Undertaker
2009-11-18, 23:25:15
Ah, hab es wieder gefunden:

1:2 ist die Grenze, was wohl daran liegen dürfte dass der Thread-Manager(global sheduler) mit halbierten Shadertakt läuft und bei einem Verhältnis geringer 1:2 unter dem generellen Setup-Takt der GPU liegen würde, was wohl nicht funktioniert.

Könnte das in diesem Fall gegriffen haben?

LovesuckZ
2009-11-18, 23:32:38
Das könnte man ja realitiv einfach nachweisen.
Aber ich sehe nicht das Problem: Bei 648Mhz Core-Takt der GTX285 benötigt man auch nur einen Shadertakt von 1296Mhz. Und da selbst eine GTX280 auf diesem lief, sehe ich keine Zweifel, dass dieser Shadertakt machbar ist.

Rampage 2
2009-11-18, 23:52:55
Da ich mir bald einen 24"-Monitor mit 1080-Auflösung zulegen werde, werde ich eine viel stärkere GPU brauchen - auch wegen DX11. Anfangs hatte ich noch vor, mir eine GTX 285 für 250-300€ zu kaufen. Aber da die Verfügbarkeit miserabel ist und die neue Nvidia-GPU-Generation vor der Tür steht, habe ich mich entschlossen, den Verkaufsstart von DX11-Mainstream-Karten abzuwarten. Ich habe allerdings keine Vorstellung, wann diese kommt und welche Leistungsdimensionen sie erreichen wird. Daher wüsste ich gerne, wie ihr den Einführungstermin und die Rohleistung einschätzt. Meine Überlegungen:

Verkaufsstart: Frühjahr 2010

Rohleistung:

Also ich sehe hier drei Möglichkeiten:

Set 1 (optimal): 32 Pixelpipelines/64 TMU's/256 SP's/256Bit SI an GDDR5-RAM
Taktraten: 800MHz Core/2GHz Shader/2GHz (physikalisch) Speicher

Set 2 (realistisch): 16 PP's/64 TMU's/128 SP's/256Bit SI an GDDR5-RAM
Taktraten: 800MHz Core/2,5GHz Shader/1,5-2GHz (physikalisch) Speicher

Set 3 (Worst-Case): 16 PP's/32 TMU's/128 SP's/256Bit SI an GDDR5-RAM
Taktraten: 800MHz Core/2,5GHz Shader/1,5GHz (physikalisch) Speicher

Hoffe, wenigstens diesmal realistische Szenarien gemacht zu haben.

Will denn niemand hierzu etwas sagen? Ich will wissen, ob es sich lohnt auf diese Karten zu warten.

R2

Dimon
2009-11-18, 23:55:21
Will denn niemand hierzu etwas sagen? Ich will wissen, ob es sich lohnt auf diese Karten zu warten.

R2

Warte doch einfach bis die Fermi und ihre ableger kommen, dann kannste dich entscheiden...


Gruß

Rampage 2
2009-11-18, 23:58:04
Warte doch einfach bis die Fermi und ihre ableger kommen, dann kannste dich entscheiden...


Gruß

Ich will eine ungefähre Vorstellung davon haben, welche Rohleistung für die kommenden nv-Mainstream-Karten realistisch sind - weil wenn es sich nicht lohnt will ich mir dann doch 'ne GTX285 kaufen, bevor sie im Weihnachtsgeschäft alle weg sind...

R2

Dimon
2009-11-19, 00:02:48
Ich will eine ungefähre Vorstellung davon haben, welche Rohleistung für die kommenden nv-Mainstream-Karten realistisch sind - weil wenn es sich nicht lohnt will ich mir dann doch 'ne GTX285 kaufen, bevor sie im Weihnachtsgeschäft alle weg sind...

R2

Kann dir leider keine Auskunft erteilen da ich mich unzureichend informiert habe...

Guck dir einfach mal die Postings an, vllt. findet sich was das dir genügen könnte :)


Gruß

Schrotti
2009-11-19, 01:33:27
Mir ist egal was nvidia nun plant, Sie mögen bitte aus der Hüfte kommen.

Wie lange soll das noch dauern?

Gast
2009-11-19, 01:45:44
Basiert Fermi auf dem G200 oder ist da seine komplett neue Architektur ?

Coda
2009-11-19, 01:50:19
Wenn man es so extrem betreibt wie die Techdemo sicher nicht
Rechne mal nach. Auf HD5800-VLIW braucht ein Vertex-Shader bei der Demo vielleicht 10 Takte, lass es mit Displacement-Mapping 50 sein.

850 Mhz * 320 ALUs / 50 Clocks = 5440 Mio Vertices/s. Da der Tesselator gute Vertex-Cache-Order erzeugen sollte 1,5 Vertices pro Dreieck berechnen genügen, also ~2500 MTri/s.

Das Demo rendert wenn's hoch kommt 100 MTri/s. Also 1/25 der Arbeit ist Vertex.

Wie gesagt, ich denke es ist eher die Rasterisierung das Bottleneck bei Tesselation.

Gast
2009-11-19, 06:57:58
denke aber dass nvidia den takt noch wieder in richtung gtx285 bringt, also 20% mehr, sonst wäre das in der tat eine ernüchternde neuvorstellung und gerademal eben genug für eine 5870.

Yep!

Fermi [550/1230MHz] <-> 5870

Pixel: 26400 <-> 27200; 0,97:1 [laut Ailuros sind es ja 48ROPs]
Texel: 70400 <-> 68000; 1,036:1 [Annahme: Fermi hat 128 TMUs]

Bleibt nur noch die Bandbreitenvorteil auf der "Habenseite", dafür die massiv schlechtere Shaderleistung in SP. Selbst eine 100%ige Auslastung rettet hier nicht mehr viel. 1260 x 95% <-> 2720 x 60% => 1,36:1 für die 5870.

Bringt ATi im Frühjahr noch eine RV870 Karte mit mehr Bandbreite schwindet auch hier der Vorsprung dahin.....

Wer also gehofft hat, das Fermi wesentlich schneller wird als die 5870 sollte noch einmal nachdenken oder muss darauf vertrauen, das es die Bandbreite schon richten wird. Wer jetzt argumentiert, das es beim GT200 <-> RV770 ja auch nicht so sehr auf die Shaderleistung angekommen ist, stimmt, aber da hatte der GT200 wenigsten bei der Pixel und Texel-Leistung massiv die Nase vorne (ca. +70%), beim Fermi ist das nicht der Fall.

reunion
2009-11-19, 07:01:12
Core und Shadertakt sind unabhängig. Warum also der Coretakt niedriger sein sollte, ist eine ziemlich komische Aussage. Die 8800GTX hat 575Mhz C und 1350Mhz S Takt, die GTX280 hat 602Mhz C und 1296Mhz S Takt.

225W TDP bei 550/1230 stehen zu Buche. Eine komische Aussage ist es höchstens zu glauben das man hier ohne mit dem Wimper zu zucken 20% beim Core drauflegt.

V2.0
2009-11-19, 07:04:59
Will denn niemand hierzu etwas sagen? Ich will wissen, ob es sich lohnt auf diese Karten zu warten.

R2

Es gibt bereits ein excellente Peformacekarte für DX11 -> 5850. Willst Du 6-7 Monate warten bis NV eine Alternative anbietet, die wahrscheinlich teurer und langsamer ist?

Gast
2009-11-19, 07:28:14
225W TDP bei 550/1230 stehen zu Buche. Eine komische Aussage ist es höchstens zu glauben das man hier ohne mit dem Wimper zu zucken 20% beim Core drauflegt.

Yep! ²

Und diese Karten kommen erst im Mai 2010. Haben also zumindest eine A3-GPU drauf. Wieso jetzt die Geforce plötzlich 20% schneller sein sollen ist sehr seltsam. Ist wohl nur eine Fanbxx Hoffnung.

Ailuros
2009-11-19, 07:42:39
Yep!

Fermi [550/1230MHz] <-> 5870

Pixel: 26400 <-> 27200; 0,97:1 [laut Ailuros sind es ja 48ROPs]
Texel: 70400 <-> 68000; 1,036:1 [Annahme: Fermi hat 128 TMUs]

Bleibt nur noch die Bandbreitenvorteil auf der "Habenseite", dafür die massiv schlechtere Shaderleistung in SP. Selbst eine 100%ige Auslastung rettet hier nicht mehr viel. 1260 x 95% <-> 2720 x 60% => 1,36:1 für die 5870.

Wenn ich die 5970 GFLOPs durch A1 GFLOPs dividiere bekomme ich einen 4.11x Faktor. Komischerweise lag der von chiphell berichtete extreme vantage score (und ja die Quelle ist nicht das was ich als glaubwuerdig nennen wuerde) fuer den noch niedrigeren FLOP peak Wert bei lediglich 17% niedriger.

Es heisst nach wie vor das theoretische Zahlen keinesfalls ausschlaggebend sein koennen. Schon ein effizienteres triangle setup koennte theoretisch einen Unterschied machen.

Bis zu GT200 gibt es einige Schwachstellen wie z.B. tri-setup, 8xAA Leistung und so weiter und so fort. Die Tatsache dass GF100 erstmal 48 Pixel/Takt bearbeiten kann sagt mir erstmal gar nichts, wenn NV nicht die genaue Schwachstelle (ueber die bis jetzt leider keiner weiss woher sie genau kommt) beseitigt hat kann das Ding von mir aus auch 100 Pixel/Takt auf Papier bearbeiten.

Solche Milchmaedchenrechnungen fuehren nur in eine Sackgasse, eben weil GPUs viel zu komplizierte Tiere sind. Bei 700MHz core Frequenz waere der Vergleich zu Hemlock ziemlich unangenehm im Durchschnitt aber die peak Leistungen wuerden nach wie vor fuer Hemlock sprechen.


Wer also gehofft hat, das Fermi wesentlich schneller wird als die 5870 sollte noch einmal nachdenken oder muss darauf vertrauen, das es die Bandbreite schon richten wird. Wer jetzt argumentiert, das es beim GT200 <-> RV770 ja auch nicht so sehr auf die Shaderleistung angekommen ist, stimmt, aber da hatte der GT200 wenigsten bei der Pixel und Texel-Leistung massiv die Nase vorne (ca. +70%), beim Fermi ist das nicht der Fall.

Siehe oben.

Korvaun
2009-11-19, 08:14:37
Ich will eine ungefähre Vorstellung davon haben, welche Rohleistung für die kommenden nv-Mainstream-Karten realistisch sind - weil wenn es sich nicht lohnt will ich mir dann doch 'ne GTX285 kaufen, bevor sie im Weihnachtsgeschäft alle weg sind...

R2

Also die DX-11 Mainstream nv-Karten werden wohl in den selben Geschwindigkeitsregionen angesiedelt sein wie GTX285, wenn überhaupt.. Wenn du auf DX-11 + den "Neuheitsfaktor" verzichten kannst gibts keinen Grund so lange zu warten...

LovesuckZ
2009-11-19, 09:26:07
Es gibt bereits ein excellente Peformacekarte für DX11 -> 5850. Willst Du 6-7 Monate warten bis NV eine Alternative anbietet, die wahrscheinlich teurer und langsamer ist?

Jo, eine nichtkaufbare Karte. Er muss so oder so warten, oder soll er über Weihnachten mit einer nicht verfügbaren Karte spielen?

V2.0
2009-11-19, 09:33:59
Bei der 5850 muss er sich "nur" bei den Vorbestellern einreihen. Bei NV wartet er noch ein völlig unbestimmte Zeit.

davidzo
2009-11-19, 12:48:48
Stimmt, es könnten auch mehr sein. Danke für den Hinweis. :D

Bei 225W TDP schon bei A2? Denke eher nicht.


Bis jetzt gibt es keine Angaben zur GF100. Selbst wenn der Shadertakt nur bei 1230MHz läge, hätte man immer noch 78% mehr Rechenleistung.

Wie du schon zugibst, es gibt die Angabe von 1230mhz. Mehr Rechenleistung als was?


SP-Flops ist sowieso uninteressant, da wir nicht wissen, inwieweit die Mul auch verwendet wird.

Sprich DPflops sind interessant oder was? In Hinblick auf 2,7Tflops beim rv870 sind die SPflops schon interessant, selbst wenn die Auslastung da auch noch eine Rolle spielt...


Und 648MHz beim Coretakt sollte kein Hinderniss darstellen. Daran kränkt es nicht bei nVidia.
Genau bestimmt nicht! Beim GT215 ja auch überhaupt nicht und der ist nur der letzte chip von nvidia, kleiner und einfacher als fermi und auch in 40nm. Völlig klar, von 1600mhz der 9600GT in 65nm auf 1360mhz bei der GT220 in 40nm ist ein klarer aufwärtstrend in Sachen Takt!


Core und Shadertakt sind unabhängig.
Shadertakt muss mindestens 2:1 vor dem Coretakt liegen. Ab dann ist er theoretisch unabhängig. Doof, wenn man die Geometrieleistung (Core) erhöhen könnte, aber der Shadertakt nicht mitmacht. Aber davon hat Fermi ja eigentlich genug, besser wäre in der tat umgekehrt, etwas mehr Shadertakt, selbst wenn der Coretakt zu gunsten der TDP etwas niedriger bleibt.


Bei 648Mhz Core-Takt der GTX285 benötigt man auch nur einen Shadertakt von 1296Mhz. Und da selbst eine GTX280 auf diesem lief, sehe ich keine Zweifel, dass dieser Shadertakt machbar ist.
Naja, mit A2 derzeit wohl leider nicht.

Will denn niemand hierzu etwas sagen? Ich will wissen, ob es sich lohnt auf diese Karten zu warten.

R2

Ich denke deine Einschätzungen sind relativ realistisch, aber ich würde eventuell ein 128bit oder 192bit interface in betracht ziehen für midrange. außerdem kommt dneke ich ersteinmal der kleine midrangechip für die oems und dann erst ein performancechip um die Lücke zu schließen, so hat nvidia das immer gemacht.
würde also eher auf ein chip mit 128-192 SM und 16rops und 128bit GDDR5 bei vollem Takt (mind 2Ghz)schließen. GDDR5 mit niedrigeren takten gibts kaum noch, und die Preise für 1,8Ghz GDDR5 liegen zum Beispiel sogar unter denen von gutem GDDR3 (1,2GHz)

Jo, eine nichtkaufbare Karte. Er muss so oder so warten, oder soll er über Weihnachten mit einer nicht verfügbaren Karte spielen?

Es werden permanent welche ausgeliefert. Wenn man jetzt eine bestellt bekommt man sie in drei Wochen, wenn man allerdings wartet bis erst alle Vorbesteller Ihre karten haben und danach wieder genügend im Laden stehen, dann kann das natürlich bis zum Fermi Paperlaunch dauern. Ich werde dich ggf . dran erinnern, wenn du nach bestellung auf deine fermi wartest. genau wie beim takt :P

Ailuros
2009-11-19, 12:52:07
Kommt ganz drauf an was man genau mit midrange meint.

Gast
2009-11-19, 13:23:54
Solche Milchmaedchenrechnungen fuehren nur in eine Sackgasse, eben weil GPUs viel zu komplizierte Tiere sind. Bei 700MHz core Frequenz waere der Vergleich zu Hemlock ziemlich unangenehm im Durchschnitt aber die peak Leistungen wuerden nach wie vor fuer Hemlock sprechen.


Akzeptiert. :) :)

Aber mit noch schwachsinnigeren Milchmädchenrechnungen versuchen gerade die Fanboys den Fermi zu hypen bis durch die Decke durch. Der reine Zahlenvergleich sollte nur helfen, damit sie wieder etwas auf den Boden runter kommen. ;)

Dural
2009-11-19, 13:29:30
also 650/1500MHz hallte ich für Fermi schon für möglich...

Sie müssen auch mit diesem takt kommen, es sei den der Fermi ist schon mit 550/1230MHz eine richtige überraschung!
Oder es gibt keine andere lösung...

ROP takt war NOCH NIE ein Problem bei NV, auch beim den GT21x in 40nm nicht! Deswegen halte ich die 650MHz doch für sehr realistisch! Der ROP takt skaliert auch hervorragent mit mehr Spannung, jedenfalls bei den GT2xx Karten, der Shader takt hingegen kaum!

und die 1500MHz kommen sicher mit A3 oder neuer schon irgend wie zustande...

das grösste problem in sich ist ja immer noch: 40nm und solange das es hier nicht vernünftig läuft werden wir Fermi wohl auch nicht wirklich sehen! Ich denke das Fermi selber eigentlich nicht so der problemhaufen ist, sondern das es derzeit wirklich nur an der fertigung liegt!

Was macht man wenn man eine schlechte herstellung hat? man nimmt natürlich den takt runter um "etwas" mehr raus zuholen!

Ailuros
2009-11-19, 14:55:36
also 650/1500MHz hallte ich für Fermi schon für möglich...

Sie müssen auch mit diesem takt kommen, es sei den der Fermi ist schon mit 550/1230MHz eine richtige überraschung!
Oder es gibt keine andere lösung...

Frequenz ist etwas dass ein IHV als letztes herausfindet. Hier ueberschaetzen sich normalerweise alle mit sehr wenigen Aussnahmen. Was jetzt mit GF100 genau los ist weiss nur NV selber und es haengt sehr viel vom Stromverbrauch ab, ueberhaupt wenn der Herstellungsprozess auf so wackligen Beinen steht.

ROP takt war NOCH NIE ein Problem bei NV, auch beim den GT21x in 40nm nicht! Deswegen halte ich die 650MHz doch für sehr realistisch! Der ROP takt skaliert auch hervorragent mit mehr Spannung, jedenfalls bei den GT2xx Karten, der Shader takt hingegen kaum!

1. Ist bei ROPs z.B. fuer AA Leistung wie ein chip mit dem Speicher bzw. Bandbreite umgeht wichtiger als die Frequenz.

2. Auf welchem Planet und in welcher Galaxy genau ist bei GT21x die core Frequenz kein Problem? GT215 hat lediglich 550MHz gegen 650MHz einer 9600GT und genau eben deshalb ist die erste ein ziemlich langweiliges und ueberfluessiges Produkt im Vergleich zum zweiten. Ach ja OEM und 10.1 und ja hier werden schon gute Mengen verkauft werden, aber dass die Core Frequenz auf GT21x kein Problem sein soll (noch besser alle Frequenzen ueberhaupt) siehst aber wohl nur Du.

und die 1500MHz kommen sicher mit A3 oder neuer schon irgend wie zustande...

Vielleicht weniger oder vielleicht sogar noch mehr. Ich wuerde aber trotz allem liebend gerne wissen woher genau Deine Sicherheit kommt.

das grösste problem in sich ist ja immer noch: 40nm und solange das es hier nicht vernünftig läuft werden wir Fermi wohl auch nicht wirklich sehen! Ich denke das Fermi selber eigentlich nicht so der problemhaufen ist, sondern das es derzeit wirklich nur an der fertigung liegt!

Wenn GF100 nicht zumindest GT200b Frequenzen erreichen kann dann ist es wohl nicht nur die Schuld des Prozesses; und da Du schon GT21x erwaehnt hast die eher laecherlichen Frequenzen unter 40nm bei der vergleichsmaessigen laecherlichen Chip-komplexitaet im Vergleich zu GF100 sind alles andere als eine Tatsache die besondere Hoffnungen erwecken wuerde.

Was macht man wenn man eine schlechte herstellung hat? man nimmt natürlich den takt runter um "etwas" mehr raus zuholen!

Echt? Wenn der Takt nicht mit den yields direkt verbunden ist dann haette jeglicher IHV einen Vogel wenn sie so weit kommen wuerden.

Dieser hin und her Quark ist nutzlos wenn man nicht weiss was genau das eigentliche Problem ist und wo es genau einschlaegt. Nochmal zum mitlesen die yields liegen bei A2 zwischen 4 und 40+% je nach Wafer; wenn Du auf einem wafer 4% lebende chips hast, dann heisst es dass 96% von diesem wafer total k.o. und daher total nutzlos sind.

LovesuckZ
2009-11-19, 15:13:51
Bei der 5850 muss er sich "nur" bei den Vorbestellern einreihen. Bei NV wartet er noch ein völlig unbestimmte Zeit.

Ja - und deswegen überlegte er auch, sich heute noch eine sofort erhältliche GTX285 zu kaufen. Bei der 5850 muss er im schlimmsten Fall noch bis zum Jahr 2010 warten, bevor er eine erhält.

Gast
2009-11-19, 15:27:04
Ja - und deswegen überlegte er auch, sich heute noch eine sofort erhältliche GTX285 zu kaufen. Bei der 5850 muss er im schlimmsten Fall noch bis zum Jahr 2010 warten, bevor er eine erhält.
Dann lieber 2x 5770 im CF. Günstiger, 25-30% schneller und DX11 sofort lieferbar.

Nakai
2009-11-19, 15:30:23
Dieser hin und her Quark ist nutzlos wenn man nicht weiss was genau das eigentliche Problem ist und wo es genau einschlaegt. Nochmal zum mitlesen die yields liegen bei A2 zwischen 4 und 40+% je nach Wafer; wenn Du auf einem wafer 4% lebende chips hast, dann heisst es dass 96% von diesem wafer total k.o. und daher total nutzlos sind.

Wow, ist es wirklich so schlecht? Also müssen wir noch bis auf A3 warten, welches Ende des Jahres gemacht wird...ergo Anfang 2010 gibts dann den Fermi.

Da kann man hoffen, dass NV ihre Midrange-Chips am laufen hat. Wenn die auch erst für deutlich später anstehen, dann siehts wirklich mies aus.

Ergo wird man wohl erst im späten H1 2010 wirklich aufholn können.


mfg

boxleitnerb
2009-11-19, 15:33:11
Und Quatsch ;)
CF/SLI ist unterhalb Highend Quatsch.

Dural
2009-11-19, 15:48:34
Frequenz ist etwas dass ein IHV als letztes herausfindet. Hier ueberschaetzen sich normalerweise alle mit sehr wenigen Aussnahmen. Was jetzt mit GF100 genau los ist weiss nur NV selber und es haengt sehr viel vom Stromverbrauch ab, ueberhaupt wenn der Herstellungsprozess auf so wackligen Beinen steht.

1. Ist bei ROPs z.B. fuer AA Leistung wie ein chip mit dem Speicher bzw. Bandbreite umgeht wichtiger als die Frequenz.

2. Auf welchem Planet und in welcher Galaxy genau ist bei GT21x die core Frequenz kein Problem? GT215 hat lediglich 550MHz gegen 650MHz einer 9600GT und genau eben deshalb ist die erste ein ziemlich langweiliges und ueberfluessiges Produkt im Vergleich zum zweiten. Ach ja OEM und 10.1 und ja hier werden schon gute Mengen verkauft werden, aber dass die Core Frequenz auf GT21x kein Problem sein soll (noch besser alle Frequenzen ueberhaupt) siehst aber wohl nur Du.

Vielleicht weniger oder vielleicht sogar noch mehr. Ich wuerde aber trotz allem liebend gerne wissen woher genau Deine Sicherheit kommt.

Wenn GF100 nicht zumindest GT200b Frequenzen erreichen kann dann ist es wohl nicht nur die Schuld des Prozesses; und da Du schon GT21x erwaehnt hast die eher laecherlichen Frequenzen unter 40nm bei der vergleichsmaessigen laecherlichen Chip-komplexitaet im Vergleich zu GF100 sind alles andere als eine Tatsache die besondere Hoffnungen erwecken wuerde.

Echt? Wenn der Takt nicht mit den yields direkt verbunden ist dann haette jeglicher IHV einen Vogel wenn sie so weit kommen wuerden.

Dieser hin und her Quark ist nutzlos wenn man nicht weiss was genau das eigentliche Problem ist und wo es genau einschlaegt. Nochmal zum mitlesen die yields liegen bei A2 zwischen 4 und 40+% je nach Wafer; wenn Du auf einem wafer 4% lebende chips hast, dann heisst es dass 96% von diesem wafer total k.o. und daher total nutzlos sind.

es gibt aber GT21x OC karten die über 600MHz ROP takt haben aber der Shader takt nicht angehoben wird, oder nur ganz wenig, wie so wohl?

ROP ist definitiv kein Problem, aber beim fermi kann das sicher noch keiner sagen, es würde mich aber sehr wundern!

Was bringt mir mehr ROP takt wenn die Shader nicht so mit machen wie sie sollten?

aber mal eine andere Frage, wie so sollte man bei einer TESLA karte überhaupt über 550MHz gehen bei nur 1230MHz Shader? könnte ja sein das die davon überhaupt nicht mehr profitiert! das ding hat ja immherhin 48ROPs und nur 150GB/s... oder lieg ich jetzt komplett daneben?

Meine "theorie" sagt das der nidrige Shader takt allgemein an den Problemen bei 40nm liegen, das ist alles! und ehrlich gesagt spricht derzeit ja alles dafür!

Wir haben Chips A (GT21x) die bei 1200-1300MHz liegen und wir haben Chip B der auch bei 1200-1300MHz liegt aber mehr oder weniger eine neue Architektur hat! Zudem haben die Chips A in 55nm gezeigt das auch mehr geht mit fast 1500MHz und das inkl DP die ja früher immer für den nidrigen takt verantwortlich gemacht wurden!

ich lehn mich jetzt mal ganz weit aus dem fenster und behaupte das 40nm derzeit bis ca. 1GHz gut ist, alles darüber macht probleme! von 2GHz ist derzeit nicht zu träumen! und nur als erinnerung, die 2GHz wurden mit 55nm schon fast erreicht!

reunion
2009-11-19, 15:52:09
es gibt aber GT21x OC karten die über 600MHz ROP takt haben aber der Shader takt nicht angehoben wird, oder nur ganz wenig, wie so wohl?


Bei den kleinen Chips in 40nm sind 600Mhz mit OC alles andere als berühmt. Schon so manche 90nm Karten takteten höher. Offensichtlich schafft es NV zumindest bei den GT21x-Chips nicht mehr den Takt der Vorgängerkarten zu erreichen.


aber mal eine andere Frage, wie so sollte man bei einer TESLA karte überhaupt über 550MHz gehen? könnte ja sein das die davon überhaupt nicht mehr profitiert! das ding hat ja immherhin 48ROPs und nur 150GB/s... oder lieg ich jetzt komplett daneben?

Bei Tesla-Karten ist das ohnehin egal. Dort sind nur die ALUs entscheidend. Das Problem ist halt nur das diese auch nur mit max. 1230Mhz takten und das Problem sind die 225W TDP bei den bescheidenen Taktraten (Chip: 550Mhz).

Gipsel
2009-11-19, 16:03:02
Bei Tesla-Karten ist das ohnehin egal. Dort sind nur die ALUs entscheidend. Das Problem ist halt nur das diese auch nur mit max. 1230Mhz takten und das Problem sind die 225W TDP bei den bescheidenen Taktraten (Chip: 550Mhz).
Nun, da wahrscheinlich zumindest der L2 Cache mit "Chip"-Takt läuft, ist es vielleicht nicht ganz unwichtig. Ein höherer Takt sollte z.B. die Speicherlatenzen schon positiv beeinflussen. Da Fermi jetzt sogar weniger Threads pro Ausführungseinheit verwalten kann als GT200, sind niedrige Speicherlatenzen wahrscheinlich wichtiger als bei GT200. Ich denke nvidia baut hier sehr auf die Caches um an den Schedulern zu sparen.

Gast
2009-11-19, 16:04:03
Da kann man hoffen, dass NV ihre Midrange-Chips am laufen hat. Wenn die auch erst für deutlich später anstehen, dann siehts wirklich mies aus.

Hast du schon Gerüchte zu einem Tapeout der Midrange-Fermi GPUs gehört? Ich noch nicht. Und ich glaube jetzt einfach mal, das Nvidia sowas sofort an die Presse geben würde und wir würden das dann innerhalb von Stunden als "Gerücht" vom Inquirer/Bridesideofnews oder anderen Webseiten hören. Nvidia braucht momentan einfach gute Nachrichten.

Dural
2009-11-19, 16:05:03
eben wie so wird dann immer auf diese 550MHz rumgeriten?

und 650MHz bei 1Volt ist übrigens sehr gut!

ROP war nie das problem nur die Shader!

@Gipsel

wie kommst du darauf das der L2 über den ROP takt geht?

Gipsel
2009-11-19, 16:19:36
@Gipsel

wie kommst du darauf das der L2 über den ROP takt geht?
Weil die ROPs und die L2-Caches mit ihren Partitionen eine Einheit bilden. Wenn ein Speichercontroller mitsamt der zugehörigen ROP-Partition deaktiviert wird, dann auch jeweils der dazugehörige L2-Anteil. Ist bei ATI übrigens auch so.

Sprich, wenn eine beschnittene Fermi-Variante mit 256Bit-Speicherinterface herauskommen sollte, dann hätte der ziemlich sicher nur noch 32 ROPs und 512kB L2, pro 64Bit-Speichercontroller mit zugehörigen ROPs hat Fermi (genau wie Cypress) 128kB L2.

Zumindest ist es bisher immer so gewesen, sowohl bei ATi als auch nvidia. Wie soll das denn alternativ laufen? Vielleicht nicht direkt vergleichbar, aber es ist ja sogar bei CPUs mit integriertem Speichercontroller so, daß der dort befindliche L3 ebenfalls mit dem gleichen Takt wie die integrierte Northbridge mitsamt MC läuft ;)

Coda
2009-11-19, 16:22:31
Nun, da wahrscheinlich zumindest der L2 Cache mit "Chip"-Takt läuft, ist es vielleicht nicht ganz unwichtig. Ein höherer Takt sollte z.B. die Speicherlatenzen schon positiv beeinflussen. Da Fermi jetzt sogar weniger Threads pro Ausführungseinheit verwalten kann als GT200, sind niedrige Speicherlatenzen wahrscheinlich wichtiger als bei GT200. Ich denke nvidia baut hier sehr auf die Caches um an den Schedulern zu sparen.
Dagegen spricht, dass Zugriffsmuster bei GPUs sehr unberechenbar sein können.

Gipsel
2009-11-19, 16:28:21
Dagegen spricht, dass Zugriffsmuster bei GPUs sehr unberechenbar sein können.
Meist berechenbarer als bei CPUs. Auch parallelisierbarer Code (GPGPU) hat meist vergleichsweise reguläre Zugriffsmuster, serieller Code springt wirklich häufig quasi zufällig im Speicher rum. Deswegen reichen bei GPUs ja die vergleichsweise kleinen Texturecaches, die spatial locality ist viel größer als bei CPUs üblich ;).

Edit:
Achja, wogegen sprechen die Zugriffsmuster eigentlich genau?

davidzo
2009-11-19, 16:37:49
Und Quatsch ;)
CF/SLI ist unterhalb Highend Quatsch.
Es soll auch Leute geben, denen MRs nicht auffallen, niedrige FPS schon.
Im übrigen scheint bei ATI das MRproblem mit der Plattform zu skalieren, bzw. mit der Bandbeite der GPUs. bei 2x 8x oder 8x/4x (2.0) wie das viele midrangeboards haben ist das natürlich ein problem, bei bloomfield zum Beispiel oder dem 790FX aber eher weniger.
- Muss jeder selbst wissen. Die 20-30% leistungsplus für denselben Preis kann man aber imo auch in FPS stecken, denn ab bestimmten FPSwerten fallen MRs ja nicht mehr auf.

es gibt aber GT21x OC karten die über 600MHz ROP takt haben aber der Shader takt nicht angehoben wird, oder nur ganz wenig, wie so wohl?

link?


Was bringt mir mehr ROP takt wenn die Shader nicht so mit machen wie sie sollten?

Füllrate, denn das hatte nvidia bishe rimmer deutlich mehr. Bei fermi kommt die 5870 aber bereits bedrohlich nahe.

könnte ja sein das die davon überhaupt nicht mehr profitiert! das ding hat ja immherhin 48ROPs und nur 150GB/s... oder lieg ich jetzt komplett daneben?

Ja, aber die Geforce hat biszu 230GB/s, da sollte man dann schon entsprechend höhere L2 leistung und genug geometrieleistung bieten um das auszunutzen.


Meine "theorie" sagt das der nidrige Shader takt allgemein an den Problemen bei 40nm liegen, das ist alles! und ehrlich gesagt spricht derzeit ja alles dafür!

Dito. Nur wie löst man die Probleme? Löst man die überhaupt, ist das nvidias Sache? AMD ist auch nicht höher gegangen als bei der letzten Architektur, aber immerhin haben sie denselben Takt erreicht, was man wohl dem Training mit rv740 verdankt.


wie kommst du darauf das der L2 über den ROP takt geht?

Wie kommst du darauf dass man eine neue Taktdomain zwischen rop und speicherinterface einfügt nur für soetwas nebensächliches wie den L2?

Kosh
2009-11-19, 16:41:50
Ich würde sagen,das die neue Highspeedkarte vom Fermi die 5870 um 5-10% schlägt.Ohne Rücksicht auf Lautstärke und Stromverbrauch.

Warum? Weil der Fermi in Spielen schwächer ist als viele denken und hoffen,aber NVIDIA sich nicht die Blöße geben wird langsamer zu sein als die 5870.

Somit wird die Spannung,Takt usw soweit erhöht,das man geradeso die 5870 schlägt.

Denn für viele zählt nur das. Selbst wenn sie 500W verbrauchen würde und 100 Dezibel laut wäre, für viele wäre nur wichtig,das sie die schnellste Karte ist.

Somit tut NVIDIA alles um etwas schneller zu sein als die 5870. Da der Fermi wohl nicht so flott wird wie viele denken, muss dann halt die Karte am Limit laufen mit hohen Spannungen.Hauptsache schneller.

Habe dafür keine Bewiese . Ist halt meine Vermutung und genauso wahrscheinlich wie die ganzen 60% schneller als eine 285GTX Spekulanten.

MorPheuZ
2009-11-19, 16:47:26
Leider alles spekulation... es kann alles stimmen und im gleichen athemzug falsch sein... das ist ja das verflixte am Ganzen;(

Zum dahinsiechen:freak:

Coda
2009-11-19, 16:54:18
Meist berechenbarer als bei CPUs. Auch parallelisierbarer Code (GPGPU) hat meist vergleichsweise reguläre Zugriffsmuster, serieller Code springt wirklich häufig quasi zufällig im Speicher rum. Deswegen reichen bei GPUs ja die vergleichsweise kleinen Texturecaches, die spatial locality ist viel größer als bei CPUs üblich ;).
Ja, irgendwas hab ich da durcheinander gebracht.

Vermutlich hatte ich im Kopf dass Caches nicht viel bringen, weil man sowieso Latenzen relativ gut kaschieren kann.

Gast
2009-11-19, 17:03:36
Core und Shadertakt sind unabhängig.

Nicht ganz, der Coretakt kann maximal halben Shadertakt haben.

Aquaschaf
2009-11-19, 17:17:38
Vermutlich hatte ich im Kopf dass Caches nicht viel bringen, weil man sowieso Latenzen relativ gut kaschieren kann.

Die Caches in einer GPU dienen eher dazu Bandbreite zum globalen GPU-Speicher zu sparen, als dass sie Latenzen zu reduzieren.

Coda
2009-11-19, 17:40:11
Naja Gipsel meinte ja eben schon, dass es auch bei den Latenzen helfen könnte weil man relativ weniger Threads In-Flight hat bei Fermi.

Aquaschaf
2009-11-19, 18:08:06
Jo, im Gegensatz zu den bisherigen GPUs von Nvidia und ATI würde es dort eher Sinn ergeben.

LovesuckZ
2009-11-19, 18:25:15
Nv macht ein Riesenbrimborium um DP (was mich persönlich auch interessiert) und wie viel Steigerung uns Fermi da bringen wird. Jetzt landet man bei DP auf Cypress-Level (und die Auslastung der Einheiten ist bei DP kein Problem bei ATIs!). Die SP-Performance ist ihnen offenbar so peinlich (wenn man böse ist, nennt man das HD48x0-Niveau ;D), daß sie in der Pressemeldung noch nicht mal erwähnt wird. Und Du glaubst, es gibt keine Taktprobleme?

nVidia sprach seit der GTC von "up to 8x increase". Du kannst dich gerne davon überzeugen und dir die Videos auf nvidia.com ansehen. Es wäre ziemlich dumm, von nur 8x zu reden, wenn man auch 10x erreichen könnte, oder?
Und nVidia spricht nicht von AMD, weil AMD in diesem Markt nicht existent ist. nVidia untersützt DP seit vorgestern auch über OpenCL. AMD nicht.


Und dafür benötigen die Teslas auch noch 190W typisch, maximal sogar 225W. Zwar mit viel Speicher, allerdings auch nur bei stromsparenden 800MHz Speichertakt (ECC spielt hier keine Rolle). Cypress benötigt maximal 190W (offiziell 188W), typisch sind es eher 150W oder weniger. Und Du glaubst, nv hat geplant, bei so geringen Takten so viel zu verbrauchen? Und das, wo doch im Vorfeld soviele Gerüchte zur sehr guten Energieeffizienz von Fermi zu hören waren? Sicher!

Wenn wir alle Gerüchte als wahr nehmen und dann das nicht eintreffen dieser als "fail" bezeichnen, dann hat nVidia auch mit dem G80 einen riesigen Fail abgeliefert: Unified Shader statt getrennte. :eek:


Und der Schritt von GTX280 zur GTX285 paßt ja wohl überhaupt nicht hier rein. Also ich habe so dunkel in Erinnerung, daß die GTX280 in 65nm, die GTX285 aber in 55nm produziert wurden/werden. Da könnte ich auch behaupten, daß in 7 Monaten ATI ein RV890 in 32nm bei 1.1GHz und 120W bringen wird. Schau Dir doch mal die Differenz zwischen den GTX und Tesla-Karten an! Bei den 65nm GT200 gab es gar keinen Unterschied und bei GT200b basierten GPUs taktet die GTX285 ganze 36 MHz höher als die Teslas. Bahnbrechend, wirklich!

Dann nehme den Schritt von der 8800GTX zur GTX280: Dort ist man auch beim Shadertakt nicht über dem Wert der 8800GTX gekommen. Im Gegensatz zur GTX280, die noch deutlich unter dem der 9800GTX liegt - die 9800GTX lag 30% höher beim Shadertakt, käme die GTX285 zur GF100 nur auf maximal 20% bei 1230MHz. Trotzdem wird der Leistungsgewinn zur GTX285 höher ausfallen als von der GTX280 zur 8800GTX (bzw. 9800GTX). Denn es sind wesentlich mehr Einheiten dazu gekommen: 60% mehr Textureinheiten, 50% mehr ROPs, 123% mehr Recheneinheiten und dank GDDR5 auch ca 50% mehr Speicherbandbreite. Die GTX280 hatte einen höheren Coretakt als die 8800GTX.
Und noch kurz der Vergleich GTX280 zur 8800GTX: 80% mehr Recheneinheiten, 33% mehr ROPs, 25% mehr Textureinheiten und dagegen 63% mehr Speicherbandbreite.
Und die internen Veränderungen bei Fermi erscheinen mir als Laie wesentlich umfangreicher als vom GT200 zum G80.
Schlussendlich hat nVidia als seit dem GT200 es nicht geschafft die Taktrate über G80 mit einer neuen Generation zu bringen.

Gipsel
2009-11-19, 18:45:33
@LovesuckZ:
Wird zwar wieder nicht viel bringen, aber ich breche mir ja keinen Zacken aus der Krone wenn ich Dich darauf hinweise, daß Du eben komplett an allen aufgeworfenen Problemen vorbei argumentiert hast ;)

LovesuckZ
2009-11-19, 18:52:46
@LovesuckZ:
Wird zwar wieder nicht viel bringen, aber ich breche mir ja keinen Zacken aus der Krone wenn ich Dich darauf hinweise, daß Du eben komplett an allen aufgeworfenen Problemen vorbei argumentiert hast ;)

Nein. Das geht aus dem Kontext hervor, aus welchem du mich Zitierst hast und aus deiner Antwort:
Außer vielleicht nvidia selber, die dieses Exklusivwissen gleich in eine Pressemittelung übersetzt haben, die offiziell ein paar Performance-Zahlen für die Fermi-Teslas verkündet ;).

nVidia sprach von Anfang immer nur von 8x*. Und wir haben es im Grunde nie hinterfragt. Die "aufgeworfenen Probleme" sind also keine. Und wenn wir spekulierte Werte als Wahrheit annehmen, dann wäre auch Unified Shader ein "fail" gewesen.

* 8x the peak DP performance (Quelle: Fermi Vorstellung GTC)

Gipsel
2009-11-19, 19:11:51
Nein. Das geht aus dem Kontext hervor, aus welchem du mich Zitierst hast und aus deiner Antwort
Na dann etwas genauer zumindest zu einem Punkt.
Es ging um mögliche Taktunterschiede zwischen den Teslas und Consumerkarten. Nvidia hat die Consumervarianten bisher nie wesentlich höher getaktet als die Teslas. Du kommst dann als Gegenargument mit dem GTX280->GTX285 Übergang von 65 auf 55nm und dann noch mit einem ebenfalls unzutreffendem Vergleich beim Wechsel von der G80/G92-Architektur auf GT200.

Den Rest kannst Du Dir selbst überlegen. Ich muß Dir ja wohl nicht alles vorkauen, oder? :rolleyes:

Gipsel
2009-11-19, 19:18:14
nVidia sprach von Anfang immer nur von 8x*. Und wir haben es im Grunde nie hinterfragt. Die "aufgeworfenen Probleme" sind also keine.
Du magst das ja interpretieren wie Du willst, aber das Problem ist, daß Cypress in DP ziemlich genau Faktor 7 vor einem GT200 liegt (praktisch tendenziell sogar etwas mehr). Wenn nv da nicht wirklich vorbeizieht, obwohl das ja ein Schwerpunkt des Designs war, wie sieht das denn mit den anderen Aspekten aus? Nur mal so zum Nachdenken.

Oder ganz einfach: das Problem ist, das Fermi durchaus einfach zu langsam sein könnte. Verstanden?

LovesuckZ
2009-11-19, 19:25:39
Na dann etwas genauer zumindest zu einem Punkt.
Es ging um mögliche Taktunterschiede zwischen den Teslas und Consumerkarten. Nvidia hat die Consumervarianten bisher nie wesentlich höher getaktet als die Teslas. Du kommst dann als Gegenargument mit dem GTX280->GTX285 Übergang von 65 auf 55nm und dann noch mit einem ebenfalls unzutreffendem Vergleich beim Wechsel von der G80/G92-Architektur auf GT200.

Nö, du redest von "massiven" Taktproblemen. Vielleicht liege ich falsch, vielleicht geht nVidia auch andere Wege im Tesla-Bereich. Fakt ist, dass die 1230MHz von Anfang an angepeilt waren.

/edit: Die Aussage bezüglich höhere Taktung vom GF100 im Gegensatz zur Tesla-Version wurde vor der entgültigen Realisierung von mir getroffen, dass nVidia immer nur von maximal 8x Leistungszuwachs gesprochen hat (ich selbst habe es sogar nicht wirklich wahrgenommen). Damit stimme ich mir dir überein, dass GF100 keinen wirklich höhreren Shadertakt haben wird. Schlussendlich muss man aber auch sehen, dass die 1230 bzw. 1240Mhz eben auch die Zieltakraten gewesen sind. Sonst hätte nVidia doch klar von 10x bzw. 11x gesprochen.


Den Rest kannst Du Dir selbst überlegen. Ich muß Dir ja wohl nicht alles vorkauen, oder? :rolleyes:

Jap, habe ich: Du liegst falsch mit der "massiven Taktproblem" Behauptung.


Oder ganz einfach: das Problem ist, das Fermi durchaus einfach zu langsam sein könnte. Verstanden?

Wo sollen sie denn bitte "zu langsam sein"? Dort, wo DP eine Rolle spielt, ist es AMD nicht. Dort, wo DP keine Rolle spielt, ist DP kein "Vorteilsargument". nVidia's DP Funktionalität ist nun auf dem Niveau von Cypress. Welchen Grund sollten also die GPGPU Entwickler haben, sich einen Cypress zu kaufen? nVidia's Softwarelösungen sind denen von AMD sowas von überlegen, dass AMD noch so billig ihre Hardware verkaufen kann - das interessiert den Leuten nicht.

reunion
2009-11-19, 19:31:49
nVidia sprach von Anfang immer nur von 8x*. Und wir haben es im Grunde nie hinterfragt. Die "aufgeworfenen Probleme" sind also keine.

* 8x the peak DP performance (Quelle: Fermi Vorstellung GTC)

Das ist aber ein sehr schwaches Argument. Von Anfang an, ist klar. Zur diesjährigen GTC gab es natürlich schon Fermi-Chips und man wusste auch schon von (Takt-)Problemen. Jetzt ist es halt öffentlich.

PulsarS
2009-11-19, 19:42:30
Wo sollen sie denn bitte "zu langsam sein"? Dort, wo DP eine Rolle spielt, ist es AMD nicht. Dort, wo DP keine Rolle spielt, ist DP kein "Vorteilsargument". nVidia's DP Funktionalität ist nun auf dem Niveau von Cypress. Welchen Grund sollten also die GPGPU Entwickler haben, sich einen Cypress zu kaufen? nVidia's Softwarelösungen sind denen von AMD sowas von überlegen, dass AMD noch so billig ihre Hardware verkaufen kann - das interessiert den Leuten nicht.
Meinst du jetzt die Profi-Karten oder die Gamer-Karten?

Gast
2009-11-19, 20:30:34
Dort, wo DP keine Rolle spielt, ist DP kein "Vorteilsargument". nVidia's DP Funktionalität ist nun auf dem Niveau von Cypress. Welchen Grund sollten also die GPGPU Entwickler haben, sich einen Cypress zu kaufen? nVidia's Softwarelösungen sind denen von AMD sowas von überlegen, dass AMD noch so billig ihre Hardware verkaufen kann - das interessiert den Leuten nicht.
Stimmt so auch nicht ganz. Die aktuelle Nr.5 der TOP100 Supercomputer nutzt 2560 Stück der ATI 4870X2.
Die werden schon wissen warum sie lieber die X2 genommen haben als eine Tesla. Wenn man auf brutale DP-Power angewiesen ist nimmt man halt CAL und Brook+ auch wenns nicht so "fancy" zu programmieren ist wie cuda.

deekey777
2009-11-19, 20:37:12
Stimmt so auch nicht ganz. Die aktuelle Nr.5 der TOP100 Supercomputer nutzt 2560 Stück der ATI 4870X2.
Die werden schon wissen warum sie lieber die X2 genommen haben als eine Tesla. Wenn man auf brutale DP-Power angewiesen ist nimmt man halt CAL und Brook+ auch wenns nicht so "fancy" zu programmieren ist wie cuda.
Brook+ gilt allgemein als deutlich einfacher zu nutzen als CUDA.
Aber darum geht es gerade nicht: Was kostet eine Tesla und was eine HD4870X2?

Es ist ja nicht so, dass es keine Supercomputer mit Tesla gibt, ganz im Gegenteil, siehe Platz 56. Es sei auch angemerkt, dass dieser Rechner seit der Aufnahme in die Liste keine Verbesserungen hatte und etwa die Hälfte der theoretischen Leistung schafft.

reunion
2009-11-19, 20:43:05
Aber darum geht es gerade nicht: Was kostet eine Tesla und was eine HD4870X2?

Wenn man dieselbe DP-Leistung erreichen will sicherlich um ganze Zehnerpotenzen weniger.


Es ist ja nicht so, dass es keine Supercomputer mit Tesla gibt, ganz im Gegenteil, siehe Platz 56. Es sei auch angemerkt, dass dieser Rechner seit der Aufnahme in die Liste keine Verbesserungen hatte und etwa die Hälfte der theoretischen Leistung schafft.

Platz 56 ggü. Platz 5. Jeweils ein Supercomputer. Eine Überlegenheit sieht jedenfalls anders aus.

deekey777
2009-11-19, 20:57:04
Wenn man dieselbe DP-Leistung erreichen will sicherlich um ganze Zehnerpotenzen weniger.



Platz 56 ggü. Platz 5. Jeweils ein Supercomputer. Eine Überlegenheit sieht jedenfalls anders aus.
Ähm, wie kannst du eigentlich einen Rechner mit 170 Tesla S1070 1U mit einem Milky Way 1 vergleichen, dessen über 5.000 Nehalems allein das Mehrfache schaffen?

reunion
2009-11-19, 21:00:27
Ähm, wie kannst du eigentlich einen Rechner mit 170 Tesla S1070 1U mit einem Milky Way 1 vergleichen, dessen über 5.000 Nehalems allein das Mehrfache schaffen?

Nenne mir einen besseren Vergleich. Die 2560 Stück 4870X2 schaffen sicherlich auch ein Mehrfaches der 170 Tesla S1070 1U bei wohl geringerem Preis. Wenn niemand mehr Teslas verbaut kann ja ich nichts dafür. Welcher Vergleich von Supercomputer ist schon "fair"? Es ging aber auch um ganz was anderes, nämlich das die NV-GPUs zumindest bis dato auch nicht gerade in Hülle und Fülle verbaut werden.

deekey777
2009-11-19, 21:09:21
Das wirklich eine seltsame Haltung.
AMD bietet keine verglichbaren Systeme wie die Tesla-Systeme an. AMD bietet keine Dual-FireStreams. Die Chinesen haben sich selbst alles zusammengebaut - für 100 Millionen US-Dollar oder so.

reunion
2009-11-19, 21:14:48
Das wirklich eine seltsame Haltung.
AMD bietet keine verglichbaren Systeme wie die Tesla-Systeme an. AMD bietet keine Dual-FireStreams. Die Chinesen haben sich selbst alles zusammengebaut - für 100 Millionen US-Dollar oder so.

Du weichst laufend aus. Das AMD das alles nicht anbietet ist mir bekannt, das habe ich auch nie bestritten. Der Punkt war und ist das NV bis dato trotzdem auch nicht mit mehr Erfolg in diesem Segment punkten kann.

=Floi=
2009-11-19, 21:17:35
zitat
nVidia sprach von Anfang immer nur von 8x*. Und wir haben es im Grunde nie hinterfragt. Die "aufgeworfenen Probleme" sind also keine. Und wenn wir spekulierte Werte als Wahrheit annehmen, dann wäre auch Unified Shader ein "fail" gewesen.

* 8x the peak DP performance (Quelle: Fermi Vorstellung GTC)

das ist reine schönrednerei! schon der Gt200 war zu langsam und nun bleibt die taktrate nochmal gleich. SO kann es sicherlich nicht im sinne von nv sein.

LovesuckZ
2009-11-19, 21:26:33
Es ist doch komplett egal, wie die Leistung realisiert wird. AMD verdopplte ihre technischen Details und am Ende kam 60% Mehrleistung zur 4870 heraus. Eine 5970 ist dagegen gerademal doppelt so schnell wie eine 4890. nVidia dagegen hat ihren Chip deutlich umgekrempelt. Ob es sich am Ende auszahlt, werden wir sehen.

Gast
2009-11-19, 21:31:05
Es ist doch komplett egal, wie die Leistung realisiert wird. AMD verdopplte ihre technischen Details und am Ende kam 60% Mehrleistung zur 4870 heraus. Eine 5970 ist dagegen gerademal doppelt so schnell wie eine 4890. nVidia dagegen hat ihren Chip deutlich umgekrempelt. Ob es sich am Ende auszahlt, werden wir sehen.
Wenn du es nur auf die 3D-Spiele-Performance abgesehen hast dann magst du unter Umständen sogar recht haben.
Für das reine Numbercrunching sind wahrscheinlich ATIs die bessere Wahl, auch wenn Fermi mal da sein sollte.

BlackFog
2009-11-19, 22:02:57
Wenn du es nur auf die 3D-Spiele-Performance abgesehen hast dann magst du unter Umständen sogar recht haben.
Für das reine Numbercrunching sind wahrscheinlich ATIs die bessere Wahl, auch wenn Fermi mal da sein sollte.

Und das glaubst du weil?
Von den theoretischen 2,irgendwas TFlops der AMD-Karte kommen wieviel praktisch an?

=Floi=
2009-11-19, 22:12:33
ati hat eben nicht ALLES verdoppelt, dadurch hängt der chip imho an der bandbreite. bei der 5970er kommt die power auch nicht auf den bonden.

reunion
2009-11-19, 22:14:28
Vorallem investiert die HD5-Serie deutlich mehr Texelfüllrate ins AF als die HD4-Serie, deshalb ist der Vergleich ohnehin nicht fair. Ohne AF ist der Unterschied größer.

Gast
2009-11-19, 22:32:27
Und das glaubst du weil?
Von den theoretischen 2,irgendwas TFlops der AMD-Karte kommen wieviel praktisch an?
Kommt ganz auf die Anwendung an. Bei Milkyway@home liegt die durchschnittliche DP TFLOP-Leistung von ATI-Karten seeeeehr nahe am theoretischem Maximun was die Karte an TFlops laut Datenblatt bietet.
Also quasi immer mehr als 90% des theoretisch möglichen. Bei Collatz nicht ganz so hoch, da dort die Speicherbandbreite eine wichtigere Rolle spielt als MW.
Aber prinzipiell ist es möglich die Karten wirklich voll auszulasten.

Gast
2009-11-19, 22:38:22
Vorallem investiert die HD5-Serie deutlich mehr Texelfüllrate ins AF als die HD4-Serie, deshalb ist der Vergleich ohnehin nicht fair.Wie fair sind dann erst Vergleiche zwischen NV-Karten und den in Sachen Texturfilterung massiv schlechteren ATIs?

Ailuros
2009-11-19, 22:57:32
es gibt aber GT21x OC karten die über 600MHz ROP takt haben aber der Shader takt nicht angehoben wird, oder nur ganz wenig, wie so wohl?

Du solltest wohl wissen wieso viele chips eine gewisse Uebertaktungstoleranz haben bevor Du jegliche relevante These auf den Kopf stellst, aber es hat NICHTS mit dem Thema hier zu tun. GT215 kann sich nicht von der 9600GT gut absetzen hier gibt es kein aber.

ROP ist definitiv kein Problem, aber beim fermi kann das sicher noch keiner sagen, es würde mich aber sehr wundern!

Sagt der NV hw engineer.

Was bringt mir mehr ROP takt wenn die Shader nicht so mit machen wie sie sollten?

Dann lies gefaelligst nochmal meinen vorigen Beitrag durch oder im Notfall halte Dich von Thesen ab von denen Du nichtmal einen Bruchteil verstehst.

aber mal eine andere Frage, wie so sollte man bei einer TESLA karte überhaupt über 550MHz gehen bei nur 1230MHz Shader? könnte ja sein das die davon überhaupt nicht mehr profitiert! das ding hat ja immherhin 48ROPs und nur 150GB/s... oder lieg ich jetzt komplett daneben?

Die ALU:TMU Frequenz Relation wird bei ~2.3x liegen. Wenn die ALUs bei 1260 getaktet sein sollten dann 550, 1500: 650 und so weiter und so fort.

Woher kommen jetzt die 150GB/s Bandbreite nochmal?

Meine "theorie" sagt das der nidrige Shader takt allgemein an den Problemen bei 40nm liegen, das ist alles! und ehrlich gesagt spricht derzeit ja alles dafür!

Muelltonne aufklappen---> These reinstecken ---> Muelltonne wieder zu. Ich sags nochmal wenn Du nicht weiss was genau los ist lass es bleiben.

Wir haben Chips A (GT21x) die bei 1200-1300MHz liegen und wir haben Chip B der auch bei 1200-1300MHz liegt aber mehr oder weniger eine neue Architektur hat! Zudem haben die Chips A in 55nm gezeigt das auch mehr geht mit fast 1500MHz und das inkl DP die ja früher immer für den nidrigen takt verantwortlich gemacht wurden!

ich lehn mich jetzt mal ganz weit aus dem fenster und behaupte das 40nm derzeit bis ca. 1GHz gut ist, alles darüber macht probleme! von 2GHz ist derzeit nicht zu träumen! und nur als erinnerung, die 2GHz wurden mit 55nm schon fast erreicht!

Ich sag lieber gar nichts mehr zum Thema und trete mir selber in delikate Koerperbereiche denn nur intensiver Schmerz hielft hier mich irgendwie abzulenken.

Coda
2009-11-19, 23:01:27
Brook+ gilt allgemein als deutlich einfacher zu nutzen als CUDA.
Bitte was?

Ailuros
2009-11-19, 23:02:51
Ich würde sagen,das die neue Highspeedkarte vom Fermi die 5870 um 5-10% schlägt.Ohne Rücksicht auf Lautstärke und Stromverbrauch.

A1 lag schon 20% ueber Cypress nur musst Du jetzt noch wissen wo da die Frequenzen lagen.

Warum? Weil der Fermi in Spielen schwächer ist als viele denken und hoffen,aber NVIDIA sich nicht die Blöße geben wird langsamer zu sein als die 5870.

Somit wird die Spannung,Takt usw soweit erhöht,das man geradeso die 5870 schlägt.

Das originale Frequenz-Ziel war 700/1600; die einzige Frage ist nun ob sie diese auch erreichen werden koennen.

Somit tut NVIDIA alles um etwas schneller zu sein als die 5870. Da der Fermi wohl nicht so flott wird wie viele denken, muss dann halt die Karte am Limit laufen mit hohen Spannungen.Hauptsache schneller.

Habe dafür keine Bewiese . Ist halt meine Vermutung und genauso wahrscheinlich wie die ganzen 60% schneller als eine 285GTX Spekulanten.

Dann lass Dich aber bloss nicht enttaeuschen ;)

reunion
2009-11-19, 23:30:59
Wie fair sind dann erst Vergleiche zwischen NV-Karten und den in Sachen Texturfilterung massiv schlechteren ATIs?

Die HD5870 verliert mehr Füllrate mit AF als eine GTX285 und sie bricht auch stärker mit AF ein als eine GTX285. Trotz mehr Texelfüllrate. Wenn dann hat AMD was in der Implementierung verbockt IMO.

Gipsel
2009-11-19, 23:38:34
Nö, du redest von "massiven" Taktproblemen. Vielleicht liege ich falsch,
Ja, Du liegst falsch. Du hast als erster in diesem Thread von "massiven Taktproblemen" geredet, kannst gerne zurückblättern. Dies ist der erste Post, in dem ich das selber eingetippt habe ;). Das ändert aber nichts daran, daß nach dem momentanen Augenschein nvidia offensichtlich ein Taktproblem hat.

Fakt ist, dass die 1230MHz von Anfang an angepeilt waren.;D
Frag' mal Ailuros dazu!
Du liegst falsch mit der "massiven Taktproblem" Behauptung.Die ich allerdings nie aufgestellt habe ;D

Wo sollen sie denn bitte "zu langsam sein"? Dort, wo DP eine Rolle spielt, ist es AMD nicht. Dort, wo DP keine Rolle spielt, ist DP kein "Vorteilsargument". nVidia's DP Funktionalität ist nun auf dem Niveau von Cypress. Welchen Grund sollten also die GPGPU Entwickler haben, sich einen Cypress zu kaufen?Kannst Du Deine Gedanken nochmal ordnen? So kann das kein Mensch verstehen!
AMD ist nicht zu langsam, wenn DP wichtig ist und wo DP keine Rolle spielt ist es kein Argument für Fermi? Was soll es nvidia helfen, daß Fermi ein bis zwei Quartale später die DP-Fähigkeiten von Cypress bringt? Was willst Du denn jetzt eigentlich sagen? Irgendwie kann ich Dir hier nicht folgen.
Es ist doch komplett egal, wie die Leistung realisiert wird. AMD verdopplte ihre technischen Details und am Ende kam 60% Mehrleistung zur 4870 heraus. Eine 5970 ist dagegen gerademal doppelt so schnell wie eine 4890. nVidia dagegen hat ihren Chip deutlich umgekrempelt. Ob es sich am Ende auszahlt, werden wir sehen.
Genau, aber mit abgesenktem Takt gegenüber GT200 könnte es trotz möglicher Effizienzsteigerungen schon schwierig werden, eine entprechend gesteigerte Leistung zu realisieren. Verstehst Du das nicht?

Gipsel
2009-11-19, 23:54:04
Achja, hierzu kann ich Dir noch eine Antwort geben:Welchen Grund sollten also die GPGPU Entwickler haben, sich einen Cypress zu kaufen?
Cypress ist momentan einfach der schnellste Chip, der DirectCompute sowie OpenCL unterstützt, sowie der einzige überhaupt, der DirectCompute mit SM5.0 unterstützt.

Wer die Leistung haben will und ein paar eventuelle Probleme nicht scheut, wird einfach mit überragender Leistung belohnt. Inwieweit das auf den Einzelfall anwendbar ist, mag sich sicherlich unterscheiden, aber das sind nunmal im Moment die hardwaretechnischen Fakten.
Ich lade Dich herzlich ein, mal die Performance für ein paar GPGPU-Sachen zu vergleichen, wo sich die Entwickler mal Mühe gegeben haben, das auch für ATIs zu optimieren (das ist zugegeben eine begrenzte Menge). Bei jedem Problem, welches "computational dense" ist, zerstört ein Cypress förmlich jede andere GPU. Und bei dieser Problemklasse waren schon die RV770 gleichauf oder auch bereits zum Teil deutlich vor einer GTX285. Go figure!
Zur Demonstration mal ein Beispiel aus einer eingereichten Veröffentlichung:

http://139.30.40.11/GPGPU_perf.png

Die CUDA-Version ist übrigens alles andere als schlecht optimiert. Da hat zuerst ein Typ von nvidia dran geschraubt (ja, die haben einen guten Support ;)) und danach wurde (mit meinen Tipps :D) nochmal 10% rausgeholt. Ein Cypress in SP wurde nicht gebenched, aber das wäre wohl zu deutlich geworden :rolleyes:

Ailuros
2009-11-20, 00:01:18
Frag' mal Ailuros dazu!
Die ich allerdings nie aufgestellt habe ;D

Ich hab mich uebrigens vertippt auf der vorigen Seite. 2.2 und nicht 2.3x fuer ALU:TMU.

Das originale Ziel war 700/1600 und nach den ersten Testsamples die sie im Mai zurueckbekamen wurde es etwas genauer 736/1620. Aber wie ich schon sagte IHVs sind in ihrer Mehrzahl zu optimistisch was Frequenzen betrifft, normalerweise landen sie meistens um einen kleinen Schnitt niedriger wenn es keine Probleme gibt.

Zu dem Zeitpunkt (ca. Ende April) blubberten sie fuer DP Unterschiede zu GT200 von 6x-10x (deshalb gab es ja auch die endlosen Debatten damals was sie genau mit DP angestellt haben).

Gipsel
2009-11-20, 00:21:43
Das originale Ziel war 700/1600 und nach den ersten Testsamples die sie im Mai zurueckbekamen wurde es etwas genauer 736/1620. Aber wie ich schon sagte IHVs sind in ihrer Mehrzahl zu optimistisch was Frequenzen betrifft, normalerweise landen sie meistens um einen kleinen Schnitt niedriger wenn es keine Probleme gibt.

Zu dem Zeitpunkt (ca. Ende April) blubberten sie fuer DP Unterschiede zu GT200 von 6x-10x (deshalb gab es ja auch die endlosen Debatten damals was sie genau mit DP angestellt haben).
Danke für die Wiederholung. Vielleicht nimmt es LovesuckZ ja diesmal wahr :rolleyes:

LovesuckZ
2009-11-20, 00:26:49
Cypress ist momentan einfach der schnellste Chip, der DirectCompute sowie OpenCL unterstützt, sowie der einzige überhaupt, der DirectCompute mit SM5.0 unterstützt.

Er ist der schnellste mit SP unter OpenCL. Was bringt einem die vielen theoretischen Werte, wenn man sie nichtmal nutzen kann? Das wird dauernd vergessen. Und OpenCL war dein Argument.


Wer die Leistung haben will und ein paar eventuelle Probleme nicht scheut, wird einfach mit überragender Leistung belohnt. Inwieweit das auf den Einzelfall anwendbar ist, mag sich sicherlich unterscheiden, aber das sind nunmal im Moment die hardwaretechnischen Fakten.
Ich lade Dich herzlich ein, mal die Performance für ein paar GPGPU-Sachen zu vergleichen, wo sich die Entwickler mal Mühe gegeben haben, das auch für ATIs zu optimieren (das ist zugegeben eine begrenzte Menge). Bei jedem Problem, welches "computational dense" ist, zerstört ein Cypress förmlich jede andere GPU. Und bei dieser Problemklasse waren schon die RV770 gleichauf oder auch bereits zum Teil deutlich vor einer GTX285. Go figure!


Sonderfälle gibt es immer. Im Consumerbereich kann sich AMD nichtmal mit ihrem GPGPU durchsetzen, dort wo nVidia mit Tesla zielt, wird AMD keine Bedeutung spielen. Solange wie sie nicht in der Lage sind das selbe wie nVidia zu ermöglichen, können sie mit FLOPs werben, wie sie wollen.
Fermi wird alles können, was AMD kann. Und vieles mehr. Und die zwei Quartale spielen da überhaupt keine Rolle. Die Entwicklung kann nämlich jetzt schon losgehen.

Danke für die Wiederholung. Vielleicht nimmt es LovesuckZ ja diesmal wahr :rolleyes:

nVidia spricht von 8x. Wenn man das nicht akzeptieren will, dann tut es mir leid. Wer Gerüchte als Wahrheit interpretiert, der wird immer enttäuscht.

Gipsel
2009-11-20, 00:36:29
Sonderfälle gibt es immer. Im Consumerbereich kann sich AMD nichtmal mit ihrem GPGPU durchsetzen, dort wo nVidia mit Tesla zielt, wird AMD keine Bedeutung spielen. Solange wie sie nicht in der Lage sind das selbe wie nVidia zu ermöglichen, können sie mit FLOPs werben, wie sie wollen.
Fermi wird alles können, was AMD kann. Und vieles mehr. Und die zwei Quartale spielen da überhaupt keine Rolle. Die Entwicklung kann nämlich jetzt schon losgehen.Dann gibt es wohl ziemlich viele Ausnahmen :rolleyes:
Sicher wird Fermi alles können, was Cypress kann. Die Frage ist, wie schnell? ;)

Ach übrigens, schon mal in die aktuelle Top500-Liste (http://www.top500.org/list/2009/11/100) geschaut? Da gurkt irgendwo ein System mit RV770ern auf Platz 5 rum. Wo ist nochmal das erste mit Teslas? ;D
Wenn die die RV770er (sind HD4870X2 mit reduziertem Takt zwecks reduziertem Stromverbrauch) gegen Hemlocks tauschen würden, wären die wohl glatt auf Platz 1. Ach ja, die Einordnung erfolgt anhand von Benchmarks, nicht der theoretischen Peakleistung ;).

HarryHirsch
2009-11-20, 00:37:56
Er ist der schnellste mit SP unter OpenCL. Was bringt einem die vielen theoretischen Werte, wenn man sie nichtmal nutzen kann? Das wird dauernd vergessen. Und OpenCL war dein Argument.



Sonderfälle gibt es immer. Im Consumerbereich kann sich AMD nichtmal mit ihrem GPGPU durchsetzen, dort wo nVidia mit Tesla zielt, wird AMD keine Bedeutung spielen. Solange wie sie nicht in der Lage sind das selbe wie nVidia zu ermöglichen, können sie mit FLOPs werben, wie sie wollen.
Fermi wird alles können, was AMD kann. Und vieles mehr. Und die zwei Quartale spielen da überhaupt keine Rolle. Die Entwicklung kann nämlich jetzt schon losgehen.



nVidia spricht von 8x. Wenn man das nicht akzeptieren will, dann tut es mir leid. Wer Gerüchte als Wahrheit interpretiert, der wird immer enttäuscht.

wie wahr

LovesuckZ
2009-11-20, 00:45:11
Dann gibt es wohl ziemlich viele Ausnahmen :rolleyes:
Sicher wird Fermi alles können, was Cypress kann. Die Frage ist, wie schnell? ;)

Jetzt gilt DP nicht mehr? Dabei war das doch das Totschlagargument. Naja, jetzt wird es wohl wieder SP sein oder DC5.0 oder OpenCL ohne DP Funktionalität. Ich finde es sehr belustigend, dass man immer alles auf AMD Niveau runterbrechen muss, um "Vergleiche" zu haben.
Und warum sollten sich Entwickler mit Cypress rumschlagen, wenn sie das Problem wesentlich einfacher mit Fermi lösen können?
Nur weil leute ihre Consumer-Anwendungen auf AMD optimieren, macht das nicht jeder Anwender, der die GPUs für ihre eigene Arbeit verwendet.


Ach übrigens, schon mal in die aktuelle Top500-Liste geschaut? Da gurkt irgendwo ein System mit RV770ern auf Platz 5 rum. Wo ist nochmal das erste mit Teslas? ;D

Ist das jetzt das Totschlagargument #1? :lol:
Irgendwann ist Fermi auch drin. Und dann kommen wir wieder zum Punkt: Fermi kann alles, was Cypres kann und mehr.

Gipsel
2009-11-20, 01:00:26
Jetzt gilt DP nicht mehr? Dabei war das doch das Totschlagargument. Naja, jetzt wird es wohl wieder SP sein oder DC5.0 oder OpenCL ohne DP Funktionalität. Ich finde es sehr belustigend, dass man immer alles auf AMD Niveau runterbrechen muss, um "Vergleiche" zu haben.Natürlich gilt das noch. Aber bis es die Teslas zu kaufen gibt (Q2/Q3 2010 laut offizieller nv Aussage), gibt es bestimmt auch DP Support für OpenCL. Für DirectCompute gibt es den übrigens meines Wissens jetzt schon. Und bis dahin steht es jedem Entwickler frei, sich die Performance mit Hilfe der alten APIs zu erschließen (die gibt es ja weiterhin und werden nicht abgeschafft, genausowenig wie CUDA). Und da gibt es eben momentan einfach mehr zu erschließen, als bei nvidia, so einfach ist das (mal in den Spoiler oben gesehen?).

Ach ja, auf welche nvidia-genehme Funktionalität soll man es denn runterbrechen, wenn es um DirectCompute 5.0 geht? ;D
Letzteres ist natürlich kein ernsthaftes Argument, es zeigt lediglich die Unsinnigkeit Deines ;)
Und warum sollten sich Entwickler mit Cypress rumschlagen, wenn sie das Problem wesentlich einfacher mit Fermi lösen können?Weil man einen Cypress im Rechner stecken hat, aber keinen Fermi? Oder anders gesagt, weil man mit Fermi noch gar kein Problem lösen kann! Zudem ist Cypress einfach schneller als alles, was nvidia anbietet. Geht das nicht in Deinen Kopf?

Nur weil leute ihre Consumer-Anwendungen auf AMD optimieren, macht das nicht jeder Anwender, der die GPUs für ihre eigene Arbeit verwendet.Kein Anwender optimiert Anwendungen, das machen die Entwickler ;)

Irgendwann ist Fermi auch drin. Und dann kommen wir wieder zum Punkt: Fermi kann alles, was Cypres kann und mehr.Ja, irgendwann ;D

Ailuros
2009-11-20, 07:59:54
nVidia spricht von 8x. Wenn man das nicht akzeptieren will, dann tut es mir leid. Wer Gerüchte als Wahrheit interpretiert, der wird immer enttäuscht.

Eine off the record Aussage eines NV Angestellten in Santa Clara ist wohl weit entfernt von einem Geruecht.

Der 8x Faktor wurde im fermi whitepaper erst erwaehnt; das whitepaper wurde uebrigens von James Wang (und nein er hat nichts mit dem obrigen zu tun obwohl ich mit ihm ab und zu privat plaudere) geschrieben welcher wohl eher ein Marketing-Kerl ist als alles andere deshalb auch etliche Fehler in pre-release Versionen die herumschwirrten (manche wurden korrigiert manche nicht).

Hol Dir das Ding nochmal runter von NV's Seite und erklaer mir warum pro SM es nicht nur 4096x 32bit registers sind oder wohl eher 8x Mal so viel.

Gast
2009-11-20, 10:26:57
Ich finde es sehr belustigend, dass man immer alles auf AMD Niveau runterbrechen muss, um "Vergleiche" zu haben.
Und warum sollten sich Entwickler mit Cypress rumschlagen, wenn sie das Problem wesentlich einfacher mit Fermi lösen können?

DU bist lustig weil seit hunderten Seiten wie ein Bluthund das "Gespenst" Fermi verteidigst. Wie sich Fermi in 3D-Spielen schlägt sei mal dahingestellt. DORT kann Fermi ja durchaus der absulute Überflieger sein und alle ATI die auf dem Markt sind/dann sein werden "verblasen".
Für wissenschaftliches Numbercrunching sind jedoch ATI-Karten die Wahl Nummer 1.
In der reinen Kosten-Nutzen Rechnung sowieso.
ATI bietet somit zur Zeit die günstigsten UND schnellsten Karten an wenn dich Strömungsberechung, Atombombenexlosionssimulationen, Klimamodellrechnungen etc etc interessieren.
Die relativ kleine Hürde CAL Brook+ nimmt man da in Kauf bzw nutzt diese als Übergangslösung bis bessere SDKs von ATI kommen.
Diesen Fakt kannst du mit einem vielleicht in Q1 oder Q2 erscheinenden Fermi nicht nigieren.

igg
2009-11-20, 10:44:10
Für wissenschaftliches Numbercrunching sind jedoch ATI-Karten die Wahl Nummer 1.
In der reinen Kosten-Nutzen Rechnung sowieso.
Das sehe ich nicht so. In der Breite werden die GPGPU Funktionen von nvidia insbesondere aufgrund des hervorragenden Dev-Supports mehr genutzt.

Gast
2009-11-20, 11:13:56
Das sehe ich nicht so. In der Breite werden die GPGPU Funktionen von nvidia insbesondere aufgrund des hervorragenden Dev-Supports mehr genutzt.

Dass mehr Teslas wegen des besseren supports eingesetzt werden ist wohl kaum zu bestreiten. Aber das heißt noch lange nicht, dass Sie wenn es nur um Performanz geht die bessere Wahl sind. Und Das könnte auch mit Fermi so bleiben, weil eben noch lange nicht jede Anwendung DP benötigt.

Ailuros
2009-11-20, 11:38:04
Dass mehr Teslas wegen des besseren supports eingesetzt werden ist wohl kaum zu bestreiten. Aber das heißt noch lange nicht, dass Sie wenn es nur um Performanz geht die bessere Wahl sind. Und Das könnte auch mit Fermi so bleiben, weil eben noch lange nicht jede Anwendung DP benötigt.

Es braucht tatsaechlich nicht jede Applikation DP, aber dafuer bringt Fermi einige Vorteile ausserhalb DP die eben AMD's Architektur nicht unterstuetzt. Uebrigens sehe ich im obrigen auch einen netten Wiederspruch: mehr als oefters kommt bessere Leistung von besserer Unterstuetzung.

Gast
2009-11-20, 11:45:11
Das sehe ich nicht so. In der Breite werden die GPGPU Funktionen von nvidia insbesondere aufgrund des hervorragenden Dev-Supports mehr genutzt.

Quelle?!
Der bessere Dev- support spielt doch sowieso nur bei kleineren, unkritischen, projekten ne rolle, wo die kosten für mehr entwicklungsaufwand, wegem fehlenden support, schwerer wiegen als eine 3-6+ fache höhere rechenleistung (siehe gipsels Tabelle). Hat schon nen Grund wieso in den Top100 der Supercomputer knapp 30mal mehr rv770 als gt200 benutzt werden...

Ailuros
2009-11-20, 11:54:12
Quelle?!
Der bessere Dev- support spielt doch sowieso nur bei kleineren, unkritischen, projekten ne rolle, wo die kosten für mehr entwicklungsaufwand, wegem fehlenden support, schwerer wiegen als eine 3-6+ fache höhere rechenleistung (siehe gipsels Tabelle). Hat schon nen Grund wieso in den Top100 der Supercomputer knapp 30mal mehr rv770 als gt200 benutzt werden...

Dass AMD's GPUs gut im Supercomputer Markt angekommen sind ist zwar ein nettes Plus fuer AMD, aber es heisst auch wiederrum nicht dass sie zumindest bis Ende 2009 den HPC Markt kapituliert haben.

Das sollte natuerlich nicht heissen dass NVIDIA sich nicht darueber Sorgen machen sollte denn ich erwarte dass AMD auch weiterhin an ihren Marktanteilen knabbert, aber bis zum Punkt wo sich die heutigen Balancen radikal fuer AMD aendern wuerden ist der Weg noch lang.

deekey777
2009-11-20, 12:09:21
Dass auf dem ersten Platz ein Superrechner ist, der gerade keine GPUs, Cells oder Sonst was hat, sondern gewöhnliche Prozessoren hat, die für alle Zwecke einsetzbar sind, sollte einen schon nachdenklich machen.

Die ganzen CELLs, Teslas und FireStreams sind nur dann schneller, wenn die Anwendungen ihnen schmecken und ihre Nachteile in den Hintergrund rücken.

Gast
2009-11-20, 12:13:39
Die ganzen CELLs, Teslas und FireStreams sind nur dann schneller, wenn die Anwendungen ihnen schmecken und ihre Nachteile in den Hintergrund rücken.
Eignen sich aber möglicherweise Teslas durch das mehr an Caches für ein etwas weiteres Anwendungsfeld als FireStreams? Die Kunden werden es wissen, solche Rechner werden nicht nach Lektüre eines ComputerBase-Reviews geplant.

deekey777
2009-11-20, 12:24:58
Eignen sich aber möglicherweise Teslas durch das mehr an Caches für ein etwas weiteres Anwendungsfeld als FireStreams? Die Kunden werden es wissen, solche Rechner werden nicht nach Lektüre eines ComputerBase-Reviews geplant.
Welche "Caches"? Oder meinst du den Fermi? Wie schnell ist der L2-Cache? Wie hoch sind die Latenzen? Der RV770 leidet extrem darunter, dass sein LDS relativ geringe Bandbreite hat.

Ist aber egal: Es ist eine Kosten-Nutzen-Frage. Was bringt es eine Tesla zu nutzen, wenn die Zeit "Daten aus dem RAM holen, diese über PCIe in die Grafikkarte stecken, Berechnungen durchführen, diese wieder über PCIe ins RAM transportieren" länger ist als die gleichen Berechnungen auf einer oder mehreren CPUs durchführen, was insgesamt schneller geht? Das ist das Kernproblem.
Weitere Wehwehchen sind das Lesen und Schreiben aus dem/in den VRAM.

Dural
2009-11-20, 12:50:50
Ach ja, die Einordnung erfolgt anhand von Benchmarks, nicht der theoretischen Peakleistung ;).

Der nur mit DP durch geführt wird, jetzt vergleichen wir also schon den RV770 der einiges mehr Power in DP hat als der GT200??? Um dann eine schlussfolgerung abzugeben das Fermi es genau so schwer gegen RV870 haben wird, lol?

Sogar der RV670 hat da mehr power, das dass nicht die stärke des GT200 ist war von anfang an klar!!!

Es ist dabei doch absolut logisch das man bei grossen super computer (die chinesen machen alles selber...) da auf den RV770 gesetzt hat!

Spätestens wenn Fermi da ist und der wahrscheinlich sogar mehr leistung in DP als der RV870 haben wird, dürfte ATI in dem Bereich geschichte sein!

Und kommt jetzt nicht mit dem Preis, das ist in diesem Bereich doch völlig egal!

Ailuros
2009-11-20, 13:09:37
Und kommt jetzt nicht mit dem Preis, das ist in diesem Bereich doch völlig egal!

Wie egal genau? http://www.nvidia.com/object/mad_science_promo.html

davidzo
2009-11-20, 13:34:37
nVidia sprach seit der GTC von "up to 8x increase". Du kannst dich gerne davon überzeugen und dir die Videos auf nvidia.com ansehen. Es wäre ziemlich dumm, von nur 8x zu reden, wenn man auch 10x erreichen könnte, oder?

Also nimmst du das 8x nicht als Gerücht wahr sondern als höchst offizielle Aussage von Nvidia (dazu gibts auch die offiziellen tesla folien im netz). Ein Schritt, denn du weiter unten allerdings wieder vergisst, da ist es plötzlich wieder nur ein Gerücht.


Und nVidia spricht nicht von AMD, weil AMD in diesem Markt nicht existent ist. nVidia untersützt DP seit vorgestern auch über OpenCL. AMD nicht.

G80-9x konnte noch überhaupt kein DP. Nur GT200 hat ein paar Transistoren für rudimentäre Umsetzung bekommen. Die OpenCLtreiber haben beide erst vor kurzem freigegeben, zugegeben mit ein paar Tagen vorsprung für nvidia, aber dass dieser zeitraum in HPCbereichen unerheblich ist stellst du ja weiter unten schon richtig fest indem du teslafermi zeitlich mit cypress vergleichst.



Wenn wir alle Gerüchte als wahr nehmen und dann das nicht eintreffen dieser als "fail" bezeichnen, dann hat nVidia auch mit dem G80 einen riesigen Fail abgeliefert: Unified Shader statt getrennte. :eek:


Es geht hier um die Karte und wie schnell sie wird und welche BQfeatures sie bietet, nicht darum ob Nvidia recht hatte oder nicht. Keiner wirft deiner Firma lügen oder unfähigkeit vor, wenn fermi eben 20% langsamer taktet als gedacht, dann ist das einfahc nur eine unglückliche Entwicklung in erster Linie auch für den Konsumenten.



Und die internen Veränderungen bei Fermi erscheinen mir als Laie wesentlich umfangreicher als vom GT200 zum G80.
Schlussendlich hat nVidia als seit dem GT200 es nicht geschafft die Taktrate über G80 mit einer neuen Generation zu bringen.
Jo, wenn man sich die aktuellen Steigerungen an der Transistorzahl von Generation zu Generation anguckt, mit dem Wissen, dass die Verbrauchsgrenzen schon länger wirklich erreicht sind (angesichts der ökologischen lage sind 300watt für eine grafikkarte ziemlich dekadent), kann es nicht darum gehen einen höheren takt zu erreichen. Man gerät dabei aber mitunter in die finanzielle Bredoiulle, denn mehr Transistoren für mehr Leistung kosten nunmal mehr Geld als Spannung und Takt. Schlussendlich versuchen wohl die meisten Hersteller aus economischer Sicht bei den Taktraten und verlustleistungen der Vorgängergeneration zu bleiben, was natürlich nicht immer klappt.


Fakt ist, dass die 1230MHz von Anfang an angepeilt waren.


Was Ziel war oder nicht ist vollkommen unerheblich, denn diese Insiderinfos werden wir selbst nach dem launch immer nur als unbestätigte gerüchte hören. Also gib dich mit dem zufrieden was Ailuros sagt, dass ist das beste was du darüber zu wissen bekommst außer du heuerst bei nvidia an.
Worum es in diesem Thread geht ist die Technik, die Leistung und die Positionierung im Markt und nicht darum ob Nvidia ihr Ziel erreicht hat oder nicht.


Schlussendlich muss man aber auch sehen, dass die 1230 bzw. 1240Mhz eben auch die Zieltakraten gewesen sind. Sonst hätte nVidia doch klar von 10x bzw. 11x gesprochen.


Die taktraten sind nur wenig später als die Aussage bekannt geworden. ich denke die 8x hat man dann bekannt gegeben als man von den A2 Taktraten wusste.


Wo sollen sie denn bitte "zu langsam sein"? Dort, wo DP eine Rolle spielt, ist es AMD nicht. Dort, wo DP keine Rolle spielt, ist DP kein "Vorteilsargument".
In SP bzw. Shaderlastigen Spielen.


Ähm, wie kannst du eigentlich einen Rechner mit 170 Tesla S1070 1U mit einem Milky Way 1 vergleichen, dessen über 5.000 Nehalems allein das Mehrfache schaffen?

Korrigiere: Woodcrest. Der Computer wurde in einem Zeitraum von zwei Jahren in einem Mix aus Woodcrest und Nehalems gebaut. Im prinzip haben sie das genommen was gerade günstig und erhältlich war, deshalb auch die kuriose Verwendung von sehr niedrig getakteten 4870x2s mit nur 512mb ram pro chip. Wenn man sich die Werte mal gegenüber ähnlichen Systemen anguckt bleibt der Rechner weit hinter der theoretischen Leistung zurück, was insbesondere an der inhomogenen Struktur aber auch an billigen und einfachen Connects liegt. HP, IBM, SGI, Cray etc. haben alle ihre eigenen interconnect patente mit denen sie erst die wahre leistung der chips entfalten können.
Trotzdem ist es beeindruckend, das weniger als 25.000 prozessor cores (6144 quadcore woodcrest und nehalem) mit 5120 AMD GPUs fast ein drittel der Leistung erreichen die der 255.000 Core Jaguar erreicht (560tflops linpack vs 1860). Was die theoretische Leistung angeht ist es sogar mehr als die Hälfte (1200tflops vs 2330tflops).
Die Leistung pro Dollar ist auf jeden fall ungeschlagen, wollen wir abwarten was die Chinesen damit zustande bringen.

Und wenn wir spekulierte Werte als Wahrheit annehmen, dann wäre auch Unified Shader ein "fail" gewesen.
Was soll das mit dem "fail"? Wen du es hören willst, nvidia ist trotzdem eine Firma mit sehr qualifizierten Mitarbeitern, hier geht es aber um Produkte bitteschön!

Es ist doch komplett egal, wie die Leistung realisiert wird. AMD verdopplte ihre technischen Details und am Ende kam 60% Mehrleistung zur 4870 heraus. Eine 5970 ist dagegen gerademal doppelt so schnell wie eine 4890. nVidia dagegen hat ihren Chip deutlich umgekrempelt. Ob es sich am Ende auszahlt, werden wir sehen.
A1 lag schon 20% ueber Cypress nur musst Du jetzt noch wissen wo da die Frequenzen lagen.

Naja als die Berichte über A1 kamen hielt man auch noch das Frequenzziel von 700/1600 für realistisch. Denke kaum dass man zu dem Zeitpunkt Cypress mit ausgereiften Treibern gegenüber A1 mit Treibern im lab hatte und dann nach einer Reihe von tests zu einer Differenz von 20% kam.
Solche Pauschalaussagen wie 20% über dem usw. kann man aufgrund der unterschiedlichen Architekturen gar nicht machen, das ist rein spekulativ, das wissen auch die nv ingenieure. Insofern sollte es mich nicht wundern, dass sie wenn sie sich schon zu einer solchen spekulativen aussage haben hinreißen lassen, auch den anvisierten Takt mit einberechnet haben, nämlich 700/1600.


Er ist der schnellste mit SP unter OpenCL. Was bringt einem die vielen theoretischen Werte, wenn man sie nichtmal nutzen kann?

Kann man nicht? Offensichtlich kann man das schon: http://www.chinadaily.com.cn/bizchina/2009-10/30/content_8871372.htm
Und die 46% prozentige effizienz sehe ich da eher als Folge der mittelmäßigen Interconnects und allgemeinem wenig HPCtauglichem Aufbau aus Standardkomponenten von der stange. Selbst bei einer mit Cray vergleichbaren Effizienz von general purpose X86-64 Cluster und einer angenommenen Mehrperformance der Nehalems und woodcrests von 30% pro core gegenüber den Opterons würden die 6.144 Prozessoren des milky way alleine auf nichtmal 200tflops kommen.



Und die zwei Quartale spielen da überhaupt keine Rolle. Die Entwicklung kann nämlich jetzt schon losgehen.

Oh jetzt schon? Hm, wie lange gibt es den rv770 schon? Juni 2008? Wie lange hat er das Tapeout schon hinter sich, November 2007? Also solange könnte man nach deiner definition schon für AMD supercomputer ala milkyway DP code programmieren.
Ich denke, dass OpenCL CUDA vorzuziehen ist, wenn es für den Anwendungszweck geeignet ist. Denn dann ist es beinahe plattformunabhängig zu programmieren.
AMD hat nicht die manpower und schon gar nicht das geld in diese zu investieren um ähnliche hpc ambitionen wie CUDA in software zu unterstützen, wohl aber die richtigen Leute um die Hardware dafür zu schaffen. Wenn es leute gibt, die bereit dazu sind Software dafür zu schreiben, dann wird AMD zu gegebener zeit auch wieder einsteigen, vorerst begnügt man sich damit bei der Hardware nicht die Tür zuzuschlagen.
Die Chancen für fermi damit in den HPCbereich zu gelangen sind damit natürlich besser. vor allem im unteren bereich der top500 und dadrunter sind sie bei GPU computing quasi konkurrenzlos. bei größeren Projekten ala milky way 1 lohnt es sich aber ggf. etwas mehr in die Softwarentwicklung zu setzen und auf dne guten suppoert zu verzichten, da man bei solchen Maschinen dann in der Regel auch die manpower hat.



Wer Gerüchte als Wahrheit interpretiert, der wird immer enttäuscht.

Die Fermivorstellung ist kein Gerücht und damit die 8x auch nicht. Gerücht ist eher dass fermi einen deutlich höheren Abstand in Performance und Energieeffizienz zwischen die HD5870 und sich bringt als die GTX280 zur 4870. Und das wäre dm Aufwand den nv dafür treibt (3b transistoren, 384bit) entsprechend noch wenig.

Ich finde es sehr belustigend, dass man immer alles auf AMD Niveau runterbrechen muss, um "Vergleiche" zu haben.
Gibt es derzeit andere DX11 Chips zum Vergleich?


Und dann kommen wir wieder zum Punkt: Fermi kann alles, was Cypres kann und mehr.
Auf einmal gehts wieder ums Featureset. Ich dachte das war bei G80 und GT200 auch schon egal. Zumindest hast du da ganz andere Aussagen getroffen, die ich teilweise sogar unterstütze, denn der Tesselator seit R600 war wirklich Blödsinn in einer DX10 Architektur (doch das wusste man beim entwurf ja noch nicht).

Solche Rechner werden nicht nach Lektüre eines ComputerBase-Reviews geplant.
HPC-Aussage des Jahres! :D

Ailuros
2009-11-20, 13:40:59
Naja als die Berichte über A1 kamen hielt man auch noch das Frequenzziel von 700/1600 für realistisch. Denke kaum dass man zu dem Zeitpunkt Cypress mit ausgereiften Treibern gegenüber A1 mit Treibern im lab hatte und dann nach einer Reihe von tests zu einer Differenz von 20% kam.
Solche Pauschalaussagen wie 20% über dem usw. kann man aufgrund der unterschiedlichen Architekturen gar nicht machen, das ist rein spekulativ, das wissen auch die nv ingenieure. Insofern sollte es mich nicht wundern, dass sie wenn sie sich schon zu einer solchen spekulativen aussage haben hinreißen lassen, auch den anvisierten Takt mit einberechnet haben, nämlich 700/1600.

Das Frequenzziel wurde Ende April angelegt ohne dass sie A1 noch hatten. Die 20% Aussage kam mit sehr niedrigen Frequenzen Anfang September und mit noch weniger reifen Treibern als heute.

Genauso spekulativ wie die scores die ich von AMD's Seite hoerte schon einige Zeit vor jeglicher Evergreen Vorstellung.

reunion
2009-11-20, 13:42:48
Das Frequenzziel wurde Ende April angelegt ohne dass sie A1 noch hatten. Die 20% Aussage kam mit sehr niedrigen Frequenzen Anfang September und mit noch weniger reifen Treibern als heute.

Genauso spekulative wie die scores die ich von AMD's Seite hoerte schon einige Zeit vor jeglicher Evergreen Vorstellung.

War das der selbe der dir gesagt hat das man im Mai schon A1 hatte? *scnr*

Ailuros
2009-11-20, 13:44:39
War das der selbe der dir gesagt hat das man im Mai schon A1 hatte? *scnr*

Nein Gott sei Dank nicht. Ihre 3dfurz Performance landing zone liegt seit September angeblich auf 22-23k, wenn das helfen sollte.

reunion
2009-11-20, 13:48:46
Nein Gott sei Dank nicht. Ihre 3dfurz Performance landing zone liegt seit September angeblich auf 22-23k, wenn das helfen sollte.

Ohne zu wissen welche CPU nützt das leider nicht viel. Ist aber doch relativ viel.

davidzo
2009-11-20, 13:48:59
aus: http://www.nvidia.com/object/mad_science_promo.html
Customer must pay for their discounted Tesla C2050 or Tesla S2050 by May 31, 2010. Customer must pay for their discounted Tesla C2070 or Tesla S2070 by July 31, 2010. Workstation customer who purchases a no penalty upgrade must return the Tesla C1060 no later than 30 days after purchasing an upgrade to a Tesla C2050 or Tesla C2070.

* Tesla C2050/C2070 Computing Processor is a PCIe 2.0 full-height form factor computing add-in card based on the NVIDIA Fermi graphics processing unit. Tesla S2050/S2070 GPU 1U Computing System is a 1U rack with four Fermi GPU processors. Customer can choose to upgrade to either a 3GB GDDR5 or a 6GB GDDR5 configuration.

Im Mai die kleine 3GB Karte, im Juni erst die 6GB. Klingt nicht (ausschließlich) nach Yieldproblemen, sondern auch nach einem Engpass mit dem Speicher.
Hatten wir nicht bisher geglaubt dass bei der ECC variante GDDR3 zum Zuge kommt? GDDR5 ECC lässt man sich anscheinend extra herstellen. Für die 6GB gibt es anscheinend bis Juli noch keine entsprechenden 4 Gigabit Module. frage mich gerade wieso die nicht einfach ein etwas längeres und breiteres board machen könnte und 2 Gigabit chips draufpappen wie bei der 3Gb version die sie gezeigt haben, so lang ist das PCB ja bisher nicht und in 1U boxen ist es egal ob man sich bei der Kartenhöhe an die ATX/PCIe Spezifikation hält, zumal ich auf den Fotos da noch etwa 3 cm Platz gesehen habe.

Nein Gott sei Dank nicht. Ihre 3dfurz Performance landing zone liegt seit September angeblich auf 22-23k, wenn das helfen sollte.
Seit wann misst man highendkarten im performance preset? Und selbst dann sind die Ergebnisse zu hoch, immer noch deutlich höher als ein 5870 CF mit Core i7 965 (21k). Das stinkt nach Fisch
Seit GT200 weißt du doch spätestens wie verlässlich die Aussagen sind, die nvidia Ingenieure immer mal wieder and bestimmtes Publikum durchlassen.

Ailuros
2009-11-20, 13:59:30
Ohne zu wissen welche CPU nützt das leider nicht viel. Ist aber doch relativ viel.

Ich weiss wo die 5870 im gleichen System liegt, sag es aber nicht :P


Seit wann misst man highendkarten im performance preset? Und selbst dann sind die Ergebnisse zu hoch, immer noch deutlich höher als ein 5870 CF mit Core i7 965 (21k). Das stinkt nach Fisch

Seitdem die ersten AMD Leistungszahlen vor dem launch sich auch auf Vantage Performance bezogen haben. Die Zahl stimmte auch auf den Punkt. Ich sag jetzt nichts mehr zum Extreme Zeug momentan, aber Ihr Kerle seit klug genug Euch auszudenken warum IHVs so viel Wert auf 3dfurz legen. OEMs checken nach Feature-listen, dann nach 3dfart scores und dann erst diejenigen die ein bisschen besser informiert sind nach Spiele-leistung.

igg
2009-11-20, 13:59:47
Nein Gott sei Dank nicht. Ihre 3dfurz Performance landing zone liegt seit September angeblich auf 22-23k, wenn das helfen sollte.
Hm, das wäre mehr als die 5970?
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/5/#abschnitt_3dmark_vantage

Ailuros
2009-11-20, 14:05:12
Hm, das wäre mehr als die 5970?
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/5/#abschnitt_3dmark_vantage

Landing zone = Leistungsziel

reunion
2009-11-20, 14:07:17
Hm, das wäre mehr als die 5970?
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/5/#abschnitt_3dmark_vantage

Das schafft auch schon eine 5870 mit PhysX und entsprechend schneller CPU. Deshalb nützt ein solcher Wert wenig.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7657405&postcount=578

reunion
2009-11-20, 14:08:48
Ich weiss wo die 5870 im gleichen System liegt, sag es aber nicht :P


Sei doch kein Spielverderber. :P

AnarchX
2009-11-20, 14:17:21
Ohne zu wissen ob Fermi beim CPU-Score mitgeholfen hat, nützt dieser Wert aber auch nichts.

Wenn dann wäre eher die X-Score Landing Zone interessant. :D

igg
2009-11-20, 14:17:30
Das schafft auch schon eine 5870 mit PhysX und entsprechend schneller CPU. Deshalb nützt ein solcher Wert wenig.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7657405&postcount=578
Mensch, lass mich doch ein wenig provozieren, vielleicht rückt er ja dann doch noch den 5870 vergleichswert raus ;)

Aber es wurde schon oft angedeutet was bei 25-35 %.

Ailuros
2009-11-20, 14:20:45
Mensch, lass mich doch ein wenig provozieren, vielleicht rückt er ja dann doch noch den 5870 vergleichswert raus ;)

Aber es wurde schon oft angedeutet was bei 25-35 %.

Wo immer es an der Bandbreite liegt, desto hoeher wird der Unterschied.

igg
2009-11-20, 14:33:53
Wo immer es an der Bandbreite liegt, desto hoeher wird der Unterschied.
D.h. die eigentliche Frage ist, wie hoch der bandbreitenunabhängige Unterschied im Mittel ist. Nachdem Fermi erst wohl gegen März in breiterer Verfügbarkeit kommen wird, sollte dieser wohl bei besagten 25-35 % liegen.

derguru
2009-11-20, 14:34:32
Wo immer es an der Bandbreite liegt, desto hoeher wird der Unterschied.
umso einfacher für amd dagegen anzugehen, wenn das stimmt.

Kosh
2009-11-20, 14:39:21
A1 lag schon 20% ueber Cypress nur musst Du jetzt noch wissen wo da die Frequenzen lagen.



Das originale Frequenz-Ziel war 700/1600; die einzige Frage ist nun ob sie diese auch erreichen werden koennen.



In was war sie um 20% schneller? Irgendeine Sache,wo NVIDIA schon immer sehr,sehr gut aussah??

Hat das ganze vielleicht auch soviele Probleme gemacht,das man deswegen einen A2,A3 und eventuell noch Bs braucht um das ganze hinzubekommen und somit muss die Taktrate oder gewisse Sachen,die die 20% schneller schafften runtergetaktet,gekürzt werden,damit es läuft?

Alles Spekulationen. Aktuell kann keiner wirklich sagen,wie schnell die Gamer Fermis werden.

Und was die Karten im Profibereich alles können,ist mir persönlich sowas von Schnurzpiepegal.Damit habe ich nunmal nichts am Hut,was die 2500 Dollar + Karten so alles können.

mapel110
2009-11-20, 14:42:41
Man wollte deutlich mehr als diese 20%. Deswegen A2. A3 hat bislang als Grund wohl nur die Yield-Probleme. Über Taktprobleme ist da noch nichts bekannt, wenn ich das alles hier richtig mitverfolgt habe.
umso einfacher für amd dagegen anzugehen, wenn das stimmt.
Nur dass AMDs Architektur auch eher an der Rohleistung als der Bandbreite krankt...
Gibt nen ganzen Thread dazu.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=467175&highlight=bandbreite+evergreen

pest
2009-11-20, 14:48:06
Hm, das wäre mehr als die 5970?


mit neuem Beta-Treiber schafft die HD5970 locker 21K (http://www.xtremesystems.org/Forums/showpost.php?p=4117485&postcount=207)

dildo4u
2009-11-20, 14:54:22
mit neuem Beta-Treiber schafft die HD5970 locker 21K (http://www.xtremesystems.org/Forums/showpost.php?p=4117485&postcount=207)
Performance Einstellung ist zu CPU Abhänig.Selbst 21k sind grad mal so 30% mher als eine 5870,also deutlich CPU limitiert.

Ailuros
2009-11-20, 14:58:17
In was war sie um 20% schneller? Irgendeine Sache,wo NVIDIA schon immer sehr,sehr gut aussah??

In dem Fall ist das Prozentual diametrisch hoeher.

Hat das ganze vielleicht auch soviele Probleme gemacht,das man deswegen einen A2,A3 und eventuell noch Bs braucht um das ganze hinzubekommen und somit muss die Taktrate oder gewisse Sachen,die die 20% schneller schafften runtergetaktet,gekürzt werden,damit es läuft?

Vielleicht waere es doch weiser die finale Ankuendigung abzuwarten bevor die eine Seite alles zu rosig und die andere alles zu schwarz malt nur um ihre kindischen Bevorzugungen zu unterstuetzen?

Alles Spekulationen. Aktuell kann keiner wirklich sagen,wie schnell die Gamer Fermis werden.

Tja eine gute Erinnerung an Dich selber erstmal.

Und was die Karten im Profibereich alles können,ist mir persönlich sowas von Schnurzpiepegal.Damit habe ich nunmal nichts am Hut,was die 2500 Dollar + Karten so alles können.

Was es mit dem obrigen zu tun hat weisst wohl nur Du.

derguru
2009-11-20, 15:00:12
wenn bei der gt300 von 22-23k ohne physX die rede ist,dann ist das schon sehr gut,aber mit physX wäre die ca 10% schneller als eine 5870+physx kombi.

Ailuros
2009-11-20, 15:02:43
wenn bei der gt300 von 22-23k ohne physX die rede ist,dann ist das schon sehr gut,aber mit physX wäre die ca 10% schneller als eine 5870+physx kombi.

Guru es ist ihr eigentliches Ziel. Ich hab aber trotz allem einen eher CPU limitierten Fall ausgewaehlt weil es sonst keinen Spass machen wuerde. Ein Ziel zu haben ist zwar schoen und gut, aber man muss es auch erreichen koennen.

Kosh
2009-11-20, 15:18:04
Man wollte deutlich mehr als diese 20%. Deswegen A2. A3 hat bislang als Grund wohl nur die Yield-Probleme. Über Taktprobleme ist da noch nichts bekannt, wenn ich das alles hier richtig mitverfolgt habe.

Nur dass AMDs Architektur auch eher an der Rohleistung als der Bandbreite krankt...
Gibt nen ganzen Thread dazu.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=467175&highlight=bandbreite+evergreen


Hehe,eigentlich kann man als Fazit dieses Threades nehmen,das man gar nichts zum Spieleergebnis der Fermis sagen kann.

Von GTX285 bis 5970 Niveau ist alles drin.

mapel110
2009-11-20, 15:26:53
Mal zur Abwechslung wieder ein Teaser :)
http://www.tgdaily.com/games-and-entertainment-features/44736-nvidia-remains-qcommittedq-to-gaming-industry
"Gaming remains our bread and butter focus area. However, there are other opportunities for us to explore as the company grows, such as the HPC sector," explained Del Rizzo.

"Look, I understand that some people might be feeling anxious because we haven't published detailed information about Fermi-based Geforce cards," said Del Rizzo. "But, I can assure you that data is forthcoming. The wait will be well worth it, especially when people understand what products based on Fermi are capable of."

"Clearly, Nvidia will be offering gamers a great experience in 2010 with its Fermi-based Geforce line. I can assure you, patience will pay off."

Gast
2009-11-20, 15:29:01
Es passt zwar nicht 100%ig hier rein, aber es ist schon bitter (nicht nur für den Kunden sondern gerade für AMD, jetzt wo man mal die Führung inne hat und Karten verkaufen könnte) wenn man als Kunde solche Antworten auf Mails bezüglich der Lieferbarkeit von RV870 kriegt:
Sehr geehrter Kunde,

vielen Dank für Ihre Anfrage.

zu der bestellten Karte bekommen wir derzeit KEINE! einzige geliefert. Diese Karte ist faktisch am Markt nicht zu bekommen.
Sollten die Karten irgendwann mal geliefert werden, werden die Bestellungen in chronologischer Reihenfolge abgearbeitet. Sie bekommen dabei grundsätzlich den Preis berechnet zu dem Sie bestellt haben. frei ausm HWLuxx kopiert. Spielt nVidia schon sehr in die Hände wenn der Konkurrent ne Karte aufm Markt hat und dann nicht liefern kann..

reunion
2009-11-20, 15:30:34
Mal zur Abwechslung wieder ein Teaser :)
http://www.tgdaily.com/games-and-entertainment-features/44736-nvidia-remains-qcommittedq-to-gaming-industry
"Gaming remains our bread and butter focus area. However, there are other opportunities for us to explore as the company grows, such as the HPC sector," explained Del Rizzo.

"Look, I understand that some people might be feeling anxious because we haven't published detailed information about Fermi-based Geforce cards," said Del Rizzo. "But, I can assure you that data is forthcoming. The wait will be well worth it, especially when people understand what products based on Fermi are capable of."

"Clearly, Nvidia will be offering gamers a great experience in 2010 with its Fermi-based Geforce line. I can assure you, patience will pay off."

Jedemenge Text mit dem man genau gar nichts aussagt. Warum kann nicht jemand mal zB klar und deutlich sagen "Fermi will beat 5870 - easily" oder ein paar Benchwerte zeigen. Diese Nichtinformationen werte ich nicht unbedingt positiv, sie müssen schon sehr genau Bescheid wissen über die Leistung welche sie erreichen werden. Wundert mich sehr das hier nichts geleaked wird um potentielle Käufer bei Laune zu halten.

mapel110
2009-11-20, 15:35:17
http://www.golem.de/0911/71361.html
IMHO: Grafikmarkt goes Gaga
Rückfall in alte Untugenden

Golem fasst die derzeitige Situation im GPU-Bereich richtig gut zusammen.

Ailuros
2009-11-20, 15:35:23
Jedemenge Text mit dem man genau gar nichts aussagt. Warum kann nicht jemand mal zB klar und deutlich sagen "Fermi will beat 5870 - easily" oder ein paar Benchwerte zeigen. Diese Nichtinformationen werte ich nicht unbedingt positiv, sie müssen schon sehr genau Bescheid wissen über die Leistung welche sie erreichen werden. Wundert mich sehr das hier nichts geleaked wird um potentielle Käufer bei Laune zu halten.

http://forum.beyond3d.com/showpost.php?p=1360366&postcount=1390

davidzo
2009-11-20, 15:36:49
AMD hat erst den etail mit allen karten bei Launch beliefert um die Enthusiasten etwas zu füttern.

Nun hat man aber gesagt, dass vor Weihnachten fairerweise der Retail den ganzen batzen bekommt. OEMs werden sicher auch nicht vollkommen außen vor gelassen.
guck also lieber in mediamarkt, da stehen die karten dann um beim weihnachtsshopping von hans und franz bestaunt zu werden.

jedem das seine, jetzt sind anscheinend erstmal die average joes dran.

Wenn man wirklich eine will, sollte man sich auch die Mühe machen die entsprechenden AMD ankündigungen zu lesen. wo die nächsten karten hingehen stand alles bei CB oder fudzilla ohne groß nachzusuchen...

derguru
2009-11-20, 15:41:39
Nur dass AMDs Architektur auch eher an der Rohleistung als der Bandbreite krankt...
Gibt nen ganzen Thread dazu.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=467175&highlight=bandbreite+evergreen

ich würd sagen gesundes maß von beidem.XTX im 1.Q.:confused:

Guru es ist ihr eigentliches Ziel. Ich hab aber trotz allem einen eher CPU limitierten Fall ausgewaehlt weil es sonst keinen Spass machen wuerde. Ein Ziel zu haben ist zwar schoen und gut, aber man muss es auch erreichen koennen.
ist klar aber das sollte sie schon packen,drunter wäre es eine enttäuschung.
Jedemenge Text mit dem man genau gar nichts aussagt. Warum kann nicht jemand mal zB klar und deutlich sagen "Fermi will beat 5870 - easily" oder ein paar Benchwerte zeigen.

tja,fermi schlägt die 5870 sowieso aber mit vieviel ist die frage und das wollen sie amd nicht preisgeben da amd ja sonst bis zum mai ein bissel zeit hätte,(oder paukenschlag aller "in your face")meine theorie dazu.

dildo4u
2009-11-20, 15:48:43
AMD hat erst den etail mit allen karten bei Launch beliefert um die Enthusiasten etwas zu füttern.

Nun hat man aber gesagt, dass vor Weihnachten fairerweise der Retail den ganzen batzen bekommt. OEMs werden sicher auch nicht vollkommen außen vor gelassen.
guck also lieber in mediamarkt, da stehen die karten dann um beim weihnachtsshopping von hans und franz bestaunt zu werden.

jedem das seine, jetzt sind anscheinend erstmal die average joes dran.

Wenn man wirklich eine will, sollte man sich auch die Mühe machen die entsprechenden AMD ankündigungen zu lesen. wo die nächsten karten hingehen stand alles bei CB oder fudzilla ohne groß nachzusuchen...
:lol: Was soll das schönreden klingt ja so als hätte ATI massig Chips.Wir ham Weihnachten nicht Ostern,also nix ich muss mir eine Karte suchen,für die ich auch noch 400€ auf den Tisch legen soll.ATI erleidet jetzt schön Schaden,weil sie viele OEM's Karten versprochen haben die jetzt keine bekommen.Die werden Bald wieder auf NV setzen,die versprechen nix was sie nicht liefern können.

reunion
2009-11-20, 15:50:13
ATI erleidet jetzt schön Schaden,weil sie viele OEM Karten versprochen haben die jetzt keine bekommen.Die werden Bald wieder auf NV setzen,die versprechen nix was sie nicht liefern können.

Das ist natürlich kompletter Blödsinn, glaubst du AMD wusste nicht wieviele Karten sie liefern bzw. nicht liefern konnten? Also manchmal.

reunion
2009-11-20, 15:51:14
tja,fermi schlägt die 5870 sowieso aber mit vieviel ist die frage und das wollen sie amd nicht preisgeben da amd ja sonst bis zum mai ein bissel zeit hätte,(oder paukenschlag aller "in your face")meine theorie dazu.

Was würde es AMD schon bringen? Die arbeiten ihre Roadmap ab und fertig. Eine schnelleren Chip kann man ohnehin nicht von heute auf morgen aus dem Hut zaubern, das bedarf eine langfristigen Planung.

derguru
2009-11-20, 15:58:12
Was würde es AMD schon bringen? Die arbeiten ihre Roadmap ab und fertig. Eine schnelleren Chip kann man ohnehin nicht von heute auf morgen aus dem Hut zaubern, das bedarf eine langfristigen Planung.
wieso das?es gibt doch gerüchte über eine angebliche XTX Variante,wenn man damit ca.20% gut macht ist es doch ok.

dildo4u
2009-11-20, 16:02:43
Das ist natürlich kompletter Blödsinn, glaubst du AMD wusste nicht wieviele Karten sie liefern bzw. nicht liefern konnten? Also manchmal.

"Wann sich die Liefersituation bessern soll, gab Byrne nicht an. Er sagte dazu nur "in sehr naher Zukunft". Dass die Serie 5800 bereits Mitte November 2009 besser verfügbar sein soll, hatte AMD jedoch schon im Oktober angekündigt." Kompletter Blödsinn aja. ;D

http://www.golem.de/0911/71354.html

reunion
2009-11-20, 16:03:05
wieso das?es gibt doch gerüchte über eine angebliche XTX Variante,wenn man damit ca.20% gut macht ist es doch ok.

Wenn es eine solche Variante gibt kommt sie sowieso. Egal wie schnell oder langsam Fermi ist. Und mehr Leistung kann man deswegen auch nicht heraus quetschen.

reunion
2009-11-20, 16:05:51
"Wann sich die Liefersituation bessern soll, gab Byrne nicht an. Er sagte dazu nur "in sehr naher Zukunft". Dass die Serie 5800 bereits Mitte November 2009 besser verfügbar sein soll, hatte AMD jedoch schon im Oktober angekündigt." Kompletter Blödsinn aja. ;D

http://www.golem.de/0911/71354.html

Schön, eine öffentliche Aussage um die Leute bei Stange zu halten. Sowas nennt man Marketing. Das hat man sicherlich den OEMs versprochen die alle auf Mitte November gewartet haben und jetzt alle voll krass beleidigt sind, na eh ist klar. :rolleyes:

Gast
2009-11-20, 16:21:53
... Die werden Bald wieder auf NV setzen,die versprechen nix was sie nicht liefern können.Die liefern erst gar nicht, weil sie nichts zum Liefern haben. NVidia waere liebend gerne in AMD's Position, die jetzt NV's Totalausfall ebenfalls abdecken muessen, obwohl TMSC nur eine schlechte Ausbeute bieten kann.

derguru
2009-11-20, 16:33:33
Was würde es AMD schon bringen? Die arbeiten ihre Roadmap ab und fertig. Eine schnelleren Chip kann man ohnehin nicht von heute auf morgen aus dem Hut zaubern, das bedarf eine langfristigen Planung.

die haben auch nach dem Radeon X1800 XT launch 3 monate gebraucht um die Radeon X1900 XT raus zubringen und ich bin mir da nicht so sicher ob die in der roadmap für die zeit vorgesehen war.

wie auch immer jedenfalls hat diese verspätung ein faden beigeschmack,das kennt man ja aus der vergangenheit,voodoos letzte gen,5er fön oder r600.

Nakai
2009-11-20, 16:57:24
die haben auch nach dem Radeon X1800 XT launch 3 monate gebraucht um die Radeon X1900 XT raus zubringen und ich bin mir da nicht so sicher ob die in der roadmap für die zeit vorgesehen war.

wie auch immer jedenfalls hat diese verspätung ein faden beigeschmack,das kennt man ja aus der vergangenheit,voodoos letzte gen,5er fön oder r600.

R580 war zu dieser Zeit geplant. R520 kam etwa 6 Monate zu spät, sollte imo schon im Q2 2005 kommn.

Wenn es eine solche Variante gibt kommt sie sowieso. Egal wie schnell oder langsam Fermi ist. Und mehr Leistung kann man deswegen auch nicht heraus quetschen.

Naja einen schnelleren Chip, eben durch Takterhöhung zu liefern, sollte imo schon kurzfristig möglich sein. AMD arbeitet auf jeden Fall daran, da man wohl weiß, dass der G300 doch schneller sein könnte als erwartet.


mfg

davidzo
2009-11-20, 17:49:37
wieso das?es gibt doch gerüchte über eine angebliche XTX Variante,wenn man damit ca.20% gut macht ist es doch ok.

das ist bisher reine fanboy spekulation. Atis roadmap kennt da keinen refreshchip zwischen Evergreen und 32nm Islands.


"Wann sich die Liefersituation bessern soll, gab Byrne nicht an. Er sagte dazu nur "in sehr naher Zukunft". Dass die Serie 5800 bereits Mitte November 2009 besser verfügbar sein soll, hatte AMD jedoch schon im Oktober angekündigt." Kompletter Blödsinn aja. ;D

http://www.golem.de/0911/71354.html

Der Marketingspast hat doch gar keine Ahnung. Wenn die Aussage von TSMC kommmt vielleicht, aber der Mann weiß genausowenig was in Taiwan abgeht wie wir.

PulsarS
2009-11-20, 21:38:10
das ist bisher reine fanboy spekulation.
Warum?
Man selektiert fuer die 5970, dann kann man es auch fuer eine XTX machen.
Wo ist das Problem?
Man muss ja nicht sooo viele liefern, man ist trotzdem auf dem Markt praesent.


Atis roadmap kennt da keinen refreshchip zwischen Evergreen und 32nm Islands.
Solche Refreshes werden in der letzten Zeit auch kaum noch auf Roadfmaps festgehalten, weil man noch was zu bieten haben will...

Natuerlich, wenn man bereits was zu bieten hat.

davidzo
2009-11-20, 22:20:17
Klar, ein refresh klingt logisch. Und ein refresh macht in den Augen der meisten Kunden auch Sinn, wahrscheinlich auch in AMDs Augen.
Trotzdem ist da bisher von AMD nichts angekündigt oder bestätigt worden.
Ergo ist das Spekulation!

LovesuckZ
2009-11-20, 22:24:07
Ein Refresh in Form eines G71, G92 oder auch rv580 wird es im Q2 2010 nicht geben. AMD ist jetzt schon bei 190 Watt. Jedes Transistörchen mehr wird sich im Stromverbrauch niederschlagen. Wenn man sieht, dass der Refresh des rv770 9 Monate später im Form des rv790 kam, dann erkennt man, dass nicht viel Luft nach oben besteht. Auch wird es von nVidia keinen Refresh im Q2 und Q3 geben. nVidia's 2900XT Konter war auch nur der A3 Respin des G80. Der G92 kam erst 6 Monate später.

PulsarS
2009-11-20, 22:24:24
Klar, ein refresh klingt logisch. Und ein refresh macht in den Augen der meisten Kunden auch Sinn, wahrscheinlich auch in AMDs Augen.
So wird es auch sein.

Trotzdem ist da bisher von AMD nichts angekündigt oder bestätigt worden.
Nicht was eine XTX betrifft, aber andere Indizien lassen darauf schliessen.

Ergo ist das Spekulation!
So wie vieles in diesem Thread ;)

PulsarS
2009-11-20, 22:27:07
Ein Refresh in Form eines G71, G92 oder auch rv580 wird es im Q2 2010 nicht geben. AMD ist jetzt schon bei 190 Watt. Jedes Transistörchen mehr wird sich im Stromverbrauch niederschlagen. Wenn man sieht, dass der Refresh des rv770 9 Monate später im Form des rv790 kam, dann erkennt man, dass nicht viel Luft nach oben besteht. Auch wird es von nVidia keinen Refresh im Q2 und Q3 geben. nVidia's 2900XT Konter war auch nur der A3 Respin des G80. Der G92 kam erst 6 Monate später.
Waere nett, wenn du erstmal andere Postins liesst, bevor du etwas schreibst...
Selektion ist dir aber ein Begriff?:freak:

Gast
2009-11-20, 22:40:48
Was hat Selektion mit Stromverbrauch zu tun? Lovesuckz Argumente sind schlüssig.

PulsarS
2009-11-20, 22:45:05
Was hat Selektion mit Stromverbrauch zu tun? Lovesuckz Argumente sind schlüssig.
Wenn ich weniger Volt gebe, habe ich eine geringere Verlustleistung.
LovesuckZ Argumente sind nicht schluessig.

Coda
2009-11-20, 22:52:50
Was hat Selektion mit Stromverbrauch zu tun?
Man kann Chips selektieren dass sie weniger Spannung brauchen bei gleichem Takt oder weniger leakage haben.

Man kann also sehr wohl auf Stromverbrauch selektieren.

Sorkalm
2009-11-20, 22:54:01
Man kann Chips selektieren dass sie weniger Spannung brauchen bei gleichem Takt oder weniger leakage haben.

Passiert z. B. bei den Cypress-Chips auf der 5970. Die laufen auch mit deutlich niedriger Spannung (auch als bei einer 5850, und dabei haben sie noch mehr Einheiten).

LovesuckZ
2009-11-20, 22:55:47
Man kann Chips selektieren dass sie weniger Spannung brauchen bei gleichem Takt oder weniger leakage haben.

Man kann also sehr wohl auf Stromverbrauch selektieren.

Selektion ist aber kein Refresh. Das kann auch nVidia beim GF100 - wie sie die letzten Jahre immer gezeigt haben. Denn sie bringen ihre neuen Karten nie auf das was mögliche, sondern lassen immer Luft für ihre Partner für OC-Versionen.
Die 7800GTX-512 war eine reine Selektionsarbeit und wir sahen ja, wie sowas ausgehen kann.

PulsarS
2009-11-20, 23:02:05
Selektion ist aber kein Refresh. Das kann auch nVidia beim GF100 - wie sie die letzten Jahre immer gezeigt haben. Denn sie bringen ihre neuen Karten nie auf das was mögliche, sondern lassen immer Luft für ihre Partner für OC-Versionen.
Die 7800GTX-512 war eine reine Selektionsarbeit und wir sahen ja, wie sowas ausgehen kann.
Muss ja auch kein Refresh sein.
Mann kann die Karte auch 5875 nennen, bei Nvidia waere es schon die GTX 460, wenn ma das letztens mit dem Umbennenen mitbekommen hat. :)

Gast
2009-11-20, 23:04:01
Was hat Selektion mit Stromverbrauch zu tun? Lovesuckz Argumente sind schlüssig.Auch wenn es wieder Spekulation ist und ich mich gerne stichhaltig vom Gegenteil ueberzeugen lasse, so hat AMD fuer einen potentiellen RV5890 wenigstens den Verlustleistungs-Spielraum einer GF100, welche allem Anschein mit einem 6&8 poligen Anschluss daherkommt und damit bis zu 300 Watt verheizen kann. Der RV5870 begnuegt sich gegenwaertig mit deutlich weniger. Ausserdem wir AMD bis zum Marktstart der GF100 gut 6 Monate fuer die Entwicklung eines Refreshs Zeit gehabt haben. Der Refresh wir wohl nur eine neue Revision des RV5870 sein. Das reicht aber fuer einen hoeheren Takt ohne viel mehr Verlustleistung. Es wird auf jedem Fall spannend und der Kampf um die Performance-Krone im Fruehjahr ist noch lange nicht entschieden.

Gast
2009-11-20, 23:13:22
Selektion ist aber kein Refresh. Das kann auch nVidia beim GF100 - wie sie die letzten Jahre immer gezeigt haben. Denn sie bringen ihre neuen Karten nie auf das was mögliche, sondern lassen immer Luft für ihre Partner für OC-Versionen.
Die 7800GTX-512 war eine reine Selektionsarbeit und wir sahen ja, wie sowas ausgehen kann.GF100-Refresh?!? - Darueber denkst du bereits jetzt nach - Diesen sehen wir vielleicht 6 Monate nachdem der GF100 es ueberhaupt erst einmal auf den Markt in Form einer kaufbaren Konsumer-Grafikkarte geschafft haben mag. Chips und Grafikkarten in NVidias Laboratorien kann ich mir naemlich nicht kaufen und sind so gesehen nicht besser als Vaporware.

LovesuckZ
2009-11-20, 23:24:41
Deswegen arbeiten große Firmen auch immer parallel und unabhängig an mehreren Projekten. Ein GF100 Refresh ist nicht davon abhängig, wann der GF100 kommt. Das zeigte schon die Vergangenheit. Und die kann man nicht wegnegieren.

PulsarS
2009-11-20, 23:29:29
Deswegen arbeiten große Firmen auch immer parallel und unabhängig an mehreren Projekten. Ein GF100 Refresh ist nicht davon abhängig, wann der GF100 kommt. Das zeigte schon die Vergangenheit. Und die kann man nicht wegnegieren.
Beispiele?
Was ist ein Refresh?
Nvidia nach ist das Aendern des BIOS eine neue Generation....:rolleyes:

G!ZMo
2009-11-20, 23:35:25
Beispiele?
Was ist ein Refresh?
Nvidia nach ist das Aendern des BIOS eine neue Generation....:rolleyes:
Beispiele für einen Refresh:
NV30 --> NV35
G70 --> G71