Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 [43] 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

redfirediablo
2010-01-25, 00:45:33
Tolle Theorie:
- Keine Produktion mehr.
- teildefekte GT200b liegen auf Halde rum, sie werden die einfach nicht los
- Preise der GTX 260 und GTX 275 sind gestiegen

Das passt hinten und vorne nicht, so viele Wiedersprüche in sowenigen Sätzen, versuch es besser gleich nochmal.

Wenn du mal nachdenken würdest passt das und dabei muss man nichteinmal großartig seinen Kopf anstrengen.

Ich rede natürlich nicht von gt200b Chips die auf Halde liegen sondern bereits produzierte Karten. Es sind einfach noch viele GTX 260 im Umlauf, die aber nicht mehr vollständig Konkurrenzfähig gepreist werden, da die Händler wissen das kein Nachschub mehr kommt und man so die NV Fans bis zur fermi noch etwas abgrasen kann. Es gab und gibt deutlich mehr GTX 260 Karten als die teureren Varianten, obwohl NV mit der GTX 260 am wenigsten Geld verdient. Das kann nur daran liegen das eben diese Karten bei der Produktion am häufigsten abfallen.

Ich erneuere meine Prognose:

GTX 360 minimal schneller als 5870 449$

GTX 380 599$

Release mit A3 aber nur kleine Stückzahlen. Letztlich werden nur die Risk Wafer die bei TSMC schon seit Wochen herumliegen mit A3 fertig prozessiert.

Stückzahlen und halbwegs akzeptable Preise erst mit B1 und B2. Warum ein kompletter respin? Bei den aktuellen yields brauch man möglichst hoch taktende Chips um wenigstens ordentliche Verkaufspreise erzielen zu können. Das ist aber mit A3 nicht möglich.

BlackFog
2010-01-25, 00:56:36
Nichtmal vor 2 Setien wurde bereits angegeben, dass die yields unter 40nm den der 65nm entsprechen.

599$ halte ich auch als gut möglich. Immerhin was das bisher der Preis fürs Highend.

Gast
2010-01-25, 01:00:13
Ich rede natürlich nicht von gt200b Chips die auf Halde liegen sondern bereits produzierte Karten. Es sind einfach noch viele GTX 260 im Umlauf, die aber nicht mehr vollständig Konkurrenzfähig gepreist werden, da die Händler wissen das kein Nachschub mehr kommt und man so die NV Fans bis zur fermi noch etwas abgrasen kann.
Halten wir fest:
- es gibt angeblich noch viele fertige GTX 260
- die GTX 260 werden hochpreisig gehalten, um mehr Gewinn abzuwerfen

Daraus folgt das die Händler auf den GTX 260 sitzen bleiben, besonders dramatisch, weil es sich um angeblich viele handelt.

Deine Theorie passt nicht. Vom rumliegen bekommt der Händler keine Butter aufs Brot, im Gegenteil, die Kosten wurden bereits bezahlt, solange die Teile rumliegen sind sie ein reiner Verlust.


NV Fans gibt es übrigens praktisch gar nicht.


Es gab und gibt deutlich mehr GTX 260 Karten als die teureren Varianten, obwohl NV mit der GTX 260 am wenigsten Geld verdient. Das kann nur daran liegen das eben diese Karten bei der Produktion am häufigsten abfallen.
GTX 260 sind wesentlich günstiger für den Kunden.
Was meinst du wohl, welche Karten häufiger gekauft werden, 500€ Modelle oder 150€ Modelle?
Na, sags mir.

Auf den GTX 260 müssen teils auch vollwertige GT200b verkloppt werden. Herstellungsmäßig ist der einzige Vorteil, das das PCB, der Kühler und der VRAM billiger ist.
Was meinst du wohl, warum die GTX 260 216 raus kam, warum die GTX 275 raus kam.
Beides Modelle, die die eine Preissteigerung bei gleichen Kosten gerechtfertigt haben.


Warum ein kompletter respin? Bei den aktuellen yields brauch man möglichst hoch taktende Chips um wenigstens ordentliche Verkaufspreise erzielen zu können. Das ist aber mit A3 nicht möglich.Schwachsinn, bei niediger Yield wird man diese nicht wieter durch hohen Takt senken.
Eine hochtaktende "Ultra" ist denkbar, aber der Rest wird konserativ getaktet. Vielleicht gibts dann gleich zum Start mehr als 2 Versionen, eine Ultra, eine normale GTX 380 und die beschnittende GTX 360.

Gast
2010-01-25, 01:01:05
Release mit A3 aber nur kleine Stückzahlen. Letztlich werden nur die Risk Wafer die bei TSMC schon seit Wochen herumliegen mit A3 fertig prozessiert.

Jo, das sind dann wohl die vom Oktober, gell?


Stückzahlen und halbwegs akzeptable Preise erst mit B1 und B2. Warum ein kompletter respin? Bei den aktuellen yields brauch man möglichst hoch taktende Chips um wenigstens ordentliche Verkaufspreise erzielen zu können. Das ist aber mit A3 nicht möglich.

Erkläre doch mal bitte, wieso ein neues Tape-Out die Taktraten eine bessere Taktung ermöglicht. Und wieso ermöglichen höhrere Taktraten "ordentliche Verkaufspreise"? Hat der $ oder € weniger Wert, weil eine Karte niedriger getaktet ist?

Persoenliche Angriffe und Sticheleien werden nicht mehr weiter toleriert. Sei gewarnt

Gast
2010-01-25, 03:30:36
G80 hat neben seinen fundamentalen Arch-Verbesserungen aber auch deutlich mehr Rohleistung, gegenüber G71/R580, mitgebracht.
Wenn man nun hört, dass es nur 64 Filtereinheiten mit halbem Shadertakt sind, liegt man in diesem Bereich gar unter GT200.

2,13x soviele Recheneinheiten. Am Ende wahrscheinlich 2x mehr MADD-Leistung. Dazu wird die Effizienz der einzelnen Einheiten erhöht. Die SFUs stallen nicht mehr eine Recheneinheit für 8 Takte.
64TMUs: Das sagt garnichts aus. G80 hatte auch nur 8 Recheneinheiten, gegenüber den 48 von g70.
Cache Hierachy für das Halten von Daten On-Die. L1 Cache soll ca. 1,5TB/s schnell sein. L2 wohl ca. die Hälfte. Wesentlich schneller als wenn man die Daten dauernd in den Ram schreiben müsste.
Ca. 40-50% mehr Bandbreite zum Ram gegenüber GTX285.
Und dann gibt es noch die Abkehr von einer riesigen Setup-Engine mit einer Geometrie-Einheit.


Eher erinnert GF100 doch etwas an R520 - verspätet, geringe Rohleistung, aber ein überzeugendes und effezientes Featureset für die aufkommende D3D-Version.

Nein. r520 hatte gegenüber dem rv420 nicht annährend soviele Veränderungen. 16 TMUs, 16 Pixelshader, 256bit Speicherinterface, 8 statt 6 Vertexshader. Bisschen höherer Takt.
GF100 spielt in einer komplett anderen Liga.

Coda
2010-01-25, 04:07:02
Die SFUs stallen nicht mehr eine Recheneinheit für 8 Takte.
Taten sie auch bisher nicht. Und es sind 4 Takte.

Ailuros
2010-01-25, 05:56:42
Es wird afaik zum Anfang nur zwei high end Varianten von GF100 geben.

Ich bezweifle dass auf Regalen irgendwo SKUs mit A2 erscheint. Man geht in Produktion mit A3 und ich schaetze dass bald die finalen Frequenzen durchsickern werden.

Selbst Webseiten werden nicht mit A2 versorgt sonst haetten sie schon GF100 samples. An 3 Stellen wo ich fragte hiess es von allen ab Februar, ergo sie bekommen alle Produktions-Material.

Wenn du mal nachdenken würdest passt das und dabei muss man nichteinmal großartig seinen Kopf anstrengen.

Ich unterstuetze Dein Recht Deine Meinung zu aeussern so stark wie es mir moeglich ist und werde Dich auch vor jeglichen direkten und indirekten Angriffen anderer schuetzen. Nichtdestominder waere es angebrachter Deinen Ton um einen Klick zu normalisieren denn er liegt am Rand der Provokation.


Release mit A3 aber nur kleine Stückzahlen. Letztlich werden nur die Risk Wafer die bei TSMC schon seit Wochen herumliegen mit A3 fertig prozessiert.

Stückzahlen und halbwegs akzeptable Preise erst mit B1 und B2. Warum ein kompletter respin? Bei den aktuellen yields brauch man möglichst hoch taktende Chips um wenigstens ordentliche Verkaufspreise erzielen zu können. Das ist aber mit A3 nicht möglich.

Wenn Du mir beantworten kannst wie genau AMD's yields seit Q3 09' aussahen und wie sie heute aussehen ausschliesslich fuer Cypress haben wir erstmal schon einen Anhaltspunkt. Die naechste Frage danach waere warum AMD keinen metal spin oder sogar respin benutzte um die yields in der Zwischenzeit zu "verbessern".

Dann frag ich erst wo die finalen GF100 maximal getaktet sein sollen und wie viele schaetzungsweise pro wafer 380 Nivaeu erreichen.

V2.0
2010-01-25, 07:17:19
Weil AMD sich an die Designvorgaben von TSMC gehalten hat und die Probleme beim Yields dort nur von TSMC kamen, während Taktung etc. ok sind.

Bei NV stimmen die Yields nicht, die Taktung stimmt nicht und deren Customdesigns drücken die Yields noch weiter.

Hat Charlie doch alles schon gesagt ;)

Ailuros
2010-01-25, 07:28:01
Weil AMD sich an die Designvorgaben von TSMC gehalten hat und die Probleme beim Yields dort nur von TSMC kamen, während Taktung etc. ok sind.

Bei stimmen die Yields nicht, die Taktung stimmt nicht und deren Customdesigns drücken die Yields noch weiter.

Hat Charlie doch alles schon gesagt ;)

Sarkasmus ahoi LOL. Charlie sollte sich wie silent_guy ihm schon sagte sich auf tape out Meldungen begrenzen. Dass mit den Frequenzen alles zu 100% ok ist wird aber auf der anderen Seite schwer zu behaupten sein. Sonst haette man die Tesla 2070 auch nicht fuer Q2 eingeordnet, denn ich erwarte auch nicht dass sie die 380 auf nur 1.4GHz hot clock takten.

y33H@
2010-01-25, 09:16:51
und man hat nur ein einziges Tier im ganzen Spiel eingefuegt
• Wachteln
• Frösche
• Weißer Hai
• Schildkröte
• Vögel am Himmel
• Hühner

Nightspider
2010-01-25, 09:22:23
• Wachteln
• Frösche
• Weißer Hai
• Schildkröte
• Vögel am Himmel
• Hühner

+Krabben
+Fische
+Ratten(Warhead)

+mind. 3 Insekten
+Fliegen
+Schmetterlinge
+Glühwürmchen

Ailuros
2010-01-25, 09:39:16
Bitte so viel wie moeglich beim Thema bleiben. Danke

aths
2010-01-25, 11:21:01
...und wegen dem Größenwahn liebe ich diesen Chip. Ich arbeite an einem speziellen Feld der Computergraphik, Volume Rendering, und hier braucht man an erster Stelle Bandbreite. Der GT200 mit seinem 512bit breiten Speicherinterface hat mir damals die Tränen in die Augen getrieben. Jetzt bin ich ein wenig skeptisch wegen dem geschrumpften Interface und der geschrumpften Anzahl der Textur-Einheiten beim Fermi. Klar wird er schneller sein (DDR5, effizientere TUs etc.), nur werde ich wie andere Anwendungen vergleichbare Zuwächse sehen? Ich freue mich das, hoffentlich bald, herauszufinden...Ausgehend vom G92 erstaunte mich die Interfaceverdoppelung auch, zumal die Zahl der TMUs um nur 25% stieg. Wenn ich das richtig in Erinnerung habe, wurde beim GT200 auch noch die Z-Leistung pro 64-Bit-ROP verdoppelt. Wie Nvidia das 65-nm-Vieh wirtschaftlich bauen wollte, war mir aber nicht klar.

zitat:
Weil der Yield so gut ist, dass es mehr "volle" GPUs gibt als der Markt verlangt, aber nicht jeder das Geld für eine GTX 285 hat.

never!
das haut so nicht hin, weil sonst (die 285er und) die 275er nicht so teuer wäre(n). die 260er wurde dagegen geradezu verramscht und da gibt es wohl eine ganze menge an defekten chips die raus müssen...Auch beim G80 war die GTS deutlich günstiger zu bekommen als die GTX. Einerseits lässt sich Nvidia den Highend-Bonus kräftig bezahlen, andererseits sind die Highend-Karten an der Grenze des in der Massenproduktion machbaren gebaut. Da werden höherwertige Bauteile benötigt, bessere Spannungswandler, komplexere Leiterbahnplatinen und es wird auch Speicher verbaut der teurer ist. Das läppert sich zusammen.

die 275 war die antwort auf die 4890er. Die 275 ist gleichzeitig eine Möglichkeit, 280-er Leistung zu geringeren Kosten zu bringen da praktisch das 260-er Boardlayout genutzt werden kann.

aths
2010-01-25, 11:28:57
Ich hoffe mal, dass zumindest bei einigen mittlerweile ankommt das Lieferbarkeit zu deutlich höheren Preisen als vorher üblich nur durch eine extreme Verknappung des Angebotes zustandekommen, Nvidia produziert quasi nichts mehr. Nur weil überhaupt noch Karten lieferbar sind, ist das kein Gegenbeweis das Nvidia die Produktion nicht defakto eingestellt hätte. Klar, es könnten noch vielleicht 100 alibi wafer im Monat sein, mehr aber auch nicht.Nvidia produziert noch GT200b, das weiß ich aus guter Quelle.

Wenn wir uns jetzt die aktuelle Lieferbarkeit und die entsprechenden Preise ansehen, stellen wir schnell fest das GTX 275 und GTX 285 zwar lieferbar sind aber nur mit absolut idiotischen Preisaufschlägen, zu denen praktisch niemand mehr diese Karten kauft.

Anders sieht es bei der GTX 260 aus, diese ist zwar mittlerweile auch im Preis gestiegen und überteuert gegenüber der ATI Konkurrenz aber es ist noch nicht ganz so schlimm, ergo gibt es noch deutlich mehr GTX 260 Karten im Umlauf.Wieder verstehe ich die Logik nicht. Gerade wenn der Preis der 260-er attraktiv genug ist dass die Kunden zugreifen, wären die Lager schnell leer. Es gibt noch Kunden die sich auch heute (5870 verfügbar, GF100 steht bald vor der Tür) für eine 275, 285 oder 295 interessieren und trotz des Preises kaufen. Die Preise wären nicht so hoch wenn die Karten nicht verkauft würden. Im Gegenteil wollen die Händler gerade in dem Bereich ihre Bestände loswerden. Die GTX 260 ist nach diversen Lowcost-Designs in einem anderen Preisbereich, die bekommt man immernoch losgeschlagen (wenn es sein muss im Bundle als PPU.)

Die GTX 260 wird noch hergestellt.

Jetzt frage ich dich, warum Nvidia auf die Idee kommen sollte die wenigen Chips die es noch gibt ausgerechnet als GTX 260 und nicht als GTX 275 oder GTX 285 zu verkaufen? Ganz einfach: weil Sie es scheinbar nicht können aus technischen Gründen (defekte, bins)

Fazit: Nvidia hat vor allem noch minderwertige GTX 260 auf Halde liegen die sich nicht mit Gewinn loswerden. Neue Produktion würde noch mehr davon bedeuten bei trotzdem relativ hohen Kosten, wenn man mal an einen gleichwertigen aber deutlich billigeren Juniper denkt.GeForce und Radeon sind nicht in allen Segmenten vergleichbar (Cuda, PhysX, Tesla.) Nvidia verkauft frisch produzierte Chips für 285-er. Die teildefekten GPUs als 260-er loszuwerden ist auch kein Problem, Hersteller die Nvidia im Programm haben lechzen nach GT200b.

Falsch, Nvidia ist seit MONATEN bekannt das sich fermi ewig verzögern wird. Wenn sie gewollt hätten, dann wäre es ein Kinderspiel gewesen im Herbst 2009 nochmal ordentlich bei TSMC nachzuordern und Sie hätten mittlerweile wieder dick Karten in den Regalen. Die 55nm Kapazitäten waren frei und deshalb wären die Karten sehr schnell im Laden gelandet und Sie würden jetzt nicht auf dem trockenen Sitzen. Auch in großen Firmen läuft nicht jede Entscheidung rational ab. Nvidia wollte sich lange Zeit nicht eingestehen dass sich GF100 verspätet.

Wenn man mal nachdenkt ist es einfach logisch das man mittlerweile bei Nvidia und der GTX Serie nicht mehr von "Weltwirtschaft hat uns überrascht" sprechen kann sondern das es sich hier offenkundig um eine bewußte Entscheidung gehandelt hat, die Serie nicht mehr weiterzuführen. Diese Entscheidung trifft man nur, wenn man quasi kein Geld mehr damit verdienen kann bzw. sogar Verluste einfahren würde.

Ich betone nochmal: Nvidia wußte seit Monaten wie sich Fermi verspäten würde, es wäre mehrfach möglich gewesen gt200b nachzuordern und zeitnah neue Kontingente in die Läden zu bringen. Sie haben sich aber bewußt dazu entschlossen diesen Markt komplett ATI zu überlassen und die einzigste logische Begründung dafür ist, das die Kosten zu hoch gegenüber dem Verkaufspreis waren und sind.Ich komme zu einem anderen Schluss: Bei Nvidia drang nicht rechtzeitig nach oben durch, dass sich GF100 um mindestens zwei Monate verzögert. Als das klar wurde, gab es von oben die Order, möglichst alle Ressourcen in einen baldigen GF100-Release zu stecken. Nvidia ist klar dass sie im Gamer-Markt D3D11 brauchen auch wenn die grüne Marketingabteilung von DX9-Konsolenkonvertierungen faselt.

Gast
2010-01-25, 11:39:20
Auch beim G80 war die GTS deutlich günstiger zu bekommen als die GTX. Einerseits lässt sich Nvidia den Highend-Bonus kräftig bezahlen, andererseits sind die Highend-Karten an der Grenze des in der Massenproduktion machbaren gebaut. Da werden höherwertige Bauteile benötigt, bessere Spannungswandler, komplexere Leiterbahnplatinen und es wird auch Speicher verbaut der teurer ist. Das läppert sich zusammen.

Die G80 GTX ist auch gut 50% schneller als die G80 GTS.
Ausgehend davon ist die GTX nicht überteuert gewesen, sondern so teuer wie die GTS. Wenn man den High-End Bonus einrechnet war die GTS zu teuer.

Nvidia produziert noch GT200b, das weiß ich aus guter Quelle.
Ist auch vollkommen logisch, denn welchen vernüfntigen Grund sollen die Händler haben, seit einem halben Jahr auf zig GTX Karten zu sitzen.
Eine im Regal stehende Karte bedeuted 100% Verlust und zusätzlich laufende Kosten.

igg
2010-01-25, 12:40:43
If all goes well, the second generation Fermi architecture should be coming in late 2010. Since Fermi is Nvidia’s big transition that got delayed, it looks like Nvidia plans to have two new major generations in a single year. Traditionally the new chip comes in one year and roughly 12 months after the company is ready to launch faster version of the same chip, with more muscle.
http://www.fudzilla.com/content/view/17387/34/

Noch was (gleiche Meldung)
We also learned that the mainstream Fermi won’t be significantly delayed from the original plan and we hope to see GF100-based GT300 single-chip card in March of this year.

redfirediablo
2010-01-25, 12:57:24
Erkläre doch mal bitte, wieso ein neues Tape-Out die Taktraten eine bessere Taktung ermöglicht. Und wieso ermöglichen höhrere Taktraten "ordentliche Verkaufspreise"? Hat der $ oder € weniger Wert, weil eine Karte niedriger getaktet ist?



Ein kompletter respin ermöglich höhere Taktraten indem taktlimitierende Bereiche verbessert werden.

Eine höher taktende Karte ist schneller im vergleich zur ATI Konkurrenz, ergo kann man sie teurer verkaufen. Wenn sich die Produktionskosten nicht unterscheiden erzielt deshalb eine höher Taktende Karte einen größeren Gewinn.

redfirediablo
2010-01-25, 13:12:41
Wieder verstehe ich die Logik nicht. Gerade wenn der Preis der 260-er attraktiv genug ist dass die Kunden zugreifen, wären die Lager schnell leer. Es gibt noch Kunden die sich auch heute (5870 verfügbar, GF100 steht bald vor der Tür) für eine 275, 285 oder 295 interessieren und trotz des Preises kaufen. Die Preise wären nicht so hoch wenn die Karten nicht verkauft würden. Im Gegenteil wollen die Händler gerade in dem Bereich ihre Bestände loswerden. Die GTX 260 ist nach diversen Lowcost-Designs in einem anderen Preisbereich, die bekommt man immernoch losgeschlagen (wenn es sein muss im Bundle als PPU.)


Du hast noch nie als Händler gearbeitet oder? Ich merke leider erst jetzt das man bei der breiten Masse der Forenleser nicht davon ausgehen kann, das sie ein Gefühl dafür haben wie und warum ein Händler was macht.

Ein Händler versucht seinen Gewinn zu maximieren. Das kann er auf zweierlei Art. Er kann Preise und damit seine Marge erhöhen, er kann die verkaufte Stückzahl steigern. Denn Stückzahl X Marge (absolut) = Gewinn.

Jetzt ist aber der Händler stark Stückzahlenlimitiert, er könnte also nicht unlimitiert Karten bekommen. Er setzt deshalb den Verkaufspreis genau an die stelle, an dem die Nachfrage dem Angebot bzw. der Anzahl der neu reinkommenden Karten entspricht.

Anders ausgedrückt: er zieht die Preise soweit an, bis die Nachfrage ausreichend abgesunken ist, das er diese gerade so befriedigen kann.

Hohe Preise sind immer Ausruck eines mangelnden Angebotes. Niedrige Preise sind immer Ausdruck eines Angebotüberschusses. Im Detail ist bei hohen Preisen die entscheidende Frage ob das mangelnde Angebot durch zu hohe Nachfrage (58XXer Serie) bei gleichzeitig hohen Stückzahlen oder durch eine niedrige Nachfrage bei minimalen Stückzahlen (GTX Serie) zustandekommt.

Die Nachfrage und verkaufen Stückzahlen sind leider schwer zu bestimmen. Jedoch geben z.B. die Geizhals Klicks einen guten Eindruck was gerade gefragt ist und was nicht und diese unterstützen massiv meine These das die Nachfrage nach GTX Karten sehr niedrig ist aber da praktisch kaum noch Karten produziert werden die Preise trotzdem steigen und zusätzlich die Nachfrage dämpfen.


Die GTX 260 wird noch hergestellt.


In minimalen Alibistückzahlen, damit man sich nicht die Blöße geben muss öffentlich eine Niederlage einzugestehen.

Gast
2010-01-25, 13:16:26
Für viele ist eine mehr als 400 Dollar Karte ein Nogo. Mal sehen ob die 360 diesen Schwellwert durchbricht.

Bei ATI merkt man deutlich, dass die Ausbeute der 40nm Fertigung nicht besonders gut ist/war. Da die Produktpalette bei den DX11 Chips nach unten sehr breit ist. Salvaging wird es sicher auch bei NV geben und bei der Grösse des Chips wird die noch ausgeprägter sein als bei ATI.
Ich glaube, dass NV gerne sehr viele stark beschränkte GF10x Modele beim launch auf dem Markt werfen würde, aber das würde ihren alten chips die zwar umbeschriftet sind aber noch nicht DX11 beinhalten den Todesstoss geben.

So wie ich das sehe wird sich NV den 360 u. 380 "vergolden" lassen müssen und die nicht vollwertigen GF10x noch lange lagern, damit die Bilanz bei vorhandenen Produkten stimmt. Wenn Fermi noch dazu sehr viel Wärme produziert und sehr viel Saft braucht, was sich nicht hoffe, werden die kostengünstigere Chip mit GF10x auf sich lange warten lassen.

redfirediablo
2010-01-25, 13:21:37
Auch in großen Firmen läuft nicht jede Entscheidung rational ab. Nvidia wollte sich lange Zeit nicht eingestehen dass sich GF100 verspätet.


Sehe ich anders, sonst wäre NV ein absoluter Saftladen und selbst wenn sie momentan ordentliche execution Probleme haben, würde ich das bezweifeln.

Nvidia wollte das die Öffentlichkeit nur Stück für Stück und möglichst spät mitbekommt, das sich fermi verzögert um die Kundschaft zum warten zu bewegen, damit diese nicht auf ATI umsteigt.

Eine Möhre vorm Pferd funktioniert auch nur solange sie nicht weit genug weg hängt. Deshalb wurde auch Fudo im letzten Jahr regelmässig mit unrealistischen fermi release terminen gefüttert, die intern schon längst überholt waren, einfach um die Leute weiter zum warten zu bewegen.

Wenn du letztens den Film "Gier" in der ARD mit dem Herrn "Glanz" gesehen hast, konntest du diese Taktik in absoluter Reinkultur erleben. Wenn ich so drüber nachdenke passt das perfekt auf die aktuelle Nvidia Taktik.

Insofern "im März wird endlich ausgezahlt Freunde" :-)

tombman
2010-01-25, 13:26:12
Insofern "im März wird endlich ausgezahlt Freunde" :-)
Zumindest gibts dann endlich benchmarks ;)
Das Pferd weiß ja auch ganz genau, was eine Karotte ist und wie sie schmeckt :cool:

Und halten muß Furby auch nur bis Weihnachten, weils dann von beiden neue Chips gibt :)

huch
2010-01-25, 13:32:35
bei einem kompletten respin können auch die transistorparameter ein wenig angepaßt werden. außerdem beruht das originale transistorlayout ja noch auf den TSMC prozeßdaten vom letzten jahr und beinhaltet noch nicht die anpassungen, die seitdem vorgenommen wurden.
mit diesen daten und infos können sie deutlich exaktere simulationsmodelle laufen lassen und da nV ja massiv fullcustom-design nutzt könnten sie dabei die transistoren, stromversorgung und verdrahtung hin zu schnelleren signallaufzeiten auf kritischen pfaden optimieren.
da es ja um verbesserungen im wenig mehr als einstelligen prozentbereich sowie die kontrolle offenbarer intra-die varianzen geht, ist das vollkommen realistisch.
sie brauchen doch nur wenig mehr taktbarkeit, damit zB 90% aller funktionsfaehigen dies 1300M bei 448SP und davon 5% die 1500M bei 512SP erreichen.
Ziel dürfte sein, daß eine 360 die 5870 knapp hinter sich läßt und die deutlich stärkere 380 sich auch noch gegen eine 5890 mit 1000M+ mit einem spürbaren Abstand, zB 20%+, behaupten kann. denn wieviel's auch immer ist, ein GF100 die wird immer mehr kosten als ein RV870. falls aber AMD mehr als nur einen Shrink bringt und den aus zwei 800SP bestehenden RV870 um einen dritten 800SP Block erweitert, was Platz- und TDPmäßig wohl gehen würde.. hmmm... vor 2010 kann nV die SP-Anzahl nicht erhöhen...

just my thoughts...

Undertaker
2010-01-25, 13:33:38
Jedoch geben z.B. die Geizhals Klicks einen guten Eindruck was gerade gefragt ist

Tun sie leider absolut nicht. Nach Geizhals ist die 80GB Postville, eine 200€ SSD, die momentan am stärksten gefragte Festplatte - ein absoluter Nonsense, genauso unrealistisch, wie das die HD5850/5870 massiv stärker nachgefragt werden als die HD5700er. Damit fällt auch eine mögliche Aussage zu den GT200 Modellen flach und die Argumentation, die Karten werden nicht/kaum noch produziert.

huch
2010-01-25, 13:34:30
war als Antwort auf einen Post auf der letzten Seite gedacht... war wohl zu langsam... sry!

Gast
2010-01-25, 13:50:21
....
Aus damit.


Ein kompletter respin ermöglich höhere Taktraten indem taktlimitierende Bereiche verbessert werden.

Was für eine Weichspülantwort. Was sind denn die "taktlimitierenden Bereiche" in Fermi? Und wie sollen die verbessert werden?


Eine höher taktende Karte ist schneller im vergleich zur ATI Konkurrenz, ergo kann man sie teurer verkaufen. Wenn sich die Produktionskosten nicht unterscheiden erzielt deshalb eine höher Taktende Karte einen größeren Gewinn.

Und wenn die Ati Konkurrenz auch ihre "taktlimitierenden Bereiche" verbessert?
Stehen wir am Ende wieder am Anfang der Sache.
Deswegen nochmal: Erkläre bitte, wieso ein neues Tape-Out bzw. Designveränderungen eine bessere Ausbeute ermöglichen.

Gast
2010-01-25, 13:53:47
bei einem kompletten respin können auch die transistorparameter ein wenig angepaßt werden. außerdem beruht das originale transistorlayout ja noch auf den TSMC prozeßdaten vom letzten jahr und beinhaltet noch nicht die anpassungen, die seitdem vorgenommen wurden.

Nein, dann würden alle jetzigen 40nm Produkte massive Fertigungsprobleme aufweisen - heute wie in Zukunft. Die haben nämlich alle die selben Parameter wie GF100 und beruhen auf "Annahmen" aus dem letzten Jahr.


mit diesen daten und infos können sie deutlich exaktere simulationsmodelle laufen lassen und da nV ja massiv fullcustom-design nutzt könnten sie dabei die transistoren, stromversorgung und verdrahtung hin zu schnelleren signallaufzeiten auf kritischen pfaden optimieren.
da es ja um verbesserungen im wenig mehr als einstelligen prozentbereich sowie die kontrolle offenbarer intra-die varianzen geht, ist das vollkommen realistisch.

Die Probleme, die TSMC hat, sind keine Designprobleme der GPUs. Ansonsten könnte TSMC die Yieldrate nicht erhöhen, da die Probleme schlussendlich am Design der Chips und nicht bei ihnen liegen würde.

Ailuros
2010-01-25, 13:55:54
Langsam ist es mir zu doof auf dieses immer wiederkehrend Geschwafel eines Gastes zu reagieren und mich dann auch noch beleidigen zu lassen....

Vor genau 13 posts warst Du auch noch ein Gast mit einigen Beitraegen und ja so leicht kann man IPs nicht verstecken. Lass die jeweiligen Provokationen an Dich gerichtet unsere Sorge sein und versuch so sachlich wie moeglich beim Thema zu bleiben. Und da Dein Ton und Deine Reaktionen alles andere als vorbildhaft sind, sei auch Du gewarnt wenn Du vorhast viel mehr als nur 13 posts beizutragen.

Ein kompletter respin ermöglich höhere Taktraten indem taktlimitierende Bereiche verbessert werden.

Ein solcher kommt von AMD ca. Ende Mai/Anfang Juni.

Gast
2010-01-25, 14:05:05
Was für eine Weichspülantwort. Was sind denn die "taktlimitierenden Bereiche" in Fermi? Und wie sollen die verbessert werden?

den Takt limitieren Schaltvorgänge, die auf kritischen Pfaden lange brauchen bis an der nächsten Stufe stabile Werte anliegen. durch einen vollen respin können solche Pfade beschleunigt werden, indem Transistoren in den betreffenden Schaltungen schneller schalten (minimal kürzerer Kanal -> niedrigere Schwellspannung, minimal breiter: niedrigerer on-Widerstand, mehr Strom fließt, Signalpegel wird schneller erreicht) und deren Stromversorgung optimiert wird (breitere Transistoren im powergating, breitere Stromschienen, mehr via's) und Signalverdrahtung (zB Entkoppelung von Nachbarleitungen durch lokales rerouting)


Und wenn die Ati Konkurrenz auch ihre "taktlimitierenden Bereiche" verbessert?
Stehen wir am Ende wieder am Anfang der Sache.

klar machen sie das. heißt dann wohl 5890. und nV wird sicher alles dransetzen wollen, daß die 380 auch den klar schlägt.


Deswegen nochmal: Erkläre bitte, wieso ein neues Tape-Out bzw. Designveränderungen eine bessere Ausbeute ermöglichen.

siehe oben

aylano
2010-01-25, 14:12:40
Wirklich aylano wie oft muss man es sagen dass neue Architekturen schwer zu vergleichen sind dank ihrer Differenzen bis es jemand schnallt?
Ja, das hast mir letztens auch gesagt, als ich den RV870 mit einem Takt von 850 bis 900 Mhz geschätzt habe.

Zitat von aylano Beitrag anzeigen
Nicht zu vergessen ist, Nvidia kann im Vergleich zu ATI die Einheiten besser auslasten.
Daher wenn wenn wenn Fermi wirklich eine TDP von 280 Watt hat, könnte sie mit der selben GT200(b)-Einheiten-Auslastung/Effizienz in Spielen dann ca. 240 Watt verbrauchen, was ca. 50% mehr als HD4870 (:Edit: mente HD58070) wäre.
Die Tatsache dass es 512SPs hat ist lediglich eine sterile Nummer. Realitaet wird Dir sagen dass der typische 24 SIMD Prozessor des GT200 zu einem 32 SIMD Prozessor aufgepumpt wurde (ja das ist keine besonders fundamentale Aenderung) und da gerade dazugeschoben wo es auf GT200 schwaechelte.
Es interessiert mich in meiner Aussage nicht, ob Fermi 50%- 88% (wie GT200) oder gar 92% Einheiten-Auslastung hat.

Die Sache ist, je höher die Einheiten-Auslastung ist desto näher ist der Game-Verbrauch am Furmark verbrauch und dann ist eben ein 280Watt-TDP höher zu bewerten als der TDP-Wert bei RV870, die eben in der Realen Games weniger verbrauchen.

Und diese Differenz "muss" Fermi in Sachen Performance abhängen, damit der kein Flop in Sachen Performance-pro-Watt wird.


Nichtdestominder ohne zu wissen wie die Frequenzen genau aussehen bei welchem realen Stromverbrauch ist dieses +/- 15% von der Frequenz fuer die Muelltonne.
Ich weiß, du spekulierst nicht gerne.
Aber vieles ist auf Logik aufgebaut. Die Frage ist nur, ob man die richtigen Rahmenbedingungen bzw. Grenzen richtig erkennt und das ist das schwierige.
Manchmal ist es wichtig, mehr zu wissen und manchmal ist es wenig zu wissen bzw. einen Abstand zu nehmen und gewissen Info zu vernachlässigen um so ein Modell zu vereinfachen, weil sich manches gegenseitig aufhebt.

Für mich ist es unlogisch, die Spannung anzuheben, wenn sie dann bei +50%-Watt nur +50% Performance erreichen, denn Fermi würde IMO interessanter & innovativer aussehen, wenn sie 35% schneller & nur 20% mehr Strom als HD5870 verbrauchen würden.

Gegenargument wäre, der vermehrte Einbau von Hot-Clocks, sodass der Stromverbrauch schon generell etwas höher angelegt ist.

Aber dagegen spricht, dass Nivdia die DP-Tesla-GT300 reduzierten musste was auf reduzierte Takt bedeutet um ihre TDP-Werte einzuhalten

Ein ziemlich wichtiges Wettrennen fuer die Zukunft fuer NV ist wie die Entwickler GF100 annehmen werden fuer die Entwicklung zukuenftiger Spiele.
Wir spekulieren, wie Fermi beim Start aussieht. Weil das den Käufer interessiert und nicht wie es in 2-3 Jahren aussieht.
Vorallem, wenn man nicht weiß, was ATI mit RV900-North-Island bringt und vielleicht wieder einiges nachholt.

Ja natuerlich hat hier ATI einen ziemlich grossen Vorsprung, aber in dem Fall ist der Stromverbrauch dem Entwickler erstmal nicht wichtig, sondern eher die Moeglichkeit dass sie etwas in der Hand haben dass heute vielleicht in existierenden Spielen der Unterschied zu einer GTX295 irgendwo um die 30+% liegt aber in zukuenftigen Projekten ein weit hoeheres Potential und Leistung vorweisst.
Es ist schön, wenn die Entwickler das anders sehen, aber der Kunde kauft das, was aktuell am Markt ist.
Denn Fermi GT300 ist ja nur High-End.
Falls dieser in Sachen Performance-Pro-Watt nicht gut ist, könnte dies bei Low-End & Mainstream noch schlechter aussehen, siehe GT200-Serie.

Dazu wird es für Nivida bei den Entwicklern problematisch, wenn ATI die ganze Zeit mehr Marktanteile hat.
Dazu kommt hinzu, dass bei 28nm das selbe Spiel wieder von Vorne beginnt.

Als der GT200b wieder Schwierigkeiten bei der Einführung hatte, war ich schon damals auf die Einführung von 40nm bzw. DX11-Generationen sehr gespannt, weil es bei AMD die Einführung schon länger ziemlich problemlos war und Nvidia per GT200&b ziemlich Probleme hatte und bei der 90er-Serie in der Fertigungs-Umstellung schon ziemlich hinter herliefen.

Das das neue Spiel beginnt dann wahrscheinlich mit Fermi-Refresh und North-Island.
Und 6 Monate vor einen möglichen Fermi 1 Start, sah noch alles rosig aus.
So wie Fermi 2 im 4Q 2010 kommen soll, (außer er werden nur weitere Respins gemacht, dann könnte die Einführung problemlos laufen.)

Nicht zu vergessen ist, Fermi ist DIE NEUE ARCHITEKTUR, während es bei ATI nur ein halber Schritt war.
Wenn Fermi gleichwertig ist wie RV870, dann wird die Zukunft interessant.

PS: Sorry, wenn ich erst jetzt antworte. Leider hatte ich letzte Woche verdammt viel zu tun gehabt.

PS2: Ich hoffe, die Gerüchte über 280Watt-TDP sind noch aktuell.
Na ja, die 60 Thread-Seiten hatte ich mir jetzt nicht durchgelesen.

huch
2010-01-25, 14:21:41
Für mich ist es unlogisch, die Spannung anzuheben, wenn sie dann bei +50%-Watt nur +50% Performance erreichen, denn Fermi würde IMO interessanter & innovativer aussehen, wenn sie 35% schneller & nur 20% mehr Strom als HD5870 verbrauchen würden.

Gegenargument wäre, der vermehrte Einbau von Hot-Clocks, sodass der Stromverbrauch schon generell etwas höher angelegt ist.

Fermi ist halt doch keine ganz neue Architektur sonder ein heftig weiterentwickelter und an einigen Stellen massiv umgestrickter G80. nV's mittelfristig größtes Problem ist, daß sie bei Performance / die-Fläche hinten liegen und genau dagegen schon eine ganze Weile lang ankämpfen müssen und dieser Kampf zwar die Marktanteile hält, aber die Margen im doch umsatzstarken 150€+ Markt massiv drückt


Vorallem, wenn man nicht weiß, was ATI mit RV900-North-Island bringt und vielleicht wieder einiges nachholt.

noch dazu das zusätzliche Risiko für nV falls in einem Jahr in 28nm der GF-Prozeß besser ist als der von TSMC

Bucklew
2010-01-25, 14:27:00
Fermi ist halt doch keine ganz neue Architektur sonder ein heftig weiterentwickelter und an einigen Stellen massiv umgestrickter G80. nV's mittelfristig größtes Problem ist, daß sie bei Performance / die-Fläche hinten liegen und genau dagegen schon eine ganze Weile lang ankämpfen müssen und dieser Kampf zwar die Marktanteile hält, aber die Margen im doch umsatzstarken 150€+ Markt massiv drückt
Dafür NV in anderen Märken Margen hat, von denen es ATI nichtmal träumt zu wagen...

noch dazu das zusätzliche Risiko für nV falls in einem Jahr in 28nm der GF-Prozeß besser ist als der von TSMC
Und das Risiko für ATI, dass der TSMC-Porzeß besser ist als der von GF ;)

Zumal das wahrscheinlicher ist, denn mit Grafikchips hat GF noch absolut gar keine Erfahrung.

Gast
2010-01-25, 14:28:41
den Takt limitieren Schaltvorgänge, die auf kritischen Pfaden lange brauchen bis an der nächsten Stufe stabile Werte anliegen. durch einen vollen respin können solche Pfade beschleunigt werden, indem Transistoren in den betreffenden Schaltungen schneller schalten (minimal kürzerer Kanal -> niedrigere Schwellspannung, minimal breiter: niedrigerer on-Widerstand, mehr Strom fließt, Signalpegel wird schneller erreicht) und deren Stromversorgung optimiert wird (breitere Transistoren im powergating, breitere Stromschienen, mehr via's) und Signalverdrahtung (zB Entkoppelung von Nachbarleitungen durch lokales rerouting)

Und wieso sollte man es nicht schon im ersten Tape-Out gemacht haben? :rollyes:
Hier wird gerade argumentiert, dass nVidia einfach mal keine Lust hatte den GF100 schon beim ersten Versuch schneller zu machen. Schon sehr absurd.
Abgesehen davon ist das immer noch keine Erklärung, wieso ein neues Tape-Out plötzlich die Yields in die Höhe schießen lässt.

Dural
2010-01-25, 14:33:53
noch dazu das zusätzliche Risiko für nV falls in einem Jahr in 28nm der GF-Prozeß besser ist als der von TSMC

welches risiko? AMD geht wohl ein deutlich grösseres risiko ein wenn sie die R900 bei GF in 28nm fertigen lassen, die haben nämlich null erfahrung mit solchen GPUs und das noch mit einem neuen Prozess + neue architektur...


Es würde mich kein stück wundern wenn R900 NICHT von GF kommt!

Gast
2010-01-25, 14:37:19
welches risiko? AMD geht wohl ein deutlich grösseres risiko ein wenn sie die R900 bei GF in 28nm fertigen lassen, die haben nämlich null erfahrung mit solchen GPUs und das noch mit einem neuen Prozess + neue architektur...


Sie haben kein Risiko, denn AMD hat die Wahl ob TSMC oder GF. Man wird dort fertigen wo man die besseren Resultate erzielt.

huch
2010-01-25, 14:42:17
welches risiko? AMD geht wohl ein deutlich grösseres risiko ein wenn sie die R900 bei GF in 28nm fertigen lassen, die haben nämlich null erfahrung mit solchen GPUs und das noch mit einem neuen Prozess + neue architektur...

naja, GF hat wohl mehr Erfahrung mit relativ hoch taktenden fullcustom Schaltungen und sehr hohen Stromdichten. deren langjährige Erfahrungen mit der Fertigung der AMD CPU's könnte durchaus sehr viel wert sein.


Es würde mich kein stück wundern wenn R900 NICHT von GF kommt!

dachte ich hatte mal gelesen, daß AMD das schonmal bestätigt hat und ihre R900 northernislands deshalb von Ende 2010 auf Anfang 2011 verschoben hat?

Bucklew
2010-01-25, 14:50:45
dachte ich hatte mal gelesen, daß AMD das schonmal bestätigt hat und ihre R900 northernislands deshalb von Ende 2010 auf Anfang 2011 verschoben hat?
Jopp, aber wer weiß ob das klappt?

Ailuros
2010-01-25, 14:59:33
28nm geht in H2 2010 fuer beide foundries erstmal in risk production. Von da ab koennen wir weitersehen.

Ja, das hast mir letztens auch gesagt, als ich den RV870 mit einem Takt von 850 bis 900 Mhz geschätzt habe.

Weil ich mehr als 20 cluster erwartete vielleicht?

Es interessiert mich in meiner Aussage nicht, ob Fermi 50%- 88% (wie GT200) oder gar 92% Einheiten-Auslastung hat.

Die Sache ist, je höher die Einheiten-Auslastung ist desto näher ist der Game-Verbrauch am Furmark verbrauch und dann ist eben ein 280Watt-TDP höher zu bewerten als der TDP-Wert bei RV870, die eben in der Realen Games weniger verbrauchen.

Und diese Differenz "muss" Fermi in Sachen Performance abhängen, damit der kein Flop in Sachen Performance-pro-Watt wird.

Es sind und bleiben ziemlich verschiedene Architekturen. Wenn die perf/W knapp unter Hemlock Nivaeu liegt sehe ich keinen Flop.

Ich weiß, du spekulierst nicht gerne.
Aber vieles ist auf Logik aufgebaut. Die Frage ist nur, ob man die richtigen Rahmenbedingungen bzw. Grenzen richtig erkennt und das ist das schwierige.
Manchmal ist es wichtig, mehr zu wissen und manchmal ist es wenig zu wissen bzw. einen Abstand zu nehmen und gewissen Info zu vernachlässigen um so ein Modell zu vereinfachen, weil sich manches gegenseitig aufhebt.

Für mich ist es unlogisch, die Spannung anzuheben, wenn sie dann bei +50%-Watt nur +50% Performance erreichen, denn Fermi würde IMO interessanter & innovativer aussehen, wenn sie 35% schneller & nur 20% mehr Strom als HD5870 verbrauchen würden.

Gegenargument wäre, der vermehrte Einbau von Hot-Clocks, sodass der Stromverbrauch schon generell etwas höher angelegt ist.

Bleib mal beim letzten Satz stehen bis mehr bekannt wird.

Aber dagegen spricht, dass Nivdia die DP-Tesla-GT300 reduzierten musste was auf reduzierte Takt bedeutet um ihre TDP-Werte einzuhalten.

Tut es nicht da andere Maerkte und andere Ziele; wenn GeForce 3x0 tatsaechlich einen gesunden Batzen an DP Leistung reduziert haben und im Angesicht dass Teslas hauptsaechlich mit der DP Leistung vermarktet werden sind es so oder so zwei verschiedene Kapitel. Und nein Du kannst kein besonderes Risiko eingehen mit rack mounts ueberhaupt wenn diese bei 24/7 laufen muessen.

Wir spekulieren, wie Fermi beim Start aussieht. Weil das den Käufer interessiert und nicht wie es in 2-3 Jahren aussieht.
Vorallem, wenn man nicht weiß, was ATI mit RV900-North-Island bringt und vielleicht wieder einiges nachholt.

Ach im ersten Satz ist es egal und im zweiten Satz dann relevant? Wie aktiv ein jeglicher IHV mit seinem DevRel dann genau sein wird gehoert wohl auch zum ersten irrelevanten Teil oder?


Es ist schön, wenn die Entwickler das anders sehen, aber der Kunde kauft das, was aktuell am Markt ist.
Denn Fermi GT300 ist ja nur High-End.
Falls dieser in Sachen Performance-Pro-Watt nicht gut ist, könnte dies bei Low-End & Mainstream noch schlechter aussehen, siehe GT200-Serie.

Wenn die GF360 vergleichbare perf/W als Cypress aufweisst, kann ich nicht so leicht auf die perf/W Relation kleinerer Varianten schliessen.

Dazu wird es für Nivida bei den Entwicklern problematisch, wenn ATI die ganze Zeit mehr Marktanteile hat.

Dafuer moechte ich erstmal die Q1 bzw. Q2 2010 Marktanteile erstmal sehen.

Dazu kommt hinzu, dass bei 28nm das selbe Spiel wieder von Vorne beginnt.

Bezweifelt auch keiner. Welche Vor- bzw. Nachteile wird es denn Deiner Meinung nach fuer jeglichen IHV genau bedeuten?

Als der GT200b wieder Schwierigkeiten bei der Einführung hatte, war ich schon damals auf die Einführung von 40nm bzw. DX11-Generationen sehr gespannt, weil es bei AMD die Einführung schon länger ziemlich problemlos war und Nvidia per GT200&b ziemlich Probleme hatte und bei der 90er-Serie in der Fertigungs-Umstellung schon ziemlich hinter herliefen.

Das das neue Spiel beginnt dann wahrscheinlich mit Fermi-Refresh und North-Island.

Siehe oben.

Und 6 Monate vor einen möglichen Fermi 1 Start, sah noch alles rosig aus.
So wie Fermi 2 im 4Q 2010 kommen soll, (außer er werden nur weitere Respins gemacht, dann könnte die Einführung problemlos laufen.)

Ein Schritt nach dem anderen jedesmal. Wenn ich nicht alle Antworten fuer GF100 habe dann ist es Bloedsinn schon fuer den Nachfolger zu spekulieren.

Nicht zu vergessen ist, Fermi ist DIE NEUE ARCHITEKTUR, während es bei ATI nur ein halber Schritt war.

Und wie sieht der ganze Schritt fuer ATI spaeter dann aus?

Wenn Fermi gleichwertig ist wie RV870, dann wird die Zukunft interessant.

Dann wuerde AMD PR nicht protestieren dass GF100 einen hoeheren TDP als Cypress hat und im gleichen Satz eingestehen dass es normal ist dass es schneller ist.

PS: Sorry, wenn ich erst jetzt antworte. Leider hatte ich letzte Woche verdammt viel zu tun gehabt.

PS2: Ich hoffe, die Gerüchte über 280Watt-TDP sind noch aktuell.
Na ja, die 60 Thread-Seiten hatte ich mir jetzt nicht durchgelesen.

Schau her wenn ich mit jemand von AMD oeffentlich plaudere und ihm sage dass Gf100 dies und jeniges nach NV koennen soll und er sagt einfach dass es normal sei wenn man eine 280W TDP GPU mit einer 189W TDP GPU (5870) vergleicht. Der eigentliche Vergleich waere mit Hemlock und seinen 294W TDP. Erstens hab ich erstmal keinen Zweifel dass er weiss wo das board design der Konkurrenz liegt und zweitens wenn dem so waere wie Du Dir vorstellst man eine ganz andere Verteidigungs-linie anlegen wuerde.

Sorkalm
2010-01-25, 15:01:14
28nm geht in H2 2010 fuer beide foundries erstmal in risk production. Von da ab koennen wir weitersehen.

Es gibt aber immer noch einen 32 nm bulk Prozess von GF:
http://www.globalfoundries.com/technology/32nm_available.aspx
(Nachricht vom 6. Januar 2010)

Ist aber hier glaub ich OT.

huch
2010-01-25, 15:02:45
Jopp, aber wer weiß ob das klappt?

deshalb hatt ich ja spekuliert, daß der RV890 dieses mal mehr sein könnte als nur ein taktoptimiert respin wie es der RV790 war - zumal sich die interne Architektur mit 2x800SP möglicherweise auf 3x 800SP erweitern ließe - was flächenmäßig wohl möglich wäre und nach GF100 mit dessen vermutlichen TDP-SingleGPU-Dammbruch wohl bei akzeptabler idle-Power auch akzeptiert werden würde

Ailuros
2010-01-25, 15:10:32
deshalb hatt ich ja spekuliert, daß der RV890 dieses mal mehr sein könnte als nur ein taktoptimiert respin wie es der RV790 war - zumal sich die interne Architektur mit 2x800SP möglicherweise auf 3x 800SP erweitern ließe - was flächenmäßig wohl möglich wäre und nach GF100 mit dessen vermutlichen TDP-SingleGPU-Dammbruch wohl bei akzeptabler idle-Power auch akzeptiert werden würde

Parallele Entwicklung von Juniper und Cypress heisst nicht dass es im einfachsten Sinne irgend ein Steckboard ist und man erstmal zwei Juniper fuer Cypress zusammengesteckt hat und noch schlimmer dass man zum heutigen Cypress nochmal einen Juniper dazusteckt.

Ein Zusatz von mehr clusters kann ich zwar nicht ausschliessen, aber wenn dann um einiges weniger als ganze 10 cluster weil es eben erstmal ATI's Performance GPU only Strategie widerspricht und auch Hemlock redundant macht.

huch
2010-01-25, 15:21:32
Es sind und bleiben ziemlich verschiedene Architekturen. Wenn die perf/W knapp unter Hemlock Nivaeu liegt sehe ich keinen Flop.

idealerweise liefert die 380 sogar ein paar mehr fps - dann könnte nV dazu noch deren Alleinstellungsmerkmale wie Physx und CUDA sowie die Mikroruckerthematik in die Waagschale werfen und aufgrund relativer Konkurrenzlosigkeit einen Premium-Preis nehmen

die chance gegen Hemlock sollte da sein, da Hemlock gegenüber Cypress relativ gesehen weniger effizient ist

hab einige der letzten info's in anderen foren so verstanden, daß nV mit dem momentanen A3 vorrangigst 360er produziert und die 380er nur in homöopatischen Dosen kommt - und im Frühsommer kommt ein B-Stepping, das dann die 380er halbwegs lieferbar machen soll. stimmt das?


Tut es nicht da andere Maerkte und andere Ziele; wenn GeForce 3x0 tatsaechlich einen gesunden Batzen an DP Leistung reduziert haben und im Angesicht dass Teslas hauptsaechlich mit der DP Leistung vermarktet werden sind es so oder so zwei verschiedene Kapitel. Und nein Du kannst kein besonderes Risiko eingehen mit rack mounts ueberhaupt wenn diese bei 24/7 laufen muessen.

dadurch machen sie sich aber wiederum durch AMD angreifbar, da diese bisher noch nicht angekündigt ham, ihre 5000er DP-mäßig zu drosseln. und aufgrund nV's derzeit traumhafter Position im HPC könnte schon eine ganz leichte Entwicklung hin zu mehr AMD-GPU's im Computing gefährlich sein

@Ail: danke für deine vielen Infos, klasse Postings und Deine Versuche, diesen Thread am leben zu halten!

igg
2010-01-25, 15:25:52
Ein solcher kommt von AMD ca. Ende Mai/Anfang Juni.
Das ist überraschend, vorallem dass sie nennenswerte Taktratensteigerungen geschafft haben

huch
2010-01-25, 15:29:52
Parallele Entwicklung von Juniper und Cypress heisst nicht dass es im einfachsten Sinne irgend ein Steckboard ist und man erstmal zwei Juniper fuer Cypress zusammengesteckt hat und noch schlimmer dass man zum heutigen Cypress nochmal einen Juniper dazusteckt.

ich stell's mir eher so vor, daß es für AMD einfacher war, zwei 800SP Blöcke über eine Brücke zu synchronisieren als ein taktsynchronen 1600SP Block zu bauen. und falls diese Brücke so designt wurde, daß auch mehr als zwei Blöcke mit passabler Effizienz dran können, dann würde, insbesondere durch die Verschiebung von northern islands und des Risikos von Verspätungen durch GF, ein 3x800SP design, das den aktuellen 40nm Prozeß voll ausnutzt, doch durchaus ein wenig Sinn machen, oder? Zumal nV aufgrund ihres jetzt schon relativ maximalen die's nicht äquivalent kontern könnte...


Ein Zusatz von mehr clusters kann ich zwar nicht ausschliessen, aber wenn dann um einiges weniger als ganze 10 cluster weil es eben erstmal ATI's Performance GPU only Strategie widerspricht und auch Hemlock redundant macht.

vllt hat AMD nach den anhaltend guten Erfolgen bei zunehmender die-Size seit RV670 grünes Licht für ein größeres Projekt gegeben?

Klar würde Hemlock dann keinen Sinn mehr machen - dafür wäre ein 3x800SP RV890 wohl schon fast bei Hemlock-TDP, leistungsmäßig dafür aber effizienter und würde nicht mikroruckeln und wäre sicher auch noch Anfang 2011 marktfähig

Ailuros
2010-01-25, 15:33:25
hab einige der letzten info's in anderen foren so verstanden, daß nV mit dem momentanen A3 vorrangigst 360er produziert und die 380er nur in homöopatischen Dosen kommt - und im Frühsommer kommt ein B-Stepping, das dann die 380er halbwegs lieferbar machen soll. stimmt das?

Kann ich nicht wissen momentan. Mit etwas Glueck leakt vielleicht etwas irgendwo im Februar raus. Die Schaetzung originiert ja sowieso auf Charlie's Zeug und er schliesst eher auf dem Tesla Zeug dass es so sein wird. Die Tesla Spezifikationen und potentielle Kunden-Versprechungen fuer Tesla wurden jedoch festgelegt als sie nur A2 in der Hand hatten und A3 wurde erst Wochen danach ins Labor geschickt.

dadurch machen sie sich aber wiederum durch AMD angreifbar, da diese bisher noch nicht angekündigt ham, ihre 5000er DP-mäßig zu drosseln. und aufgrund nV's derzeit traumhafter Position im HPC könnte schon eine ganz leichte Entwicklung hin zu mehr AMD-GPU's im Computing gefährlich sein

Tesla != Quadro was Markanteile betrifft. Tesla GPUs haben die niedrigsten Frequenzen ueberhaupt.

@Ail: danke für deine vielen Infos, klasse Postings und Deine Versuche, diesen Thread am leben zu halten!

Dank lieber allen Mods hier denn ein Mann kann den Unsinn der sich oefters sich hier anhaeuft nicht aufraeumen. Sonst ist es pure Technologie-Interesse die fuer mich schon seit Jahren nichts Neues ist und meine zahllosen Fehler....

Gast
2010-01-25, 15:35:59
ähm, gast, und wie wirst du den prefetcher und alle controller füttern? wie willst du garantieren, dass die auslastung noch weiter sinkt?

Ailuros
2010-01-25, 15:43:40
ich stell's mir eher so vor, daß es für AMD einfacher war, zwei 800SP Blöcke über eine Brücke zu synchronisieren als ein taktsynchronen 1600SP Block zu bauen. und falls diese Brücke so designt wurde, daß auch mehr als zwei Blöcke mit passabler Effizienz dran können, dann würde, insbesondere durch die Verschiebung von northern islands und des Risikos von Verspätungen durch GF, ein 3x800SP design, das den aktuellen 40nm Prozeß voll ausnutzt, doch durchaus ein wenig Sinn machen, oder? Zumal nV aufgrund ihres jetzt schon relativ maximalen die's nicht äquivalent kontern könnte...

Nein. Nach AMD's PR wurden zwar Juniper und Cypress parallel entwickelt und in der fab verfolgt aber es waren trotzdem 2 Designs (natuerlich nicht von Grund auf).

Wenn Du die die area von Juniper und Cypress addierst kommst Du auf wieviel genau? Eben nur einen Schnitt unter GF100's die area (Cypress ist ja nicht genau Juniper*2). Ergo ein vollgeratener high end chip der Hemlock und AMD's gesamte bisherige Strategie redundant macht.

AMD braucht einen chip der das Leben einer GF360 schwer macht und nicht einer 380. Denk nach was schneller, billiger und effizienter geht ;)

vllt hat AMD nach den anhaltend guten Erfolgen bei zunehmender die-Size seit RV670 grünes Licht für ein größeres Projekt gegeben?

Klar würde Hemlock dann keinen Sinn mehr machen - dafür wäre ein 3x800SP RV890 wohl schon fast bei Hemlock-TDP, leistungsmäßig dafür aber effizienter und würde nicht mikroruckeln und wäre sicher auch noch Anfang 2011 marktfähig

ATI hat aus gutem Grund die Entwicklung hochkomplizierter single high end chips aufgegeben. Was Du Dir da vorstellst kann wohl schwer schon irgendwo Anfang Juni (spaetestens) kommen. Du hast dann mit anderem Zeug zu kaempfen bei Deiner 30 cluster These wie z.B. zu grosse Datenabstaende vereinfacht, Bandbreite etc etc.

ähm, gast, und wie wirst du den prefetcher und alle controller füttern? wie willst du garantieren, dass die auslastung noch weiter sinkt?

Eben.

***edit: wer uebrigens neugierig ist wie AMD's naechster refresh aussieht kann einfach CJ mal privat fragen und hoffen dass er ihm vertraut ;)

huch
2010-01-25, 15:46:27
Tut es nicht da andere Maerkte und andere Ziele; wenn GeForce 3x0 tatsaechlich einen gesunden Batzen an DP Leistung reduziert haben und im Angesicht dass Teslas hauptsaechlich mit der DP Leistung vermarktet werden sind es so oder so zwei verschiedene Kapitel.

im universitären Bereich findet GPU-computing zuallermeist auf Geforce 8800 und 260/275/280/285 statt. ich weiß nur von einem Lehrstuhl, der auch eine einizige G80 Tesla neben einigen Geforces hat. in diesem Bereich würde die 5800 doch deutlich an Attraktivität gewinnen im gegensatz zum offenbar DP-gebremsten Geforce Fermi.

Quadros sind natürlich schonmal "billiger" als Tesla's, aber immer noch viel teurer als Geforce's. Und da ich vermute, daß viele Anwender von GPU-Computing die ECC der neuen Teslas nicht brauchen müßten sie dann die Quadros konsequenterweise auf zB halbe DP drosseln, damit überhaupt noch genug Tesla's verkauft werden.

Dafür können die neuen Teslas neue Märkte erobern, da zB Medizinprodukte ECC voraussetzen - nur deshalb werden beispielsweise GPUs bisher in einigen bildgebenden medizinischen Verfahren noch nicht benutzt (Kernspin, CT und so)

Bucklew
2010-01-25, 15:53:33
Sie haben kein Risiko, denn AMD hat die Wahl ob TSMC oder GF. Man wird dort fertigen wo man die besseren Resultate erzielt.
Ein Parallelentwicklung für GF und TSMC ist unmöglich. Entweder GF oder TSMC. Beides geht nicht.

dadurch machen sie sich aber wiederum durch AMD angreifbar, da diese bisher noch nicht angekündigt ham, ihre 5000er DP-mäßig zu drosseln. und aufgrund nV's derzeit traumhafter Position im HPC könnte schon eine ganz leichte Entwicklung hin zu mehr AMD-GPU's im Computing gefährlich sein
Daran hat AMD kein großes Interesse, weil man mit CPUs (gerade im HPC-Bereich) mehr Geld verdient.

Quadros sind natürlich schonmal "billiger" als Tesla's, aber immer noch viel teurer als Geforce's. Und da ich vermute, daß viele Anwender von GPU-Computing die ECC der neuen Teslas nicht brauchen müßten sie dann die Quadros konsequenterweise auf zB halbe DP drosseln, damit überhaupt noch genug Tesla's verkauft werden.
Quatsch, Tesla sind deutlich günstiger als Quadros. Die Preisabstufung ist GeForce < Tesla < Quadro

Coda
2010-01-25, 15:55:06
Ein Parallelentwicklung für GF und TSMC ist unmöglich. Entweder GF oder TSMC. Beides geht nicht.
Wie kommst du darauf?

Es wäre sehr wohl möglich z.B. Low-End auf TSMC und High-End auf GF herzustellen oder sogar einen Chip bei beiden.

NVIDIA hat NV40 auch bei IBM und TSMC hergestellt, und die Prozesse sind nicht kompatibel.

Bucklew
2010-01-25, 15:59:39
Wie kommst du darauf?

Es wäre sehr wohl möglich z.B. Low-End auf TSMC und High-End auf GF herzustellen oder sogar einen Chip bei beiden.

NVIDIA hat NV40 auch bei IBM und TSMC hergestellt, und die Prozesse sind nicht kompatibel.
Wenn das so einfach wäre - warum will dann AMD dieses komplette Jahr mit der Umstellung verbringen, wenn alles so einfach ist? ;)

deekey777
2010-01-25, 16:00:32
Nvidia hat mal auch bei TSMC und UMC herstellen lassen.

Gast
2010-01-25, 16:04:10
Wie kommst du darauf?

Es wäre sehr wohl möglich z.B. Low-End auf TSMC und High-End auf GF herzustellen oder sogar einen Chip bei beiden.

NVIDIA hat NV40 auch bei IBM und TSMC hergestellt, und die Prozesse sind nicht kompatibel.
jop. sind halt zwei masken mit einigen anpassungen - aber möglich isses schon.

Dural
2010-01-25, 16:06:36
Nvidia hat mal auch bei TSMC und UMC herstellen lassen.

NV lässt doch noch heute bei UMC fertigen, der klein kram halt

Nakai
2010-01-25, 16:12:18
Wenn Du die die area von Juniper und Cypress addierst kommst Du auf wieviel genau? Eben nur einen Schnitt unter GF100's die area (Cypress ist ja nicht genau Juniper*2). Ergo ein vollgeratener high end chip der Hemlock und AMD's gesamte bisherige Strategie redundant macht.

Ernsthaft, Cypress ist im Vergleich zum Juniper sehr groß. Juniper hat etwa 160mm^2. Dass Cypress nun um die 350mm^2 hat, spricht eher dafür, dass AMD da ziemlich viel Renundanz eingebaut hat.

AMD braucht einen chip der das Leben einer GF360 schwer macht und nicht einer 380. Denk nach was schneller, billiger und effizienter geht

AMD hat sich meistens bei der Kreativität sehr zurückgehalten, wenn es um größere Designs geht. Man sieht ja, dass Cypress bei der Einheitenskalierung nicht soviel zusätzliche Leistung bekommt. Ergo muss man dort ansetzen, wo noch mögliche Flaschenhälse vorliegen. Bei der Bandbreite, bei der Texturleistung und beim Rasterizer und Tesselator.

Ein überarbeitetes SI für 384Bit. Größere Rasterizer. Zusätzlicher oder größerer Tesselator. Mehr Filter und/oder Adressierungseinheiten..
Ach Gott was weiß ich...:freak:

Für mich sieht das Fermi-Design ziemlich starr aus. Man wird wohl bei den GPCs etwas für die kleineren Karten ändern.

Ich gehe mal von 4 Designs aus.
32 SPs, 4 TMUs, ein GPC
128 SPs, 32 TMUs ein GPC
256 SPs, maximal 64 TMUs zwei GPCs
und der liebe Fermi.



mfg

huch
2010-01-25, 16:12:21
AMD braucht einen chip der das Leben einer GF360 schwer macht und nicht einer 380. Denk nach was schneller, billiger und effizienter geht ;)

also im Mai+ eine taktgesteigerte, relativ preiswert fertigbare RV890 ohne weitere Neuigkeiten...

und vielleicht statt eines nochmals aufgepumpten RV890 eher möglichst schnell nicht nur Juniper sondern vielleicht auch Cypress noch in 2010 auf GF 32nm/28nm shrinken?

sonst wäre die RV890 fast ein Jahr am Markt bis zu northern islands - die sich ja auch noch prozeßbedingt weiter verspäten könnten? würde mich wundern, wenn bis gut in 2011 nicht mehr als nur eine etwas schnellere RV870 käme


Was Du Dir da vorstellst kann wohl schwer schon irgendwo Anfang Juni (spaetestens) kommen. Du hast dann mit anderem Zeug zu kaempfen bei Deiner 30 cluster These wie z.B. zu grosse Datenabstaende vereinfacht, Bandbreite etc etc.

gerade die großen Abstände der einzelnen Einheiten, die zumindest in ihren Ergebnissen synchon bleiben müssen, wären ja durch eine gemeinsame Brücke, die die einzige zu synchronisierende Schnittstelle ist, eher weniger ein Problem (im Vergleich zu nV, deren entfernteste SPs in mal eben an die 3cm voneinander entfernt sind - wieviele Takte braucht ein Signal für diese Strecke bei den gedachten Takten? ;-))

aber stimmt, bis juni wäre sowas eher unwahrscheinlich, eher dann im herbst, wenn überhaupt


***edit: wer uebrigens neugierig ist wie AMD's naechster refresh aussieht kann einfach CJ mal privat fragen und hoffen dass er ihm vertraut ;)

kenne CJ nicht - magst uns nicht was verraten, auch wenn's komplett falsch sein kann?


Ein Parallelentwicklung für GF und TSMC ist unmöglich. Entweder GF oder TSMC. Beides geht nicht.

geht selbstverständlich - halt eine Aufwandsfrage, wieviel die Prozesse auseinanderliegen und damit, wieviel Mehraufwand nötig ist, die prozeßabhängigen Optimierungen für beide Designs durchzuführen.

könnte mir aber eher vorstellen, daß sie statt northern islands auf GF und TSMC bis zum tapeout zu bringen eher stattdessen Juniper und/oder Cypress auf GF portieren


Daran hat AMD kein großes Interesse, weil man mit CPUs (gerade im HPC-Bereich) mehr Geld verdient.

CPUs und GPUs bedienen relativ disjunkte Märkte im HPC bereich. glaube nicht, daß eine verbesserte Stellung ihrer GPUs ihre CPU-Verkäufe mehr schädigen würde als es ihnen bei den GPUs brächte


Quatsch, Tesla sind deutlich günstiger als Quadros. Die Preisabstufung ist GeForce < Tesla < Quadro

sorry, wußte ich nicht - interessiere mich auch mehr für die technikseite. thx4info!

deekey777
2010-01-25, 16:14:34
Wenn das so einfach wäre - warum will dann AMD dieses komplette Jahr mit der Umstellung verbringen, wenn alles so einfach ist? ;)
Vieleicht weil GF noch nicht über die passenden Fertigungsprozesse verfügt?
Hm...

Coda
2010-01-25, 16:15:47
Wenn das so einfach wäre - warum will dann AMD dieses komplette Jahr mit der Umstellung verbringen, wenn alles so einfach ist? ;)
GF hat bisher kein Bulk. Troll woanders rum.

Auf dem Register-Transfer-Level ändert sich jedenfalls gar nichts. Alles was darunter passiert muss auf den Prozess abgestimmt sein, d.h. man muss andere Tools einsetzen usw.

Das heißt aber noch lange nicht das es "nicht geht" bei zwei Foundries zu fertigen.

deekey777
2010-01-25, 16:18:42
GF hat bisher kein Bulk. Troll woanders rum.


Er trollt nicht. Er klärt auf.

huch
2010-01-25, 16:21:36
Man sieht ja, dass Cypress bei der Einheitenskalierung nicht soviel zusätzliche Leistung bekommt.

hatte mal gelesen, daß RV870 wegen D3D11 im Gegesatz zum RV770 die Interpolatoren zwecks Programmierbarkeit als Shader laufen läßt - könnte das nicht der Grund sein, warum RV870 meistens deutlich weniger schnell ist als 2x RV770?

aber genug zu AMD, lieber mal was zu nV's Fermi, sonst krieg ich noch 'ne (gerechtfertigte) gelbe Karte von wegen Offtopic:


Ich gehe mal von 4 Designs aus.
32 SPs, 4 TMUs, ein GPC
128 SPs, 32 TMUs ein GPC
256 SPs, maximal 64 TMUs zwei GPCs
und der liebe Fermi.
mfg

würde nicht ein 384SP design mit drei GP auch Sinn machen? nV hatte ja schon chips mit ungeraden Shaderahlen.
der wäre dann ideal für zwei GPUs auf einem board und mit 256bit Speicher und einer handhabbaren die-Größe sicher auch preisleistungsmäßig besser, um im Bereich unter 200€ schlagkräftig agieren zu können, nicht?

Gast
2010-01-25, 16:33:05
NVIDIA hat NV40 auch bei IBM und TSMC hergestellt, und die Prozesse sind nicht kompatibel.

Wenn ich mich richtig erinnere war NV40 IBM-only, lediglich die kleineren Chips wurden bei TSMC gefertigt (ua. später auch die native 3-quad-GPU für die 6800)

Coda
2010-01-25, 16:35:47
hatte mal gelesen, daß RV870 wegen D3D11 im Gegesatz zum RV770 die Interpolatoren zwecks Programmierbarkeit als Shader laufen läßt
Auch in D3D11 sind die Interpolatoren nicht programmierbar.

Es ist einfach eine gute Idee die Interpolation im Shader-Core zu machen. Damit erhöht man die Auslastung pro Transistor.

mrt
2010-01-25, 17:30:20
Nvidia hat mal auch bei TSMC und UMC herstellen lassen.
Das war ATI, Nvidia hat NV40 bei IBM fertigen lassen und NV41 (=NV40) dann wieder bei TSMC.
NV lässt doch noch heute bei UMC fertigen, der klein kram halt
Nvidia fertigt nur bei TSMC, die ULI-Chipsätze gingen bei UMC vom Band wenn ich mich recht erinnere.
GF hat bisher kein Bulk.
Wurde 32nm Bulk gestrichen? Es würde jetzt dann (Anfang Q2) Riskwafer geben. Ist ganz an mir vorbeigegangen.

Dural
2010-01-25, 17:40:11
Nvidia fertigt nur bei TSMC, die ULI-Chipsätze gingen bei UMC vom Band wenn ich mich recht erinnere.



erstes ergebnis bei google:
http://www.heise.de/newsticker/meldung/Halbleiter-Auftragsfertiger-UMC-will-im-zweiten-Quartal-wieder-Gewinn-machen-216683.html

drites ergebnis:
http://ht4u.net/index_old.php?id=1192131976,65371,ht4u.php

noch fragen? ;)

Nakai
2010-01-25, 17:54:14
würde nicht ein 384SP design mit drei GP auch Sinn machen? nV hatte ja schon chips mit ungeraden Shaderahlen.
der wäre dann ideal für zwei GPUs auf einem board und mit 256bit Speicher und einer handhabbaren die-Größe sicher auch preisleistungsmäßig besser, um im Bereich unter 200€ schlagkräftig agieren zu können, nicht?

Ich kenne keine Chips von NV die eine ungerade Zahl hatten, jedenfalls in den letzten Jahren. IMO denke ich, existieren keine GPCs direkt in der Hardware, ich denke das war nur Marketing. Natürlich hat Fermi vier Rasterizer und Tesselatoren usw. Das wäre auch ziemlich gegen eine gute Granularität.
Wäre es jedoch so, sehe ich das Design als ziemlich unflexibel an. TMUs, SPs, Rasterizer, Tesselatoren usw. müssen relativ gut skalierbar sein.


mfg

aylano
2010-01-25, 17:54:39
Weil ich mehr als 20 cluster erwartete vielleicht?
Dann gabs ja erst recht nichts gegen die 1600SP @850-900Mhz auszusetzen.
Dass du mit 1600+SP & etwas niederen Takten vielleicht erwartetest hättest schon erwähnen müssen;-)
Wenn ich auf 1920SP (oder so) spekulierte hätte, hätte ich auch mit niederen Takten gerechnet.


Es sind und bleiben ziemlich verschiedene Architekturen. Wenn die perf/W knapp unter Hemlock Nivaeu liegt sehe ich keinen Flop.
Wenn alles zu 100% so wie ein Single-Core skaliert, dann stimme ich zu.


Wenn die GF360 vergleichbare perf/W als Cypress aufweisst, kann ich nicht so leicht auf die perf/W Relation kleinerer Varianten schliessen.
Aber die Vergangenheit zeigte nunmal schlechter werte.
Ich dachte, mit Fermi könnte sich vieles anders werden, aber mittlerweile befürchte/sieht es nicht so aus, als dürften sich viele Befürchtungen bewahrheiten bzw. sind schon eingetreten.


Dafuer moechte ich erstmal die Q1 bzw. Q2 2010 Marktanteile erstmal sehen.
Die werden im 1Q bzw. 2Q nicht mal so schlecht aussehen, da die 5000er-Serie etwas zu spät für den Mobilen Markt usw kamen. Und dann ist die Verzögerung 3-6 Monate.

Wie es später aussieht, ist schon schwieriger zu sagen. Vor allem, da die 5000er-Massen-Serie nicht so einen tollen Sprung nach vorne machten, weil sie die Spannung nicht senkten und z.b. HD5670 RV870 Niveau hat.

Die Frage ist, wann nutzt AMD dann das Potential der niederen Spannung aus. Also, z.b. auf Nvidia so wie bei der 4000er-Serie.

Bezweifelt auch keiner. Welche Vor- bzw. Nachteile wird es denn Deiner Meinung nach fuer jeglichen IHV genau bedeuten?
Hatte ich schon oft genug geschrieben.
Und die Vergangenheit zeigt es in den letzten 3 Jahren deutlich.
Es fiel lange nicht auf, weil die G80-Architektur gut genug war.
Also, jetzt kommts auf Fermi an, wie spannend die nächsten Wechsel werden.

Ein Schritt nach dem anderen jedesmal. Wenn ich nicht alle Antworten fuer GF100 habe dann ist es Bloedsinn schon fuer den Nachfolger zu spekulieren.
Was soll da schon großartiges kommen? Viele Möglichkeiten haben die ja nicht, da es z.B. mit 300 Watt schon einige Grenzen gibt, die erstmals erreicht sind.

Und wie sieht der ganze Schritt fuer ATI spaeter dann aus?
Keine Ahnung.
Interessiert mich auch nicht.
Wenn es viele gerüchte bzw. alle über eine neue RV900-Architektur schreiben, dann übernehme ich die Infos. Mit einem RV7x0-Sprung rechne ich nicht unbedingt;-)

Dann wuerde AMD PR nicht protestieren dass GF100 einen hoeheren TDP als Cypress hat und im gleichen Satz eingestehen dass es normal ist dass es schneller ist.
Ich meinte es mit gleichwertig etwas anders.
Eine der wichtigsten Parametern ist Performance-Pro-Watt, da man dann mehr auf die ganze (restliche) Familie schließen kann (bzw. ATI könnte doch später mit einem größeren Die kommen/überraschen.)

also wenn Fermi 50% schneller ist aber 50% mehr Strom verbraucht ist das für mich gleichwertig im Bezug auf Performance-pro-Watt.
Dann gibts noch Idle, Treiber, Technologien, usw usw usw.
Daumen-mal-pi mäßig im Bezug aufs gesamte-


Schau her wenn ich mit jemand von AMD oeffentlich plaudere und ihm sage dass Gf100 dies und jeniges nach NV koennen soll und er sagt einfach dass es normal sei wenn man eine 280W TDP GPU mit einer 189W TDP GPU (5870) vergleicht. Der eigentliche Vergleich waere mit Hemlock und seinen 294W TDP. Erstens hab ich erstmal keinen Zweifel dass er weiss wo das board design der Konkurrenz liegt und zweitens wenn dem so waere wie Du Dir vorstellst man eine ganz andere Verteidigungs-linie anlegen wuerde.
Die Frage ist, ob du alle Informationen hast im Bezug auf AMD& Nvidia.
AMD muss jetzt keine Infos über Refresh (& Treiber-Performance-Plus?) & Co raus rücken, da fleißig gekauft wird, während die Meldungen über Fermi nicht berauschend sind. Nvidia eigentlich schon, damit nicht zu viele die Konkurrenz kaufen.

Mittlerweile hatten wir seit R600&G80 genug Überraschungen, wo dann die Welt nach der Einführung ganz anders aussah.

Coda
2010-01-25, 18:09:14
Wurde 32nm Bulk gestrichen? Es würde jetzt dann (Anfang Q2) Riskwafer geben. Ist ganz an mir vorbeigegangen.
Ja, es gibt nur 28nm. Aber es ging mir auch eher um 40nm.

IMO denke ich, existieren keine GPCs direkt in der Hardware
Wie meinst du das bitte?

Gast
2010-01-25, 18:19:32
Ja, es gibt nur 28nm. Aber es ging mir auch eher um 40nm.


Naja:
http://www.globalfoundries.com/technology/32nm_available.aspx

Zumal auf der letzten AMD-Roadmap die kommenden GPUs eindeutig mit 32nm angegeben wurde.

Coda
2010-01-25, 18:23:40
32nm ist soweit ich weiß nur SOI.

Nakai
2010-01-25, 18:44:08
Wie meinst du das bitte?

Was ist ein GPC? TMUs, SPs, Rasterizer, Polymorphengine und Tesselator?
Ich glaube nicht, dass es ein Segen der Auslastung ist, dass alles immer in einem Block untergebracht ist. IMO gibt es zwar alle Einheiten, aber ich glaube nicht, dass ein Rasterizer oder Tesselator genau für 128 bestimmte SPs zuständig ist. IMO ist GPC nur ein Marketingname.


mfg

Gast
2010-01-25, 19:02:18
IMO ist GPC nur ein Marketingname.
Schöns wär's. Tatsächlich ist der Fermi der erste massive multi chip on a chip. Mit allen unschönen Konsequenzen ... das ist schon kein Microruckeln mehr, das ist schon Macroruckeln. Sogar im Dark Void Video konnte man es sehen, trotz low Details :(

Gast
2010-01-25, 19:05:02
Was ist ein GPC? TMUs, SPs, Rasterizer, Polymorphengine und Tesselator?
Ich glaube nicht, dass es ein Segen der Auslastung ist, dass alles immer in einem Block untergebracht ist. IMO gibt es zwar alle Einheiten, aber ich glaube nicht, dass ein Rasterizer oder Tesselator genau für 128 bestimmte SPs zuständig ist. IMO ist GPC nur ein Marketingname.
mfg

GPC ist der Name für eine Raster-Engine, vier SM und vier Polymorph-Engines. All das ist physikalisch auf dem Die vorhanden.

CrazyIvan
2010-01-25, 19:12:38
(im Vergleich zu nV, deren entfernteste SPs in mal eben an die 3cm voneinander entfernt sind - wieviele Takte braucht ein Signal für diese Strecke bei den gedachten Takten? ;-))
Hm, gehen wir mal vom worst case aus:
Signalgeschwindigkeit = 2/3 Lichtgeschwindigkeit (200.000km/s)
Zeit pro Taktsignal = 1/1.750.000.000s (1.750 Mhz)

Weg pro Takt: 20.000.000.000/1.750.000.000 ~ 11,4cm
Da der kritische Pfad nicht der Weg von einem SP zum anderen ist, sollte da noch ein wenig Luft nach oben sein ;)

P.S.
Allerdings bin ich doch selbst überrascht, dass es nur so wenige cm sind. Kann mir grad nicht so recht vorstellen, wie intel das damals mit den P4 und >8Ghz machen wollte...

Gast
2010-01-25, 19:28:33
Der reale Weg im Chip ist aber länger, keine Ahnung wieviel, aber kritisch kann es schnell werden. Es dürften also Optimierungsarbeiten in diesem Bereich von nöten sein.

Tarkin
2010-01-25, 19:29:37
Will mich ja nich einmischen aber... was ist das hier jetzt? Ich glaub es gibt entsprechende ATi Threads für rv890 bzw r900 Spekulationen :confused:

Gast
2010-01-25, 19:39:20
Der reale Weg im Chip ist aber länger, keine Ahnung wieviel, aber kritisch kann es schnell werden.

Der ist deutlich kürzer, man wird wohl kaum Signale ständig in einem Takt von einem zum anderen Eck der GPU schicken (und schon garnicht in 1 Takt vom Hotclock)

redfirediablo
2010-01-25, 19:41:59
Vor genau 13 posts warst Du auch noch ein Gast mit einigen Beitraegen und ja so leicht kann man IPs nicht verstecken.


Du implizierst ich hätte versucht meine IP zu verstecken. Das stimmt nicht. Ich war einfach zu faul mich einzuloggen bzw. zu registrieren. Kannst gerne meine alten "Gast" Beiträge noch zum Account hinzufügen.

Na, wo liegen eigentlich die Schätzungen wann die 1/2 fermis als GTS kommen. Ich werfe mal 3 Monate nach fermi launch in den Ring.

Gast
2010-01-25, 20:20:17
Na, wo liegen eigentlich die Schätzungen wann die 1/2 fermis als GTS kommen. Ich werfe mal 3 Monate nach fermi launch in den Ring.

Ach, jetzt ist der GF100 doch nicht mehr so teuer zu fertigen, ja?

Bucklew
2010-01-25, 20:35:28
CPUs und GPUs bedienen relativ disjunkte Märkte im HPC bereich. glaube nicht, daß eine verbesserte Stellung ihrer GPUs ihre CPU-Verkäufe mehr schädigen würde als es ihnen bei den GPUs brächte
Nö, GPUs würden bei ähnlichem, besser gleichem, Funktionsumfang CPUs im HTC-Bereich innerhalb von Tagen ersetzen. Dafür sind GPUs einfach zu schnell und vorallem (verglichen zur Rechenleistung) viel zu billig. AMD kann das aber nunmal nicht Recht sein, schließlich verdienen sie mit dem CPUs deutlich mehr Geld als mit den GPUs. Warum diesen High-Margin-Markt totmachen?

Vieleicht weil GF noch nicht über die passenden Fertigungsprozesse verfügt?
Hm...
Unter Anderem.

GF hat bisher kein Bulk. Troll woanders rum.
Halt mal den Ball flach...

Auf dem Register-Transfer-Level ändert sich jedenfalls gar nichts. Alles was darunter passiert muss auf den Prozess abgestimmt sein, d.h. man muss andere Tools einsetzen usw.

Das heißt aber noch lange nicht das es "nicht geht" bei zwei Foundries zu fertigen.
Technisch geht es sicherlich. Es hat nur einmal bisher niemand gemacht - zumindst nicht mit den aktuellen Highend-Chips - und betriebswirtschaftlich ist es wohl der Overkill. Oder glaubt jemand ernsthaft, dass TSMC in dem Falle, dass GF die Produktion nicht hinkriegt, AMD seine alten Konditionen willigt? Dann werden die RICHTIG Asche bezahlen müssen pro Chip, sonst wäre TSMC ja auch verdammt blöd.

Wenn AMD jetzt sagt sie gehen zu GF ist das eine fast-Einbahnstraße. Der Weg zurück zu TSMC wäre wohl ein Supergau und würde neben Geld wohl auch noch ein lockeres halbes Jahr Entwicklungsdauer bedeuten. Das meinte ich mit "geht nicht" - weil TSMC unterm Strich viel Geld bedeuten würde.

Und das man parallel für TSMC und GF entwickelt ist auch Humbug ;)

Coda
2010-01-25, 20:45:21
Technisch geht es sicherlich. Es hat nur einmal bisher niemand gemacht - zumindst nicht mit den aktuellen Highend-Chips - und betriebswirtschaftlich ist es wohl der Overkill. Oder glaubt jemand ernsthaft, dass TSMC in dem Falle, dass GF die Produktion nicht hinkriegt, AMD seine alten Konditionen willigt? Dann werden die RICHTIG Asche bezahlen müssen pro Chip, sonst wäre TSMC ja auch verdammt blöd.
Es geht um die von dir postulierte "Unmöglichkeit". Das man das eher nicht machen wird, kann glaube ich jeder nachvollziehen.

Low-End bei TSMC und High-End bei GF wäre aber denkbar.

Gast
2010-01-25, 20:46:12
Oder glaubt jemand ernsthaft, dass TSMC in dem Falle, dass GF die Produktion nicht hinkriegt, AMD seine alten Konditionen willigt? Dann werden die RICHTIG Asche bezahlen müssen pro Chip, sonst wäre TSMC ja auch verdammt blöd.

Wenn AMD jetzt sagt sie gehen zu GF ist das eine fast-Einbahnstraße. Der Weg zurück zu TSMC wäre wohl ein Supergau und würde neben Geld wohl auch noch ein lockeres halbes Jahr Entwicklungsdauer bedeuten. Das meinte ich mit "geht nicht" - weil TSMC unterm Strich viel Geld bedeuten würde.

Und das man parallel für TSMC und GF entwickelt ist auch Humbug ;)

Warum genau wäre denn TSMC so verdammt blöd wenn sie dann noch eine Auftrag von AMD annehmen würde hm? Manche Leute haben wirklich eine lebende Phantasie um offensichtlich ihre Wunschvorstellungen irgendwie argumentativ vorzutragen. TSMC ist natürlich um jeden Auftrag froh, und AMD wird mit Sicherheit nicht so blöd sein und die Tür zu TSMC zuschlagen. Irgendwelche Rachephantasien sind ja hier mal sowas von fehl am Platz. Es gibt mittlerweile mehr als genug Hinweise das bsw Fusion von TSMC kommen wird. Man fertigt(e) ja auch noch bei UMC, bei Chartered (jetzt auch GF). GF ist für AMD enorm von Vorteil, denn es ist ein weiterer Fertiger auf höchsten Niveau(!), zudem noch dazu die Konkurrenz aktuell keine zutritt hat. Man wird je nach Produkt die jeweils optimale Foundry auswählen.

Bucklew
2010-01-25, 20:51:25
Es geht um die von dir postulierte "Unmöglichkeit". Das man das eher nicht machen wird, kann glaube ich jeder nachvollziehen.

Low-End bei TSMC und High-End bei GF wäre aber denkbar.
Ich halte es auch für ein unmögliches Szenario. AMD wird zur not auch mit Yields weit unterhalb von 50% die kommende Generation fertigen müssen, wenn es GF nicht hinkriegt.

Warum genau wäre denn TSMC so verdammt blöd wenn sie dann noch eine Auftrag von AMD annehmen würde hm? Manche Leute haben wirklich eine lebende Phantasie um offensichtlich ihre Wunschvorstellungen irgendwie argumentativ vorzutragen. TSMC ist natürlich um jeden Auftrag froh, und AMD wird mit Sicherheit nicht so blöd sein und die Tür zu TSMC zuschlagen. Irgendwelche Rachephantasien sind ja hier mal sowas von fehl am Platz. Es gibt mittlerweile mehr als genug Hinweise das bsw Fusion von TSMC kommen wird. Man fertigt(e) ja auch noch bei UMC, bei Chartered (jetzt auch GF). GF ist für AMD enorm von Vorteil, denn es ist ein weiterer Fertiger auf höchsten Niveau(!), zudem noch dazu die Konkurrenz aktuell keine zutritt hat. Man wird je nach Produkt die jeweils optimale Foundry auswählen.
Die Tür vor AMD zuschlagen? Nein, sicherlich nicht. Dennoch ist AMD ja nunmal kein Kunde mehr, in dessen Zukunft man von Seiten TSMCs noch großartig investieren muss. Glaubst du wirklich die sind so blöd und nehmen die "normalen" Preise, wenn AMD es nicht schafft die Grafikchips bei GF fertigen zu lassen?! Das wäre von Seiten TSMCs der absolute betriebswirtschaftliche Wahnsinn. Natürlich lassen die es sich sehr gut bezahlen, wenn AMD keine andere Wahl mehr hat als bei TSMC fertigen zu lassen.

Coda
2010-01-25, 20:55:04
Ich halte es auch für ein unmögliches Szenario. AMD wird zur not auch mit Yields weit unterhalb von 50% die kommende Generation fertigen müssen, wenn es GF nicht hinkriegt.
Im Moment sieht es eher so aus als hätten die Taiwanesen so ihre Probleme mit kleineren Strukturen zurecht zu kommen und nicht GF.

Gast
2010-01-25, 21:02:37
Ich halte es auch für ein unmögliches Szenario. AMD wird zur not auch mit Yields weit unterhalb von 50% die kommende Generation fertigen müssen, wenn es GF nicht hinkriegt.


Das muss man immer wenn das Kind mal in der Brunnen gefallen ist, also das Design schon angepasst wurde und das Tapeout statt gefunden hat. Alles andere wäre würde viel zu lange dauern und wäre viel zu teuer. Klassisches Beispiel ist ja aktuell TSMCs 40nm bulk Node.


Die Tür vor AMD zuschlagen? Nein, sicherlich nicht. Dennoch ist AMD ja nunmal kein Kunde mehr, in dessen Zukunft man von Seiten TSMCs noch großartig investieren muss. Glaubst du wirklich die sind so blöd und nehmen die "normalen" Preise, wenn AMD es nicht schafft die Grafikchips bei GF fertigen zu lassen?! Das wäre von Seiten TSMCs der absolute betriebswirtschaftliche Wahnsinn. Natürlich lassen die es sich sehr gut bezahlen, wenn AMD keine andere Wahl mehr hat als bei TSMC fertigen zu lassen.

Man hatte bis jetzt auch "keine andere Wahl" und NV hat auch in Zukunft "keine andere Wahl" als bei TSMC zu fertigen. Nach deiner Logik könnte TSMC alle und jeden Abzocken. Tatsächlich konkurrieren die Foundries unter einander und sind froh möglichst viele Aufträge zu ergattern. AMD wird natürlich auch noch in Zukunft ein Kunde von TSMC bleiben.

Der zweite Teil ist ohnehin aus der Luft gegriffen. Warum genau sollte man es "nicht schaffen" bei GF zu fertigen? Die Foundries in Dresden von AMD (jetzt GF) sind Industrieweit als die zweitbesten Fertigungstätten der Welt nach Intel anerkannt. Da finde ich solche Aussagen schon leicht lächerlich. AMD wird sich das gut überlegt haben und es ist mit Sicherheit auch kein Zufall wenn sehr viele "Big-Player" eine Kooperation mit GF verkündet haben.

Gast
2010-01-25, 21:09:41
für mich klingt das als wären die startklar um 28nm gpu's herzustellen?
http://www.globalfoundries.com/technology/28nm.aspx

Bucklew
2010-01-25, 21:12:12
Im Moment sieht es eher so aus als hätten die Taiwanesen so ihre Probleme mit kleineren Strukturen zurecht zu kommen und nicht GF.
Bis heute sieht es so aus, dass GF nichts in der Größe eines Highend-Grafikchips gefertigt hat. Und bis heute weiß auch keiner, wie die Yields bei beiden in 28nm sein werden, gerade zu Beginn. Von Desaster bis zum Jahrhundertdeal ist alles drin - bei beiden Foundrys. Ich würde mein Geld dennoch auf TSMC setzen, gerade wo die jetzt so in die Scheiße gepackt haben, werden die das nächstes mal garantiert besser hinkriegen ;)

Das muss man immer wenn das Kind mal in der Brunnen gefallen ist, also das Design schon angepasst wurde und das Tapeout statt gefunden hat. Alles andere wäre würde viel zu lange dauern und wäre viel zu teuer. Klassisches Beispiel ist ja aktuell TSMCs 40nm bulk Node.
Eben deswegen meinte ich ja Unmöglich - im Praktischen sinne, nicht theoretisch. Theoretisch wäre auch eine 20Ghz-CPU möglich.

Man hatte bis jetzt auch "keine andere Wahl" und NV hat auch in Zukunft "keine andere Wahl" als bei TSMC zu fertigen. Nach deiner Logik könnte TSMC alle und jeden Abzocken. Tatsächlich konkurrieren die Foundries unter einander und sind froh möglichst viele Aufträge zu ergattern. AMD wird natürlich auch noch in Zukunft ein Kunde von TSMC bleiben.
Alle und jeden abzocken? Quatsch. Du siehst einfach nicht den großen Zusammenhang. Natürlich könnte TSMC jetzt jeden (bzw viele, speziell Nvidia und ATI) abzocken, aber dann würden die eben schnell zur Konkurrenz wechslen (und für die würde es sich eher lohnen Geld in diese Entwicklungsrichtung zu stecken). Aktuell nimmt TSMC eben einen angemessen Preis, damit die Kunden da bleiben und nicht wechseln. AMD wird aber nunmal mit den Grafikchips wechseln, eher früher als später. Warum also sollte TSMC da noch großartig Geld in die Kundenbindung investieren, die es defakto nicht mehr gibt?

Wenn du morgen mit deinem Auto in die Werkstatt fährst und es ist kaputt und der Händler weiß, dass du bei der Konkurrenz gekauft hat, wie kulant ist er dann wohl? Und wie kulant wäre er wohl, wenn du das Auto bei ihm gekauft hättest?

Der zweite Teil ist ohnehin aus der Luft gegriffen. Warum genau sollte man es "nicht schaffen" bei GF zu fertigen? Die Foundries in Dresden von AMD (jetzt GF) sind Industrieweit als die zweitbesten Fertigungstätten der Welt nach Intel anerkannt. Da finde ich solche Aussagen schon leicht lächerlich. AMD wird sich das gut überlegt haben und es ist mit Sicherheit auch kein Zufall wenn sehr viele "Big-Player" eine Kooperation mit GF verkündet haben.
Das einzig lächerliche sind solche aus der PR-Broschüre von GF abgeschriebenen Absätze ;D

Warten wir es doch ab. GF hat bis heute nichts in der Größe eines Grafikchips gefertigt. Ob sie das hinkriegen oder nicht wird sich zeigen, ich würde da mein Geld allerdings nicht drauf verwetten.

Ich bin aber auch wirklich SEHR auf die ersten News vom Charlie gespannt - erst hieß es ja beim Fermi "Neue Architektur + Neuer Chip + Neues Fertigungsverfahren = Unmöglich" - was heißt es dann erst bei der nächsten ATI-Generation mit neuer Architektur, neuem Chip, neuem Fertigungsverfahren und neuer Foundry? :biggrin:

Coda
2010-01-25, 21:19:25
Bis heute sieht es so aus, dass GF nichts in der Größe eines Highend-Grafikchips gefertigt hat. Und bis heute weiß auch keiner, wie die Yields bei beiden in 28nm sein werden, gerade zu Beginn. Von Desaster bis zum Jahrhundertdeal ist alles drin - bei beiden Foundrys. Ich würde mein Geld dennoch auf TSMC setzen, gerade wo die jetzt so in die Scheiße gepackt haben, werden die das nächstes mal garantiert besser hinkriegen ;)
Da ich aus erster Quelle Infos habe wie dort "gearbeitet" wird glaube ich nicht dass sich das Grundproblem bei TSMC so einfach lösen lässt.

Aber wir lassen uns einfach überraschen.

Bucklew
2010-01-25, 21:26:00
Aber wir lassen uns einfach überraschen.
Genau, alles andere ist wohl reine Spekulation :)

Gast
2010-01-25, 21:38:57
Alle und jeden abzocken? Quatsch. Du siehst einfach nicht den großen Zusammenhang. Natürlich könnte TSMC jetzt jeden (bzw viele, speziell Nvidia und ATI) abzocken, aber dann würden die eben schnell zur Konkurrenz wechslen (und für die würde es sich eher lohnen Geld in diese Entwicklungsrichtung zu stecken).

Welche Konkurrenz? Bevor NV ihre High-End-GPUs bei UMC fertigt können sie wohl gleich ein paken. Sieh es ein NV und ATI waren auf TSMC angewiesen.

Warum also sollte TSMC da noch großartig Geld in die Kundenbindung investieren, die es defakto nicht mehr gibt?

Was verstehst du denn unter "Geld in die Kundenbindung investieren"? Wenn AMD nur noch Lowend-Chip bei TSMC fertigt und nur noch halb so viel Millionen dort lässt wird das wie genau AMD benachteiligen?


Das einzig lächerliche sind solche aus der PR-Broschüre von GF abgeschriebenen Absätze ;D

Produkte im Handel, nix Broschüre. Aber glaub doch was du willst.


Warten wir es doch ab. GF hat bis heute nichts in der Größe eines Grafikchips gefertigt. Ob sie das hinkriegen oder nicht wird sich zeigen, ich würde da mein Geld allerdings nicht drauf verwetten.

Das Problem ist das du keine Ahnung hast wovon du redest. Ein größeres Die zu belichten ist kein bisschen schwere als ein kleines. Es zählen bei einem Prozess vorallem Performance, Stromverbrauch, Packdichte, und Fehlerate/Fläche. Und solche Daten kann man aus jedem Prozess relativ leicht heraus finden, dazu muss ich kein "großes Die" gefertigt haben und dann sehen was passiert.

Gast
2010-01-25, 21:39:56
Da ich aus erster Quelle Infos habe wie dort "gearbeitet" wird glaube ich nicht dass sich das Grundproblem bei TSMC so einfach lösen lässt.
Manche haben den Pinkel-Affen neulich für einen Scherz gehalten - IT WAS NOT!!!
TSMC hat originellerweise eine Art Betriebszeitung, hängt im besucherzugänglichen Bereich aus, wo neben anderen Geschäftsgeheimnissen auch solche incidents nachzulesen sind ...

Gast
2010-01-25, 21:44:46
Ich seh schon die Schlagzeilen "Pinkelaffen verhindern Fermi-Release".

Bucklew
2010-01-25, 21:48:44
Welche Konkurrenz? Bevor NV ihre High-End-GPUs bei UMC fertigt können sie wohl gleich ein paken. Sieh es ein NV und ATI waren auf TSMC angewiesen.
Du scheinst nicht viel Ahnung von betriebswirtschaftslehre und den zusammenhängen in der Wirtschaft zu haben. Ich hatte es vorhin schonmal grob umrissen, aber lassen wir das. Fakt ist, würde TSMC zu viel Geld verlangen würden auch andere Hersteller schneller nachrüsten und ebenfalls Highend-GPUs ausliefern können, als es TSMC lieb wäre.

Was verstehst du denn unter "Geld in die Kundenbindung investieren"? Wenn AMD nur noch Lowend-Chip bei TSMC fertigt und nur noch halb so viel Millionen dort lässt wird das wie genau AMD benachteiligen?
Du glaubst ernsthaft, dass AMD bei nur noch halbem Umsatzvolumen dieselben Preise zahlt wie vorher? Bestätigt meine Aussage von oben.

Produkte im Handel, nix Broschüre. Aber glaub doch was du willst.
Auch ein morscher Baum kann noch gute Äpfel tragen. Mein Athlon XP 2000+ damals vor einige Jahren war nebenbei schon bei Auslieferung kaputt. Zählt das jetzt auch dazu?

Das Problem ist das du keine Ahnung hast wovon du redest. Ein größeres Die zu belichten ist kein bisschen schwere als ein kleines. Es zählen bei einem Prozess vorallem Performance, Stromverbrauch, Packdichte, und Fehlerate/Fläche. Und solche Daten kann man aus jedem Prozess relativ leicht heraus finden, dazu muss ich kein "großes Die" gefertigt haben und dann sehen was passiert.
Na dann bin ich ja mal gespannt, dann sehen wir ja Anfang 2010 die ersten bei GF gefertigen ATI-GPUs ;D

Schade nur, dass du so sehr hinter deinen Aussagen stehst, dass du dich nicht mal traust hier anzumelden und/oder dich zu registieren. Muss man wohl nicht mehr zu sagen, oder?

Gast
2010-01-25, 21:49:16
hnung hast wovon du redest. Ein größeres Die zu belichten ist kein bisschen schwere als ein kleines. Es zählen bei einem Prozess vorallem Performance, Stromverbrauch, Packdichte, und Fehlerate/Fläche. Und solche Daten kann man aus jedem Prozess relativ leicht heraus finden, dazu muss ich kein "großes Die" gefertigt haben und dann sehen was passiert.

Und AMD hat im übrigen eine verdammt verdammt gute Feherrate/Fläche. Ergo gute Yields.

Coda
2010-01-25, 21:50:56
Ich habe keine Geschäftsgeheimnisse, aber ich hab schon Software für die Bude geschrieben (bei Admos) und weiß wie sie damit umgehen. Deshalb habe ich einfach mehr Vertrauen in AMD als in TSMC was solche Dinge angeht.

Ich will es nicht über einen Kamm scheren, aber asiatische Fertiger neigen wohl dazu mehr zu pfuschen als westliche Firmen.

Unter anderem haben sie noch lange BSIM4 statt PSP für ihre Prozessmodelle verwendet, obwohl das gar nicht mehr wirklich für den Prozess in diesem nm-Bereich geeignet war usw.

Gast
2010-01-25, 22:32:13
Du scheinst nicht viel Ahnung von betriebswirtschaftslehre und den zusammenhängen in der Wirtschaft zu haben. Ich hatte es vorhin schonmal grob umrissen, aber lassen wir das. Fakt ist, würde TSMC zu viel Geld verlangen würden auch andere Hersteller schneller nachrüsten und ebenfalls Highend-GPUs ausliefern können, als es TSMC lieb wäre.


Du glaubst ernsthaft, dass AMD bei nur noch halbem Umsatzvolumen dieselben Preise zahlt wie vorher? Bestätigt meine Aussage von oben.

Selbst wenn sie mehr bezahlen müssen wird es sich lohnen, sonst würden sie es nicht tun. Aber schon klar, das ist der absolute Untergang und TSMC wird richtig abcashen. Hach, wie ich Fanboys liebe.


Auch ein morscher Baum kann noch gute Äpfel tragen. Mein Athlon XP 2000+ damals vor einige Jahren war nebenbei schon bei Auslieferung kaputt. Zählt das jetzt auch dazu?

Oh Mann, was redest du nur für eine Stuss. Wenn du das jetzt ernsthaft als Kriterium für die Qualität einer Foundry wertest dann ist wohl jede Diskussion überflüssig.


Na dann bin ich ja mal gespannt, dann sehen wir ja Anfang 2010 die ersten bei GF gefertigen ATI-GPUs ;D

Was ist daran jetzt witzig? Das du mangels Argumente versuchst das ganze ins lächerlich zu ziehen?


Schade nur, dass du so sehr hinter deinen Aussagen stehst, dass du dich nicht mal traust hier anzumelden und/oder dich zu registieren. Muss man wohl nicht mehr zu sagen, oder?

Wenn du Ahnung hättest und nicht irgend etwas behaupten würdest müsste man dich ja nicht korrigieren. Ich verfassen hier praktisch keine Beiträge, deshalb sehe ich wenig Gründe mich anzumelden. Das meine Aussagen korrekt sind wird dir jeder hier bestätigen können.

Bucklew
2010-01-25, 22:52:30
Selbst wenn sie mehr bezahlen müssen wird es sich lohnen, sonst würden sie es nicht tun. Aber schon klar, das ist der absolute Untergang und TSMC wird richtig abcashen. Hach, wie ich Fanboys liebe.
Naja, wenn ich mir AMDs Finanzzahlen so anschaue glaube ich nicht wirklich, dass die immer wissen, was sich lohnt und was nicht....

Oh Mann, was redest du nur für eine Stuss. Wenn du das jetzt ernsthaft als Kriterium für die Qualität einer Foundry wertest dann ist wohl jede Diskussion überflüssig.
Ach so, das war also ein anderer Gast:
Produkte im Handel, nix Broschüre. Aber glaub doch was du willst.

Was ist daran jetzt witzig? Das du mangels Argumente versuchst das ganze ins lächerlich zu ziehen?
Ich habe meine Argumente schon vorgebracht und außer einem lächerlichen "Die Größe spielt doch keine Rolle" kamen keine Gegenargumenteantworten (Argument kann man das ja kaum nennen).

Stellt sich doch die Frage, warum denn die anderen Foundrys nicht auch anfangen in diesen Bereich vorzustoßen und einen entsprechenden Fertigungsprozeß entwickeln, wo das doch so einfach ist mit den großen Chips?!

Wenn du Ahnung hättest und nicht irgend etwas behaupten würdest müsste man dich ja nicht korrigieren. Ich verfassen hier praktisch keine Beiträge, deshalb sehe ich wenig Gründe mich anzumelden. Das meine Aussagen korrekt sind wird dir jeder hier bestätigen können.
Na klar, alles wissen, aber nichtmal den Mumm haben sich anzumelden. Aber nach dem anderen Geblubber war da ja auch nicht mehr zu erwarten ;D

mrt
2010-01-25, 23:22:19
Die eher schlechten Finanzzahlen von AMD sind erstens nicht das Thema, dafür gibts einen eigenen Thread, und zweitens wegen fehlendem Volumen unter hoher Konkurrenz. Nvidia macht sein Geld weniger mit Geforce-Produkten als mit Quadro und Chipsätzen.

mrt
2010-01-25, 23:27:35
32nm ist soweit ich weiß nur SOI.
ARMs "physical IP Soc" ist AFAIK Bulk und der kommt in 32nm und 28, laut GF.

GLOBALFOUNDRIES and its joint development partners have also extended their agreement to work together on 28nm process. Customers can begin their designs today in 32nm high-k metal-gate technology and then transition to 28nm technology for further density and power advantages, without the need for a major redesign
Also auch 32nm Bulk, 28nm SOI gibts nicht. Quelle (http://www.globalfoundries.com/technology/32nm_available.aspx)

Edit: Sorry für Doppelpost, falsch geklickt.

Sorkalm
2010-01-25, 23:47:41
Jop. Und ne Low-Power-Version von 32 nm bulk gibts auch:

The low-power version of the 32nm process is available now and GLOBALFOUNDRIES is running multi-project wafers (MPWs) on the process. The high-performance version, which uses strained silicon, will be available in 2010.

uweskw
2010-01-26, 01:43:52
Schöns wär's. Tatsächlich ist der Fermi der erste massive multi chip on a chip. Mit allen unschönen Konsequenzen ... das ist schon kein Microruckeln mehr, das ist schon Macroruckeln. Sogar im Dark Void Video konnte man es sehen, trotz low Details :(


http://www.youtube.com/watch?v=YtO8JroFZuk

Stimmt leider, obwohl sich der Gamer hier wirklich Mühe gegeben hat sich nicht im falschen Moment zu drehen/umzuschauen wird es überdeutlich wenn man sich Explosionen oder Partikel-Effekte ansieht. Da ist einfach Bewegung und somit deutliche "micro"-Rucker oder in diesem Falle "MAXI"-Ruckler sichtbar. Da ist ne 4850X2 noch Gold dagegen!!

Greetz

U.S.

Coda
2010-01-26, 01:46:01
:facepalm:

Ein Chip ohne AFR kann AUS PRINZIP keine Mikroruckler produzieren. Solange nur an einem Bild gleichzeitig gerendert wird ist das unmöglich, scheiß egal wie der Chip intern aufgebaut ist. Und jetzt Schluss damit. Das was der Gast da von sich gegeben hat ist die Zeichen in der Datenbank nicht wert.

Und nein Fermi ist auch kein "Multichip on a Die". Zumindest nicht mehr oder weniger als alle anderen GPUs auch.

mapel110
2010-01-26, 02:29:32
Von GF100 gibts genug Videos, wo gar nichts ruckelt.
Auch von Dark Void auf GF100 gibts Videos, wo nix ruckelt.
http://www.youtube.com/watch?v=A9OxrY7ZZCY&feature=channel

uweskw
2010-01-26, 02:45:16
Naja, ruckeln tuts da tatsächlich nicht ganz so stark, aber immernoch deutlich wahrnehmbar. Desweiteren siehts aus wie "medium Details".... hab das Spiel aber nicht und kanns somit nicht wirklich beurteilen.
Ist das das Beste was Fermi kann??

Greety U.S.

Coda
2010-01-26, 03:08:47
Egal ob es unter die technische Definition von MR fällt oder nicht!
Auch dem unbelesenem User fällt hier auf dass das Bild immer wieder kurz stockt, also ruckelt. Und das nicht zu knapp.
Das liegt aber mit an Sicherheit grenzender Wahrscheinlichkeit nicht am Chip, sondern am Treiber, PhysX oder sonst was.

Daraus eine grundlegende Ruckeleigenschaft abzuleiten ist nicht nur kompletter Blödsinn sondern zeugt davon dass man sich was sowas angeht einfach mal zurückhalten sollte.

Den features nach MUSS!! Fermi die AF Qualität beschränken um performance-mäßig auf der Höhe zu bleiben.
Es muss gar nichts. Den "Features" - du meinst Specs - nach wird es nämlich überhaupt nicht überraschend sein, wenn die trilineare Filterrate doch 70% über GT200b liegt. Die Load-Einheiten liefern entsprechenden Durchsatz, und sonst wird in einer 3D-App innerhalb eines Shaders nicht geladen.

Naja, ruckeln tuts da tatsächlich nicht ganz so stark, aber immernoch deutlich wahrnehmbar. Desweiteren siehts aus wie "medium Details".... hab das Spiel aber nicht und kanns somit nicht wirklich beurteilen.
Ist das das Beste was Fermi kann??
Unterlasse diese Sticheleien, sonst machst du hier keine 10 Posts mehr.

StefanV
2010-01-26, 03:23:52
Das muss gar nix bedeuten, das kann auch einfach nur sein, dass die Framerate vom Video nicht mit dem der Grafikkarte übereinstimmt, was dann, beim Abfilmen, zu diesen Rucklern führen kann.

Ganz ab davon gibts bei einigen Spielen (Champions Online z.B.) mit einigen nV-Treibern auch Ruckelorgien...

Ailuros
2010-01-26, 05:44:47
Ernsthaft, Cypress ist im Vergleich zum Juniper sehr groß. Juniper hat etwa 160mm^2. Dass Cypress nun um die 350mm^2 hat, spricht eher dafür, dass AMD da ziemlich viel Renundanz eingebaut hat.

334 fuer Cypress und nein es handelt sich nicht um Redundanz. 2*10 cluster heisst eben nicht 2*160 im strengen Sinn und das ist bei anderen Architekturen auch so.


AMD hat sich meistens bei der Kreativität sehr zurückgehalten, wenn es um größere Designs geht. Man sieht ja, dass Cypress bei der Einheitenskalierung nicht soviel zusätzliche Leistung bekommt. Ergo muss man dort ansetzen, wo noch mögliche Flaschenhälse vorliegen. Bei der Bandbreite, bei der Texturleistung und beim Rasterizer und Tesselator.

Ja und nein. Verdammt vereinfacht drueck ein Auge zu fuer dual chip und Du hasst 4 rasters auch auf Hemlock vs. Fermi. Der Vergleich hinkt zwar sehr aber wenn NV einen XXX-SP veroeffentlicht (kein 512SP minus reduzierten Einheiten) der sich gegen Cypress stellen soll dann wird dieser wohl schwer 4 raster haben oder?

Ein überarbeitetes SI für 384Bit. Größere Rasterizer. Zusätzlicher oder größerer Tesselator. Mehr Filter und/oder Adressierungseinheiten..
Ach Gott was weiß ich...:freak:

Ich sehe trotz allem nicht dass RV8x0 insgesamt mangelhaft positioniert ist. Natuerlich gibt es stets Raum fuer Verbesserungen aber das macht jeder IHV mit der Zeit so oder so.

Für mich sieht das Fermi-Design ziemlich starr aus. Man wird wohl bei den GPCs etwas für die kleineren Karten ändern.

Ich gehe mal von 4 Designs aus.
32 SPs, 4 TMUs, ein GPC
128 SPs, 32 TMUs ein GPC
256 SPs, maximal 64 TMUs zwei GPCs
und der liebe Fermi.

mfg

Eine ziemlich merkwuerdige Skalierung fuer GF10x da die TMUs diesmal in den SMs hocken. Natuerlich wird es wohl schon moeglich die TMU Anzahl flexibel zu gestalten, aber es ist trotzdem logischer dass es 32TMUs bei 8 clusters sind als 64. Die area und Stromverbrauch sind dann vielleicht die ersten Faktoren die winken koennten.

tombman
2010-01-26, 06:39:13
Das muss gar nix bedeuten, das kann auch einfach nur sein, dass die Framerate vom Video nicht mit dem der Grafikkarte übereinstimmt, was dann, beim Abfilmen, zu diesen Rucklern führen kann.

Ich fürchte, das ist ein Bingo :)

Ganz abgesehen davon ist von einem Youtube Video auf Ruckler schließen sowieso nur mehr :crazy2:

Wenn Single GPU Fermi ruckeln sollte, könnt ihr meine Avatarbeschreibung von "Insane Member" in "Noob of the Week" für 1 Woche ändern ;)

Coda
2010-01-26, 06:42:54
Sagt man das so? "Das ist ein Bingo"?

Menace
2010-01-26, 07:14:57
Unterlasse diese Sticheleien, sonst machst du hier keine 10 Posts mehr.

Sticheleien gegenüber Fermi sind nicht erlaubt sonst fliegt man? :rolleyes: Jehova?

Es bleibt, wie es ist. Es ist davon auszugehen, dass es an den Treibern liegt, wenn man überlegt, zu welchem Zeitpunkt diese Videos entstanden.

tombman
2010-01-26, 07:39:13
Sagt man das so? "Das ist ein Bingo"?
http://www.youtube.com/watch?v=5GmLbQDCP34 ;D;D

@menace: es sind nicht die Treiber, das passiert oft wenn man was abfilmt. Die Framerates von der Kamera und vom Abgefilmten sind nicht synchronisiert.
Ich habe selbst schon Sachen abgefilmt und kenne den Effekt.

Ailuros
2010-01-26, 08:47:02
Dann gabs ja erst recht nichts gegen die 1600SP @850-900Mhz auszusetzen.
Dass du mit 1600+SP & etwas niederen Takten vielleicht erwartetest hättest schon erwähnen müssen;-)
Wenn ich auf 1920SP (oder so) spekulierte hätte, hätte ich auch mit niederen Takten gerechnet.

Dafuer muesste Chipkomplexitaet nichtmal einen indirekten Einfluss auf Frequenzen haben.

Wenn alles zu 100% so wie ein Single-Core skaliert, dann stimme ich zu.

Durschnittliche Leistung von Hemlock pro TDP Watt gegen durchschnittliche Leistung von GF100 pro TDP. Wir wissen momentan nur wie der TDP von einer 380 aussieht aber nicht der reale durchschnittliche Verbrauch der letzteren unter Last.

Aber die Vergangenheit zeigte nunmal schlechter werte.
Ich dachte, mit Fermi könnte sich vieles anders werden, aber mittlerweile befürchte/sieht es nicht so aus, als dürften sich viele Befürchtungen bewahrheiten bzw. sind schon eingetreten.

Und hier liegt auch mein eigentlicher Einwand: die unmittelbare Vergangenheit ist GT200 und ergo lediglich ein refresh zu G80. Eines der Ziele von GF100 war mehr Daten auf dem chip zum halten als bei Vorgaengern; je mehr dieses gelingt desto mehr Bandbreite wird gespart. Noch dazu kommt eine relativ lange Liste von Aenderungen die eben nicht erlaubt GF100 auf GT200 Basis einzuschaetzen oder einfacher eben nicht 512 gegen 240SPs. Mehr dazu weiter unten.

Die werden im 1Q bzw. 2Q nicht mal so schlecht aussehen, da die 5000er-Serie etwas zu spät für den Mobilen Markt usw kamen. Und dann ist die Verzögerung 3-6 Monate.

Ich hab radikale Aenderungen im Hinterkopf. Einen gesunden Zuschuss fuer AMD wird es zweifellos geben.

Hatte ich schon oft genug geschrieben.
Und die Vergangenheit zeigt es in den letzten 3 Jahren deutlich.
Es fiel lange nicht auf, weil die G80-Architektur gut genug war.
Also, jetzt kommts auf Fermi an, wie spannend die nächsten Wechsel werden.

G80 war zu gut fuer seine Zeit welches nicht besonders viel Luftraum fuer GT200 liess eine analoge Steigerung zu sehen wie von z.B. RV6x0 zu RV7x0.

Im Fall von der NV DX9 Generation welches mit dem NV30 Flop anfing um mit G7x zu enden, sah sich NV gezwungen radikalere Aenderungen vorzunehmen und fast mit einer tabula rasa anzufangen fuer G80.

Viele Elemente hier (wie z.B. die Entkoppelung von texturing von den ALUs oder die quasi MIMD Verbindung der SIMDs -welche schon seit R300 bei der Konkurrenz existierten) hat man nicht aendern muessen. Jedoch eins der groessten Wehwehchen von GeForces schon seit Jahren war Geometrie. Selbst ein R600 konnte theoretisch bis zu 725Mio Tris/Takt generieren, waehrend auf GFs zwar konstant seit G80 oeffentlich 1Tri/clock vermarktet wurde aber die Mehrzahl in Echtzeit eher bei 1Tri/2clocks lag. Im Fall von GT200 sind es eben dann 324Mio Tris fuer die Mehrzahl der Faelle und in Ausnahmen 648. Bei RV7x0 sind es dann eben doch 750MTris/clock und bei RV8x0 dann 850M Tris/clock (und da Alex@B3D maximal 830M messen konnte sind die Raten auch durchaus realistisch).

GF100 ist natuerlich nicht der Bumsfallera Wert von 8xMal GT200 (und dabei sogar GT200 mit 1Tri/clock gemessen) in Echtzeit, aber der geometrische Zusatz ist analog dem NV ihren GPUs schon seit Jahren schuldig war. Wenn man jetzt Echtzeit Durchsatz einer GF100 zur Hand nimmt in Spielen dann ist sie gegenueber den theoretischen maximalen 1.7Mrd Tris/clock bei Hemlock ueberhaupt nicht schlecht positioniert und ja natuerlich ist dieses nur ein Ausschnitt der GPU der auf keinen Fall jegliche finale 3D Leistung wiederspiegelt da eine Unzahl anderer Faktoren mitspielen werden.

Aber kurz geschnitten: es gibt ziemlich wichtige Steigerungen im Vergleich zu GT200.

Noch ein Schritt weiter: 8xMSAA Leistung hat seit G80 um einiges gelitten auf GFs. Es gab ein jahrelanges hin und her warum dieses vorkommt und die originale Erklaerung fuer GF100 dass man die Framebuffer Komprimierung aenderte ist nur womoeglich ein Anteil der Erklaerung der eigentlichen 8xMSAA Steigerung. Von den insgesamt 48 ROPs und ergo 48 Pixel/Takt sind lediglich 32 Pixel/Takt den 4 raster units zugespielt (4*8 Pixel). Die restlichen 16 ROPs sind dann da 8xMSAA noch einen Zusatz zu geben und bis zu 33 Transparenz samples effizienter zu unterstuetzen.

Mein konstantes Fragezeichen und moegliches grosses "aber" fuer GF100 sind die TMUs. Ich kann nur bezweiflen dass jegliches gather4 hier den Tag retten kann. Und die These von meinem Freund neliz dass es 128 und 64 dieser deaktiviert ist natuerlich total falsch.

Was soll da schon großartiges kommen? Viele Möglichkeiten haben die ja nicht, da es z.B. mit 300 Watt schon einige Grenzen gibt, die erstmals erreicht sind.

Chipkomplexitaet skaliert um einiges mehr als Stromverbrauch und das bei beiden IHVs. Vergleich den Stromverbrauch einer 5870 unter Last gegen eine 4890 unter Last (da gleiche Frequenz) und behalt im Hinterkopf dass sich die Komplexitaet um etwas mehr als Faktor 2x erhoeht hat.

Wenn ein analoger Vergleich zwischen GT200 und GF100 nicht klappen sollte, kommen wir eben genau auf den gleichen Punkt zurueck dass die beiden eben nicht vergleichbar sind. Schon die Einzelheit dass viel mehr Einheiten auf GF100 auf 1/2 hot clock laufen aender einige Konstanten und wird ueberhaupt bei Uebertaktungs-uebungen zwischen den beiden einiges aendern.

Ergo Du hast zunehmend Faktoren die Dir den Vergleich zwischen GT200 und GF100 eben gefaerden. Noch mehr da wir keine unabhaengigen Tests eines finalen GF100 zur Hand haben.

Keine Ahnung.
Interessiert mich auch nicht.
Wenn es viele gerüchte bzw. alle über eine neue RV900-Architektur schreiben, dann übernehme ich die Infos. Mit einem RV7x0-Sprung rechne ich nicht unbedingt;-)

Wieso erwaehnst Du es dann wenn:

1. Es Dich nicht interessiert
2. Du selber keine RV7x0 Sprung erwartest?

Ich protestiere schon seit einigen Seiten dass Du GF100 auf GT200 Basis einschaetzt. Da zu viele neue Konstanten diesmal mitspielen kann diese Art von Einschaetzung nur in die Hose gehen. Je mehr Faktoren auf GT200 in einem Spiel limietieren desto mehr wird sich GF100 von dieser absetzen koennen. Wenn dann in solchen Faellen die gemessenen durchschnittliche minimale Frameraten eines GF100 irgendwo auf den eigentlichen durchschnittlichen Leistung einer GT200 liegen, dann hab ich persoenlich nicht mehr viel zum meckern (mit einer Vorbehaltung natuerlich was AF Qualitaet betrifft bis mehr bekannt ist).

Ich meinte es mit gleichwertig etwas anders.
Eine der wichtigsten Parametern ist Performance-Pro-Watt, da man dann mehr auf die ganze (restliche) Familie schließen kann (bzw. ATI könnte doch später mit einem größeren Die kommen/überraschen.)

Ich sagte schon vor einiger Zeit dass NV irgendwo um die 25 cluster erwartet. Ja und? Ein komplizierterer chip mit leicht hoeherem Stromverbrauch dann eben. Ausser Du glaubst AMD hat einen Zauberstab und kann diesen unter 40G auf 189W TDP halten. Nochmal 5890 soll fuer Ende Mai/Anfang Juni projeziert sein.

also wenn Fermi 50% schneller ist aber 50% mehr Strom verbraucht ist das für mich gleichwertig im Bezug auf Performance-pro-Watt.
Dann gibts noch Idle, Treiber, Technologien, usw usw usw.
Daumen-mal-pi mäßig im Bezug aufs gesamte-

Eine GF380 wird sich wohl am Preis an Hemlock richten und eine GF360 am Preis von Cypress. Nix da mit einer 360 um 50% schneller als 5870 und auch nix da mit 50% mehr Stromverbrauch.

Die Frage ist, ob du alle Informationen hast im Bezug auf AMD& Nvidia.
AMD muss jetzt keine Infos über Refresh (& Treiber-Performance-Plus?) & Co raus rücken, da fleißig gekauft wird, während die Meldungen über Fermi nicht berauschend sind. Nvidia eigentlich schon, damit nicht zu viele die Konkurrenz kaufen.

AMD's Schaetzungen fuer GF100 sind wohl um einiges zuverlaessiger als NVIDIA's. Lies nochmal durch was ich sagte und denk nach.

Mittlerweile hatten wir seit R600&G80 genug Überraschungen, wo dann die Welt nach der Einführung ganz anders aussah.

Als ich im September 2006 bei einer unabhaengigen Quelle privat fragte ob ich nicht auf R600 warten sollte war die Antwort eher ernuechternd. ATI sagte damals "off the record" dass sie ein sehr attraktives Preis-/Leistungs Nivaeu haben werden und die Nebennotiz dass sie die "bessere" DX10 Implementierung haben klang nicht besonders ueberzeugend. Geometry shading war besser angelegt auf R600 aber das Ding nur auf 4z/clock zu begrenzen war eine kriminelle Designentscheidung. Das letztere war zwar zu dem Zeitpunkt nicht bekannt aber die erste unabhaengige Meldung sprach von verbuggten ROPs. Was es jetzt wirklich war ist heute ziemlich egal.

Und bevor es jemand sagt ich hab AMD mehrere Male ueber die GF100 TMUs angesprochen; keine einzige Antwort heisst entweder dass sie noch keine klare Einschaetzung wagen wollen oder dass sie wissen dass es kein ernsthafter Nachteil sein wird.

Mein worst case scenario: GF100 hat eine quasi 1:1 Kopie von den AF relevanten Optimierungen auf RV7x0. Wie zum Teufel klagt man in dem Fall die Konkurrenz an ueber Leistungsunterschiede zwischen "high quality" AF und default "quality" AF auf einer GF100, wenn man selber nicht das Ausschalten von nur AF Optimierungen (unabhaengig von anderen Optimierungen) erlaubt?

Und ja fuer mich persoenlich im Fall wo der Leistungsunterschied zwischen HQ und Q AF auf GF100 ueber den Grenzen meiner Toleranz liegt im Vergleich zu GT200/80, ist es erstmal ein gewaltiger Minuspunt fuer persoenliche zukuenftige Kaufentscheidungen. Eben weil bei mir IQ um zich Male wichtiger ist als Stromverbrauch.

Sticheleien gegenüber Fermi sind nicht erlaubt sonst fliegt man? :rolleyes: Jehova?

Kommt auf die Art und Anzahl der Sticheleien an und das egal in welche Richtung. Bei B3D bekam vorgestern jemand einen ban fuer einen relativ unschuldigen Scherz; da dieser harmlose Scherz aber bei jemand das Glas ueberflutete kam es zur radikalen Massnahme eines Ban.

Sind aber auch nicht vergleichbare Faelle; 3DC ist in diesem Fall nicht so streng (welches sowohl Vor- als auch Nachteile hat) wenn man erstmal bedenkt dass Gastbeitraege erlaubt sind.

Es bleibt, wie es ist. Es ist davon auszugehen, dass es an den Treibern liegt, wenn man überlegt, zu welchem Zeitpunkt diese Videos entstanden.

Wie oft hast Du schon auf video eine in Echtzeit laufende 3D Szene aufgenommen?

Du implizierst ich hätte versucht meine IP zu verstecken. Das stimmt nicht. Ich war einfach zu faul mich einzuloggen bzw. zu registrieren. Kannst gerne meine alten "Gast" Beiträge noch zum Account hinzufügen.

Nein so war es nicht gemeint. Dein Ton hat sich zwischen Deinen Gastpostings und seit Du Dich registriert hast nicht geaendert. Dazu noch ueber provokative Gastpostings nach Deiner Registrierung zu meckern ist wohl was genau? Jedes Mal wo Du Dich fuehlst dass ein anderer Beitrag ausser Linie liegt kannst Du Dich gerne jederzeit an mich oder jeden anderen Mod wenden oder den Beitrag einfach melden.

Ich kann Dich nur bitten so sachlich wie moeglich zu bleiben und ich oder andere werden dann schon aufkehren wenn mal Mist ankommen sollte.

Na, wo liegen eigentlich die Schätzungen wann die 1/2 fermis als GTS kommen. Ich werfe mal 3 Monate nach fermi launch in den Ring.

Steht es so auf den vendor roadmaps? ;)

Nakai
2010-01-26, 09:28:00
Ja und nein. Verdammt vereinfacht drueck ein Auge zu fuer dual chip und Du hasst 4 rasters auch auf Hemlock vs. Fermi. Der Vergleich hinkt zwar sehr aber wenn NV einen XXX-SP veroeffentlicht (kein 512SP minus reduzierten Einheiten) der sich gegen Cypress stellen soll dann wird dieser wohl schwer 4 raster haben oder?

Eher wohl nicht.:freak:

Ich sehe trotz allem nicht dass RV8x0 insgesamt mangelhaft positioniert ist. Natuerlich gibt es stets Raum fuer Verbesserungen aber das macht jeder IHV mit der Zeit so oder so.


Ja derzeit liegt ATI noch gut da. Es ist ja auch immer eine Frage der Konkurrenz, welche auf dem Markt ist. NV hat ja ein bisschen gepennt in letzter Zeit. RV870 ist zwar ein netter Chip, aber irgendwas muss da doch der Flaschenhals sein. Ich weiß nicht was, aber irgendwo ist der Wurm drin. Mit doppelt sovielen Einheiten 40% bis 60% Mehrleistung zu liefern ist einfach nicht verhältnismäßig.

HD5850 vs. HD5870 zeigt es doch relativ gut. HD5870 liegt etwa 30% vorne, reinher von der Rohleistung. Schafft es aber nur sich etwa 20% abzusetzen.
Wenn den Takt der HD5850 anhebt kann man schon auf HD5870-Performance kommen. Irgendwo bremst was aus, was nicht mit den ROPs, TMUs und SPs skaliert.

Eine ziemlich merkwuerdige Skalierung fuer GF10x da die TMUs diesmal in den SMs hocken. Natuerlich wird es wohl schon moeglich die TMU Anzahl flexibel zu gestalten, aber es ist trotzdem logischer dass es 32TMUs bei 8 clusters sind als 64. Die area und Stromverbrauch sind dann vielleicht die ersten Faktoren die winken koennten.

Mhh, abwarten. NV hat den kleineren Karten das Design auch immer etwas optimiert. Also hier und da ein TF oder TA hinzugefügt. Mal schaun was kommt.


mfg

Armaq
2010-01-26, 10:03:33
Ich frage nochmal: Ist etwas über die Optimierung der Textureinheiten bekannt geworden?

Ailuros
2010-01-26, 10:04:14
Ja derzeit liegt ATI noch gut da. Es ist ja auch immer eine Frage der Konkurrenz, welche auf dem Markt ist. NV hat ja ein bisschen gepennt in letzter Zeit. RV870 ist zwar ein netter Chip, aber irgendwas muss da doch der Flaschenhals sein. Ich weiß nicht was, aber irgendwo ist der Wurm drin. Mit doppelt sovielen Einheiten 40% bis 60% Mehrleistung zu liefern ist einfach nicht verhältnismäßig.

Wir brauchen neue Spiele.

Ich frage nochmal: Ist etwas über die Optimierung der Textureinheiten bekannt geworden?

Nein leider nicht.

menace @ gast
2010-01-26, 10:07:35
Kommt auf die Art und Anzahl der Sticheleien an und das egal in welche Richtung. Bei B3D bekam vorgestern jemand einen ban fuer einen relativ unschuldigen Scherz; da dieser harmlose Scherz aber bei jemand das Glas ueberflutete kam es zur radikalen Massnahme eines Ban.


Verstehe mich nicht falsch. Sticheleien gegen Personen können gerne Konsequenzen haben. Bei Sticheleien gegenüber Grafikkarten, die im Spekulationsmodus sich noch befinden, halte ich es imho für eine "Überreaktion". Mehr Gelassenheit bzgl. der spekulierten Leistung der Karte würde nichts schaden, vor allem auch von Leuten, die es schon besser wissen. Die Fermi wird schon noch kommen und für sich selbst sprechen und meiner Meinung nach verstummt dann auch die (meiste) Kritik.


Wie oft hast Du schon auf video eine in Echtzeit laufende 3D Szene aufgenommen?


Mea Culpa. Tombmans Erklärung leuchtet mir auch ein. Ich denke nur, dass in der fertigen Karte kein Ruckeln mehr zu sehen sein wird (vielleicht auch nur Hoffnung).

Ailuros
2010-01-26, 10:33:31
Verstehe mich nicht falsch. Sticheleien gegen Personen können gerne Konsequenzen haben. Bei Sticheleien gegenüber Grafikkarten, die im Spekulationsmodus sich noch befinden, halte ich es imho für eine "Überreaktion". Mehr Gelassenheit bzgl. der spekulierten Leistung der Karte würde nichts schaden, vor allem auch von Leuten, die es schon besser wissen. Die Fermi wird schon noch kommen und für sich selbst sprechen und meiner Meinung nach verstummt dann auch die (meiste) Kritik.

Das B3D Beispiel war kein Zufall; angenommen Du spammst und trollst mir tagtaechlich im Forum rum, ich warne Dich immer und immer wieder dann kann selbst die bloedeste Kleinigkeit jemand dazu fuehren dass er endlich einen Strich zieht. Es ging mir ja nicht um uweskw's Beitrag, sondern um zu erklaeren dass eine jegliche Strafmassnahme tiefere Gruende haben wird als nur ein Fehlschlag oder eine geringe Anzahl dieser.

Mea Culpa. Tombmans Erklärung leuchtet mir auch ein. Ich denke nur, dass in der fertigen Karte kein Ruckeln mehr zu sehen sein wird (vielleicht auch nur Hoffnung).

http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=3&DemoTech=POWERVR%20Video&#ViewPort

Ob windowed oder full screen merkst Du irgend etwas? Es ruckelt hier auf jeden Fall nicht die Wiedergabe auf den Bildschirmen.

Grestorn
2010-01-26, 10:47:35
Verstehe mich nicht falsch. Sticheleien gegen Personen können gerne Konsequenzen haben. Bei Sticheleien gegenüber Grafikkarten, die im Spekulationsmodus sich noch befinden, halte ich es imho für eine "Überreaktion". Mehr Gelassenheit bzgl. der spekulierten Leistung der Karte würde nichts schaden, vor allem auch von Leuten, die es schon besser wissen. Die Fermi wird schon noch kommen und für sich selbst sprechen und meiner Meinung nach verstummt dann auch die (meiste) Kritik. Polemische Sticheleien gegen ein Produkt fördern die konstruktive Diskussion bestimmt auch nicht. Sie nerven nur. Was man als Leser dieses Threads eigentlich will, ist über das Potential der neuen GeForce Modelle zu diskutieren und nicht irgendwelches abfälliges Gemurmel von Leuten, die bei bestimmten Produkten und Firmen nur Schwarz und Weiß sehen können.

deekey777
2010-01-26, 14:34:22
Das ist der zukünftige Weg. Wurde auch vom Chefentwickler bei nVidia in Aussicht gestellt.
GF100 zeigt ja, wohin die Reise gehen könnte. Jetzt hat man vier "kleine" GPUs in einem riesigen Die - je mit einer Setup-Engine, vier eigenen Geometrieienheiten, 4SM und 64kb L1 Cache. Alle vier Prozessoren kommunizieren über den L2 Cache miteinander und erhalten die Informationen über den GigaThread Engine. Jedenfalls nVidia wird diesen Weg in Zukunft weiter voranschreiten.
Interessant.
Was war dann ein GT200? 30 kleine GPUs auf einem Die?
:facepalm:

...
Und nein Fermi ist auch kein "Multichip on a Die". Zumindest nicht mehr oder weniger als alle anderen GPUs auch.

Ailuros
2010-01-26, 14:43:21
Interessant.
Was war dann ein GT200? 30 kleine GPUs auf einem Die?

Die SMs sind aber um einen Schnitt unabhaengiger geworden, aber auch das ist zu grob vereinfacht und koennte zu Missverstaendnissen fuehren. In der weiteren Zukunft wuerde mich eine noch groessere "De-Zentralisierung" von SMs nicht wundern.

Eine der wichtigen Fragen ist wie die Polymorph engine (auf die 16SMs "verteilt") genau operiert und es gibt diesbezueglich eine ziemlich interessante Debatte bei B3D. Ein Aufruf an alle die ein paar Schaetzungen fuer das Zeug auflegen koennen denn das video Zeug ist in der Zwischenzeit langweilig geworden ;)

Ailuros
2010-01-26, 14:59:11
Was sollen TBDRs daran grossartiges aendern wenn der einzige IHV der sich damit beschaeftigt sich ausschliesslich auf den eingebetteten Markt konzentriert (und sich daran auch nichts aendern wird)?

Es ist zwar schoen dass ihr die AFR/MR Debatte alle geniest, aber mir waere es lieber wenn Ihr einen Neuen Thread dafuer aufmacht. Danke

Exxtreme
2010-01-26, 15:17:45
Die AFR/Microruckler&Co.-Diskussion geht hier weiter:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=475762

Gast
2010-01-26, 16:06:52
Hallo;

ich habe mal eine kurze Frage bzgl. der Setup-engine im Fermi. Die kann ja bis zu 4 Polygone pro Takt "erzeugen". Wie funktioniert das eigentlich?

Schließlich muss ja für jedes Polygon die Überdeckung etc.. ermittelt werden, damit es keine Rendering-Fehler gibt. Wenn jetzt 4 Polygone gleichzeitig in der Pipeline sind (und es sich nicht um einen TBDR handelt) dann kann das doch große Probleme machen, da man nie ausschließen kann, das sich einzelne Polygone, die gleichzeitig die Rendering-Pipeline durchlaufen, gegenseitig überdecken. Der Z-Buffer hilft hier ja nicht wirklich weiter, da er viel zu spät dran ist und bei kleinen Polygonen sollte auch der onchip Hierarchische Z-Buffer nicht so viel bringen, weil er zu "grobkörnig" ist.

Oder bin ich hier auf dem Holzpfad? ;)

Coda
2010-01-26, 16:10:00
Also der Z-Buffer hilft schon, wenn er aktiviert ist. Das Problem sind eher Fälle in denen kein Z-Test durchgeführt wird.

Dann muss auf jeden Fall gewährleistet werden, dass die Fragmente in der richtigen Reihenfolge rausgeschrieben werden. Dazu benötigt man wohl einen Reorder-Buffer nach den ALUs.

Gast
2010-01-26, 16:13:36
Hallo;

ich habe mal eine kurze Frage bzgl. der Setup-engine im Fermi. Die kann ja bis zu 4 Polygone pro Takt "erzeugen". Wie funktioniert das eigentlich?

Schließlich muss ja für jedes Polygon die Überdeckung etc.. ermittelt werden, damit es keine Rendering-Fehler gibt. Wenn jetzt 4 Polygone gleichzeitig in der Pipeline sind (und es sich nicht um einen TBDR handelt) dann kann das doch große Probleme machen, da man nie ausschließen kann, das sich einzelne Polygone, die gleichzeitig die Rendering-Pipeline durchlaufen, gegenseitig überdecken. Der Z-Buffer hilft hier ja nicht wirklich weiter, da er viel zu spät dran ist und bei kleinen Polygonen sollte auch der onchip Hierarchische Z-Buffer nicht so viel bringen, weil er zu "grobkörnig" ist.

Oder bin ich hier auf dem Holzpfad? ;)

What NVIDIA has done is made the GF100 more parallel than any GPU to date, obviously making it even less serialized. NVIDIA claims 8X the geometry performance of GT 200. This re-ordering of the graphics pipeline caused an increase of 10% of the die size and from our understanding of the issue, is the reason GF100 is "late." The problem with all this moving about of the pipeline is that now you have a Tessellator and Triangle Setup in each SM and GPC so all your Triangles that get setup are all setup out of order. All of the triangles now need to get setup and then put back together in the proper order at the end of the pipeline. There are caches to alleviate bottlenecks, and nothing in this process has to touch the local RAM on the video card. NVIDIA explained, while not in detail, that this out of order issue left many hurdles much higher than expected.
http://hardocp.com/article/2010/01/17/nvidias_fermi_gf100_facts_opinions

Vielleicht hilft das ein bisschen.
Alles andere ist wohl zZ noch Spekulationen, da nVidia nichts weiteres gesagt hat.

Gast
2010-01-26, 17:01:48
Der Z-Buffer hilft hier ja nicht wirklich weiter, da er viel zu spät dran ist und bei kleinen Polygonen sollte auch der onchip Hierarchische Z-Buffer nicht so viel bringen, weil er zu "grobkörnig" ist.


Der Z-Buffer bringt hier schon etwas, durch diesen ist es ja schlussendlich egal in welcher Reihenfolge die Polygone gerendert werden, am Ende bleibt immer das mit dem geringsten Z-Wert übrig.

Was natürlich passieren kann ist, dass Early-Z nicht mehr greift, wenn das vordere Polygon noch irgendwo in der Pipeline ist, aber nicht fertig ist.

Problematisch wird es allerdings dann wenn man sich nicht auf den Z-Buffer verlassen kann. Beispielsweise beim Alpha-Blending muss sichergestellt sein, dass das vordere Polygon wirklich erst dann gerendert wird, wenn das dahinterliegende bereits im Framebuffer liegt.

Deinorius
2010-01-26, 17:47:32
Eine Frage von einem Laien in der Richtung: Mir ist aufgefallen, dass die Transistoranzahl beim GF100 im Verhältnis der Shaderanzahl zur vorigen Generation nicht wirklich, eigentlich gar nicht gestiegen ist. Während bei ATI beim RV870 die Transistoranzahl um 24-25 % höher als nur das Doppelte ausfällt, was nur richtig ist, da immerhin neue Features hinzugekommen sind.

Wenn ich jetzt aber denke, was alles beim GF100 hinzugekommen ist, die Transistoranzahl aber im Verhältnis relativ gleich hoch ist wie beim G92b, muss nvidia ja sehr effizient designt haben.
Entweder die wirkliche Transistoranzahl ist doch um einiges höher als derzeit bekannt, oder ich hab was übersehen.

mapel110
2010-01-26, 17:49:36
Dafür hat man offenbar weniger Textureinheiten verbaut und dort massiv eingespart. Aber das muss sich erst noch rausstellen, denke ich.

Gast
2010-01-26, 18:23:17
Der Vergleich zur Vorgängergeneration ist hier ziemlich schwer, da sich doch einiges geändert hat.


Zum einen dürfte DP@ half-speed deutlich teurer als die paar dezidierten DP-Einheiten von G200 sein.

Eingespaart hat man offensichtlich auf anderen stellen. Ua. fehlt nun das zusätzliche MUL pro Cuda-Core, und auch die Reduktion bei den TMUs dürfte einiges sparen.

Gipsel
2010-01-26, 18:40:21
AMD's Schaetzungen fuer GF100 sind wohl um einiges zuverlaessiger als NVIDIA's.
Das drucke ich aus und rahme mir ein! ;) :lol:

Coda
2010-01-26, 18:51:19
Ua. fehlt nun das zusätzliche MUL pro Cuda-Core, und auch die Reduktion bei den TMUs dürfte einiges sparen.
Das fehlt physikalisch nicht, es ist nur nicht mehr ansprechbar. Der Grund dafür ist, dass man in dem Takt in dem man die SFUs dafür anwirft auch einfach ein MUL auf den ALUs ausführen könnte. Für die Interpolation braucht man die Einheiten aber trotzdem.

Bei G80 war das noch sinnvoll, da SFU und ALUs abwechselnd Befehle vom Scheduler bekamen.

Man kann durchaus auch ohne Funktionalität zu reduzieren Platz und Transistoren sparen. ATI hat's beim RV770 ja vorgemacht.

StefanV
2010-01-26, 19:00:55
Man kann durchaus auch ohne Funktionalität zu reduzieren Platz und Transistoren sparen. ATI hat's beim RV770 ja vorgemacht.Da hat man aber (nicht benötigte/benutzte) Funktionen entsorgt.

deekey777
2010-01-26, 19:03:53
Da hat man aber (nicht benötigte/benutzte) Funktionen entsorgt.
Und neue hinzugefügt.

GASTurbine
2010-01-26, 21:03:30
Ja ein neuer Chip und ein neues GraKa-Monster, was viel Leistung hat, viel Strom verbrauchen wird und viele Euros kosten wird. Applaus!

Kann mir Jemand sagen, was das Besondere an dem Ding sein wird, falls es überhaupt etwas gibt? Oder muß ich über 500 Seiten lesen um das heraus zu finden?

Bietet dieses Ding für den ganz normalen User irgendeine revolutionäre Neuerung? Oder anders gefragt: Was sind denn die revolutionären Neuerungen, die dieses Ding abgesehen von der Leistung bringen wird?

Gast
2010-01-26, 21:28:20
Das "Ding" wie du es bezeichnest ist auch nie für "normalen User" entwickelt und angedacht worden. Das ist eine HighEnd-Gaming-Graka und da geht es nunmal in erster Linie um Leistung und momentan besonders um DX11. Wenn du kein Gamer bist, ist GF100 für dich sowieso vollkommen uninteressant.

Gast
2010-01-26, 21:45:04
Ja ein neuer Chip und ein neues GraKa-Monster, was viel Leistung hat, viel Strom verbrauchen wird und viele Euros kosten wird. Applaus!

Kann mir Jemand sagen, was das Besondere an dem Ding sein wird, falls es überhaupt etwas gibt? Oder muß ich über 500 Seiten lesen um das heraus zu finden?

Bietet dieses Ding für den ganz normalen User irgendeine revolutionäre Neuerung? Oder anders gefragt: Was sind denn die revolutionären Neuerungen, die dieses Ding abgesehen von der Leistung bringen wird?
Für mich ist ein normaler User jemand, der seinen PC zu Filme schauen, Internet surfen und Instantmassaging benutzt.
Dafür braucht man keine dedizierte Grafikkarte.

Gast
2010-01-26, 22:27:19
weis einer wann die Karten vorgestellt werden?

wann gibts ein Test bei CB

GASTurbine
2010-01-26, 22:42:46
Dann stell ich die Frage mal anders: Was bringt das Ding für den normalen PC-Zocker?
Ich sehe hier einen Thread über 500 Seiten. Da frage ich mich doch warum?
Hat diese neue Generation von Chips irgendwas Besonderes?

Black-Scorpion
2010-01-26, 22:52:09
Wäre es nicht sinniger die Frage nach Test auf CB bei CB zu stellen?
Ich gehe doch auch nicht zu VW und frage wann der neue Mercedes kommt.

=Floi=
2010-01-26, 22:56:34
Ja derzeit liegt ATI noch gut da.


die stehen noch, denn NV hat ja noch nicht einmal zugeschlagen. ;D ;)



Mein worst case scenario: GF100 hat eine quasi 1:1 Kopie von den AF relevanten Optimierungen auf RV7x0. Wie zum Teufel klagt man in dem Fall die Konkurrenz an ueber Leistungsunterschiede zwischen "high quality" AF und default "quality" AF auf einer GF100, wenn man selber nicht das Ausschalten von nur AF Optimierungen (unabhaengig von anderen Optimierungen) erlaubt?

Und ja fuer mich persoenlich im Fall wo der Leistungsunterschied zwischen HQ und Q AF auf GF100 ueber den Grenzen meiner Toleranz liegt im Vergleich zu GT200/80, ist es erstmal ein gewaltiger Minuspunt fuer persoenliche zukuenftige Kaufentscheidungen. Eben weil bei mir IQ um zich Male wichtiger ist als Stromverbrauch.



das ergibt doch keinen sinn. du schreibst ja, dass sogar extra rops für das TAA abgestellt wurden und da verschwendet man dann so viele transistoren dafür und setzt hier schon auf bessere BQ und bei den TMUs spart man das dann wieder rein? das widerspricht jeglicher logik.

nebenbei freue ich mich wirklich, dass die TAA-performance weiter gesteigert wurde. das ist für mich eines der wichtigesten BQ features. Es ist bisher leider viel zu teuer.

---
würden eigentlich die (wenigen) TMUs nicht mehr limitieren, wenn man gar nicht mehr füllrate braucht, weil bisher der flaschenhals wo anders war?! thema 8xAA+TSAA bei sehr hoher vegetation?

Gast2
2010-01-26, 22:56:58
CB wird nichts sagen, da sie unter NDA stehen.
Was willst du eigentlich mit dem CB Test? Die bei CB werden die Karte nicht würdig testen, sondern ihren Default mehr oder weniger durchspielen. Das gibt nur einen groben Überblick, einen den andere Seiten wie PCGH oder ht4u oder all die ausländischen genauso bieten.

mapel110
2010-01-26, 23:02:30
---
würden eigentlich die (wenigen) TMUs nicht mehr limitieren, wenn man gar nicht mehr füllrate braucht, weil bisher der flaschenhals wo anders war?! thema 8xAA+TSAA bei sehr hoher vegetation?
Texturfüllrate war und ist immer noch wichtig. Desto älter das Game, desto wichtiger. Und ich denke, für SSAA ist es wohl auch wichtig. Ich habe die Befürchtung, dass nvidia vor allem deswegen kein SSAA (auch die Hybriden) nicht mehr anbieten wird, um einem Vergleich mit den Radeons in dem Bereich aus dem Weg zu gehen.

Bucklew
2010-01-26, 23:39:58
Dann stell ich die Frage mal anders: Was bringt das Ding für den normalen PC-Zocker?
Mehr Power!

y33H@
2010-01-26, 23:50:04
Nur Power alleine ist *gähn* Ich will auch Features - internes Downsampling mit Filter-Wahl etwa.

Gast
2010-01-27, 00:16:35
was hat denn das mit dem L2-Cache auf sich? Dient der nur dem GPU-Computing, oder kann der auch was für schnellere Grafikberechnung bringen?

Gast
2010-01-27, 00:19:31
was hat denn das mit dem L2-Cache auf sich? Dient der nur dem GPU-Computing, oder kann der auch was für schnellere Grafikberechnung bringen?

Ja, wird z.B. für Tessellation verwendet. Die Daten bleiben alle "on-die" und müssen nicht über den DRAM gehen. Auch beschleunigt es die Physik-Beschleunigung.

deekey777
2010-01-27, 00:55:37
Nur Power alleine ist *gähn* Ich will auch Features - internes Downsampling mit Filter-Wahl etwa.

Und was willst du mit diesem minderwertigen Mist?

Es ist... Oh Wunder: OGSSAA. Natürlich ist es immernoch besser als gar nichts, aber in den Himmel loben, wie es getan wird, kann nur falsch sein.
Hier sieht man den Unterschied zwischen 4x SGSAA und 2x2 OGSSAA:
http://www.ixbt.com/video3/rv870-quality.shtml#p5

Es würde mich nicht wundern, wenn Nvidia RG/SGSSAA anbietet und das ohne Einschränkungen wie bei der HD5000-Serie.

Gast
2010-01-27, 01:28:22
Und was willst du mit diesem minderwertigen Mist?

Es ist... Oh Wunder: OGSSAA. Natürlich ist es immernoch besser als gar nichts, aber in den Himmel loben, wie es getan wird, kann nur falsch sein.
Hier sieht man den Unterschied zwischen 4x SGSAA und 2x2 OGSSAA:
http://www.ixbt.com/video3/rv870-quality.shtml#p5

Es würde mich nicht wundern, wenn Nvidia RG/SGSSAA anbietet und das ohne Einschränkungen wie bei der HD5000-Serie.

wenn ich das jetzt richtig verstanden hab dann ist fermy da aber nicht schneller als g200?
warum sollten sie es dann anbieten?

Blaire
2010-01-27, 03:27:54
Es ist... Oh Wunder: OGSSAA. Natürlich ist es immernoch besser als gar nichts, aber in den Himmel loben, wie es getan wird, kann nur falsch sein.
Hier sieht man den Unterschied zwischen 4x SGSAA und 2x2 OGSSAA:
http://www.ixbt.com/video3/rv870-quality.shtml#p5


Die Hybridmodis (MSAA+OGSSSAA) sind sehr gut auch im Vergleich mit 4x/8xSGSSAA leider bleiben diese dort unberücksichtigt...
Das 4xSGSSAA besser als 2x2OGSSAA aussieht überrascht jetzt nicht wirklich, 4x4 OGSSAA find ich auch besser als 8xSGSSAA auch wenn der Vergleich natürlich hinkt.

Ailuros
2010-01-27, 07:04:48
Das drucke ich aus und rahme mir ein! ;) :lol:

Manchmal sind die bloedesten Feststellungen naeher an jeglicher Realitaet ;) Gerne wenn's Dir passt :D

------------------------------------------------------------------------------------------------------------

TMUs bzw. Filterung bei einer IQ/performance Relation:

Ich hab lediglich meine Vorbehaltungen dank zu wenigen Informationen diesbezueglich. Es kann durchaus sein dass es keinen Grund zur Unruhe gibt, aber ich habe nach wie vor ein muerbes Gefuehl.

------------------------------------------------------------------------------------------------------------

Antialiasing, Supersampling und co.

Bevor bekannt wurde dass Transparenz-AA (kurz TAA um Platz zu sparen) auch auf CSAA erweitert wurde, hatte ich eine kurze Debatte mit Carsten im B3D Forum ueber 8xMSAA. Carsten sagte mehr oder weniger dass der Nutzen von 8xMSAA gegenueber 4xMSAA fraglich sei (Carsten entschuldige falls ich es falsch verstanden habe) und ich wendete ein dass ich mehr als oefters 8xMSAA brauchen kann da mir bei alpha tests (ueberhaupt bei filigranem Zeug durch diese) die 8xTAA samples die ich dadurch dazuschalten kann durchaus nutzvoll sind.

Im Vergleich zu 2xMSAA glaettet 4xMSAA zugegeben viel mehr als 8xMSAA im Vergleich zu 4xMSAA. So viel duerfte klar sein; aber wenn mir jetzt eine Spielszene vollgepumpt mit feinen Zaeunen oder Baeumen mit zahllosen Blaettern die mit alpha tests generiert werden hab ich ohne TAA so viel Unruhe im Bild dass ich Augenkrebs bekomme. In diesem Fall war bis heute (egal ob Radeon oder GeForce) 8xMSAA durchaus nutzvoll weil man eben 8xTAA dazuschalten konnte und ein um einiges groesseres Prozentual von alpha test aliasing beseitigen im Vergleich zu 4xTAA.

Als ich in 2006 fragte warum NV nicht TAA auf alle 16x samples erweitert trotz 4xMSAA + 12 coverage waren die Antworten zwischen "es ist nicht moeglich weil blah blah blah" und "ich glaube Du spinnst mal wieder". Komischerweise ist es moeglich und wir haben die Erweiterung in GF100. Beim letzteren sehe ich nicht unbedingt Grund 32xCSAA (8xMSAA + 24xCSAA) zu benutzen, da logischerweise 16xCSAA (4xMSAA + 12x CSAA) schon 16xTAA erlauben sollte und ergo gleich 2x Mal so viel TAA samples als bisher mit 8xMSAA kombiniert. Ob man jetzt in jeweiligen Faellen TMAA oder TSAA benutzt ist eine Frage von Qualitaet im Bezug zur Leistung oder noch besser die Anzahl an alpha tests pro Szene. Bei so vielen TAA samples ab 16xCSAA wuerde es mich aber nicht wundern dass mit TSAA die alpha test Texturen um einiges schwammiger sein koennten als mit TMAA da der LOD offset fehlt fuer TSAA (oder hab ich da was falsch verstanden?) Da aber TAA adaptives AA im Grund ist kann es sein dass es in Echtzeit nebensaechlich ist.

Wenn ich jetzt zu Supersampling komme bleibt jetzt die eigentliche Frage fuer was ich es als User genau haben will. Alpha tests? Siehe oben und selbst wenn eine Szene mit diesen vollgestopft ist ist TSAA immer noch billiger als FS-SSAA und man hat den Luxus bis auf 32x sparsed grid TAA zu steigen. Shader aliasing? Nicht die Angelegenheit vom Treiber IMHO; hier sollte der ISV fuer selektives SSAA in der Applikation sorgen. Unterfilterung? Auch nicht die Angelegenheit von Supersampling; der Treiber sollte da trilinear liefern wo es von der Applikation verlangt wird.

Schaerfere Texturen bzw. negativer LOD durch SSAA LOD offsets? Hier kann man halt machen. Durchaus ein Grund fuer FS-SSAA. Aber dafuer brauch ich nicht unbedingt sparsed grid supersampling, da mir die bisherigen hybriden MS/SSAA dieses liefern koennen ohne dass es gigantische EER Unterschiede gibt fuer polygon edges/intersections (wofuer der MSAA Anteil mitsorgt). Und nein einen 8*8 EER wie bei 8xSGSSAA wird mir z.B. 16xS nicht liefern, aber das letzte ist auch um einiges brauchbarer als 8xSSAA.

Frage: ist es fuer NV eigentlich theoretisch so leicht wie bei Radeons die TSAA samples auf Vollbilld zu schleussen durch den Treiber oder haette NV noch einen algorithmischen bzw. hw Zusatz gebraucht? Im ersten Fall waere es laecherlich wenn sie kein SGSSAA anbieten im zweiten Fall hatten sie einfach marketing-technisch Pech.

IMHO sollte hier jeder bei einem zukuenftigen Kaufsdilemma ab Maerz zwischen einer GF10x und einer Evegreen GPU wissen was er genau haben will und wofuer. Niemand kann mir oder jemand anderen aufdraengen was er haben will, ergo sollte jeder selber wissen welche Loesung seinen Bedarf am besten deckt.

----------------------------------------------------------------------------------------------------------------

Zurueck zur AF Leistung: ich hab keinen einzigen Zweifel dass der "high quality" AF modus auf GF100 noch existiert. Die brennende Frage ist ob die Leistung zwischen HQ und driver default Q genauso wenig einbricht wie bisher und dieses werden wir leider erst wohl nach dem launch feststellen koennen. Auf jeden Fall gibt es nach wie vor die Option die jeweiligen AF Optimierungen abzuschalten und stoerende Nebeneffekte durch Unterfilterung erstmal beseitigen zu koennen. Und ich persoenlich lege mehr Wert auf AF Qualitaet in Kombination mit der Leistung im Vergleich zu antialiasing weil ich immer noch mehr polygon interior data auf dem Bildschirm habe in Spielen (und haben werde fuer einige Zeit in die Zukunft) als polygon edge/intersections.

My 2 cents und wie immer ich lass mich gerne eines besseren belehren.

Gast
2010-01-27, 07:23:34
Der Z-Buffer bringt hier schon etwas, durch diesen ist es ja schlussendlich egal in welcher Reihenfolge die Polygone gerendert werden, am Ende bleibt immer das mit dem geringsten Z-Wert übrig.


Dann brauchst du aber im Endeffekt auch die 4-fache Z-Buffer Bandbreite, oder? Das würde dann die Effizienz der 4-fachen Setup-Engine massiv beschränken.

Könnte hier der L2-Cache helfen? Wenn Fermi einen großen Teil des Z-buffers ( bis zu 128 x 128 x 32bit + 4xMSAA = 256KB) direkt in den L2-Cache holt und dann bei kleinen Polygonen die Z-Werte aus diesem aus dem L2-Cache abgleicht sollte das ganze besser funktionieren, oder auch nicht.... ????

Gast
2010-01-27, 07:36:43
Mein konstantes Fragezeichen und moegliches grosses "aber" fuer GF100 sind die TMUs. Ich kann nur bezweiflen dass jegliches gather4 hier den Tag retten kann. Und die These von meinem Freund neliz dass es 128 und 64 dieser deaktiviert ist natuerlich total falsch.

Wäre auch zu kurios. :)

Aber, es bleibt IMHO das Fragezeichen hinter der Entscheidung 64 TAs auf halben Takt mit 64 TUs (?) auf vollem Shadertakt zu kombinieren. Warum das ganze? Wollten sie ursprünglich auch die TAs auf vollem Shadertakt laufen lassen und das hat nicht geklappt (Latenzen etc...) oder gibt es aus deiner Sicht andere Gründe für diese Entscheidung?

Ailuros
2010-01-27, 08:27:34
Wäre auch zu kurios. :)

Aber, es bleibt IMHO das Fragezeichen hinter der Entscheidung 64 TAs auf halben Takt mit 64 TUs (?) auf vollem Shadertakt zu kombinieren. Warum das ganze? Wollten sie ursprünglich auch die TAs auf vollem Shadertakt laufen lassen und das hat nicht geklappt (Latenzen etc...) oder gibt es aus deiner Sicht andere Gründe für diese Entscheidung?

Dass TA auf 1/2 hot clock laufen sollen und TF auf hot clock hoere ich zum ersten Mal, aber mit all der diesbezueglichen Verwirrung ist wohl nichts mehr auszuschliessen. Aber wenn dem so ist wie Du es beschreibst dann wuerde es meine Unruhe fuer AF erstmal entsorgen denn 64TF * =/>1.45GHz = 92.8.

In diesem Fall leidet sowohl trilinear als auch 2xAF nur minimal weil es eben wie auf G80 eine 2:1 Relation zwischen TF und TA geben wuerde, nur eben diesmal durch die Frequenzen und nicht mit der Anzahl der Einheiten (G80 = 32TA/64TF) reguliert.

***edit: Dass es auf GF100 insgesamt 64 TA und 64 TF sind bin ich so sicher wie ich sein kann. Die Entscheidung auf nur 4 TMUs pro SM zu reduzieren liegt IMHO an der Tatsache dass durch (4 offset) gather 4 die TMUs (u.a.) viel mehr in hw kosten als bei GT200.

Ja ein neuer Chip und ein neues GraKa-Monster, was viel Leistung hat, viel Strom verbrauchen wird und viele Euros kosten wird. Applaus!

Kann mir Jemand sagen, was das Besondere an dem Ding sein wird, falls es überhaupt etwas gibt? Oder muß ich über 500 Seiten lesen um das heraus zu finden?

Bietet dieses Ding für den ganz normalen User irgendeine revolutionäre Neuerung? Oder anders gefragt: Was sind denn die revolutionären Neuerungen, die dieses Ding abgesehen von der Leistung bringen wird?

Von der Leistung abgesehen hilft:

DX11 Komplianz inklusive einer alternativen Implementierung von adaptiver Tesselation im Vergleich zur Konkurrenz.
DX11 jittered texture sampling.
Bis zu 32xAA, wobei diesmal bis zu 32x sample Transparenz AA eingeschaltet werden kann. Hoehere Effizienz mit 8xMSAA im Vergleich zu heutigen GeForces.
Ein sehenswerter Zusatz im Bereich Geometrie im Vergleich zu heutigen GeForces.
Effizientere Datenverwaltung bzw. Taktungen/Domain im Vergleich zu heutigen GeForces.
Surround vision fuer SLi configs (*ultragaehn*)

etc etc.

Ob all dieses wirklich revolutionaer ist subjektive Ansichtssache; es koennte auch jemand unter revolutionaer verstehen dass eine GPU Kaffee kocht. Und wenn man sich dann in solchen Debatten verzweigt kann man wohl die Vergleiche zu den Aenderungen von konkurrierenden Loesungen nicht vermeiden und man kommt dann zu Irrsinn wie "revolutionaerer als" und co.

GF100 ist IMHO eine normale Evolution zu existierenden GPUs und der Grad von jeglicher "Revolution" wird eher vom Grad der Revolution/Evolution vom DX11 API definiert als alles andere.

Gast
2010-01-27, 08:38:51
Dass TA auf 1/2 hot clock laufen sollen und TF auf hot clock hoere ich zum ersten Mal, aber mit all der diesbezueglichen Verwirrung ist wohl nichts mehr auszuschliessen. Aber wenn dem so ist wie Du es beschreibst dann wuerde es meine Unruhe fuer AF erstmal entsorgen denn 64TF * =/>1.45GHz = 92.8.


OK, wenn du das heute zum ersten Mal hörst heißt das dann wohl, das ich was falsch verstanden habe. :)

V2.0
2010-01-27, 08:40:57
Gab es nicht mal die Gerüchte dass sie 1XTA und 4xTF können.

Ailuros
2010-01-27, 09:06:30
Gab es nicht mal die Gerüchte dass sie 1XTA und 4xTF können.

While the GT200 has 80 texturing units, the GF100 only has 64. Although we imagine they will be clocked slightly higher, the theoretical throughput will be lower than those for the GTX285 version of the GT200. With the GF100, NVIDIA has decided to increase only processing power in the same way as AMD did a little while ago. More texturing units generally means improved performance in current and older games. The relatively high number of texture filtering units was crucial in terms of the success of the G80 that gave excellent performance as of launch.

NVIDIA has therefore tried to get the most out of its units and will have to do the same with its drivers, which will be a lot of work as all current optimisations will have to be reviewed. At the hardware level, integration of the units in the SMs means improved efficiency according to NVIDIA. The texturing units still have a dedicated cache of 12 KB in read which is similar to the previous architecture which had 24 KB but for groups of 8 units.

Rates are similar overall to units of the previous architecture when filtering, of whatever sort, is used: 4x INT8 in 1 cycle, 4x FP16 in 2 cycles, 4x FP32 in 4 cycles. Without filtering however, FP16 and INT16 are up to full speed, NVIDIA having noticed that loads of non-filtered textures (or which need a special filter created in the shader) were becoming more common. This optimisation costs very little in terms of transistors but may double speeds in some cases. Low quality 32-bit HDR formats such as the R9G9B9E5 and the R10G10B10A2 are still processed at the same speed as FP16 whereas according to our results, with the Radeon HD 5000s AMD has modified its units to process them at full speed.

http://www.behardware.com/articles/782-5/nvidia-geforce-gf100-the-geometry-revolution.html

Each rasterizer can throughput up to 8 pixels per cycle or 64 samples in 8x antialiasing.

It is interesting to note that although the triangle throughput of the GF100 has increased by a factor of 4, the rasterization rate is identical to the GT200 or the Radeon HD 5800s: 32 pixels per cycle in all or 256 samples with 4x antialiasing. If triangles consist of more than 8 pixels, they’re rasterized in several cycles. Does this boil down to the same thing? Not really because the GF100 will be up to 4x faster with small triangles. It will also automatically have a more efficient Z-Cull as smaller zones will be tested for visibility.

http://www.behardware.com/articles/782-4/nvidia-geforce-gf100-the-geometry-revolution.html

y33H@
2010-01-27, 10:02:05
@ deekey777

Ich weiß, dass DS OGSSAA ist :rolleyes: Nur dummerweise kommst du ohne DS in Spielen, die kein AA können (GTA4) oder auf DX10/DX11 setzen, nicht weit. Daher wäre DS per Treiber/ALUs fein.
Es würde mich nicht wundern, wenn Nvidia RG/SGSSAA anbietet und das ohne Einschränkungen wie bei der HD5000-Serie. Die GPUs könnens ja, ist nur die Frage obs freigeschaltet wird.

Ailuros
2010-01-27, 10:09:47
Die GPUs könnens ja, ist nur die Frage obs freigeschaltet wird.

Theoretisch ja. Die Frage ist aber ob in jeglichem Fall es sich nur um einfachen Treiber-Hack handelt.

Gast
2010-01-27, 13:23:13
Dass TA auf 1/2 hot clock laufen sollen und TF auf hot clock hoere ich zum ersten Mal, aber mit all der diesbezueglichen Verwirrung ist wohl nichts mehr auszuschliessen.

Es muss etwas in der Richtung sein, was zu einem TA:TF-Verhältnis von 1:2 führt, ob über den Takt oder doppelte TF-Hardware sollte für die Leistung erstmal egal sein.

Anders wäre die prognostizierte Steigerung von 40-70% einfach nicht möglich, so viel können sie nicht durch irgendwelche fragwürdigen "Optimierungen" einsparen.

Das ganze passt auch sehr gut zur angeblichen Leistungssteigerung. Um auf die 70% zu kommen wären in etwa 1450MHz notwendig, was durchaus plausibel erscheint.

Ailuros
2010-01-27, 13:34:20
Es muss etwas in der Richtung sein, was zu einem TA:TF-Verhältnis von 1:2 führt, ob über den Takt oder doppelte TF-Hardware sollte für die Leistung erstmal egal sein.

Es sind definitiv nur 64 TF Einheiten.

Anders wäre die prognostizierte Steigerung von 40-70% einfach nicht möglich, so viel können sie nicht durch irgendwelche fragwürdigen "Optimierungen" einsparen.

Das ganze passt auch sehr gut zur angeblichen Leistungssteigerung. Um auf die 70% zu kommen wären in etwa 1450MHz notwendig, was durchaus plausibel erscheint.

http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMV8yNV9sLmdpZg==

http://www.hardocp.com/image.html?image=MTI2MzYwODIxNHh4VHN0ekRuc2RfMl8xOF9sLmdpZg==

Sie erwaehnen aber auch texturing performance. Zwar machen Deine Gedanken oben einen sehr guten Punkt, aber ich bin damit immer noch nicht ganz beruhigt.

Tesseract
2010-01-27, 13:57:06
Die Hybridmodis (MSAA+OGSSSAA) sind sehr gut auch im Vergleich mit 4x/8xSGSSAA leider bleiben diese dort unberücksichtigt...
Das 4xSGSSAA besser als 2x2OGSSAA aussieht überrascht jetzt nicht wirklich, 4x4 OGSSAA find ich auch besser als 8xSGSSAA auch wenn der Vergleich natürlich hinkt.

der vergleich ist sowieso äpfel-mit-birnen weil ati mindestens 4xRGSS braucht um bei gefährlichem content überhaupt an die texturfilterung von nvidias HQ (+MS) ranzukommen - traurig aber wahr.

Ailuros
2010-01-27, 14:02:49
der vergleich ist sowieso äpfel-mit-birnen weil ati mindestens 4xRGSS braucht um bei gefährlichem content überhaupt an die texturfilterung von nvidias HQ (+MS) ranzukommen - traurig aber wahr.

Supersampling beseitigt keine Unterfilterung sondern es wird durch das downsampling nur marginal besser.

Du kannst kinderleicht einen Fall nehmen wo unterfiltert wird und auf einer GeForce mit AF Optimierungen einmal mit und einmal ohne Supersampling ausprobieren. Der Gegenvergleich aber diesmal mit "HQ AF" wird ein Augenoeffner sein.

Gast
2010-01-27, 14:16:16
der vergleich ist sowieso äpfel-mit-birnen weil ati mindestens 4xRGSS braucht um bei gefährlichem content überhaupt an die texturfilterung von nvidias HQ (+MS) ranzukommen - traurig aber wahr.

Was für eine Übertreibung. Mit 4xSSAA flimmert praktisch nichts mehr, davon ist auch NVs HQ bei fiesen Texturen noch weit entfernt.

Gast
2010-01-27, 14:18:14
Supersampling beseitigt keine Unterfilterung sondern es wird durch das downsampling nur marginal besser.

Du kannst kinderleicht einen Fall nehmen wo unterfiltert wird und auf einer GeForce mit AF Optimierungen einmal mit und einmal ohne Supersampling ausprobieren. Der Gegenvergleich aber diesmal mit "HQ AF" wird ein Augenoeffner sein.

Falsch. Die mehrfache Sampleanzahl bei SSAA beseitigt natürlich jegliche Unterfilterung.

Tesseract
2010-01-27, 14:29:57
Supersampling beseitigt keine Unterfilterung sondern es wird durch das downsampling nur marginal besser.
natürlich beseitigt SS die unterfilterung. ob der SS-grad allerdings ausreicht wenn die eigentliche filterung schon viel zu schlecht ist, ist eine andere geschichte.

Was für eine Übertreibung. Mit 4xSSAA flimmert praktisch nichts mehr, davon ist auch NVs HQ bei fiesen Texturen noch weit entfernt.
das ist keine übertreibung, das hab ich ausprobiert und zwar nicht auf screenshots sondern in bewegung. 2xRG reicht definitiv NICHT aus um nvidias HQ niveau zu erreichen. (nur bezogen auf texturfilterung)

Gast
2010-01-27, 14:38:03
der vergleich ist sowieso äpfel-mit-birnen weil ati mindestens 4xRGSS braucht um bei gefährlichem content überhaupt an die texturfilterung von nvidias HQ (+MS) ranzukommen - traurig aber wahr.
AMD verliert bei SSAA Schärfe.

Würde AMD nicht die Schärfe verlieren, würde es wie eh und je aussehen, bzw flimmern.

Gast
2010-01-27, 14:41:29
natürlich beseitigt SS die unterfilterung. ob der SS-grad allerdings ausreicht wenn die eigentliche filterung schon viel zu schlecht ist, ist eine andere geschichte.


das ist keine übertreibung, das hab ich ausprobiert und zwar nicht auf screenshots sondern in bewegung. 2xRG reicht definitiv NICHT aus um nvidias HQ niveau zu erreichen. (nur bezogen auf texturfilterung)

2x reicht noch nicht mal aus um überhaupt irgendwelche Treppchen los zu werden...egal ob NV oder ATI.

Gast
2010-01-27, 14:43:20
AMD verliert bei SSAA Schärfe.

Würde AMD nicht die Schärfe verlieren, würde es wie eh und je aussehen, bzw flimmern.

Das ist nur bei ATI so? Oder ist das nicht Game bedingt?

Zumindest bei mir von 10 Games haben das 2.......dann kommt narrow-tent dazu und scharf isses.

Tesseract
2010-01-27, 14:43:41
AMD verliert bei SSAA Schärfe.
nein. zumindest nicht mit dem aktuellen treiber. (außer du stellst einen tent-modus ein aber das hat damit nix zutun; oder es ist ein spezielles problem vom spiel und liegt an irgendwelchen postfiltern oder sowas)

2x reicht noch nicht mal aus um überhaupt irgendwelche Treppchen los zu werden...egal ob NV oder ATI.
es geht nicht um treppen sondern um die texturfilterung.

Gast
2010-01-27, 14:59:06
ach ne.....
Treppen und SSAA ist ja ne ganz neue Mischung..der Kram macht nur Sinn ab 4x

Dural
2010-01-27, 15:03:35
mhhh mein händler hat diese woche haufenweise GTX285 rein bekommen... :rolleyes:

Gast
2010-01-27, 15:09:02
nein. zumindest nicht mit dem aktuellen treiber. (außer du stellst einen tent-modus ein aber das hat damit nix zutun; oder es ist ein spezielles problem vom spiel und liegt an irgendwelchen postfiltern oder sowas)AMD verscheibt das LOD mit neuen Treibern, aber nicht so weit wie "möglich", bzw. so weit wie es Nvidia tut.
Dadurch wird der Effekt erzielt, das das AF Geschummel weniger auffällt.

Das ist nur bei ATI so? Oder ist das nicht Game bedingt?

Das ist nur bei AMD so.
Siehe oben.

Nightspider
2010-01-27, 15:09:03
So es steht sozusagen fest:

Bis zum Ende des Jahres brauchen wir mehr Grafikpower, denn dann werden Grafikkarten an dem neuen Grafik-Thron Crysis 2 gemessen:


Crysis 2...
...
Zur Technik :
Cryengine 3
PS3, Xbox 360 und PC.
Wird die beste Grafik bieten die man auf allen 3 Plattformen je gesehen hat, im zusammenspiel mit Sound, Physik und KI.

Auf dem PC wird es deutlich mehr Lichtquellen geben. HDR Rendering, Global Illumination und Deferred Lightning sollen zusammen mit Ambient Occlusion eine passende dynamische Beleuchtung erzeugen.Texturen sollen sehr hoch aufgelöst sein und zusammen mit Paralaxx Mapping die Spielewelt weiter verschönern.
Das Wasser wird durch eine realistische Wellen und Wind Simulation so echt wie noch nie dargestellt.
Die Charaktere und die KI wurden nochmal bearbeitet, Licht kann durch Haut dringen und die Mimik wurde verbessert. Skeletteanimationen sollen noch menschlicher wirken und die KI soll noch schlauer geworden sein.
Es soll eine interaktive zerstörbare Umgebung und Physik geben, die mithilfe von Mehrkernunterstützung voll ausgenutzt werden soll ( heißt also das fast alles zerstörbar ist? )
Volle DX11 Unterstützung wird vermutet, ist aber nicht bestätigt.

Ich ahne schon das 1,5 GB VRAM für Crysis 2 bei meinen Einstellungen zu wenig sind. :ulol:

Sonyfreak
2010-01-27, 15:26:37
Ich ahne schon das 1,5 GB VRAM für Crysis 2 bei meinen Einstellungen zu wenig sind. :ulol:Ich nehme mal an, dass auch Fermi-Karten mit 3GB Grafikspeicher auf den Markt kommen werden. ;)

mfg.

Sonyfreak

Nightspider
2010-01-27, 15:29:54
Ich nehme mal an, dass auch Fermi-Karten mit 3GB Grafikspeicher auf den Markt kommen werden. ;)

mfg.

Sonyfreak


Glaube ich ehrlich gesagt nicht. Zumindest nicht im 1. Halbjahr 2010.

Selbst mit Crysis ist es schwierig 1,5 GB voll zu bekommen ohne das man im Einstelligen FPS Bereich liegt.

y33H@
2010-01-27, 15:32:34
@ Nightspider

Lies mal auch die PCGH, da steht mehr zur Technik drin ;-) Auch, das DL und DX11 für mehr Fps sorgen *g*

Raff
2010-01-27, 15:40:06
Ich ahne schon das 1,5 GB VRAM für Crysis 2 bei meinen Einstellungen zu wenig sind. :ulol:

Dann ahne ich mal dagegen, dass das Spiel wegen der speicherarmen Konsolen ressourcenschonender werkelt. ;)

MfG,
Raff

Gast
2010-01-27, 15:42:08
Dann ahne ich mal dagegen, dass das Spiel wegen der speicherarmen Konsolen ressourcenschonender werkelt. ;)

Willst du damit andeuten das Crysis 2 hässlicher als Crysis 1 aussehen wird?

X.Perry_Mental
2010-01-27, 15:49:07
Willst du damit andeuten das Crysis 2 hässlicher als Crysis 1 aussehen wird?
Was hat ressourcenschonend mit hässlich zu tun?

y33H@
2010-01-27, 15:51:26
Willst du damit andeuten das Crysis 2 hässlicher als Crysis 1 aussehen wird? Das Konsolen-Crysis-2 im Vergleich zum PC-Crysis-1? Ja.

Gestrandet
2010-01-27, 15:55:21
Licht kann durch Haut dringen
Cool, nach SSAO kommt jetzt SSSSS ^^
(screen space sub surface scattering)

deekey777
2010-01-27, 15:58:53
Cool, nach SSAO kommt jetzt SSSSS ^^
(screen space sub surface scattering)
Das kann schon Crysis 1. Vielleicht ohne SS, aber mit SSS.

Palpatin
2010-01-27, 16:06:08
Ich nehme mal an, dass auch Fermi-Karten mit 3GB Grafikspeicher auf den Markt kommen werden. ;)

mfg.

Sonyfreak
Dürfte dann aber richtig knapp werden mit der TDP, wieviel mehr Saft brauchen die 1,5 GB mehr in etwa?

BlackFog
2010-01-27, 16:10:45
Es gibt immer noch die Möglichkeit einer 3Slot Karte, dann klappts auch mit 3GiB Ram. :freak:

derguru
2010-01-27, 16:12:13
bevor 1,5gb gebraucht wird geht die rechenleistung eh schon zugrunde.

deekey777
2010-01-27, 16:26:16
bevor 1,5gb gebraucht wird geht die rechenleistung eh schon zugrunde.
Aber natürlich...

mictasm
2010-01-27, 16:28:03
bevor 1,5gb gebraucht wird geht die rechenleistung eh schon zugrunde.
... sprach der Spieler mit dem 17"-Monitor...

Gast
2010-01-27, 16:28:16
bevor 1,5gb gebraucht wird geht die rechenleistung eh schon zugrunde.

GF100 hat doppelt soviel Speicher, aber mehr als 4x soviel MADD-Leistung als die 8800GTX. Deine Aussage macht also keinen Sinn.

Gast
2010-01-27, 16:28:53
Texturfüllrate war und ist immer noch wichtig. Desto älter das Game, desto wichtiger. Und ich denke, für SSAA ist es wohl auch wichtig. Ich habe die Befürchtung, dass nvidia vor allem deswegen kein SSAA (auch die Hybriden) nicht mehr anbieten wird, um einem Vergleich mit den Radeons in dem Bereich aus dem Weg zu gehen.


spätestens mit metro 2033 wird man vergleichen können.
denn dieses wird ssaa via dx11 bieten.

derguru
2010-01-27, 16:40:24
Aber natürlich...
bei crysis 2 bestimmt.
... sprach der Spieler mit dem 17"-Monitor...knapp daneben.
GF100 hat doppelt soviel Speicher, aber mehr als 4x soviel MADD-Leistung als die 8800GTX. Deine Aussage macht also keinen Sinn.
und?der verbrauch vom ram bei spielen hat sich doch kaum geändert,pfff.
komm mir nit mit hd mods oder so vermurkste gta klons.

Nightspider
2010-01-27, 16:51:47
@ Nightspider

Lies mal auch die PCGH, da steht mehr zur Technik drin ;-) Auch, das DL und DX11 für mehr Fps sorgen *g*

Ich hab die PCGH im Abo ;) Die neue kommt aber erst am Samstag bzw. Anfang nächster Woche. :(

Dann ahne ich mal dagegen, dass das Spiel wegen der speicherarmen Konsolen ressourcenschonender werkelt. ;)

MfG,
Raff

Dann ahne ich mal, dass das nix damit zu tun hat, das die PC Version deutlich schärfere Texturen haben wird und durch bessere Grafikeffekte ey mehr VRAM benötigt. Vor allem bei hohen Auflösungen. ;)

bevor 1,5gb gebraucht wird geht die rechenleistung eh schon zugrunde.

Mit einer Karte vllt...spätestens bei 2 Karten reicht die Leistung und der VRAM reicht nicht aus. ;)

GF100 hat doppelt soviel Speicher, aber mehr als 4x soviel MADD-Leistung als die 8800GTX. Deine Aussage macht also keinen Sinn.

Die prozentuale Zuwachs des VRAMs ist über Generationen immer niedriger als die Leistung.
Weil man prozentual auch mehr Leistung benötigt um den Speicher voll zu bekommen.

Gast
2010-01-27, 16:55:31
knapp daneben.
18" aber dafür kein AA und Texturenauflösung auf niedrig?

Gast
2010-01-27, 17:58:23
und?der verbrauch vom ram bei spielen hat sich doch kaum geändert,pfff.
komm mir nit mit hd mods oder so vermurkste gta klons.


Warum wohl? Vielleicht weil es kaum Grafikkarten mit genügend Speicher gibt?

Der VRAM-Verbrauch hat mit der Rechenleistung nichts zu tun, prinzipiell kann man den VRAM immer voll bekommend mit ausreichend großen oder vielfältigen Texturen, Rechenleistung wird dafür kaum mehr gebraucht.

mapel110
2010-01-27, 18:05:41
Warum wohl? Vielleicht weil es kaum Grafikkarten mit genügend Speicher gibt?

Der VRAM-Verbrauch hat mit der Rechenleistung nichts zu tun, prinzipiell kann man den VRAM immer voll bekommend mit ausreichend großen oder vielfältigen Texturen, Rechenleistung wird dafür kaum mehr gebraucht.
Genau, selbst eine 8800 GT hat 1024 MB gut nutzen können. Beispiel PT Boats. Es hängt nur von den Entwicklern ab, was sie für Texturen beilegen.

derguru
2010-01-27, 18:19:35
eben es hängt von den entwicklern ab ,sieht man ja jetzt bei mass effect 2 oder auch mit sicherheit bei bioshock2,da genügt sogar eine poplige 8800gt 512mb karte für max details in 1920*1200.
und ich sag ja nur das 1,5gb erstmal locker reichen werden,bei ssaa steigt der ramverbrauch kaum an im gegensatz zur rechenleistung.welches kommende spiel soll denn von 3gb profitieren demnächst,erzähl?

y33H@
2010-01-27, 19:30:04
* 88GT ohne (!) AA.

Ailuros
2010-01-27, 20:29:36
natürlich beseitigt SS die unterfilterung. ob der SS-grad allerdings ausreicht wenn die eigentliche filterung schon viel zu schlecht ist, ist eine andere geschichte.

Netter Widerspruch in einem Paragraph nichtdestominder. Koennen wir dabei bleiben dass wenn eine Applikation trilinear z.B. vorraussetzt dass auch trilinear gefiltert wird? Solchen Krampf mit SSAA zu loesen ist wohl die bloedeste Fuellraten-Verschwendung ueberhaupt.

das ist keine übertreibung, das hab ich ausprobiert und zwar nicht auf screenshots sondern in bewegung. 2xRG reicht definitiv NICHT aus um nvidias HQ niveau zu erreichen. (nur bezogen auf texturfilterung)

Kommt auf den Grad der Unterfilterung an und den Blickwinkel. Bei extremen Faellen werden die problematischen Stellen selbst mit 4xSSAA keineswegs so gut behandelt wie bei normaler Filterung. Je hoeher die sample Anzahl desto hoeher der LOD offset, wobei diese auch eine Verschiebung der problematischen Stellen bedeuten koennte. Wie dem auch sei da die Mehrzahl der heutigen Texturen in heutigen Szenen immer noch bilinear sind, kostet trilinear fuer das insgesamt relativ kleine Anwendungsgebiet weder 1/2 noch 1/4 oder sogar mehr der eigentlichen Fuellrate.

Genau, selbst eine 8800 GT hat 1024 MB gut nutzen können. Beispiel PT Boats. Es hängt nur von den Entwicklern ab, was sie für Texturen beilegen.

Wenn Du eine jegliche GPU mit so viel Speicher haben willst um jegliche moegliche Aussnahme zu decken dann wirst Du wohl auf vendor spezifische Versionen warten muessen und am dementsprechenden Aufpreis kauen.

Tesseract
2010-01-27, 21:31:32
Koennen wir dabei bleiben dass wenn eine Applikation trilinear z.B. vorraussetzt dass auch trilinear gefiltert wird? Solchen Krampf mit SSAA zu loesen ist wohl die bloedeste Fuellraten-Verschwendung ueberhaupt.
natürlich trilinear. es geht mir nur um den unterschied zwischen nvidia(HQ) und ati bei ansonsten identischen settings. die stellen, die bei ati total unterfiltert sind sehen mit SS gleich um einiges ruhiger aus.

Kommt auf den Grad der Unterfilterung an und den Blickwinkel. Bei extremen Faellen werden die problematischen Stellen selbst mit 4xSSAA keineswegs so gut behandelt wie bei normaler Filterung.
wie gesagt: die ungünstigen stellen. also z.B. flacher boden mit relativ hochfrequenten texturen. (allerdings aus der praxis, keine konstruierte szene)

Gast
2010-01-28, 00:32:43
GF100 - RV870
Crysis Warhead 1920x1200 8xAA/16xAF
29 fps - 19 fps
Dirt2 1920x1200 4xAA/16AF DX11
54 fps - 43 fps
Battleforge 1920x1200 4xAA/16AF DX11
47 fps - 39 fps

Grestorn
2010-01-28, 00:59:55
GF100 - RV870
Crysis Warhead 1920x1200 8xAA/16xAF
29 fps - 19 fps
Dirt2 1920x1200 4xAA/16AF DX11
54 fps - 43 fps
Battleforge 1920x1200 4xAA/16AF DX11
47 fps - 39 fps

Diese Leistungssteigerungen wären sehr beeindruckend. +50% bei Crysis... hätte ich gar nicht erwartet.

Sollte das wirklich stimmen, dann wäre es wirklich gut. Dass nicht bei jedem Spiel solche Leistungssteigerungen zu erwarten sind, ist vollkommen klar. Schließlich hängt kaum ein Bench so stark an der GPU.

derguru
2010-01-28, 01:15:14
nie und nimmer allein die crysis warhead werte,rooofl.

die 5870 ist schon in den settings doppelt so schnell wie eine 285gtx,so übertrieben waren nicht mal die nv pr folien.;D

also fast 3 mal so schnell wie eine 285gtx,hehe dann träumt mal weiter.:rolleyes:

Grestorn
2010-01-28, 01:19:28
die 5870 ist schon in den settings doppelt so schnell wie eine 285gtx,so übertrieben waren nicht mal die nv pr folien.;D8xAA... da ist der Abstand zum G200 ja kein Wunder.

derguru
2010-01-28, 01:24:26
8xAA... da ist der Abstand zum G200 ja kein Wunder.
wieso gabs dann in den pr folien nur ein bescheidenes bis doppelt so schnell unter 8aa und nicht gleich 3 mal so schnell;)
im ernst da postet einer irgend welche zahlen die er geträumt hat und keiner fragt nach quellen aber gleich davon träumen,ok das darf man ja:rolleyes:

Gast
2010-01-28, 01:24:33
nie und nimmer allein die crysis warhead werte,rooofl.

die 5870 ist schon in den settings doppelt so schnell wie eine 285gtx,so übertrieben waren nicht mal die nv pr folien.;D

also fast 3 mal so schnell wie eine 285gtx,hehe dann träumt mal weiter.:rolleyes:

Warst du nicht der Typ, der hier auf HAWX werte gezeigt hat, die ebenfalls dem PR widersprochen haben? Nunja, die waren dir ziemlich billig.
Und das nVidia 29 FPS in den Einstellungen nicht schaffen sollte: Wenn sie 80% schneller als die GTX285 in 4xMSAA sind, dann erreichen sie bei CB.de 31 FPS. Mit einem effizienteren 8xMSAA Modus sind 29 FPS möglich.

Grestorn
2010-01-28, 01:28:08
wieso gabs dann in den pr folien nur ein bescheidenes bis doppelt so schnell unter 8aa und nicht gleich 3 mal so schnell;)
im ernst da postet einer irgend welche zahlen die er geträumt hat und keiner fragt nach quellen aber gleich davon träumen,ok das darf man ja:rolleyes:

Die Werte waren ja dazu gedacht, den angeblich bescheidenen Vorsprung der GF100 zu demonstrieren ... :) Ich glaube aber auch nicht so recht an die Verlässlichkeit der Zahlen.

Der Vorsprung zum HD5 kann bei 8xAA ja nicht größer als sonst sein. Andererseits wird eine HD5 eine G200 unter 8xAA immer massiv abhängen, und das war ja Dein Beispiel. Das ist nun wirklich nicht neu.

Nightspider
2010-01-28, 01:34:54
Nvidia hat ja angeblich stark an der Performance von *8AA gefeilt.
Hat zudem noch eine dickere Bandbreite und einen 50% größeren VRAM.

Ich halte die Werte für möglich. Vielleicht skaliert Crysis ja gut mit der neuen Architektur.
Das Crysis ein Paradebeispiel werden könnte wurde ja glaube auch schon gesagt, da Fermi bei Dreicksberechnung stark beschleunigt wurde und Crysis, wie wir alle wissen, einen hohen Polycount hat.

Ich sag nicht das es stimmt aber ich halte die ~50% (19->29fps) durchaus für möglich.

derguru
2010-01-28, 01:35:06
Ich würde gerne die Quelle zu den geposteten Zahlen wissen.

der malt sich bestimmt gerade eine exeltabelle zurecht,kommt gleich bestimmt;)


Ich sag nicht das es stimmt aber ich halte die ~50% (19->29fps) durchaus für möglich.

unter 4AA glaub ich das sofort prozentual aber nie und nimmer unter 8AA.
weil man dann in den folien gesehen hätte wo stände bis zu 3 mal so schnell wie eine 200serie unter 8AA und nicht doppelt so schnell.

naja egal der gast hat sein spass gehabt;)

Coda
2010-01-28, 01:58:34
unter 4AA glaub ich das sofort prozentual aber nie und nimmer unter 8AA.
Die Logik versteh ich jetzt nicht ganz. Wieso sollte Fermi mit deutlich höherer Bandbreite (384 bit SI) nicht gerade bei 8xAA punkten?

Wenn dann sollte sich der Vorsprung bei 4xAA verringern.

derguru
2010-01-28, 02:39:09
Die Logik versteh ich jetzt nicht ganz. Wieso sollte Fermi mit deutlich höherer Bandbreite (384 bit SI) nicht gerade bei 8xAA punkten?

Wenn dann sollte sich der Vorsprung bei 4xAA verringern.

was ist das denn für eine logikvergleich?
wieso kann eine 285gtx mit 512bit si und deutlich mehr bandbreite gerade in 8aa nicht punkten gegenüber einer 4870?
selbe wurst in grün.

fermi punktet ja, aber gegenüber der alten generation.

Coda
2010-01-28, 02:46:26
wieso kann eine 285gtx mit 512bit si und deutlich mehr bandbreite gerade in 8aa nicht punkten gegenüber einer 4870?
Weil 8xAA auf G80-Architektur-Chips nicht gut funktioniert. Zudem hat GT200b durch GDDR3 relativ weniger Bandbreitenvorteil als Fermi ggü RV870. Müssen wir wirklich wieder bei A anfangen?

Ich habe sehr gute Gründe zur Annahme, das dies auf Fermi nicht mehr zutrifft. Die Kompression für 8xAA wird aller vorraussicht nach genauso gut oder besser als bei RV870 funktionieren.

Bekomm mal Abstand von der Sache und Atme tief durch. "Nie und nimmer" ist ein sehr gewagter Spruch in dem Zusammenhang.

derguru
2010-01-28, 02:51:32
Weil 8xAA auf G80-Architektur-Chips nicht gut funktioniert. Müssen wir wirklich wieder bei A anfangen?

Ich habe sehr gute Gründe zur Annahme, das dies auf Fermi nicht mehr zutrifft. Die Kompression für 8xAA wird aller vorraussicht nach genauso gut oder besser als bei RV870 funktionieren.

Bekomm mal Abstand von der Sache und Atme tief durch. Und dann überleg nochmal was realistisch ist.
wenn es so wäre haben die nv leute bei den pr folien untertrieben was die leistung unter 8aa angeht und gewagt ist es auch nicht weil in dem fall eine 5970 kaum noch eine konkurrenz ist oder wäre.(sogar ohne handicap mirkoruckler ect.)

Coda
2010-01-28, 02:54:51
Nur weil etwas auf PR-Folien steht ist es uns also verboten technisch zu argumentieren? Interessante These. Hat schon so manchmal für dumme Gesichter gesorgt.

Und noch was: Du brauchst nicht quoten, wenn der Post direkt darüber steht.

derguru
2010-01-28, 03:03:04
eben seit wann untertreiben pr folien,schonmal erlebt?
deine euphorie wird bald ein ende haben,ist ja nicht mehr auszuhalten das geschwärme.

danke für den tipp;)

Coda
2010-01-28, 03:07:23
Genau *diese* Diskussion will ich hier nicht mehr haben.

Ich bin eh schon seit langem dafür, die Spekulationsforen in eine technische und eine Metadiskussion über PR-Mist und Fanboygrabenkriege aufzuteilen. Da könnt ihr euch dann darüber die Köpfe einschlagen über den letzten Buchstabendreher und die Leute die wirklich ihren Spaß damit haben sich mit Technik zu beschäftigen haben ihre Ruhe.

Ja, es gibt eine relativ hohe Wahrscheinlichkeit, dass Fermi durch geringen Takt untern den Erwartungen bleibt. Das interessiert mich aber nicht. Fermi gibt endlich mal wieder interessantes Futter. RV870 war technisch einfach langweilig.

Du rumpelst hier rein mit "nie nie nie", ohne auch nur mit einer zu überdenken dass es durch die technischen Änderungen durchaus die Möglichkeit für diese Leistungssteigerungen geben könnte. Das ist doch nicht zielführend.

derguru
2010-01-28, 03:31:49
ich rumpel gerne rein wenn hier irgend ein gast fpswerte raushaut ohne quellen zu nennen,was hast du eigentlich für ein problem damit wenn ich nie und nimmer sage,
1.ist das meine subjektive meinung dazu.
2.hab ich es versucht zubegründen wieso ich das nicht glaube und komm nicht mit technischem punkten,ist ja nicht so das du ein fermi zuhause hast.
du glaubst das es hinhaut und ich nunmal nicht und?

Coda
2010-01-28, 03:35:37
hab ich es versucht zubegründen wieso ich das nicht glaube
"Das war bei GT200b schon" ist keine technische Begründung.

Das setzt vorraus, dass du jeglichen technischen Fortschritt an der Stelle bei Fermi von vornherein als nicht möglich erachtest und genau die Metadiskussion die ihr von mir aus gerne in der Lounge in einem anderen Thread führen könnt.

Weil außer zu provozieren hast du damit hier in der Diskussion nichts von Substanz beigetragen.

derguru
2010-01-28, 03:54:24
es basiert auf keiner technischen begründung sondern meiner logik.
*weil ein einzelner fermi schneller wäre als eine 5970
*warum dann teufel komm raus eine dual im april?
*wie gesagt,wieso nicht pr folien mit bis zu 3 facher leistung unter 8aa gegenüber der alten generation angeben sondern "nur" die doppelte performance.prfolien übertreiben eher als untertreiben oder gibt es seit neustem eine andere taktik?


Weil außer zu provozieren hast du damit hier in der Diskussion nichts von Substanz beigetragen.
der einzige der provoziert hat ist der gast mit seinen bullshit fps werten und hat sogar noch genau das erreicht was er wollte und cu,genug für heute.

Coda
2010-01-28, 03:58:05
*wie gesagt,wieso nicht pr folien mit bis zu 3 facher leistung unter 8aa gegenüber der alten generation angeben sondern "nur" die doppelte performance.prfolien übertreiben eher als untertreiben oder gibt es seit neustem eine andere taktik?
Das macht mich ja auch etwas stutzig. Aber mir wäre es trotzdem lieber wenn wir sowas von der technischen Diskussion abgrenzen könnten (ich stell das gerade auch intern zur Diskussion).

Viele Leute erwarten einen Fail, evtl. ist Understatement deshalb gar keine schlechte Taktik. Auch um die Konkurrenz zu verwirren. Bei G80 wurde das übrigens auch gemacht - zwar nicht mit Performancewerten, aber mit Nebelkerzen bzgl. der Architektur (keine USA usw.)

Ailuros
2010-01-28, 05:39:17
ich rumpel gerne rein wenn hier irgend ein gast fpswerte raushaut ohne quellen zu nennen,was hast du eigentlich für ein problem damit wenn ich nie und nimmer sage,
1.ist das meine subjektive meinung dazu.
2.hab ich es versucht zubegründen wieso ich das nicht glaube und komm nicht mit technischem punkten,ist ja nicht so das du ein fermi zuhause hast.
du glaubst das es hinhaut und ich nunmal nicht und?

Zumindest hat der Beitrag mehr mit dem Thema zu tun als der unendliche Spam-Kaffeekranz von Gaesten den ich gerade geloescht habe. Ich lass es stehen und werde genauso einen anonymen Beitrag stehen lassen der hypothetisch eine GF100 um 50% langsamer zeigt als 5870.

es basiert auf keiner technischen begründung sondern meiner logik.
*weil ein einzelner fermi schneller wäre als eine 5970

Ich bezweifle zwar selber die Werte aber sie koennten kinderleicht handselektierte Faelle sein.
*warum dann teufel komm raus eine dual im april?

Einfach: weil wenn es das Ding wirklich gibt GF100 eben universal Hemlock nicht schlagen kann und der Teufel errrr NVIDIA ist eben zu gierig fuer die bekloppte Leistungskrone. Anders wieso plant AMD eine 5990 angeblich?

*wie gesagt,wieso nicht pr folien mit bis zu 3 facher leistung unter 8aa gegenüber der alten generation angeben sondern "nur" die doppelte performance.prfolien übertreiben eher als untertreiben oder gibt es seit neustem eine andere taktik?

Wird leider alles nur nach dem Launch klarer. Ich kann Dich jetzt aber nicht versichern dass NV mit Absicht einiges konservativ angeschlagen hat obwohl es hinter den Kulissen herumgeistert. Einen guten Grund haetten sie erstmal schon, heisst aber nicht dass ich es auch momentan glaube oder glauben will.

der einzige der provoziert hat ist der gast mit seinen bullshit fps werten und hat sogar noch genau das erreicht was er wollte und cu,genug für heute.

Leider kannst Du nicht mehr sehen wie viel Mist ich gerade entfernte. Deine Aussage ist aber durchaus uebertrieben und die Tatsache dass Du persoenlich bis jetzt nie protestiert hast wenn jemand behauptete dass GF100 auf Gleichstand mit Cypress liegt zeigt mir eine ganz andere Realitaet. 3 Resultate hat er erwaehnt aber die Dirt2 bzw. Battleforge Resultate scheinen keinen zu stoeren.

Wir sehen momentan nur sterile Zahlen; wo und mit was wurde Crysis Warhead genau gemessen? Koennte kinderleicht eine handselektierte cutscene sein die mit fraps gemessen wurde.

Und jetzt ist Schluss mit dem Zeug. Ich hab die Nase voll immer und immer wieder zu bitten so sachlich wie moeglich zu bleiben. Coda: zurueck zum normalen Ton bitte. Keine Aussnahmen.

igg
2010-01-28, 10:29:16
Einfach: weil wenn es das Ding wirklich gibt GF100 eben universal Hemlock nicht schlagen kann und der Teufel errrr NVIDIA ist eben zu gierig fuer die bekloppte Leistungskrone. Anders wieso plant AMD eine 5990 angeblich?
Hm, eine 5990? Wenn der Abstand von Cypress zu GF100 (im Sinne der GXT380) groß genug ist, dürfte eine 5990 eine Dual GF100 doch gar nicht schlagen können.

Gast
2010-01-28, 10:33:45
Hm, eine 5990? Wenn der Abstand von Cypress zu GF100 (im Sinne der GXT380) groß genug ist, dürfte eine 5990 eine Dual GF100 doch gar nicht schlagen können.

Warum?
Beim dual GF100 wird man bestimmt Teile deaktivieren müssen um die TDP einzuhalten.

James Ryan
2010-01-28, 10:34:31
Warum?
Beim dual GF100 wird man bestimmt Teile deaktivieren müssen um die TDP einzuhalten.

NVIDIA deaktiviert niemals Einheiten auf Dual-Karten, sie gehen einfach nur mit dem Takt runter!

MfG :cool:

mapel110
2010-01-28, 10:36:03
NVIDIA deaktiviert niemals Einheiten auf Dual-Karten, sie gehen einfach nur mit dem Takt runter!

MfG :cool:
Bislang gabs doch auch noch nie DualKarten mit deaktivierten Einheiten, oder?!

Gast
2010-01-28, 10:39:23
NVIDIA deaktiviert niemals Einheiten auf Dual-Karten, sie gehen einfach nur mit dem Takt runter!

MfG :cool:

Soso die GTX 295 ist gar nicht von NV wusste ich es doch:D
Taktreduzierung reicht im Leben nicht.
Sollte der GF100 über Cypress im Energiebedarf liegen, müssen auf jeden Fall Einheiten deaktiviert werden.

mapel110
2010-01-28, 10:42:26
Soso die GTX 295 ist gar nicht von NV wusste ich es doch:D
Taktreduzierung reicht im Leben nicht.
Sollte der GF100 über Cypress im Energiebedarf liegen, müssen auf jeden Fall Einheiten deaktiviert werden.
Bei der GTX295 sind iirc nur ROPs deaktiviert worden, hing aber mehr mit dem Speicherinterface als mit Abwärme zusammen.

Botcruscher
2010-01-28, 10:43:50
Anders wieso plant AMD eine 5990 angeblich?


Dazu müsste man erst mal wissen was das überhaupt ist. Womöglich ist es schlicht der Refreshchip. Die logische Frage wäre dann warum man die Karte nicht planen sollte. Mitte des Jahres ist schlicht die Zeit dafür ran.

Gast
2010-01-28, 10:46:44
Bei der GTX295 sind iirc nur ROPs deaktiviert worden, hing aber mehr mit dem Speicherinterface als mit Abwärme zusammen.

Klar deshalb hatten die Versuche zwei vollwertige Gt200b auf eine Karte (z.b MARS) ja so wenig Probleme mit der Abwärme:D

Ailuros
2010-01-28, 10:48:19
Bei der GTX295 sind iirc nur ROPs deaktiviert worden, hing aber mehr mit dem Speicherinterface als mit Abwärme zusammen.

Was genau heisst nur? ROPs sind Einheiten und daher ist die Aussage dass fuer dual GPU configs von NV bisher nichts deaktiviert wurde erstmal falsch. Zweitens sind ROP nicht unabhaengig von der Leistungsfaehigkeit eines chips (schon gar nicht so wie GF100 insgesamt aussieht) und drittens sind ROPs und TMUs unter den empflichsten Einheiten was hohe Frequenzen, Abwaerme und Stromverbrauch betrifft. Sonst haette NV auch gleich die ROPs auf 1/2 hot clock takten koennen.

Dazu müsste man erst mal wissen was das überhaupt ist. Womöglich ist es schlicht der Refreshchip. Die logische Frage wäre dann warum man die Karte nicht planen sollte. Mitte des Jahres ist schlicht die Zeit dafür ran.

Falls es eine 5990 geben wird dann wird sie in etwa das sein zu einer 5890, was heute eine 5970 zu einer 5870 ist. Die eigentliche Frage hier ist wie bei einer hypothetischen "5990" bzw. "GF395" den TDP unter 300W halten kann. Anfuehrungsstriche fuer metaphorisch dumb & dumber ;)

mapel110
2010-01-28, 10:52:29
Und mal abgesehen von den 4 der 32 ROPs, die deaktiviert wurden, gabs sonst noch Dualchips, wo etwas deaktiviert wurde?

Bucklew
2010-01-28, 10:53:54
Klar deshalb hatten die Versuche zwei vollwertige Gt200b auf eine Karte (z.b MARS) ja so wenig Probleme mit der Abwärme:D
Die Mars lief nur auf voller Spannung, das war das Problem.

Ailuros
2010-01-28, 11:00:52
Und mal abgesehen von den 4 der 32 ROPs, die deaktiviert wurden, gabs sonst noch Dualchips, wo etwas deaktiviert wurde?

Ich hab jetzt keinen anderen Fall in Erinnerung; wie dem auch sei der Grund dass 2*285@SLi schneller ist als 1 GTX295 liegt wohl nicht NUR an den niedrigeren Frequenzen der zweiten.

Gast
2010-01-28, 11:15:41
Die Mars lief nur auf voller Spannung, das war das Problem.

Glaubst du tatsächlich dass NV die ROPs deaktiviert hat weil Ihnen ein 2*512bit PCB für eine ~500€ Karte zu teuer war?

Gast
2010-01-28, 11:20:34
Soso die GTX 295 ist gar nicht von NV wusste ich es doch:D
Taktreduzierung reicht im Leben nicht.
Sollte der GF100 über Cypress im Energiebedarf liegen, müssen auf jeden Fall Einheiten deaktiviert werden.
Du weisst nicht, warum der Energiebedarf so hoch ist, wenn er es ist.
Gut möglich, das man viel zu viel Spannung anlegt, um noch ein paar Mhz rauszuquetschen.

Einheiten deaktivieren ist Thermisch unklug, denn dann muss das Ding wieder höher takten und mit höherer Spannung laufen.
Wie man es dreht und wendet, durch Einheitendeaktivierung kommt man nicht weiter als mit Taktsenkung. Taktsenkung alleine reicht, die Frage ist nur, wie weit man den Takt senken muss.

Bei GTX 295 wurden die ROPs wegen dem SI deaktiviert. Dadurch gabs etwas weniger VRAM der heizen konnte und die VRAM Chips + SI unterzubringen war leichter.
Das wird bei GF100 und seinem 384bit SI nicht nötig sein. Höchstens der GDDR5 zieht so zu viel, das man statt 2x1,536MiB auf 2x1280MiB setzt.
Andere Einheiten werden nicht aktiviert.

Gast
2010-01-28, 11:23:15
Glaubst du tatsächlich dass NV die ROPs deaktiviert hat weil Ihnen ein 2*512bit PCB für eine ~500€ Karte zu teuer war?
Die Mars lief auf voller Spannung und GTX 285 Takt und GTX 285 VRAM Bestückung.

Das zieht ganz automatisch deutlich mehr als eine thermisch optimierte GTX 295.
Kombiniert mit dem schlechten Kühler hat es zum Fail geführt, das war abzusehen.

Du glaubst nicht ernsthaft, das Nvidia sich sowenig Gedanken um ihr Flagschiff machen wird, ob es auch tatsächlich die Benches über schnell rennt oder runtertaktet.

James Ryan
2010-01-28, 11:29:52
Die Mars lief auf voller Spannung und GTX 285 Takt und GTX 285 VRAM Bestückung.


Die Mars hat pro GPU jeweils 2 GB VRam verbaut, dürfte auch ordentlich Strom gezogen haben!

MfG :cool:

Ailuros
2010-01-28, 11:33:13
Das wird bei GF100 und seinem 384bit SI nicht nötig sein. Höchstens der GDDR5 zieht so zu viel, das man statt 2x1,536MiB auf 2x1280MiB setzt.
Andere Einheiten werden nicht aktiviert.

Warum wird es nicht noetig sein? Die 285 hat 2*6pin und die 295 6pin+8pin. Da die GF380 6pin+8pin haben wird ueberdenk Dir es nochmal fuer ein moegliches dual chip Gespann aus dem letzteren.

Gast
2010-01-28, 11:35:03
Die Mars lief auf voller Spannung und GTX 285 Takt und GTX 285 VRAM Bestückung.

Das zieht ganz automatisch deutlich mehr als eine thermisch optimierte GTX 295.
Kombiniert mit dem schlechten Kühler hat es zum Fail geführt, das war abzusehen.

Du glaubst nicht ernsthaft, das Nvidia sich sowenig Gedanken um ihr Flagschiff machen wird, ob es auch tatsächlich die Benches über schnell rennt oder runtertaktet.

So Etwas nennt man auch "es war nicht möglich" und genau Das habe ich auch geschrieben.
Es geht ja darum dual GF100 deaktivierte Teile haben wird und es währe ein Wunder wenn nicht.

mapel110
2010-01-28, 11:39:05
Dem gegenüber steht die Aussage von Dave Baumann, dass Deaktivieren von Einheiten kaum Strom einspart.

Gast
2010-01-28, 11:42:41
Dem gegenüber steht die Aussage von Dave Baumann, dass Deaktivieren von Einheiten kaum Strom einspart.

Wie kann der Marketingchef von AMD beurteilen ob die Deaktivierung von Einheiten bei NV Strom spart oder nicht?

Gast
2010-01-28, 11:43:13
So Etwas nennt man auch "es war nicht möglich" und genau Das habe ich auch geschrieben.
Es geht ja darum dual GF100 deaktivierte Teile haben wird und es währe ein Wunder wenn nicht.
Es ist davon auszugehen das nichts deaktiviert wird.
Ob VRAM und daraus resultierend ROPs deaktiviert werden ist nicht so klar. Man könnte meinen das es so kommt, schliesslich hat Nvidia im Vergleich zur 1GiB Konkurrenz noch Luft zum sparen.

Warum wird es nicht noetig sein? Die 285 hat 2*6pin und die 295 6pin+8pin. Da die GF380 6pin+8pin haben wird ueberdenk Dir es nochmal fuer ein moegliches dual chip Gespann aus dem letzteren.
Es hängt davon ab, wie viel man durch das VRAM weglassen spart. Hast du genaue Zahlen zur Hand?

Bei der 295 war es wie gesagt nicht nur aus thermischer Sicht nötig, 32 RAM Chips sind einfach wahnsinnig viel.

Gast
2010-01-28, 11:45:04
Welche Beispiele besonders sparsamer Karten dank deaktivierter Einheiten gibt es?

Spasstiger
2010-01-28, 11:55:32
Eine äquivalente Taktsenkung spart auf jeden Fall mehr Strom als eine Reduzierung der Einheitenzahl, weil die Taktsenkung mit einer Spannungssenkung einhergehen kann.
Ob man die Einheitenzahl reduziert, ist lediglich eine Kostenfrage.

Ailuros
2010-01-28, 12:05:41
Es hängt davon ab, wie viel man durch das VRAM weglassen spart. Hast du genaue Zahlen zur Hand?

Bei der 295 war es wie gesagt nicht nur aus thermischer Sicht nötig, 32 RAM Chips sind einfach wahnsinnig viel.

Nein ich hab keine genaue Zahlen was den VRAM betrifft. Ich weiss lediglich:

GTX285 = 204W TDP
GTX295 = 289W TDP
GF380 = 280W TDP

Der durchschnittliche Stromverbrauch einer 295 (ausserhalb von FurMark) liegt irgendwo um die =/>180W und mal angenommen dass eine 380 aehnlich aussieht, wie genau willst Du das board design gestalten ohne ueber die 300W TDP Grenze zu knallen?

Natuerlich koennte es im extremsten Fall sein dass auf jegliches TDP pfeiffen, aber es macht dann ein IMHO laecherliches Produkt noch laecherlicher.

Angenommen die 380 liegt um die 10% unter der 5970 im Durchschnitt, reicht es fuer die "395" erstmal aus wenn sie um zumindest 25% schneller ist (als die 380) und die 5970 um laecherliche 15% abhaengt. Einen viel besserer Fall als dieser mit den thermischen Kopfschmerzen oben im Hinterkopf ehrlich momentan nicht vorstellen. Anders fuer eine hypothetische "395": weniger cluster mit niedrigeren Frequenzen und leicht kastriertes SI.

Bucklew
2010-01-28, 12:33:52
Glaubst du tatsächlich dass NV die ROPs deaktiviert hat weil Ihnen ein 2*512bit PCB für eine ~500€ Karte zu teuer war?
Ja.

Die Entscheidung für die fehlenden ROPs ist ja vorallem das PCB. Man beachte mal die Größe der Mars PCBs. Den TDP Unterschied zwischen 2xGTX285 und 1xGTX295 erklären auf jeden Fall kaum die fehlenden ROPs.

Man beachte den Vergleich zwischen GTX275 und GTX285, die 275 hat ja genauso viele deaktivierte ROPs wie ein Chip der 295. Die 275 hat sogar die höhere TDP, unterm Strich haben beide fast die gleiche Leistungsaufnahme.

Gast
2010-01-28, 12:41:41
GTX 260 216 = 171W TDP
GTX285 = 204W TDP
GTX295 = 289W TDP
GF380 = 280W TDP

-> GTX 395 < 300W TDP
--> GTX 360 < 200W TDP

Die 295 ist mehr als nur eine doppelte 260 und weniger als eine doppelte 285. Die TDP liegt dennoch unter dem doppelten der 260.

Das übertrage ich auf 395, wobei diese diesmal näher an der 360 liegen muss.
Je nachdem, wo jetzt die 360 liegt auch drunter, also nochmals heftigere Taktsenkung als bei der 295.


Mal anderes herangegangen, was bringt die Einheitendeaktivierung großartiges?
Im Endeffekt muss die TDP runter, ob durch Spannung oder Einheiten ist erstmal egal. Wenn Einheiten linear skalieren, die Spannung quadratisch, dann müsste man GF100 schon fast halbieren. Das kanns nicht sein.

=Floi=
2010-01-28, 12:43:35
die 395er wird sicherlich auf einen geshrinkten chip setzen müssen. alles andereist so nicht möglich.

die frage ist eher ob man bewusst mit der hohen TDP der 380er die 5970er angreiffen will, oder ob der chip von haus aus so viel verbraucht.
So sind wir wieder bei den taktraten... ;)

@ail
ich glaube du bist bei diesem thema besser informiert wie wir. ;)


--
die 295er hat übrigens auch mit die besten chips verbaut.

Spasstiger
2010-01-28, 12:46:02
die 295er hat übrigens auch mit die besten chips verbaut.
Ich wollte es gerade sagen. Dort kommt mit die beste Selektion an GT200b-Chips zum Einsatz.
Siehe auch GTX 275 vs. GTX 285, die GTX 285 ist schneller als die GTX 275 und trotzdem sparsamer.

Gast
2010-01-28, 12:48:47
Natürlich, selektierte GF100 können bei GTX 360 Takt und GTX 380 Einheiten dennoch sparsamer als GTX 360 sein.

=Floi=
2010-01-28, 12:58:47
dafür gibt es aber zz keine vorraussetzungen. die 295er hatte das stepping B3 (!) und war ein shrink. der prozess war viel stabiler und ausgereifter und man konnte ausreichende stückzahlen liefern. (erst dann lohnt sich so eine selektion)
Das und noch vieles mehr ist beim GF100 nicht gegeben. SLi kann man auch einfacher und besser haben. dafür brauche ICH nicht so eine karte.

imho war 295er nur ein "abfallprodukt" von GPGPU.

nv sollte seine energie lieber in einen guten GF100 refresh stecken. Das würde sicherlich mehr bringen.

Ailuros
2010-01-28, 12:59:06
die 395er wird sicherlich auf einen geshrinkten chip setzen müssen. alles andereist so nicht möglich.

Uhmm wie denn wenn das Ding angeblich schon im April kommen soll? A3 kam Anfang Dezember zum fab und irgendwo Mitte Januar wieder zurueck. Gepresst (ergo hergestellt) wird anfang Februar. Vom Januar bis zum April sind es 3 Monate; das reicht gerade noch fuer einen ziemlich knappen metal spin aber keine respin.

die frage ist eher ob man bewusst mit der hohen TDP der 380er die 5970er angreiffen will, oder ob der chip von haus aus so viel verbraucht.
So sind wir wieder bei den taktraten... ;)

Man ersetzte wohl den zweiten Stromstecker nicht mit einem 8pin aus reinem Spass auf der GF380 oder? Ich kann mir nicht vorstellen dass eine 380 auch mit 2*6pin auskommen koennte und man setzte den 8pin ein fuer verrueckte Uebertaktungen.

@ail
ich glaube du bist bei diesem thema besser informiert wie wir. ;)

Ich glaube ich hab alles was ich bisher weiss schon erwaehnt.

die 295er hat übrigens auch mit die besten chips verbaut.

Wie aber schon jemand erwaehnte traegt dieser den B3 respin von GT200b@55nm. Ergo ein metal spin (3) ueber dem B2 respin.

dafür gibt es aber zz keine vorraussetzungen. die 295er hatte das stepping B3 (!)

Eben (siehe oben)

der prozess war viel stabiler und ausgereifter und man konnte ausreichende stückzahlen liefern. (erst dann lohnt sich so eine selektion)

GT200b ist um einiges kleiner als GF100 so wie es aussieht. Sonst sollten Dir die 40G yields im Vergleich zu 65nm nach TSMC keine Sorgen mehr machen.


nv sollte seine energie lieber in einen guten GF100 refresh stecken. Das würde sicherlich mehr bringen.

Was ist zwischen 40G und 28nm genau bei TSMC momentan erhaeltlich?

Bucklew
2010-01-28, 13:04:00
Man ersetzte wohl den zweiten Stromstecker nicht mit einem 8pin aus reinem Spass auf der GF380 oder? Ich kann mir nicht vorstellen dass eine 380 auch mit 2*6pin auskommen koennte und man setzte den 8pin ein fuer verrueckte Uebertaktungen.
Gab es denn schon ein Foto mit einem 6+8pin Stecker von einem Produktionssample? Bisher waren doch alles nur early engineering samples udn da ist es ja normal, dass da erstmal 6+8 drauf sind und später am Produktionsmodell nur 2*6

=Floi=
2010-01-28, 13:18:08
ich meinte eigentlich die bessere taktbarkeit bei niedrigerer spannung. Darum ging es doch gerade hier im thread vor ein paar seiten, als es um GF100 @ A3 ging. :ugly:
man konnte beim 55nm prozess mit dem G92b sicherlich viel erfahrung sammeln. Die 295er chips sind auch von der spannung her mit die besten. B3 war dafür wohl nur der anstoß.

edit
ist "B" dann die bezeichnung beim refresh?! ich dachte beim G200b kamen intern auch noch A1, A2, A3?! damit liege ich wohl falsch.