PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Dural
2009-11-09, 21:47:49
Bei mir zeigt GPU-Z B1 für meine 285 an. Auslesefehler? :confused:

jep, GTX285 und 295 haben alle B3

LovesuckZ
2009-11-09, 21:49:11
Ein A3 auf Release Karten würde auf deftige Probleme hindeuten, kann mir nicht vorstellen das da was mit den Yield Raten dann im Argen liegen würde. G80 war schließlich A2 Release.

Je höher der Respin, umso geringer die Änderungen. Wenn A2 nicht halbwegs vernünftig läuft, dann hilft auch kein A3 mehr. Dann müsste man über ein neues Tape-Out gehen und demnach bei B1 anfangen.

Dural
2009-11-09, 21:54:32
gab es das in jetzter zeit jemals das ein B1 nötig war? kann mich da an nichts erinnern :confused:

Coda
2009-11-09, 22:24:23
Bei mir zeigt GPU-Z B1 für meine 285 an. Auslesefehler? :confused:
Ne, bei GT200b hat der 55nm wohl beim ersten Anlauf funktioniert, deshalb B1.

Triskaine
2009-11-09, 22:31:11
Ne, bei GT200b hat der 55nm wohl beim ersten Anlauf funktioniert, deshalb B1.

Funktioniert ja, aber optimal war es nicht, sonst hätten sie kaum noch zwei weitere Revisionen nachgeschoben.

Gast
2009-11-09, 22:38:45
Also ich hab eine Zotac GTX 285 AMP!

Die ist schon von werk aus mit Overclocking versehen und sie läßt mich nie im stich.
Weder bei GTA4 oder Crysis. alles läuft ohne probleme und GPUz zeigt mir einen B1 an

Triskaine
2009-11-09, 22:44:51
Was GPU-Z anzeigt kannst du in die Tonne treten. Es wird nur eine Datenbank ausgelesen, nicht die Hardware selbst. Ich versichere dir das niemals GTX285 mit einem B1 Chip verkauft wurden. Es wurden überhaupt keine Consumer Karten mit dem B1 verkauft, höchstens Teslas/Quadros.

AnarchX
2009-11-09, 22:48:11
Korrekt, GT200b war erst marktauglich als B2, aber auch nur für GTX 260.
Für 295 und 285 brauchte es dann noch B3.
Ein Blick auf die Karten ohne Kühler verschafft Klarheit.

Noch interessanter ist G96, wo es gar C1 gab. Mehr als 3 Tapeouts für einen 314M Transistorchip ist schon ziemlich übel.

Triskaine
2009-11-09, 22:51:45
Ja, der G96 war eine sehr peinliche Geschichte für das Entwicklerteam das für den zuständig war:biggrin:. Die ersten Chips aus der Fab sind nicht mal gestartet und man hat sehr viele Änderungen gebraucht bis es ging.

Coda
2009-11-09, 22:53:21
Da hab ich gar nichts darüber gehört damals. Gibt's da irgendwelche Links dazu? Würde mich interessieren.

Soundwave1983
2009-11-09, 23:07:12
Noch interessanter ist G96, wo es gar C1 gab

Der nForce 1 MCP ging sogar bis C3, hatte mal so ein Board. :)

Gast
2009-11-09, 23:27:58
Nun ist der Fermi Delay offiziell. Semiaccurate hatte also richtig gelegen.
Siehe: http://www.digitimes.com/news/a20091109PD208.html

LovesuckZ
2009-11-09, 23:32:20
Die "Source" bezieht sich auch nur auf den Conference Call.

Gast
2009-11-10, 08:14:25
Ist echt erschreckend, wie die IT-News im Internet funktionieren. Und schlimmer noch, wieviele Leser nach dem 3. Mal Abschreiben alles als Fakt und Wahrheit akzeptieren. Lassen die sich absichtlich vera****en oder sind die einfach nur dumm?

reunion
2009-11-10, 08:19:00
Ist echt erschreckend, wie die IT-News im Internet funktionieren. Und schlimmer noch, wieviele Leser nach dem 3. Mal Abschreiben alles als Fakt und Wahrheit akzeptieren. Lassen die sich absichtlich vera****en oder sind die einfach nur dumm?

Das war eine offizielle Aussage von Huang am Conference Call. Dumm sind höchstens die Leute welche das noch immer nicht akzeptieren. Das eine solche News natürlich von vielen IT-Seiten aufgenommen wird sollte nun wirklich nicht verwundern. Was anderes ist es wenn irgend ein Bullshit laufend abgeschrieben wird.

Armaq
2009-11-10, 11:55:29
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/november/nvidia_x86-cpu_globalfoundries/

Huang selbst sagt hier relativ direkt, dass er nicht bei GF fertigen lassen will. Soviel dazu.

Undertaker
2009-11-10, 12:16:53
Das ist natürlich ein Rückschlag für beide Seiten - ein großer Kunde für den einen verloren, die Abhängigkeit von TSMC für den anderen verstärkt. Da erst kürzlich die Rede von laufenden Gesprächen war, sind die wohl recht zügig gegen den Baum gegangen.

Was macht eigentlich UMC?

AnarchX
2009-11-10, 12:19:29
Was macht eigentlich UMC?
Ist wohl nur für Low-End-GPUs geeignet, G98 lässt man z.B. dort auch fertigen.

Dural
2009-11-10, 13:57:19
wo habt ihr den das mit dem G96 her??? Ich hab davon noch nie etwas gehört und die ersten Karten wurden ganz klar mit A2 65nm und B1 55nm ausgelierfert!

Vileicht kam danach was neues, aber B1 wurde ganz sicher verkauft!

reunion
2009-11-10, 14:00:57
Das ist natürlich ein Rückschlag für beide Seiten - ein großer Kunde für den einen verloren, die Abhängigkeit von TSMC für den anderen verstärkt. Da erst kürzlich die Rede von laufenden Gesprächen war, sind die wohl recht zügig gegen den Baum gegangen.


Es war zu erwarten, aus den schon vorher genannten Gründen. Und deutlicher als „Globalfoundries is an AMD fab, right?" kann man es kaum sagen was ihm stört. Auch wenn manche hier bis zuletzt davon geträumt haben dass das alles kein Problem wäre.

Undertaker
2009-11-10, 14:21:55
Du interpretierst falsch, dass das nicht auch ein herber Rückschlag für GF ist. Man hatte nach eigenen Bekundungen ebenfalls großes Interesse an Nvidia als Kunde:

http://www.pcgameshardware.de/aid,681690/Globalfoundries-kuendigt-GPU-Produktion-in-32-und-28-nm-Strukturbreite-an/Grafikkarte/News/

"Tom Sonderman von Globalfoundries berichtete in einem Interview mit X-Bit-Labs, das sich die Firma ganz klare Ziele gesteckt hat und seinen Kunden (nicht nur AMD - prinzipiell kann die Firma für jedermann Aufträge annehmen und produzieren) immer die neuste Technologie bieten will. Als Beispiele für Auftraggeber nannte Sonderman Firmen wie Microsoft, Qualcomm und sogar Nvidia"

Anscheinend konnte man in den gescheiterten Gesprächen schlicht nicht glaubhaft versichern, dass Nvidia ein zu ATI absolut gleichberechtigter Kunde wäre. Der einzige, der davon profitiert, ist TSMC. ;)

mapel110
2009-11-10, 14:22:54
http://www.golem.de/0911/71087.html
Nvidia Deutschland bekräftigte auf Anfrage von Golem.de, dass Fermi-GPUs noch 2009 erscheinen sollen. Für welche Serien, erklärte das Unternehmen dabei ebenfalls nicht.

Nach Informationen aus der Hardwarebranche, die Golem.de vorliegen, sollen zuerst zwei Geforce-Karten unmittelbar vor Weihnachten vorgestellt werden.

reunion
2009-11-10, 14:27:38
Du interpretierst falsch, dass das nicht auch ein herber Rückschlag für GF ist. Man hatte nach eigenen Bekundungen ebenfalls großes Interesse an Nvidia als Kunde:

http://www.pcgameshardware.de/aid,681690/Globalfoundries-kuendigt-GPU-Produktion-in-32-und-28-nm-Strukturbreite-an/Grafikkarte/News/

"Tom Sonderman von Globalfoundries berichtete in einem Interview mit X-Bit-Labs, das sich die Firma ganz klare Ziele gesteckt hat und seinen Kunden (nicht nur AMD - prinzipiell kann die Firma für jedermann Aufträge annehmen und produzieren) immer die neuste Technologie bieten will. Als Beispiele für Auftraggeber nannte Sonderman Firmen wie Microsoft, Qualcomm und sogar Nvidia"

Anscheinend konnte man in den gescheiterten Gesprächen schlicht nicht glaubhaft versichern, dass Nvidia ein zu ATI absolut gleichberechtigter Kunde wäre. Der einzige, der davon profitiert, ist TSMC. ;)

Oh mann, mal wieder eine falsche Übersetzung. Das war kein Zitat von Sonderman, sondern ein Gedanke von Xbitlabs:

Being a contract maker of chips, Globalfoundries will naturally be able to make products for many companies, including Microsoft, Nvidia and Qualcomm, just to name a few (Globalfoundries would not disclose names of customers) and the first clients may turn to the new company already this year.

http://www.xbitlabs.com/news/other/display/20090413224831_Globalfoundries_Set_to_Start_Making_Graphics_Processors_Using_32n m_28nm_Processes.html

Mehr hast du nicht? Großes Interesse an Nvidia sieht für mich anders aus. GF hat sich kein einziges mal dazu geäußert. Wundert mich wie gesagt auch nicht wo es nach wie vor zu großen Teilen AMD gehört. Großes Interesse hatte einzig NV bis vor kurzem, wo man GF noch Rosen gestreut hatte und sie als ausgezeichneten Fertiger lobte. Und profitieren davon kann sehrwohl auch indirekt AMD, wenn man bessere Prozesse als TSMC anbietet und NV darauf nicht zurück greifen kann. Das einzige was Sonderman ganz klar sagt ist:

“We intend on competing for AMD’s graphics business in the 32nm/28nm technology node,” said Tom Sonderman, vice president of manufacturing systems and technology at Globalfoundries, in an interview with X-bit labs.

Undertaker
2009-11-10, 14:40:26
Ich sehe den daraus entstehenden Imageschaden (denn eine Bevorzugung von AMD würde in Situationen von z.B. knappen Waferzahlen auch jeden anderen GF Kunden betreffen) sowie den finanziellen Verlust und die Stärkung von TSMC als deutlich schwerwiegender an.

Ebenfalls dreht sich dein Argument herum, wenn nicht GF, sondern TSMC einmal bei einem Prozess die Nase vorn hat: Als GF-Großkunde hätte AMD dann wiederum den deutlich schlechteren Stand bei TSMC als der Exklusivpartner Nvidia.

Nochmals, GF+NV wäre eine Win-Win Situation für beide gewesen. Womöglich hat ja hier auch TSMC mit Vergünstigungen geködert, um Nvidia weiter an sich zu binden. ;)

reunion
2009-11-10, 14:43:08
http://www.golem.de/0911/71087.html
Nvidia Deutschland bekräftigte auf Anfrage von Golem.de, dass Fermi-GPUs noch 2009 erscheinen sollen. Für welche Serien, erklärte das Unternehmen dabei ebenfalls nicht.

Nach Informationen aus der Hardwarebranche, die Golem.de vorliegen, sollen zuerst zwei Geforce-Karten unmittelbar vor Weihnachten vorgestellt werden.

Das würde genau dem entsprechen was Fuad vor kurzem behauptete. Sieht aber so aus als ob man den Termin beinahe wöchentlich nach hinten legen würde. Mal sehen ob das hält. Ich denke Huang hat das nicht ohne Grund so zu seinen Aktionären gesagt und der CEO weiß sicher mehr und ist ehrlicher als irgend ein Marketingfuzzi bei NV Deutschland.

reunion
2009-11-10, 14:48:39
Ich sehe den daraus entstehenden Imageschaden (denn eine Bevorzugung von AMD würde in Situationen von z.B. knappen Waferzahlen auch jeden anderen GF Kunden betreffen) sowie den finanziellen Verlust und die Stärkung von TSMC als deutlich schwerwiegender an.

Ebenfalls dreht sich dein Argument herum, wenn nicht GF, sondern TSMC einmal bei einem Prozess die Nase vorn hat: Als GF-Großkunde hätte AMD dann wiederum den deutlich schlechteren Stand bei TSMC als der Exklusivpartner Nvidia.

Nochmals, GF+NV wäre eine Win-Win Situation für beide gewesen. Womöglich hat ja hier auch TSMC mit Vergünstigungen geködert, um Nvidia weiter an sich zu binden. ;)

Ist ja schön das du es nicht einsehen willst. Der Imageschaden scheint Branchenschwergewichter wie ST Microelectronics oder ARM nicht zu stören, aber wenn du meinst. Und AMD hat hinter Intel nunmal den zweitbesten Prozess in der Industrie, GF hat haufenweise Geld dank AITC. Das TSMC beim Prozess die Nase vorne haben wird bleibt wohl bestenfalls eine Wunschvorstellung. Zumal man ja weiterhin auch bei TSMC fertigen kann und wird wenn es Sinn macht. Exklusivpartner von TSMC ist auch NV nicht.

Wenn es wie von dir behauptet eine win-win Situation für beide gewesen wäre dann wäre ein solcher Deal zustanden gekommen. Offensichtlich war es das nicht, wie ich jetzt schon ewig darlegen. Aber du kannst ja gerne glauben was du willst.

Ailuros
2009-11-10, 14:53:21
Ich hielt die Fermi whitepaper Vorstellung Ende September auch nicht fuer sehr wahrscheinlich bis das Dokument in meine Haende kam. Obwohl ein echter hard launch die beste Loesung waere, bin ich mir immer noch nicht zu 100% sicher wann sie genau ankuendigen wollen.

Undertaker
2009-11-10, 14:56:57
reunion

AMD hat keinerlei aktuellen Bulk-Prozess am Markt und keine Erfahrung in der Fertigung großer GPUs, nicht vergessen. Und nur weil ein Investor mächtig Geld hineinpumpt heißt das nicht, dass man keine neuen und zahlungskräftigen Kunden gewinnen müsste. Das ATI als GF-Großkunde seine Position gegenüber Nvidia als TSMC-only Auftraggeber etwas verspielt, steht ebenfalls außer Frage.

Eine Win-Win Situation für beide muss im übrigen noch lange nicht bedeuten, dass ein Deal zustande kommen muss. Wir kennen keine Details, wer weiß an welcher Seite es gescheitert ist? Hatte GF kein attraktives Angebot an Nvidia? Hat TSMC geködert? Das weißt weder du noch ich, also maßen wir es uns auch nicht an. ;)

Btw wäre es schön, wenn du einen weniger aggressiven Diskussionsstil an den Tag legen würdest. :smile:

Ailuros
2009-11-10, 15:05:38
Btw wäre es schön, wenn du einen weniger aggressiven Diskussionsstil an den Tag legen würdest. :smile:

Keine schlechte Idee; eine noch bessere Idee waere Ihr beiden loest dieses unendliche Foundry hin und her entweder privat oder in einem anderem Thread. So langsam wird's langweilig.

reunion
2009-11-10, 15:07:26
reunion

AMD hat keinerlei aktuellen Bulk-Prozess am Markt und keine Erfahrung in der Fertigung großer GPUs, nicht vergessen. Und nur weil ein Investor mächtig Geld hineinpumpt heißt das nicht, dass man keine neuen und zahlungskräftigen Kunden gewinnen müsste. Das ATI als GF-Großkunde seine Position gegenüber Nvidia als TSMC-only Auftraggeber etwas verspielt, steht ebenfalls außer Frage.

Eine Win-Win Situation für beide muss im übrigen noch lange nicht bedeuten, dass ein Deal zustande kommen muss. Wir kennen keine Details, wer weiß an welcher Seite es gescheitert ist? Hatte GF kein attraktives Angebot an Nvidia? Hat TSMC geködert? Das weißt weder du noch ich, also maßen wir es uns auch nicht an. ;)

Btw wäre es schön, wenn du einen weniger aggressiven Diskussionsstil an den Tag legen würdest. :smile:

Es fällt nicht gerade leicht einen "weniger aggressiven Diskussionsstil" an den Tag zu legen wenn ich seit Ewigkeiten gegen eine Wand rede, jegliche Argumente einfach mit solchen Dingen wie "das weiß man nicht" abgeschmettert oder schlicht ignoriert werden oder ich mit falsche Zitaten abgespeist werde. usw. Es würde dir auch nicht schaden etwas Einsicht zu zeigen.

AMD kann auf die bulk Library ihres Entwicklungspartners IBM zurück greifen. Ansonsten heißt das nicht das man nur wegen bulk oder SOI das Rad neu erfinden müsste. Entscheidend sind Dinge wie Performance, Yields und wann ein Prozess einsatzbereit ist. Und hier will GF bulk sogar vor SOI liefern.

Neue zahlungskräftige Kunden hat man sich dank des Chartered-Deals und den zwei langjährigen Verträgen mit STM und ARM schon gesichert, und das obwohl GF noch sehr jung ist. Alleine das zeigt schon was GF alles bieten kann. Sowohl ARM als auch STM waren bis jetzt große Kunden von TSMC.

Und zu deinem (vor)letzten Absatz sage ich besser nichts. Aber natürlich ist es viel wahrscheinlicher das sich NV einen besseren Prozess durch die Lappen gehen lässt wegen eines nicht "attraktiven Angebots" oder das TSMC NV geködert hatte mit was auch immer (was hilft weniger Preis wenn man den unterlegenen Prozess hat?) als einfach das zu bestätigen was NV-CEO Huang kaum deutlicher hätte sagen könne: "GF is a AMD-Fab." Für ARM und STM war das Angebot jedenfalls attraktiv genug.

V2.0
2009-11-10, 15:15:28
Ich hielt die Fermi whitepaper Vorstellung Ende September auch nicht fuer sehr wahrscheinlich bis das Dokument in meine Haende kam. Obwohl ein echter hard launch die beste Loesung waere, bin ich mir immer noch nicht zu 100% sicher wann sie genau ankuendigen wollen.

Zwischen dem GPGPU Techday und dem Launch, liegt oft noch ein Game-Techday.

Ailuros
2009-11-10, 15:15:41
reunion,

Zum allerletzten Mal es reicht mit dem Foundry off topic. Wie schon oben erwaehnt loest das Thema entweder privat oder macht einen Thread dafuer auf. Ich muss natuerlich den modtext Mist benutzen um darauf aufmerksam zu machen oder was?

Ailuros
2009-11-10, 15:17:57
Zwischen dem GPGPU Techday und dem Launch, liegt oft noch ein Game-Techday.

Sie sollen gefaelligst langsam die Klappe darueber halten und entweder put up or shut up. Anders Papiertiger gleichzeitig zu gesunder Verfuegbarkeit.

Sorkalm
2009-11-10, 15:23:32
reunion,

Zum allerletzten Mal es reicht mit dem Foundry off topic. Wie schon oben erwaehnt loest das Thema entweder privat oder macht einen Thread dafuer auf. Ich muss natuerlich den modtext Mist benutzen um darauf aufmerksam zu machen oder was?

Ich glaube er hat deinen Post #5279 noch nicht gesehen, bevor er den darauf folgenden geschrieben hat. Waren ja nicht mal 2 Minuten Differenz. ;)

Undertaker
2009-11-10, 15:24:52
@reunion:

Genauso wie ich deine Argumente akzeptiere, wenn ich sie auch anders sehe, erwarte ich gleiches von dir und keine hintergründigen Beleidigungen, wie ich sie ebenfalls anbringen könnte. Danke. :)

Das die Kooperation mit IBM auch bulk Prozesse umfasst war mir unbekannt, afair ging es dabei immer nur um SOI - und der große Problempunkt völliger Unerfahrenheit bei der Produktion großer GPus bleibt davon völlig unangetastet. Nichtsdestotrotz traue ich GF einen guten Start aus dem Stand zu, unterschätzen darfst du TSMC deswegen noch lange nicht. Auch Intel kann tolle CPUs bauen, hat den besten Prozess und Geld ohne Ende, deswegen wird LRB noch lange nicht ATI und NV vom Markt pusten. ;) Deswegen: Erstmal abwarten, was GF letztlich wirklich abliefern wird, es Bedarf keines Propheten um zu verstehen, warum auch ATI nicht von Beginn an exklusiv bei GF fertigen wird. Auch ARM und STM werden sich sicherlich mehrgleisig abgesichert haben und sind nicht auf ewig an GF gebunden. Eine Kundenbasis kann darum nie breit genug aufgestellt sein.

@ailuros:

Sry, hab dein Posting nicht gesehen. OT Ende.

V2.0
2009-11-10, 15:25:49
Sie sollen gefaelligst langsam die Klappe darueber halten und entweder put up or shut up. Anders Papiertiger gleichzeitig zu gesunder Verfuegbarkeit.

Klassischer Interessenkonflikt. Einerseits will man nie wieder einen Paperlaunch machen, andererseits dauert es wohl moch eine Zeit bis man genug Boards bereit hat.
Momentan tendiere ich zu einer weiteren Techday-Runde als Lösung.

So kann man schon mal den Käufer von der Leistung von Fermi überzeugen und gleichzeitig einen Paperlaunch verhindern.

Ich denke jeder würde sich einen baldigen Hardlaunch wünschen, nur ob das realistisch ist?

Ailuros
2009-11-10, 15:30:16
Nein es ist eben nicht realistisch. Nachdem wir sichern konnten wann das erste tape out stattfand, gab es seitdem keine Chancen dass es noch anstaendige Verfuegbarkeit innerhalb 2009 geben wird.

Coda
2009-11-10, 15:31:13
Was ist eigentlich mit den angeblichen Risk-Wafers? Gab es die jemals und wenn ja müssen die jetzt auf die Halde?

Ailuros
2009-11-10, 15:35:44
Was ist eigentlich mit den angeblichen Risk-Wafers? Gab es die jemals und wenn ja müssen die jetzt auf die Halde?

Woher kam die risk-wafer These genau nochmal? Spar Dir die Antwort er bekommt so oft in letzter Zeit seinen Hintern eingereicht von Leuten die sich mit dem Zeug beruflich beschaeftigen dass es nicht mehr schoen ist.

Natuerlich ist mein Wissensbereich sogar um einiges niedriger als das von SuzieQ, aber ich halte es trotz allem als zu verdammt riskant mit einem solchen Monsterchip. ;)

LovesuckZ
2009-11-10, 16:33:42
http://www.golem.de/0911/71087.html
Nvidia Deutschland bekräftigte auf Anfrage von Golem.de, dass Fermi-GPUs noch 2009 erscheinen sollen. Für welche Serien, erklärte das Unternehmen dabei ebenfalls nicht.

Nach Informationen aus der Hardwarebranche, die Golem.de vorliegen, sollen zuerst zwei Geforce-Karten unmittelbar vor Weihnachten vorgestellt werden.

Nur zwei Karten? Ach, dass wird ein Krampf werden, eine der beiden zu bekommen. :(
Schlussendlich scheint es wohl so abzulaufen wie letztes Jahr mit der GTX295 - Mitte Dezember Previews und einem Monat später erste Verfügbarkeit für >400€. A3 wird wohl für die GX2 und GTX385 Version benötigt, die dann im März erscheint.

Dural
2009-11-10, 17:18:44
Zuerst sicher mal GTX260 und GTX380. die GX2 kommt sicher erst später.

Vorstellung ende 2009 halt ich für möglich, die frage ist doch aber eher wann Lieferbar?

LovesuckZ
2009-11-10, 17:39:48
SANTA CLARA, Calif. —Nov. 10, 2009—Leading luminaries in high-performance computing (HPC) will be speaking at NVIDIA’s booth (Nasdaq: NVDA) at the SC09 conference, which is taking place in Portland, Ore., from Nov. 15 to 20, 2009. Also featured will be demonstrations of the company’s new Tesla™ products based on its new GPU architecture, codenamed “Fermi.”
http://novedge.com/i/60519

mictasm
2009-11-10, 19:01:40
Die Tesla-Eigenschaften kennen wir ja leider schon, die Grafikseite sollte mal vorgestellt werden...

Gast
2009-11-10, 20:11:56
Gibt es eigentlich einen technischen Grund warum man Cpus mit SOI produziert und Gpus mit Bulk? Oder ist der Grund eher Intel und Gf können (noch) kein Bulk und Tsmc kein SOI und deshalb sind die aktuellen Gpu Designs einfach nur auf SOI ausgelegt?

Coda
2009-11-10, 20:15:17
SOI hat auch Nachteile. Bei GPUs überwiegen die wohl, da viel mehr gleichzeitig schält.

Soundwave1983
2009-11-10, 21:47:36
Schält?
Erklären bitte. :)

StefanV
2009-11-10, 21:53:12
SOI hat auch Nachteile. Bei GPUs überwiegen die wohl, da viel mehr gleichzeitig schaltet.
AFAIR wars doch nur eine nicht ganz so hohe packdichte.

BlackBirdSR
2009-11-10, 22:01:34
AFAIR wars doch nur eine nicht ganz so hohe packdichte.

Signifikant verringerte Wärmeabfuhr und höhere Anfälligkeit gegenüber hoher Spannung.
Das sind nicht gerade zwei Dinge, die sich Abends mit GPUs besaufen gehen.

Coda
2009-11-10, 22:02:22
AFAIR wars doch nur eine nicht ganz so hohe packdichte.
Bestimmt nicht. Die stark verringerte Wärmeleitfähigkeit von Siliziumdioxid ist z.B. Realität. Und der Isolator sitzt eben direkt zwischen Transistoren und Kühlkörper.

Es hat schon einen Gund warum GF wieder einen Bulk-Prozess entwickelt.

Gast
2009-11-11, 00:25:27
Also ist Soi besser wenn man viele Transistoren braucht, diese aber die meiste Zeit am warten sind (also cpu), während Bulk zwar eine etwas geringere Packdichte hat, aber einem der Chip nicht gleich abraucht wenn man seine Transistoren alle bei der Arbeit hat (was ja bei gpu eher der Fall ist als bei cpu) ???

Ailuros
2009-11-11, 08:32:32
Die Tesla-Eigenschaften kennen wir ja leider schon, die Grafikseite sollte mal vorgestellt werden...

Zwar gehoert es in den Raum meiner persoenlichen Haarspalterei, aber mir waere es lieber wenn ich anstatt ein weiteres "stay tuned" lesen muss das Zeug gleichzeitig mit anstaendiger Verfuegbarkeit mitgeteilt bekomme.

Gast
2009-11-11, 08:59:18
Oh ja, das wäre wirklich schön! Bleibt aber bis auf weiteres nur ein Traum.

Ailuros
2009-11-11, 09:23:48
Oh ja, das wäre wirklich schön! Bleibt aber bis auf weiteres nur ein Traum.

Ich meinte lediglich dass wenn die Verfuegbarkeit in Februar/Maerz oder wann auch immer anstaendig wird, dass dann erst die 3D relevanten Papierfetzten die Oeffentlichkeit sehen.

Gast
2009-11-11, 09:32:04
Das sehe ich eher von der Verfügbarkeit der ATI-Karten abhängig. Ergibt sich dort etwas positives, könnte es eine vorzeitige Veröffentlichung von Papier ohne karten geben, Oder einen Launch mit sehr sehr wenigen Karten, um die "verrückten Kunden" bei der Stange zu halten.
Allerdings wird ein jetziger GTX280/285-Besitzer sowieso eher weniger auf ATI umsteigen, der Leistungsabstand ist zu gering und ohne 2GB-Vram gibts noch weniger Grund.

Ailuros
2009-11-11, 12:11:36
Das sehe ich eher von der Verfügbarkeit der ATI-Karten abhängig. Ergibt sich dort etwas positives, könnte es eine vorzeitige Veröffentlichung von Papier ohne karten geben, Oder einen Launch mit sehr sehr wenigen Karten, um die "verrückten Kunden" bei der Stange zu halten.
Allerdings wird ein jetziger GTX280/285-Besitzer sowieso eher weniger auf ATI umsteigen, der Leistungsabstand ist zu gering und ohne 2GB-Vram gibts noch weniger Grund.

Ich hab das Gefuehl dass sich die Verfuegbarkeit auch fuer AMD nicht vor irgendwo Mitte Q1 fuer AMD aendern wird. 40G ist anscheinend doch so verpatzt dass die yields beim gleichem chip pro wafer von einstelligen zu zweistelligen yield Prozenten schwanken koennen.

Das entfernt trotzdem nicht AMD's Vorteil der frueheren Veroeffentlichung, er ist eben leider nur geringer als man sich erhofft haben koennte.

Gast
2009-11-11, 12:15:48
40G ist anscheinend doch so verpatzt dass die yields beim gleichem chip pro wafer von einstelligen zu zweistelligen yield Prozenten schwanken koennen.
Wie muss man das verstehen, heißt das TSMC ist nicht länger gewillt, bei einer derartigen Ausbeute massenhaft Wafer zu belichten, den Großteil wegzuschmeißen und die wenigen funktionierenden Chips dann einzeln per Sonderkonditionen abzurechen? Oder wird weiter mit mieser Ausbeute produziert, TSMC zahlt drauf aber es kommen halt trotzdem nicht genug Chips für AMD rüber, um die Nachfrage zu bedienen?

Menace
2009-11-11, 12:25:58
Ich hab das Gefuehl dass sich die Verfuegbarkeit auch fuer AMD nicht vor irgendwo Mitte Q1 fuer AMD aendern wird. 40G ist anscheinend doch so verpatzt dass die yields beim gleichem chip pro wafer von einstelligen zu zweistelligen yield Prozenten schwanken koennen.


Laut TMSC hat sich die Yield-Rate nicht verändert.

Es würden jedoch täglich weitere Chips beim Fertigungspartner TSMC produziert und die AMD-Boardpartner für die HD-5800-Grafikkarten lieferten derzeit 'tausende von HD-5800-Grafikkarten' weltweit und pro Woche aus.

Dave Baumann sagte gegenüber Hardocp.com weiter, aktuell gehe nur eine 'great minority', also eine große Minderheit der Karten in den OEM-Markt. Dieser war in der Vergangenheit als Großabnehmer der verfügbaren HD-5800-Karten und damit als Teilschuldiger an der Lieferknappheit ausgemacht worden. Die Mischung an Karten zwischen HD 5870 und HD 5850 betrage derzeit etwa 50:50; Lieferschwierigkeiten der HD-5700-Reihe seien nicht zu befürchten.

http://www.pcgameshardware.de/aid,699216/Verfuegbarkeit-der-Radeon-HD-5800-AMD-will-ausgelieferte-Stueckzahlen-wesentlich-erhoehen/Grafikkarte/News/

Ailuros
2009-11-11, 12:35:39
Laut TMSC hat sich die Yield-Rate nicht verändert.

Marketing-Bullshit.

http://www.pcgameshardware.de/aid,699216/Verfuegbarkeit-der-Radeon-HD-5800-AMD-will-ausgelieferte-Stueckzahlen-wesentlich-erhoehen/Grafikkarte/News/

Mal sehen was nettes im Link steht...

Natürlich ist AMD unglücklich darüber, nicht so viele HD-5800-Grafikkarten liefern zu können, wie derzeit nachgefragt werden. Die Planung habe 500.000 Einheiten in diesem Jahr vorgesehen, in den vergangenen zwei Monaten habe man davon lediglich knapp 20% erfüllen können - Besserung sei für Ende November, Anfang Dezember in Sicht.

Klingt das nicht unter 100.000 oder lese ich einen anderen Artikel?

Oder anders wenn man nicht mal 20% seiner Erwartungen erreichen kann widerspricht dieses inwiefern zu dem was ich sagte? Yields werden IMHO wesentlich besser in Q1 fuer 40G.

Wie muss man das verstehen, heißt das TSMC ist nicht länger gewillt, bei einer derartigen Ausbeute massenhaft Wafer zu belichten, den Großteil wegzuschmeißen und die wenigen funktionierenden Chips dann einzeln per Sonderkonditionen abzurechen? Oder wird weiter mit mieser Ausbeute produziert, TSMC zahlt drauf aber es kommen halt trotzdem nicht genug Chips für AMD rüber, um die Nachfrage zu bedienen?

Nichts dergleichen. Die wage yield Beschreibung im vorigen Post gilt nur fuer GF100. NVIDIA und TSMC arbeiten sehr eng miteinander momentan zusammen in der Hoffnung das Ganze verbessern zu koennen. An Frequenzen oder am chip selber soll angeblich nichts krummes liegen.

Gast
2009-11-11, 12:43:21
Weiss man denn wenigstens woran der Prozess krankt?

LovesuckZ
2009-11-11, 12:46:33
Weiss man denn wenigstens woran der Prozess krankt?

Jetzt sollte man es langsam wisse, sonst sieht es mit Karten in Q1 genauso bescheiden aus.
Es kann auch gut sein, das TSMC auch weniger Material geordert hat und man jetzt nicht genug Wafer produzieren kann. Das wiederum mit einem schlechten Prozeß führt zu wenigem brauchbaren Output.

Ailuros
2009-11-11, 12:49:44
Jetzt sollte man es langsam wisse, sonst sieht es mit Karten in Q1 genauso bescheiden aus.
Es kann auch gut sein, das TSMC auch weniger Material geordert hat und man jetzt nicht genug Wafer produzieren kann. Das wiederum mit einem schlechten Prozeß führt zu wenigem brauchbaren Output.

TSMC ist auch nicht stets an allem Schuld: http://www.fudzilla.com/content/view/16381/1/

LovesuckZ
2009-11-11, 12:52:51
TSMC ist auch nicht stets an allem Schuld: http://www.fudzilla.com/content/view/16381/1/

Ja, aber das bezieht sich eher auf die 55nm Produkte. Bei 40nm denke ich nicht, dass nVidia die Nachfrage unterschätzt hat. Dort wird man wohl - wie auch AMD - nicht genug bekommen, weil der Prozeß eine wesentlich schlechtere Ausbeute hat.
Und eine geringere Nachfrage der Kunden von TSMC führt aber auch dazu, dass sie selbst weniger Materialen ordern.

Ailuros
2009-11-11, 12:56:30
Ja, aber das bezieht sich eher auf die 55nm Produkte. Bei 40nm denke ich nicht, dass nVidia die Nachfrage unterschätzt hat. Dort wird man wohl - wie auch AMD - nicht genug bekommen, weil der Prozeß eine wesentlich schlechtere Ausbeute hat.
Und eine geringere Nachfrage der Kunden von TSMC führt aber auch dazu, dass sie selbst weniger Materialen ordern.

Nein bei AMD ist es eine Kombination von beschissenen yields und zu bescheidenen Bestellungen. Wenn Du mir jetzt sagst dass AMD's 55nm Produkte besser erhaeltlich sind, komm ich gleich mit der Nachfrage als Gegenargument.

TSMC und NVIDIA arbeiten momentan fieberhaft an einem schnellen respin, damit NV TSMC etwas unter die Arme gehen kann mit den beschissenen 40G yields.

DavChrFen
2009-11-11, 12:57:23
Was ist eigentlich mit den angeblichen Risk-Wafers? Gab es die jemals und wenn ja müssen die jetzt auf die Halde?Woher kam die risk-wafer These genau nochmal? Spar Dir die Antwort er bekommt so oft in letzter Zeit seinen Hintern eingereicht von Leuten die sich mit dem Zeug beruflich beschaeftigen dass es nicht mehr schoen ist.

Natuerlich ist mein Wissensbereich sogar um einiges niedriger als das von SuzieQ, aber ich halte es trotz allem als zu verdammt riskant mit einem solchen Monsterchip. ;)
Heißt das, dass es gar keine Risk-Wafer gab? Aber wieso haben wir hier dann so lange darüber geredet?

Ailuros
2009-11-11, 13:10:09
Heißt das, dass es gar keine Risk-Wafer gab? Aber wieso haben wir hier dann so lange darüber geredet?

Frag Charlie. Klingt Dir A3 nach risk-wafers?

Henroldus
2009-11-11, 13:16:05
Ja, aber das bezieht sich eher auf die 55nm Produkte. Bei 40nm denke ich nicht, dass nVidia die Nachfrage unterschätzt hat. Dort wird man wohl - wie auch AMD - nicht genug bekommen, weil der Prozeß eine wesentlich schlechtere Ausbeute hat.
Und eine geringere Nachfrage der Kunden von TSMC führt aber auch dazu, dass sie selbst weniger Materialen ordern.
Die FAB ist nach meinen Infos voll ausgelastet.
ich glaube auch nicht, dass sich die Siliziumwafer für 55nm und 40nm Prozesse unterscheiden-ist beides bulk ;)
Die Yields sind das Problem und nichts anderes.
Man ist mit 40nm allerdings auch erstmals vor dem Platzhirsch Intel(erst 2010 mit 32nm wieder vorn) insofern verwundern die Probleme am Anfang nicht

Ailuros
2009-11-11, 13:17:13
Mit was soll den 40G genau ausgelastet sein?

reunion
2009-11-11, 13:17:16
Also doch A3?

reunion
2009-11-11, 13:18:07
Mit was soll den 40G genau ausgelastet sein?

TSMC hat offenbar noch kaum 40nm Anlagen.

Ailuros
2009-11-11, 13:19:58
TSMC hat offenbar noch kaum 40nm Anlagen.

Behauptet TSMC natuerlich; nur bleibt die Frage wie zuvor fuer was genau. Glaubt doch nicht jeden Scheiss der herumschwirrt.

Also doch A3?

Ja quick an' dirty respin.

reunion
2009-11-11, 13:22:02
Behauptet TSMC natuerlich; nur bleibt die Frage wie zuvor fuer was genau. Glaubt doch nicht jeden Scheiss der herumschwirrt.


Du kannst mir ja gerne sagen was ich glauben kann und was nicht. TSMC sagt sich hätte logistische Probleme, keine Fertigungsprobleme. Und offenbar schafft man es schon seit April (RV740) nicht genug Wafer zu liefern.


Ja quick an' dirty respin.

Aja, alles klar. Das dürfte aber die Verfügbarkeit dann eher Richtung Februar/März schieben wenn alles glatt und entsprechend "quick" geht.

Henroldus
2009-11-11, 13:25:43
Du kannst mir ja gerne sagen was ich glauben kann und was nicht. TSMC sagt sich hätte logistische Probleme, keine Fertigungsprobleme. Und offenbar schafft man es schon seit April (RV740) nicht genug Wafer zu liefern.



Aja, alles klar.
Die Fertigung funktioniert also und die fertigen Wafer verschimmeln im Lager???
ist doch Blödsinn

Ailuros
2009-11-11, 13:27:18
Du kannst mir ja gerne sagen was ich glauben kann und was nicht.

Wenn's von AMD kommen wuerde brauch ich mir sowieso keine Muehe geben :P

TSMC sagt sich hätte logistische Probleme, keine Fertigungsprobleme. Und offenbar schafft man es schon seit April (RV740) nicht genug Wafer zu liefern.

Dass sie nach wie vor gigantische yield Probleme mit 40G haben ist natuerlich total irrelevant oder was? Logistische Probleme my ass :rolleyes:

reunion
2009-11-11, 13:27:54
Wenn's von AMD kommen wuerde brauch ich mir sowieso keine Muehe geben :P

Was soll das jetzt?


Dass sie nach wie vor gigantische yield Probleme mit 40G haben ist natuerlich total irrelevant oder was? Logistische Probleme my ass :rolleyes:

Na wenn du das sagst. Ich sitze nicht bei TSMC und weiß die genauen Yields.

reunion
2009-11-11, 13:28:42
Die Fertigung funktioniert also und die fertigen Wafer verschimmeln im Lager???
ist doch Blödsinn

Nein, damit meinte ich man hat noch nicht genug 40nm Kapazitäten um genug Wafer zu fertigen. Das sagt zumindest TSMC, ich sage ja nicht das es so ist.

Ailuros
2009-11-11, 13:30:40
Es handelt sich nach wie vor um oeffentliche Ausreden seitens TSMC. Da ich schon vor einiger Zeit das Maerchen mit den Kapazitaeten gehoert hatte fragte ich damals nach. Die Antwort war stets gleich egal ob AMD, NVIDIA oder diverse AIBs.

Menace
2009-11-11, 13:37:45
Um die Lage bei den Yields überhaupt abschätzen zu können würde mich interessieren, ob (wie von AMD angegeben) überhaupt größere Stückzahlen von 58XX GPUs geliefert werden.

Schaue ich auf die Verfügbarkeitsanzeige von Geizhals.at gibt es da gar nichts mehr.

Nun könnte es sein, dass die Händler auf Grund einer großen Anzahl von Vorbestellungen die gar nicht mehr reinschreiben und halt regelmäßig die Vorbestellungen abliefern. Oder es werden seit zwei Wochen gar keine 58xx mehr verkauft.
Erstes würde meiner Meinung nach, an der großen Nachfrage liegen, zweites spräche für eine katastrophale Yield-Rate.

Ailuros
2009-11-11, 13:44:46
Das dummste an der Geschichte ist dass die 40nm yield Probleme nicht gleichmaessig sind. Es ist leider nicht so dass man fuer chip X sagen kann dass es sagen wir mal Y% pro wafer sind. Die yields schwanken wie verrueckt pro wafer. Es nuetzt eben nicht wenn jemand sagt dass fuer chip A die yields bei bis zu 60% als Beispiel liegen; das eigentliche Problem ist die Schwankung der yields.

Das schlimmste daran ist dass selbst AMD keine genaue Projektionen fuer die Verfuegbarkeit momentan machen kann, sondern muss sich wie jeder andere auf TSMC's Versprechungen verlassen.

X.Perry_Mental
2009-11-11, 14:12:59
Das dummste an der Geschichte ist dass die 40nm yield Probleme nicht gleichmaessig sind. Es ist leider nicht so dass man fuer chip X sagen kann dass es sagen wir mal Y% pro wafer sind. Die yields schwanken wie verrueckt pro wafer. Es nuetzt eben nicht wenn jemand sagt dass fuer chip A die yields bei bis zu 60% als Beispiel liegen; das eigentliche Problem ist die Schwankung der yields.
Was heißt schwankende Yields eigentlich genau? Sind die "schlechten" Chips einfach nicht funktional oder erreichen sie ihr Taktziel nicht?

Ailuros
2009-11-11, 14:29:36
Was heißt schwankende Yields eigentlich genau? Sind die "schlechten" Chips einfach nicht funktional oder erreichen sie ihr Taktziel nicht?

Sie sollten keine Herstellungsprozess-bedingte Fehler vorzeigen. Das minimale Prozentual ist einstellig und maximal 10x so hoch.

Nebenbei:

http://www.semiaccurate.com/2009/11/09/tsmc-slips-their-32nm-process/

...und ja er hat recht.

reunion
2009-11-11, 14:37:04
Nebenbei:

http://www.semiaccurate.com/2009/11/09/tsmc-slips-their-32nm-process/

...und ja er hat recht.

Das könnte schon ein großer Vorteil für GF sein wenn man hier weniger Probleme hat.

Ailuros
2009-11-11, 14:56:11
Das könnte schon ein großer Vorteil für GF sein wenn man hier weniger Probleme hat.

Wehe wenn Du und Undertaker wieder mit dem albernen GF Zeug anfangt (LOL :eek: ), aber es ist lediglich ein Anzeichen dass man sich auf Jensen's GF relevante Aussagen zu jeglichem Zeitpunkt nicht absolut verlassen sollte. Jeglicher Standpunkt ist nur gueltig fuer den Zeitpunkt wo er geaessert wird; es ist nichts in Stein gemetzelt was die Zukunft betrifft.

Ich weiss ehrlich nicht was bei TSMC in letzter Zeit los ist. Ausser mein Gedaechtnis betruegt mich ist es das erste Mal dass TSMC der eine nach dem anderen Prozess abkackt. Irgend etwas stimmt bei denen nicht. Hier sollte man aber auch logischerweise erstmal abwarten wie GF's Prozesse in der Zukunft aussehen werden; denn einen Mythos kann jeder ohne realen Produktionsstress in den Medien aufbauen ;)

Kosh
2009-11-11, 15:00:58
Marketing-Bullshit.



Mal sehen was nettes im Link steht...



Klingt das nicht unter 100.000 oder lese ich einen anderen Artikel?

Oder anders wenn man nicht mal 20% seiner Erwartungen erreichen kann widerspricht dieses inwiefern zu dem was ich sagte? Yields werden IMHO wesentlich besser in Q1 fuer 40G.





Naja, 500t Karten in dem Jahr heisst aber, das AKTUELL erst 20% ausgeliefert wurden.Aber das Jahr geht noch knapp 2 Monate. Würde die Lieferung gleichbleiben, käme man auf ca 40% der geplanten Menge.

Ailuros
2009-11-11, 15:16:53
Naja, 500t Karten in dem Jahr heisst aber, das AKTUELL erst 20% ausgeliefert wurden.Aber das Jahr geht noch knapp 2 Monate. Würde die Lieferung gleichbleiben, käme man auf ca 40% der geplanten Menge.

Ich erwarte wie viele andere eine leichte Verbesserung (ausser TSMC verspricht auch hier nur Stuss) bis Mitte Dezember. Selbst wenn es am Ende nur die Haelfte wird (ergo ~50%) ist die Menge alles andere als berauschend.

Milchmaedchenrechnung: angenommen AMD kommt auf ca. 250.000 in 3 Monaten. Nehmen wir mal den theoretischen Gegenfall wieviel Chancen GF100 gehabt haette wenn sie das Ding schon veroeffentlicht haetten (von mir aus via risk wafers oder jeglichen anderen Bums-These...); wie viele wuerden im besten Fall bei der Chipkomplexitaet sagen wir mal in 2 Monaten (November-Dezember) genau auf Regale kommen? 50.000 weltweit oder sogar noch weniger?

Bei solchen Furz-yields waere ein jeglicher Release-Gedanke eher ein Witz als alles andere. GT200@65nm wurde mit ~60% yields in die Produktion geschickt.

BlackBirdSR
2009-11-11, 15:53:16
Ich weiss ehrlich nicht was bei TSMC in letzter Zeit los ist. Ausser mein Gedaechtnis betruegt mich ist es das erste Mal dass TSMC der eine nach dem anderen Prozess abkackt. Irgend etwas stimmt bei denen nicht.

Hypothese:
Vielleicht kommt jetzt auch TSMC an den Punkt, wo der Aufwand für weiteres Scaling so groß wird und so viel Know-How nötig ist, dass es nur noch unter extremsten Umständen gut funktioniert.

Das mag für Intel funktionieren, das mag für GF funktionieren und das mag für IBM gehen.. aber dann wird es schon eng. Wenn man mal von Herausforderungen wie Immersion Lito, CMP, Metal-Gates und +-Straining absieht, gibt es auch so extrem viele Sachen, die mit dem Umstieg von 65/60 auf 45/40 einfach nicht mehr gehen.
Nicht umsonst stellt Infineon nicht selbst auf 45/65nm um, sondern lässt fertigen.

Gipsel
2009-11-11, 16:11:20
Das dummste an der Geschichte ist dass die 40nm yield Probleme nicht gleichmaessig sind. Es ist leider nicht so dass man fuer chip X sagen kann dass es sagen wir mal Y% pro wafer sind. Die yields schwanken wie verrueckt pro wafer. Es nuetzt eben nicht wenn jemand sagt dass fuer chip A die yields bei bis zu 60% als Beispiel liegen; das eigentliche Problem ist die Schwankung der yields.
Das hört sich ja ganz danach an, als ob TSMC die Prozeßvariabilität nicht in den Griff bekommt. Vielleicht sollten die mal bei Globalfoundries bezüglich der Lizenzierung von APM nachfragen. *Duck und renn*

Soundwave1983
2009-11-11, 16:26:11
Glaubt man der Digitimes, so liegt das logistische Problem im "Chamber Matching" der verschiedenen, für den 40nm Prozess benötigten Tools.

Gouvernator
2009-11-11, 17:08:39
Wie war das damals beim Auftragseinbruch, da hat doch TSMC Tausende Mitarbeiter entlassen und dann irgendwann wieder angestellt bzw. Stellen angeboten. Villeicht haben sie damals falsche Mitarbeiter entlassen und nicht wiederbekommen. Und nun haben sie den Salat mit dem 40nm Techprozess...

Ailuros
2009-11-11, 17:54:53
Das hört sich ja ganz danach an, als ob TSMC die Prozeßvariabilität nicht in den Griff bekommt. Vielleicht sollten die mal bei Globalfoundries bezüglich der Lizenzierung von APM nachfragen. *Duck und renn*

*kicher* hab ich Dir schon mal gesagt dass Du ziemlich gemein werden kannst? :biggrin:

Gouvernator,

Koennte auch ein Faktor sein der mitspielt.

Gast
2009-11-11, 17:58:13
TSMC und NVIDIA arbeiten momentan fieberhaft an einem schnellen respin, damit NV TSMC etwas unter die Arme gehen kann mit den beschissenen 40G yields.

Versteh ich das richtig das zuwenige Bestellungen im 40G vorhanden sind um über die Produktion hinweg Besserungen zu erzielen? Dachte die haben da eher Testlabors für, aber wenn direkt über die Strassen da die weitere Entwicklung abgefertig wirds, erklärt das einiges.

Ailuros
2009-11-11, 18:06:35
Versteh ich das richtig das zuwenige Bestellungen im 40G vorhanden sind um über die Produktion hinweg Besserungen zu erzielen? Dachte die haben da eher Testlabors für, aber wenn direkt über die Strassen da die weitere Entwicklung abgefertig wirds, erklärt das einiges.

Woher Du das jetzt aus dem zitierten Satz herauslesen kannst ist mir fremd. Was ich damit meinte ist dass NVIDIA in Zusammenarbeit mit TSMC zu einem kleinen und schnellen A3 respin greift, damit TSMC ihre yields fuer 40G auch verbessern kann. Was hat GF100 ueberhaupt mit Bestellungen zu tun, da es offensichtlich noch NICHT in Produktion liegt?

mapel110
2009-11-12, 13:55:54
http://www.nvidia.com/object/sc09.html
Am 17.November wird Fermi gezeigt.

Gast
2009-11-12, 15:09:02
wieder nur der tesla teil...

Kosh
2009-11-12, 20:39:07
http://www.nvidia.com/object/sc09.html
Am 17.November wird Fermi gezeigt.

Diesmal die echte hArdware, aber noch nicht lauffähig wahrscheinlich :D

Immerhin schon ein Vorteil zum G200 Dummy, wo sie die Leute für selten dämlich verkaufen wollten :D

Ailuros
2009-11-13, 07:19:03
Diesmal die echte hArdware, aber noch nicht lauffähig wahrscheinlich :D

Immerhin schon ein Vorteil zum G200 Dummy, wo sie die Leute für selten dämlich verkaufen wollten :D

Es liefen demos auf einem A1 Fermi chip bei GTC (ja nicht alle); muessen wir wirklich das gleiche Zeug ewig wiederkauen?

AnarchX
2009-11-14, 11:06:47
Bei EVGA gibt es einen Counter mit dem Titel: It's coming

http://www.evga.com/blackfriday/

Am 25.11. 1 Uhr MEZ läuft er aus.

Weiter Marketing-Unsinn wie die GTX 275 Co-op oder doch "it"? :D

LovesuckZ
2009-11-14, 11:10:23
Vielleicht gibt es dann neue GTX2xx Karten.

igg
2009-11-14, 11:10:57
Hieß es nicht Fermi launcht an einem Dienstag?

AnarchX
2009-11-14, 11:15:02
Vielleicht auch nur der Counter für die EVGA Angebote zum Black Friday Shopping:
http://en.wikipedia.org/wiki/Black_Friday_%28shopping%29

LovesuckZ
2009-11-14, 11:18:32
Vielleicht auch nur der Counter für die EVGA Angebote zum Black Friday Shopping:
http://en.wikipedia.org/wiki/Black_Friday_%28shopping%29

Black Friday kommt jedes Jahr - so ein Counter wäre alleinig dafür ziemlich lächerlich.

igg
2009-11-14, 11:20:35
Gut, am 17. November (Dienstag) wird ja die Tesla Variante gezeigt. Evtl hat Nvidia aufgrund der wenigen Chips EVGA als Exklusivpartner bis zur breiteren Verfügbarkeit?

Edit: Andererseits wäre 0:00 auch ein komischer zeitpunkt für einen launch...

reunion
2009-11-14, 11:33:59
Edit: Andererseits wäre 0:00 auch ein komischer zeitpunkt für einen launch...

Passt zum Black Friday Shopping. EVGA braucht Aufmerksamkeit.

igg
2009-11-14, 13:39:34
neliz meint es wäre EVGAs Hybridkarte. Das macht natürlich Sinn, ging bishe davon aus, dass sie schon auf dem Markt ist

LovesuckZ
2009-11-14, 13:46:33
neliz meint es wäre EVGAs Hybridkarte. Das macht natürlich Sinn, ging bishe davon aus, dass sie schon auf dem Markt ist

Ist sie auch: http://www.evga.com/Products/moreinfo.asp?pn=012-P3-1178-TR

Und das "Buy now" steht wohl für "sofort lieferbar".

Hieß es nicht Fermi launcht an einem Dienstag?

Der Counter bezieht sich bestimmt auf die System-Zeit des eigenen PCs. Somit wäre es noch Dienstag in Amerika. Wurde die 8800GTX nicht auch am 07.11.2006 um 00:00Uhr in Deutschland released? Ich habe mich nämlich in Nürnberg gewundert, warum man Abends noch keine wirkliche Anzahl von Reviews sehen konnte.

Don-Roland
2009-11-14, 17:23:10
Bad News:

Nvidia's Fermi is delayed
Not expected until some time in 2010

http://www.theinquirer.net/inquirer/news/1561640/nvidia-fermi-delayed

Gouvernator
2009-11-14, 17:35:32
Das ist doch zum Heulen... Alte NV Karten sind sauteuer und rar und es kommt nichts neues. Gab es irgendwann mal so eine Situation wo abgelaufene, schrottreife Highend Karten am Ende ihres Lebenszyklus teuerer wurden und dazu ohne jegliche Alternative?! ;D

Don-Roland
2009-11-14, 18:00:46
Ja bei AGP Karten (als die ausliefen)...

Gast
2009-11-14, 18:06:59
Ach ja ... da steht es ja schon wieder ... "In fact, we tend to doubt they'll see graphics cards at retail before May." - gut, dass der Zensurarm der 3dcenter Mods nicht bis zum inquirer reicht :D

boxleitnerb
2009-11-14, 18:11:57
Mann NVidia, kriegt mal euren Arsch hoch! Wenn das stimmt, ist es wirklich ärgerlich! Wann hat man ATI zuletzt so lange das Schlachtfeld überlassen?

Raff
2009-11-14, 18:18:52
AMD kann gerade kaum besser liefern. X-D Schönen Dank, Nvidia, das bedeutet nämlich, dass auch die HD 5870 nicht viel günstiger werden wird. Ohne Konkurrenz kein Preisfall – es sei denn, AMD pocht mit aller Kraft auf Marktanteile.

MfG,
Raff

boxleitnerb
2009-11-14, 18:22:21
Naja bis Mai wird es wohl besser werden! :)

Raff
2009-11-14, 18:23:12
Mai ist ein Scherz, das Ding kommt gewiss früher.

MfG,
Raff

reunion
2009-11-14, 18:23:22
Solange es schon zum aktuellen Preis nicht mal annähernd genügend Karten gibt werden die Preise höchstens steigen. :)

boxleitnerb
2009-11-14, 18:27:11
Du weißt sicher mehr als ich darüber, aber nach all den Verschiebungen hat man halt so eine gewisse Skepsis. Vor allem muss - zumindest für mich - Fermi bei der Verspätung und bei den recht lahmen Steigerungen in den letzten Jahren wie eine Bombe einschlagen. Auch das bezweifle ich irgendwie.

reunion
2009-11-14, 18:31:45
Im Endeffekt weiß es noch nicht mal NV wann das Ding kommen wird. Aktuell wird am A3 Stepping gefeilt laut Ail. Damit ist heute jede Festlegung sinnlos. Das einzige was man gewiss sagen kann ist das es in 2009 nichts mehr wird. Und genau das haben ja mittlerweile auch die Sites eingestanden welche bis zuletzt auf 2009 bestanden.

Nakai
2009-11-14, 18:47:30
Mal schaun wann Ail diese News zerlegt. Imo ne Enttäuschung, wenn es wirklich so kommt. Ich hab nen PC neben mir stehn, der ne neue Graka braucht. ATIs sind derzeit zu teuer und NV kann ned liefern. Die solln sich beeilen!


mfg Nakai

LovesuckZ
2009-11-14, 19:14:29
TheinQ bezieht sich doch auch nur auf die CC und dort sagt nVidia, dass "full ramping" im Q1 stattfindet. Das heißt, dass der Launch irgendwann zwischen Q4 und Q1 stattfinden wird - denn sie sagen auch, dass die Transition zu Fermi am Ende von Q4 passieren wird.

Und zum Thema Wettbewerb und Preiskampf: Selbst wenn nVidia schon draußen wäre, man könnte weder Fermi noch Cypress kaufen.

pervert
2009-11-14, 23:02:30
Möchte auch mal was zum Thema "full ramping" sagen.

Ich weiß nicht was die ganze Welt in das Gewäsch von Jen-Hsun hineininterpretiert?? Für mich war das nur 08/15 Investoren-bei-Laune-halten Gequatsche und VORALLEM nicht Neues oder Negatives!! Es wurde schon lange zuvor gesagt, dass die "volle Produktpalette" (also auch Mittelklasse Fermis etc) erst im Q2 am Start sein soll und insofern sehe ich hier keinerlei neue Informationen, denn er sagt nach wie vor nur, dass die volle Linie im Q1 gefertigt wird und das wusste man demanch auch schon vorher. Dort steht NIRGENDS dass irgendein Produkt (wie High End Fermi) später kommt, welches möglicherweise früher gelaunched werden sollte.

Im Grunde sagt der Mensch doch nur: Hey Jungs, macht euch keine Sorgen, im Q1 legen wir mit der vollen Linie so richtig los. Nicht mehr, nicht weniger. Neutraler geht es kaum!

Dies soll natürlich nicht heißen, dass aus dem 2009 High End Launch noch was wird, wenn jetzt erst einmal am A3 gebastelt werden muss. Sollte nur ein Hinweis sein, das man so manche Aussage auch überinterpretieren kann, insbesonders im Moment wird NV einfach alles irgendwie negativ ausgelegt und jeder noch so unbedeutende Informationshappen gleich als neuerliche Verzögerung/Hiobsbotschaft gedeutet. Das ist doch nichts weiter als übertriebene Schwarzseherei, komplett neue Technologien lassen nunmal gerne auf sich warten, das ist doch nichts Neues. Ich habe ja ein wenig Verständnis dafür aufgrund der ganzen Veralberung mit dem Fake Board etc, dennoch ist es genauso falsch wie noch auf eine Verfügbarkeit im Dezember zu hoffen.

Mancko
2009-11-15, 00:34:18
Vor allem ist doch momentan überhaupt kein Handlungsbedarf. AMD kann nicht liefern und wir haben jetzt schon die 2te Novemberhälfte. Launch in Q1 2010 ist ok, wenn das Produkt überzeugen kann. Mir scheint auch, dass viele gar nicht so den Kaufdruck haben. Früher haben die Leute in meinem Bekanntenkreis (mich eingeschlossen) immer die aktuellsten Grakas gekauft und zwar sofort wenn sie erschienen sind. Heute habe ich eher den Eindruck, dass die Leute überlegter an die Sache herangehen. Für die meissten sind die Produkte ohnehin Overkill. So richtig bahnbrechend neues gabs doch auch nicht mehr in den letzten 2 Jahren. AA und AF kennt jeder, das Gamer Verhalten ändert sich auch (hin zu Konsolen). Die Qualität der meissten PC Spiele ist auch schon lange nicht mehr das, was sie mal war. Insofern werden sich Nvidia und AMD ohnehin schwer tun hier permanent was neues in großen Mengen zu verkaufen.

Nvidia macht mir da noch am ehesten den Anschein, als hätten sie das geschnallt. Da wird ganz stark auf professionelle Bereiche und mobile Kleingeräte gesetzt. Es wird auch weiter High End Desktop Grafikkarten geben, sowie auch ein komplettes Lineup. Aber der Gralsbringer wird das auf Sicht von 3 bis 5 Jahren nicht mehr sein, weil das PC Gaming in den letzten Jahren am errodieren ist und weiter errodiert. Die großen Publisher haben schon längst keine Lust mehr hier groß zu investieren. Am PC lässt sich der Kunde nicht so gut knebeln wie auf einer Konsole aufgrund der Flxibilität des Hardware Setups. Aufwand und Ertrag stehen dort in einem schlechten Verhältnis für den Publisher - leider...
Ich wünschte es wär anders.

YfOrU
2009-11-15, 03:50:34
Naja, das die 58x0 Varianten teuer und kaum verfügbar sind stimmt schon, allerdings ist die 4890 problemlos zu bekommen und das für 150€. Die gehört zwar zu alten Generation, es ist aber trotzdem ein sehr gutes Angebot. In Relation dazu ist die GTX Reihe deutlich schlechter verfügbar und meist teurer. So gesehen ist hier aufgrund des Weihnachtsgeschäfts durchaus Handlungsbedarf vorhanden. Auch wenn es sich dabei nur um alte Modelle handelt.

reunion
2009-11-15, 08:27:21
TheinQ bezieht sich doch auch nur auf die CC und dort sagt nVidia, dass "full ramping" im Q1 stattfindet. Das heißt, dass der Launch irgendwann zwischen Q4 und Q1 stattfinden wird - denn sie sagen auch, dass die Transition zu Fermi am Ende von Q4 passieren wird.


Es wird zwar von der gesamten Presse weltweit anders interpretiert, aber wenn du das sagst.

Ailuros
2009-11-15, 09:43:57
Ich weiss nicht wann sie ankuendigen wollen. Persoenlich ist mir persoenlich ein hard launch lieber, weil Ihre interne Entschuldigung bis jetzt in der Richtung liegt dass nichts krummes an der hw liegt und sie eher nicht AMD's begrenzte Verfuegbarkeit wiederholen wollen.

Unter normalen Umstaenden duerfte dies heissen (angenommen alle neuesten Indizien stimmen) dass man die vorhandenen A2 samples vielleicht der Presse bzw. ISVs verteilt bis man dank A3 mit voller Pulle in Produktion schicken kann. Die Zeitspanne zwischen den beiden duerfte aber nicht ueber viele Wochen laufen sonst ist es auch kein hard launch mehr.

Auch Tegra2 soll in Q1 zum "ramping up production" kommen, obwohl der eigentlich tape out fuer das SoC schon Ende 2008 stattfand. Tegra hat nicht das geringste mit GF100 zu tun, denn SoCs sind ganz andere Tiere. Es hilft auf jeden Fall den Mythos ueber volle Kapazitaeten bei TSMC 40G zu brechen; ja natuerlich baut sich TSMC zunehmend fuer 40nm auf, aber ploetzlich von einer GF100 auf 5 GF1xx Varianten zu steigen und dazu noch Tegra ist schon ein gewaltiger Unterschied. Sobald NV sicher ist GF100 dass auf Produktionsreife X steht, kommen schlaghaft die anderen Mitglieder der Familie an die Reihe.

LovesuckZ
2009-11-15, 09:44:10
Naja, das die 58x0 Varianten teuer und kaum verfügbar sind stimmt schon, allerdings ist die 4890 problemlos zu bekommen und das für 150€. Die gehört zwar zu alten Generation, es ist aber trotzdem ein sehr gutes Angebot. In Relation dazu ist die GTX Reihe deutlich schlechter verfügbar und meist teurer. So gesehen ist hier aufgrund des Weihnachtsgeschäfts durchaus Handlungsbedarf vorhanden. Auch wenn es sich dabei nur um alte Modelle handelt.

Naja, die 4890 ist im Vergleich zur GTX260^2 nun auch nicht so attraktiv, dass man meinen müsste, nVidia wäre zum Handeln gezwungen.
Schlussendlich spielen die D3D11 Karten von AMD keine Rolle, da die Verfügbarkeit schlecht ist. Mit viel Glück erhält man noch bis Weihnachten eine, aber die große Masse kommt auch erst im Q1. Und bis dahin wird auch nVidia mit ihren neuen Karten auf dem Markt sein.

reunion
2009-11-15, 09:52:38
Ich weiss nicht wann sie ankuendigen wollen. Persoenlich ist mir persoenlich ein hard launch lieber, weil Ihre interne Entschuldigung bis jetzt in der Richtung liegt dass nichts krummes an der hw liegt und sie eher nicht AMD's begrenzte Verfuegbarkeit wiederholen wollen.


Die Entschuldigung ist aber ziemlich billig wenn man bis vor kurzem nicht mehr als einen Dummy zeigen könnte und irgend eine "Krakenkarte" hatte. Selbst jetzt soll ja noch an einem neuen Stepping gefeilt werden. Ich würde es eher so sehen: NV hat verdammt viel Glück das TSMC nicht liefern kann, denn so können sie in Ruhe ihren Chip fertig machen ohne das viel Schaden entsteht. Wenn das dann irgend wann 2010 besser wird sollte auch NV mit Fermi nicht mehr weit sein.

Ailuros
2009-11-15, 09:53:59
Naja, die 4890 ist im Vergleich zur GTX260^2 nun auch nicht so attraktiv, dass man meinen müsste, nVidia wäre zum Handeln gezwungen.
Schlussendlich spielen die D3D11 Karten von AMD keine Rolle, da die Verfügbarkeit schlecht ist. Mit viel Glück erhält man noch bis Weihnachten eine, aber die große Masse kommt auch erst im Q1. Und bis dahin wird auch nVidia mit ihren neuen Karten auf dem Markt sein.

Ich bleibe aber dabei dass NVIDIA in der Zukunft jeglichen Performance chip vor der high end Variante praesentieren sollte und es wird auch schon hoechstwahrscheinlich schon in die Richtung gearbeitet. Ueberhaupt wenn es stimmt dass TSMCs 32nm auch auf wackeligen Beinen steht.

Im Endeffekt hat AMD den Luxus frueher devsamples an ISVs ausgeliefert zu haben.

Die Entschuldigung ist aber ziemlich billig wenn man bis vor kurzem nicht mehr als einen Dummy zeigen könnte und irgend eine "Krakenkarte" hatte. Selbst jetzt soll ja noch an einem neuen Stepping gefeilt werden. Ich würde es eher so sehen: NV hat verdammt viel Glück das TSMC nicht liefern kann, denn so können sie in Ruhe ihren Chip fertig machen ohne das viel Schaden entsteht. Wenn das dann irgend wann 2010 besser wird sollte auch NV mit Fermi nicht mehr weit sein.

Nur passt eben Zeug wie Tegra (wie oben erwaehnt) nicht in das Bild rein. Zugegeben SoC haben eine laengere Zeitspanne zwischen tape out und Massenproduktion aber wohl doch nicht >1 Jahr. Und man geht schon gar nicht mit so einem Ding in Massenproduktion wenn die yields nicht zumindest ueber 60% liegen und selbst das ist schon beschissen fuer solche chips, denn sonst besteht die Gefahr dass man von dem Zeug gar nichts mehr abbekommt.

Von dem abgesehen die gesamte Affaere ist nicht so einfach wie sie aussieht. NV kann nicht so leicht den HPC Markt einfach so abkacken, Vertraege abschliessen fuer Zeitspanne X und dann nicht ausliefern zu koennen. Es geht hier um ganz andere Volumen und nochmal wenn Cypress bis jetzt sagen wir mal in 100.000 Exemplaren erschien (schaetzungsweise) waeren die Chancen selbst so viel zu erreichen beim heutigen Zustand minimal. Eher um einiges weniger; und was soll man jetzt zuerst mit sagen wir mal 50000 oder sogar weniger samples genau zuerst ausliefern? Man haette den mainstream Verbraucher genauso nochmehr genervt als die heutigen 5800 Warteschlangen und dazu noch grosse Firmen die auf HPC GPUs warten.

Angenommen in Q1 aendern sich heutige Zustaende radikal und der mainstream Markt verhungert immer noch durch maessige Verfuegbarkeit, heisst auch nicht dass NV im HPC Markt nicht ausliefern wird. Wie sich die Verfuegbarkeit zwischen diesen beiden Welten ausbalancieren wird bleibt abzusehen.

Die Situation ist durchaus miserabel, aber ein frueherer launch als haette mehr Probleme als Vorteile fuer sie geheissen.

LovesuckZ
2009-11-15, 09:58:19
Ich bleibe aber dabei dass NVIDIA in der Zukunft jeglichen Performance chip vor der high end Variante praesentieren sollte und es wird auch schon hoechstwahrscheinlich schon in die Richtung gearbeitet. Ueberhaupt wenn es stimmt dass TSMCs 32nm auch auf wackeligen Beinen steht.

Im Endeffekt hat AMD den Luxus frueher devsamples an ISVs ausgeliefert zu haben.

Jetzt hat nVidia 3 Jahre Zeit, um ihre Strategie zu ändern. Wir werden sehen, ob sie es machen.

AnarchX
2009-11-15, 10:00:08
http://bbs.chiphell.com/viewthread.php?tid=60119&extra=page%3D1

Wohl noch ein halbes Jahr, bis Fermi breit verfügbar sein soll und der Performanceunterschied zwischen GF100 und RV870, soll vergleichbar sein wie G80 zu RV670.

LovesuckZ
2009-11-15, 10:02:21
der Performanceunterschied zwischen GF100 und RV870, soll vergleichbar sein wie G80 zu RV670.

Das wäre - ausgehend von der 8800GTX - ca. 60%. Damit wäre man Hemlock-Niveau. Naja, das klingt dann doch ziemlich unglaubwürdig.

Ailuros
2009-11-15, 10:16:04
Das wäre - ausgehend von der 8800GTX - ca. 60%. Damit wäre man Hemlock-Niveau. Naja, das klingt dann doch ziemlich unglaubwürdig.

Ich traue der Bumsfallera Aussage nicht. Es ist so oder so ein beschissener Vergleich.

Aber Moment: Hemlock soll im Durchschnitt 60% schneller sein als Cypress? Erklaer mir erstmal diese Einschaetzung.

LovesuckZ
2009-11-15, 10:21:20
Aber Moment: Hemlock soll im Durchschnitt 60% schneller sein als Cypress? Erklaer mir erstmal diese Einschaetzung.

80% Skalierung im Durchschnitt - 17% (Chip)/20%(Speicher) Leistung aufgrund der 5850 Taktraten = ca. 60% Mehrleistung.
Solange die Taktraten nicht auf 5870 Niveau liegen, sehe ich nicht, wie Hemlock eine 100% Skalierung im Durchschnitt erreichen sollte. Und da AFR weiterhin problematisch ist, sind die 60% aus meiner Sicht realistisch.

reunion
2009-11-15, 10:23:04
Die Situation ist durchaus miserabel, aber ein frueherer launch als haette mehr Probleme als Vorteile fuer sie geheissen.

Ein früherer Launch wäre doch gar nicht möglich gewesen wenn sie jetzt noch an einem neuen Stepping feilen. Deshalb meine Aussage NV hatte Glück das TSMC Prozess nicht läuft.

Ailuros
2009-11-15, 10:23:35
80% Skalierung im Durchschnitt - 17% (Chip)/20%(Speicher) Leistung aufgrund der 5850 Taktraten = ca. 60% Mehrleistung.
Solange die Taktraten nicht auf 5870 Niveau liegen, sehe ich nicht, wie Hemlock eine 100% Skalierung im Durchschnitt erreichen sollte. Und da AFR weiterhin problematisch ist, sind die 60% aus meiner Sicht realistisch.

Uhmmm nein. 60% ist mir persoenlich momentan zu optimistisch.

reunion
2009-11-15, 10:23:41
http://bbs.chiphell.com/viewthread.php?tid=60119&extra=page%3D1

Wohl noch ein halbes Jahr, bis Fermi breit verfügbar sein soll und der Performanceunterschied zwischen GF100 und RV870, soll vergleichbar sein wie G80 zu RV670.


Maschinelle Übersetzung:

NV next week to show the general operation of Fermi, Fermi has been gathered from the grapevine is also a basic shape, but the final production may have to half a year. Of course, because of TSMC's 40nm production are NV firmly to the amount of days GT210, GT220 chip lock, AMD's RV870/840 difficult, GTX295/285/275/260 is selling like hot, in short supply. Fermi and the RV870 is said to compare the performance of the basic can be light G80 vs RV670, Hehe. As for the Fermi came out, AMD-TMSC's 32nm, do not know when to mass production.

80% Skalierung im Durchschnitt - 17% (Chip)/20%(Speicher) Leistung aufgrund der 5850 Taktraten = ca. 60% Mehrleistung.
Solange die Taktraten nicht auf 5870 Niveau liegen, sehe ich nicht, wie Hemlock eine 100% Skalierung im Durchschnitt erreichen sollte. Und da AFR weiterhin problematisch ist, sind die 60% aus meiner Sicht realistisch.

Die Taktraten werden zumindest über 5850-Niveau liegen.

Ailuros
2009-11-15, 10:25:46
Maschinelle Übersetzung:




Die Taktraten werden zumindest über 5850-Niveau liegen.

Ich will wetten dass bei einer normalen Uebersetztung auch nichts anstaendigeres herauskommt.

Raff
2009-11-15, 11:25:31
Uhmmm nein. 60% ist mir persoenlich momentan zu optimistisch.

Ist man im Grafiklimit, kommt das IMO schon hin. 50+ Prozent wird man jedoch mit heutigen CPUs und MSAA-Tests nicht zu Gesicht bekommen. Dieser Prozentsatz verrät aber nur die halbe Wahrheit: Durch die AFR-Restriktionen verpufft sehr viel von dieser Fps-Steigerung.

MfG,
Raff

nagus
2009-11-15, 11:25:55
Das wäre - ausgehend von der 8800GTX - ca. 60%. Damit wäre man Hemlock-Niveau. Naja, das klingt dann doch ziemlich unglaubwürdig.

du willst doch wohl nicht allen ernstes behaupten, dass eine 8800gtx im schnitt 60% schneller ist als eine radeon 3870? falls doch frage ich dich, obs bei dir manchmal knistert im oberstübchen?

14 Grafikkarten im Vergleich (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_14_grafikkarten_vergleich/8/#abschnitt_performancerating_qualitaet) (aktuelle treiber!)

und die 3870er (rv670) ist fast durch die bank schneller als die 2900xt. siehe hier: Test: ATi Radeon HD 3870 X2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet) (alter test, alte treiber!)

Ronny145
2009-11-15, 11:31:28
und die 3870er (rv670) ist fast durch die bank schneller als die 2900xt. siehe hier: Test: ATi Radeon HD 3870 X2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet) (alter test, alte treiber!)


2% schneller, das ist gar nichts wenn man den Treibervorteil bedenkt.

nagus
2009-11-15, 11:35:46
2% schneller, das ist gar nichts wenn man den Treibervorteil bedenkt.

ja und jetzt schau dir mal die 2900xt vs. 8800gts (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_14_grafikkarten_vergleich/8/#abschnitt_performancerating_qualitaet) an. wo sind da +60%?

Raff
2009-11-15, 11:37:25
Die 8800 GTX ist etwa 30 Prozent schneller als die GTS. 60 Prozent sind's damit vielleicht nicht, aber viel fehlt nicht.

MfG,
Raff

LovesuckZ
2009-11-15, 11:45:36
Je aktueller die Spiele, desto größer ist der Abstand zwischen dem G80 und dem RV670. PCGH.de zeigte, dass in CoD:MW 2 die 8800GT mit AA/AF 73% schneller als die 3870 ist.
Im letzten gleichen Test von Computerbase zu Weihnachten ist eine 8800GT 41% schneller als die 3870 - beim Release waren es nur 8%. Man sollte die Wirklichkeit schon akzeptieren können.

Gast
2009-11-15, 11:46:00
du willst doch wohl nicht allen ernstes behaupten, dass eine 8800gtx im schnitt 60% schneller ist als eine radeon 3870? falls doch frage ich dich, obs bei dir manchmal knistert im oberstübchen?

Eine 3870 ist vergleichbar zu einer 9600 GT.

Eine 9600 GT ist im Idealfall so gut wie eine 8800 GTS 640. Eine 8800 GTX ist stets 50% schneller als eine 8800 GTS 640.

und die 3870er (rv670) ist fast durch die bank schneller als die 2900xt. siehe hier: Test: ATi Radeon HD 3870 X2 (alter test, alte treiber!)
Leider nur fast, auch wenn der Name eine stets deutlich höhere Perfomance andeutet.
http://www.anandtech.com/video/showdoc.aspx?i=3151&p=7

Raff
2009-11-15, 11:48:59
Je aktueller die Spiele, desto größer ist der Abstand zwischen dem G80 und dem RV670. PCGH.de zeigte, dass in CoD:MW 2 die 8800GT mit AA/AF 73% schneller als die 3870 ist.

Hier sollte man noch erwähnen, dass CoD 5 und 6 den absoluten Worst Case darstellen. Die Spiele lieben Füllrate.

http://www.pcgameshardware.de/aid,699165/Call-of-Duty-6-Modern-Warfare-2-im-Technik-Test-Grafik-Vergleich-Update-Grafikkarten-Benchmarks/Action-Spiel/Test/

MfG,
Raff

Gast
2009-11-15, 11:49:06
2% schneller, das ist gar nichts wenn man den Treibervorteil bedenkt.
:lol:
Danke für den Tipp.
Dank deutlich neuerer Treiber ist die 3870 2% vorne. Im Schnitt, also oft hintendran, bzw ab und an auch vorne.

Mit neuem Treiber wärs anders. Die 2900 XT wäre im Schnitt mehr als 2% vorne.

dargo
2009-11-15, 11:50:28
Die 8800 GTX ist etwa 30 Prozent schneller als die GTS. 60 Prozent sind's damit vielleicht nicht, aber viel fehlt nicht.

Falls du die G8800GTS 640 meinst sind es bei der GTX + ~45-50%. In Teilbereichen ist die GTX von den Daten her ~50% schneller, nur die Speicherbandbreite legt um 35% zu. Wenn die Daten bekannt sind braucht man noch nicht mal irgendwelche Benchmarks. Wenn man natürlich Benchmarks aufstellt wo schon zum Teil die CPU limitiert kommt man nicht in diese Regionen.

nagus
2009-11-15, 11:51:03
Die 8800 GTX ist etwa 30 Prozent schneller als die GTS. 60 Prozent sind's damit vielleicht nicht, aber viel fehlt nicht.

MfG,
Raff

ok, bei ultrahohenauflösungen wenn der speicher zu wenig wird stimmt das, aber ich denke nicht, dass man von diesem extrembeispiel ausgehend die durchschnittsleistung berechnen soll. in der tat isses nämlich ziemlich exakt gleich schnell ist.

Test: Nvidia GeForce 8800 GTS 512 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet)

AnarchX
2009-11-15, 11:52:28
Man sollte sich an dieser Aussage auch nicht zu sehr aufhängen, da die Parameter unbekannt sind und sich auch noch ändern können.

Das Fermi das Potential hat schneller als RV870 zu sein, steht ausser Frage.
Die Frage ist nur "wann?".

Gast
2009-11-15, 11:52:43
ok, bei ultrahohenauflösungen wenn der speicher zu wenig wird stimmt das, aber ich denke nicht, dass man von diesem extrembeispiel ausgehend die durchschnittsleistung berechnen soll.

Quatsch, im CPU Limit.
Es sind sonst wie gesagt 50%. Im Worst Case, z.b. VRAM Limit könnens auch mehr sein.

dargo
2009-11-15, 11:55:39
ok, bei ultrahohenauflösungen wenn der speicher zu wenig wird stimmt das...
Das hat nichts mit zu wenig Speicher zu tun. Leute, wann begreift ihr endlich wie man Benchmarks richtig interpretiert? Du kannst mir gerne den Sinn von Grafikkartentests mit CPU-Limits erklären.
Es ist doch wohl logisch, dass man bei Grafikkartentests möglichst hohe GPU-Last erzeugt (genauso wie bei CPU-Tests möglichst hohe CPU-Last), ansonsten kann man sich die Tests gleich sparen.

LovesuckZ
2009-11-15, 11:55:40
Hier sollte man noch erwähnen, dass CoD 5 und 6 den absoluten Worst Case darstellen. Die Spiele lieben Füllrate.

http://www.pcgameshardware.de/aid,699165/Call-of-Duty-6-Modern-Warfare-2-im-Technik-Test-Grafik-Vergleich-Update-Grafikkarten-Benchmarks/Action-Spiel/Test/

MfG,
Raff

Deswegen bin ich kurz eurem Test zur 5770 durchgegangen: Im Durchschnitt ist die 9800GT dort 63,8% schneller als die 3870 - mit Spitzen von 96% bzw. 6% in 1680x1050 und AA/AF. Eine 8800GTX ist ca. 10-15% schneller in diesem Setting. Keine Ahnung also, was dieser Typ hat - aber die Wahrheit wegzureden ist dann doch sehr traurig.

nagus
2009-11-15, 12:03:07
Deswegen bin ich kurz eurem Test zur 5770 durchgegangen: Im Durchschnitt ist die 9800GT dort 63,8% schneller als die 3870 - mit Spitzen von 96% bzw. 6% in 1680x1050 und AA/AF. Eine 8800GTX ist ca. 10-15% schneller in diesem Setting. Keine Ahnung also, was dieser Typ hat - aber die Wahrheit wegzureden ist dann doch sehr traurig.

kuckst du hier: (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9500_gt_9800_gt/23/#abschnitt_performancerating_qualitaet) es sind maximal 40% zwischen 3870 und 8800GTX. also von deinen 60% im schnitt sind wir da weit entfernt.

AnarchX
2009-11-15, 12:04:46
Laut PCGH ist eine 9800 GT, die langsamer ist als eine 88 GTX/Ultra, durchaus >50% schneller als eine 3870 im Durchschnitt in aktueller Software:
http://www.pcgameshardware.de/aid,678322/Ati-und-Nvidia-Grafikkarten-Test-Uebersicht-und-aktuelle-Kauf-Tipps-November-2009/Grafikkarte/Test/

Wenn GF100 etwas ähnliches erreichen will, muss die Effektivität der Einheiten deutlich gestiegen sein. Bei RV670 vs G80 gab es ja durchaus einen Faktor 3 bei Tex/Z-Fill, den man bei RV870 vs GF100 nicht mehr hat.

Tarkin
2009-11-15, 12:05:08
gelöscht

Gast
2009-11-15, 12:05:34
kuckst du hier: (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9500_gt_9800_gt/23/#abschnitt_performancerating_qualitaet) es sind maximal 40% zwischen 3870 und 8800GTX. also von deinen 60% im schnitt sind wir da weit entfernt.
Kannst du nichtmal Tests ohne Treiberchaos nehmen?

Undertaker
2009-11-15, 12:08:51
Hohlraumsausen ist bei dir offenbar sehr ausgeprägt....

schon mal bei Geizhals nachgesehen in letzter Zeit?

http://geizhals.at/eu/?cat=gra16_512&v=l&plz=&dist=&sort=p&xf=132_1024

*hüstl*

28 verschiedene 4890er werden von einer VIELZAHL von Shops verfügbar ab 142,- gelistet

bei den 260 sieht es hingegen SEHR finster aus... nur 3 karten bei etwa 20 Shops... ab 175,- (!!!)


http://geizhals.at/eu/?cat=gra16_512&v=l&plz=&dist=&xf=132_512~891_GeForce%20GTX%20260&sort=p

Ab 126/129€ (192/216) lieferbar. Wie kommst du auf 3 Karten und 175€? :confused:


260 und 275 ist EOL... ne andere erklärung gibt es nicht. Ich bezweifle stark, dass die Nachfrage nach 260 und 275er Karten um so viel höher ist als bei den 4890ern.

Du scheinst bei den 1792MB Karten geschaut zu haben.

Gast
2009-11-15, 12:11:58
260 und 275 ist EOL... ne andere erklärung gibt es nicht.
Ja unser lieber Charlie.
http://www.fudzilla.com/content/view/16275/34/
:lol:

Und wie erklärt sich, das die GTX 285 aufeinmal nochmal aufgetaucht ist, einen Monat nach "EOL"?

Naja egal.

Tarkin
2009-11-15, 12:12:18
http://geizhals.at/eu/?cat=gra16_512&v=l&plz=&dist=&xf=132_512~891_GeForce%20GTX%20260&sort=p

Ab 126/129€ (192/216) lieferbar. Wie kommst du auf 3 Karten und 175€? :confused:



Du scheinst bei den 1792MB Karten geschaut zu haben.

jep, sry mein Fehler

Wie auch immer... 1GB 4870 gibts ab 109 Euro und 4890 ab 140 Euro

vergleichbare (ebenfalls lagernde) nVidia Produkte kosten 130 (260 216) bzw. 175 Euro (275)

ergo IMO ATi attraktiver in diesem Segment

Gast
2009-11-15, 12:12:22
Was versteifen sich nun alle auf diese Chiphell Aussage? Was der Chip kann (bzw. können wird), weiß bis auf NV niemand. Aktuell sind sie sicher nicht dort, wo sie gerne sein möchten.
Davon abgesehen: Wenn dieses halbe Jahr punkto Verfügbarkeit stimmen sollte, dürfte sich GF100 bereits mit dem Nachfolger der 5XXX Serie duellieren.

Die Verfügbarkeit der Radeons ist übrigens hier in der CH gar nicht schlecht. Klar, es gibt sie nicht gerade wie Sand am Meer, aber verfügbar sind sie durchaus. Sogar im Media Markt; dort allerdings zu Mondpreisen.

horn 12
2009-11-15, 12:14:27
Ergänzung vom 15.11.2009 12:02 Uhr: Wenns HOCH kommt ist das HighEnd Fermi max. 30% schneller als eine Standard HD5870.
Mit dem Refresh des RV870 sollten es dann nur mehr 10-15% werden, und an diesem wird sich Fermi messen müssen.
Da kann ATI ERNEUT MIT DEM PREIS spielen und die HD5850/5870 wird auf 150/220 Euro gesenkt.
Fakt ist dass es NV einfach nach dem G80 verschlafen hat, jetzt bekommen sie die Rechnung tausendfach zurück!

Mein Fazit: Recht geschieht Ihnen, Waren sie doch immer zu hoch zu Roß.

dargo
2009-11-15, 12:23:42
Ergänzung vom 15.11.2009 12:02 Uhr: Wenns HOCH kommt ist das HighEnd Fermi max. 30% schneller als eine Standard HD5870.
Mit dem Refresh des RV870 sollten es dann nur mehr 10-15% werden, und an diesem wird sich Fermi messen müssen.
Da kann ATI ERNEUT MIT DEM PREIS spielen und die HD5850/5870 wird auf 150/220 Euro gesenkt.
Fakt ist dass es NV einfach nach dem G80 verschlafen hat, jetzt bekommen sie die Rechnung tausendfach zurück!

Mein Fazit: Recht geschieht Ihnen, Waren sie doch immer zu hoch zu Roß.
Wie oft willst du noch den Untergang von NV prophezeihen? X-D

boxleitnerb
2009-11-15, 12:26:24
Vor allem plappert er hier ohne Quellen rum. Das ist zwar ein Spekulationsforum, aber wenn man nie Quellen bringt, wird man auch nicht ernstgenommen.

Botcruscher
2009-11-15, 12:34:02
Bis jetzt standen doch noch nicht mal die Taktraten fest und auf einmal sind es 60%...

LovesuckZ
2009-11-15, 12:34:03
Wie oft willst du noch den Untergang von NV prophezeihen? X-D

Solange, bis sie untergegangen sind? :confused:

Schlammsau
2009-11-15, 12:34:56
Fermi wird ohne Frage schneller als der RV870 werden.
Aber der Vorsprung wird keinesfalls so gross ausfallen, wie es sich hier einige wünschen.
Im Schnitt werden es 20% mehr Leistung zur 5870 sein. Dafür wahrscheinlich auch das doppelte kosten.
Ich denke, man kann ungefähr mit dem GT200 - RV770 Launch vergleichen, nur das ATi momentan einen gewaltigen Vorsprung hat.

Nightspider
2009-11-15, 12:36:47
Ergänzung vom 15.11.2009 12:02 Uhr: Wenns HOCH kommt ist das HighEnd Fermi max. 30% schneller als eine Standard HD5870.
Mit dem Refresh des RV870 sollten es dann nur mehr 10-15% werden, und an diesem wird sich Fermi messen müssen.
Da kann ATI ERNEUT MIT DEM PREIS spielen und die HD5850/5870 wird auf 150/220 Euro gesenkt.
Fakt ist dass es NV einfach nach dem G80 verschlafen hat, jetzt bekommen sie die Rechnung tausendfach zurück!

Mein Fazit: Recht geschieht Ihnen, Waren sie doch immer zu hoch zu Roß.

Du meinst mindestens 30% über der HD5870 und die neue Architektur könnte Nvidia einen genauso großen Vorsprung ATI gegenüber ermöglichen wie der G80 ? :D

Nakai
2009-11-15, 12:38:29
Fermi wird ohne Frage schneller als der RV870 werden.
Aber der Vorsprung wird keinesfalls so gross ausfallen, wie es sich hier einige wünschen.
Im Schnitt werden es maximal 30% mehr Leistung zur 5870 sein. Dafür wahrscheinlich auch das doppelte kosten.
Ich denke, man kann ungefähr mit dem GT200 - RV770 Launch vergleichen, nur das ATi momentan einen gewaltigen Vorsprung hat.

Wir wissen gar nichts über Fermi.

So oder so, ATI ist früher da. Imo muss sich NVs Fermi, wenn er sehr spät kommt, mit dem Refresh des RV870 messen.

Für den Kunden wäre es besser, wenn Fermi nicht so schnell wird, aber dafür relativ früh kommt. Mal guckn...


mfg

LovesuckZ
2009-11-15, 12:41:06
Lustig, dass viele Glauben, dass AMD ein Refresh bringt und nVidia nicht ein, zwei Monate später ihnen es gleichtäte...
Der Refresh vom rv770 benötige 9-10 Monate. Der vom GT200 nur 6 Monate. nVidia und AMD haben in der Vergangenheit gezeigt, dass die Verschiebung einer Generation nie den Refresh betrifft.

Gast
2009-11-15, 12:41:10
Ergänzung vom 15.11.2009 12:02 Uhr: Wenns HOCH kommt ist das HighEnd Fermi max. 30% schneller als eine Standard HD5870.
Mit dem Refresh des RV870 sollten es dann nur mehr 10-15% werden, und an diesem wird sich Fermi messen müssen.
Da kann ATI ERNEUT MIT DEM PREIS spielen und die HD5850/5870 wird auf 150/220 Euro gesenkt.
Fakt ist dass es NV einfach nach dem G80 verschlafen hat, jetzt bekommen sie die Rechnung tausendfach zurück!

Mein Fazit: Recht geschieht Ihnen, Waren sie doch immer zu hoch zu Roß.

Das wird ATI nicht tun. Sie verdienen jetzt schon recht wenig am RV870, was auch die vermutungen um eine leichte Preissteigerung stützen. Ein teurerer Refresh, gerade wo die Speicherpreise anziehen, wird garantiert nicht günstiger als die Karten vonb ATI jetzt, evtl sogar teurer und das über einen längeren Zeitraum.

Schlammsau
2009-11-15, 12:51:08
Es wird ein Refresh kommen, höchstwahrscheinlich wenn Fermi released wird und auf den Namen RV870XTX hören.

Und ausserdem, woher weisst du wieviel ATi am RV870 verdient?

boxleitnerb
2009-11-15, 12:53:50
Woher weißt du, wie teuer G300 wird? Right back at ya...

XTX...also wenn ich mich an die XTX bei der 1900er Serie erinnere, waren das Taktsteigerungen von weniger als 10%...cooler Refresh...not.

Schlammsau
2009-11-15, 13:01:48
Woher weißt du, wie teuer G300 wird? Right back at ya...

XTX...also wenn ich mich an die XTX bei der 1900er Serie erinnere, waren das Taktsteigerungen von weniger als 10%...cooler Refresh...not.

Hat aber doch gereicht um damals eine 7900GTX in die Schranken zu weisen oder? :tongue:

boxleitnerb
2009-11-15, 13:03:59
Spekulieren wir in die Vergangenheit zurück? Wär mir neu!

Undertaker
2009-11-15, 13:04:36
..

derguru
2009-11-15, 13:07:42
Lustig, dass viele Glauben, dass AMD ein Refresh bringt und nVidia nicht ein, zwei Monate später ihnen es gleichtäte...

vorallem weil dann wiederrum 2 monate später was von ati kommen würde:rolleyes:.kannst du drehen wie du willst aber zur zeit hechelt nv hinterher und "falls" der fermi nicht das bringt was erwartet wird dann gute nacht nv.
am ende wird es dann bei ca.20% mehr speed sein zur konkurrenz und ca. das doppelte kosten,also wie immer.

AnarchX
2009-11-15, 13:08:05
Wenn dann könnte ein Cypress XTX die Position gegenüber der GF100GTS stärken.
Zudem könnte man dann noch mit "the first 3 TFLOPs GPU" werben, wenn man über die 940MHz geht.

Schlammsau
2009-11-15, 13:08:14
Spekulieren wir in die Vergangenheit zurück? Wär mir neu!
Du hast damit angefangen oder!?
Fakt ist ein Refresh wird kommen. ATi arbeitet laut Gerüchten schon längst daran. Wieviel schneller der sein wird, kann man jetzt noch nicht sagen.

Aber eins ist sicher, Fermi wird wie seinerzeit der GT200, nicht der Überchip.
Er wird eine gesunde Leistungsteigerung von guten 50% zum Vorgänger haben.

LovesuckZ
2009-11-15, 13:09:53
vorallem weil dann wiederrum 2 monate später was von ati kommen würde:rolleyes:.kannst du drehen wie du willst aber zur zeit hechelt nv hinterher und "falls" der fermi nicht das bringt was erwartet wird dann gute nacht nv.
am ende wird es dann bei ca.20% mehr speed sein zur konkurrenz und ca. das doppelte kosten,also wie immer.

Stimmt - AMD bringt 2 Monate nach ihrem Refresh wiederum einen Refresh. ;D

Wenn dann könnte ein Cypress XTX die Position gegenüber der GF100GTS stärken.
Zudem könnte man dann noch mit "the first 3 TFLOPs GPU" werben, wenn man über die 940MHz geht.

Sowie der 4890? Der wurde von der GTX275 noch vorm Start abgefangen.

boxleitnerb
2009-11-15, 13:10:24
Ich wollte nur sagen, eine XTX ist kein Refresh. Mehr nicht. Das waren einfach ein paar selektierte Chips für Leute, die überproportional mehr Kohle für ein Quentchen mehr Leistung abdrücken wollen.

AnarchX
2009-11-15, 13:12:35
Aber eins ist sicher, Fermi wird wie seinerzeit der GT200, nicht der Überchip.

Naja, GF100 hat gegenüber G200 doch um einiges mehr Potential, als dieser gegenüber G80.

Gerade die Taktrate wird ein wichtiger Faktor für GF100 sein und da heißt es wohl A3 abwarten.

Schlammsau
2009-11-15, 13:12:38
Ich wollte nur sagen, eine XTX ist kein Refresh. Mehr nicht. Das waren einfach ein paar selektierte Chips für Leute, die überproportional mehr Kohle für ein Quentchen mehr Leistung abdrücken wollen.

Aso.....aber ihr werdet euch umschauen, wieviel Kohle für Fermi sehen will.
Das Ding wird mal wieder Schweineteuer werden. Wie es eben typisch ist für nVidia.

LovesuckZ
2009-11-15, 13:14:06
Ich wollte nur sagen, eine XTX ist kein Refresh. Mehr nicht. Das waren einfach ein paar selektierte Chips für Leute, die überproportional mehr Kohle für ein Quentchen mehr Leistung abdrücken wollen.

Richtig. Die 7800GTX-512 war auch kein Refresh. Einem Refresh im Form eines G92, rv670 oder auch GT200b wird es nicht geben. AMD wird vielleicht einen A13 Respin machen, um höhrere Taktraten bei besserer Stromaufnahme zu ermöglichen. Mehr wird aber auch nicht kommen. Sie zeigen ja schon deutlich, dass sie sich am oberen Limit mit ihrem rv870 bewegen.

AnarchX
2009-11-15, 13:14:45
Aso.....aber ihr werdet euch umschauen, wieviel Kohle für Fermi sehen will.
Das Ding wird mal wieder Schweineteuer werden. Wie es eben typisch ist für nVidia.
Momentan ist der MSRP wohl bei $499(bzw. <$599) für die größte Single-GPU-SKU.
Nach G200 ist Nvidia sich wohl schon bewusst, dass man für ein mässig schnelleres Produkt keine $649 mehr verlangen kann.

reunion
2009-11-15, 13:15:08
Ich wollte nur sagen, eine XTX ist kein Refresh. Mehr nicht. Das waren einfach ein paar selektierte Chips für Leute, die überproportional mehr Kohle für ein Quentchen mehr Leistung abdrücken wollen.

So ist es. Ein neues Tapeout wird es so schnell nicht geben IMO. Das würde ich erst Ende H1/2010 erwarten. Was wohl kommen wird ist ein RV870 mit mehr Spannung und mehr Takt sowie 6Gbps GDDR5, falls bis dahin verfügbar.

Schlammsau
2009-11-15, 13:15:42
Naja, GF100 hat gegenüber G200 doch um einiges mehr Potential, als dieser gegenüber G80.

Gerade die Taktrate wird ein wichtiger Faktor für GF100 sein und da heißt es wohl A3 abwarten.

Dachte man beim RV870 doch auch, und was ist bis jetzt bei uns angekommen?

Undertaker
2009-11-15, 13:16:57
Aso.....aber ihr werdet euch umschauen, wieviel Kohle für Fermi sehen will.
Das Ding wird mal wieder Schweineteuer werden. Wie es eben typisch ist für nVidia.

Die Sache ist immer, wie die Performance aussieht. Aktuell ist die GTX260 ein bisschen teurer als die HD4870, die GTX275 ein bisschen teurer als die HD4890 - was exakt zur Performance passt. Die GTX285 war als schnellste Singlechipkarte seit jeher konkurrenzlos. Also bitte nicht solche Plattitüden. ;)

LovesuckZ
2009-11-15, 13:17:29
Momentan ist der MSRP wohl bei $499(bzw. <$599) für die größte Single-GPU-SKU.
Nach G200 ist Nvidia sich wohl schon bewusst, dass man für ein mässig schnelleres Produkt keine $649 mehr verlangen kann.

Vorallem kommen sie nach AMD. Also richtet sich der Preis vom GF100 auch an dem von AMD. Beim GT200 kam man vor AMD und hat dann (zwangsweise) auf deren Preise reagiert.

Schlammsau
2009-11-15, 13:18:59
Die Sache ist immer, wie die Performance aussieht. Aktuell ist die GTX260 ein bisschen teurer als die HD4870, die GTX275 ein bisschen teurer als die HD4890 - was exakt zur Performance passt. Die GTX285 war als schnellste Singlechipkarte seit jeher konkurrenzlos. Also bitte nicht solche Plattitüden. ;)

Eben doch und wieviel verlangt man jetzt für die GTX285? Gibt mittlerweile schon 2 schnellere Karten am Markt.
Eine 5850, die wenn lieferbar für ab 220€ über die Ladentheke geht, und die 5870 die auch wenn lieferbar, ab 310€ ihren Besitzer wechselt. Beide Karten schneller als eine GTX285 und sogar im Techlevel noch weiter!

Undertaker
2009-11-15, 13:20:55
Eben doch und wieviel verlangt man jetzt für die GTX285? Gibt mittlerweile schon 2 schnellere Karten am Markt.

Am Markt nicht. Zudem wird die GTX285 auch keinem Konkurrenzkampf mehr ausgesetzt werden, sobald die HD5850/HD5870 den Markt fluten wird man die Karte wohl einfach ohne große Preissenkungen auslaufen lassen.

reunion
2009-11-15, 13:22:26
Dachte man beim RV870 doch auch, und was ist bis jetzt bei uns angekommen?

RV870 ist ein Refresh, GF100 ist NVs neue Generation. Sieht man ja auch das die Effizienz bei AMD deutlich nachgelassen hat. Wenn man so will ist es diesmal genau umgekehrt wie bei RV770/GT200 oder bei der nächsten Generation wo ja was neues von AMD erwartet wird. Da kann man wohl kaum rein auf die Einheitenanzahl ggü. GT200 schauen. Ich erwarte einiges von Fermi. Ansonsten müssen sie sich die Frage gefallen lassen was sie seit G80 getan haben. Blöd für NV ist halt nur dass das Ding sich ziemlich verspätet.

derguru
2009-11-15, 13:24:59
Stimmt - AMD bringt 2 Monate nach ihrem Refresh wiederum einen Refresh. ;D
na klar,sind dann schon im 3.Q und dann kommen die in 32nm.:D
Dachte man beim RV870 doch auch, und was ist bis jetzt bei uns angekommen?
da kommt schon mehr an als pcgh einen weiß machen will.brauchst nur die letzten spiele anschauen, wie das neue (bei 4aa/16af 1920*1200) Stalker 61% ,Shattered Horizon 74%,Anno 1404 60% oder Battleforge 54% schneller als eine 285gtx und mit dirt2 in paar wochen gehts gleich weiter so.
da der treiber neu geschrieben wurde ist sicherlich auch noch potenzial vorhanden.

jetzt wird man sicherlich mit spielen kommen wie cod mw2 oder borderland mit ihrer uraltengine(konsolendreck).;D

desert
2009-11-15, 14:01:29
.
da der treiber neu geschrieben wurde ist sicherlich auch noch potenzial vorhanden.



Nein es ist kein potenzial vorhanden in den treibern. War es noch nie und wird es auch nie. Auch 20 versionen später als der relaesetreiber hat sich die perfomance im durchschnitt nur unwesentlich erhöht. Das mal ein spiel profiert hat nichts mit wundertreibern zutun, sondern mit bugfixing.

Die grafikkarte wird nicht viel schneller werden mit neuen treibern. Das betrifft ati und nv.

Dural
2009-11-15, 14:05:03
Aso.....aber ihr werdet euch umschauen, wieviel Kohle für Fermi sehen will.
Das Ding wird mal wieder Schweineteuer werden. Wie es eben typisch ist für nVidia.

So schweine teuer wie der GT200 der mittlerweilen ja schon fast hinterher geworfen wird???

Begerift es doch ENDLICH, die Leistung entscheidet über den Preis und nicht die Kosten!!!

immer der selbe blödsinn, ich kann es nicht mehr hören!

reunion
2009-11-15, 14:07:40
So schweine teuer wie der GT200 der mittlerweilen ja schon fast hinterher geworfen wird???

Begerift es doch ENDLICH, die Leistung entscheidet über den Preis und nicht die Kosten!!!

immer der selbe blödsinn, ich kann es nicht mehr hören!

Ja, weil es sich kein Hersteller leisten kann in einem funktionierenden Markt für weniger Leistung mehr zu verlangen als die Konkurrenz. Es sei denn man heißt Intel und hat eine entsprechende Marktmacht.

Mr. Lolman
2009-11-15, 14:24:25
Laut PCGH ist eine 9800 GT, die langsamer ist als eine 88 GTX/Ultra, durchaus >50% schneller als eine 3870 im Durchschnitt in aktueller Software:
http://www.pcgameshardware.de/aid,678322/Ati-und-Nvidia-Grafikkarten-Test-Uebersicht-und-aktuelle-Kauf-Tipps-November-2009/Grafikkarte/Test/

Wenn GF100 etwas ähnliches erreichen will, muss die Effektivität der Einheiten deutlich gestiegen sein. Bei RV670 vs G80 gab es ja durchaus einen Faktor 3 bei Tex/Z-Fill, den man bei RV870 vs GF100 nicht mehr hat.


U.a, wegen der bekannten 4xAA Schwäche. Bei 2xAA siehts wieder ganz anders aus. ;)

LovesuckZ
2009-11-15, 14:35:19
U.a, wegen der bekannten 4xAA Schwäche. Bei 2xAA siehts wieder ganz anders aus. ;)

Erzähl mal.

Mr. Lolman
2009-11-15, 15:03:51
Erzähl mal.

Hoppla. Ich meinte noAA. RV670 macht das AA-Resolve ja übern Shader. Das ist generell teuer.

Raff
2009-11-15, 15:21:01
Nur ist 1x AA keine praxisnahe Einstellung. So spielt niemand. Ok, ich schon, am überfahrenen CRT ... oder Crysis in 2.560 x 1.600 ...

MfG,
Raff

Undertaker
2009-11-15, 15:32:51
Keiner spielt ohne AA? ;) Es hat nicht jeder einen RV870, und alles darunter ist für viele aktuelle Spiele + AA/AF je nach Auflösung oft nicht mehr schnell genug...

Gast
2009-11-15, 15:38:30
Hoppla. Ich meinte noAA. RV670 macht das AA-Resolve ja übern Shader. Das ist generell teuer.
Achso, aber das gilt nur in Ausnahmefällen.
Ansonsten wieder zurück zu 8xMSAA. Das das zuviel kostet ist ebenso bekannt, das es Alternativen gibt ebenfalls, aber das ist so gewünscht.

aths
2009-11-15, 16:29:25
Fermi wird ohne Frage schneller als der RV870 werden.
Aber der Vorsprung wird keinesfalls so gross ausfallen, wie es sich hier einige wünschen.
Im Schnitt werden es 20% mehr Leistung zur 5870 sein. Dafür wahrscheinlich auch das doppelte kosten.
Ich denke, man kann ungefähr mit dem GT200 - RV770 Launch vergleichen, nur das ATi momentan einen gewaltigen Vorsprung hat.Die Preise für GTX 280 und 260 wurden direkt nachdem ATIs Karten in den Markt kamen von Nvidia angepasst.
Aso.....aber ihr werdet euch umschauen, wieviel Kohle für Fermi sehen will.
Das Ding wird mal wieder Schweineteuer werden. Wie es eben typisch ist für nVidia.Falls sie es schaffen, das Ding zum Schweinepreis zu verkaufen, müssen sie ja irgendwas bieten dass es den Käufern wert ist.

=Floi=
2009-11-15, 17:09:22
ich habe keine probleme, mit soch einer teuren karte, wenn sie so gut wie der G80 wird. so lange der preis gerechtfertigt ist und die leistung stimmt ist der preis das geringere übel.
was nützt mir eine billige karte, wenn sie laut ist und die leistung nicht stimmt? soll ich mir dann 2 davon einbauen? :ugly:

dem gamzen markt würde ein höherer AVP sicherlich gut tun und die margen wären auch wieder besser.

Mancko
2009-11-15, 17:43:32
ich habe keine probleme, mit soch einer teuren karte, wenn sie so gut wie der G80 wird. so lange der preis gerechtfertigt ist und die leistung stimmt ist der preis das geringere übel.
was nützt mir eine billige karte, wenn sie laut ist und die leistung nicht stimmt? soll ich mir dann 2 davon einbauen? :ugly:

dem gamzen markt würde ein höherer AVP sicherlich gut tun und die margen wären auch wieder besser.

Zumal einfach Fakt ist, dass der Markt bereit ist für ein Nvidia Produkt etwas mehr zu zahlen als für ein ATI/AMD Produkt. Das war schon immer so und hat eben auch qualitative Gründe sowie ein gewisses Branding. Bei CPUs ist es doch nicht anders.
Die wenigsten sind bereit für eine AMD CPU das selbe zu zahlen wie für eine Intel CPU oder würde sich hier jemand einen Opel / Ford oder Japaner für das gleiche Geld wie einen VW, Audi, Mercedes oder BMW kaufen?

Wohl auch nur die wenigsten. Also mal bitte den Ball bei der Preisfrage flach halten. Wenn die Leistung stimmt, wird Fermi teurer werden ja! Aber sicherlich nicht doppelt so teuer. Ich sehe darin kein Problem. Nvidia hat ein gewisses Branding und AMD halt nicht - fertig aus.

Ailuros
2009-11-15, 17:44:03
Mit der niedrigeren Frequenz fuer Hemlock sieht es eher danach aus dass GF100 nicht sehr weit von dem Ding entfernt sein wird, obwohl es wohl nie die Peak-Leistungen in manchen Applikation von Hemlock erreichen wird.

Da ich erahnen kann wo NVIDIA fuer den ersten Treiberschub ihre "landing zone" gegen Cypress angelegt hat, sind durchschnittlich 60% mehr Leistung um 50% zu viel. Klar genug?
Zumal einfach Fakt ist, dass der Markt bereit ist für ein Nvidia Produkt etwas mehr zu zahlen als für ein ATI/AMD Produkt. Das war schon immer so und hat eben auch qualitative Gründe sowie ein gewisses Branding. Bei CPUs ist es doch nicht anders.
Die wenigsten sind bereit für eine AMD CPU das selbe zu zahlen wie für eine Intel CPU oder würde sich hier jemand einen Opel / Ford oder Japaner für das gleiche Geld wie einen VW, Audi, Mercedes oder BMW kaufen?

Wohl auch nur die wenigsten. Also mal bitte den Ball bei der Preisfrage flach halten. Wenn die Leistung stimmt, wird Fermi teurer werden ja! Aber sicherlich nicht doppelt so teuer. Ich sehe darin kein Problem. Nvidia hat ein gewisses Branding und AMD halt nicht - fertig aus.


Die finale Leistung im Verhaeltnis zur Konkurrenz wird den GeForce 380 Preis bestimmen und nichts anderes. Ich tippe momentan immer noch knapp unter dem Hemlock MSRP.

LovesuckZ
2009-11-15, 17:47:59
Was bedeutet bei dir "erster Treiberschub"? Intern oder aber extern beim Launch? Zweitens wäre ziemlich lahm - auch gegenüber einer GTX285. Damit wäre man im besten Fall 50% schneller im Durchschnitt. Und das wäre noch ein schlechteres Rating als beim Wechsel von der 9800GTX+ -> GTX280.

Armaq
2009-11-15, 17:50:39
Keiner spielt ohne AA? ;) Es hat nicht jeder einen RV870, und alles darunter ist für viele aktuelle Spiele + AA/AF je nach Auflösung oft nicht mehr schnell genug...
Welches Spiel brauch mit 2-4AA denn eine 58xx? Ich kenne Crysis.

Botcruscher
2009-11-15, 17:53:20
Welches Spiel brauch mit 2-4AA denn eine 58xx? Ich kenne Crysis.

Stalker, da kommt sogar noch DX11 dazu.

Undertaker
2009-11-15, 17:59:21
Welches Spiel brauch mit 2-4AA denn eine 58xx? Ich kenne Crysis.

Zu diesem und Stalker kommt bei meinen aktuell gespielten Games noch Borderlands, Call of Juarez, OFP2, Battleforge und Anno 1404 - alles auf einer HD4870 OC in 1920x1200 nur ohne AA befriedigend bis gut spielbar. Da gibts mit Sicherheit noch mehr, aber ich kann ja nur für meine Games sprechen.

Der Markt für schnellere Karten besteht also, und das nicht nur für SSAA und 30"er. ;)

reunion
2009-11-15, 18:11:35
Zumal einfach Fakt ist, dass der Markt bereit ist für ein Nvidia Produkt etwas mehr zu zahlen als für ein ATI/AMD Produkt. Das war schon immer so und hat eben auch qualitative Gründe sowie ein gewisses Branding. Bei CPUs ist es doch nicht anders.
Die wenigsten sind bereit für eine AMD CPU das selbe zu zahlen wie für eine Intel CPU oder würde sich hier jemand einen Opel / Ford oder Japaner für das gleiche Geld wie einen VW, Audi, Mercedes oder BMW kaufen?

Wohl auch nur die wenigsten. Also mal bitte den Ball bei der Preisfrage flach halten. Wenn die Leistung stimmt, wird Fermi teurer werden ja! Aber sicherlich nicht doppelt so teuer. Ich sehe darin kein Problem. Nvidia hat ein gewisses Branding und AMD halt nicht - fertig aus.

Bei CPUs gibt es nur eines: Monopolmissbrauch, ansonsten ist da sicher kaum jemand bereit nur weil Intel drauf steht mehr zu zahlen. Warum auch? Es sei denn er weiß es nicht besser oder Intel liefert so wie jetzt wirklich die bessern Produkte. Ohne den OEM-Markt hätte es für Intel da schon öfter düster ausgesehen. Beim Grafikmarkt hat NV momentan durchaus Vorteile auf ihrer Seite, der Vergleich mit Automarken hinkt aber gewaltig. Anders als bei Autos die ein starkes Identitätsmerkmal darstellen zählt bei solchen Dinge dann schon was "drinnen" ist. Deshalb kann sich das auch ganz schnell drehen wie man an R300 zB gesehen hat.

LovesuckZ
2009-11-15, 18:13:40
Welches Spiel brauch mit 2-4AA denn eine 58xx? Ich kenne Crysis.

Eigentlich keins. Aber zum Glück hat man beim PC immernoch die Wahlfreiheit, in welchen Settings man spielen will. ;)

=Floi=
2009-11-15, 18:31:16
2-4XAA ist eh ein witz. am besten noch mit 1XAF. :ugly:
ich will geglättete kanten und scharfe texturen! ein perfektes bild und das am besten in 1920X1200@60fps.

edit
bei der grafikkarte spielt der treiber eben auch eine rolle. da kann sich amd mit ihren prozessoren doch einfacher und leichter behaupten wie ati bei den grafikkarten. das ist auch ein anderes gebiet und intel ist auch ein anderer gegner.

Nightspider
2009-11-15, 19:06:55
Ich wette ja immernoch das Fermi erst mit Crysis 2 rauskommt, wahrscheinlich im Kit... :freak:

Armaq
2009-11-15, 19:14:40
Zu diesem und Stalker kommt bei meinen aktuell gespielten Games noch Borderlands, Call of Juarez, OFP2, Battleforge und Anno 1404 - alles auf einer HD4870 OC in 1920x1200 nur ohne AA befriedigend bis gut spielbar. Da gibts mit Sicherheit noch mehr, aber ich kann ja nur für meine Games sprechen.

Der Markt für schnellere Karten besteht also, und das nicht nur für SSAA und 30"er. ;)
CoJ hatte ich aus der Theke und das lief bei mir relativ gut, aber in 1440x900. Battleforge läuft doch gut?! Ich habs und bin mit der Performance zufrieden. Borderlands, OFP2 und Anno kann ich nicht beurteilen.

pest
2009-11-15, 20:02:07
Damit wäre man im besten Fall 50% schneller im Durchschnitt. Und das wäre noch ein schlechteres Rating als beim Wechsel von der 9800GTX+ -> GTX280.

viel mehr war das aber auch nicht

Don-Roland
2009-11-15, 20:19:06
Nvidia wird Fermi auf SC 2009 live demonstrieren (http://www.hardware-infos.com/news.php?news=3302)

Genauer gesagt zwischen 17. und 19. November gibts wieder Infos.

reunion
2009-11-15, 20:31:11
Passt natürlich optimal zum Hemlock Launch am 19. :D

bloub
2009-11-15, 20:47:47
Passt natürlich optimal zum Hemlock Launch am 19. :D

glücklicherweise legt nicht nvidia den termin für die sc fest :biggrin:

deekey777
2009-11-15, 20:50:12
Passt natürlich optimal zum Hemlock Launch am 19. :D
Das passt zur SC 2009, denn der Fermi soll gerade darauf abzielen.

Gast
2009-11-15, 20:55:42
CoJ hatte ich aus der Theke und das lief bei mir relativ gut, aber in 1440x900. Battleforge läuft doch gut?! Ich habs und bin mit der Performance zufrieden. Borderlands, OFP2 und Anno kann ich nicht beurteilen.
was hier manche für ansprüche haben... konsante 60fps sollte wohl von jedem angestrebt werden, niemals dadrunter oder drüber sonst geht das ganze spielgefühl sausen denn die Realität hat auch keine FPS drops.

LovesuckZ
2009-11-15, 22:02:28
viel mehr war das aber auch nicht

Ich weiß und ich war sehr enttäuscht als ich das Ergebnis letztes Jahr sah. 60% zur 9800GTX und ca. 45% zur 9800gtx+ waren schon verdammt wenig.

glücklicherweise legt nicht nvidia den termin für die sc fest :biggrin:

Also bitte: nVidia ist in der Lage Ubisoft, Eidos und MSI zu erpressen. Da werden sie doch wohl fähig genug sein, die "Supercomputer" auf ein Datum zu legen, dass zufälligerweise mit dem Hemlock Launch fällt.

Armaq
2009-11-15, 22:44:45
was hier manche für ansprüche haben... konsante 60fps sollte wohl von jedem angestrebt werden, niemals dadrunter oder drüber sonst geht das ganze spielgefühl sausen denn die Realität hat auch keine FPS drops.
In 1440x900 läuft das auch akzeptabel. 60 fps gehen bei Battleforge natürlich nicht.

Gast
2009-11-16, 01:32:47
Welches Spiel brauch mit 2-4AA denn eine 58xx? Ich kenne Crysis.
Dafür brauchen alle Spiele Transparenz-AntiAliasing! Zu schnell ist eine HD5870 auf keinen Fall und Fermi kann es nicht werden.

Ailuros
2009-11-16, 07:10:21
Was bedeutet bei dir "erster Treiberschub"? Intern oder aber extern beim Launch? Zweitens wäre ziemlich lahm - auch gegenüber einer GTX285. Damit wäre man im besten Fall 50% schneller im Durchschnitt. Und das wäre noch ein schlechteres Rating als beim Wechsel von der 9800GTX+ -> GTX280.

Mir ist klar dass Du "bis zu" Werte hoeren willst, aber meine Logik arbeitet eben anders. Was erster Treiberschub heissen soll? Bei G80 kamen Leistungssteigerungen von ueber 40% mit der Zeit ans Licht. Ausser Du glaubst natuerlich dass Treiber auf einer neuen Architektur gleich volles Potential abgeben koennen.

Gast
2009-11-16, 11:39:37
Ausser Du glaubst natuerlich dass Treiber auf einer neuen Architektur gleich volles Potential abgeben koennen.

Viel sollte man da imo nicht erwarten.

Die Architektur ist dem Vorgänger doch recht ähnlich, ganz im Gegensatz zu G80 vs G7x.

MUL gibt es auch keines mehr, wo man bei G80 noch die Auslastung steigern konnte und die Hardware macht recht viel selbst um die Auslastung hoch zu halten.

Viel Verbesserungspotential sollte es da mit Ausnahme von Spezialfällen nicht geben.

Auch die Verspätung spricht eher dafür, dass die Treiber zu Beginn schon sehr ausgereift sind.

Ailuros
2009-11-16, 13:55:10
Viel sollte man da imo nicht erwarten.

Die Architektur ist dem Vorgänger doch recht ähnlich, ganz im Gegensatz zu G80 vs G7x.

Es reichen Aenderungen im Speichercontroller dass man unendlich herumoptimieren muss.

MUL gibt es auch keines mehr, wo man bei G80 noch die Auslastung steigern konnte und die Hardware macht recht viel selbst um die Auslastung hoch zu halten.

Tja so einfach ist es Gott sei Dank nicht.

Auch die Verspätung spricht eher dafür, dass die Treiber zu Beginn schon sehr ausgereift sind.

Intensive Treiber-Optimierung faengt erst an wenn man lauffaehige chips hat.

AnarchX
2009-11-16, 14:54:53
Femi Teslas:
http://img198.imageshack.us/img198/7012/teslac2050c207019293qtr.jpg (http://img198.imageshack.us/i/teslac2050c207019293qtr.jpg/)

mehr Bilder:
http://www.heise.de/newsticker/meldung/SC09-Tesla-Rechenkarten-mit-Fermi-Chips-860474.html

reunion
2009-11-16, 14:55:22
Nur 1230Mhz Shadertakt, und dafür nicht unbedingt berühmte Leistungsaufnahme.

Plus:
Gegenüber heise online erklärte Nvidia-Mitarbeiter Andrew Humber, dass die Karten, die nun erstmals auch einen DVI-Ausgang besitzen, nicht vor Mai 2010 verfügbar sein werden.

Da bin ich mal gespannt wie lange die in wesentlich größeren Stückzahlen gefertigten Desktop-Ableger benötigen.

Gast
2009-11-16, 15:00:59
Tesla, Tesla, Tesla... langsam werde ich echt ungeduldig, ich will den Grafikteil sehen und erleben! Waaahhhhhhh! *schrei*

AnarchX
2009-11-16, 15:01:49
Folien: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/november/nvidia_tesla-fermi-grafikkarten/

Dural
2009-11-16, 15:02:29
lol ich wusste es doch, der Takt ist doch nicht wirklich ihr ernst???

wie war das noch mal? 2GHz ;D und deswegen auch A3, die arbeiten doch nur noch für mehr takt!

@reunion

TELSA Karten kommen immer nach den GeForce Karten, war bis jetzt doch immer so!

reunion
2009-11-16, 15:03:31
Die Platine ist auch für einen 8Pin-PCIe Stecker vorbereitet. Bei dem Bild von CB wird der offenbar auch verwendet.

AnarchX
2009-11-16, 15:05:37
Wobei man sagen muss, dass der Mockup nicht soweit von der Realität entfernt war.

Aber 1230Mhz Shadertakt sind wirklich fatal, wenn das so weiter geht, holt AMD mit der kommenden Generation noch NVs Shaderdomain mit ihrer TMU-Domain ein. X-(

btw.
Editors’ note: As previously announced, the first Fermi-based consumer (GeForce®) products are expected to be available first quarter 2010.
http://www.nvidia.com/object/io_1258360868914.html

Undertaker
2009-11-16, 15:09:22
Waren die Profi-Karten nicht auch schon in der Vergangenheit deutlich niedriger getaktet? :confused:

Dural
2009-11-16, 15:10:20
nein, die GT200 Karten takten mit 1200-1300MHz, es ist derzeit wohl schlicht einfach nicht mehr drin!


die sollen jetzt endlich diese scheiss DP einheiten rauswerfen, ist ja nur noch ein trauer spiel!!!

kann ja nicht sein das wir seit dem G80 A3 in 90nm mit 1512MHz heute mit 40nm sogar noch unter diesem wert liegen :P

reunion
2009-11-16, 15:12:38
Waren die Profi-Karten nicht auch schon in der Vergangenheit deutlich niedriger getaktet? :confused:

Die Tesla C1060 taktet jedenfalls mit 1,3Ghz höher:
http://www.nvidia.com/object/product_tesla_c1060_us.html

Und die basiert AFAIK noch auf GT200 ohne b. Gerade im Tesla-Bereich sollte ja der Shadertakt das entscheidende sein.

Gast
2009-11-16, 15:12:52
Waren die Profi-Karten nicht auch schon in der Vergangenheit deutlich niedriger getaktet? :confused:
Beim Speicher ja, der war aber auch meist groeßer ;)

dildo4u
2009-11-16, 15:13:09
Imo schätze NV die Breite verfügbar von 40nm im High End Bereich,wesentlich realistischer ein als AMD.Niemand ist geholfen mit einem weiteren 09 Paperlaunch.

http://geizhals.at/deutschland/a465702.html

http://geizhals.at/deutschland/a465655.html

AnarchX
2009-11-16, 15:13:11
Waren die Profi-Karten nicht auch schon in der Vergangenheit deutlich niedriger getaktet? :confused:
Aber auch nur um die 10-12% im Bezug auf die richtigen Karten.
Einen S1070 kann man mittlerweile auch mit 1,44GHz erwerben: http://www.nvidia.com/object/product_tesla_s1070_us.html

Das sieht ganz danach aus, als ob Fermi GeForce wohl unter 1,5GHz landen wird.

Dural
2009-11-16, 15:17:24
und das traurige ist das sich da wohl auch nicht wirklich viel verbessern wird, die TESLA soll ja erst im MAI kommen !!!!!

Leute kleiner Tip, holt euch alle ne 5870 ;) das wird nix mehr...

Der GF100 müsste ja so brutal Effizient sein um das irgend wie wieder raus zu holen... es wäre ein wunder :wink:

reunion
2009-11-16, 15:17:28
Imo schätze NV die Breite verfügbar von 40nm im High End Bereich,wesentlich realistischer ein als AMD.Niemand ist geholfen mit einem weiteren 09 Paperlaunch.

http://geizhals.at/deutschland/a465702.html

http://geizhals.at/deutschland/a465655.html

Niemand spricht von breiter Verfügbarkeit. NV wird zu beginn auch kaum haufenweise Karten liefern. Aktuell haben sie noch nicht mal das finale Stepping wie es aussieht.

LovesuckZ
2009-11-16, 15:19:59
Leute kleiner Tip, holt euch alle ne 5870 ;) das wird nix mehr...


Toller Tipp: Wenn du uns jetzt noch sagst, wo man eine bekommt, wären hier viele mehr geholfen. :rolleyes:
Mein Gott, wie sich Leute aufregen.

dildo4u
2009-11-16, 15:20:48
Niemand spricht von breiter Verfügbarkeit. NV wird zu beginn auch kaum haufenweise Karten liefern. Aktuell haben sie noch nicht mal das finale Stepping wie es aussieht.
Klar ATI versprach breite Verfügbarkeit zum Win7 Launch.

reunion
2009-11-16, 15:23:23
Klar ATI versprach breite Verfügbarkeit zum Win7 Launch.

Es ging um NV, dort spricht niemand von breiter Verfügbarkeit, sondern nur vom Launch. Und wenn du schon eine Behauptung aufstellst: Wo versprach ATi das?

Dural
2009-11-16, 15:26:43
Toller Tipp: Wenn du uns jetzt noch sagst, wo man eine bekommt, wären hier viele mehr geholfen. :rolleyes:
Mein Gott, wie sich Leute aufregen.

Ich habe meine DX11 karten schon von anfang an, wer schnell ist und nicht zu sehr auf den preis schaut hätte jetzt auch schon eine...

ich sehe in Fermi als Gamer Karte nichts mehr gutes... ich kann mir nciht mehr vorstellen das wir da ein wow effekt erleben...

vileicht kommt ja eine GeForce mit viel Spannung und ca. 1600MHz takt und einer TDP von fast 300Watt....

ich bin mega entäuscht, nach dem GT200 der eingetlich eine tolle GPU ist wieder so eine takt bremse zu bekommen....

Botcruscher
2009-11-16, 15:28:22
Ati sprach doch von DX11 Karten. Juniper kann man überall kaufen.:biggrin:

Beim Größenunterschied zwischen Juniper, Cypress und "Fermi" kann sich jeder denken wie es um die Verfügbarkeit bestellt sein wird. Gerade wenn man bedenkt wie lange man schon an RV740@40nm rumgepopelt hat und welche Taktraten NV erreichen will.

LovesuckZ
2009-11-16, 15:28:55
Ich habe meine DX11 karten schon von anfang an, wer schnell ist und nciht zu sehr auf den preis schaut hätte jetzt auch schon eine...

Jo, weil es am Anfang Karten gab. Jetzt gibt es keine mehr. Es bleibt keinem etwas anderes übrig als zu warten.

Gast
2009-11-16, 15:29:46
The Tesla C2050 and C2070 products will retail for $2,499 and $3,999 and the Tesla S2050 and S2070 will retail for $12,995 and $18,995. Products will be available in Q2 2010. For more information about the new Tesla 20-series products, visit the Tesla product pages.

Nun ja, das hat mit den erwarteten Grafikkarten ja Null zu tun. Kann man daraus überhaupt Rückschlüsse auf die Taktraten der Consumer-Grafikkarten ziehen?

derguru
2009-11-16, 15:29:50
Jo, weil es am Anfang Karten gab. Jetzt gibt es keine mehr. Es bleibt keinem etwas anderes übrig als zu warten.
och,dann warte halt 2 wochen dann kommt die nächste ladung,als ob du jemals eine kaufen würdest.:tongue:

Raff
2009-11-16, 15:32:53
In den nächsten Wochen kommt wohl eher nur Hemlock-Grütze. Die "X2" ist der Feind, denn jede von ihr bedeutet, dass zwei potenzielle HD 5870 nicht verfügbar sind, da sie keine GPU abbekommen. ;)

MfG,
Raff

Gipsel
2009-11-16, 15:37:18
Aber 1230Mhz Shadertakt sind wirklich fatal, wenn das so weiter geht, holt AMD mit der kommenden Generation noch NVs Shaderdomain mit ihrer TMU-Domain ein. X-(
Hmm, das sieht wirklich nicht so doll aus. Vor allem, da die 1230MHz Variante schon das High-End-Modell darstellt, welches es wohl vor allem aus Marketinggründen (damit man Faktor 8 zur C1060 behaupten kann) gibt. Man vergleicht ja nur mit den 78GFlops der Ur-GT200-Version mit 1,3GHz (78 * 8 = 624 GFlop/s). Die kleinere Version soll ja sogar nur 520 GFlop/s schaffen, also gerade mal mit glatten 1.0 GHz laufen. Ich würde mal sagen, daß da nv schon noch ein schnelleres drittes Modell nachschieben sollte, wenn sie denn die Probleme (Leakage/Stromverbrauch verhindern höheren Takt?) in den Griff bekommen haben.

Gibt es eigentlich schon Informationen zum Speichertakt? Heise behauptet ja das Speicherinterface ist schneller als das von Cypress. Aber wahrscheinlich ist es nur breiter und verliert diesen Vorteil durch den niedrigeren Takt fast wieder. Aber bei den Shader-Taktraten kommt man wohl mit den 384Bit auch locker aus.

AnarchX
2009-11-16, 15:41:41
Ich würde mal sagen, daß da nv schon noch ein schnelleres drittes Modell nachschieben sollte, wenn sie denn die Probleme (Leakage/Stromverbrauch verhindern höheren Takt?) in den Griff bekommen haben.

Wie bei Tesla 10 wird es dann später wohl einfach eine Freigabe für höhere Taktraten geben.


Gibt es eigentlich schon Informationen zum Speichertakt? Heise behauptet ja das Speicherinterface ist schneller als das von Cypress. Aber wahrscheinlich ist es nur breiter und verliert diesen Vorteil durch den niedrigeren Takt fast wieder. Aber bei den Shader-Taktraten kommt man wohl mit den 384Bit auch locker aus.
Laut dieser Folie wohl ~150GB/s:
http://www.computerbase.de/bildstrecke/27497/21/
Tesla 10 hatte 102/GBs.

Interessanterweise deutet diese Folie eine SP-Leistung von ~1,5 TFLOPs an. Unterschiedliche Taktraten für SP und DP-Betrieb? :uponder:

deekey777
2009-11-16, 15:42:23
und das traurige ist das sich da wohl auch nicht wirklich viel verbessern wird, die TESLA soll ja erst im MAI kommen !!!!!

Leute kleiner Tip, holt euch alle ne 5870 ;) das wird nix mehr...

Der GF100 müsste ja so brutal Effizient sein um das irgend wie wieder raus zu holen... es wäre ein wunder :wink:
Tesla ist Tesla. Es ist weder Quadro noch Geforce.
Anders als AMD bietet Nvidia nicht bloß eine Grafikkarte ohne Ausgänge bzw. nur mit einem, sondern es ist eine ganze Baureihe mit allem drum und dran.
Das zB ist auch eine Tesla: http://www.nvidia.com/object/product_tesla_s1070_us.html
Und hier wird sie eingesetzt: http://www.nvidia.com/object/io_1226945999108.html
Nvidia wird sich keinen Gefallen tun, wenn sie morgen Tesla 2000 liefern können, aber nicht die entsprechende Software und Unterstützung.
Bei der Annahme, dass Tesla 2000 nach der Geforce und ggf. Quadro kommt, dann sieht man ganz klar, wo die Prioritäten liegen.