Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Cubitus
2009-12-14, 10:35:37
Was denn sonst? Ein Ich-habe-hier-zwar-eine-Fermi,-verändere-aber-ein-paar-Balken,-damit-mein-Benchmark-als-Fake-erkannt-wird-Test? Glaubst doch selbst nicht, das ist so frei erfunden wie ich hier ein paar Balken malen kann. ;)
Wir werden sehen ;)
reunion
2009-12-14, 10:41:47
Wir werden sehen ;)
Nein, das werden wir nicht sehen. Das bedeutet natürlich nicht das Fermi nicht so schnell sein kann. Nur diese Balken sind trotzdem frei erfunden, mehr nicht.
mapel110
2009-12-14, 10:50:31
GeForce GTX 360 and 380 Benchmarks (http://www.guru3d.com/news/geforce-gtx-360-and-380-benchmarks/)
http://www.pcgameshardware.de/aid,701402/Nvidia-GTX-380/GTX-360-Fake-Benchmarks-machen-die-Runde/Grafikkarte/News/
Sogar die PCGH will ein paar Pagehits haben. :)
derguru
2009-12-14, 10:52:37
sogar :lol:
solche fakewerte sind nicht gut für nv,dann trauen die sich sich gar nicht mehr die karten vorzustellen.;D
Spasstiger
2009-12-14, 11:22:00
Wenn die Benchmarks so stimmen würden, hätte NV wohl auf wundersame Weise die Taktraten des Fermi drastisch erhöhen können. Aber mit 500-600 MHz Chiptakt und 1200-1300 MHz Shadertakt kommt man da wohl kaum hin. Wenn die Benchmarks auf GTX 385 = 1,5 * GTX 285 rauslaufen würden, hätte ich es ja geglaubt.
/EDIT: Die Taktraten, die hier angegeben werden, sind doch auch nur pure Fantasie, oder?
http://forums.guru3d.com/showthread.php?t=310689
Wenn der Fermi wirklich Potential für 1700 MHz Shadertakt hätte, würde man die Tesla S2070 wohl kaum so niedrig takten (1230 MHz Shadertakt). Bisher haben sich die Teslas ja auch direkt an den GeForces orientiert, was die Taktraten angeht.
Und wenn die Benchmarks auf Karten mit den Eckdaten aus dem Link basieren, dann passt auch der Abstand zwischen GTX 360 und GTX 380 nicht. Denn bei 512 SPs vs. 384 SPs @ 1700 MHz vs. 1500 MHz und einem 384-Bit-SI gegen ein 320-Bit-SI sollte die GTX 380 30-50% schneller sein als die GTX 360 und nicht nur 20%.
http://www.pcgameshardware.de/aid,701402/Nvidia-GTX-380/GTX-360-Fake-Benchmarks-machen-die-Runde/Grafikkarte/News/
Sogar die PCGH will ein paar Pagehits haben. :)
Immerhin haben sie sich von Nvidia bestätigen lassen, dass die Benchmarks fake sind.
Wenn der Fermi wirklich Potential für 1700 MHz Shadertakt hätte, würde man die Tesla S2070 wohl kaum so niedrig takten (1230 MHz Shadertakt). Bisher haben sich die Teslas ja auch direkt an den GeForces orientiert, was die Taktraten angeht.
Um das bewerten zu können müsste man wissen, wie stark die Taktsenkung bei den Teslas wegen ECC im Hinblick auf die TDP erforderlich ist.
Spasstiger
2009-12-14, 11:52:48
Wieso sollte ECC kritisch für die TDP sein? Ob der Fermi nun mit einem vollen 384-Bit-SI ohne ECC oder einem 336-Bit-SI mit ECC (48 Bit gehen für die Redundanzdaten drauf) gefahren wird, sollte doch egal sein. In beiden Fällen wandern die gleichen Bits über die Leitungen. Nur die Interpretation der Bits fällt etwas anders aus.
Einige Seiten früher in diesem Threads waren ein paar Links, welche den Zusmamenhang erklärten. Der Stromverbrauch steigt wohl deutlich aufgrund der zusätzlichen Speicherzugriffe wegen ECC. Hat jemand noch die Links?
Spasstiger
2009-12-14, 11:59:04
Such mal einen Link raus, würde mich interessieren. Ich wüsste nicht, warum bei Fermi mit aktivem ECC mehr Speicherzugriffe anfallen sollten als ohne ECC. In beiden Fällen werden insgesamt 384 Bit übertragen. Mit aktivem ECC gibt es lediglich eine zusätzliche Latenz, weil die Prüfsummen generiert und abgeglichen werden. Dazu sind aber keine zusätzlichen Speicherzugriffe erforderlicch.
Hier ist er: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7706746&postcount=6586
reunion
2009-12-14, 12:11:20
Wieso sollte ECC kritisch für die TDP sein? Ob der Fermi nun mit einem vollen 384-Bit-SI ohne ECC oder einem 336-Bit-SI mit ECC (48 Bit gehen für die Redundanzdaten drauf) gefahren wird, sollte doch egal sein. In beiden Fällen wandern die gleichen Bits über die Leitungen. Nur die Interpretation der Bits fällt etwas anders aus.
Was man weiß ist das:
Update #2, November 18 2009 02:17AM GMT - Following our article, we were contacted by Mr. Andy Keane, General Manager of Tesla Business and Mr. Andrew Humber, Senior PR Manager for Tesla products. In a long discussion, we discussed the topics in this article and topics of Tesla business in general. First and foremost, Tesla is the slowest clocked member of Fermi-GPU architecture as it has to qualify for supercomputers. The way to win the HPC contract is more complex than the CPUs itself.
Bear in mind that Intel flew heads out of Oak Ridge with their otherwise superior Core 2 architecture after Woodcrest had a reject rate higher than 8% [the results of that Opteron vs. Xeon trial in 2006 are visible today, as Oak Ridge is the site of AMD-powered Jaguar, world's most powerful supercomputer]. In order to satisfy the required multi-year under 100% stress, nVidia Tesla C2050/2070 went through following changes when compared to the Quadro card [which again, will be downclocked from the consumer cards]:
* Memory vendor is providing specific ECC version of GDDR5 memory: ECC GDDR5 SDRAM
* ECC is enabled from both the GPU side and Memory side, there are significant performance penalties, hence the GFLOPS number is significantly lower than on Quadro / GeForce cards.
* ECC will be disabled on GeForce cards and most likely on Quadro cards
* The capacitors used are of highest quality
* Power regulation is completely different and optimized for usage in Rack systems - you can use either a single 8-pin or dual 6-pin connectors
* Multiple fault-protection
* DVI was brought in on demand from the customers to reduce costs
* Larger thermal exhaust than Quadro/GeForce to reduce the thermal load
* Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode.
Since Andy is the General Manager for Tesla business, he has no contact with the Quadro Business or GeForce Business units, thus he was unable to answer what the developments are in those segments. We challenged nVidia over several issues and we'll see what the resolve of those open matters will be. In any case, we'll keep you informed.
http://www.brightsideofnews.com/news/2009/11/17/nvidia-nv100-fermi-is-less-powerful-than-geforce-gtx-285.aspx
reunion
2009-12-14, 12:14:34
Hier ist er: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7706746&postcount=6586
Die TDP wird dadurch sicherlich nicht erhöht, es erhöht sich höchstens die Zeit in der das SI ausgelastet wird. Der Link von LS zeigt auch eine ganz andere Baustelle und bezieht sich nicht auf Fermi. Bei Fermi werden bei ECC keine zusätzlichen Leitungen verwendet, sondern man opfert etwas Speicher und Bandbreite für ECC.
Spasstiger
2009-12-14, 12:23:26
Das mit der TDP sehe ich eh nicht so kritisch. Die GTX 380 darf 300 Watt TDP haben und es wird auch keiner ernsthaft meckern, wenn sie dabei schneller ist als die HD 5970.
Mit Tesla geht man dann wohl einen gänzlich anderen Weg wie mit den GeForces und Quadros und trimmt den Chip auf maximale Verfügbarkeit der Rechenzeit. Daher die niedrigen Taktraten. Ist in einem vollgestopften Rack auch leichter zu kühlen und energieeffizienter sind niedrigere Taktraten zudem auch.
Die TDP wird dadurch sicherlich nicht erhöht, es erhöht sich höchstens die Zeit in der das SI ausgelastet wird.
Es müssen für jeden Speicherzugriff ca. 15% mehr Daten übertragen werden. Das dürfte auf den Energieverbrauch durchaus einen Einfluss haben, auch wenn dieser wohl nicht unbedingt groß ist.
Spasstiger
2009-12-14, 13:08:04
Wenn man davon ausgeht, dass das SI stets optimal ausgelastet ist, können gar nicht 15% mehr Daten übertragen werden. Man verliert bei Verwendung von ECC einfach ein wenig an Speicherbandbreite, was sich negativ auf die Gesamtperformance auswirkt. Oder anders gesagt: Man sollte bei Karten, die mit ECC genutzt werden, die Speicherbandbreite im Verhältnis zur Rechenleistung ein wenig "überdimensionieren".
Ailuros
2009-12-14, 13:52:12
Kann sein dass bei CES etwas herausleakt, aber sonst bleibt es dabei dass A3 noch nicht zurueck von der fab ist und bis zu dem Punkt ist es sinnlos ueber Frequenzen und Leistung zu reden.
Wenn man davon ausgeht, dass das SI stets optimal ausgelastet ist, können gar nicht 15% mehr Daten übertragen werden. Man verliert bei Verwendung von ECC einfach ein wenig an Speicherbandbreite, was sich negativ auf die Gesamtperformance auswirkt. Oder anders gesagt: Man sollte bei Karten, die mit ECC genutzt werden, die Speicherbandbreite im Verhältnis zur Rechenleistung ein wenig "überdimensionieren".
Nur ist im HPC Markt leider nie die Speicherbandbreite ueberdimensioniert um fuer die radikal hoeheren Speichermengen das Ganze auszubalancieren. Tesla SKUs haben wie auch bei GT200 bis zu 4x Mal so viel Speicher wie eine high end desktop GPU.
sogar :lol:
solche fakewerte sind nicht gut für nv,dann trauen die sich sich gar nicht mehr die karten vorzustellen.;D
Neue Benchmarks:
http://i45.tinypic.com/2djrkec.jpg
reunion
2009-12-14, 13:53:32
Kann sein dass bei CES etwas herausleakt, aber sonst bleibt es dabei dass A3 noch nicht zurueck von der fab ist und bis zu dem Punkt ist es sinnlos ueber Frequenzen und Leistung zu reden.
Warum stellt dann NV schon Tesla-Karten für Q2 und Q3 2010 vor?
Ailuros
2009-12-14, 14:01:52
Warum stellt dann NV schon Tesla-Karten für Q2 und Q3 2010 vor?
Ende Januar/Anfang Februar ist das momentane Vorstellungsziel fuer GF100 afaik. HPC wurde mit Absicht um ein Quartal spaeter angesetzt, weil sie fuer diese Maerkte keine falsche Versprechungen machen moechten.
Neue Benchmarks:
http://i45.tinypic.com/2djrkec.jpg
Der ist besser.... Einige Probleme in der Fertigung zwangen NV zum G92 reloaded... http://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/common/biggrinflip.gif
http://img10.abload.de/img/2djrkec3glg.jpg
LovesuckZ
2009-12-14, 20:15:27
Und schon wird angefangen mit Fake Fake-Bildern zu spammen. Falsches Forum erwischt? Und es ist nichtmal lustig. :(
reunion
2009-12-14, 20:19:21
Und es ist nichtmal lustig. :(
Das du das nicht lustig findest wundert niemanden. :tongue:
Gestrandet
2009-12-14, 20:28:45
Und es ist nichtmal lustig. :(
Jetzt sei doch net immer so ernst. Guck mal, wenn der göttergleiche Fermi sein Regnum über den Grafikkartenhimmel ausbreitet, dann haben wir Atiisten ja garnix mehr zu lachen. Gönn uns doch bitte bis dahin unseren Spaß :)
=Floi=
2009-12-14, 20:28:55
ich finde es auch lustig und beim rebranden darf man ruhig oft genug draufhauen. dafür hätten sie eigentlich auch einen finanziellen dämpfer haben sollen, weil es so einfach nicht geht.
Schlammsau
2009-12-14, 20:29:03
Beide Bilder sind mit absoluter Sicherheit Fakes.
Fermi wird sich irgendwo zwischen der 5870 und 5970 einordnen, passend zu der angepeilten UVP von 499$....ob ihr es wahrhaben wollt oder nicht.
The same procedure as every year. ;)
LovesuckZ
2009-12-14, 20:32:10
Jetzt sei doch net immer so ernst. Guck mal, wenn der göttergleiche Fermi sein Regnum über den Grafikkartenhimmel ausbreitet, dann haben wir Atiisten ja garnix mehr zu lachen. Gönn uns doch bitte bis dahin unseren Spaß :)
Na, wenn ich Fake-Bilder lustig fände, würde ich im Computerbase.de mich durch die >350 Kommentare lesen. :freak:
Botcruscher
2009-12-14, 20:45:17
CB hat doch einen lustigen Nutzerkreis.:tongue:
Ich warte ja auf den ersten Vergleich zu 3DFX.:freak:
tombman
2009-12-14, 20:50:26
@mods: könnt ihr bitte die fake pic spammer stoppen, egal ob Reg oder Gast?
Oder muß ich erst anfangen, damit ihr aufmerksam werdet?
Sorkalm
2009-12-14, 20:53:50
@mods: könnt ihr bitte die fake pic spammer stoppen, egal ob Reg oder Gast?
Oder muß ich erst anfangen, damit ihr aufmerksam werdet?
Mit Ailuros hat ja ein Mod damit angefangen. :tongue:
reunion
2009-12-14, 20:54:57
Uh, da werden ja schon die ersten NV-Fans unruhig. ;D
LovesuckZ
2009-12-14, 20:57:11
Mit Ailuros hat ja ein Mod damit angefangen. :tongue:
Wenigsten das Orginal, dass sowieso gekommen wäre. Aber Fake Fake-Bilder sind dann wirklich lahm. Die gehören eher auf die Spielwiese.
bloub
2009-12-14, 21:05:32
Wenigsten das Orginal, dass sowieso gekommen wäre. Aber Fake Fake-Bilder sind dann wirklich lahm. Die gehören eher auf die Spielwiese.
musst du verstehen, die atiler wurden schon ganz blass im gesicht bei dem fake :biggrin:
reunion
2009-12-14, 21:13:28
Wenigsten das Orginal, dass sowieso gekommen wäre. Aber Fake Fake-Bilder sind dann wirklich lahm. Die gehören eher auf die Spielwiese.
Ein Original-Fake. Genial. Das hätte fast Potential zum Unwort des Jahres. Ein Fake ist ein Fake ist ein Fake. Aber war klar das du und einige sich erst aufregen wenn die Fakes mal in die andere Richtung gehen.
mictasm
2009-12-14, 21:28:28
Könnte bitte wieder jemand die beiden bremsen?
tombman
2009-12-14, 21:30:49
...einige sich erst aufregen wenn die Fakes mal in die andere Richtung gehen.
Nö, nur wenn die Fakescheiße nicht mit einem Post stirbt, sondern zur Lawine wird :mad:
mictasm
2009-12-14, 21:35:47
Und wenn sie alle paar Seiten wieder auftauchen, weil einfach nur stumpf gepostet wird anstatt wenigstens eine Seite zurück zu blättern... Das ist klassischer Spam.
nagus
2009-12-14, 22:00:21
Neue Benchmarks:
http://i45.tinypic.com/2djrkec.jpg
hey, einfach meine schönen original-fake bilder hier posten find ich aber gar nicht prima.
... die sind von mir (kein scherz und ein wirklicher originale-fake von mir ;D;D hat mich ca. 7 minuten gekostet das im Photoshop zu zimmern.
Menace
2009-12-14, 22:13:46
Was mich ja etwas an den "Original-Fake" Bildern verwundert ist, dass die Wert für DirectX 10 angegeben sind. Warum nicht 9 oder 11? :confused:
:wink:
Bald werden wir mehr wissen.
LovesuckZ
2009-12-14, 22:52:47
Das mit der TDP sehe ich eh nicht so kritisch. Die GTX 380 darf 300 Watt TDP haben und es wird auch keiner ernsthaft meckern, wenn sie dabei schneller ist als die HD 5970.
Alles was über 200 Watt als TDP geht, ist überhaupt nicht mehr leise per Luft kühlbar.
DavChrFen
2009-12-15, 00:48:32
Das mit der TDP sehe ich eh nicht so kritisch. Die GTX 380 darf 300 Watt TDP haben und es wird auch keiner ernsthaft meckern, wenn sie dabei schneller ist als die HD 5970.Alles was über 200 Watt als TDP geht, ist überhaupt nicht mehr leise per Luft kühlbar.
Naja, wenn man einen Vernünftigen Kühler draufpackt, dann geht das schon. Die Frage ist, ob NVidia da was investiert oder eher nicht. Ich glaube eher nicht mit der Begründung, dass sie im Idle sowieso runterdreht und in Spielen hat man ja sowieso Krach vom Soundsystem.
LovesuckZ
2009-12-15, 00:51:40
Naja, wenn man einen Vernünftigen Kühler draufpackt, dann geht das schon. Die Frage ist, ob NVidia da was investiert oder eher nicht. Ich glaube eher nicht mit der Begründung, dass sie im Idle sowieso runterdreht und in Spielen hat man ja sowieso Krach vom Soundsystem.
Selbst mit einem vernünftigen Kühler ist es unmöglich. AMD's Hemlock ist 12" lang - 1,5" länger als GTX295 und 4870x2. Und auch nur, um die Kühllösung vernünftig gestalten zu können. Man kann nur hoffen, dass GF100 genug Leistung mitbringt, dass eine 150 Watt Karte auf Cypress Niveau liegt. Eine 8800GTX kam vor 3 Jahren auf dem Markt, hatte eine TDP von 186 Watt und eine Kühllösung, die kaum zu hören war. Meine GTX280 ohne Spannungsreduzierung dagegen war wie ein Jet.
Ailuros
2009-12-15, 07:01:38
Die fakes bleiben stehen. Ja ich habe auf den ersten fake gelinkt (und wenn ich es nicht getan haette, haette mit Sicherheit es jemand anders gemacht) und daher um fair zu sein kann ich AMD generierte fakes nicht einfach so herausstreichen nur weil dem einem oder anderen die Resultate nicht passen sollten.
tombman
2009-12-15, 07:06:04
Die fakes bleiben stehen. Ja ich habe auf den ersten fake gelinkt (und wenn ich es nicht getan haette, haette mit Sicherheit es jemand anders gemacht) und daher um fair zu sein kann ich AMD generierte fakes nicht einfach so herausstreichen nur weil dem einem oder anderen die Resultate nicht passen sollten.
Nein, du läßt sie stehen, weil Moderatoren unfehlbar zu sein haben.
Streiche einfach ALLE fakes. Ein fake ist keine Spekulation und damit spam.
Ailuros
2009-12-15, 07:26:06
Nein, du läßt sie stehen, weil Moderatoren unfehlbar zu sein haben.
Ja ich lass sie stehen aber nur weil reunion u.a. Resultate sehen wollte und zur gleichen Zeit nicht kapieren wollte dass ohne A3 keine echten Resultate moeglich sind.
Wenn man nicht verstehen will dass keine Resultate mit nicht produktionsreifer hw moeglich sind, dann ist man mit fakes gut bedient.
Streiche einfach ALLE fakes. Ein fake ist keine Spekulation und damit spam.
Sie sind so oder so ueber das gesamte Netz verstreut. Wo ist das Problem genau so lange es offensichtlich ist dass es sich in beiden Faellen um fakes handelt?
Vor CES besteht keine einzige Moeglichkeit fuer reale Resultate.
***edit: zurueck zum Thema...wer uebrigens den GF100 Thread auf B3D verfolgt, silent_guy's Einzelheiten ueber chip-Produktion sind stets eine gute Lektuere:
http://forum.beyond3d.com/showpost.php?p=1369000&postcount=2163
Spasstiger
2009-12-15, 12:23:18
So eine Grafik ist auch eine Form von Spekulation. Kann ja der Ersteller nix für, dass sich die Grafiken wie ein Lauffeuer im Netz verbreiten und Nachahmer finden. Solange das mit den Grafiken nicht in Spam ausartet, sehe ich kein Problem darin. Spamartige Ausmaße hat bisher nur das Gemecker über die Grafiken angenommen.
@Ailuros: Danke für den Link. Das mit dem Antenneneffekt bei den Metalldrähten während der Fertigung war mir noch gar nicht bekannt. Das Problem bei TSMC liegt also darin, dass sie die Vias (Durchkontaktierungen) nicht so hinbekommen wie in den Designrichtlinien vorgeschrieben?
Ailuros
2009-12-15, 12:52:34
Ich kann nicht wissen ob es das eigentliche Problem bei TSMC's 40G momentan ist, egal ob Chen fuer Null via defects anfragt.
Wie dem auch sei silent_guy sagt ja dass es ein Herstellungsprozess bzw. TSMC Problem ist die via defects zu umgehen und dagegen koennen IHVs nichts anrichten.
current design rules explicitly limit the maximum length of a single continuous stretch of metal wire and enforce a weaving pattern between metal layers instead (and thus use vias). This is to avoid antenna violations: during silicon production, metal wires may temporarily not be connected to anything (e.g if your signal goes from M4 to M3 and back to M4, M3 will be unconnected when M4 hasn't been added yet). Those metal wires function as antennas and will pick up charges that have nowhere to go. If this charge gets too large, the wire will zap and you end up with a broken chip.
Wenn das fettgedruckte das eigentliche Problem fuer 40G generell sein sollte, dann gute Nacht.
Spasstiger
2009-12-15, 13:04:06
Es steht aber auch im Text, dass dieses Durchbrennen aufgrund von Aufladungen durch ein "weaving pattern" verhindert wird, was eben Durchkontaktierungen erfordert. Dieses "weaving pattern" ist auch in den Designregeln vorgeschrieben, so dass es erst gar nicht zu den kritischen Aufladungen auf den Metalldrähten kommt.
Man muss also keine Angst haben, dass die ganzen 40-nm-GPUs in nächster Zeit wie die Fliegen sterben.
Mal eine Frage von jemandem, der eigentlich eine HD 5850 holen wollte, jetzt aber überlegt, evtl. einen Monat länger zu warten, da die HD 58xx ohnehin nicht lieferbar sind: Wie groß ist denn die Wahrscheinlichkeit, dass eine DX11-nVidia-Karte mit der Leistung einer HD 5850 aufwärts mit einem nicht höheren Verbrauch (ich habe ein 400 Watt-NT) für rund 220 € erscheint? Ich habe keine Lust, falls nächste Woche wie durch Zauberhand HD 5850er lieferbar werden und ich eine hole, in einem Monat blöd aus der Wäsche zu gucken, weil nVidia einen 20 % schnelleren Chip mit gleichem oder weniger Verbrauch für den gleichen Preis samt integriertem PhysX und anderen Goodies rausbringt. Kann man da schon in etwa eine Wahrscheinlichkeit für dieses Szenario vorhersagen oder ist das wirklich noch völlig unklar. Teilweise liest man ja noch von einigen Zweiflern, Fermi würde kaum schneller als die aktuelle GT200-Generation werden. Woher kommen denn diese Vermutungen? Die 340 Seiten habe ich nicht gelesen, daher sorry, falls, schon tausendmal besprochen.
LovesuckZ
2009-12-15, 13:47:52
Das kann dir niemand sagen. Das ist abhängig davon, wie schnell GF100 in bester Ausbaustufe wird und wie gut/schlecht die Yields sind. Bei der GF4 TI gab es auch 3 unterschiedliche Versionen. Möglich ist es aufjedenfall, dass sie eventuell eine GTX350/GTX360/GTX380 bringen. Und die GTX350 mit 32 ROPs, 256bit Speicherinterface, 1024MB Ram und geschätzt 10 Cluster auf den Markt kommen kann. Aber das lässt sich erst im nächsten Jahr beantworten.
Das kann dir niemand sagen. Das ist abhängig davon, wie schnell GF100 in bester Ausbaustufe wird und wie gut/schlecht die Yields sind. Bei der GF4 TI gab es auch 3 unterschiedliche Versionen. Möglich ist es aufjedenfall, dass sie eventuell eine GTX350/GTX360/GTX380 bringen. Und die GTX350 mit 32 ROPs, 256bit Speicherinterface, 1024MB Ram und geschätzt 10 Cluster auf den Markt kommen kann. Aber das lässt sich erst im nächsten Jahr beantworten.
Oha, ich dachte für 350er wäre der G92 gesetzt :D
Burgard
2009-12-15, 14:34:52
Mal eine Frage von jemandem, der eigentlich eine HD 5850 holen wollte, jetzt aber überlegt, evtl. einen Monat länger zu warten, da die HD 58xx ohnehin nicht lieferbar sind: Wie groß ist denn die Wahrscheinlichkeit, dass eine DX11-nVidia-Karte mit der Leistung einer HD 5850 aufwärts mit einem nicht höheren Verbrauch (ich habe ein 400 Watt-NT) für rund 220 € erscheint? Ich habe keine Lust, falls nächste Woche wie durch Zauberhand HD 5850er lieferbar werden und ich eine hole, in einem Monat blöd aus der Wäsche zu gucken, weil nVidia einen 20 % schnelleren Chip mit gleichem oder weniger Verbrauch für den gleichen Preis samt integriertem PhysX und anderen Goodies rausbringt. Kann man da schon in etwa eine Wahrscheinlichkeit für dieses Szenario vorhersagen oder ist das wirklich noch völlig unklar. Teilweise liest man ja noch von einigen Zweiflern, Fermi würde kaum schneller als die aktuelle GT200-Generation werden. Woher kommen denn diese Vermutungen? Die 340 Seiten habe ich nicht gelesen, daher sorry, falls, schon tausendmal besprochen.
Wegen dem Preis.
Wie gross ist die Wahrscheinlichkeit, dass die NV billiger wird als die AMD.
Mal überlegen:
der AMD-Chip hat 2,1 Mrd bei ca. 50% Yield, somit müsste die NV mit 3 Mrd. eine Yield von ca. 80% haben, um überhaupt kostentechnisch mit der Amd mithalten zu können, unter der Bedingung, dass beide auf 12" Wafern produziert werden.
Sollte jeder für sich entscheiden ob das klappt und realistisch ist.
Vielleicht kann NV ja preislich bei Board und Speicher kompensieren, wer weiss.
Ich würde davon ausgehen, dass sich GF100 Chips in der Topversion preislich an der 5970 und in der kastrierten Version an der 5870 orientieren. Die 5850 dürfte so schnell keine Konkurrenz bekommen. da gegenwärtig noch kein Tape-Out für einen G92 Nachfolger berichtet wurde.
Und bedenkte FPS sind nicht alles. Stromverbrauch BQ und Lautstärke sind ebenso wichtig. Und beim Stromverbrauch dürfte der große Chip nicht positiv sein.
Burgard
2009-12-15, 14:59:51
Selbst die aktuellen 300 EUro für eine 5850 könnten NV schon sauer aufstossen.
Leider kennt man die Produktionskosten nicht, aber billig wird sie gewiss nicht.
Oha, ich dachte für 350er wäre der G92 gesetzt :D
Es würde mich nicht einmal mehr wundern...
Burgard
2009-12-15, 15:42:17
naja, NV sagt doch eh, dass z.Zt. DX11 unwichtig ist und erst 2010/11 interessant wird.
Vielleicht kommt ja doch noch eine 285 in 40nm und nennt sich dann 350 oder so.
Ailuros
2009-12-15, 15:45:06
Ich würde davon ausgehen, dass sich GF100 Chips in der Topversion preislich an der 5970 und in der kastrierten Version an der 5870 orientieren. Die 5850 dürfte so schnell keine Konkurrenz bekommen. da gegenwärtig noch kein Tape-Out für einen G92 Nachfolger berichtet wurde.
Und bedenkte FPS sind nicht alles. Stromverbrauch BQ und Lautstärke sind ebenso wichtig. Und beim Stromverbrauch dürfte der große Chip nicht positiv sein.
Ich wuensche es mir natuerlich total ab, aber eine billige "Minimalspeicher-Variante" ala GTS320 koennte ja wieder auftauchen. Es wird auch nicht das erste Mal sein dass NV aus einem einzigen chip gleich drei Varianten "zaubert". Aber ja igittigitt zur Idee brrrrr......
naja, NV sagt doch eh, dass z.Zt. DX11 unwichtig ist und erst 2010/11 interessant wird.
Vielleicht kommt ja doch noch eine 285 in 40nm und nennt sich dann 350 oder so.
Afaik gibt es keine >GT215 40nm GT21x Variante. Die Dinger werden ja wie es aussieht als GT3x0 verkauft und von da aufwaerts werden noch (glaube ich) 4 chips zum tape out geschickt der GF1x0 Familie. Wenn aber GF100 nicht in Produktion geht werden diese vorruebergehend auch nicht beruehrt.
***edit: AiL streicht Januar aus seinem Kalender und markiert nun Februar :(
Dural
2009-12-15, 17:48:54
naja jeder der auf fermi wartet ist selber schuld, ich habe ja von anfang an gesagt das ich nicht warten würde! ich bin mit meinen vier 40nm GPUs die ich bis jetzt habe (4770/5770/5870/GT240) zu friden! bis fermi kommt hab ich die 5870 schon min. 5monate......
naja jeder der auf fermi wartet ist selber schuld, ich habe ja von anfang an gesagt das ich nicht warten würde! ich bin mit meinen vier 40nm GPUs die ich bis jetzt habe (4770/5770/5870/GT240) zu friden! bis fermi kommt hab ich die 5870 schon min. 5monate......
Dann erkläre mir mal, wie ich noch bis nächste Woche eine HD 5850 für einen humanen Preis (220 € Maximum) herkriege. Die Lieferschwierigkeiten zwingen einen ja, auf Fermi zu warten. Wenn ich jetzt noch 2 Wochen warten muss, warte ich auch gerne nochmal 2 Wochen und schaue, ob erste Benches vom Fermi nicht mindestens die Preise der ATis drücken.
Dural
2009-12-15, 18:11:12
wenn sie nicht mal den RV870 vernünftig liefern können, dann wird fermi garantiert so gut wie gar nicht lieferbar sein, auch wenn sie es wollten/möchten!
ich glaube um derzeit vernünftige fermi stückzahlen liefern zu können würde glaub die ganze 40nm kapizität nur für fermi drauf gehen... da lässt man lieber den kleinen schrott wie GT215/GT216/GT218 oder RV840 herstellen, den das sind die Chips die GELD bringen!!!
Schlammsau
2009-12-15, 18:12:19
Dann erkläre mir mal, wie ich noch bis nächste Woche eine HD 5850 für einen humanen Preis (220 € Maximum) herkriege. Die Lieferschwierigkeiten zwingen einen ja, auf Fermi zu warten. Wenn ich jetzt noch 2 Wochen warten muss, warte ich auch gerne nochmal 2 Wochen und schaue, ob erste Benches vom Fermi nicht mindestens die Preise der ATis drücken.
wird es nicht mehr geben, die preise der 5850 wurden doch nach oben korrigiert.
musst mit um die 250€ oder höher rechnen!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7643490#post7643490
da sieht man mal wieder wie weit sich mit einer generation die billig-mentalität sogar bei grafikkarten-käufern durchgesetzt hat. hoffentlich normalisiert sich das wieder.
Dural
2009-12-15, 18:22:25
und was ich nicht verstehe, es war doch von anfang an bekannt das 40nm probleme macht!!! zuerst 4770 kaum lieferbar, dann hat NV die GT21x nach hinten gesetzt oder ganz gestrichen und und und.... deswegen hab ich gleich bei jeder neuen 40nm GPU sofort zugeschlagen...
und bei mir liegt eine 5870 und verwende sie nicht ein mal, jemand neidisch? ;)
http://img63.imageshack.us/img63/840/dsc05456655646.jpg
tombman
2009-12-15, 19:50:39
naja jeder der auf fermi wartet ist selber schuld,
Nicht jeder braucht jetzt sofort eine neue Grafikkarte ;)
Ich zb kann LOCKER warten ;)
naja jeder der auf fermi wartet ist selber schuld
Das kommt ja wohl auf den Ausgang der Geschichte an.
Dimon
2009-12-15, 20:28:03
Nicht jeder braucht jetzt sofort eine neue Grafikkarte ;)
Ich zb kann LOCKER warten ;)
Nicht nur du ;)
Palpatin
2009-12-15, 21:53:02
Wollt zwar auch wechseln, aber imo reicht die GTX 280 noch, die Games die jetzt rausgekommen sind die ich zocke sind sogar nen Tick humaner von den Anforderungen als die Spiele dich ich vor 6-12 Monaten gezockt hab.
Aion läuft besser als Age of Conan. Dragon Age mit High Texture Mod läuft besser als Fallout 3 mit High Texture Mod *g*.
Für Eyefinity is imo leider sowiso kein Geld vorhanden da ich am Samstag nen Neuwagen bestellt hab. :).
Erstmal abwarten bis GT300 auch in rauen Mengen verfügbar ist. Dann gut überlegen wieviel Leistung ich brauch, dann andere Punkte wie Features Lautstärke Verbrauch angebot an Alternativ Lösungen wie Vapor X usw vergleichen und dann das was mir am besten zusagt im bereich zwischen 250 und 400 Euro kaufen.
dargo
2009-12-15, 23:12:55
Selbst die aktuellen 300 EUro für eine 5850 könnten NV schon sauer aufstossen.
Die 300€ einer HD5850 sagen überhaupt nichts aus solange es keine Konkurrenz gibt. Gäbe es diese würde eine HD5850 kaum mehr als 200€ kosten.
Burgard
2009-12-15, 23:22:34
Die 300€ einer HD5850 sagen überhaupt nichts aus solange es keine Konkurrenz gibt. Gäbe es diese würde eine HD5850 kaum mehr als 200€ kosten.
Ich möchte nurmal anmerken, dass NV seine Karten für 400-600 Euro angeboten hat, als sie rausgekommen sind.
Da finde ich die 300-400 seitens Amd richtig human, zumal die Verfügbarkeit von beiden mehr als bescheiden ist.
Jetzt muss NV erstmal zeigen was die GF100 auf dem Kasten hat und das zu einem zivilen Preis.
Die Hochpreispolitik sollte jetzt ein für allemal beendet sein, sonst sehe ich für NV schwarz.
Allerdings ist der Gamermarkt eh nicht mehr wichtig, von daher kann es NV egal sein, zu welchem Preis Amd seine Karten anbietet.
Die Chips sind dann wohl auch besser in den Quadros aufgehoben, wo der Preis eben bei über 1000 Euro anfängt, wohlgemerkt für den gleichen Chip.
BlackFog
2009-12-15, 23:31:27
Wo ist das Problem bei den Highend Preisen?
Wenn es zu teuer ist, nimmt man eben eine kleinere Midrange Karte.
Intel verkauft auch seine Extreme Edition mit hohem Preis.
Wer die Leistung will muss eben blechen.
Das Einzige Problem ist doch, wenn die Karte dann keine überragende Leistung bietet.
dargo
2009-12-15, 23:32:28
Ich möchte nurmal anmerken, dass NV seine Karten für 400-600 Euro angeboten hat, als sie rausgekommen sind.
Ohne Konkurrenz auch nicht verwunderlich. Jeglicher IHV wäre ganz schön dämlich die Preise bei nicht vorhandender Konkurrenz möglichst tief nach unten zu drücken.
boxleitnerb
2009-12-15, 23:42:23
Man darf aber nicht die Konkurrenz aus der vorherigen Generation vergessen. Jetzt mal abgesehen von Lieferbarkeit herrschte rein leistungsmäßig kein Gleichstand, deshalb ist der Abstand der 5000er Serie zum schnellsten bisherigen Karte (GTX285) nicht sooo groß, als dass man 500+ Euro MSRP für die 5870 verlangen kann, selbst mit den zusätzlichen Features. Ich behaupte mal, für die meisten Käufer geht es immer noch hauptsächlich um den Speed.
AnarchX
2009-12-16, 07:41:04
Will man da nur Publicity oder besitzt SilenX doch schon Daten zu diesen Karten um hier eine Kompatibilität sicher zu stellen:
ATI Radeon cards
Radeon X1xxx Series - Fanless
Radeon HD2xxx Series - Fanless
Radeon HD3xxx Series - Fanless
Radeon ≤HD4830 - Fanless
Radeon HD4850 - Single Fan
Radeon HD4870 - Dual Fan
Radeon ≤HD5830 - Fanless
Radeon HD5850 - Single Fan
Radeon HD5870 - Dual Fan
Radeon HD5890 - Dual Fan
nVidia GeForce cards
GeForce 6xxx Series - Fanless
GeForce 7xxx Series - Fanless
GeForce 8xxx Series - Fanless
GeForce ≤9600 - Fanless
GeForce 9800 - Single Fan
GeForce ≤GT240 - Fanless
GeForce G100 Series - Fanless
GeForce GTS240/GTS250 - Single Fan
GeForce GTX260/GTX265 - Dual Fan
GeForce GTX270/GTX275 - Dual Fan
GeForce GTX280/GTX285 - Dual Fan
GeForce ≤GT330 - Fanless
GeForce GTS340/GTS350 - Single Fan
GeForce GTX360/380 - Dual Fan
http://www.silenx.com/ixtremaproheatsinks.asp?sku=ixg-80ha2
Will man da nur Publicity oder besitzt SilenX doch schon Daten zu diesen Karten um hier eine Kompatibilität sicher zu stellen:
http://www.silenx.com/ixtremaproheatsinks.asp?sku=ixg-80ha2
wieso beschleicht mich das gefühl, dass diese gt330/340/350 dinger umbenannte alte karten sein könnten?
Interessanter finde ich folgenden Eintrag:
GeForce 6xxx Series - Fanless
GeForce 7xxx Series - Fanless
GeForce 8xxx Series - Fanless
GeForce ≤9600 - Fanless
GeForce 9800 - Single Fan
GeForce ≤GT240 - Fanless
GeForce G100 Series - Fanless
GeForce GTS240/GTS250 - Single Fan
GeForce GTX260/GTX265 - Dual Fan
GeForce GTX270/GTX275 - Dual Fan
GeForce GTX280/GTX285 - Dual Fan
GeForce ≤GT330 - Fanless
GeForce GTS340/GTS350 - Single Fan
GeForce GTX360/380 - Dual Fan
Aber das macht kein Sinn, die GF100 die man gesehen hatte, hatte eindeutig einen Kühler.
AnarchX
2009-12-16, 10:18:22
G100 ist dieser Karte: http://www.nvidia.com/object/product_geforce_g_100_us.html
... wobei sich die Frage stellt, wer einen solchen Kühler darauf verbaut. :D
Will man da nur Publicity oder besitzt SilenX doch schon Daten zu diesen Karten um hier eine Kompatibilität sicher zu stellen:
http://www.silenx.com/ixtremaproheatsinks.asp?sku=ixg-80ha2
Nö, aber einfache Schlußfolgerung. Wenn für HD5870 zwei Fans empfohlen werden, wird für die 5890 sicher nicht nur einer ausreichen. Gleiches Spielchen mit GTX285 -> Fermi.
Dural
2009-12-16, 17:55:51
sorry die liste ist doch nur müll... das sieht man mal wieder wie seriös so mancher hersteller ist...
Zumindest die Lochabstände und die TDP der GeForce 3X0 Reihe sind raus - schon länger.
Dural
2009-12-16, 18:21:25
und trotzdem können sie die kompatiblität nicht garantieren, wenn sie infos hätten würden sie eh unter NDA stehen und somit dürften die Namen in der liste noch gar nicht auftauchen...
merfu
2009-12-16, 20:14:33
Das wäre nicht das erste mal das ein NDA gebrochen wird. NDA ist keine Garantie das keine Informationen nach draußen dringen.
mfg
reunion
2009-12-16, 20:19:28
Das wäre nicht das erste mal das ein NDA gebrochen wird. NDA ist keine Garantie das keine Informationen nach draußen dringen.
mfg
Es gibt noch kein NDA, es gibt noch nicht mal das finale Stepping.
y33H@
2009-12-16, 20:28:07
Da müsste schon eine (noch größere) DVI-Abdeckung wie bei den HD5k kommen, damit der SilenX nicht auf GTX300 passt - die Lochabstände sind *Gerücht* identisch zu den GTX200. Von der Leistung sollte der auch passen. Der Silenx stammt btw wie alle seine Klone und u.a. auch die EKL-Klone von PC-Cooler, einem richtig fetten OEM-Hersteller – gar nicht so abwegig, dass die Ahnung haben. Wer baut aktuell den RefKühler der GTX200? Immer noch CM oder doch AVC? *grübel*
Ich möchte nurmal anmerken, dass NV seine Karten für 400-600 Euro angeboten hat, als sie rausgekommen sind.
Da finde ich die 300-400 seitens Amd richtig human, zumal die Verfügbarkeit von beiden mehr als bescheiden ist.
Du kehrst AMDs Flagschiff mal so locker flockig unter den Tisch, stellst dafür alte Nvidia Flagschiffe neben AMDs untere High-End Segment. Warum eigentlich nicht gegen ATIs?
Egal, worauf ich hinaus will, die 5970 kostet 600€.Einen Monat nach Launch. Dein Freudentanz um den 5870 Preis 3 Monate nach Release macht keinen Sinn.
Dural
2009-12-17, 03:22:45
glaube kaum das es ein hersteller wagen würde das NDA zu brechen... und klar gibt es ein "Fermi" NDA derzeit...
die liste ist so kompletter blödsinn: GTX265 / GTX270 was sind den das für karten... oder "GeForce 8xxx Series - Fanless" ja klar eine 8800GTX/Ultra passiv kühlen...
hatte schon geschäftlich mit silenx zutun und die liste passt hervoragent zu dieser firma... mehr gibt es nichts zu sagen!G100 ist dieser Karte: http://www.nvidia.com/object/product_geforce_g_100_us.html
... wobei sich die Frage stellt, wer einen solchen Kühler darauf verbaut. :D
mir stellt sich eher die frage wie man einen so grossen kühler überhaupt auf so eine karte montieren will....
habt ihr das schon gelesen: http://www.semiaccurate.com/2009/12/16/oak-ridge-cans-nvidia-based-fermi-supercomputer/
verheißt wohl nichts gutes, wenn man so ein prestige-projekt verliert. in wie weit das jetzt wieder interpretation von charlie ist, sei mal dahingestellt.
Ich würde davon ausgehen, dass sich GF100 Chips in der Topversion preislich an der 5970 und in der kastrierten Version an der 5870 orientieren. Die 5850 dürfte so schnell keine Konkurrenz bekommen. da gegenwärtig noch kein Tape-Out für einen G92 Nachfolger berichtet wurde. Leistungsmäßig gibt es doch Konkurrenz (GTX 285.)
Ganz allgemein: Warum wird immer "kastriert" oder "beschnitten" gesagt? Kastration ist was anderes. Im übertragenen Sinne heißt Kastration, dass der Kastrierte "nicht mehr kann". Die 5850 kann aber noch, nur nicht ganz so schnell.
Burgard
2009-12-17, 18:01:11
Du kehrst AMDs Flagschiff mal so locker flockig unter den Tisch, stellst dafür alte Nvidia Flagschiffe neben AMDs untere High-End Segment. Warum eigentlich nicht gegen ATIs?
Egal, worauf ich hinaus will, die 5970 kostet 600€.Einen Monat nach Launch. Dein Freudentanz um den 5870 Preis 3 Monate nach Release macht keinen Sinn.
Wie kommst du eigentlich auf die Idee, dass die 380 ein direkter Konkurrent der 5970 ist?
Was ist, wenn es auch wieder eine Dual-Lösung der 380 gibt aka 385?
Also sollte man immer noch Single-Gpu mit Single-Gpu vergleichen, wobei Nvidia die letzte Generation ganz klar dominiert hat.
Nur könnte der Fermi ein echter Rohrkrepierer werden, zumindest aber die vielbesagte Wunderwaffe wird es wohl nicht.
Zumindest scheint es so, wenn man die Reaktionen aus dem Supercomputerlager so sieht.
http://www.semiaccurate.com/2009/12/16/oak-ridge-cans-nvidia-based-fermi-supercomputer/
Ich hoffe mal, dass es endlich neue Infos Anfang Januar gibt.
=Floi=
2009-12-17, 18:05:03
30% weniger ist schon eine menge holz und ihr wirde ja etwas "abgeschnitten"...
Ailuros
2009-12-17, 18:32:14
Wie kommst du eigentlich auf die Idee, dass die 380 ein direkter Konkurrent der 5970 ist?
Was ist, wenn es auch wieder eine Dual-Lösung der 380 gibt aka 385?
Also sollte man immer noch Single-Gpu mit Single-Gpu vergleichen, wobei Nvidia die letzte Generation ganz klar dominiert hat.
Nur könnte der Fermi ein echter Rohrkrepierer werden, zumindest aber die vielbesagte Wunderwaffe wird es wohl nicht.
Zumindest scheint es so, wenn man die Reaktionen aus dem Supercomputerlager so sieht.
http://www.semiaccurate.com/2009/12/16/oak-ridge-cans-nvidia-based-fermi-supercomputer/
Ich hoffe mal, dass es endlich neue Infos Anfang Januar gibt.
Es gab eine oeffentliche NV Ankuendigung dass Oak ridge an Fermi interessiert sei: http://www.nvidia.com/object/pr_oakridge_093009.html
Zwar kann ich nicht wissen ob Charlie Recht hat, aber ich warte lieber ab bis ich etwas zuverlaessigeres sehe bevor ich es glaube. Apple soll ja auch NV die Tuer ins Gesicht geknallt haben von dem bis jetzt nichts zu sehen ist eher das Gegenteil.
Nach Charlie soll oak ridge abgelehnt haben dank zu hohem Stromverbrauch. Nur muss mir Charlie, Du oder jemand anders erstmal so viel HPC Leistung pro Watt in einer Alternative zeigen dass der angebliche "Grund" erstmal Substanz bekommt.
Die GF 380 ist sehr wohl Konkurrenz zur 5970 und wenn NV eine dual GPU mit GF100 veroeffentlichen sollten wird diese erstmal fuer einen Wucherpreis verkauft werden weit ueber der 5970-Preismarge.
in der englishen wiki sind einträge zu den cosumer-fermis aufgetaucht und eine sache macht mich besonders stutzig:
Q: How is NVIDIA approaching the tessellation requirements for DX11 as none of the previous and current generation cards have any hardware specific to this technology?
Jason Paul, Product Manager, GeForce: Fermi has dedicated hardware for tessellation (sorry Rys :-P). We’ll share more details when we introduce Fermi’s graphics architecture shortly!quelle: http://en.wikipedia.org/wiki/Comparison_of_NVIDIA_Graphics_Processing_Units#cite_note-Fermi-25
war nicht immer die aussage, dass die fermis keine dedizierte tessellation-einheit haben?
Burgard
2009-12-17, 19:13:19
Die GF 380 ist sehr wohl Konkurrenz zur 5970 und wenn NV eine dual GPU mit GF100 veroeffentlichen sollten wird diese erstmal fuer einen Wucherpreis verkauft werden weit ueber der 5970-Preismarge.
Naja, noch sehe ich eher eine 5890 als direkte Konkurrenz zur 380.
Letztendlich muss man eh noch abwarten, wie schnell der Fermi tatsächlich wird.
Soviel Geheimniskrämerei nervt echt.
Es wäre doch ein leichtes Benchmark zu veröffentliches, das wäre auch eine gute Werbung.
Seht her, der Fermi ist x % schneller als die 5870/5890 oder eben 5970,
aber nein, schweigen im Walde und nur beschlichtende Aussagen wie:
"das Warten wird sich lohnen"
mapel110
2009-12-17, 19:18:25
Das letzte Stepping/Respin (A3 jedenfalls) ist noch nicht final, also gibts auch noch keine endgültigen Taktraten. Also kann man auch keine Zahlen vorab veröffentlichen.
22-23k Points im 3Dfurz Vantage (Performance Preset) sollen das Ziel sein, laut AIL.
war nicht immer die aussage, dass die fermis keine dedizierte tessellation-einheit haben?
http://images.icanhascheezburger.com/completestore/2008/9/16/128660498159844805.jpg
derguru
2009-12-17, 19:25:46
Naja, noch sehe ich eher eine 5890 als direkte Konkurrenz zur 380.
sehe die 5890 oder wie man halt eine 1ghz 5870 nennen mag auch eher als den konkurrent.
texel und pixelfüllrate wäre bei beiden karten sogar sogut wie identisch.
bin mal auf die angeblichen gt300 optimierungen gespannt.
und wenn man liest das 22-23k das zielt sein sollen bestätigt es mich nur noch mehr das die sich kaum was nehmen werden.
Armaq
2009-12-17, 19:34:57
Nvidia hat sich übernommen. Das sehe ich als Fakt an. Wir werden sehen wie schwer dieser Fehler wiegt, aber schon jetzt entsteht durch die Gerüchteküche mehr Schaden als Nutzen. Nvidia sollte was auf die Beine stellen.
mapel110
2009-12-17, 19:37:38
nvidia ist lediglich 3 Monate später dran als geplant. Eben ein zusätzlicher Respin. Dass ATI einen Midrange-Chip nun die paar Monate als High End verscherbeln kann, ändert daran nichts.
Dural
2009-12-17, 19:40:20
....und nicht mal der können sie vernünftig liefern... ;)
RV870 @ 1GHz = ca. 10-15% mehr Leistung als 5870...
8800GTX vs GTX280 = 60-80% schneller...
4870 vs GTX280 = 20-30% schneller...
GTX285 vs 5870 = 20-30% schneller...
ganz einfache rechnung... sollte die effizient gleich sein wie bei GT200 ist man schon min. 40% schneller als 5870...
Zockerfrettchen
2009-12-17, 19:47:07
Es heißt den.....
Armaq
2009-12-17, 19:49:31
nvidia ist lediglich 3 Monate später dran als geplant. Eben ein zusätzlicher Respin. Dass ATI einen Midrange-Chip nun die paar Monate als High End verscherbeln kann, ändert daran nichts.
Einfach nur 3 Monate sind es ebend nicht. Nvidia kaut zur Zeit an einem sehr harten Brocken.
fizzo
2009-12-17, 19:50:00
wie sieht es eigendlich mit den gamestudios aus - haben die schon lauffaehige DX11 karten nvidia? ati hat diese ja schon seit fast einen halben jahr mit juniper karten versorgt. nun stellt sich fuer mich die frage, ob auch dementsprechend hin optimiert wird?
Burgard
2009-12-17, 19:50:39
....und nicht mal der können sie vernünftig liefern... ;)
RV870 @ 1GHz = ca. 10-15% mehr Leistung als 5870...
4870 vs GTX280 = 20-30% schneller...
GTX285 vs 5870 = 20-30% schneller...
ganz einfache rechungen...
Wie wäre es, wenn du die GTX285 mit der 4890 vergleichst, würde sich besser machen.
Was die Verfügbarkeit angeht, so gebe ich dir recht, aber da ist NV auch nicht unschuldig, da sie ja nicht mehr gross Produzieren und ein ziemliches Loch hinterlassen haben, das mit 300000 58xx gestopft wird.
derguru
2009-12-17, 19:53:38
für wann es geplant ist uninteressant da man sich an der konkurrenz messen tut.3 monate zu spät nach ihrem termin kalender und fast 5 monate zu amd.:rolleyes:
und dann wahrscheinlich nicht mal merklich schneller (y)
deine rechnung haut sogar in etwa hin,
RV870 @ 1GHz = ca. 10-15% mehr Leistung als 5870...
GTX285 vs 5870 = 20-30% schneller...
und ich ergänze es noch,
380gt vs 5890 = 5-10% schneller:biggrin:
Burgard
2009-12-17, 20:06:47
und ich ergänze es noch,
380gt vs 5890 = 5-10% schneller:biggrin:
So schätze ich die Situation auch ein, ob es stimmt, das kann nur NV beantworten, wenn sie endlich mal in die Pötten kommen.
Eigentlich dürfte der Fermi dann nicht mehr als 450 Dollar kosten, wenn die AMD dann wohl 400 Dollar kosten wird.
Auf das der Fermi eine hohe Yield hat.
Dural
2009-12-17, 20:07:37
jo die GTX380 ist 40% schneller als GTX285 ;)
Einfach nur 3 Monate sind es ebend nicht. Nvidia kaut zur Zeit an einem sehr harten Brocken.
Was ist jetzt die Grundlage für die Behauptung? Fermi ist wohl rund 3 Monate zu spät. Mehr oder weniger weißt du auch nicht.
Wenn man bedenkt dass das eine komplett neue Architektur ist kann man das verschmerzen, wenn sie sich auszahlt.
Wie wäre es, wenn du die GTX285 mit der 4890 vergleichst, würde sich besser machen.
Würde nichts ändern, bei beiden 10% aufschlagen.
Es sei den du willst auf den VRAM hinaus. Da hast du natürlich Recht, 5870 hat wie 4870 weniger VRAM. Sogar die 5970 hat diesmal weniger VRAM, die 4870 X2 bot noch die vergleichbare Größe an.
tombman
2009-12-17, 20:27:56
Was ist jetzt die Grundlage für die Behauptung? Fermi ist wohl rund 3 Monate zu spät. Mehr oder weniger weißt du auch nicht.
Wenn man bedenkt dass das eine komplett neue Architektur ist kann man das verschmerzen, wenn sie sich auszahlt.
Der einzige Brocken, an dem sie kauen, trägt den Namen TSMC :lol:
AMD will sich ja schnellstmöglich Richtung Global Foundries verziehen, um nicht mehr von diesen TSMC-Versagern abhängig zu sein.
Nvidia muß mit den Typen auskommen :(
Dural
2009-12-17, 20:28:13
Würde nichts ändern, bei beiden 10% aufschlagen.
Es sei den du willst auf den VRAM hinaus. Da hast du natürlich Recht, 5870 hat wie 4870 weniger VRAM. Sogar die 5970 hat diesmal weniger VRAM, die 4870 X2 bot noch die vergleichbare Größe an.
ja das kommt noch hinzu, nv wird 500MB mehr vram haben und je nach einstellungen werden die bemerktbar sein... klar ati kann mit 2GB kommen aber da werden sie 500MB mehr bezahlen müssen als NV die wohl kaum oder gar nichts bringen werden...
ich behaupte mal das GF100 taktbereinigt min. 80% schneller als GT200 ist
derguru
2009-12-17, 20:35:24
ja das kommt noch hinzu, nv wird 500MB mehr vram haben und je nach einstellungen werden die bemerktbar sein... klar ati kann mit 2GB kommen aber da werden sie 500MB mehr bezahlen müssen als NV die wohl kaum oder gar nichts bringen werden...
die 500mb können sie auch gebrauchen:rolleyes:
ich behaupte mal das GF100 taktbereinigt min. 80% schneller als GT200 ist
jo ca.80% haut hin aber das heißt nicht das sie dann auch im benchparcour von pcgh und cb 80% schneller ist,kapische?(wohl eher 50%):wink:
Dural
2009-12-17, 20:36:59
von 1500MB auf 2000MB? wo soll den das bitte schön noch vorteile bringen?
von 1000MB auf 1500MB schon eher oder nicht ;)
und noch mal, die GTX280 ist gut 60-80% schneller (überalles) als 8800GTX und die hardware erweiterungen waren DEUTLICH kleiner als zwischen GT200 und GF100! nicht einmal 100% mehr SP und dann noch 50MHz weniger Shadertakt usw.
reunion
2009-12-17, 20:40:08
ich behaupte mal das GF100 taktbereinigt min. 80% schneller als GT200 ist
Ich behaupte das solche Behauptungen völlig überflüssig sind. NV wird irgend wann im Januar das A3 Stepping bekommen, erst dann weiß mal NV selbst was Sache ist.
Der einzige Brocken, an dem sie kauen, trägt den Namen TSMC :lol:
AMD will sich ja schnellstmöglich Richtung Global Foundries verziehen, um nicht mehr von diesen TSMC-Versagern abhängig zu sein.
Nvidia muß mit den Typen auskommen :(
AMD fertigt aktuell auch bei TSMC und wird dieses Jahr eine Million DX11 Karten liefern. Am 7. Januar kommen die Lowend- und Midragechips. So einfach ist es auch wieder nicht.
Wenn es performanetechnisch eng wird, dann ist die 5870 mal locker 50% schneller als ne 285. Oft hängt die 5870 halt auch am CPU-Limit, bzw. limitieren hier IMO noch dir Treiber bzw. das Setup. Es wäre ja nicht das erste Mal, dass bei der Vostellung einer Karte eines IHVs plötzlich ein Wundertreiber des anderen IHV auf die Bretter geknallt wird.
Dural
2009-12-17, 20:42:58
Ich behaupte das solche Behauptungen völlig überflüssig sind. NV wird irgend wann im Januar das A3 Stepping bekommen, erst dann weiß mal NV selbst was Sache ist.
sorry aber das ist blödsinn, NV weis GENAU wie viel schneller der GF100 taktbereinigt als GT200 ist, dazu reicht schon ein halbwegs lauffähiger A1 aus... wenn nicht sogar eine reine simulation...
AMD fertigt aktuell auch bei TSMC und wird dieses Jahr eine Million DX11 Karten liefern. Am 7. Januar kommen die Lowend- und Midragechips. So einfach ist es auch wieder nicht.
doch so einfach ist es, der GF100 ist 50% grösser als RV870 und nicht mal der ist in gewünschten stückzahlen lieferbar... die kleinen GPUs egal ob jetzt von ATI oder NV sind recht gut lieferbar, na klingelt es?
reunion
2009-12-17, 20:45:20
sorry aber das ist blödsinn, NV weis GENAU wie viel schneller der GF100 taktbereinigt als GT200 ist, dazu reicht schon ein halbwegs lauffähiger A1 aus...
Okay, ich habe das taktbereinigt übersehen. Nichtsdestotrotz sind das nur theoretische Überlegungen, welche bei einer neuen Generation kaum zu gebrauchen sind. Und ohne den Takt zu wissen sowieso nicht.
doch so einfach ist es, der GF100 ist 50% grösser als RV870 und nicht mal der sit in gewünschten stückzahlen lieferbar...
Das A1 Tapeout war irgend wann im Sommer, da brauchen wir nicht weiter zu diskutieren.
derguru
2009-12-17, 20:47:30
Wenn es performanetechnisch eng wird, dann ist die 5870 mal locker 50% schneller als ne 285. Oft hängt die 5870 halt auch am CPU-Limit, bzw. limitieren hier IMO noch dir Treiber bzw. das Setup. Es wäre ja nicht das erste Mal, dass bei der Vostellung einer Karte eines IHVs plötzlich ein Wundertreiber des anderen IHV auf die Bretter geknallt wird.
das begreifen die meisten ja nicht,die sehen im pcgh oder cb die benchmarks ratings und denken 20-30% nur schneller.bei ordentlichen settings(ab8AAA hab ich sehr oft sogar eine verdopplung zur 4890)
Dural
2009-12-17, 20:47:59
@reunion das sie später dran sind als ATI bestreitet ja auch keiner, oder hab ich was überlesen? GF100 ist ja auch mehr etwas "neues" und das kann man vom RV870 nicht gerade behaupten...
Armaq
2009-12-17, 20:50:42
Was ist jetzt die Grundlage für die Behauptung? Fermi ist wohl rund 3 Monate zu spät. Mehr oder weniger weißt du auch nicht.
Wenn man bedenkt dass das eine komplett neue Architektur ist kann man das verschmerzen, wenn sie sich auszahlt.
Es geht nicht um die Zeit, sondern um das wie (natürlich weiss ich nicht mehr). Die Art wie Nvidia sich gibt deutet auf massive Probleme hin. Für eine HighTech-Firma ein Fake-Board zu präsentieren ist einfach lächerlich und anscheinend war es die einzige Möglichkeit - ODER - Nvidia hat das Eisen im Feuer und schmiedet es jetzt richtig durch. Davon geht aber fast niemand aus.
Die Art der Informationsverbreitung, speziell die PR ist grausam. Diese Unsicherheiten führen bei eventuelle Käufern, vor allem aus dem Profi-Segment, nicht zu soliden Deals. Das solltest du sogar noch am besten wissen.
Auch die Mitarbeiterbeiträge die sich durch das Netz ziehen deuten auf einen ungesunden Verlauf, es ist halt mehr die Summe aller Teile, als ein konkreter Fakt.
reunion
2009-12-17, 20:52:52
@reunion das sie später dran sind als ATI bestreitet ja auch keiner, oder hab ich was überlesen? GF100 ist ja auch mehr etwas "neues" und das kann man vom RV870 nicht gerade behaupten...
Der Punkt ist das es nicht ungewöhnliches ist das ein neues Design mit einer derartigen Größe auf einem neuen Prozess ein A3 Stepping benötigt. Selbst mit A2 hätten sie max. noch einen Paperlaunch heuer geschafft. Das Design von GF100 wurde zu spät fertig, das hat erstmal nichts mit TSMC zu tun. Das es danach noch zu zusätzlichen Problemen kam mag sein.
Wenn es performanetechnisch eng wird, dann ist die 5870 mal locker 50% schneller als ne 285.Nur mit 8x AA. Bei 4x AA hat die 5870 Mühe, 30% vor der GTX 285 zu liegen. Nicht eingerechnet allerdings mögliche Vorteile durch DirectX 10.1 oder 11.
derguru
2009-12-17, 21:39:51
Nur mit 8x AA. Bei 4x AA hat die 5870 Mühe, 30% vor der GTX 285 zu liegen. Nicht eingerechnet allerdings mögliche Vorteile durch DirectX 10.1 oder 11.
schwachsinn abgesehen von alten games.solche vergleiche macht man eh lieber mit dem vorgänger aus dem eigenen haus.
y33H@
2009-12-17, 21:54:11
Naja, je nach (neuem) Spiel sinds auch mal nur 15% oder bis zu 50%. Die 30% im Mittel sind ganz passend, wie ich finde.
schwachsinn abgesehen von alten games.
Stimmt, in neueren siehts schlimmer aus.
http://www.pcgameshardware.de/aid,698411/Borderlands-im-Technik-Test-Grafikkarten-Benchmarks-mit-Unreal-Engine-3-Geforces-in-Front/Action-Spiel/Test/
http://www.pcgameshardware.de/aid,699165/Call-of-Duty-6-Modern-Warfare-2-im-Technik-Test-Grafik-Vergleich-Update-Grafikkarten-Benchmarks/Action-Spiel/Test
derguru
2009-12-17, 22:03:26
Naja, je nach (neuem) Spiel sinds auch mal nur 15% oder bis zu 50%. Die 30% im Mittel sind ganz passend, wie ich finde.
ok im durchschnitt schon aber das hört sich an als ob die 30% schon alles wäre.es gibt auch spiele die sind unter 4aa auch mal 60-70% schneller als eine 285gtx.
Stimmt, in neueren siehts schlimmer aus.
http://www.pcgameshardware.de/aid,698411/Borderlands-im-Technik-Test-Grafikkarten-Benchmarks-mit-Unreal-Engine-3-Geforces-in-Front/Action-Spiel/Test/
http://www.pcgameshardware.de/aid,699165/Call-of-Duty-6-Modern-Warfare-2-im-Technik-Test-Grafik-Vergleich-Update-Grafikkarten-Benchmarks/Action-Spiel/Test
troll wo anders mit den alten grafikengines,wenn man sowas als beispiele nimmt kein wunder.
boxleitnerb
2009-12-17, 22:07:34
Du darfst dir die Rosinen rauspicken und er nicht? Hm...
y33H@
2009-12-17, 22:10:59
@ Gast
Borderlands ist n Treiber-FuckUp.es gibt auch spiele die sind unter 4aa auch mal 60-70% schneller als eine 285gtx.70% mit 4x MSAA? In Szenen wo der GTX285 der Speicher ausgeht? Hast du n Link? :)
Burgard
2009-12-17, 22:11:14
Oh mann, es wird Zeit, dass NV ein paar Infos ausrückt, so als Weihnachtsgeschenk, sonst wird es hier noch richtig hässlich.^^
derguru
2009-12-17, 22:14:14
Du darfst dir die Rosinen rauspicken und er nicht? Hm...
ich picke rosinen von der neuzeit aus ,er vor 4 jahren mit klassischen konsolenports,pfff.kann er gleich auf der x box spielen den driss.
[B]70% mit 4x MSAA? In Szenen wo der GTX285 der Speicher ausgeht? Hast du n Link? :)
http://www.computerbase.de/artikel/software/2009/test_shattered_horizon/4/#abschnitt_benchmarks
ok 70% ist die extreme ausnahme aber bis 60% gibts schon einige spiele.
Dural
2009-12-17, 22:22:45
Stimmt, in neueren siehts schlimmer aus.
http://www.pcgameshardware.de/aid,698411/Borderlands-im-Technik-Test-Grafikkarten-Benchmarks-mit-Unreal-Engine-3-Geforces-in-Front/Action-Spiel/Test/
http://www.pcgameshardware.de/aid,699165/Call-of-Duty-6-Modern-Warfare-2-im-Technik-Test-Grafik-Vergleich-Update-Grafikkarten-Benchmarks/Action-Spiel/Test
lol
naja ati war schon immer 1-3 monate hinter NV wenn es um treiber support bei aktuelle games geht...
und das besste ist wenn ein AMD boy mit einem game da her kommt: guck da die neue ATi ist 70% schneller als die
285 aber mit keinem wort erwähnt wird das sogar die 4870 vor der 285 ist........ aber ja wir wissen ja alle das sogar die 4870 definitiv schneller als eine 285 ist, nicht war?
wie so lässt ihr es einfach nicht sein? man wird immer ein game finden wo die eine karte schneller als die andere ist...
fakt ist wenn man die reinen Rohdaten der 5870 mit der GTX285 vergleicht, die Leistung ein richtiges armutszeugnis der R6xx Arichtektur darstellt, nicht mehr und nicht weniger... einzig mit 8AA kann man noch von "OK" sprechen, aber wohl auch nur weil NV dort noch "probleme" hat, die frage ist da aber eher wie lange noch?!? ;)
tombman
2009-12-17, 22:56:40
AMD fertigt aktuell auch bei TSMC
Ja, weil sie müssen, gibt ja nix anderes- aber weg wollen sie, je schneller, desto besser....
GastStoffel
2009-12-17, 23:10:44
Dazu Fällt mir noch der unter Schachspielern beliebte Spruch ein:
Manchmal ist die Drohung stärker als die Ausführung
Alleine was sich an Möglichkeiten damit bietet bei Vertragsverhandlungen
Zu den dem neue Architekturargument fällt mir zb der P4 ein oder eingeschränkt auch der Phenom es muss deswegen keine brachiale Mehrleistung geben.
Ich VERMUTE so 10 bis 20% zur Hd5870 und bei NV optimierten Spielen natürlich deutlich mehr aber hoffentlich bekommen wir bald mal ein paar realistische Zahlen
Dural
2009-12-18, 00:07:56
nur eine kleine grobe zusammenfassung ;)
http://img193.imageshack.us/img193/260/56461684215.jpg
und wo die 80-100% hinführen können sieht man da:
http://img63.imageshack.us/img63/8493/4564646341.jpg
(GTX275 = ca. GTX280)
Nightspider
2009-12-18, 00:17:23
nur eine kleine grobe zusammenfassung ;)
http://img193.imageshack.us/img193/260/56461684215.jpg
und wo die 80-100% hinführen können sieht man da:
http://img63.imageshack.us/img63/8493/4564646341.jpg
(GTX275 = ca. GTX280)
So seh ich das auch, deswegen glaube ich das NV ATI in den Arsch treten wird...we will see...
Dural
2009-12-18, 00:23:40
ach ja noch vergessen:
http://img193.imageshack.us/img193/4774/5464646446.jpg
jetzt soll mir einer BEGRÜNDET genau erklären wie so er die GTX380 nur ca. 10% vor der 5870 (oder was alles genannt wurde) sieht, da bin ich ja gespannt! ;)
Ernst gemeinte Frage an die Nachtschwärmer!
Wie groß ist der Unterschied 8800GTS 512 zu der GTX 380 ungefähr???
Gruß
Dural
2009-12-18, 00:29:42
Ernst gemeinte Antwort an den Nachtschwärmer!
Das kann dir keiner genau sagen! ;) aber sicher 200% +
Ernst gemeinte Antwort an den Nachtschwärmer!
Das kann dir keiner genau sagen! ;) aber sicher 200% +
Danke das ist ja mal ne Hausnummer und würde mir voll reichen um die alte Karte in Rente zu schicken.
Gruß
mapel110
2009-12-18, 00:34:54
Performance ist sowieso nur eine Sache. Ich bin mehr gespannt darauf, was Fermi sonst noch so bringen wird. Ailuros und die Twitter-Accounts haben ja zumindest Neuerungen angekündigt.
Da hoffe ich auf deutlich mehr als RGSSAA für DX9.
Nightspider
2009-12-18, 00:38:27
Performance ist sowieso nur eine Sache. Ich bin mehr gespannt darauf, was Fermi sonst noch so bringen wird. Ailuros und die Twitter-Accounts haben ja zumindest Neuerungen angekündigt.
Da hoffe ich auf deutlich mehr als RGSSAA für DX9.
m2
Bisher hat NV mit jeder neuen Generation paar neue Software-Leckerbissen rausgehauen =)
Dural
2009-12-18, 00:42:51
hab mich auch schon gefragt was man mit den 128TMUs genau anstellen will, zudem der GF100 im vergleich zum GT200 gerade neben den ALUs da die grösste steigerung gemacht hat! OK man könnte jetzt sagen das der GT200 bei den TMUs sehr schwach war...
und spannend ist natürlich immer noch was das fehlende MULL für auswirkungen auf die Leistung haben wird! Da gab es über die ganze G80 und GT200 lebensdauer immer wieder unterschidliche aussagen...
Ich denke die GTX380 wird sich irgendwo zwischen GTX295 und der 5970 einordnen!
Performance ist sowieso nur eine Sache. Ich bin mehr gespannt darauf, was Fermi sonst noch so bringen wird. Fermi ist doch als Tesla-Nachfolger für uns Gamer total uninteressant.
Nightspider
2009-12-18, 01:33:51
Fermi ist doch als Tesla-Nachfolger für uns Gamer total uninteressant.
Und das sagt wer? ;)
Glaubst du es ist nicht vereinbar eine super-schnelle Grafikkarte für Spieler mit zusätzlichem Anwendungsgebiet zu kreieren?
Das ist alles eine Frage der Architektur...und wie du weist gibt es in Hard-und Software quasi unbegrenzte Möglichkeiten für Optimierungen, man muss nur wissen wie.
Was ich damit nicht sagen will: Fermi ist der Heilige Gral
Was ich damit sagen will: Fermi könnte beides sein: GamerCard & Rechenknecht
NVIDIA kann es sich im Moment noch nicht leisten nur auf GPGPU zu gehen. Das ist eine Illusion.
ie.
Was ich damit nicht sagen will: Fermi ist der Heilige Gral
Was ich damit sagen will: Fermi könnte beides sein: GamerCard & Rechenknecht
Fermi ist noch garnix von beiden.
Fermi, klingt wie was zu Essen aus dem Bush :ugly:
Byteschlumpf
2009-12-18, 02:25:50
Fermi ist noch garnix von beiden.
Fermi, klingt wie was zu Essen aus dem Bush :ugly:
Da steckt wohl mehr dahinter:
http://de.wikipedia.org/wiki/Enrico_Fermi
Enrico Fermi (* 29. September 1901 in Rom, Italien; † 28. November 1954 in Chicago, USA), war einer der bedeutendsten Kernphysiker des 20. Jahrhunderts. 1938 erhielt er den Nobelpreis für Physik.
Armaq
2009-12-18, 07:27:13
Kreative Namen haben die Karten schon immer gehabt. Über die Auswahl braucht man sich keine Sorgen machen.
reunion
2009-12-18, 07:44:37
NVIDIA kann es sich im Moment noch nicht leisten nur auf GPGPU zu gehen. Das ist eine Illusion.
Das werden sie auch in zehn Jahren noch nicht können IMHO.
reunion
2009-12-18, 08:18:27
und das besste ist wenn ein AMD boy mit einem game da her kommt: guck da die neue ATi ist 70% schneller als die
285 aber mit keinem wort erwähnt wird das sogar die 4870 vor der 285 ist........ aber ja wir wissen ja alle das sogar die 4870 definitiv schneller als eine 285 ist, nicht war?
wie so lässt ihr es einfach nicht sein? man wird immer ein game finden wo die eine karte schneller als die andere ist...
Wieso wusste ich schon vorher das du dich über den Guru aufregen wirst und nicht über den Gast der ein Game mit einem klaren Treiberbug zeigte? Achja, da war ja was:
lol
naja ati war schon immer 1-3 monate hinter NV wenn es um treiber support bei aktuelle games geht...
Selbe Situation, einmal Reaktion erster Quote, einmal Reaktion zweiter Quote. Wie sehr doch die Reaktion davon abhängen kann welchen Name die Grafikkarte hat.
fakt ist wenn man die reinen Rohdaten der 5870 mit der GTX285 vergleicht, die Leistung ein richtiges armutszeugnis der R6xx Arichtektur darstellt, nicht mehr und nicht weniger... einzig mit 8AA kann man noch von "OK" sprechen, aber wohl auch nur weil NV dort noch "probleme" hat, die frage ist da aber eher wie lange noch?!? ;)
Fakt ist das die Shaderleistung einer 5870 >2x dem einer GTX285 ist. Fakt ist auch das - wohl wegen den Konsolen - kaum ein Spiel davon profitiert. Bei Spielen kommt es größtenteils noch immer auf andere Dinge an, mit einigen wenigen Ausnahmen, wo halt die 5870 dann entsprechend davon zieht. Ich bin ja schon auf Fermi gespannt, denn auch der wird dieses "Problem" nicht umgehen können.
Armaq
2009-12-18, 08:22:26
Obwohl selbst in CrysisWarhead keine Verdopplung der Performance zu sehen ist. Selbst in sehr hohen Auflösungen nicht.
reunion
2009-12-18, 08:26:34
Obwohl selbst in CrysisWarhead keine Verdopplung der Performance zu sehen ist. Selbst in sehr hohen Auflösungen nicht.
Nur weil ein Spiel grafisch fordernd ist heißt das ja noch nicht das es an der Shaderleistung hängt. Die 5870 hat bei heutigen Spielen IMO ganz klar ein Problem mit der Texelfüllrate, keine andere aktuelle Karte verliert so viel Leistung durch AF. So kommt es auch zur skurrilen Situation das die eigentlich schnelleren Karten ohne AA/AF einen größeren Vorsprung hat als mit AA/AF, obwohl solche Features durch Minderung der CPU-Limitierung eigentlich die schnelleren Karten bevorteilen sollte.
Armaq
2009-12-18, 08:59:30
Nur weil ein Spiel grafisch fordernd ist heißt das ja noch nicht das es an der Shaderleistung hängt. Die 5870 hat bei heutigen Spielen IMO ganz klar ein Problem mit der Texelfüllrate, keine andere aktuelle Karte verliert so viel Leistung durch AF. So kommt es auch zur skurrilen Situation das die eigentlich schnelleren Karten ohne AA/AF einen größeren Vorsprung hat als mit AA/AF, obwohl solche Features durch Minderung der CPU-Limitierung eigentlich die schnelleren Karten bevorteilen sollte.
Sicher, aber wir haben nichts fordernderes für die Karte als das.
Ailuros
2009-12-18, 09:36:15
Naja, noch sehe ich eher eine 5890 als direkte Konkurrenz zur 380.
Wenn man sich absolut sicher ist dass sich die GT200 vs. RV770 wiederholt wohl ja. Worauf basiert genau Deine Sicherheit?
Letztendlich muss man eh noch abwarten, wie schnell der Fermi tatsächlich wird.
Soviel Geheimniskrämerei nervt echt.
GeForce hat mit Fermi lediglich gemeinsam dass der gleiche chip benutzt wird.
Wie oft muss man noch erwaehnen dass ohne A3 selbst NVIDIA nicht wissen kann wo der Pegel genau angelegt wird?
Es wäre doch ein leichtes Benchmark zu veröffentliches, das wäre auch eine gute Werbung.
Ja sicher; wie bloed waere denn ein IHV Benchmarks zu veroeffentlichen die hypothetische X/Y/Z Frequenzen verwenden. Ich will aber dann Deine Meinung darueber hoeren falls sie diese Frequenzen nicht einhalten koennen und das entgueltige Resultat langsamer ist als die preview benchmarks versprochen hatten.
Nochmal ohne ein A3 tape out und finale Frequenzen ist es absoluter Bloedsinn da die hw noch NICHT produktionsreif ist. Was ist genau daran so schwer zu verstehen?
Seht her, der Fermi ist x % schneller als die 5870/5890 oder eben 5970,
aber nein, schweigen im Walde und nur beschlichtende Aussagen wie:
"das Warten wird sich lohnen"
Wuerde jeder IHV in NV's Position sagen. Wer eine 5870 haben will kann sie heute kaufen. Kein Kommentar zu einer rein hypothetischen 5890 die nichtmal angekuendigt wurde und eine 5970 ist ein anderes Tier da sie ein dual chip Dingsda ist und nicht unbedingt allen enthusiasts zusagt.
Ich warte uebrigens auf die ersten unabhaengigen 9.12 Tests. Kann sogar sein dass sie eine hypothetische 5890 die irgendwo nur 10-15% dazulegt momentan nicht notwendig ist.
Nur weil ein Spiel grafisch fordernd ist heißt das ja noch nicht das es an der Shaderleistung hängt. Die 5870 hat bei heutigen Spielen IMO ganz klar ein Problem mit der Texelfüllrate, keine andere aktuelle Karte verliert so viel Leistung durch AF. So kommt es auch zur skurrilen Situation das die eigentlich schnelleren Karten ohne AA/AF einen größeren Vorsprung hat als mit AA/AF, obwohl solche Features durch Minderung der CPU-Limitierung eigentlich die schnelleren Karten bevorteilen sollte.
Vielleicht weil sie im Gegensatz zur RV7x0 Linie weniger AF Optimierungen einsetzen? Hier bleibt immer noch die Frage wie der Leistungsverlust aussehen wuerde auf GF "high quality" Nivaeu und warum nach mehreren Jahren sich ATI immer noch stur weigert die AF Optimierungen unabhaengig von anderen Optimierungen abschalten zu lassen.
Nichtdestominder ist es fuer mich persoenlich nicht mehr gut genug meine Kaufsentscheidung zu beinflussen. Liegt letztendes eine 380 doch nur knapp 20% vor der 5870 im Durchschnitt (fuer welches ich immer noch ernsthafte Zweifel habe) dann sind mir die relativ kleinen Unterschiede dann auch wurscht und die Wage faellt in die 5870 Richtung.
Im Endeffekt hat man es sowieso schwer (mit Aussnahme von Crysis *gaehn*) Spiele zu finden die selbst mit 8xAA/16xAF in 1920*1200 nicht spielbar auf einer 5870 sind: http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling.html
Obwohl selbst in CrysisWarhead keine Verdopplung der Performance zu sehen ist. Selbst in sehr hohen Auflösungen nicht.
Bandbreite?
Fakt ist das die Shaderleistung einer 5870 >2x dem einer GTX285 ist. Fakt ist auch das - wohl wegen den Konsolen - kaum ein Spiel davon profitiert. Bei Spielen kommt es größtenteils noch immer auf andere Dinge an, mit einigen wenigen Ausnahmen, wo halt die 5870 dann entsprechend davon zieht. Ich bin ja schon auf Fermi gespannt, denn auch der wird dieses "Problem" nicht umgehen können.
Auch eine R580 hatte FLOPs im Ueberfluss (im Gegensatz zur R520 wo sie einen Schnitt zu kurz war) und die Geschichte fuer die Design-Entscheidung der verdreifachung von ALUs auf R580 ist bekannt. ATI hat neben den Aenderungen fuer DX11 gesorgt dass sich nahezu jeder Aspekt von der RV770 Grund-architektur fuer Cypress verdoppelt. Das einzige dass nicht doppelt ankam war die ff Tesselations-Einheit die aber nochmal leicht aufgekrempelt wurde. Sonst zwei Mal so viel clusters, zwei Mal so viel TMUs und ROPs und natuerlich zwei rasterizing Einheiten. Verdammt vereinfacht +DX11 und zwei RV770 ueberbrueckt auf einem chip.
Wenn ich jetzt wieder auf mangelnde Bandbreite zurueckfuehre meckerst Du wieder. Jedoch kommt GF100's jegliche Leistungssteigerung im absoluten Durchschnitt durch noch bessere Einsatz der vorhandenen Einheiten und bessere Bandbreiten-Verwaltung. Was dabei wirklich herauskommt kann ich zwar noch nicht wissen, aber ich tendiere momentan daran zu glauben dass die GT200 um ca. 20% erstmal reduziert wird dank der schlechteren Bandbreiten-Verwaltung.
Was NV dringend fuer GF100 braucht IMHO waere:
* Bessere Bandbreiten-Verwaltung nicht nur dass der chip wie GT200 nicht generell hier und da stockt sondern auch fuer bessere 8xMSAA Leistung.
* Um einiges hoehere Effizienz im rasterizer und tri-setup.
* Bessere Speicher-verwaltung
etc. etc.
Das Fermi-Zeug hat verstaendlicherweise keine einzige Indizie diesbezueglich und irgendwo muessen die 48 Pixel/Takt auch Sinn machen, denn eine grandiose Bandbreiten-Steigerung im Vergleich zur GT285 sehe ich auf der 380 nicht.
Ich hatte sehr hohe Hoffnungen fuer die dual rasterizing units des RV870 und auch seinen tri-setup. Bis jetzt konnte mich noch keiner ueberreden dass die gelieferte Loesungen auch wirklich das bestmoegliche rundum ist. Ich hab mir einiges von Wavey selber darrueber im IRC Kanal erklaeren lassen, aber irgendwo hab ich doch meine Zweifel dass das Ganze wirklich nicht irgendwo bremsen koennte. Der zweite rasterizer wird ja (so wie ich es verstanden habe) nur dann eingesetzt wenn sich Dreiecke nicht ueberdecken. Natuerlich hilft es, aber dass damit die fehlende rasterizing Effizienz die Entwickler bis jetzt immer und immer wieder betont haben sich wirklich deckt will ich ernsthaft bezweifeln.
Wie dem auch sei es bleibt Tatsache dass wir die wichtigsten Aspekte des GF100 immer noch nicht wissen. Entweder haben sie die Effizienz in diesen Aspekten nur maessig gesteigert (dass es fast nicht der Rede Wert ist) oder sie haben wirklich anstaendig aufgepumpt. Das heisst dann dass die finale Leistung zwar immer noch von den finalen Frequenzen abhaengig ist, die Vergleiche aber selbst taktbereinigt im Vergleich zu GT200 auf ein ganz anderes Nivaeu legt.
NVIDIA behauptet nicht nur Unsinn ueber sehr gute Leistung sondern auch einen gesunden Zusatz durch zich Neuerungen in der GF100 Grundarchitektur ohne natuerlich das geringste beim letzteren zu erlaeutern. Mir persoenlich ist es erstmal wichtiger herauszufinden was sie genau angestellt haben, als irgendwelche sterile Leistungszahlen.
Hier koennten sie tatsaechlich ein fermi-aehnliches whitepaper freilegen das sich auf die 3D orientierten Neuerungen konzentriert. Nur wird das zu einer neuen Welle von fermi aehlichen Analysen im Netz fuehren dass den Beobachter mehr nerven als beruhigen wird. Put up or shut up ist nach wie vor IMHLO die beste Masche bis man endlich mit den Ding fertig ist.
Wenn man sich absolut sicher ist dass sich die GT200 vs. RV770 wiederholt wohl ja. Worauf basiert genau Deine Sicherheit?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7722244&postcount=6839
Ailuros
2009-12-18, 10:24:43
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7722244&postcount=6839
Und was genau hat das eine mit dem andere zu tun? Eine hypothetische dual GF100 wird wohl nicht unter 700$ MSRP antanzen. Bis zum Punkt wo jeder NV Heini behauptete dass GF100 nur ~495mm2 gross ist macht eine dual Loesung ja noch Sinn. Da aber der DIE anscheinend doch nicht so klein ist sondern sich verdammt der GT200@65nm die Groesse naehert, wuerde ich erstmal zu einem dual Gespann unter 40nm nein sagen.
Bei entsprechend angepasster thermischer Leistung gibt es keinen Grund, der gegen eine Dual GF100 spricht.
Außer den Kosten.
Und das sagt wer? ;)
Glaubst du es ist nicht vereinbar eine super-schnelle Grafikkarte für Spieler mit zusätzlichem Anwendungsgebiet zu kreieren?Im Gegenteil. Aber während Fermi den Tesla ablösen wird, dürfte es im Gamerbereich bei der Geforce bleiben.
G80 = Graphics 80
GT200 = Graphics Tesla 200
GF100 = Graphics Fermi 100
Wir bekommen beim Gamer-Produkt den Graphics-Teil. Dabei haben wir dann sicherlich auch erhöhte Cuda-Performance, aber Fermi ist nicht der Codename der neuen Geforce-Generation. Das ist der Name für die neue General-Computing-Generation. Nvidia geht den Weg, erst professionelle Modelle vorzustellen.
Die verbesserten GPGPU-Eigenschaften wird es aber auch für uns Gamer nicht kostenlos geben. Möglicherweise wird NV etwas später einen Preisleistungskracher vorstellen wie damals GTX 260 (oder früher 8800 GT) ansonsten erwarte ich ein saftiges Preisniveau.
Bei entsprechend angepasster thermischer Leistung gibt es keinen Grund, der gegen eine Dual GF100 spricht.
Außer den Kosten.Iirc darf eine Karte lt. PCIe-Specs maximal 300 Watt ziehen. Vielleicht bringt NV einen GF100 mal auf 150 Watt und kann dann die GX2 bauen.
_DrillSarge]I[
2009-12-18, 13:30:39
Im Gegenteil. Aber während Fermi den Tesla ablösen wird, dürfte es im Gamerbereich bei der Geforce bleiben.
G80 = Graphics 80
GT200 = Graphics Tesla 200
GF100 = Graphics Fermi 100
Wir bekommen beim Gamer-Produkt den Graphics-Teil. Dabei haben wir dann sicherlich auch erhöhte Cuda-Performance, aber Fermi ist nicht der Codename der neuen Geforce-Generation. Das ist der Name für die neue General-Computing-Generation. Nvidia geht den Weg, erst professionelle Modelle vorzustellen.
vollkommen egal, weil die gleiche architektur. nv entwickelt doch nicht 2 völlig unterschiedliche chips einer generation.
Iirc darf eine Karte lt. PCIe-Specs maximal 300 Watt ziehen. Vielleicht bringt NV einen GF100 mal auf 150 Watt und kann dann die GX2 bauen.
Die Sache mit der PCIe Spec wird eh nicht so eng gesehen, solange die TDP drunter liegt.
AMD hat sein Dual RV870 soweit gedrosselt und selektiert, das es ein gutes Stück unter 300W liegt.
Nvidia hat sein Dual GT200b so weit gedrosselt, das es unter dem ungedrosselten Dual RV770 liegt.
Also warum soll das aufeinmal nicht mehr gehen?
mapel110
2009-12-18, 13:54:47
habt ihr das schon gelesen: http://www.semiaccurate.com/2009/12/16/oak-ridge-cans-nvidia-based-fermi-supercomputer/
verheißt wohl nichts gutes, wenn man so ein prestige-projekt verliert. in wie weit das jetzt wieder interpretation von charlie ist, sei mal dahingestellt.
http://www.legitreviews.com/news/6999/
A little later we got on the phone with someone in Computing and Computational Sciences at Oak Ridge National Laboratory and they stated that the SemiAccurate article was inaccurate and had no further comment. Legit Reviews also contacted Adrew Humber over at NVIDIA who informed us that the original press release that was issued in September is still valid and that nothing has changed.
http://www.fudzilla.com/content/view/16904/34/
Nvidia says AMD's DX11 lead is insignificant
http://twitter.com/NVIDIAGeForce
GF100 graphics cards will provide hardware support for GPU overvoltaging for extreme overclocking!
Scheint also doch bei der Leistungsaufnahme einiges an Spielraum zu geben. =)
I[;7723443']vollkommen egal, weil die gleiche architektur. nv entwickelt doch nicht 2 völlig unterschiedliche chips einer generation.Korrekt. Trotzdem wird das Produkt was wir später möglicherweise kaufen, kein Fermi sein, sondern eine Geforce. Wir reden beim GT200 auch nicht über Tesla.
reunion
2009-12-18, 14:12:53
Nvidia geht den Weg, erst professionelle Modelle vorzustellen.
Vorstellen kann man viel. Kommen sollen sie erst im Q2 und Q3 2010.
http://twitter.com/NVIDIAGeForce
GF100 graphics cards will provide hardware support for GPU overvoltaging for extreme overclocking!
Das kann schon lange jede nicht Low-End-Karte.
Scheint also doch bei der Leistungsaufnahme einiges an Spielraum zu geben. =)
Naja, damit bewirbt AMD selbst die 5970.
Chris Lux
2009-12-18, 14:15:01
ich glaube da liegst du sehr falsch. die kommenden teslas, quadros und geforces werden den fermi nutzen. fermi ist nur ein greifbarerer codenahme als g300, gt300 oder nvxxx oder was auch immer.
reunion
2009-12-18, 14:17:00
ich glaube da liegst du sehr falsch. die kommenden teslas, quadros und geforces werden den fermi nutzen. fermi ist nur ein greifbarerer codenahme als g300, gt300 oder nvxxx oder was auch immer.
Richtig, ich denke es ist schlicht eine Reaktion auf AMDs Evergreen-Serie. Solche "Marketing-Namen" kann man eben besser verkaufen als ein paar Zahlen.
ich glaube da liegst du sehr falsch. die kommenden teslas, quadros und geforces werden den fermi nutzen. fermi ist nur ein greifbarerer codenahme als g300, gt300 oder nvxxx oder was auch immer.Ja, aber Fermi wird zum Beispiel mit ECC beworben. Davon dürften wir in der Geforce nichts sehen selbst wenn die ECC-Schaltkreise in der Geforce-GPU weiterhin vorhanden sind.
Den Fermi hypen die so hoch, damit man "Fermi = Supercomputer" denkt. Später sagen die dann "Ach ja, in der neuen Geforce ist ein FERMI drin", dann denkt der Kunde wenn er die Grafikkarte einbaut, sich seinen privaten Supercomputer zu leisten. Er hat aber nur die Geforce gekauft.
Ailuros
2009-12-18, 15:12:39
Bei entsprechend angepasster thermischer Leistung gibt es keinen Grund, der gegen eine Dual GF100 spricht.
Außer den Kosten.
LOL als ob Kosten in solch einem Fall nebensaechlich waeren.
Die Sache mit der PCIe Spec wird eh nicht so eng gesehen, solange die TDP drunter liegt.
AMD hat sein Dual RV870 soweit gedrosselt und selektiert, das es ein gutes Stück unter 300W liegt.
Nvidia hat sein Dual GT200b so weit gedrosselt, das es unter dem ungedrosselten Dual RV770 liegt.
Nachdem sie von 65 auf 55nm geschrumpft haben und nach zwei 55nm Revisionen. Wie gesagt wenn GF100 wirklich nur 495mm2 gross waere dann spricht nicht besonders viel dagegen. Wenn der chip aber nun doch =/>550mm2 sein sollte aendern sich so manche Aspekte.
Also warum soll das aufeinmal nicht mehr gehen?
Weil die 40G yields momentan ultra-beschissen sind und je groesser der DIE desto beschissener diese yields und auch die Kosten dementsprechend nach dem wuchern? Fellix hat den GT215 die nochmal mit dem Fermi gegenuebergesetzt und er kam auf 570+. Selbst wenn ich mich mit konservativen 550mm2 zufriedenstelle, handelt es sich immer noch um ca. 15% mehr die area als beim GT200b und beim letzteren lagen die 55nm yields weit ueber 70%.
Dural
2009-12-18, 17:21:23
Die DIE grösse ist doch für eine dual GPU karte vom technischen punkt her so ziemlich egal, wichtig ist nur die verlustleistung und den stromverbrauch und der kann man immer regulieren in den man selektiert / takt runter nimmt / spannung anpasst!
klar wenn eine GPU schon die 300Watt hat bringt eine dual GPU karte wohl nicht wirklich viel...
Fermi hat aber in voller ausführung ca. so viel wie ein GT200, also ist eine dual GPU karte sicher möglich! ob sie sinn macht bleibt natürlich offen, aber macht derzeit die 5970 sinn? nein sicher nicht....
aber von wo kommen die 550mm2 jetzt plötzlich her??? es hiss einigezeit lang immer unter 500mm2?!? ich kann mir das kaum vorstellen das NV eine GPU entwickelt die in einem neuen prozess/architektur über 550mm2 gross ist! ok eigentlich hätte man noch einen GT212 gehabt, aber der wäre wohl eher zwischen 300-400mm2 gewessen...
aber die DIE grösse könnte man ja in ca. ausrechnen wenn man die zahlen von GT200 in 55nm/65nm und GT21x in 40nm in anbetracht zu den 3080Mio. Trans. vom GF100 her nimmt... klar ob stimmt weis man nicht, aber wäre sicher ein anhalts punkt... hat jemand lust zu rechnen? ;)
Burgard
2009-12-18, 17:44:19
aber die die grösse könnte man ja in ca. ausrechnen wenn man die zahlen von GT200 in 55nm/65nm und GT21x in 40nm in anbedracht zu den 3080Mio. Trans. vom GF100 her nimmt... klar ob stimmt weis man nicht, aber wäre sicher ein anhalts punkt... hat jemand lust zu rechnen? ;)
Warum?
Ich finde es eher faszinierend, dass NV überhaupt 3 Mrd. Trans in ca. 500 qmm quetschen kann.
Man stelle sich nur mal die grösse vor, wenn der Chip ähnlich aufbebaut wäre wie der GT200b mit seinen 470 qmm und 1,4 Mrd. Trans.
In 40nm wäre der GT200 knapp 340 qmm gross. Einfacher 3-Satz (470*40/55)
Jetzt nur noch hochrechnen von 1,4 auf 3 Mio. und hätte einen Chip von gigantischen 732 qmm.
Von 732 auf 500-550 qmm zu kommen finde ich schon sehr gut.
Daran kann man schön sehen, dass der Fermi trotz allem sehr kompakt geraten ist und man viele EInheiten zusamengequetscht hat.
ODER
habe ich da einen Gedankenfehler drin?
mapel110
2009-12-18, 17:48:16
Weil die 40G yields momentan ultra-beschissen sind
Ja was stimmt denn eigentlich nun? Miese Yields oder zu wenig Produktionskapazität bei TSMC für 40nm?
reunion
2009-12-18, 17:49:47
aber die DIE grösse könnte man ja in ca. ausrechnen wenn man die zahlen von GT200 in 55nm/65nm und GT21x in 40nm in anbetracht zu den 3080Mio. Trans. vom GF100 her nimmt... klar ob stimmt weis man nicht, aber wäre sicher ein anhalts punkt... hat jemand lust zu rechnen? ;)
GT215 hat 727mio Transistoren bei 139mm². Das wären bei 3080mio Transistoren satte 588,89mm². Aber so ein Vergleich ist nicht unbedingt zu gebrauchen bei einer neuen Architektur. Wenn man mit GT200 vergleichen würde wäre es noch grausamer. NV hat die Packdichte mit 40nm eh schon deutlich überproportional steigern können.
Die DIE grösseWarum schreibst du "Die" durchweg groß? Es müsste "Die-Größe" heißen ("Die" nicht durchweg groß, Bindestrich, "Größe" mit ß.)
je groesser der DIE Die bitte nicht durchgehend groß. Es ist einfach der Die.
http://www.fudzilla.com/content/view/16904/34/
Nvidia says AMD's DX11 lead is insignificantJa, bei solchen (erwartungsgemäßen) Aussagen fehlt mir immer die Lust, zu disktutieren. Ich freue mich schon tierisch darauf wenn die neue GeForce rauskommt, wie Nvidia auf ein mal eine grafische Revolution dank D3D 11 anpreist.
Wobei ich nicht ganz verstehe, wieso neuerdings Tesselation ("echte" Backsteine) mit D3D 11 in Verbindung gebracht werden. Ich dachte, das wäre bereits bei D3D 10 praktikabel, dank Geometry-Shader??
Warum?
Ich finde es eher faszinierend, dass NV überhaupt 3 Mrd. Trans in ca. 500 qmm quetschen kann.
Man stelle sich nur mal die grösse vor, wenn der Chip ähnlich aufbebaut wäre wie der GT200b mit seinen 470 qmm und 1,4 Mrd. Trans.
In 40nm wäre der GT200 knapp 340 qmm gross. Einfacher 3-Satz (470*40/55)
Jetzt nur noch hochrechnen von 1,4 auf 3 Mio. und hätte einen Chip von gigantischen 732 qmm.
Von 732 auf 500-550 qmm zu kommen finde ich schon sehr gut.
Daran kann man schön sehen, dass der Fermi trotz allem sehr kompakt geraten ist und man viele EInheiten zusamengequetscht hat.
ODER
habe ich da einen Gedankenfehler drin?
Du hat die Potenzen vergessen.
470mm²*40²/55²=249mm² = 40nm GT200
249mm²*3000/1400=532mm² = 3Mrd Transistoren GT200 in 40nm
Gipsel
2009-12-18, 18:15:54
Einfacher 3-Satz (470*40/55)
Jetzt nur noch hochrechnen von 1,4 auf 3 Mio. und hätte einen Chip von gigantischen 732 qmm.
Von 732 auf 500-550 qmm zu kommen finde ich schon sehr gut.
Daran kann man schön sehen, dass der Fermi trotz allem sehr kompakt geraten ist und man viele EInheiten zusamengequetscht hat.
ODER
habe ich da einen Gedankenfehler drin?
Ja, hast Du.
Das müßte 478 * (40/55)² = 253mm² für den GT200b und perfekter Skalierung auf 40nm heißen.
Dann ergeben sich 3,0/1,4 * 253 = 542 mm² für Fermi. Allerdings ist sowas immer eine Milchmädchenrechnung, da die Skalierung der Packdichte sowohl je nach Typ der Schaltungen (Logik, SRAM) unterschiedlich ausfällt, als auch eine Funktion des Designs und der angestrebten Taktung ist (niedrig taktende Schaltungen kann man allgemein dichter packen). Zumeist erreicht man keine perfekte Skalierung, zumal die Analog-Teile oder solche Sachen wie die Pads auch nicht so richtig gut (wenn überhaupt) mit dem Prozeß skalieren.
deekey777
2009-12-18, 19:25:57
Naja, damit bewirbt AMD selbst die 5970.
Ich gehe gar soweit und sage, dass es genau der gleiche Grund wie bei der HD5970 ist, dass Nvidia "Hardware-OC" anbieten wird. Sprich: Die Vanila-Version wird schnell genug sein, aber mit angezogener Bremse. Ergo wird Nvidia (wie schon AMD) mit dem Übertakten werben, damit die Tester darauf hinweisen und ggf. übertaktet testen.
Oder Fermi läuft schon so an der Grenze der Vernunft, so dass jede weitere Takterhöhung mit Erhöhung von Spannung möglich ist, die aber auf die Käufer abgewälzt wird, um die Garantiefälle einzugrenzen.
Dural
2009-12-18, 21:02:48
Warum schreibst du "Die" durchweg groß? Es müsste "Die-Größe" heißen ("Die" nicht durchweg groß, Bindestrich, "Größe" mit ß.)
Die bitte nicht durchgehend groß. Es ist einfach der Die.
Ich schreibe es mit absicht gross so das man auf den ersten blick sieht das eben DIE gemeint ist und nicht Die/die ;)
ß gibt es in unserer rechtschreibung nicht, wir habe das nicht einmal auf der tastatur... ;)
Ich schreibe es mit absicht gross so das man auf den ersten blick sieht das eben DIE gemeint ist und nicht Die/die ;)
ß gibt es in unserer rechtschreibung nicht, wir habe das nicht einmal auf der tastatur... ;)Im Kontext ist klar dass hier nicht der Artikel "die" gemeint ist. Zumal "Die" großgeschrieben wird, gibt es keine Verwechslung mit dem Artikel. (Der Bindestrich gehört auch noch zu "Die-Größe" / "Die-Grösse".)
Ich gehe gar soweit und sage, dass es genau der gleiche Grund wie bei der HD5970 ist, dass Nvidia "Hardware-OC" anbieten wird. Sprich: Die Vanila-Version wird schnell genug sein, aber mit angezogener Bremse. Ergo wird Nvidia (wie schon AMD) mit dem Übertakten werben, damit die Tester darauf hinweisen und ggf. übertaktet testen.
Oder Fermi läuft schon so an der Grenze der Vernunft, so dass jede weitere Takterhöhung mit Erhöhung von Spannung möglich ist, die aber auf die Käufer abgewälzt wird, um die Garantiefälle einzugrenzen.Die Taktraten werden oft so festgelegt, dass möglichst viele Chips den Takt schaffen. Vom GT200b schaffen mehr Chips als man denkt 700 oder 720 MHz. Die originale Geforce GTX 260 und 280 ist ja im Betrieb schon über/untervoltbar, das wurde (wohl aus Kostengründen) bei den späteren Modellen wegrationalisiert und wird jetzt mit dem neuen Modell – zunächst – wieder eingeführt. Das groß beworbene HybridPower der 260 und 280 wurde mit den Nachfolgemodellen auch still und leise begraben. Ich würde auf eine tolle User-Übertaktbarkeit beim GF100 nicht zu viel geben.
Burgard
2009-12-18, 22:09:26
Hmmm?
Weiss nicht ob es hier schon gepostet wurde, aber...
Fermi doch schon im Januar?
Gerade auf Hartware.net gelesen, leider ohne direkten Link auf die entsprechende Aussage.
"Dieser 60-Tage-Abstand zwischen der Veröffentlichung der AMD-DX-11-Grafikkarten und unseren Produkten wird langfristig unbedeutend sein.", stellt Hara nochmals klar.
http://www.hartware.net/news_48119.html
=Floi=
2009-12-18, 22:19:44
das hat nichts mit der (breiten) lieferbarkeit zu tun!
Burgard
2009-12-18, 22:53:41
Davon gehe ich auch mal aus, ABER das Rumgerätsel hat dan zumindest ein Ende.
reunion
2009-12-18, 23:38:47
Hm? AMDs DX11-Vorstellung ist schon über 60 Tage her.
mapel110
2009-12-18, 23:48:34
Vielleicht geht er von breiter Verfügbarkeit aus. Januar(ATI) vs März (nvidia).
Vielleicht hat er aber auch nur BS gelabert.
Vielleicht meint er die erste GF100 Vorstellung, die bereits geschehen ist.
tombman
2009-12-19, 00:28:07
Vielleicht hat er aber auch nur BS gelabert.
Wäre auch mein Tip :D
Burgard
2009-12-19, 09:46:59
Vielleicht meint er die erste GF100 Vorstellung, die bereits geschehen ist.
Was für eine Vorstellung oder meinst du die Bekanntgabe, dass da was kommt?
Für mich ist eine Vorstellung, dass man die Spezifikation kennt plus Benchmarks usw.
Ich erwarte allerdings keine Verfügbarkeit.
Tomahawk
2009-12-19, 11:22:49
Ich vermute, dass das gemeint ist:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/offiziell_fermi_gt300/
Benchmarks könnte nVidia auch problemlos zeigen. Aber wer würde dann die aktuellen Produkte kaufen? ATi hat doch vorgemacht, wie man es gerade nicht machen soll. Eine "Verfügbarkeit" wie bei der 5870 bringt doch auch nichts.
Ailuros
2009-12-19, 11:27:29
Ja, hast Du.
Das müßte 478 * (40/55)² = 253mm² für den GT200b und perfekter Skalierung auf 40nm heißen.
Dann ergeben sich 3,0/1,4 * 253 = 542 mm² für Fermi. Allerdings ist sowas immer eine Milchmädchenrechnung, da die Skalierung der Packdichte sowohl je nach Typ der Schaltungen (Logik, SRAM) unterschiedlich ausfällt, als auch eine Funktion des Designs und der angestrebten Taktung ist (niedrig taktende Schaltungen kann man allgemein dichter packen). Zumeist erreicht man keine perfekte Skalierung, zumal die Analog-Teile oder solche Sachen wie die Pads auch nicht so richtig gut (wenn überhaupt) mit dem Prozeß skalieren.
http://forum.beyond3d.com/showpost.php?p=1368484&postcount=2138
Scratching the die-size dilemma again, I took the liberty to do another GT215-to-Fermi die photo comparison, much more precise this time and it came almost exactly at 550mm² for the Fermi die, which comes close to ~23,4mm per side. Both the GDDR data pads and PCIe transmitters mutually matched in size and dimensions, for my surprise, between the two chips.
....und es kam als Korrigierung als ich sagte dass ich vor einiger Zeit von 22.3*22.3 gehoert hatte. Kleinere Messfehler gibt es meistens, aber wohl nicht =/>1mm pro Seite. GT200@65nm liegt bei 583mm2 wenn mich mein Gedaechtnis nicht betruegt und GT200b@55nm bei 470mm2 (21.68*21.68).
Wenn felix recht hatte (und er schafft es tatsaechlich ziemlich gut von die shots Groessen ausrechnen zu koennen) liegt GF100 tatsaechlich um die 550mm2.
reunion
2009-12-19, 11:29:08
Benchmarks könnte nVidia auch problemlos zeigen. Aber wer würde dann die aktuellen Produkte kaufen? ATi hat doch vorgemacht, wie man es gerade nicht machen soll. Eine "Verfügbarkeit" wie bei der 5870 bringt doch auch nichts.
NV hat noch nicht das finale Silizium, damit können sie eben noch keine finalen Benchmarks machen. Als es die von dir verlinkte Vorstellung gab hatte man nicht mehr als eine selbst zusammengelötete Karte die aussah wie eine "Krake" laut Augenzeugen. Warte mal ab wie es mit der Verfügbarkeit aussieht wenn Fermi vorgestellt wird. Wenn du da eine Masse an Karten erwartest wirst du wohl enttäuscht werden. Sobald NV etwas finales hat werden sie es zeigen IMHO.
Es bringt nichts 800.000 chips zu verkaufen???
Ailuros
2009-12-19, 11:38:42
Ja was stimmt denn eigentlich nun? Miese Yields oder zu wenig Produktionskapazität bei TSMC für 40nm?
Das erste. Das zweite macht bei weitem keinen Sinn. Momentan liegt NV's GT21x Mist in Produktion unter TSMC@40nm und AMD's Evergreen GPUs (ganz grob vereinfacht hat AMD seit dem launch ca. 300.000 Cypress und ca. 500.000 Juniper chips verschelpeln koennen).
Noch grober vereinfacht vom chip mit den niedrigsten yields und hoechster Komplexitaet der unter 40G in Produktion liegt, ungefaehr 100.000 chips/Monat (natuerlich kann es weniger im ersten Monat sein koennen und mehr in den letzten Wochen, aber es lediglich ein Bespiel um zu illustrieren wie die Situation momentan aussieht).
Klingt Dir das Ganze als ob TSMC's 40nm Kapazitaeten momentan voll ausgelastet sind? Mir auf jeden Fall nicht; eher nach brutal niedrigen yields im Vergleich zu neuen Prozessen der Vergangenheit.
NV hat noch nicht das finale Silizium, damit können sie eben noch keine finalen Benchmarks machen.
Was veranlasst dich zu der Aussage, das A3 nicht final ist?
Als es die von dir verlinkte Vorstellung gab hatte man nicht mehr als eine selbst zusammengelötete Karte die aussah wie eine "Krake" laut Augenzeugen.Die Karte hat Niemand gesehen, das was du meinst war die Attrape, damit AMD nichts von der Karte sieht.
Tomahawk
2009-12-19, 11:41:11
NV hat noch nicht das finale Silizium, damit können sie eben noch keine finalen Benchmarks machen. Als es die von dir verlinkte Vorstellung gab hatte man nicht mehr als eine selbst zusammengelötete Karte die aussah wie eine "Krake" laut Augenzeugen. Warte mal ab wie es mit der Verfügbarkeit aussieht wenn Fermi vorgestellt wird. Wenn du da eine Masse an Karten erwartest wirst du wohl enttäuscht werden. Sobald NV etwas finales hat werden sie es zeigen IMHO.
Was spricht gegen vorläufige Benchmarks? Lauffähige Karten existieren ja. Genau sowas macht üblicherweise kein Hersteller, weil dadurch die aktuellen Modelle wie Blei in den Regeln liegen bleiben. Die "Übergangszeit" (bei ATi ist es nunmehr 1 Quartal) kann man ja noch warten ...
Diese voreiligen Vorstellungen schaden den Herstellern nur. Genau deswegen ist es so unüblich. Für ATi war das diesmal allerdings ein kluger Schachzug, da so (gerade zum Weihnachtsgeschäft) viele potentielle GeForce 275/285-Käufer (genau da hatte ATi kein Konkurrenzprodukt) sich vorerst keine Grafikkarte gekauft haben, sondern auf eine 5850/5870 warten (... und warten ... und warten).
reunion
2009-12-19, 11:43:53
Was veranlasst dich zu der Aussage, das A3 nicht final ist?
Ist es (hoffentlich). Aber A3 ist laut Ail noch nicht von der Fab zurück.
Die Karte hat Niemand gesehen, das was du meinst war die Attrape, damit AMD nichts von der Karte sieht.
Ja, das kam dann noch dazu das man Fakeboards zeigte. Aber es soll ja auch eine Demo auf einer lauffähigen Karte gegeben haben, und diese soll ausgesehen haben wie eine Krake AFAIK.
StefanV
2009-12-19, 11:45:00
Die Karte hat Niemand gesehen, das was du meinst war die Attrape, damit AMD nichts von der Karte sieht.
Doch, es gibt schon einige Fermi Karten im Umlauf...
reunion
2009-12-19, 11:45:42
Klingt Dir das Ganze als ob TSMC's 40nm Kapazitaeten momentan voll ausgelastet sind?
Ja, denn ausnahmslos alle 40nm Chips bekommt man nicht in ausreichenden Mengen. Das die Yields schlecht sind mag sein, aber das könnte man ja auch mit mehr Wafer ausgleichen, welche man offensichtlich nicht hat. Das die Produktion verdammt langsam anläuft ist offensichtlich. TSMC will im Q4 ganze 3% AFAIK ihrer Produktion in 40nm herstellen können, das ist lächerlich wenig.
Ailuros
2009-12-19, 12:02:57
Ja, denn ausnahmslos alle 40nm Chips bekommt man nicht in ausreichenden Mengen. Das die Yields schlecht sind mag sein, aber das könnte man ja auch mit mehr Wafer ausgleichen, welche man offensichtlich nicht hat. Das die Produktion verdammt langsam anläuft ist offensichtlich.
Hmmm und angenommen A3 schafft dass was sowohl NV und auch TSMC erwartet und NV geht irgendwo im Januar in Massenproduktion, zur gleichen Zeit startet dann NV die Massenproduktion von ION2 und auch Tegra2 und ploetzlich von Tag auf Nacht hat TSMC zich mehr Kapazitaeten bereit Anfang 2010 um den obrigen Zusatz ebenso zu bedienen?
Es hat mir kein einziger Kerl mit Zugang zu TSMC bis jetzt bestaetigen koennen dass die Kapazitaeten voll sind.
TSMC will im Q4 ganze 3% AFAIK ihrer Produktion in 40nm herstellen können, das ist lächerlich wenig.
Da NV in dem Fall nur mit GT21x chips mitspielt wundert mich das ueberhaupt nicht. Das Prozentual ist ja sowieso nicht nur fuer AMD bzw. NVIDIA.
Dural
2009-12-19, 12:03:06
Ja, denn ausnahmslos alle 40nm Chips bekommt man nicht in ausreichenden Mengen.
sicher nicht, die kleinen 40nm GPU sind in ausreichend grossen mengen lieferbar! gerade die kleinen GT21x sind jetzt recht gut lieferbar.
Doch, es gibt schon einige Fermi Karten im Umlauf...
labor silikon kann man ja nicht wirklich als "im umlauf" bezeichnen. im umlauf waren rv870 als sie bei entwicklern eingetrudelt sind und das was 3 monate noch dem tapeout. ich hab noch von keinem entwickler gehört, der bis jetzt eine fermi basierende karte in händen halten und behalten konnte.
Ailuros
2009-12-19, 12:07:42
sicher nicht, die kleinen 40nm GPU sind in ausreichend grossen mengen lieferbar!
Sowohl GT21x als auch Juniper chips. Nirgends wird etwas von einer Juniper Knappheit erwaehnt und die Verkaufszahlen eines mainstream chips sind stets um einiges hoeher als die von performance chips.
labor silikon kann man ja nicht wirklich als "im umlauf" bezeichnen. im umlauf waren rv870 als sie bei entwicklern eingetrudelt sind und das was 3 monate noch dem tapeout. ich hab noch von keinem entwickler gehört, der bis jetzt eine fermi basierende karte in händen halten und behalten konnte.
Schon seit Anfang Oktober.
AnarchX
2009-12-19, 12:16:24
Da wäre es doch für NV empfehlenswert, sich mit einem Paperlaunch von GF100 die Performance-Krone zu holen und dann mit diesem Zugpferd kleine GF10x zu verkaufen.
Mit der CES wird wohl AMD ein vollständiges D3D11-Lineup haben.
reunion
2009-12-19, 12:17:20
Da wäre es doch für NV empfehlenswert, sich mit einem Paperlaunch von GF100 die Performance-Krone zu holen und dann mit diesem Zugpferd kleine GF10x zu verkaufen.
Mit der CES wird wohl AMD ein vollständiges D3D11-Lineup haben.
Das werden sie IMHO auch tun. Aber bevor man kein A3 Silizium und finale Karten hat kann man das nicht machen.
Ja, denn ausnahmslos alle 40nm Chips bekommt man nicht in ausreichenden Mengen. Das die Yields schlecht sind mag sein, aber das könnte man ja auch mit mehr Wafer ausgleichen, welche man offensichtlich nicht hat.
Und wer bezahlt den Spass?
TSMC wird nicht jubelnd hervorpreschen, um dafür zu sorgen das AMD mehr große Chips bekommt, wenn sie dann auf dem Müllberg sitzen bleiben.
reunion
2009-12-19, 12:20:51
Und wer bezahlt den Spass?
TSMC wird nicht jubelnd hervorpreschen, um dafür zu sorgen das AMD mehr große Chips bekommt, wenn sie dann auf dem Müllberg sitzen bleiben.
Wenn man weniger Wafer liefert steigt deswegen auch nicht die Yieldrate. Und ich nehme doch an das die 40nm Wafer für TSMC kein Verlustgeschäft sind. Deshalb sehe ich wenig Gründe die Wafer künstlich zu begrenzen wenn man mehr liefern könnte.
Vor kurzem hiess es noch, das TSMC in dem Fall nur für funktionierden Chips bezahlt wird.
Mehr Wafer bedeuten nur noch mehr Kosten.
Dural
2009-12-19, 13:20:58
Das werden sie IMHO auch tun. Aber bevor man kein A3 Silizium und finale Karten hat kann man das nicht machen.
was jammerst du immer wegen finalen karten rum??? schon vergessen das die Tesla karten bereits längere zeit offiziell sind und einen termin für Mai/Juni haben???
und ich glaube kaum das NV gerade eine Tesla karte aus dem NICHTS heraus vorstellt...
Fermi ist schon lange "fertig" er kommt nur nicht weil er derzeit schlicht nicht zu einem vernünftigen preis herstellen lässt / man zu wenig stückzahlen hätte! und genau an dem arbeitet man ja schon lange, mit A3 wurde ja auch nur an der Yieldrate gearbeitet!
reunion
2009-12-19, 13:27:32
was jammerst du immer wegen finalen karten rum??? schon vergessen das die Tesla karten bereits längere zeit offiziell sind und einen termin für Mai/Juni haben???
Vorstellen ohne Hardware kann man viel.
Fermi ist schon lange "fertig" er kommt nur nicht weil er derzeit schlicht nicht zu einem vernünftigen preis herstellen lässt / man zu wenig stückzahlen hätten!
Wenn man eine Karte vorstellt sollte man den Reviewer auch Karten geben wenn es nicht ein reiner Paperlauch in wahrsten Sinne des Wortes werden soll. Und diese Karten sollte "final" sein, also mit den selben Eigenschaften ausgestattet sein wie auch die Karten welche dann in den Handel kommen. Da das A3 Stepping noch nicht von der Fab zurück ist ist daran noch nicht zu denken, ganz einfach. Erst dann werden die Taktraten festgelegt und die Karten finalisiert. Fermi ist eben noch nicht fertig, du tust ja so als würde man jetzt Däumchen drehen und warten, dem ist nicht so.
und genau an dem arbeitet man ja schon lange, mit A3 wurde ja auch nur an der Yieldrate gearbeitet!
Ein neues Stepping macht nicht auf wundersame Weise einen Prozess besser, sondern es erhöht eben die Yieldraten bei einer Taktfrequenz X, welche man erreichen will.
Dural
2009-12-19, 13:30:14
lol gerade gesehe das die C2070 laut NV jetzt im Q3 2010 erscheinen soll, das ist juli-september 2010 :rolleyes:
AnarchX
2009-12-19, 13:45:06
Jedoch wäre es doch nicht abwegig Previews mit Samples zu machen die einmal einen Takt haben, den A3 sicher schaffen wird und dann eben ein OC-Setting, was man dann als "possible custom partner setting" bezeichnet.
Am einfachsten wäre natürlich die Leistungskrone über eine Dual-GPU-Karte, dass diese nicht wirklich bzw. nur in geringen Mengen lieferbar sein muss, hat ja schon die GTX 295 gezeigt.:D
Auf jeden Fall kann man nur hoffen, dass die kleinen GF10x auch noch im Q1 gelauncht werden.
mboeller
2009-12-19, 13:50:53
lol gerade gesehe das die C2070 laut NV jetzt im Q3 2010 erscheinen soll, das ist juli-september 2010 :rolleyes:
WOW...das wird ja immer später
Availability: Tesla C2050 in early Q2 2010, Tesla C2070 in Q3 2010.
Da brauchen sie also sehr wahrscheinlich wirklich noch ein Stepping (Bx) für die schnellere Variante. Meine alte Ansicht, wonach die C2050 die "normale" Karte ist und die C2070 die "Benchmark-Karte" scheint also richtig gewesen zu sein. Harrgenau 8-fache DP Leistung im Vergleich zu einer GT200 "stank" IMHO auch zu sehr nach Marketing-BS. Scheint sich jetzt zu bewahrheiten.
AnarchX
2009-12-19, 13:54:45
Bei Tesla soll es doch am speziellen ECC GDDR5 liegen, der wohl erst im Q2 in Kapaztitäten von 2048MBit pro Chip verfügbar ist.
Ailuros
2009-12-19, 14:23:46
Auf jeden Fall kann man nur hoffen, dass die kleinen GF10x auch noch im Q1 gelauncht werden.
Wie denn? Erst wenn sie mit GF100 wirklich fertig sind werden die kleineren chips zum tapeout geschickt.
Wenn man weniger Wafer liefert steigt deswegen auch nicht die Yieldrate. Und ich nehme doch an das die 40nm Wafer für TSMC kein Verlustgeschäft sind. Deshalb sehe ich wenig Gründe die Wafer künstlich zu begrenzen wenn man mehr liefern könnte.
Bis vor kurzem hiess es dass die yields pro wafer schwanken. Wenn es stimmt dann kann weder TSMC noch jeglicher IHV eine anstaendige Projektion ueber jegliche Produktionsrate machen. Und nein genaue Einzelheiten ueber yield-raten pro spezifischem chip wird kein IHV so leicht oeffentlich aussagen.
Ein neues Stepping macht nicht auf wundersame Weise einen Prozess besser, sondern es erhöht eben die Yieldraten bei einer Taktfrequenz X, welche man erreichen will.
Ich wuerde eher sagen dass bessere yields auch bessere Frequenzen erlauben. Wir tappen hier sowieso im Dunkeln. Eine These waere dass erstmal A3 vielleicht fuer kleinere yield-Schwankungen sorgen koennte.
AnarchX
2009-12-19, 14:30:08
Du meinst, erst wenn GF100 im Handel ist gehen die kleineren Versionen zum Tape-Out? X-(
Das würde ja bei einem GF100 im Februar, wohl für GF10x Mitte 2010 bedeuten.
Das wäre alles andere als Haras "60-day-lag" (http://www.pcworld.com/article/184908/amds_lead_with_directx_11_is_insignificant_nvidia_says.html), der schon rechnerisch nicht wirklich stimmt.
Dural
2009-12-19, 14:35:43
Jedoch wäre es doch nicht abwegig Previews mit Samples zu machen die einmal einen Takt haben, den A3 sicher schaffen wird und dann eben ein OC-Setting, was man dann als "possible custom partner setting" bezeichnet.
Am einfachsten wäre natürlich die Leistungskrone über eine Dual-GPU-Karte, dass diese nicht wirklich bzw. nur in geringen Mengen lieferbar sein muss, hat ja schon die GTX 295 gezeigt.:D
Auf jeden Fall kann man nur hoffen, dass die kleinen GF10x auch noch im Q1 gelauncht werden.
Die 295 war doch immer gut lieferbar...
und was würde das bringen? also wenn ich NV wäre und der GF100 ein richtig gutes teil ist würde ich selber rein gar nichts nach aussen lassen und den Chip "gemütlich" fertig machen! Wie so? ganz einfach ist doch simples Marketing und die par tausend verkauft RV870 dürfte NV wohl kaum stören, viel wichtiger ist das man den leuten klar macht das es das warten auf unsere Produkte immer lohnt... und die RV870/5970 käufer als "deppen" hinstellt, das ist dann was das über eine längerezeit bleibt. ;)
mal ganz ehrlich, würden benchmarks irgend was ändern wenn man trotzdem nicht liefern kann? ganz bestimmt nicht!
Ailuros
2009-12-19, 14:38:34
Du meinst, erst wenn GF100 im Handel ist gehen die kleineren Versionen zum Tape-Out? X-(
Das würde ja bei einem GF100 im Februar, wohl für GF10x Mitte 2010 bedeuten.
Welcher IHV waere so bloed eine kleinere Version eines chips zum tapeout zu schicken wenn man mit dem Ausgangs-chip noch nicht fertig ist? Wuerde es keine Prozess-bedingte Probleme geben haetten die "Kleinen" auch schon ihren tape out. Nv muss erstmal GF100 richtig hinbekommen durch A3 oder weiss der Geier was auch immer .
Das wäre alles andere als Haras "60-day-lag" (http://www.pcworld.com/article/184908/amds_lead_with_directx_11_is_insignificant_nvidia_says.html), der schon rechnerisch nicht wirklich stimmt.
Entschuldige aber ich uebersehe irgend etwas in seinen Aussagen oder ich kann tatsaechlich nichts von einer gesamten DX11 GPU Familie in Q1 lesen.
"This 60-day lag between these events of when our competition has DX11 and when we're coming to market will absolutely seem insignificant in the big picture," Hara said.
"We're almost there. ...In Q1, the world will get to see what we've done with Fermi," he said.
Dural
2009-12-19, 14:40:54
die kleinen 40nm Chips sind egal ob jetzt GT21x oder bei ATI brauchbar und Lieferbar also wie so auf den grossen fetten DIE warten?
reunion
2009-12-19, 14:42:21
mal ganz ehrlich, würden benchmarks irgend was ändern wenn man trotzdem nicht liefern kann? ganz bestimmt nicht!
Natürlich würden Leute warten wenn sie wüssten das Fermi alles vernichten würde. Was denkst du denn? So haben viele Zweifel ob es sich lohnt zu warten.
reunion
2009-12-19, 14:43:18
Welcher IHV waere so bloed eine kleinere Version eines chips zum tapeout zu schicken wenn man mit dem Ausgangs-chip noch nicht fertig ist?
Juniper kam wenige Wochen nach Cypress, da hat man wohl kaum gewartet bis Cypress fertig war zB.
Wuerde es keine Prozess-bedingte Probleme geben haetten die "Kleinen" auch schon ihren tape out. Nv muss erstmal GF100 richtig hinbekommen durch A3 oder weiss der Geier was auch immer .
Wenn man da wartet spricht das eher für Architekturbedingte Probleme, sonst kann man die ja parallel zum Tapeout schicken.
Dural
2009-12-19, 14:44:49
ich meine bei den verkaufszahlen, wenn man nicht liefern kann, kann man auch nichts verkaufen!
die kunden die eine neue Grafikkarte kaufen möchten würden doch früher oder später trotzdem zu was anderes greifen!
Ailuros
2009-12-19, 14:45:53
Die 295 war doch immer gut lieferbar...
GT200@65nm ging mit ueber 60% yields in Produktion und es war bis zu dem Punkt eine der schlechtesten yields fuer einen grossen chip fuer NVIDIA. Beim GT200b/B2 respin waren die yields um einen anstaendigen Happen hoeher als die vorigen 60% und dennoch war die Verfuegbarkeit beim launch immer noch ziemlich begrenzt weil der gleiche chip sowohl die GTX275 als auch GTX295 ausgestattet hat.
Nochmal zum mitlesen laut Indizien waren die A2 yields des GF100 miserabel schwankend zwischen 4 und 43%. Wie grosszuegig willst Du genau fuer A3 oder jeglichen anderen moeglichen respin spekulieren der mit einem Zauberstab die miserablen 40G yields von Tag auf Nacht auf 55nm Nivaeu pumpt.
Juniper kam wenige Wochen nach Cypress, da hat man wohl kaum gewartet bis Cypress fertig war zB.
Obwohl Du selber sagst dass der tapeout von Cypress frueher stattfand als der von Juniper, bestaetigt das genau was?
In truth, it's not quite that simple, because Cypress and Juniper were essentially co-developed. The Juniper silicon came back from the fab about a week after Cypress, and AMD had both chips in validation at the same time. If a bug was found on one chip, AMD would then attempt to replicate it on the other one and, if needed, apply a fix to both. That co-development strategy is what allowed the firm to crank out multiple new Radeons in an unprecedently tight time window.
Still, if you look at the block diagram above, you can see what I'm saying about that tiny chainsaw, a tool Canadians are renowned for using well. Architecturally, in many key respects, Juniper has half the resources of Cypress. That reality is reflected first in the graphics engine at the top of the diagram, which includes only a single rasterizer, not two like Cypress.
http://www.techreport.com/articles.x/17747
Verdammt vereinfacht: Cypress = 2*Juniper und was ist sonst Neu?
Wenn man da wartet spricht das eher für Architekturbedingte Probleme, sonst kann man die ja parallel zum Tapeout schicken.
NVIDIA hat keinen GT200 genommen diesen auf DX11 aufgemoebelt und das Resultat parallel einmal fuer einen 240SP und einmal fuer einen 480SP chip ins Labor geschickt. Wenn Dir der Unterschied hier nicht einleuchtet kann ich auch nicht weiterhelfen. NV hat neben allem anderen den Kopfschmerz dass ein ziemlicher Haufen von HPC Funktionalitaeten fuer kleinere chips reduziert werden muss.
Dural
2009-12-19, 14:48:27
du meinst wohl eher GTX285, die 275 kam erst später ;)
und wie so die GTX285/295 am anfang und jetzt kaum lieferbar waren ist doch klar, da es sehr hochwertige GT200b für diese karten sein müssen, B3 gabs doch eh nur für diese karten!
lieferprobleme bei GTX260 gabs nie...
AnarchX
2009-12-19, 14:56:31
Welcher IHV waere so bloed eine kleinere Version eines chips zum tapeout zu schicken wenn man mit dem Ausgangs-chip noch nicht fertig ist? Wuerde es keine Prozess-bedingte Probleme geben haetten die "Kleinen" auch schon ihren tape out. Nv muss erstmal GF100 richtig hinbekommen durch A3 oder weiss der Geier was auch immer .
Prozessprobleme werden es wohl kaum sein, wenn sich NV nicht traut trotzt guter/brauchbarer 40nm Yields bei kleineren Chips hier Chips zu finalisieren.
Eher wird das Problem im Design von Fermi liegen, läge es am Prozess könnte man diesen (GF100) ja in begrenzter Stückzahl ausliefern und dann mit steigenden Prozessreifung die Stückzahlen erhöhen.
Und dann müsste man auch nicht bei den OEMs mit als GeForce 300 rebrandeten GT21x vorstellig werden, die gegen AMDs D3D11-Lineup wohl eher weniger Chancen hatten, wenn man über die Zusammenstellung kommender OEM-System hört.
Entschuldige aber ich uebersehe irgend etwas in seinen Aussagen oder ich kann tatsaechlich nichts von einer gesamten DX11 GPU Familie in Q1 lesen.
Er bezieht sich auf AMD, wo zum DX11-Launch mehr als nur High-End-SKUs bereitstanden.
du meinst wohl eher GTX285, die 275 kam erst später ;)
und wie so die GTX285/295 am anfang und jetzt kaum lieferbar waren ist doch klar, da es sehr hochwertige GT200b für diese karten sein müssen, B3 gabs doch eh nur für diese karten!
lieferprobleme bei GTX260 gabs nie...Die Lieferprobleme waren bei der 260 nicht so krass aber ich kann mich daran erinnern dass es Wochen gab, wo bei Alternate fast keine 260 grün (also lieferbar) waren.
Ailuros
2009-12-19, 15:08:56
du meinst wohl eher GTX285, die 275 kam erst später ;)
und wie so die GTX285/295 am anfang und jetzt kaum lieferbar waren ist doch klar, da es sehr hochwertige GT200b für diese karten sein müssen, B3 gabs doch eh nur für diese karten!
Alle diese SKUs wurden von den gleichen B3 chips bedient am Ende. Die fehlerfreien hoch taktbaren chips fuer 285 und die ROP partition kastrierten kleiner getakteten fuer 275 und 295 (2*275 chips).
lieferprobleme bei GTX260 gabs nie...
Steht auch zur Debatte frei ist ueber viel zu weit OT.
Prozessprobleme werden es wohl kaum sein, wenn sich NV nicht traut trotzt guter/brauchbarer 40nm Yields bei kleineren Chips hier Chips zu finalisieren.
Nur wo sind die guten/brauchbaren 40G yields die ich nicht sehen kann? Nochmal nach Angaben sollen die A2 yields zwischen 4 und 43% geschwankt haben (weiss der Teufel wie oft ich es schon wiederholt habe); ergo setzt Dich mal hin und rechne aus wieviele ~550mm2 chips man aus einem 300-er wafer maximal herstellen koennte (bei hypothetischen 100% yields) und rechne dann auf 4% runter. Die einstellige Anzahl an operativen chips sollte ernuechternd genug sein.
Eher wird das Problem im Design von Fermi liegen, läge es am Prozess könnte man diesen (GF100) ja in begrenzter Stückzahl ausliefern und dann mit steigenden Prozessreifung die Stückzahlen erhöhen.
NVIDIA machte sich um einige Zeit Gedanken GT200@65nm zu veroeffentlichen und dabei bei 60% yields, welches der niedrigste yield je fuer NV war. Da es aber zu lange fuer 55nm gedauert haette, haben sie den GT200 doch noch auf den Markt gesetzt. Und Du willst mir jetzt einreden dass etwas das zwischen 4 und 43% schwenkt, welches um zich Male miserabler ist als die damaligen 65nm yields fuer GT200 ein anstaendiger Anhaltspunkt ist um GF100 unter A2 in Produktion zu schicken? Wie A3 aussieht weiss selbst NV oder TSMC noch nicht.
Was genau ist "begrenzt" hier? 1000 chips weltweit pro Monat vielleicht? Also bitte....
Und dann müsste man auch nicht bei den OEMs mit als GeForce 300 rebrandeten GT21x vorstellig werden, die gegen AMDs D3D11-Lineup wohl eher weniger Chancen hatten, wenn man über die Zusammenstellung kommender OEM-System hört.
Tja nur sehe ich vorruebergehend nichts von low end GF1x0 chips die die GF300/GT21x@40nm in absehbarer Zeit ersetzen wuerden. Sprich wenn er das meinen wuerde was Du herauslesen willst, dann ist es wohl doch eher eine DX11 Produkt-Familie ohne low end (bis Zeitpunkt X).
Er bezieht sich auf AMD, wo zum DX11-Launch mehr als nur High-End-SKUs bereitstanden.
Beweiss mir trotz allem dass er eine gesamte DX11 Familie schon im Januar meint. Das Problem liegt lediglich in der Interpretation der Aussage und ja PR Affen machen solche zwielichtige Aussagen mit Absicht.
Dural
2009-12-19, 15:17:37
klar wurden die B3 dann auch für die anderen karten verwendet, aber B3 kam im grunde genommen doch nur für GTX285/295, für alles andere hätte auch der B2 gereicht!
bei mir läuft jetzt seit 2Stunden Crysis auf GT215 @ 1600MHz bei 1,00Volt... eine verbesserung gegenüber 55/65nm ist das ja nicht wirklich, aber eine verschlechterung sicher auch nicht...
Ailuros
2009-12-19, 15:30:01
klar wurden die B3 dann auch für die anderen karten verwendet, aber B3 kam im grunde genommen doch nur für GTX285/295, für alles andere hätte auch der B2 gereicht!
Nur wird es Dir extrem schwer fallen eine gesunde Anzahl (wenn ueberhaupt) von B2 chips auf jeglicher GT200 SKU erstmal zu finden. Die review samples von der GT260/216 hatten natuerlich alle B2 chips; wie sah es aber bei finalen Exemplaren dann am Ende aus?
bei mir läuft jetzt seit 2Stunden Crysis auf GT215 @ 1600MHz bei 1,00Volt... eine verbesserung gegenüber 55/65nm ist das ja nicht wirklich, aber eine verschlechterung sicher auch nicht...
Sagt mir gar nichts bei dem Winzling im Vergleich zu GF100.
Dural
2009-12-19, 15:41:21
klar nicht, man stellt ja nicht 2 unterschidliche Chips her, würde ja nichts bringen und A2 hatte man damals ja noch genügend! zudem der B3 "abfall" ja auch entsorgt werden muss ;)
ja ist so, aber der default takt ist aber trotzdem nur 1340MHz :rolleyes:
Slipknot79
2009-12-19, 16:30:18
lol gerade gesehe das die C2070 laut NV jetzt im Q3 2010 erscheinen soll, das ist juli-september 2010 :rolleyes:
Kamen bisher nicht immer zuerst die Geforce raus und dann die professionellen Lösungen?
AnarchX
2009-12-19, 16:45:21
Nur wo sind die guten/brauchbaren 40G yields die ich nicht sehen kann? Nochmal nach Angaben sollen die A2 yields zwischen 4 und 43% geschwankt haben (weiss der Teufel wie oft ich es schon wiederholt habe); ergo setzt Dich mal hin und rechne aus wieviele ~550mm2 chips man aus einem 300-er wafer maximal herstellen koennte (bei hypothetischen 100% yields) und rechne dann auf 4% runter. Die einstellige Anzahl an operativen chips sollte ernuechternd genug sein.
Dass die Yields für einen ~550mm² GF100 alles andere als gut sind, steht ja außer Frage.
Die Frage ist eher, ob es an seinem Design liegt oder am Prozess bei TSMC.
Wenn ersteres in Ordnung wäre, könnte man ja ohne weiteres kleinere Ableger-Design finalisieren und eben bei GF100 die Produktion bis ins Q2 drosseln, wenn der Prozess besser läuft.
Aber da man dies nicht tut und auch die Ableger zurückhält, sieht das doch eher nach Designproblemen aus, die in Betracht, dass GF100 im Q4 launchen sollte und man bei den vorhergehenden GPUs sich auch nicht sehr weit von der 2006er-Basis entfernt hat, alles andere als rühmlich für Nvidia aussehen.
Was genau ist "begrenzt" hier? 1000 chips weltweit pro Monat vielleicht? Also bitte....
Das Zurückgewinnen der Performancekrone und die Stärkung der Verkaufsposition für Ableger wäre jedenfalls damit doch gesichert.
Beweiss mir trotz allem dass er eine gesamte DX11 Familie schon im Januar meint. Das Problem liegt lediglich in der Interpretation der Aussage und ja PR Affen machen solche zwielichtige Aussagen mit Absicht.
Wie schon gesagt, die Aussage mit 60 Tagen stimmt ja schon so nicht.
Black-Scorpion
2009-12-19, 16:52:54
Benchmarks könnte nVidia auch problemlos zeigen. Aber wer würde dann die aktuellen Produkte kaufen? ATi hat doch vorgemacht, wie man es gerade nicht machen soll. Eine "Verfügbarkeit" wie bei der 5870 bringt doch auch nichts.
Wie man mit nichts fertigem benchen will musst du mir aber mal erklären. ;)
Wenn ich nichts habe, laber ich eben BS wie Hara um in die News zu kommen.
Botcruscher
2009-12-19, 16:55:39
Welcher IHV waere so bloed eine kleinere Version eines chips zum tapeout zu schicken wenn man mit dem Ausgangs-chip noch nicht fertig ist?
Bleibt den in den Mainstreamablegern DP erhalten? Wenn das so abläuft wie bei ATi dann ist es eh ein ganz anderer Chip und das eigentliche Design sollte schon lange feststehen. Die Frage ist eher ob genug Kapazitäten vorhanden sind.
Naja, die 60 Tage könnten fast stimmen, wenn man sie auf den Win7 Release bezieht (war der nicht am 22. Oktober). Denn mit Win7 ist DirectX 11 doch offiziell released worden, oder irre ich mich da? Dann müssten die Karten aber nun bald ofiziell vorgestellt werden :-)
Ich habe allerdings auch den Eindruck, dass Nvidia zurzeit einige Probleme mit ihrem Chip hat. Es kommen einfach zu wenige konkrete Informationen. Das einzige was man hört, sind einige wage Andeutungen - mehr nicht.
Dural
2009-12-19, 17:53:33
was hat man den vor dem G80 gehört? oder vor dem G92? ich weis noch genau das wenige monate vor der 8800GT überall im Netz gestanden hat das der G92 nur 64SP hat...
erst seit dem GT200 geht NV so halbwegs offen mit den Daten ihrer Chips um. Die infos die im Netz rum fliegen sind doch meistens eh direkt von den Hersteller so gewollt! Ich kann mich noch gut daran erinnern das Charli nur wenige tage vor der 2900XT behauptet hat das der strom verbrauch nicht so gross sei und die leistung gut sei...
Black-Scorpion
2009-12-19, 17:57:19
Deinen Optimismus in allen Ehren, aber Realismus muss man dabei nicht vergessen.
Ist es wirklich so schwer einzusehen das GF100 nicht heute, nicht morgen und nächsten Monat bestimmt auch nicht verfügbar ist.
Dural
2009-12-19, 18:00:51
wo hab ich was über die verfügbarkeit geschrieben?
die probleme ligen einzig und alleine an 40nm, davon bin ich überzeugt! sonst hätte man ja nicht GT212/214 gestrichen und die kleinen um monate nach hinten verschoben! und der nächste beweis ist ja RV870... hei der GF100 ist min. 50% grösser als dieser!!! der prozess ist einfach noch nicht für so grosse GPUs ausgelegt/gut genug, das ist es...
OgrEGT
2009-12-19, 18:42:42
wo hab ich was über die verfügbarkeit geschrieben?
die probleme ligen einzig und alleine an 40nm, davon bin ich überzeugt! sonst hätte man ja nicht GT212/214 gestrichen und die kleinen um monate nach hinten verschoben! und der nächste beweis ist ja RV870... hei der GF100 ist min. 50% grösser als dieser!!! der prozess ist einfach noch nicht für so grosse GPUs ausgelegt/gut genug, das ist es...
Ich glaube aber mittlerweile auch, dass der Prozess soo schlecht nun auch nicht sein kann, wenn immerhin bereits 300000 Cypress damit gefertigt werden konnten. Soo klein ist der Cypress nun auch wieder nicht.
Kann jemand aufgrund der Chipgröße des Cypress überschlagen, wie hoch die Ausbeute bei Fermi sein müsste, sofern dieser keine Architektur-bedingten Fehler aufweist? Prozessbedingte Fehler streuen über ein und den selben Wafer doch unabhängig, ob da Fermi oder Cypresss belichtet wurde.
Ailuros spricht immer von schwankenden Yields 4-43% für Fermi. Das kann doch nicht allein am Prozess liegen, da man bei Cypress eine ähnliche Schwankung nur auf leicht höherem Niveau beobachten müsste, aufgrund der kleineren Größe. Und wenn das so wäre, dann -> mutmaße <- ich jetzt einfach, müssten schon weit mehr als 1000 Stück im Monat herauskommen.
Das Problem scheint somit nicht allein der Fertigungsprozess zu sein, sondern die Architektur, die auf diesem Prozess nicht die gewünschten Frequenzen erbringt. Damit erscheint mir die Strategie von AMD/ATI doch cleverer zu sein, zumal sich das RV8xx Design problemlos bis ins Low-end, und das ziemlich schnell skalieren lies.
Die neue NV Architektur muss erst noch beweisen, ob sie das durch erhöhte Leistung /Features einspielt, was sie an Zeit verspielt, zumal sich bei NV das Design nicht so einfach in das ertragsreiche Mid- und Low-end skalieren lässt.
Und man bedenke, Leistung ist heute nicht mehr alles beim Computer-Gaming. Die heute erhältlichen Karten haben bereits eine Leistung, die so gut wie alle Games einwandfrei flüssig (sogar mit Eye Candy) darstellen können.
Neue Features braucht das Land :)
Wenn die Yields der kleinen auch scheisse sind sagt mir das der Prozess allgemein scheisse ist.
Bekanntermaßen war er das auch schon zu RV740 Zeiten, deutet für mich doch darauf hin das sich das nicht bald ändern wird.
AMD hat sich gedacht "egal, wir drücken das Ding jetzt wie RV740 irgendwie durch, in einem Jahr haben wir es überstanden.
Nvidia hat sich das selbe gedacht, nur eben bei den kleinen Chips. Jetzt zaudern sie noch mit der großem Chip, hoffen auf ein Wunder seitens TSMC und veruschen die Zeit nicht völlig nutzlos zu verplempern indem sie weiter rumbasteln.
Ich glaube aber mittlerweile auch, dass der Prozess soo schlecht nun auch nicht sein kann, wenn immerhin bereits 300000 Cypress damit gefertigt werden konnten. Soo klein ist der Cypress nun auch wieder nicht.Das sagt vor allem das es keine 40nm Kapazitätsengpässe gibt.
Wer genug fertigen kann, der kann auch bei mieser Yield viele Chips bekommen.
Ailuros spricht immer von schwankenden Yields 4-43% für Fermi.
Nein für den 40g Prozess.
Ich würde daraus schliessen das sich die 4% auf den schlimmsten Cypresswafer beziehen, nicht auf den durchschnittlichen.
Erstaunlich finde ich an der Aussage, das überhaupt so viele 40nm Chips am laufen sind. Das die IHVs trotz dieser Yields mehrere Designs am laufen haben.
Dural
2009-12-19, 18:58:13
was sind schon 300k GPUs in 3Monaten / 100k in einem Monat??? ich glaube NV hat mal von einer Million G92 im ersten/zweiten Monat was gesagt...
OgrEGT
2009-12-19, 19:29:38
Wenn die Yields der kleinen auch scheisse sind sagt mir das der Prozess allgemein scheisse ist.
Bekanntermaßen war er das auch schon zu RV740 Zeiten, deutet für mich doch darauf hin das sich das nicht bald ändern wird.
AMD hat sich gedacht "egal, wir drücken das Ding jetzt wie RV740 irgendwie durch, in einem Jahr haben wir es überstanden.
Nvidia hat sich das selbe gedacht, nur eben bei den kleinen Chips. Jetzt zaudern sie noch mit der großem Chip, hoffen auf ein Wunder seitens TSMC und veruschen die Zeit nicht völlig nutzlos zu verplempern indem sie weiter rumbasteln.
Wobei die kleinen Chips von denen Du sprichst noch keine Ableger der Fermi Architektur sind. Ergo, scheint der Prozess (wenn auch nicht optimal) auch bei NV zu laufen, nur noch nicht bei Fermi Architektur.
Nicht zu vergessen, dass RV 740 nur dazu diente den Prozess für RV8xx zu testen. Was sich momentan auch auszahlt, da man in Anbetracht all der Prozess-bedingten Schwierigkeiten, nahezu das Maximale herausholt, das da eben die 800000 RV8xx Chips sind.
Das sagt vor allem das es keine 40nm Kapazitätsengpässe gibt.
Wer genug fertigen kann, der kann auch bei mieser Yield viele Chips bekommen.
Nein für den 40g Prozess.
Ich würde daraus schliessen das sich die 4% auf den schlimmsten Cypresswafer beziehen, nicht auf den durchschnittlichen.
Erstaunlich finde ich an der Aussage, das überhaupt so viele 40nm Chips am laufen sind. Das die IHVs trotz dieser Yields mehrere Designs am laufen haben.
Ah Ok, wenn sich die 4-43% auf den 40g Prozess an sich beziehen, dann bedeutet das, dass selbst bei dieser Schwankung immerhin noch diese menga an RV8xx produziert werden können.
Somit bestärkt das die Annahme, dass der Prozess nicht der alleinige Grund für die NV Misere ist, sondern das Design, welches offenbar bei dieser Menge an Transistoren, auf neuer Architektur und den von NV anvieserten Frequenzzielen, schlicht schwerer auf den 40g Prozess anzupassen ist. Dafür die alleinige Schuld TSMC zu geben halte ich nicht für fair. Ich denke NV hat sich damit übernommen, vielleicht übernehmen müssen, da das GT200 wohl schon am Anschlag war, und nicht weiterentwickelt werden konnte.
Knuddelbearli
2009-12-19, 20:29:44
Ja, denn ausnahmslos alle 40nm Chips bekommt man nicht in ausreichenden Mengen. Das die Yields schlecht sind mag sein, aber das könnte man ja auch mit mehr Wafer ausgleichen, welche man offensichtlich nicht hat. Das die Produktion verdammt langsam anläuft ist offensichtlich. TSMC will im Q4 ganze 3% AFAIK ihrer Produktion in 40nm herstellen können, das ist lächerlich wenig.
naja gabs nit mal wo ne statisik wo gezeigt wird das 2009 noch 40% der Produktion in 90nm und höher ist bei TSMC ist?
NV und ATI machen bei TSMC bei weitem nit soviel aus wie mancher denkt
Knuddelbearli
2009-12-19, 21:11:56
Die 295 war doch immer gut lieferbar...
und was würde das bringen? also wenn ich NV wäre und der GF100 ein richtig gutes teil ist würde ich selber rein gar nichts nach aussen lassen und den Chip "gemütlich" fertig machen! Wie so? ganz einfach ist doch simples Marketing und die par tausend verkauft RV870 dürfte NV wohl kaum stören, viel wichtiger ist das man den leuten klar macht das es das warten auf unsere Produkte immer lohnt... und die RV870/5970 käufer als "deppen" hinstellt, das ist dann was das über eine längerezeit bleibt. ;)
mal ganz ehrlich, würden benchmarks irgend was ändern wenn man trotzdem nicht liefern kann? ganz bestimmt nicht!
nein GTX295 war nit imer gut lieferbar sogar zeitweise sau schlecht nur durch den preis hat mans nit soo bemerkt. und sind eher einige mio RV870 wurden ja bisher bereits knapp 400k verkauft, und dauert ja min nochmal wie der RV870 schon draussen ist bis NV was rausschickt. und die Produktionsmenge steigt ja
Wobei die kleinen Chips von denen Du sprichst noch keine Ableger der Fermi Architektur sind. Ergo, scheint der Prozess (wenn auch nicht optimal) auch bei NV zu laufen, nur noch nicht bei Fermi Architektur.
Natürlich ist im Grunde alles Silizium.
Das Fermi nicht läuft ist Spekulation, nein sogar falsch. Fermi lief bereits, sie fertigen nur nicht die ersten Versionen.
Sie schieben GF100 wie damals GT200 vor sich her.
Nicht zu vergessen, dass RV 740 nur dazu diente den Prozess für RV8xx zu testen. Was sich momentan auch auszahlt, da man in Anbetracht all der Prozess-bedingten Schwierigkeiten, nahezu das Maximale herausholt, das da eben die 800000 RV8xx Chips sind.
Die Yields sind jetzt wie damals schlecht.
Die 800000 sagen wie gesagt nichts aus.
Wie viele GT2xx wurden wohl schon rausgehauen oder RV740?
Ist alles eine Frage der Kapazität, die TMSC scheinbar hat.
Ah Ok, wenn sich die 4-43% auf den 40g Prozess an sich beziehen, dann bedeutet das, dass selbst bei dieser Schwankung immerhin noch diese menga an RV8xx produziert werden können.
Somit bestärkt das die Annahme, dass der Prozess nicht der alleinige Grund für die NV Misere ist, sondern das Design, welches offenbar bei dieser Menge an Transistoren, auf neuer Architektur und den von NV anvieserten Frequenzzielen, schlicht schwerer auf den 40g Prozess anzupassen ist. Dafür die alleinige Schuld TSMC zu geben halte ich nicht für fair. Ich denke NV hat sich damit übernommen, vielleicht übernehmen müssen, da das GT200 wohl schon am Anschlag war, und nicht weiterentwickelt werden konnte.
Siehe oben, RV870 ist ein gewaltig komplexer Chip, die 40% werden kaum auf ihn zutreffen.
Fermi wird noch komplexer, wie du festgestellt hast. Selbst bei RV870 ist das so eine Sache, bei so einer Yield zu fertigen.
Das mit dem übernommen würde auch dort beim RV870 passen.
Aber versetzt dich mal ihn die Lage der IHVs. Sie haben damit gerechnet das der Prozess reif sein wird, sie mussten es, es gab keine Alternative. Bei 55nm bleiben wär witzlos, ein kleinerer 40nm Chip hätte sich kaum gelohnt. Jetzt im Nachhinein den Chip zurechtstutzen ist auch nicht das wahre. Am Besten Augen zu und durch, es gibt immer mal wieder miese Prozesse. Imho ist das wirkliche Problem, das es gerade keine Prozess Alternative gibt.
und die Produktionsmenge steigt ja
Sagt wer?
Wann wurde RV740 doch gleich gelauncht? Damals war die Yield grottig, heute ist die Yield grottig.
Ich sehe kein Licht am Ende des Tunnels, die Erlösung bringt erst der nächste Prozess.
Knuddelbearli
2009-12-19, 23:39:43
sagte ja die menge sagte nix von yield, gab mal ne news das TSMC dabei ist 5 weitere produktionsstrassen auf 40nm umzustellen was fast ne verdoppelung sein soll. sollen wohl Anfang Jan starten.
Die kleinen Chips zeigen doch, das die Kapazität noch nicht das Problem ist.
TMSC muss natürlich die Kapazität ausbauen, denn es werden weitere 40nm Produkte folgen. TSMC kann es sich nicht leisten, dann nicht liefern zu können.
Knuddelbearli
2009-12-20, 01:01:40
solange 40nm kein extremes verloustgeschäft ist lohnt sich trotzdem mehr Produktionstsrassen da sie dadurch Sanktionstrafen umgehen
Dimon
2009-12-20, 01:48:17
War der was über den G80 vor dem Launch eigentlich bekannt? Ich kann mich irgendwie daran nicht erinnern...
Nein, wurde ziemlich gut gehütet. Es gab erste Leaks erst wenige Wochen vorher.
Nein, wurde ziemlich gut gehütet. Es gab erste Leaks erst wenige Wochen vorher.Was mich wundert ist, dass es bis heute keine vernünftigen Infos zum G92 gibt. Die Framebuffer-Komprimierung wurde wohl verbessert, wie mit dem G94 bekanntgegeben wurde. Und die TMU-Architektur ist wie beim G84 und G86. Das SI wurde auf 256 Bit verkleinert. Mehr Infos gibts nicht, also ob irgendwelche Caches oder Registerfiles vergrößert wurden und so.
Die neue NV Architektur muss erst noch beweisen, ob sie das durch erhöhte Leistung /Features einspielt, was sie an Zeit verspielt, zumal sich bei NV das Design nicht so einfach in das ertragsreiche Mid- und Low-end skalieren lässt.
Und man bedenke, Leistung ist heute nicht mehr alles beim Computer-Gaming. Die heute erhältlichen Karten haben bereits eine Leistung, die so gut wie alle Games einwandfrei flüssig (sogar mit Eye Candy) darstellen können.
Neue Features braucht das Land :)Warum sollte sich sich die Architektur nicht gut skalieren lassen? Seit NV40 achtet Nvidia sehr auf Skalierbarkeit, mit G80 wurde das noch verbessert.
Features braucht das Land eben nicht mehr, da Effekte heute programmiert werden. Bereits DX10.1 erlaubt hier weitgehende Freiheiten. Mir fällt auf den ersten Moment kein Grafikeffekt ein, der sich nicht mit einem DX10.1-Shader programmieren ließe.
NVIDIA machte sich um einige Zeit Gedanken GT200@65nm zu veroeffentlichen und dabei bei 60% yields, welches der niedrigste yield je fuer NV war. Da es aber zu lange fuer 55nm gedauert haette, haben sie den GT200 doch noch auf den Markt gesetzt.Übrigens wundert mich das bis heute – dass die damals den G80 in 90-nm-Technologie entwickelten, OK. Den GT200 noch in 65 nm zu entwickeln fand ich krass. Zunächst waren die Grafikkartenpreise ja so angesetzt, dass Nvidia sicherlich verdient hat, doch mit dem Release der 48-er Serie von ATI mussten sie mit dem Preis runter. Ich kann mir nicht vorstellen, dass die nicht damit rechneten.
Ailuros
2009-12-20, 08:16:26
Dass die Yields für einen ~550mm² GF100 alles andere als gut sind, steht ja außer Frage.
Die Frage ist eher, ob es an seinem Design liegt oder am Prozess bei TSMC.
Wenn ersteres in Ordnung wäre, könnte man ja ohne weiteres kleinere Ableger-Design finalisieren und eben bei GF100 die Produktion bis ins Q2 drosseln, wenn der Prozess besser läuft.
Aber da man dies nicht tut und auch die Ableger zurückhält, sieht das doch eher nach Designproblemen aus, die in Betracht, dass GF100 im Q4 launchen sollte und man bei den vorhergehenden GPUs sich auch nicht sehr weit von der 2006er-Basis entfernt hat, alles andere als rühmlich für Nvidia aussehen.
Ich hab es mehrere Male bei B3D erwaehnt dass NVIDIA ihre Strategie aendern muss. Wenn man nicht von Anfang an dafuer sorgt, dass der Design flexibel genug ist dass man beliebig etwas vorziehen kann wird es auch nicht klappen. Ich dachte mal in der Vergangenheit dass sie vielleicht dank GT212 Stornierung seither in die Richtung investiert haben, aber es scheint wohl doch nicht der Fall zu sein.
AMD hat im Gegensatz den existierenden RV770 Design aufgemoebelt und mehrere chips parallel entwickelt. Sie haben aber auch nicht besonders viel fuer Cypress umgekrempelt was die Basis-architektur betrifft und sie machen auch halt im Performance-Bereich mit 334mm2 bzw. 2.15Mrd. Transistoren.
Das Zurückgewinnen der Performancekrone und die Stärkung der Verkaufsposition für Ableger wäre jedenfalls damit doch gesichert.
Der Abstand zu einem Paperlaunch waere laecherlich klein.
Wie schon gesagt, die Aussage mit 60 Tagen stimmt ja schon so nicht.
Typisches PR/marketing. 60 Tage ohne die Wochende? Selbst dann stimmt es nicht wenn ich sehe wann Cypress veroeffentlicht wurde.
Ich glaube aber mittlerweile auch, dass der Prozess soo schlecht nun auch nicht sein kann, wenn immerhin bereits 300000 Cypress damit gefertigt werden konnten. Soo klein ist der Cypress nun auch wieder nicht.
GF100 = 1 Cypress + 1 Juniper
Kann jemand aufgrund der Chipgröße des Cypress überschlagen, wie hoch die Ausbeute bei Fermi sein müsste, sofern dieser keine Architektur-bedingten Fehler aufweist? Prozessbedingte Fehler streuen über ein und den selben Wafer doch unabhängig, ob da Fermi oder Cypresss belichtet wurde.
Gab es nicht oeffentliche Berichte dass obwohl am Anfang die Cypress yields relativ gut waren es einen temporaeren Rueckzug gab? Ergo muss es auch hier Schwankungen geben und nein TSMC soll angeblich noch nicht wissen wo das eigentliche Problem liegt sonst haetten sie es auch sofort korrigiert.
Ailuros spricht immer von schwankenden Yields 4-43% für Fermi. Das kann doch nicht allein am Prozess liegen, da man bei Cypress eine ähnliche Schwankung nur auf leicht höherem Niveau beobachten müsste, aufgrund der kleineren Größe. Und wenn das so wäre, dann -> mutmaße <- ich jetzt einfach, müssten schon weit mehr als 1000 Stück im Monat herauskommen.
Siehe oben. Die Meldung kam von xbitlabs unter anderen und wurde auch toll bei B3D besprochen da Charlie eine uebertolle indirekte These auflegte die auf eine NV-TSMC Abmachung deutete in etwa wenn Fermi schon nicht richtig geht dann verpatzt man auch AMD's Produktion. Wer will kann solche Maerchen von mir aus glauben.
Das Problem scheint somit nicht allein der Fertigungsprozess zu sein, sondern die Architektur, die auf diesem Prozess nicht die gewünschten Frequenzen erbringt. Damit erscheint mir die Strategie von AMD/ATI doch cleverer zu sein, zumal sich das RV8xx Design problemlos bis ins Low-end, und das ziemlich schnell skalieren lies.
Nein zum ersten da erstmal die Anzahl der Prozess-bedingten Fehlern fuer GF100 zu hoch war; hierbei ist es wurscht mit welchen Frequenzen sie takten. Zuerst korrigiert man die Prozess-bedingten Fehler (im Raum des moeglichen) und dann erst bei einer halbwegs logischen Toleranz denkt man an Frequenzen und zu guter letzt an Massenproduktion. A2 war nicht auf dem Nivaeu und man hofft jetzt dass es vielleicht mit dem A3 respin klappt.
AMD's Strategie ist ohnehin die bessere. Nicht nur weil sie bei Performance-Chipkomplexitaet halt machen aber auch weil sie quasi aus RV770 einen Juniper/DX11 chip entwickelt haben, diesen quasi verdoppelt fuer Cypress und die beiden gleichzeitig ins Labor geschickt und uebersehen. Wie techreport richtig erwaehnt haette einer der beiden einen Fehler vorgezeigt, war es leicht bei der parallelen Entwicklung diese zu korrigieren.
Die neue NV Architektur muss erst noch beweisen, ob sie das durch erhöhte Leistung /Features einspielt, was sie an Zeit verspielt, zumal sich bei NV das Design nicht so einfach in das ertragsreiche Mid- und Low-end skalieren lässt.
Die Skalierung wird nur eine Zeitfrage der tape outs bzw. Massenproduktion sein sobald alles mit GF100 stimmt. Hier hat leider NVIDIA nicht vorgesehen einen flexibleren Design einzulegen der parallele Chip-entwicklung erlaubt. Ich hab es mehrere Male erwaehnt hier und auf B3D dass es ein wichtiger Anhaltspunkt ist wo NVIDIA ihre Strategie aendern koennte. Leider haben die Kerle bei B3D mich nicht richtig verstanden und glaubten ich meine dass NV einen performance chip von Anfang an entwickeln sollte und dann fuer high end spaeter nach oben skalieren.
Und man bedenke, Leistung ist heute nicht mehr alles beim Computer-Gaming. Die heute erhältlichen Karten haben bereits eine Leistung, die so gut wie alle Games einwandfrei flüssig (sogar mit Eye Candy) darstellen können.
Neue Features braucht das Land :)
NV verspricht neben ausgezeichneter Leistung fuer GF100 auch einen gesunden Zusatz an neuen "features". Das zweite ist aber leider genau so wage wie das erste dass ich bis bekannt wird worueber es sich handelt, ich auch keinen Wert darauf lege.
Warum sollte sich sich die Architektur nicht gut skalieren lassen? Seit NV40 achtet Nvidia sehr auf Skalierbarkeit, mit G80 wurde das noch verbessert.
Im Angesicht zu dem was AMD mit der Evergreen Linie angerichtet hat, glaube ich nicht dass GF1xx die gleiche Flexibilitaet vorweisst. So etwas haette NVIDIA von Anfang an hervorsehen sollen was aber IMO nicht der Fall war. In AMD's Fall war es auch um einiges leichter da sie nicht besonders viel in der Architektur geaendert haben im Vergleich zum RV7x0.
Features braucht das Land eben nicht mehr, da Effekte heute programmiert werden. Bereits DX10.1 erlaubt hier weitgehende Freiheiten. Mir fällt auf den ersten Moment kein Grafikeffekt ein, der sich nicht mit einem DX10.1-Shader programmieren ließe.
Tja wie schon oben erwaehnt, NV paukt hinter den Kulissen ueber zusaetzliche Faehigkeiten. Um was es sich handelt will keiner sagen, deshalb ist jegliche diesbezuegliche Andeutung auch komplett wertlos momentan.
Übrigens wundert mich das bis heute – dass die damals den G80 in 90-nm-Technologie entwickelten, OK. Den GT200 noch in 65 nm zu entwickeln fand ich krass. Zunächst waren die Grafikkartenpreise ja so angesetzt, dass Nvidia sicherlich verdient hat, doch mit dem Release der 48-er Serie von ATI mussten sie mit dem Preis runter. Ich kann mir nicht vorstellen, dass die nicht damit rechneten.
G80 war immer noch ein Resultat der "Vorsicht ist geboten nach dem NV30 FLOP Masche". Bei GT200 dann kamen die ersten Zweifel aber auch leider zu spaet. NVIDIA wurde vom RV770 ueberrascht dazu gibt es keine Zweifel und das nicht nur was die insgesamte Leistung betrifft sondern auch execution.
Wie ich schon mal erwaehnte frueher hiess es "let ATI design GPUs and NVIDIA execute" bis zum R600. Nach dem RV670 ist es wohl eher NVIDIA die nochmal von Anfang lernen muss was "execution" genau heisst. Es gab IMO ein endloses hin und her zwischen marketing und engineering wo die eine Seite 10.1 als nutzlos empfand und die andere ueber die selbst begrenzte Notwendigkeit warnte. Als sich die zweite Seite endlich durchsetzte (gt21x@40nm) war es leider schon zu spaet. Es war auch marketing und/oder oberes Personal das diverse andere falsche Entscheidungen getroffen hat und glaub mir es ist kein Zufall dass Herr Perez (hoeflich ausgedrueckt) sich zurueckgezogen hat. Erst in letzter Zeit haben sich einige Heinis ueber die GT200 Fehler entschuldigt.
Mal sehen wer und wann sich etliche bei der uebernaechsten Generation ueber die GF100-Entscheidungsfehler entschuldigen werden. Wir koennen lange und endlose Debatten fuehren ueber DX11 Architektur A oder B oder hoehere Chipkomplexitaeten und uns im Kreis drehen. AMD hat weiterhin ihre ausgezeichnete RV770 Execution wiederholen koennen und ist selbst mit begrenzten Mengen mit einer fast kompletten DX11 Linie auf Regalen, ohne jeglichen Umbennengsscheiss und ohne endlose Verspaetungen denn wir reden hier momentan immer noch ueber die high end Varianten von GF100. So wie es aussieht wird der Abstand von mainstream und low end sich ueber mehr als ein Halbjahr ausziehen.
Unter der Perspektive sind die vorerwaehnten "60 Tage" Angabe eine bodenlose Zumutung selbst fuer high end GF100 alleine.
Knuddelbearli
2009-12-20, 12:49:32
sehr guter Post mus ich echt mal loben, auch wenn ich sonst oft nit deiner Meinung bin.
Ailuros
2009-12-20, 13:08:55
sehr guter Post mus ich echt mal loben, auch wenn ich sonst oft nit deiner Meinung bin.
Es waere verdammt langweilig wenn wir alle die gleiche Meinung haetten. Von dem abgesehen Kritik sollte da anliegen wo sie auch verdient ist.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.