Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Armaq
2010-01-03, 23:09:37
Ohne 1G und eine HD5870 kann man aber weder das Streaming aushebeln, noch mit maximalen Details geschweige denn mit Downsampling spielen. Und erst dann dreht GTA4 so richtig fett auf :usad: Dann brauchts aber auch 8G und einen fetten QC. Also warten wir noch ein Jahr ...
Für volle Sichtweite und HighTextures reichen nicht einmal 1G. Zumindest nicht mit einer 4870. Es läuft auf einer relativ fixen Festplatte mit meinem System auf voller Sichtweite und mittleren Texturen akzeptabel bis gut.
Mayk-Freak
2010-01-03, 23:23:45
Falls das ernst gemeint ist und kein Trollposting, dann sei gesagt, dass GTA 4 sogar mit einer HD 4850 flüssig läuft, sofern man 4 GB RAM und einen Quad-Core hat. GTA 4 profitiert fast nur von der Anzahl der Prozessorkerne.
Ich hab GTA4 immer mit den Einstellungen gespielt was jetzt wegen V-Ram Mangel nicht mehr geht.
http://www.abload.de/thumb/aufzeichnen7d3h.png (http://www.abload.de/image.php?img=aufzeichnen7d3h.png)
http://www.abload.de/thumb/gta2mez1.png (http://www.abload.de/image.php?img=gta2mez1.png)
y33H@
2010-01-03, 23:35:15
@ Armaq
HD5870 mit 2G oder Fermi mit 1,5 *haben will*
=Floi=
2010-01-03, 23:46:58
GT300 mit 3GB wäre eine wucht. da würde auch SLi und TSLi gut skalieren und nicht vom vram ausgebremst. ausgerechnet in den hohen auflösungen mit viel AA geht den karten der vram aus und die FPS brechen weg.
man sollte schon eine 3gb version abwarten, wenn man mit der karte länger spass haben möchte.
y33H@
2010-01-03, 23:54:16
Wenn ich sehe, wie lange das bei den GTX200 gedauert hat ;(
Man muss auch sehen das die 1GiB GTX 200 gerade mal 1,5 Jahre her sind. Die 768MiB 8800 GTX sind ähnlich lange her,
aber der Sprung von 768 auf 1024MiB ist kleiner als der von 1024 auf 1536MiB.
das Spiel ruckelt selbst mit einer 2Gb GTX285.
tombman
2010-01-04, 00:13:13
There will be a sneak peek of GF100 at our booth at CES in Las Vegas next week.
http://twitter.com/NVIDIAGeForce
Nun darf man gespannt sein, was sie unter sneak peak verstehen.
Ich wette, OHNE benchmarks oder performance numbers- oder nur mit NDA :ugly:
Und damit witzlos...
Nicht wirklich, die liste ist ziemlich unkonsequent. Es ist nicht ersichtlich, welche GF256 gemeint ist: SDR oder DDR-SDRAM. Die GF2 Ultra wurde relativ viel später nach der GF2 GTS eingeführt, während nach der GF3 noch die GF3 Ti200 bzw. Ti500 erschien. Bei der GF4 erschien danach noch eine Ti4800, wobei ich mir nicht mehr sicher bin, afair war da tatsächlich die Ti4600 am schnellsten, soweit also ok. Bei der FX Serie kam noch, ebenso wie bei der G7x Serie noch eine '900er bzw. gar '950er zum Ende hin raus. Zudem, war die GF6800 doch nie und nimmer durchschnittl. 5x schneller als die FX :freak:
Also übern daumen mögen die ja 65% stimmen, aber da kann ich mich dann genauso gut auf meine Glaskugel verlassen...
"inkonsequent"
Du hast das echt ernst genommen? :lol:
AMD Mitte Dezember auf der Siggraph Asia:
http://img40.imageshack.us/img40/3591/amd6months.jpg (http://img40.imageshack.us/i/amd6months.jpg/)
http://sa09.idav.ucdavis.edu/docs/SA09_AMD_IHV.pdf Slide 2
Also glaubt man sich mindestens bis März der Krone sicher bei AMD.
Jo, und dann kommt Fermi und nimmt sie ihnen weg :ugly:
mapel110
2010-01-04, 00:15:31
Ich wette, OHNE benchmarks oder performance numbers- oder nur mit NDA :ugly:
Und damit witzlos...
NVIDIA We will post pics from the show!
:ugly:
Jo, und dann kommt Fermi und nimmt sie ihnen weg :ugly:
Ich bin auf dein Gesicht gespannt wenn Fermi kommt, nicht so schnell ist wie du hoffst und sie trotzdem von der MSI Lightning 2GB @ 1025 Mhz geschlagen wird :lol:
Armaq
2010-01-04, 00:38:45
@ Armaq
HD5870 mit 2G oder Fermi mit 1,5 *haben will*
Eine 4870 mit 2 GB reicht bereits aus. Die Sapphire Version hat ein Freund von mir und das sieht natürlich toll aus. Allerdings muss man mindestens 6 GB Ram haben, eine sehr schnelle Festplatte und am besten DDR3 1333 < mit guten Latenzen (alles bei ihm vorhanden). Dann macht GTA IV wirklich Spass. Bei einer Crossfire-Variante dürfte dann Downscaling echt abgehen. Könnt ihr das nicht mal testen auf einem System?
Edit: 1,5 GB VRam reichen nicht aus! Vor allem nicht wenn Downscaling erfolgen soll, es müssen 2 GB sein (auf einer ATI!, d.h. auf einer 285 sogar noch mehr).
Gestrandet
2010-01-04, 00:51:29
Jo, und dann kommt Fermi und nimmt sie ihnen weg :ugly:
Davon kann man sicher ausgehen. AMD wird auch wenig Lust haben darum zu kämpfen, da setzt man jetzt alles auf den "eigenen" Prozess.
Wenn der aber gut gelingt (was nichtmal so unwahrscheinlich ist - AMD reißt in Sachen Prozess durchaus Bäume aus. Wenn man sich anschaut wie gut sie mit Intel mithalten obwohl sie immer Noden hintendran sind, den Toolkosten sei Dank. Andererseits haben sie keine Erfahrung mit bulk.) und DFM voll greift, wird NV wenig übrig bleiben als sich nen anderen Fertiger zu suchen oder ihre High-End-Strategie aufzugeben.
IMHO hat AMD die ATI-PAtente deshalb auch an Intel "verschenkt", um Nvidia für Intel uninteressant zu machen.
OC_Burner
2010-01-04, 01:01:04
Wäre wirklich schade wenn die neue GeForce wirklich nur mit 1,5GB VRAM daherkommt. Der aktuell 1GB große VRAM auf meiner GTX280 reicht schon lange nicht mehr, regelmäßig ist das Ding voll... Und mit 1,5GB wird es wohl nicht anderes aussehen.
Ps: Die aktuellste GPUz-Version ließt auch unter Vista und Win7 den VRAM aus.
mapel110
2010-01-04, 01:10:49
Erstmal abwarten, wie VRam-hungrig der neue Chip wird. Wenns bessere AA-Modi gibt, heißt das auch, dass sie etwas am Bandbreitenmanagement gemacht haben. Weniger Bandbreitenbedarf, weniger VRam-Bedarf.
Blaire
2010-01-04, 01:30:19
Edit: 1,5 GB VRam reichen nicht aus! Vor allem nicht wenn Downscaling erfolgen soll, es müssen 2 GB sein (auf einer ATI!, d.h. auf einer 285 sogar noch mehr).
Ich hatte 3xGTX280 1GB und 3xGTX285 2GB...das einzigste Game was wirklich Nutzen zog war Crysis@3360x2100 ansonsten gab es kaum Unterschiede zwischen 1GB und 2GB in spielbaren FPS Bereichen ohne Texturmods. Daher geh ich davon aus das 1,5GB selbst mit SSAA/Hybriden meistens ausreichen werden.
Simon Moon
2010-01-04, 02:02:07
"inkonsequent"
Du hast das echt ernst genommen? :lol:
Ich hab gehofft, es würde ignoriert - aber da du mit diesen Zahlen rechnetest, konnte er sich wohl bestätigt fühlen. Naja, es ist zumindest ersichtlich, dass er sich noch nicht seit GF Zeiten mit der Materie beschäftigt ;)
Armaq
2010-01-04, 07:32:42
Ich hatte 3xGTX280 1GB und 3xGTX285 2GB...das einzigste Game was wirklich Nutzen zog war Crysis@3360x2100 ansonsten gab es kaum Unterschiede zwischen 1GB und 2GB in spielbaren FPS Bereichen ohne Texturmods. Daher geh ich davon aus das 1,5GB selbst mit SSAA/Hybriden meistens ausreichen werden.
GTA IV braucht aber soviel. 19xx x 1xxx und alles auf Maximum braucht mehr als 1,5GB VRam.
Wir wissen aber gar nicht ob G100 auch soviel VRAM braucht wie GT200.
Ailuros
2010-01-04, 09:42:21
AMD weiss ziemlich genau mehr oder weniger wann NV mit anstaendiger Verfuegbarkeit antanzen kann, ebenso wie es NV bewusst ist wann AMD mit einem refresh antanzen wird.
Wenn NV's "Spionage" recht hat, dann kommt irgendwo Anfang Juni ein 25 cluster RV8x0.
reunion
2010-01-04, 09:48:42
Wenn NV's "Spionage" recht hat, dann kommt irgendwo Anfang Juni ein 25 cluster RV8x0.
Das wären dann 2000SPs bzw. immerhin um 25% mehr Leistung als Cypress bei gleichem Takt.
=Floi=
2010-01-04, 09:51:14
4glfop wäre ja wahnsinn. wenn es anständige anwendungen für diese karte geben würde, dann könnte man damit wirklich viel anfangen....
AnarchX
2010-01-04, 09:51:57
Wenn dann aber wohl eher 24/26 Cluster, je 12/13 pro Rasterizer-Block, und ein etwas höherer/niedriger Takt. Die 25 passen nicht unbedingt zur Architektur, sodass man diese wohl aus einer Leistungszahl (FLOPs?) ermittelt hat mit der Annahme der aktuellen 850MHz.
Aber wer weiß, ob hier NVs Spionage nicht einfach von AMDs Spionage-Abwehr verwirrt wurde.:D
Ailuros
2010-01-04, 09:55:39
Das wären dann 2000SPs bzw. immerhin um 25% mehr Leistung als Cypress bei gleichem Takt.
Genauso wie 20 SIMDs (58x0) rund um die Uhr zweimal die 10 SIMD (48x0) Leistung bedeuten?
Ist eine 5870 wirklich 2x Mal so schnell wie ein 4890?
Wenn dann aber wohl eher 24/26 Cluster, je 12/13 pro Rasterizer-Block, und ein etwas höherer/niedriger Takt. Die 25 passen nicht unbedingt zur Architektur, sodass man diese wohl aus einer Leistungszahl (FLOPs?) ermittelt hat mit der Annahme der aktuellen 850MHz.
Aber wer weiß, ob hier NVs Spionage nicht einfach von AMDs Spionage-Abwehr verwirrt wurde.:D
Es war ueber 2000SPs die Rede und es ist nicht das erste Mal dass ich die Zahl lese. Wie schon erwaehnt erwarte ich persoenlich eigentlich eher eine gute Frequenz-steigerung die insgesamt ungefaehr genauso viel bringen koennte wie die Chip-komplexitaet unnoetig zu erhoehen. Es wird aber auch nicht das erste Mal sein in letzten Jahren wo NV ATI falsch einschaetzt.
derguru
2010-01-04, 09:56:28
jetzt könnte man aber fast daraus schließen wieviel in etwa der fermi leisten wird oder soll.anscheinend reicht eine einfache 5870 oc wohl nicht in die nähe zu kommen, nur hätte ich damit sogar schon näher zum release des fermis gerechnet gehabt.
Ist eine 5870 wirklich 2x Mal so schnell wie ein 4890?
kommt schon mal vor;)
Wer sagt, dass ATI nur eine Gleichstand will. Man hat, wenn Furby jemals erscheint, min. 6 Monate die Leistungskrone gehabt, warum sollte man als Ziel etwas anders haben, als sie zu behalten?
Ailuros
2010-01-04, 10:17:14
kommt schon mal vor;)
Nur ist die eigentliche Frage dann wie oft.
Wer sagt, dass ATI nur eine Gleichstand will. Man hat, wenn Furby jemals erscheint, min. 6 Monate die Leistungskrone gehabt, warum sollte man als Ziel etwas anders haben, als sie zu behalten?
Es ist wohl offensichtlich dass beide ueber die Leistungskrone sich die Finger wund krallen werden. Bis jetzt gibt es nur ein endloses Geschrei warum NV keine Leistungsdifferenzen fuer GF100 angibt. Dass sie so langsam Einzelheiten erst kundgeben werden wenn sie so nahe wie moeglich am launch liegen braucht keiner zu erraten.
reunion
2010-01-04, 10:23:58
Wenn dann aber wohl eher 24/26 Cluster, je 12/13 pro Rasterizer-Block, und ein etwas höherer/niedriger Takt. Die 25 passen nicht unbedingt zur Architektur, sodass man diese wohl aus einer Leistungszahl (FLOPs?) ermittelt hat mit der Annahme der aktuellen 850MHz.
Aber wer weiß, ob hier NVs Spionage nicht einfach von AMDs Spionage-Abwehr verwirrt wurde.:D
Ich glaube nicht dass das eine Architekturbeschränkung ist. Warum sollten 25 SIMDs ein Problem sein? Nur weil man sich bis jetzt an Zweierpotenzen gehalten hat?
Genauso wie 20 SIMDs (58x0) rund um die Uhr zweimal die 10 SIMD (48x0) Leistung bedeuten?
Ist eine 5870 wirklich 2x Mal so schnell wie ein 4890?
Es war ueber 2000SPs die Rede und es ist nicht das erste Mal dass ich die Zahl lese. Wie schon erwaehnt erwarte ich persoenlich eigentlich eher eine gute Frequenz-steigerung die insgesamt ungefaehr genauso viel bringen koennte wie die Chip-komplexitaet unnoetig zu erhoehen. Es wird aber auch nicht das erste Mal sein in letzten Jahren wo NV ATI falsch einschaetzt.
Ist zwar nicht Thema des Threads, aber jetzt wo ihr einen RV8xx mit mehr Shadern anspricht: Es gibt ja auch Leute (u.a. bei B3D) die glauben das auf der HD5870 nicht alle Shader des RV870 aktiviert sind. Ich geh mal davon aus das es immer noch keine Die-Shots vom RV870 gibt, oder ?
Ailuros
2010-01-04, 10:40:11
Ist zwar nicht Thema des Threads, aber jetzt wo ihr einen RV8xx mit mehr Shadern anspricht: Es gibt ja auch Leute (u.a. bei B3D) die glauben das auf der HD5870 nicht alle Shader des RV870 aktiviert sind. Ich geh mal davon aus das es immer noch keine Die-Shots vom RV870 gibt, oder ?
Es gibt stets Leute die glauben dass die A,B oder C (egal von welchem IHV) "versteckte" deaktivierte cluster haben. Cypress hat 20 cluster genauso wie GF100 16 hat und es gibt nichts verstecktes bei diesen.
ohne Texturmods.
Die sind doch das Salz in der Suppe beim PC-Gaming. Der Grund warum ich Fallout Oblivion Venetica Dragon Age Devinity 2 usw usf 10x lieber aufm PC Kauf als auf der XBox.
Triskaine
2010-01-04, 11:55:13
Es wäre doch schwachsinnig einen neuen Chip mit noch mehr SIMDs aufzulegen, obwohl nicht mal der alte Chip die bereits existierenden gescheit ausnutzen kann. Es wäre IMHO viel sinnvoller einfach die Cypress Chips zu selektieren, die mit einer moderaten Vcore Erhöhung den 1 GHz Core Takt machen, dann noch schnelleren GDDR5 dazu und Fertig ist die 5890.
Ausschließlich für Redundanz konzipierte Redundanzcluster sind doch denkbar.
LovesuckZ
2010-01-04, 12:02:08
Ausschließlich für Redundanz konzipierte Redundanzcluster sind doch denkbar.
Wie hält man den Fehlerteufel ab, genau die Redundanzcluster nicht zubefallen? Es gibt keine Redundanz bei Chips. Nicht nur das die Chips größer sind, wird auch die Ausbeute nicht besser und die Fehleranfälligkeit erhöht sich. Und Chips, bei denen alle Cluster funktionieren, muss man unter Wert verkaufen, da man für sie kein Produkt vorgesehen hat.
AnarchX
2010-01-04, 12:04:54
Es wäre denkbar, dass Cypress wie auch schon RV770 pro Cluster 10 Redundanz-SPs hat, also insgesamt 1800SPs auf dem Die, davon aber nur 1600 nutzbar.
reunion
2010-01-04, 12:06:24
...Und falls ganze Cluster redundant sein sollten werden diese natürlich nicht fix zugeteilt, sondern je nachdem wo der Fehlerteufel zuschlägt.
Ist zwar nicht Thema des Threads, aber jetzt wo ihr einen RV8xx mit mehr Shadern anspricht: Es gibt ja auch Leute (u.a. bei B3D) die glauben das auf der HD5870 nicht alle Shader des RV870 aktiviert sind. Ich geh mal davon aus das es immer noch keine Die-Shots vom RV870 gibt, oder ?
Mit entsprechendem Equipment könnte man ja mal einen auslöten. Wird aber wohl kaum jemand machen ;)
LovesuckZ
2010-01-04, 12:59:10
Nvidia to show Fermi graphics at CES - Fuad (http://www.fudzilla.com/content/view/17047/1/)
Im Grunde nichts neues, bis auf:
The company won’t share all the information especially as after CES Nvidia wants to have its famous editor's days in Vegas and show them the power of Fermi. Since this is an NDA event, this is not something we will be attending anytime soon, but most of our good friends will
Könnte bedeuten, dass sie einen möglichen Launch im Februar vorbereiten, indem die Journalisten nach der CES in Vegas über GF100 unterrichtet werden und schonmal mit (Marketing)-Materialien nach Hause gehen. Also ungefährt vergleichbar wie beim G80, vor 4 Wochen vor dem Launch die Spezifikation geleaked worden sind.
Dural
2010-01-04, 13:03:14
einen noch breiteren RV870 in 40nm? ne... erst recht nicht mit 25 cluster... wenn schon der RV870 noch oben hin kaum noch skaliert wird ein noch breiterer RV870 ziemlich zutzlos sein... und wie würde dann erst die X2 ausschauen, die GPUs noch mit 600MHz oder was? ;)
da ist der weg über einen rv870 mit mehr takt doch deutlich sinnvoller und billiger
Nvidia to show Fermi graphics at CES - Fuad (http://www.fudzilla.com/content/view/17047/1/)
Im Grunde nichts neues, bis auf:
Könnte bedeuten, dass sie einen möglichen Launch im Februar vorbereiten, indem die Journalisten nach der CES in Vegas über GF100 unterrichtet werden und schonmal mit (Marketing)-Materialien nach Hause gehen. Also ungefährt vergleichbar wie beim G80, vor 4 Wochen vor dem Launch die Spezifikation geleaked worden sind.
http://tinyurl.com/ylbno82
Burgard
2010-01-04, 13:19:02
25 Cluster ist wenig sinnvoll, wenn man sich mal die Benches anschaut, wo die 5850 mit dem Takt der 5870 betrieben wird. Da sind dann meist nur 1-2 Fps unterschied, also praktisch nix.
Da machen 1 Ghz mehr Sinn.
jo schon klar....dann nimm mal SSAA dazu, da siehste den Unterschied der zwei Karten.
LovesuckZ
2010-01-04, 13:24:40
Es macht weder mit mehr Cluster oder mehr Takt irgendwas Sinn - denn dafür gibt es die 5970. Diese mGPU-AFR Gedöns ist nur dann logisch, wenn zwischen der schnellsten Single-GPU und der mGPU-Karte ein entsprechendes Leistungsloch klafft. Sonst kann man darauf auch gleich verzichten, da kein normaldenker Mensch sich eine mGPU-Karte kauft, die 20-30% schneller ist und dafür mit nicht freien Profilen, hoher Stromaufnahme und Lautstärke, überlanger Karte, Mikrorucklern, stärkerer Treiberabhängigkeit und im Worst-Case mit deutlich schlechterer Leistung (37% schneller könnte eine 5890@1000Mhz sein) glänzt.
reunion
2010-01-04, 13:30:01
Schon amüsant anzusehen wie die NV-Fans der Meinung sind eine schnellere Karte von AMD würde keinen Sinn machen. Da bekommt wohl jemand Nervenflattern. :ulol:
Aquaschaf
2010-01-04, 13:30:34
Es macht weder mit mehr Cluster oder mehr Takt irgendwas Sinn - denn dafür gibt es die 5970.[...]
Nach dieser Logik hätte es auch keine 4890 geben dürfen.
Armaq
2010-01-04, 13:32:51
Wobei man Nvidia wirklich zu Gute halten muss, dass anscheinend der ganze Laden seine Klappe hält. Es kommt ja wirklich gar nichts raus. Das finde ich relativ beeindruckend. Ähnlich dem Start der 8800er Serie.
AMDs Topmodell nennt sich HD 5970.
Daran gibt es nichts zu rütteln.
Eine Fermi Antwort hieße eine HD 5990 rauszubringen.
Eine HD 5890 ist lediglich ein Füller, der irgendwann kommen mag.
Dural
2010-01-04, 13:34:46
Schon amüsant anzusehen wie die NV-Fans der Meinung sind eine schnellere Karte von AMD würde keinen Sinn machen. Da bekommt wohl jemand Nervenflattern. :ulol:
eher die ATIboys die sich jetzt schon einen 25 cluster (blödsinn..) RV8xx wünschen... aber ist wie beim RV790, da waren noch eine woche vor dem erscheinen die ATIboys über zeugt das er eine mehr Leistung pro takt hat nicht war?
und wer sagt das keinen schnelleren RV870 kommt? zb. ich habe legendlich geschrieben das ein RV870 mit mehr takt deutlich sinnvoller und billiger wäre...
LovesuckZ
2010-01-04, 13:35:21
Nach dieser Logik hätte es auch keine 4890 geben dürfen.
Ohne 4890x2 war es auch ein Fehler. Diese Strategie macht nur dann Sinn, wenn aus der schnellsten Single-GPU eine entsprechende x2 gemacht werden kann. Alles andere ist vorallem aus Sicht der Produktionskosten unsinnig. Eine 5980@1000Mhz wird billiger im Markt angeboten, erreicht aber deutlich bessere Margen als die hauseigene 5970, die dazu dann auch noch deutlich uninteressanter wird.
nVidia's 9800x2 oder GTX295 sind nur reaktionen, um schneller als die mGPU-Variante der Konkurrenz zu sein. Es ist jedoch keine Produktstrategie. Ich wüsste niemanden, den man bei einer kaufbaren 5890@1000MHz eine 5970 empfehlen könnte. Selbst der marginale Leistungsvorsprung der 5970 wird mehr als vollständig von den klaren Nachteilen aufgefressen.
Botcruscher
2010-01-04, 13:51:03
MultiGPU ist in seiner jetzigen Form generell sinnfrei. Der Mist existiert doch nur um die Prestige mit zu nehmen und so die Marke zu pushen. Zusätzlich finden sich ja auch in paar Freaks welche den Käse refinanzieren. Dank der Verlustleistung wird die Luft für solche Konstruktionen eh dünn. Bei beiden Herstellern wird man nur noch abgespeckte Lösungen sehen. Für die Werbung gibt es dann nettes OC-Potential.
Natürlich ist MGPU sinnfreier schrott.
Aber man muss aktzeptieren das es da ist. MGPU stellt auf dem Papier die Leisungsspitze dar.
reunion
2010-01-04, 14:07:05
eher die ATIboys die sich jetzt schon einen 25 cluster (blödsinn..) RV8xx wünschen... aber ist wie beim RV790, da waren noch eine woche vor dem erscheinen die ATIboys über zeugt das er eine mehr Leistung pro takt hat nicht war?
und wer sagt das keinen schnelleren RV870 kommt? zb. ich habe legendlich geschrieben das ein RV870 mit mehr takt deutlich sinnvoller und billiger wäre...
Die 25 Cluster kamen von Ailuros, und stammen laut ihm von NV. Aber wenn jeder der sowas behauptet für dich ein "ATIboy" ist und du offensichtlich eh alles besser weißt brauchen wir ja nicht weiter zu diskutieren. Wenn man mit mehr Takt nicht genügend Leistung erreicht dann geht man eben in die Breite, ganz einfach. AMD kann sich das locker leisten da man gegenüber Fermi mehr als genug Luft hat wie die Die-Size betrifft.
Wobei man Nvidia wirklich zu Gute halten muss, dass anscheinend der ganze Laden seine Klappe hält. Es kommt ja wirklich gar nichts raus. Das finde ich relativ beeindruckend. Ähnlich dem Start der 8800er Serie.
Bewerte ich eher negativ, nVidia müsste im Moment eigentlich alles tun, um die Leute daran zu hindern, HD 5xx0er-Karten zu kaufen, indem sie scheibchenweise tolle Leistungsdaten vom "Mega-Fermi" durchschimmern lassen. Tun sie aber nicht, weil Fermi floppen wird. :D Warum sollten sie es vorenthalten, wenn die Karte in den Laboren bereits > 30 % Performancevorteile gegenüber der HD 5870 zeigen würde? Bei der 8800 war die Marktsituation ja völlig anders. 7900 GTX und X1950 XTX waren etwa gleichschnell, AMD hat den Markt nicht für sich alleine beansprucht, da konnte nVidia eine kleine Überraschung wagen. Im Moment steht nVidia aber recht böd da, schon alleine wegen der ständigen Terminverschieberei. Eine Rechtfertigung durch wenigstens konkurrenslose Leistungsdaten wäre super. Dann hätte ich jetzt auch keine HD 5000er bestellt, sondern würde evtl. auf Fermi warten. Da das aber nicht lohnen wird und nVidia das auch selber sieht, lassen sie nichts durchsickern und hoffen, dass wenigstens einige durch die Ungewissheit warten werden.
15 % Leistungsvorteil zur HD 5870 bei einem enormen Stromverbrauch sehe ich kommen, wobei AMD gleichzeitig mit einer "HD 5890", einem HD 5870-Refresh kontern wird und schwupps sind beide Hersteller gleichauf, nur nVidia Monate zu spät.
So viel zu meiner Psychoanalyse. Falls alles doch anders kommt: "Was interessiert mich mein Geschwätz von gestern?" :D
N0Thing
2010-01-04, 14:26:59
Ohne 4890x2 war es auch ein Fehler. Diese Strategie macht nur dann Sinn, wenn aus der schnellsten Single-GPU eine entsprechende x2 gemacht werden kann. Alles andere ist vorallem aus Sicht der Produktionskosten unsinnig. Eine 5980@1000Mhz wird billiger im Markt angeboten, erreicht aber deutlich bessere Margen als die hauseigene 5970, die dazu dann auch noch deutlich uninteressanter wird.
Naja, eine gute Marge ist ja immer schön für den Hersteller und da von den sehr teuren mGPU-Karten nur kleine Stückzahlen verkauft werden, kann es doch nur im Interesse der Hersteller sein, wenn es weiteres hochpreisiges Produkt gibt, das bessere Verkaufszahlen und Margen bietet. Kunde hat mehr Auswahl, Hersteller bessere Marge. Der Sinn ist also vorhanden und wenn es nur nach Leistung geht, kann man sich ja auch direkt zwei Karten mit nur einer GPU einbauen.
nVidia's 9800x2 oder GTX295 sind nur reaktionen, um schneller als die mGPU-Variante der Konkurrenz zu sein. Es ist jedoch keine Produktstrategie. Ich wüsste niemanden, den man bei einer kaufbaren 5890@1000MHz eine 5970 empfehlen könnte. Selbst der marginale Leistungsvorsprung der 5970 wird mehr als vollständig von den klaren Nachteilen aufgefressen.
Bei der 7950GX2 war es noch ihre Produktstrategie, da mußten sie nicht gegen eine mGPU-Karte der Konkurrenz antreten.
Ansonsten hast du recht, es macht keinen Sinn jemandem eine 5970 oder GTX295 zu empfehlen, zwei Einzelkarten im Verbund oder eine einzelne schnelle Grafikkarte ist besser.
Dural
2010-01-04, 14:27:37
die 25 Cluster tauchen schon seit einer Ewigkeit im netz auf, schon lange bevor der RV870 da war... schon deshalb halte ich den wert für daneben und erst recht weil er ungrad ist der RV870 besteht ja quasi als zwei RV840... für die 25 Cluster müsste ziemlich viel arbeit invertiert werden...
Bewerte ich eher negativ
ich halte das für sehr positiv, man würde erst recht jetzt alles versuchen die leute vom kauf der 5xxx Serie abzuhalten (mit schönen tabelen und diagramme ob die werte stimmen oder nicht spielt da keine rolle) wenn fermi nicht überzeugen könnte (sehr sehr logisch) um dann zu hoffen wenn fermi lieferbar ist sich doch welche für diese GPU entscheiden...
Das schweigen und verheimlichen der leistung ist ein gutes zeichen!
Bei der RV870 Yield kann sich AMD keinen größeren RV890 leisten.
Irgendwann vielleicht, wenn die Yields mal normale Werte erreicht haben.
LovesuckZ
2010-01-04, 14:34:00
15 % Leistungsvorteil zur HD 5870 bei einem enormen Stromverbrauch sehe ich kommen, wobei AMD gleichzeitig mit einer "HD 5890", einem HD 5870-Refresh kontern wird und schwupps sind beide Hersteller gleichauf, nur nVidia Monate zu spät.
Hö, dann war wohl auch die 5890 monate zu spät dran, oder?
Vorallen, wer soll sich denn bitte eine 5890 kaufen, wenn GF100 enttäuschend wäre? Der Fanboy, der dann von 5870 auf 5890 wechselt?
15 % Leistungsvorteil zur HD 5870 bei einem enormen Stromverbrauch sehe ich kommen, wobei AMD gleichzeitig mit einer "HD 5890", einem HD 5870-Refresh kontern wird und schwupps sind beide Hersteller gleichauf, nur nVidia Monate zu spät.
Lustig wie immer angenommen wird das Nvidia schreckliche Verschwender loslässt, bei gleichzeitig minmaler Mehrleistung.
Im nächsten Satz wird AMDs Verschwender 5970 ignoriert. Stattdessen wird der heilige Gral, eine minimal höher getaktete dank höherer Spannung also verschwenderischer und mit nur 1GiB ausgestatte 5890 verwiesen.
Hö, dann war wohl auch die 5890 monate zu spät dran, oder?
Vorallen, wer soll sich denn bitte eine 5890 kaufen, wenn GF100 enttäuschend wäre? Der Fanboy, der dann von 5870 auf 5890 wechselt?
"Enttäuschend" ist relativ. Mit "enttäuschend" meine ich viel mehr, dass Fermi leistungsmäßig zwar nicht unterlegen, eher ein wenig überlegen sein dürfte, dafür aber einfach zu spät kommt. 15 % mehr Leistung würde ich daher schon als Enttäuschung ansehen. Eine "HD 5890" müsste AMD nur zu Prestigezwecken rausbringen, damit nVidia nicht offiziell die Leistungskrone hat. Eine übertakte HD 5870 würde dafür schon ausreichen, falls Fermi wirklich nur um die 15 % schneller sein sollte.
Lustig wie immer angenommen wird das Nvidia schreckliche Verschwender loslässt, bei gleichzeitig minmaler Mehrleistung
Ich nehme das nur an, weil von 225 Watt bei 448 Shadern gesprochen wurde.
Im nächsten Satz wird AMDs Verschwender 5970 ignoriert.
Von Multi-GPU reden wir doch gar nicht. Gemessen an dem, was nVidia zur Zeit zu bieten hat, ist die Karte allerdings ein Stromsparwunder. Die GTX 295 verbraucht mehr, die HD 5970 ist dafür > 50 % schneller.
y33H@
2010-01-04, 14:48:47
Unter 225W!
LovesuckZ
2010-01-04, 14:49:23
"Enttäuschend" ist relativ. Mit "enttäuschend" meine ich viel mehr, dass Fermi leistungsmäßig zwar nicht unterlegen, eher ein wenig überlegen sein dürfte, dafür aber einfach zu spät kommt. 15 % mehr Leistung würde ich daher schon als Enttäuschung ansehen.
Was soll daran enttäuschend sein? AMD's rv790 war auch nicht schneller als eine GTX280 und kam 9 Monate später auf den Markt. Eine GTX295 war auch nur 10-20% schneller als die 4870x2 und erschien erst 4 1/2 Monate später. GF100 ist dann enttäuschend, wenn er langsamer als Cypress ist. Jedoch ist GF100 nicht enttäuschend für die, die noch keine D3D11 Karte in Form von Cypress haben und erst noch umsteigen wollen. Denen interessiert es nicht, dass GF100 erst 6 Monate später erscheint.
Eine "HD 5890" müsste AMD nur zu Prestigezwecken rausbringen, damit nVidia nicht offiziell die Leistungskrone hat. Eine übertakte HD 5870 würde dafür schon ausreichen, falls Fermi wirklich nur um die 15 % schneller sein sollte.
Dafür müsste die Karte aber auch die 15% Mehrleistung umsetzen können. Und wäre für Cypress-User genauso enttäuschend, wie GF100. Oder darf man vom Refresh nicht mehr als 15% zusätzliche Leistung erwarten? ;)
Unter 225W!
die Leute glauben doch immer noch, dass nVidia nur 2x6 bzw. 1x8PIN veranschlagen wird, um genau 225Watt zuerhalten. Tesla wird wohl um die 200 Watt benötigen, somit besteht eine gewisser Abstand zum maximal möglichen.
HarryHirsch
2010-01-04, 14:49:42
Natürlich ist MGPU sinnfreier schrott.
Aber man muss aktzeptieren das es da ist. MGPU stellt auf dem Papier die Leisungsspitze dar.
Außer man setzt 16x MSAA /SGSSAA ein. Kein MR und hammerharte Optik. :freak:
Ich nehme das nur an, weil von 225 Watt bei 448 Shadern gesprochen wurde.
TDP, nichtmal verlgeichbar mit GTX 200.
Außerdem sind es so gernige Unterschiede in der TDP, selbst wenn man sie vergleichen könnte, so ist nicht Fermi aufeinmal der Säufer und RV870 nicht.
Eher ist Fermi etwas hungriger, dafür stärker.
Aber egal, man kanns ja nicht vergleichen. Bei doppelter TDP könnte man Aussagen treffen, aber nicht bei den paar Prozent. Der Fehler ist einfach zu groß, Vergleiche sind unserös.
Was soll daran enttäuschend sein? AMD's rv790 war auch nicht schneller als eine GTX280 und kam 9 Monate später auf den Markt.
AMDs komplette HD 2000er- und 3000er-Reihe war dermaßen enttäuschend, dass das Fußfassen mit der 4000er-Reihe und Gleichziehen mit nVidia eben keine Enttäuschung war. Dafür musste sie nicht schneller sein. Die Ausgangssituation ist entscheidend. :D
LovesuckZ
2010-01-04, 15:02:07
AMDs komplette HD 2000er- und 3000er-Reihe war dermaßen enttäuschend, dass das Fußfassen mit der 4000er-Reihe und Gleichziehen mit nVidia eben keine Enttäuschung war. Dafür musste sie nicht schneller sein. Die Ausgangssituation ist entscheidend. :D
Die Serien waren enttäuschend, weil sie deutlich langsamer waren. Ansonsten müsste ein rv770 auch ziemlich enttäuschend gewesen sein, weil man knapp 19 Monate nach der 8800GTX gerade mal 30% Mehrleistung erreichte. :rolleyes: Und hier beschweren sich dann einige, weil GF100 auch nur 15% schneller sein könnte...
Wäre r600 schneller als die 8800GTX gewesen, niemand hätte den erhöhten Stromverbrauch als wirklichen Kritikpunkt genommen. Doch die schlechte Leistung und der dadurch ziemlich schlechte Verbrauch machten den Chip zu einer wahren Enttäuschung.
Armaq
2010-01-04, 15:05:50
Bewerte ich eher negativ, nVidia müsste im Moment eigentlich alles tun, um die Leute daran zu hindern, HD 5xx0er-Karten zu kaufen, indem sie scheibchenweise tolle Leistungsdaten vom "Mega-Fermi" durchschimmern lassen. Tun sie aber nicht, weil Fermi floppen wird. :D Warum sollten sie es vorenthalten, wenn die Karte in den Laboren bereits > 30 % Performancevorteile gegenüber der HD 5870 zeigen würde? Bei der 8800 war die Marktsituation ja völlig anders. 7900 GTX und X1950 XTX waren etwa gleichschnell, AMD hat den Markt nicht für sich alleine beansprucht, da konnte nVidia eine kleine Überraschung wagen. Im Moment steht nVidia aber recht böd da, schon alleine wegen der ständigen Terminverschieberei. Eine Rechtfertigung durch wenigstens konkurrenslose Leistungsdaten wäre super. Dann hätte ich jetzt auch keine HD 5000er bestellt, sondern würde evtl. auf Fermi warten. Da das aber nicht lohnen wird und nVidia das auch selber sieht, lassen sie nichts durchsickern und hoffen, dass wenigstens einige durch die Ungewissheit warten werden.
15 % Leistungsvorteil zur HD 5870 bei einem enormen Stromverbrauch sehe ich kommen, wobei AMD gleichzeitig mit einer "HD 5890", einem HD 5870-Refresh kontern wird und schwupps sind beide Hersteller gleichauf, nur nVidia Monate zu spät.
So viel zu meiner Psychoanalyse. Falls alles doch anders kommt: "Was interessiert mich mein Geschwätz von gestern?" :D
Ich deute die derzeitige Informationslage bei Nvidia eigentlich auch schlecht. Aber es ist trotzdem eine Leistung. Eigentlich müssten einige doch gerade bei schlechter Lage mal den Mund aufmachen (Aufsichtsrat, Analysten). Oder wir sind alle gefoppt. :)
OgrEGT
2010-01-04, 15:14:34
die 25 Cluster tauchen schon seit einer Ewigkeit im netz auf, schon lange bevor der RV870 da war... schon deshalb halte ich den wert für daneben und erst recht weil er ungrad ist der RV870 besteht ja quasi als zwei RV840... für die 25 Cluster müsste ziemlich viel arbeit invertiert werden...
ich halte das für sehr positiv, man würde erst recht jetzt alles versuchen die leute vom kauf der 5xxx Serie abzuhalten (mit schönen tabelen und diagramme ob die werte stimmen oder nicht spielt da keine rolle) wenn fermi nicht überzeugen könnte (sehr sehr logisch) um dann zu hoffen wenn fermi lieferbar ist sich doch welche für diese GPU entscheiden...
Das schweigen und verheimlichen der leistung ist ein gutes zeichen!
Kann ich irgendwie gar nicht nachvollziehen. Was Du sagst würde nur dann Sinn ergeben, wenn man vorhätte Harakiri zu begehen, was die Reputation betrifft...
Ailuros
2010-01-04, 15:20:43
Die 25 Cluster kamen von Ailuros, und stammen laut ihm von NV. Aber wenn jeder der sowas behauptet für dich ein "ATIboy" ist und du offensichtlich eh alles besser weißt brauchen wir ja nicht weiter zu diskutieren. Wenn man mit mehr Takt nicht genügend Leistung erreicht dann geht man eben in die Breite, ganz einfach. AMD kann sich das locker leisten da man gegenüber Fermi mehr als genug Luft hat wie die Die-Size betrifft.
Wenn sie am Takt schrauben unter 40nm unter einem hypothetischen einfachen respin jagt es den Stromverbrauch zu stark in die Hoehe. Man legt eventuell den Teig wieder etwas breiter aus und wenn man noch zusaetzlich auf mehr cluster geht schrinkt der Unterschied zum "GF10x" so schnell dass es nicht mehr schoen ist.
Ich deute die derzeitige Informationslage bei Nvidia eigentlich auch schlecht. Aber es ist trotzdem eine Leistung. Eigentlich müssten einige doch gerade bei schlechter Lage mal den Mund aufmachen (Aufsichtsrat, Analysten). Oder wir sind alle gefoppt. :)
Offensichtlich ist bei CES die erste Vorstellung fuer GeForce 100 fuer manche oder aller dieser Herren die Du erwaehnst. So wie es aussieht erhaelt bald auch die Presse ihre erste samples unter NDA, da Rys schon sagte im B3D Forum dass er auf ein sample im Januar hofft. Erst danach kann man auf die ersten leaks hoffen und ich bin mir auch sicher dass ich ein paar Brocken hier und da zugeschmissen bekomme.
Die Serien waren enttäuschend, weil sie deutlich langsamer waren. Ansonsten müsste ein rv770 auch ziemlich enttäuschend gewesen sein, weil man knapp 19 Monate nach der 8800GTX gerade mal 30% Mehrleistung erreichte. :rolleyes: Und hier beschweren sich dann einige, weil GF100 auch nur 15% schneller sein könnte...
Wäre r600 schneller als die 8800GTX gewesen, niemand hätte den erhöhten Stromverbrauch als wirklichen Kritikpunkt genommen. Doch die schlechte Leistung und der dadurch ziemlich schlechte Verbrauch machten den Chip zu einer wahren Enttäuschung.
Du verstauschst da aber ganz gewaltig was.
Der PUNKT ist doch der, das AMD/ATi, egal wieviel später diese kamen, sich preislich dem Markt angepasst und im Endeffekt Preis Leistungstechnisch VOR nVidia lagen.
Niemand wird bestreiten das nVidia die Leistungskrone oben halten wird, so wie die letzten Jahre auch. Daher der entscheidende Schritt seitens AMD hier mehr auf performence Karten zu guten Preisen zu setzen.
Es ist völlig wurst ob die Karte 10 oder 20 Monate später paar Prozent mehr Leistung hat, wichtig ist viel eher....die Leistung ist da und zu DIESEM Preis!
Den Käufern ist es "meist" kack egal, weil die nicht grün oder rot gefärbt sind. Der Käufer schlägt immer dann zu wenn er es braucht.
Wer zu diesem Zeitpunkt das "beste" Produkt, für günstigeres Geld anbietet, hat "meist" gewonnen. So verschafft man sich erstmal Marktanteile und kann dann mit weiteren Margen weitere Kreise erschließen.
nVidia hat hier natürlich immer noch klar die Oberhand. Seit der 4er Reihe (oder eigentlich schon 3er) macht Ati momentan alles richtig. Was nicht passieren darf, sind so dumme Sachen wie die Lieferengpässe. Hier stellte sich AMD/Ati meist selbst ein Bein und gab nach guten Phasen unnötige Marktanteilöe ab. INTEL vs AMD -> Athlon -> X-D Ihr wisst was ich meine!
mfg_carsten
Wobei NV eigentlich Glück hat. Bisher kam keine echte Killeranwendung, die Leute massenweise zum Aufrüsten bewogen hat.
LovesuckZ
2010-01-04, 15:34:57
Du verstauschst da aber ganz gewaltig was.
Der PUNKT ist doch der, das AMD/ATi, egal wieviel später diese kamen, sich preislich dem Markt angepasst und im Endeffekt Preis Leistungstechnisch VOR nVidia lagen.
Das ist wieder diese Logik, die fehlt. Der rv770 kam 19 Monate nach der 8800GTX und war 30% schneller. Nach deiner Logik, hätte es eine Enttäuschung sein müssen. Wer denkt, dass GF100 bei 15% Mehrleistung und 6 Monate später eine Enttäuschung sein würde, der müsste einiges negatives über den rv770 zu reden haben.
Der Preis lässt sich anpassen - das zeigte sehr eindrucksvoll nVidia mit dem GT200. Abgesehen davon lagen sie nicht Preis/Leistungstechnisch vor nVidia, da Leistung nicht nur das ist, was AMD anbietet.
Der Rest ist das typische einseitige pro AMD Gefasel, spare ich mir zu kommentieren.
Ailuros
2010-01-04, 15:43:00
Das ist wieder diese Logik, die fehlt. Der rv770 kam 19 Monate nach der 8800GTX und war 30% schneller. Nach deiner Logik, hätte es eine Enttäuschung sein müssen. Wer denkt, dass GF100 bei 15% Mehrleistung und 6 Monate später eine Enttäuschung sein würde, der müsste einiges negatives über den rv770 zu reden haben.
Der Preis lässt sich anpassen - das zeigte sehr eindrucksvoll nVidia mit dem GT200. Abgesehen davon lagen sie nicht Preis/Leistungstechnisch vor nVidia, da Leistung nicht nur das ist, was AMD anbietet.
Der Rest ist das typische einseitige pro AMD Gefasel, spare ich mir zu kommentieren.
Der Quark nuetzt mir aber auch nichts aus reiner Verbraucher-Perspektive. Mit einer 8800GTX kaufte ich mir damals etwas dass um einen sehr gesunden Happen schneller war als eine G70 und das mit einer neuen Technologie-Generation. Und die erste war garantiert nicht nur um 50-60% schneller als die zweite.
AnarchX
2010-01-04, 15:45:10
Das ist wieder diese Logik, die fehlt. Der rv770 kam 19 Monate nach der 8800GTX und war 30% schneller. Nach deiner Logik, hätte es eine Enttäuschung sein müssen. Wer denkt, dass GF100 bei 15% Mehrleistung und 6 Monate später eine Enttäuschung sein würde, der müsste einiges negatives über den rv770 zu reden haben.
Nur war RV770 mit 260mm² und 256-Bit GDDR5 ein effizientes Gesamtpaket, was zu einem sehr günstigen Preis angeboten wurde.
Wenn NV nun nach 41 Monaten eher evolutionären Produkten, aus ~50% mehr Transistoren und einem 50% breiteren SI wirklich nur 15% Leistung holt gegenüber AMD, wäre das doch schon mehr als enttäuschend.
OgrEGT
2010-01-04, 15:52:01
Ohne den Wert absolut zu kennen, wird es für den Verkaufspreis der GF 3xx GTX eine Grenze geben, ab der kein Gewinn mehr erwirtschaftet werden kann.
AMD wird sicherlich durch Preissenkungen der HD 5xxx Serie nach Erscheinen der GTX 3xx versuchen dessen Preis unter diese Grenze zu drücken, um das eigene Preis/Leistungsverhältnis im Vergleich weiter zu steigern.
Auschlaggebend für ein solches Gelingen wird das Preis/Leistungsverhältnis der GTX 3xx sein, welches durch die erzielte Leistung (darüber spekulieren wir gerade noch) und den erhöhten Fertigungskosten (im Wesentlichen durch die geringe Ausbeute bestimmt) bedingt wird.
Es belibt uns allen zu hoffen, dass die GTX 3xx eine entsprechend höhere Leistung / Mehrwertfeatures besitzt im Vergleich zur HD 5xxx, damit wieder ordentlicher Wettbewerb möglich ist, mit den für uns Kunden bekannten Vorteilen.
LovesuckZ
2010-01-04, 15:54:39
Nur war RV770 mit 260mm² und 256-Bit GDDR5 ein effizientes Gesamtpaket, was zu einem sehr günstigen Preis angeboten wurde.
Zwischen G80 und rv770 lag 80nm, 65nm und 55nm. RV770 hat 46% mehr Transistoren und verbraucht mit 512mb genauso viel Strom beim IDLEN wie unter Last. Die Leistung liegt bei ca. 30%, dabei unterstützt man kein HQ-AF und SSAA. Man bot mit 10.1 etwas an, dass selbst heute sich nicht durchgesetzt hat. Dagegen stellte nVidia PhysX und man bekam mit 3D Vision ein weiteres Goddie.
Nach 19 Monate kann man erwarten, dass die Konkurrenz einen so alten High-End Chip deutlich distanziert. Das war hier nicht gegeben. Also sollten einige mal nachdenken, wie man solch einen Chip feiern kann und gleichzeitig behaupten, GF100 wäre eine Enttäuschung, wenn es nur 15% schneller wäre.
Wenn NV nun nach 41 Monaten eher evolutionären Produkten, aus ~50% mehr Transistoren und einem 50% breiteren SI wirklich nur 15% Leistung holt gegenüber AMD, wäre das doch schon mehr als enttäuschend.
Das spielt für den Konsumenten keine Rolle, wenn GF100 ähnlich teuer ist wie Cypress. Von Ideologie kann man sich keine Leistung kaufen. ;)
Ailuros
2010-01-04, 15:58:28
LS,
Klingt fast schon so als ob Du Dich psychologisch vor einer moeglichen Enttaeuschung schuetzen willst. Wenn Du aber nicht willst dass es als solches rueberkommt, wuerde ich den bisherigen Optimismus nicht so leicht einstampfen.
LovesuckZ
2010-01-04, 16:10:42
LS,
Klingt fast schon so als ob Du Dich psychologisch vor einer moeglichen Enttaeuschung schuetzen willst. Wenn Du aber nicht willst dass es als solches rueberkommt, wuerde ich den bisherigen Optimismus nicht so leicht einstampfen.
Nein, denn ich habe schon letztes Jahr nicht verstanden, wie der rv770 wie der Messiah gefeiert wurde bei der geringen Mehrleistung gegenüber der 8800GTX. Denn rv770 bot nichts, aber auch rein garnichts weltbewegendes. rv770 war in Ordnung, aber mehr nicht.
Wer beim Launch vom GF100 aufrüstet, der wird GF100 nicht als Entäuschung ansehen, wenn er den Aufpreis für eine eventuell eintreffende 15% Mehrleistung als gerechtfertigt empfindet.
Diese Logik, dass GF100 bei 15% Mehrleistung nach 6 Monaten eine Enttäuschung wäre, ist in angesichts der sehr langsamen Entwicklung seit November 2006 schon sehr amüsant.
Ohne den Wert absolut zu kennen, wird es für den Verkaufspreis der GF 3xx GTX eine Grenze geben, ab der kein Gewinn mehr erwirtschaftet werden kann.
Diese Grenze liegt auf ungefährem GTX260/GTX275 Niveau - also 130-175€.
AnarchX
2010-01-04, 16:18:56
Diese Grenze liegt auf ungefährem GTX260/GTX275 Niveau - also 130-175€.
Dazu müssten die Kosten eines ~550mm² GF100 @ 40nm vergleichbar sein zum 490mm² G200b @55nm, was sie wohl kaum sein werden.
LovesuckZ
2010-01-04, 16:22:02
Dazu müssten die Kosten eines ~550mm² GF100 @ 40nm vergleichbar sein zum 490mm² G200b @55nm, was sie wohl kaum sein werden.
Sie werden ihre Lektion aus dem GT200 Debakel gelernt haben. Ich gehe davon aus, dass sie von Anfang auf einen Preiskampf mit AMD eingestellt sind. Dazu passt auch, dass sie deutlich eher Customs-Designs der AIBs zulassen wollen.
Ich sehe also kein Problem für sie, wieder den selben Preisspaß mitzumachen.
Ich wette fast schon, dass AMD ihnen diesmal nicht so aggressiv entgegen springt. Haben doch die letzten zwei Jahre gezeigt, dass nVidia mitgeht. Eher weniger auf hohem Preisniveau verkaufen, als wenig auf niedrigem.
desert
2010-01-04, 16:31:06
Zwischen G80 und rv770 lag 80nm, 65nm und 55nm. RV770 hat 46% mehr Transistoren und verbraucht mit 512mb genauso viel Strom beim IDLEN wie unter Last. Die Leistung liegt bei ca. 30%, dabei unterstützt man kein HQ-AF und SSAA. Man bot mit 10.1 etwas an, dass selbst heute sich nicht durchgesetzt hat. Dagegen stellte nVidia PhysX und man bekam mit 3D Vision ein weiteres Goddie.
Nach 19 Monate kann man erwarten, dass die Konkurrenz einen so alten High-End Chip deutlich distanziert. Das war hier nicht gegeben. Also sollten einige mal nachdenken, wie man solch einen Chip feiern kann und gleichzeitig behaupten, GF100 wäre eine Enttäuschung, wenn es nur 15% schneller wäre.
Das spielt für den Konsumenten keine Rolle, wenn GF100 ähnlich teuer ist wie Cypress. Von Ideologie kann man sich keine Leistung kaufen. ;)
Also wenn fermi nur 15 % schneller als cypress wäre, dann wäre es allerdings einen riesen entäuschung. Fermi sollte schon deutlich schneller als ein 5870 sein um nicht als flop dazustehen.
noch gibt es keine spiele die mich zum aufrüsten zwingen würden. So kann ich erst mal abwarten was passiert.
OgrEGT
2010-01-04, 16:31:07
Diese Grenze liegt auf ungefährem GTX260/GTX275 Niveau - also 130-175€.
Erscheint mir zu wenig. Das mag bei GTX 260 / 275 stimmen, da die prozesse entsprechend optimiert und gute Ausbeuten erzielt werden.
Hier z.B.
http://www.anandtech.com/video/showdoc.aspx?i=3334
steht, dass ca. 94 GT200 GPUs (570mm2) auf einen 300mm Wafer passen.
Fermi wird in etwa die gleiche Größe haben, also werden ebenfalls ca. 94 GPUs auf einen 300mm Wafer passen.
D.h. bei 30 % Ausbeute und Wafer preis von ca. 5000$ würde ein funktionsfähiger Chip ca. 5000$ / (94*0.3) = 177$ kosten.
LovesuckZ
2010-01-04, 16:38:47
Erscheint mir zu wenig. Das mag bei GTX 260 / 275 stimmen, da die prozesse entsprechend optimiert und gute Ausbeuten erzielt werden.
Hier z.B.
http://www.anandtech.com/video/showdoc.aspx?i=3334
steht, dass ca. 94 GT200 GPUs (570mm2) auf einen 300mm Wafer passen.
Fermi wird in etwa die gleiche Größe haben, also werden ebenfalls ca. 94 GPUs auf einen 300mm Wafer passen.
D.h. bei 30 % Ausbeute und Wafer preis von ca. 5000$ würde ein funktionsfähiger Chip ca. 5000$ / (94*0.3) = 177$ kosten.
AMD hat die selben Probleme: Schlechterer Prozeß und größerer Die -> geringere Ausbeute als rv770. Sie können ebenfalls nicht den selben Preis für die selbe Marge nehmen wie 2008. Also alles kein Problem.
Ansonsten sind das alles schöne theoretische Werte, die jedoch keinen Wert besitzen, da man die Verträge zwischen nVidia und TSMC nicht kennt.
Man sollte einfach sich darum keine Gedanken machen. :)
Also wenn fermi nur 15 % schneller als cypress wäre, dann wäre es allerdings einen riesen entäuschung. Fermi sollte schon deutlich schneller als ein 5870 sein um nicht als flop dazustehen.
noch gibt es keine spiele die mich zum aufrüsten zwingen würden. So kann ich erst mal abwarten was passiert.
Siehe meine Erklärung oben: 15% nach 6 Monaten sind besser als 30% nach 19 Monaten. ;)
mapel110
2010-01-04, 16:39:17
Man geht aber nicht mit 30% Ausbeute in Massenfertigung. Eher mit 60 und mehr.
AnarchX
2010-01-04, 16:41:23
Sie werden ihre Lektion aus dem GT200 Debakel gelernt haben. Ich gehe davon aus, dass sie von Anfang auf einen Preiskampf mit AMD eingestellt sind. Dazu passt auch, dass sie deutlich eher Customs-Designs der AIBs zulassen wollen.
Ein billiges PCB nützt aber nichts, wenn man einen Die hat, der wohl schon fast so teuer ist, wie die von dir vorgeschlagenen Preise.
Wenn man von aktuellen <40% Yields ausgeht, dann wäre man mit A3 wohl schon mit den ~60% Yields eines G200A zufrieden.
Ich sehe also kein Problem für sie, wieder den selben Preisspaß mitzumachen.
Ich wette fast schon, dass AMD ihnen diesmal nicht so aggressiv entgegen springt. Haben doch die letzten zwei Jahre gezeigt, dass nVidia mitgeht. Eher weniger auf hohem Preisniveau verkaufen, als wenig auf niedrigem.
Im Gegensatz zu den letzen 2 Jahren kann AMD wohl bis GF100 überhaupt erst erscheint schon 500k HD 5800 zu vernünftigen Preisen absetzen, sodass ihnen eine Preissenkung im März wohl weniger wehtun sollte, als Nvidia, die in unserem momentanen Worst-Case-Szenario minimal mehr Leistung bei deutlich höherer BOM mitziehen müssten.
OgrEGT
2010-01-04, 16:42:08
Man geht aber nicht mit 30% Ausbeute in Massenfertigung. Eher mit 60 und mehr.
Heißt das, dass RV870 bei bereits 60% Ausbeute ist ? :eek:
Sie werden ihre Lektion aus dem GT200 Debakel gelernt haben. Ich gehe davon aus, dass sie von Anfang auf einen Preiskampf mit AMD eingestellt sind. Dazu passt auch, dass sie deutlich eher Customs-Designs der AIBs zulassen wollen.
Ich sehe also kein Problem für sie, wieder den selben Preisspaß mitzumachen.
Ich wette fast schon, dass AMD ihnen diesmal nicht so aggressiv entgegen springt. Haben doch die letzten zwei Jahre gezeigt, dass nVidia mitgeht. Eher weniger auf hohem Preisniveau verkaufen, als wenig auf niedrigem.
"Sie werden ihre Lektion aus dem GT200 Debakel gelernt haben"
"Der Preis lässt sich anpassen - das zeigte sehr eindrucksvoll nVidia mit dem GT200"
???
mapel110
2010-01-04, 16:49:39
Heißt das, dass RV870 bei bereits 60% Ausbeute ist ? :eek:
Am Anfang war die Ausbeute wohl zeitweise so gut, dass man dachte, diese schnell zu erreichen. Daraus wurde aber allem Anschein nach nichts.
Hayab
2010-01-04, 16:51:25
Ich will jetzt nicht anfangen was die Fermi kann oder nicht, oder die xy proc. schneller ist als die 5870. Die wird schneller, das ist der lauf der Zeit.
Viel interessanter ist die Frage: Wann wollte wirklich nVidia die Fermin auf dem Markt bringen?
Dez 09, Jan 10 war schon vor Monaten unrealistisch. Haben die wirklich Probleme mit der Fertigung oder war es so alles geplant, zumindest in dem Plan B? Was denkt ihr?
OgrEGT
2010-01-04, 16:54:24
GF100 RV870
----------------------------------------------------------
Die-size [mm2] 550 334
#/300mm2 Wafer 97 (*) 177 (*)
Ausbeute [%] 30 30
Kosten/Wafer [$] 5000 5000
----------------------------------------------------------
Kosten/Chip [$] 172 94
----------------------------------------------------------
(*): http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html
Sie werden ihre Lektion aus dem GT200 Debakel gelernt haben. Ich gehe davon aus, dass sie von Anfang auf einen Preiskampf mit AMD eingestellt sind. Dazu passt auch, dass sie deutlich eher Customs-Designs der AIBs zulassen wollen.
Ich sehe also kein Problem für sie, wieder den selben Preisspaß mitzumachen.
Ich wette fast schon, dass AMD ihnen diesmal nicht so aggressiv entgegen springt. Haben doch die letzten zwei Jahre gezeigt, dass nVidia mitgeht. Eher weniger auf hohem Preisniveau verkaufen, als wenig auf niedrigem.
ATi weiß doch so oder so, dass sie den Cypress günstiger produzieren können - sobald das Angebot beider Chips die Nachfrage übersteigt wäre es aus Ati Sicht doch dumm den Preis nicht soweit zu senken bis es nvidia richtig weh tut...
GF100 RV870
----------------------------------------------------------
Die-size [mm2] 550 334
#/300mm2 Wafer 97 (*) 177 (*)
Ausbeute [%] 30 30
Kosten/Wafer [$] 5000 5000
----------------------------------------------------------
Kosten/Chip [$] 172 94
----------------------------------------------------------
(*): http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html
also heisst das, das Fermi auf jedenfall das doppelte kosten wird?
AnarchX
2010-01-04, 17:05:38
also heisst das, das Fermi auf jedenfall das doppelte kosten wird?
Da kommt es noch darauf an, welche Preise man mit TSMC genau verhandelt hat und wie hoch das Yield eines teildeaktiven GF100 ist, der sich mit der HD 5870 messen könnte.
Gestrandet
2010-01-04, 17:14:54
GF100 RV870
Ausbeute [%] 30 30
Macht das so Sinn? IIRC sinkt die Ausbeute mit wachsender Diegröße.
Macht das so Sinn? IIRC sinkt die Ausbeute mit wachsender Diegröße.
das ist eine beispiel rechnung für gleiche yield (30%) die zeigt, dass bei dieser yield der fermi fast doppelt so teuer ist.
OgrEGT
2010-01-04, 17:18:33
also heisst das, das Fermi auf jedenfall das doppelte kosten wird?
Die fertige Karte wohl nicht, da mann dann auch das Doppelte der Leistung/Features bieten müsste. Zum reinen Chippreis gesellen sich dann noch die Kosten der restlichen Bauteile der Karte, Personalkosten, Investitionskosten, Gewinnspanne etc.
OgrEGT
2010-01-04, 17:19:22
das ist eine beispiel rechnung für gleiche yield (30%) die zeigt, dass bei dieser yield der fermi fast doppelt so teuer ist.
exakt.
Mindestens ebenso wichtig wie die Performance ist für mich die Lautstärke, und damit meine ich nicht den Lüfter, sondern das Spulenpfeiffen. Meine GTX285 hab ich deswegen gegen eine 260 getauscht.
pXe
Ailuros
2010-01-04, 17:21:09
exakt.
Immer noch eine nutzlose Rechnung eben weil erstens die yields nicht gleich sind und man nicht weiss wie die jeweiligen Vertraege mit TSMC aussehen.
Gleiche Yield ist aber unrealistisch.
Ailuros
2010-01-04, 17:23:01
Gleiche Yield ist aber unrealistisch.
Sagte ich was anderes? Die Milchmaedchen-rechnung oben ist ebenso unrealistisch.
Gestrandet
2010-01-04, 17:24:16
das ist eine beispiel rechnung für gleiche yield (30%) die zeigt, dass bei dieser yield der fermi fast doppelt so teuer ist.
Da sie im selben Prozess mit derselben Defektdichte laufen, dürfte die Rechtnung etwas optimistisch sein, was das Verhältnis angeht. Das wollte ich damit sagen.
OgrEGT
2010-01-04, 17:28:21
Immer noch eine nutzlose Rechnung eben weil erstens die yields nicht gleich sind und man nicht weiss wie die jeweiligen Vertraege mit TSMC aussehen.
Klaro.
Ich vermute (spekuliere) dass die yields bei NV deutlich schlechter sind als bei AMD und dass die Konditionen bei beiden relativ vergleichbar sind.
Interessieren würde mich, wie weit AMD bei Erscheinen des GF100 den Preis senken muss, um diesen in den Bereich der Unrentabilität zu drücken.
According to our well informed industry sources, Nvidia will display Fermi GPUs at the upcoming CES in Las Vegas. This means we should be able to see it right on January 7th when the show starts.
The company won’t share all the information especially as after CES Nvidia wants to have its famous editor's days in Vegas and show them the power of Fermi. Since this is an NDA event, this is not something we will be attending anytime soon, but most of our good friends will.
D.h. wir dürfen wohl mit ein paar Leaks rechnen...
All the delays definitely have casted a bad aura around this product and many people, especially the one whos love the power or ATI, now compare Fermi to NV30. So far, at least with all of the delays, they are not that much off.
So pessimistisch kennt man Fudzilla gar nicht :-(
(Quelle (http://www.fudzilla.com/content/view/17047/34/))
OgrEGT
2010-01-04, 17:32:07
Sagte ich was anderes? Die Milchmaedchen-rechnung oben ist ebenso unrealistisch.
Hab schon verstanden... Die Rechnung habe ich nur gemacht, um zu zeigen, dass man GF100 nicht wie GTX260 /275 für 130-175€ verscherbeln kann, so wie LS vorhin gemutmaßt hatte.
Gleiche Yield ist aber unrealistisch.
Es gibt auch noch Produktionsschritte danach die nicht von der Größe des Dies abhängen und nicht unwesentlich zu den Kosten beitragen.
Allen voran sind die Masken schweineteuer, aber auch Packaging kostet sicher etwas.
Tarkin
2010-01-04, 17:49:17
Die Serien waren enttäuschend, weil sie deutlich langsamer waren. Ansonsten müsste ein rv770 auch ziemlich enttäuschend gewesen sein, weil man knapp 19 Monate nach der 8800GTX gerade mal 30% Mehrleistung erreichte. :rolleyes: Und hier beschweren sich dann einige, weil GF100 auch nur 15% schneller sein könnte...
Wäre r600 schneller als die 8800GTX gewesen, niemand hätte den erhöhten Stromverbrauch als wirklichen Kritikpunkt genommen. Doch die schlechte Leistung und der dadurch ziemlich schlechte Verbrauch machten den Chip zu einer wahren Enttäuschung.
immer wieder lustig wie man sich ein 600 Euro Investment schönreden kann... eine 4870 war zwischen 40 ud 90% schneller als die 8800 GTX.
Aber was ist das schon... nur Details :rolleyes:
Wenn Fermi da ist, wird ein 15% Vorsprung so gefeiert, also hätte nVidia noch nie ein besseres, genialeres, schöneres Stück Hardware veröffentlicht und Fanboys wie du werden sich gleich drei Stück um 1800 Euro in die Kiste stecken. Prima, gratuliere. Und es hat nur 8 Monate gedauert. Grandiose Leistung von nVidia, muss man schon sagen... aber warten wir es ab. Sind ja nur noch 4 Monate :freak:
Burgard
2010-01-04, 18:34:04
Ich bin mal auf die Verfügbarkeit des Fermi gespannt.
Wird es das selbe Disaster wie bei der Radeon?
Nur so am Rande, ich warte immer noch auf meine 5850, die ich im September bzw. im Oktober bestellt habe.
(Jaja, ich weiss, es gibt ja welche, aber nicht zum offizellem Listenpreis.)
WIe gross wird die erste Marge bei NV sein?
Würde mich ja totlachen, wenn ich vorher eine 360 GTX in den Händen halten würde. :)
carcass
2010-01-04, 18:41:06
Ich bin auch am überlegen mir eine neue Grafikkarte zu holen und so wie es aussieht fällt die Wahl auf eine 5970, die einzige Sorge die ich zur Zeit habe ist das Fermin doch bald kommt, die Radeon platthaut und ich 500€ in Mikroruckler investiert habe. Immer das gleiche mit den Grafikkarten, will man ordentlich zocken zahlt man drauf ;D
Byteschlumpf
2010-01-04, 18:42:13
Vermutlich wird es Fermi-Karten mit breiter Verfügbarkeit erst im Herbst/Winter geben - wenn man sich an AMD/ATi orientiert.
Mit dem Angebot an GTX2xx Karten sieht es auch nicht mehr so rosig aus.
immer wieder lustig wie man sich ein 600 Euro Investment schönreden kann... [...]
Aber was ist das schon... nur Details :rolleyes:
Wenn Fermi da ist, wird ein 15% Vorsprung so gefeiert, also hätte nVidia noch nie ein besseres, genialeres, schöneres Stück Hardware veröffentlicht und Fanboys wie du werden sich gleich drei Stück um 1800 Euro in die Kiste stecken. Prima, gratuliere. Und es hat nur 8 Monate gedauert. Grandiose Leistung von nVidia, muss man schon sagen... aber warten wir es ab. Sind ja nur noch 4 Monate :freak:
Lieber Tarkin. Kannst du mir erklären, was dein Post zum Thema dieses Threads beiträgt?
y33H@
2010-01-04, 18:46:34
[QUOTE=Tarkin]eine 4870 war zwischen 40 ud 90% schneller als die 8800 GTX./QUOTE]Mit cherry picking aka in der Praxis sinnlosem 8x MSAA erreicht man in 1-2 Spielen 80%, ja.
Ich bin mal auf die Verfügbarkeit des Fermi gespannt.
Wird es das selbe Disaster wie bei der Radeon?
Nur so am Rande, ich warte immer noch auf meine 5850, die ich im September bzw. im Oktober bestellt habe.
(Jaja, ich weiss, es gibt ja welche, aber nicht zum offizellem Listenpreis.)
WIe gross wird die erste Marge bei NV sein?
Würde mich ja totlachen, wenn ich vorher eine 360 GTX in den Händen halten würde. :)
Und für die 50 Euro Preisunterschied wartest du noch länger?! Vielleicht sogar auf eine GTX360 in drei weiteren Monaten? NeNeNe!
Dural
2010-01-04, 18:49:11
es hängt eh alles an der 40nm fertigung ab... A3 kam ja nur wegen der schlechten ausbeute / bei A3 wurde nur an dem gearbeitet und sonst nichts...
vieleicht werden wir im 2H 2010 noch ein A4 oder sogar Bx Fermi sehen (wie schon beim G80 mit A3 und GT200 mit B3) der auf etwas takt hin optimiert wurde und der 40nm prozess besser läuft...
LovesuckZ
2010-01-04, 18:50:50
Mit cherry picking aka in der Praxis sinnlosem 8x MSAA erreicht man in 1-2 Spielen 80%, ja.
Die 8800GTX wäre beim selben Maßstab auch unendlich viel schneller gewesen, da der rv770 keine ähnliche HQ Einstellung ermöglicht. :rolleyes:
Aber das Posting wurde schon als Flame gemeldet. Mehr ist es auch nicht.
GF100 RV870
----------------------------------------------------------
Die-size [mm2] 550 334
#/300mm2 Wafer 97 (*) 177 (*)
Ausbeute [%] 30 30
Kosten/Wafer [$] 5000 5000
----------------------------------------------------------
Kosten/Chip [$] 172 94
----------------------------------------------------------
(*): http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html
Jetzt rechne das ganze mal auf 55nm mit einmal 484mm^2 und einmal 260mm^2. ;)
/edit: Und dann nicht vergessen, dass GT200 auf 65nm immerhin 584mm^2 groß war.
Der Waferpreis darf ruhig noch nach oben und die Yield ist Blödsinn, mit der Yield wird Nvidia nicht in Produktion gehen.
Sonst wär Fermi schon seit Oktober auf dem Markt.
Tarkin
2010-01-04, 19:46:31
[QUOTE=Tarkin]eine 4870 war zwischen 40 ud 90% schneller als die 8800 GTX./QUOTE]Mit cherry picking aka in der Praxis sinnlosem 8x MSAA erreicht man in 1-2 Spielen 80%, ja.
WAS STEHT DA? Hm? Wie wärs mit richtig Lesen lernen? :mad: Ich sagte 40 bis 80%
Meine Aussage ist korrekt.
Nicht so wie Fanboys a la Lovesux ... die der rv770 - Zitat - "geringe" oder nur "30%" Vorsprung gegenüber einer 8800GTX andichten wollen. Das nenne ich Relasitätsverlust!
OgrEGT
2010-01-04, 19:51:18
Jetzt rechne das ganze mal auf 55nm mit einmal 484mm^2 und einmal 260mm^2. ;)
/edit: Und dann nicht vergessen, dass GT200 auf 65nm immerhin 584mm^2 groß war.
Die Strukturbreite tut nix zur Sache, allein die Die-Fläche und die Wafer Fläche. Es ging nur darum zu zeigen, wieviel Chips auf einen 300mm Wafer passen, und wieviel einer davon bei dem spekulierten yield von 30% kosten würde. Meines Wissens nach habe ich bisher noch nichts von höheren yields bei Fermi gehört. Vielleicht ist man noch immer signifikant von 60% entfernt, was die zeitliche Verspätung erklären würde. Wenn man sehr kühn spekuliert, ist vielleicht ein solch großer Chip mit dem 40nm Prozess von TSMC überhaupt nicht wirtschaftlich seriös bei den angepeilten Taktraten zu produzieren.
Tarkin
2010-01-04, 19:53:03
Lieber Tarkin. Kannst du mir erklären, was dein Post zum Thema dieses Threads beiträgt?
Ich habe lediglich versucht eine unkorrekte Aussage richtig zu stellen. Was dagegen?
LovesuckZ
2010-01-04, 20:06:57
Die Strukturbreite tut nix zur Sache, allein die Die-Fläche und die Wafer Fläche. Es ging nur darum zu zeigen, wieviel Chips auf einen 300mm Wafer passen, und wieviel einer davon bei dem spekulierten yield von 30% kosten würde. Meines Wissens nach habe ich bisher noch nichts von höheren yields bei Fermi gehört. Vielleicht ist man noch immer signifikant von 60% entfernt, was die zeitliche Verspätung erklären würde. Wenn man sehr kühn spekuliert, ist vielleicht ein solch großer Chip mit dem 40nm Prozess von TSMC überhaupt nicht wirtschaftlich seriös bei den angepeilten Taktraten zu produzieren.
Das weiß ich. Das problem ist - es ist unsinnig. Wenn die Yields unter 50,60% sind, dann wird niemand pro Wafer bezahlen. Das war schon früher so und das ist heute immer noch so.
Zweitens hast du keine Ahnung, wie die Verträge aussehen. Bei solchen riesigen Partner wie nVidia und AMD, werden die Verträge speziell ausgerichtet und abgestimmt.
Und drittens kann AMD nicht, selbst wenn sie wollten, den Preis soweit senken, dass nVidia nichts mehr verdient. Sie wollen immernoch andere Chips verkaufen.
Es ist langweilig dauernd zu wiederholen, dass diese Diskussion nichts bringt, da niemand weiß, wie teuer der Wafer sind, wie gut die Yields sind und wie die Bezahlung aussieht.
Tarkin
2010-01-04, 20:12:15
Die 8800GTX wäre beim selben Maßstab auch unendlich viel schneller gewesen, da der rv770 keine ähnliche HQ Einstellung ermöglicht. :rolleyes:
Aber das Posting wurde schon als Flame gemeldet. Mehr ist es auch nicht.
du kannst es echt nicht verkraften dass, RV770 bei einem 50% kleineren Die gut 90% der Leistung eines G200 brachte, oder? Mit dem rv770 hat ATi/AMD vieles richtig gemacht - im Gegensatz zu nvidia mit G200. Akzeptier das endlich ... ständiges Herunterspielen der Leistung des rv770 ändert nichts daran.
Und beim rv870 vs G100 wirds ähnlich kommen... du kannst dich schon mal seelisch drauf einstellen. Du kannst auch gerne diesen Posting speichern und mir dann um die Ohren knallen wenn dich das glücklich macht.
Meine Einschätzung lautet: G100 = +10 bis 15% zu Cypress (im Mittel)
Der Grundtenor der Reviews wird lauten: Too little, too late. Better luck next time.
LovesuckZ
2010-01-04, 20:14:57
du kannst es echt nicht verkraften dass, RV770 bei einem 50% kleineren Die gut 90% der Leistung eines G200 brachte, oder? Mit dem rv770 hat ATi/AMD vieles richtig gemacht - im Gegensatz zu nvidia mit G200. Akzeptier das endlich .. du machst dich ja nur lächerlich wenn du ständig die Leistung des rv770 herunterspielst.
Und beim rv870 vs G100 wirds ähnlich kommen... du kannst dich schon mal seelisch drauf einstellen. Du kannst auch gerne diesen Posting speichern und mir dann um die Ohren knallen wenn dich das glücklich macht.
Meine Einschätzung lautet: G100 = +10 bis 15% zu Cypress (im Mittel)
Was los, lande ich nicht mehr auf deiner Ignore-Liste?
Wo ist die Moderation? Hier wird wohl jemand online sein, der diesen Flamer bestraft. Immerhin wurde das angekündigt! (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7751102&postcount=7740)
OgrEGT
2010-01-04, 20:20:25
Das weiß ich. Das problem ist - es ist unsinnig. Wenn die Yields unter 50,60% sind, dann wird niemand pro Wafer bezahlen. Das war schon früher so und das ist heute immer noch so.
Das mag sein, ein Verlustgeschäft wird TSMC aber auch nicht machen. Ein unbelichteter Wafer hat nun mal seinen Preis.
Zweitens hast du keine Ahnung, wie die Verträge aussehen. Bei solchen riesigen Partner wie nVidia und AMD, werden die Verträge speziell ausgerichtet und abgestimmt.
Denke ich auch. In der Tendenz wird es aber sicherlich so sein, dass ein funktionierender GF100 Chip erheblich mehr kosten wird als ein RV870.
Und drittens kann AMD nicht, selbst wenn sie wollten, den Preis soweit senken, dass nVidia nichts mehr verdient. Sie wollen immernoch andere Chips verkaufen.
Glaube ich auch. Aber in ordentliche Bedrängnis wird man NV in jedem Fall bringen.
Es ist langweilig dauernd zu wiederholen, dass diese Diskussion nichts bringt, da niemand weiß, wie teuer der Wafer sind, wie gut die Yields sind und wie die Bezahlung aussieht.
Sorry, wollte Dich nicht langweilen. Immerhin sind wir im Spekulationsforum :)
LovesuckZ
2010-01-04, 20:25:40
Das mag sein, ein Verlustgeschäft wird TSMC aber auch nicht machen. Ein unbelichteter Wafer hat nun mal seinen Preis.
Sie machen kein Verlustgeschäft, ihre Margen sind geringer. Deswegen können sich Margen bei TSMC auch erhöhen beim selben Prozess. ;)
Denke ich auch. In der Tendenz wird es aber sicherlich so sein, dass ein funktionierender GF100 Chip erheblich mehr kosten wird als ein RV870.
Das widerspricht niemand.
Sorry, wollte Dich nicht langweilen. Immerhin sind wir im Spekulationsforum :)
Und selbst hier ist es ausgeluscht. Wir reden über Dinge, die niemand weiß. Fakt ist nur eins: nVidia wird in ihre Margen schneiden. Also werden sie GF100 preislich auf einem ähnlichen Niveau plazieren. Alles andere sind leere Spekulationshülsen. Mehr muss nicht gesagt werden. Ob sie was verdienen und wenn, wieviel, interessiert nur Aktienhalter.
Dural
2010-01-04, 20:34:30
du kannst es echt nicht verkraften dass, RV770 bei einem 50% kleineren Die gut 90% der Leistung eines G200 brachte, oder? Mit dem rv770 hat ATi/AMD vieles richtig gemacht - im Gegensatz zu nvidia mit G200. Akzeptier das endlich ... ständiges Herunterspielen der Leistung des rv770 ändert nichts daran.
Und beim rv870 vs G100 wirds ähnlich kommen... du kannst dich schon mal seelisch drauf einstellen. Du kannst auch gerne diesen Posting speichern und mir dann um die Ohren knallen wenn dich das glücklich macht.
Meine Einschätzung lautet: G100 = +10 bis 15% zu Cypress (im Mittel)
Der Grundtenor der Reviews wird lauten: Too little, too late. Better luck next time.
habs gespeichert ;)
Edit:
Ich nehme jetzt mal an Cypress in form der 5870 1GB was anderes gibt es ja nicht, nur als klarstellung?
Ihr konzentriert euch alle viel zu sehr auf die Spieleleistung!!! Es ist jawohl offensichlich, dass Nvidia hier mehr Wert auf CUDA und GPGPU gelegt hat als auf Spieleleistung, was meiner Meinung nach auch besser ist, Grund: wegen den Konsolen hängt die Spieleentwicklung meist an Crossplatformen und Spiele werden meistens auch billig von Konsolen auf den PC portiert. Nvidia zieht jetzt schon mit den Gt200 Karten ATI in verschiedensten Bereich davon, was Ati auch selbst zugegeben hat;)
Gestrandet
2010-01-04, 22:04:56
Ihr konzentriert euch alle viel zu sehr auf die Spieleleistung!!!
ZOMG!
Der Hinweis ist ungefähr so sinnvoll wie zu sagen, die Leute sollen beim Waschmaschinenkauf nicht nur auf die Waschleistung achten, sondern auch darauf was das für wundervolle Briefbeschwerer sind.
Ich geb doch keinen 400 Eier aus, um auf der Suche nach inexistenten Außerirdischen schneller nicht fündig zu werden. Ich will was für mein Geld, und das ist SPIELELEISTUNG!!!
Spieleleistung hat man bereits jetzt genug, mir ist das Gesamtpaket gewichtiger. Reifere Treiber, besserer Support, sehr gute Bildqualität ohne Kompromisse eingehn zu müssen, 3D Bluray,PhysX das alles sind wertvolle Dinge die mir vor Speed gehn.
Wenn die GTX380 nur 10-20% schneller als eine HD5870 wäre mit all den obrigen Vorteilen würde mir das völlig genügen.
Spieleleistung hat man bereits jetzt genug, mir ist das Gesamtpaket gewichtiger. Reifere Treiber, besserer Support, sehr gute Bildqualität ohne Kompromisse eingehn zu müssen, 3D Bluray,PhysX das alles sind wertvolle Dinge die mir vor Speed gehn.
Das zählt auch als Spieleleistung.
Auch wenn die Magazine dies nicht so aufzeigen.
Ich geb doch keinen 400 Eier aus, um auf der Suche nach inexistenten Außerirdischen schneller nicht fündig zu werden.
Man sieht, du hast scheinbar am PC noch nie was anderes als getan als gespielt und im 3DC Spekulationsforum gepostet?
Burgard
2010-01-04, 22:37:16
Spieleleistung hat man bereits jetzt genug, mir ist das Gesamtpaket gewichtiger. Reifere Treiber, besserer Support, sehr gute Bildqualität ohne Kompromisse eingehn zu müssen, 3D Bluray,PhysX das alles sind wertvolle Dinge die mir vor Speed gehn.
Wenn die GTX380 nur 10-20% schneller als eine HD5870 wäre mit all den obrigen Vorteilen würde mir das völlig genügen.
Hmmm?
Grafikleistung für die Grafikkarte nicht mehr wichtig, oder wie?
- Also PhysX ist eine Randerscheinung, die durch ComputeShader für alle DX11-Karten zur Verfügung steht, sobald es etabiert ist.
Spätestens in einem Jahr haben sich die Entwicker drauf eingeschossen.
- 3D Bluray bietet aber auch AMD, wird sogar auf der Messe presentiert.
- Reifere Treiber, naja, habe mit beiden bei Kundenrechnern Probleme. Da nehmen sie sich beide nix.
sehr gute Bildqualität ohne Kompromisse
Bitte erklären oder meinst du wegen der Speicherlimitierung (1GB)?
Alles in allem muss der Fermi ca. 30% schneller sein um sich von der Radeon abzusetzen.
Bitte erklären oder meinst du wegen der Speicherlimitierung (1GB)?
Ich nehme an er meint mit BQ: HQ AF, TSSAA, Kompatibilität, PhysX.
Gestrandet
2010-01-04, 22:49:23
Man sieht, du hast scheinbar am PC noch nie was anderes als getan als gespielt und im 3DC Spekulationsforum gepostet?
LOL
Amüsante These. Kommt direkt nach "PhysX ist die beste Erfindung seit geschnitten Brot und macht Spiele unglaublich realistisch".
Spieleleistung hat man bereits jetzt genug, mir ist das Gesamtpaket gewichtiger. Reifere Treiber, besserer Support, sehr gute Bildqualität ohne Kompromisse eingehn zu müssen, 3D Bluray,PhysX das alles sind wertvolle Dinge die mir vor Speed gehn.
Wenn die GTX380 nur 10-20% schneller als eine HD5870 wäre mit all den obrigen Vorteilen würde mir das völlig genügen.
ohne zu wissen wie teuer das teil im endeffekt wird, ist das eine reichlich sinnlose aussage. oder würdest du so ein ding kaufen wenns hausnummer 500+ euro kostet und/oder ein stromfressender heizkörper ist? KÜHL bleibt das ding nämlich garantiert nicht und BILLIG sicher auch nicht. und dazu muss ich kein hellseher sein um sowas vorauszusehen.
Die 25 passen nicht unbedingt zur Architektur
Wieso? Ich sehe keinen Grund der das verhindern sollte.
LOL
Amüsante These. Kommt direkt nach "PhysX ist die beste Erfindung seit geschnitten Brot und macht Spiele unglaublich realistisch".
Es gibt aber Games mit diesem feinen Extra, die Konkurrenz hat garnichts. Und deshalb ist es schlecht? Ich bin ganz froh das es dies gibt, selbst wenn nur 2 von 10 Games native Unterstützung erhalten.
Es gibt aber Games mit diesem feinen Extra, die Konkurrenz hat garnichts. Und deshalb ist es schlecht? Ich bin ganz froh das es dies gibt, selbst wenn nur 2 von 10 Games native Unterstützung erhalten.
feines extra? 3 spielenswerte spiele, sonst nur schrott. da fallen mir duzende beispiele ein, in denen coole und sogar spiel-relevante physikeffekte zu sehen sind und die nicht auf einen ihv beschränkt ist. da ist hardware-physx ne echte randerscheinung. das physx auch ohne hardwarebeschleunigung eine sehr gute physikengine und sehr gutes toolset ist, steht jedoch außer frage.
Ein Killerfeature ist es jedenfalls nicht, können wir uns darauf einigen?
Ob Killerfeature oder nicht dazwischen gibts auch noch was.
Weiter vorne wurde Cuda als sinnlos abgestempelt. Schade das diese Haltlosen Behauptungen stehen bleiben, während die entgegneten Worte gelöscht wurden.
Das Cuda einen Nutzen außerhalb der Alienforschung hat ist unbestreitbar. Auch wenn es die werten Herren mit selbiger gerne ins Lächerliche ziehen.
Ob man jetzt von Anwendungen zu hause argumentiert oder von anderen DC Projekten, im Grunde ist es gleich, der Nutzen ist vorhanden.
Knuddelbearli
2010-01-05, 00:50:21
Es gibt aber Games mit diesem feinen Extra, die Konkurrenz hat garnichts. Und deshalb ist es schlecht? Ich bin ganz froh das es dies gibt, selbst wenn nur 2 von 10 Games native Unterstützung erhalten.
DX 10.1 ? ;-)
Wollen wir wirklich Äpfel mit Birnen vergleichen?
Was kommt als nächsten HQAF vs D3D11?
DX 10.1 ? ;-)
Nvidia kann seit G8x schon vieles für 10.1...
Ein Killerfeature ist es jedenfalls nicht, können wir uns darauf einigen?
Richtig. Aber die vielen kleinen Extras machen das Besondere aus. Nice to have...
N0Thing
2010-01-05, 02:31:55
Richtig. Aber die vielen kleinen Extras machen das Besondere aus. Nice to have...
Nice to have auf jeden Fall, die Umsetzung ist aber schon ein wenig enttäuschend, wenn man schon bei einem älteren Spiel wie HL² teilweise glaubwürdigere und realistischere Physik sehen kann, wofür keine Grafikkarte notwendig ist. Und dabei frage ich mich immer auch direkt, wer für die Umsetzung der HW-PhysX-Effekte in Spielen verantwortlich ist. Die Programmierer von Nvidia, die in den Credits erwähnt werden, oder doch das Entwicklerstudio, daß aus den (vermutlich) vorhandenen Möglichkeiten nicht das Optimale heraus geholt hat. Oder liegt es vielleicht an dem Grundgerüst der aufgekauften Software von Agaia, die eine gute Umsetzung erschwert?
Sorry falls das in diesem Thread zu sehr OT ist.
Das kommt noch das PhysX sehr unrealistsich ist, wie du schon sagtest HL2 oder Crysis sind da schon ne ganze Ecke besser dran.
bei PhysX fliegen die Teile einfach in jede Himmelsrichtungen und IMMER gleich, muss man mal drauf achten die Steine oder Bretter fliegen imemr gleich weg egal bei welchem Spiel.
Bei den Stoff fetzen das selbe, egal ob UT3, Mirrors Edge oder Batman die Stoffe bewegen sich immer alle gleich, fallen nie ab und lassen immer nur ein begrenzete "Löcher Anzahl" zu aber die fetzen bleiben immer an seinem " Faden" hängen :ugly:
ich nutze selber PhysX und find es unbrauchbar, ist zwar lustig manchmal anzuschauen aber trotzdem unrealistische spielerei.
Gestrandet
2010-01-05, 02:59:41
PhysX ist das GLide des 21. Jahrhunderts. Uns so weit wie wir damals noch bei den Visuals davon entfernt waren, das Uncanny Valley zu betreten, so weit sind wir heute bei der Physik entfernt. Irgendwann wird es eine API geben für realitätsnahe Physiksimulation, aber das wird nicht PhysX sein, nach allem was man heute sagen kann.
Ich zitiere mal aus dem GLide-Artikel auf Wikipedia (http://de.wikipedia.org/wiki/Glide):
Die Schnittstelle konnte sich allerdings aufgrund der Beschränkung auf 3dfx-Hardware auf Dauer nicht durchsetzen
Völlig uninteressant was in Zukunft ist, wir leben im Hier und Jetzt und da kann man PhysX nur loben bzw. Nvidia die den Schritt gewagt haben den Kunden kostenlos ein Extra zu geben um mehr Effekte in Games zu bekommen.
Es ist ja nicht so als würden keine PhysX Games mehr kommen, das Gegenteil ist der Fall mit Gothic4 und Mafia2 stehn gleich zwei Highlights an.
Knuddelbearli
2010-01-05, 04:24:05
zumindest Gpothic 4 stimmt mal nit Aussage des Entwicklers
"Nein, muss man nicht. PhysX ist im Prinzip ja nur eine Physik Engine sprich Code Algorithmen die zur Berechnung von Physik dienen. Wenn man will, kann man diese Berechnungen auf Nvidia-Grafikkarten speziell optimieren, sodass ein Teil der Berechnung von der Grafikkarte gemacht wird. Das ist aber auch gängige Praxis bei der Grafik. Im Moment haben wir keine Einseitige Optimierung auf einen Hersteller hin geplant.”
wird also nur CPU Physikx
Und was macht das jetzt für einen Unterschied?
PhysX ist das GLide des 21. Jahrhunderts. Uns so weit wie wir damals noch bei den Visuals davon entfernt waren, das Uncanny Valley zu betreten, so weit sind wir heute bei der Physik entfernt. Irgendwann wird es eine API geben für realitätsnahe Physiksimulation, aber das wird nicht PhysX sein, nach allem was man heute sagen kann.
Ich zitiere mal aus dem GLide-Artikel auf Wikipedia (http://de.wikipedia.org/wiki/Glide):
Nein. PhysX ist eine Middleware und keine API. Es gibt schon zwei herstellerungabhängigen API-Standards für Physikberechnungen auf GPUs: OpenCL und D3D11.
PhysX ist auch nicht auf NVIDIA-Hardware zugeschnitten. Es wäre ohne weiteres möglich ein D3D11- oder OpenCL-Backend dafür zu entwickeln.
Der Vergleich mit Glide ist an den Haaren herbeigezogen. Glide ist so low level wie möglich gewesen, PhysX ist als Middleware das absolute Gegenteil. Da sieht man von der Hardware nichts mehr.
PhysX ist eigentlich am Markt so weit verbreitet (größtenteils ohne GPU-Einsatz), dass ich es für relativ unwahrscheinlich halte, dass NVIDIA es sterben lässt. Früher oder später wird man D3D11 oder OpenCL unterstützen müssen.
zumindest Gpothic 4 stimmt mal nit Aussage des Entwicklers
"Wenn man will, kann man diese Berechnungen auf Nvidia-Grafikkarten speziell optimieren, sodass ein Teil der Berechnung von der Grafikkarte gemacht wird. Das ist aber auch gängige Praxis bei der Grafik."
Ailuros
2010-01-05, 08:16:51
Klaro.
Ich vermute (spekuliere) dass die yields bei NV deutlich schlechter sind als bei AMD und dass die Konditionen bei beiden relativ vergleichbar sind.
Erstens weiss keiner wie die jeweiligen Vertraege mit TSMC genau aussehen; erst dann kannst Du Dich hinsetzen und die Kosten von jeglichem chip einschaetzen und dann kommt noch das schwierigere naemlich auszurechnen wieviele GPUs mit chips X in welchen Maerkten und mit welcher Anzahl genau verkauft wurden. Anders wieviele von diesen gehen in GeForce, Quadro oder Tesla und wie gross der Umsatz pro Sparte.
Heutzutage sind ja finanzielle Einzelheiten seitens NV seit der GT200 Erscheinung erhaeltlich und dabei war das perf/mm2 ratio noch besser fuer AMD fuer diese Zeiten.
Interessieren würde mich, wie weit AMD bei Erscheinen des GF100 den Preis senken muss, um diesen in den Bereich der Unrentabilität zu drücken.
AMD's yields sind zwar besser geworden, aber sie schwanken immer noch zu radikal damit man von einer quasi "stabilen" Herstellung reden kann. AMD wird mit Sicherheit alle Faktoren analysieren wenn sie die ersten zuverlaessigen GF100 Daten zur Hand haben und wird erst dann den Preis nach unten druecken wenn sie auch Herstellungstechnisch diesen Luxus haben. Anders ich wuerde erwarten dass z.B. die 5850 SKUs bei kommenden noch stabileren yields ihren Preiszusatz erst mal verlieren werden.
=Floi=
2010-01-05, 08:37:04
kannst du dazu etwas sagen, warum die yields so schwanken?
das kann ich mir jetzt nicht so logisch erklären. :rolleyes: ich dachte die qualität einen prozesses ist raltiv stabil.
Ailuros
2010-01-05, 08:43:09
kannst du dazu etwas sagen, warum die yields so schwanken?
Wenn TSMC wuesste woran es liegt haetten sie es auch schon vor einer Ewigkeit gefixt. Es gibt lediglich Meldungen dass die yields besser werden und man kann es auch so langsam bei AMD's leicht besserer Verfuegbarkeit sehen.
das kann ich mir jetzt nicht so logisch erklären. :rolleyes: ich dachte die qualität einen prozesses ist raltiv stabil.
Wenn ein Prozess nicht problematisch ist schon. Hast Du aber irgendwelche logische Indizien dass 40G wirklich so laeuft wie alle IHVs und vor allem TSMC es am liebsten haben moechten?
AnarchX
2010-01-05, 08:44:03
GF100 outperforms ATi's 5870 by 46% on average
GF100 outperforms ATi's 5970 by 8% on average
The GF100 gets 148 fps in DiRT2
The GF100 gets 73 fps in Crysis2
The GF100 gets 82 fps in AvP3
*GTX misnomers removed due to Business NDA*
GF100's maximum load temperature is 55 C.
The release week of GF100 is Mar 02nd
[...]
GF100 and GF104 feature full SLi capability and a new scaling method for rendering!
GF100 promises to deliver at least 40% more performance than the GTX295 for less money. GF104 promises double that.
http://www.guildwarsguru.com/forum/rahjas-freeeeeeee-t10420384.html
Fraglich wie glaubwürdig das sein soll, gerade wenn er später noch behauptet, dass das 2011er Iphone mit Tegra kommt und die Benchmarks mit 4xSSAA gemacht wurden sollen sein.
mapel110
2010-01-05, 08:55:39
Würd ich eindeutig als Spam deklarieren. ^^
_DrillSarge]I[
2010-01-05, 08:56:06
^^The GF100 gets 73 fps in Crysis2
GF100's maximum load temperature is 55 C.
:ulol: ;D;D;D
noch mehr fake geht auch nicht...
Ailuros
2010-01-05, 09:03:43
http://www.guildwarsguru.com/forum/rahjas-freeeeeeee-t10420384.html
Fraglich wie glaubwürdig das sein soll, gerade wenn er später noch behauptet, dass das 2011er Iphone mit Tegra kommt und die Benchmarks mit 4xSSAA gemacht wurden sollen sein.
Check your PM for ultraLOLs ;)
GF100's maximum load temperature is 55 C.
Hahahahahahaha :freak:
Apple ordered a few million Tegra2 units for the 2011 iPhone.
Nintendo ordered several million Tegra2 units for their next gen handheld (the DS2!)
ROFL :biggrin:
GF104 promises double that.
Ewwwww....sag mal AnarchX wie genau hast Du den Spinner nochmal ausgegraben? :D
=Floi=
2010-01-05, 09:11:48
das war bestimmt ein gastposting, das er in der nacht hier gelöscht hat ;D
problematisch bedeutet für mich jeder wafer hat massive fehler und nicht mal ein guter und 3 schlechte. So ist mir das absolut neu. das wäre schon ein thema, welches eigentlich einen eigenen thread verdient hätte. technisch arbeitet man wohl an der grenze mancher geräte und prozesse. wenn da vieles nur aufgerüstet wurde und nicht erneuert könnte es auch an so einer entscheidung liegen, warum der prozess so schlecht ist.
Wenn jeder Wafer ähnliche Fehler hätte, dann wäre es ja einfach.TSMC hatte (oder hat) wohl Wafer die liefern 6% funktionierende Chips und andere die liefern 60+%. Das ist ja das Fiese.
AnarchX
2010-01-05, 09:20:26
Ewwwww....sag mal AnarchX wie genau hast Du den Spinner nochmal ausgegraben? :D
Ausgegraben trifft es nicht so ganz, dass ist schon seit heute morgen über alle relevanten Foren verteilt.
svenw
2010-01-05, 09:26:05
Anscheinend hat TSMC irgendwelche Besonderheiten in ihrem Prozeß, denn AMD und Intel scheinen nicht solch massive Probleme mit dem 40er Prozeß zu haben.
Ailuros
2010-01-05, 09:27:18
das war bestimmt ein gastposting, das er in der nacht hier gelöscht hat ;D
http://www.guildwarsguru.com/forum/rahjas-freeeeeeee-t10420384.html
problematisch bedeutet für mich jeder wafer hat massive fehler und nicht mal ein guter und 3 schlechte. So ist mir das absolut neu. das wäre schon ein thema, welches eigentlich einen eigenen thread verdient hätte. technisch arbeitet man wohl an der grenze mancher geräte und prozesse. wenn da vieles nur aufgerüstet wurde und nicht erneuert könnte es auch an so einer entscheidung liegen, warum der prozess so schlecht ist.
Die yields schwanken nach wie vor pro wafer bei 40G afaik. Keiner der beiden IHVs wird oeffentlich aussagen wie seine yields pro chip X genau aussehen.
Im gegebenen Fall hat AMD zweifellos erstmal dank kleinerem Cypress die mehr chips/wafer dank kleinerer Komplexitaet und auch hoehere yields wieder dank kleinerer Komplexitaet.
Wenn man jetzt aber ausrechnen will welcher IHV was und wo gewinnt oder verliert an jeglichem chip, muss man entweder genaue Daten haben (die aber kein IHV veroeffentlichen wird; von yields, Einzelheiten ueber jeweilige Vertraege ueber Verkaufszahlen pro Sparte) oder man kommt zu einer nutzlosen Milchmaedchenrechnung und das ist der eigentliche Punkt hier.
Nichtdestominder bei so hohem Marktanteil der Quadro-GPUs kann ich mir die Muehe eventuell auch sparen, da es wohl offensichtlich ist dass jegliche hoehere Herstellungskosten bei den Wucherpreisen bei den die Quadros verkauft werden entbehrt werden. Es war kein Problem fuer NV bei 583 vs. 264mm2 (GT200 vs. RV770); wieso es jetzt bei hypothetisch =/<550mm2 vs. 334mm2 sein soll ist eine andere Frage.
Wenn jeder Wafer ähnliche Fehler hätte, dann wäre es ja einfach.TSMC hatte (oder hat) wohl Wafer die liefern 6% funktionierende Chips und andere die liefern 60+%. Das ist ja das Fiese.
Ich lass irgendwo in einem Forum von 30-70% fuer den neuesten AMD chips Stand, kann aber nicht wissen ob es stimmt.
Anscheinend hat TSMC irgendwelche Besonderheiten in ihrem Prozeß, denn AMD und Intel scheinen nicht solch massive Probleme mit dem 40er Prozeß zu haben.
AMD benutzt fuer ihre Evergreen's ebenso 40G@TSMC. Intel benutzt ihren eigenen 45nm und nicht 40nm Prozess.
Henroldus
2010-01-05, 10:20:55
Anscheinend hat TSMC irgendwelche Besonderheiten in ihrem Prozeß, denn AMD und Intel scheinen nicht solch massive Probleme mit dem 40er Prozeß zu haben.
AMD(45) und Intel(45/32) haben keinen 40er Prozess.
Zudem sind die CPUs deutlich kleiner mit weniger Logik als große GPU Dies
from Beyond3D:
silent_guy:
The best you can do is speculate about the general likelihood about the nature of a metal spin. My personal take on this is clear: At least 95% of all fixes are pure functional bugs. A very generous 4% are timing related. 1% are yield. (On all the chips I've worked on, I know of only 1 metal ECO, out of thousands, that was yield related.) And that's really the best you can do. Yet reading the comments here, it's all about getting clocks up by some fantastic amount or doing magic tricks with yield. Some even persist in claiming that you can reduce leakage this way. All with a metal spin... Go figure.
aaronspink:
Yep, metals spins are almost ALWAYS functional. Either you can do slight rewires to existing logic or add small additions to the logic with available bonus gates. The later certainly is not positive as far as timing goes. If you are fixing anything physical related you're effectively trying to shut the barn doors after the horses have left, that SHOULD be taken care of in pre-silicon. Leakage is pretty much a transistor level issue as well.
The only other thing you really fix with a metal fix are things like ROMs though any sane design with ROMs has limited patch capability anyways.
You aren't going to get better timing, you aren't going to to reduce leakage, and unless you are totally fubar in your DRC (which means you have basically failed), you aren't going to improve yield.
Ergebnis:
- A3 war zu 95% notwendig um Bugs zu beseitigen.
- Es besteht die Chance, das A3 langsamer ist als A2
- A3 ist sehr wahrscheinlich nicht schneller als A2 (96%ig)
- A3 hatte nicht das Ziel den Yield zu verbessern (99%ig)
Mal sehen!
Link: http://forum.beyond3d.com/showthread.php?t=55289&page=120
Dural
2010-01-05, 14:21:00
wieso sollte ein neues stepping plötzlich schneller oder langsamer als das alte sein? :rolleyes: kenne keine GPU wo dies mal der fall war, jedenfalls nicht im messbaren FPS bereich, du?
PhysX ist das GLide des 21. Jahrhunderts. Uns so weit wie wir damals noch bei den Visuals davon entfernt waren, das Uncanny Valley zu betreten, so weit sind wir heute bei der Physik entfernt. Irgendwann wird es eine API geben für realitätsnahe Physiksimulation, aber das wird nicht PhysX sein, nach allem was man heute sagen kann.
Ich zitiere mal aus dem GLide-Artikel auf Wikipedia (http://de.wikipedia.org/wiki/Glide):
das dumme ist nur das PhysX eben gerade nicht auf eine bestimmte Hardware beschränkt ist, es ist sogar die "Engine" mit der grössten kompatibilität die es derzeit überhaupt gibt!!!
also noch mal die schulbank drücken OK?
Völlig uninteressant was in Zukunft ist, wir leben im Hier und Jetzt und da kann man PhysX nur loben bzw. Nvidia die den Schritt gewagt haben den Kunden kostenlos ein Extra zu geben um mehr Effekte in Games zu bekommen.
Es ist ja nicht so als würden keine PhysX Games mehr kommen, das Gegenteil ist der Fall mit Gothic4 und Mafia2 stehn gleich zwei Highlights an.
jep ist so
Gestrandet
2010-01-05, 15:00:58
Der Vergleich mit Glide ist an den Haaren herbeigezogen. Glide ist so low level wie möglich gewesen, PhysX ist als Middleware das absolute Gegenteil. Da sieht man von der Hardware nichts mehr.
Der Vergleich mit Glide passt 100%, nicht auf der technischen Ebene, die natürlich gar nicht gemeint war (und es fällt mir schwer zu glauben, dass das man das tatsächlich unabsichtlich so missverstehen kann), sondern auf der politischen. Beides sind Werkzeuge um Software auf einer bestimmten Hardware exklusiv zu machen mit dem Endziel der Monopolisierung. Und aus diesem Grund wird PhysX auch scheitern. Die meisten Leute, die heute Hardware eines bestimmten Herstellers kaufen, wollen sich damit nicht für alle Zeit an diesen binden.
das dumme ist nur das PhysX eben gerade nicht auf eine bestimmte Hardware beschränkt ist, es ist sogar die "Engine" mit der grössten kompatibilität die es derzeit überhaupt gibt!!!
Was für ein absurdes Scheinargument. Es ist doch absolut unbestreitbar, dass PhysX nv gehört und sich damit jeder andere Hersteller, der es unterstützte, in babylonische Gefangenschaft begäbe. Nach dem Benchmark Fraud bei BM:AA kann man sich leicht vorstellen, was passieren würde.
Und Danke für den Hinweis mit der Schulbank, passt gut in mein Bild von Dir! :up:
edit:
Deine Bestätigung zu "Völlig uninteressant was in Zukunft ist, wir leben im Hier und Jetzt" zeugt auch von enormer Weitsicht ;)
Vielleicht unterscheidet das homo fanboii und homo sapiens - letzter verschwendet ab und zu auch mal einen Gedanken an morgen.
Der Vergleich mit Glide passt 100%, nicht auf der technischen Ebene, die natürlich gar nicht gemeint war (und es fällt mir schwer zu glauben, dass das man das tatsächlich unabsichtlich so missverstehen kann), sondern auf der politischen. Beides sind Werkzeuge um Software auf einer bestimmten Hardware exklusiv zu machen mit dem Endziel der Monopolisierung.... blabla bla
rofl? glide war damals notwendig da keine brauchbare schnittstelle vorhanden war, welche a) einfach zu programmieren/benutzen war und b) die technisch gewollten möglichkeiten bot.
wie man darauf kommen kann, dass glide ein monopolisierungsversuch war, ist mir schleierhaft.
Der Vergleich mit Glide passt 100%, nicht auf der technischen Ebene, die natürlich gar nicht gemeint war (und es fällt mir schwer zu glauben, dass das man das tatsächlich unabsichtlich so missverstehen kann), sondern auf der politischen. Beides sind Werkzeuge um Software auf einer bestimmten Hardware exklusiv zu machen mit dem Endziel der Monopolisierung. Und aus diesem Grund wird PhysX auch scheitern. Die meisten Leute, die heute Hardware eines bestimmten Herstellers kaufen, wollen sich damit nicht für alle Zeit an diesen binden.
Du meinst PhysX über CUDA wird "scheitern". Das ist etwas völlig anderes.
Und du glaubst doch wohl selbst nicht, dass NVIDIA meint damit auf alle Zeit GPU-Physik als einziger Anbieter haben zu werden? Glaub mir, so dumm sind sie nicht ;)
rofl? glide war damals notwendig da keine brauchbare schnittstelle vorhanden war, welche a) einfach zu programmieren/benutzen war und b) die technisch gewollten möglichkeiten bot.
Also OpenGL wäre einfacher gewesen. Glide war wie gesagt mehr low level als alle anderen 3D-APIs.
deekey777
2010-01-05, 15:30:53
Ob Fake oder nicht:
I[;7761897']^^
:ulol: ;D;D;D
noch mehr fake geht auch nicht...
http://www.tomshardware.com/reviews/nvidia-geforcefx-5900-ultra,630-12.html
Das Spiel kam wann?
Wenn AMD die Cryengine-3-Demos für Eyefinity nutzt, dann wäre es doch enttäuschend, wenn zum Launch des GF100 keine CE3-Demos oder gar Crysis 2 gezeigt werden.
AnarchX
2010-01-05, 15:31:24
Fermi @ Inno3D?:
http://www.expreview.com/9270.html
Ailuros
2010-01-05, 15:32:39
Ergebnis:
- A3 war zu 95% notwendig um Bugs zu beseitigen.
Dann nochmal silent_guy's Aussage:
The best you can do is speculate about the general likelihood about the nature of a metal spin. My personal take on this is clear: At least 95% of all fixes are pure functional bugs. A very generous 4% are timing related. 1% are yield. (On all the chips I've worked on, I know of only 1 metal ECO, out of thousands, that was yield related.) And that's really the best you can do. Yet reading the comments here, it's all about getting clocks up by some fantastic amount or doing magic tricks with yield. Some even persist in claiming that you can reduce leakage this way. All with a metal spin... Go figure.
Er erklaert lediglich zu was ein metal spin genau dient im Gegensatz zu manchem die diesem falsche Eigenschaften schenken.
Aus aaron's Beitrag:
If you are fixing anything physical related you're effectively trying to shut the barn doors after the horses have left, that SHOULD be taken care of in pre-silicon.
Jegliche physische Aenderungen haetten schon auf pre-silicon stattfinden soll, ergo wenn diese nicht vor A1 stattgefunden haben, dann bringt Dir ein metal spin erstmal gleich gar nichts.
- Es besteht die Chance, das A3 langsamer ist als A2
Woher kommt jetzt der Quark schon wieder? Definitiv nein.
- A3 ist sehr wahrscheinlich nicht schneller als A2 (96%ig)
Da ein metal spin nur oberflaechliches Zeug betrifft (und in diesem Bereich sind beide Herren ziemlich klar darueber) ist es wohl auch klar dass keine serioesen bugs beseitigt werden koennen die eventuell sich nur bei hohen Frequenzen erscheinen koennten.
- A3 hatte nicht das Ziel den Yield zu verbessern (99%ig)
Was soll das uebrige 1% hier darstellen? Nochmal yields sind Angelegenheit der fab bzw. von TSMC und nicht eine IHV Angelegenheit. A3 dient als metal spin nur als Zeitpflaster fuer ein paar mickrige "Schoenheitsfehler" bis TSMC ihre yields verbessern kann und anders war es nie gemeint. Deshalb sagte ich auch bei B3D dass es lediglich ein "time killer" ist.
Dennoch bleibt es dabei dass bevor A3 in NV's Haenden liegt man auch nichts finalisieren wird.
Falls noch nicht geposted:
Happy New Year to all GeForce Fans!!! There will be a sneak peek of GF100 at our booth at CES in Las Vegas next week. Stop by and say hi!
http://twitter.com/NVIDIAGeForce
Da ein metal spin nur oberflaechliches Zeug betrifft (und in diesem Bereich sind beide Herren ziemlich klar darueber) ist es wohl auch klar dass keine serioesen bugs beseitigt werden koennen die eventuell sich nur bei hohen Frequenzen erscheinen koennten.
Serious wird nicht mit seriös übersetzt Ail. Du meinst "ernst" oder "gravierend".
Wie auch immer, es ist durchaus möglich Logik-Bugs durch Metal-Spins zu beseitigen, weil man dafür immer ein paar Gates einbaut die nicht verwendet werden.
Clock-Distribution kann man mit einem Metal-Spin evtl. auch verbessern, aber da kenn ich mich nicht gut genug aus.
Nochmal yields sind Angelegenheit der fab bzw. von TSMC und nicht eine IHV Angelegenheit.
Käse. Der IHV ist sehr wohl dafür verantwortlich sich an die Design Rules zu halten, bzw. kann auch auf die Schnauze fallen wenn diese nicht sauber genug spezifiziert wurden.
Ailuros
2010-01-05, 17:44:04
Serious wird nicht mit seriös übersetzt Ail. Du meinst "ernst" oder "gravierend".
Stimmt.
Käse. Der IHV ist sehr wohl dafür verantwortlich sich an die Design Rules zu halten, bzw. kann auch auf die Schnauze fallen wenn diese nicht sauber genug spezifiziert wurden.
Es gab eine ziemlich langwierige Debatte zwischen silent_guy und Charlie im B3D/Fermi thread darueber. Schlag es Dir selber nach wieviele Chancen bestehen dass NV sich nicht an TSMC's 40G Design rules in irgend einer Form gehalten haben koennte. Im Gegenfall waere schon A1 mausetot gewesen und sie haetten nie und nimmer eine Chance es zu einem launch bis zum Maerz zu schaffen.
Trotzdem kann der IHV Yields beeinflussen, z.B. durch redundante Schaltungen.
CrazyIvan
2010-01-05, 21:01:08
Woher kommt jetzt der Quark schon wieder? Definitiv nein.
Das Gastposting des Jahres, und Du pflaumst ihn gleich wieder so an :rolleyes:
Schau nochmal auf das Zitat von Aaron:
Yep, metals spins are almost ALWAYS functional. Either you can do slight rewires to existing logic or add small additions to the logic with available bonus gates. The later certainly is not positive as far as timing goes.
Und die Prozentzahlen kommen direkt aus silent_guys posting.
Ailuros
2010-01-06, 07:55:26
Und die Prozentzahlen kommen direkt aus silent_guys posting.
Ja natuerlich kamen sie aus silent_guy's posting, nur wollte er lediglich darstellen im generellen Sinn wieviel man jeweils mit einem metal spin anrichten kann.
Trotzdem kann der IHV Yields beeinflussen, z.B. durch redundante Schaltungen.
Im Zustand von 40G bei A2 haette es von extrem wenig bis gar nicht geholfen oder? Im miserabelsten Fall duerften nicht mehr als 4-5 dies pro wafer ohne Prozess-bedingte Fehler moeglich gewesen sein. AMD's yields sind nach diversen Angaben (ob's stimmt wie gesagt weiss keiner) in den minimalen Bereichen sehenswert gestiegen bei den Schwankungen. Ergo wenn die angeblichen heutige minimalen 30% stimmen sollten, dann handelt es sich auch um eine deutliche Verbesserung und das natuerlich ohne jeglichen metal spin seitens AMD.
[...]
ach ja, nur ein kompleter fanboy interessiert was in der zukunft ist und ob sich was durchsetzt oder eben nicht... jeder vernünftiger mensch schaut auf das hier
[...]
... was interessiert mich schon die zukunft... ich will JETZT was auf dem bildschrim sehen und nicht wie ATI seit 2006 behaupten unsere sachen sind besser aber bis heute rein gar nichts hinbekommen haben... wer ist der fanboy frag ich mich da...
lass mich raten, du bist einer der Jenigen die auf Fermi warten um dann zu "vergleichen"?
scnr
mapel110
2010-01-06, 08:19:24
http://www.brightsideofnews.com/news/2010/1/5/the-real-story-behind-fermi--oak-ridge-bushes-legacy-threats-progress.aspx
First of all, the part of the rumor which pegs the power consumption of NV100-class architecture as the reason for rumored cancelation is absolute nonsense
reunion
2010-01-06, 10:12:32
http://www.brightsideofnews.com/news/2010/1/5/the-real-story-behind-fermi--oak-ridge-bushes-legacy-threats-progress.aspx
First of all, the part of the rumor which pegs the power consumption of NV100-class architecture as the reason for rumored cancelation is absolute nonsense
Even the 6GB GDDR5-memory carrying Tesla C2070 consumes 190 Watts, in the range of Tesla C1060 [65nm - 170W, 55nm - 160W]. nVidia explained to us that custom-built GDDR5 ECC SDRAM consumes less power than currently-used GDDR3 memory and that allows for 6GB GDDR5 to replace 4GB GDDR3 memory inside the same power envelope. GPU is also downclocked to a level of high reliability and more importantly - fitting inside GT200b thermal budget.
Daraus kann man nur eines Schlussfolgern: Ein teildeaktivierter und niedrig getakteter GF100 braucht deutlich mehr Strom als ein voll ausgestatteter und an die Grenzen getakteter GT200b. Wenn man jetzt davon ausgeht das man beim Desktop-Modell an die Grenzen des möglichen geht erwarte ich keine Dual-GPU.
Genau. Weil so eine C1060 ja auch nur mit 1300Mhz taktet und nur 800Mhz Speicher verwendet im Vergleich zur GTX285 die 1476Mhz hat und 1250Mhz Speicher.
Warum dann theoretisch keine 2GPU Lösung auf Basis des Tesla Chips aber mit nur 2GB je Chip möglich sein soll ist mir gerade nicht klar, wenn man auch ne GTX295 bauen konnte die pro GPU geringfügig langsamer taktet als C1060.
James Ryan
2010-01-06, 10:32:08
Daraus kann man nur eines Schlussfolgern: Ein teildeaktivierter und niedrig getakteter GF100 braucht deutlich mehr Strom als ein voll ausgestatteter und an die Grenzen getakteter GT200b. Wenn man jetzt davon ausgeht das man beim Desktop-Modell an die Grenzen des möglichen geht erwarte ich keine Dual-GPU.
Das du aus dem Satz einen deutlichen höheren Stromverbrauch schlussfolgerst war ja klar! :rolleyes:
MfG :cool:
reunion
2010-01-06, 10:34:13
Das du aus dem Satz einen deutlichen höheren Stromverbrauch schlussfolgerst war ja klar! :rolleyes:
MfG :cool:
Weil es die einzig mögliche Schlussfolgerung ist, aber das ist offensichtlich zu hoch für dich. Tesla C1060 [65nm - 170W, 55nm - 160W] takten jeweils auf dem Niveau der GTX280/GTX285 beim Chip.
Black-Scorpion
2010-01-06, 10:35:06
Genau. Weil so eine C1060 ja auch nur mit 1300Mhz taktet und nur 800Mhz Speicher verwendet im Vergleich zur GTX285 die 1476Mhz hat und 1250Mhz Speicher.
Warum dann theoretisch keine 2GPU Lösung auf Basis des Tesla Chips aber mit nur 2GB je Chip möglich sein soll ist mir gerade nicht klar, wenn man auch ne GTX295 bauen konnte die pro GPU geringfügig langsamer taktet als C1060.
Das teildeaktiviert und niedrig getakteter hast du dabei wohl übersehen?
Die 295er hat aber nur 2 runtergetaktete GT200b drauf.
Der Unterschied ist eben das teildeaktiviert.
Eine Dual Karte macht mit teildeaktivierten und niedrig getakteten GF100 keinen Sinn.
reunion
2010-01-06, 10:39:07
Genau. Weil so eine C1060 ja auch nur mit 1300Mhz taktet und nur 800Mhz Speicher verwendet im Vergleich zur GTX285 die 1476Mhz hat und 1250Mhz Speicher.
Warum dann theoretisch keine 2GPU Lösung auf Basis des Tesla Chips aber mit nur 2GB je Chip möglich sein soll ist mir gerade nicht klar, wenn man auch ne GTX295 bauen konnte die pro GPU geringfügig langsamer taktet als C1060.
Die Tesla C2070 ist schon teildeaktiviert und niedrig getaktet. Das war bei den alten Tesla-Karten anders. Der Stromverbrauch ist trotzdem höher. Klar, möglich ist alles, aber dann muss man eben noch mehr deaktivieren und noch niedriger takten und dann darf man sich schon die Frage stellen ob das noch Sinn macht.
Das teildeaktiviert und niedrig getakteter hast du dabei wohl übersehen?
Die 295er hat aber nur 2 runtergetaktete GT200b drauf.
Der Unterschied ist eben das teildeaktiviert.
Eine Dual Karte macht mit teildeaktivierten und niedrig getakteten GF100 keinen Sinn.
Das hängt von der Performance einer entsprechenden Karte ab, ist aber keine technische Unmöglichkeit. Wisse nwir ob es überhaupt eine nicht teildeaktivierte GF100-Karte geben wird, wissen wir ob sie deutlich höher las bei Tesla takten können?
reunion
2010-01-06, 10:43:18
Das hängt von der Performance einer entsprechenden Karte ab, ist aber keine technische Unmöglichkeit. Wisse nwir ob es überhaupt eine nicht teildeaktivierte GF100-Karte geben wird, wissen wir ob sie deutlich höher las bei Tesla takten können?
Ja. NV hat schon gesagt das es Desktop-Modelle mit 512SPs geben wird und das die Teslas niedriger Takten.
Die 295er hat aber nur 2 runtergetaktete GT200b drauf.
Der Unterschied ist eben das teildeaktiviert.
Nö, die sind teildeaktiviert.
NV hat auch gesagt, dass GF100 2009 kommt....
boxleitnerb
2010-01-06, 11:04:13
Anzahl von Shadern und TMUs ist gleich, das SI ist nur 448bit und sie hat weniger Speicher.
N0Thing
2010-01-06, 11:08:43
Warum dann theoretisch keine 2GPU Lösung auf Basis des Tesla Chips aber mit nur 2GB je Chip möglich sein soll ist mir gerade nicht klar, wenn man auch ne GTX295 bauen konnte die pro GPU geringfügig langsamer taktet als C1060.
Der Aufwand muß sich erst einmal lohnen. Je nachdem wie stark die Leistung eines Chips reduziert werden muß, um ihn auf einer Dual-GPU-Karte nutzen zu können, könnte die Single-GPU-Karte zu nahe der mGPU-Karte dran sein.
Und weniger ROPs.
Also wenn das nicht teildeaktiviert ist, was dann. :rolleyes:
Der Aufwand muß sich erst einmal lohnen. Je nachdem wie stark die Leistung eines Chips reduziert werden muß, um ihn auf einer Dual-GPU-Karte nutzen zu können, könnte die Single-GPU-Karte zu nahe der mGPU-Karte dran sein.
Aber das kann gegenwärtig nur NV sagen. Technisch ist es imho möglich, ob es Sinn macht und notwendig ist, dass ist eine andere Frage, die wohl ganz entscheident davon abhängt wie die endgültigen Taktraten und Varianten der GeFroce GF100 Versionen aussehen.
boxleitnerb
2010-01-06, 11:18:24
Dann sind die Angaben auf geizhals falsch. Da steht auch 2x80 TMUs, woanders lese ich 2x72. Und 2x28 ROPs statt 2x 32.
N0Thing
2010-01-06, 11:35:58
Aber das kann gegenwärtig nur NV sagen. Technisch ist es imho möglich, ob es Sinn macht und notwendig ist, dass ist eine andere Frage, die wohl ganz entscheident davon abhängt wie die endgültigen Taktraten und Varianten der GeFroce GF100 Versionen aussehen.
Klar, von außen kann man nur Spekulieren. Ich würde vermuten, daß Nvidia sogar auf die Leistungskrone verzichten würde, wenn sie mit einem GF100 nahe genug an eine HD5970 heran kommen würden (und sei es ein Ultra Modell). Dann kann Nvidia immer noch über den Preis und mit HW-PhysX und 3D-Vision werben und SLI mit zwei Karten hervor heben, wo sie dann die Nase vorn hätten.
Aber das hängt natürlich vom GF100 ab und wie ATI auf dessen Markteinführung reagiert. Ich werwarte aber keine mGPU auf Fermi-Basis direkt zum Launch oder kurz danach.
N0Thing
2010-01-06, 11:37:56
Dann sind die Angaben auf geizhals falsch. Da steht auch 2x80 TMUs, woanders lese ich 2x72. Und 2x28 ROPs statt 2x 32.
Bei Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/2/#abschnitt_technische_daten) hat man doch eine prima Tabelle. ;)
GTX275 - 219 Watt
GTX295 - 289 Watt
Tesla C2070 mit 14 Cluster, ALUs@1400Mhz und 6GB mit 900MHz GDDR5 Speicher - <225 Watt.
Eine x2 ist bei GF100 genauso möglich, wie es auch beim GT200b war.
boxleitnerb
2010-01-06, 11:52:51
Naja real (unter 3DQuark) verbraucht eine GTX275 runde 150W. Ich würd mich auch nicht so sehr an den 190W aufhängen, es ist ne andere Karte als ne Geforce. Wer weiß schon, ob ECC und Co nicht auch Strom fressen?
Übrigens hat die CES (für die Presse) heute begonnen, hoffentlich gibt es ein paar Leaks
reunion
2010-01-06, 12:45:27
GTX275 - 219 Watt
GTX295 - 289 Watt
Tesla C2070 mit 14 Cluster, ALUs@1400Mhz und 6GB mit 900MHz GDDR5 Speicher - <225 Watt.
Eine x2 ist bei GF100 genauso möglich, wie es auch beim GT200b war.
Bei der GTX275 werden auch die schlechtesten Chips verscherbelt, aber das wolltest du wohl bewusst ausblenden. Selbst die GTX285 hat eine niedrigere TDP. Davon kann man bei den Teslas wohl kaum ausgehen. Und die Tesla wird im übrigen offiziell mit <=225 Watt angegeben, auch das ist ein Unterschied zu deinen Angaben. Es kommt ja auch nicht von ungefähr das auf den gezeigten Geforce Fermi Karten 6+8-Pin Stromanschlüsse angesteckt waren, ergo TDP >225W. Und bei einer TDP >225W eine Dual-GPU zu bringen wird nicht leicht wenn man die max. 300W der PCIe-Spec einhalten will.
darkvader
2010-01-06, 13:31:50
Übrigens hat die CES (für die Presse) heute begonnen, hoffentlich gibt es ein paar Leaks
Nicht ganz - es gab heute Nacht ein Preview Event - an dem aber nur ausgewählte Firmen teilgenommen haben und heute ab 16:00 Deutscher Zeit gehen die Pressekonferenzen los.
Nvidia hat eine Pressekonferenz für Morgen, 18:30 Deutsche Zeit angesetzt - insofern würde ich vor diesem Zeitpunkt mit nicht viel rechnen.....
AnarchX
2010-01-06, 16:33:27
PhysX-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422487&page=37
Dural
2010-01-06, 19:04:56
klar ist ein GF100 GX2 karte möglich, wie so auch nicht? Die beschränkung liegt bei solchen karten doch nie auf dem Technischen sondern viel mehr auf der Leistung/Herstellungkosten und dem Preis wo man so eine Produkt verkaufen kann bez. an den mann/frau bringen kann! wenn NV es nötig hat / oder meint sie brauchen so eine karte werden sie es machen...
erinnert sich noch jemand an die 7800GTX 512MB, die gabs doch auch nur für die benchmarks, es wurden nur wenige tausend stück ausgeliefert zu preisen die man heute sich kaum noch vorstellen kann...
lass mich raten, du bist einer der Jenigen die auf Fermi warten um dann zu "vergleichen"?
scnr
ich warte auf gar nichts! hab seit September eine 5870 (neben der GTX285...) und daneben noch ein 3-Way GTX280 @ 780MHz SLI System...
mapel110
2010-01-06, 19:08:23
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5
Ich frag mich, warum das Posting vom Gast mit dem Link gelöscht wurde?!
Let me say that I suspect that through 2010 it's possible there will be moments where we don't have the fastest graphics card, but I expect that for the majority of 2010 we'll have the fastest card you can buy. I've good reason for believing that but I can't talk about unannounced products or any of the stuff we're doing to secure that.
:nono: Was soll das denn bedeuten?! Schweinereien wie nvidia mit Devs machen?!
reunion
2010-01-06, 19:20:58
Die Aussage ist im übrigen von einem AMD-Mann: Richard Huddy. Ailuros hat ja schon angekündigt das der Refresh wohl mehr als nur mehr Takt bringt. Was er mit dem markierten meint kann nur spekuliert werden.
StefanV
2010-01-06, 19:27:33
Nö, eher sowas wie R300 -> volle Kanne nach vorn preschen und alles auf ein Die packen, was technisch irgendwie möglich ist...
Würd mich nicht wundern, wenn AMD noch einen Plan B in der Hand hat, der einen wesentlich breiteren Cypress beinhaltet...
Ist schon etwas über den neuen MultiGPU Renderingmodus bekannt?
N0Thing
2010-01-06, 19:45:52
:nono: Was soll das denn bedeuten?! Schweinereien wie nvidia mit Devs machen?!
Ich kann mir nicht vorstellen, daß ein AMD.Mitarbeiter indirekt auf Mauscheleien mit Entwicklern anspielt. Wenn man so etwas machen würde, hält man schön den Mund und deutet die gute Performance als ein Verdienst der eigenen Hardware.
Tesla C1060 [65nm - 170W, 55nm - 160W] takten jeweils auf dem Niveau der GTX280/GTX285 beim Chip.
Ähm - nein?!
a) gab es nie eine Tesla C1060 in 65nm - die Teslakarten (genauso wie Quadro) gab es NUR in 55nm
b) Takten gleiches Niveau? Wo denn?
Karte Chiptakt Shadertakt
GTX280 602 1296
GTX285 648 1476
C1060 602 1296
Wo ist denn da jetzt dasselbe Niveau? Dasselbe Niveau nur zwischen GTX280 und C1060, das ist allerdings auch 65nm vs. 55nm. Nicht immer alles nachlabern, was ein Megatroll auf semiaccurate schreibt, sondern auch mal selbst nachrecherchieren ;)
reunion
2010-01-06, 19:54:16
a) Die Angaben wurde von brightsideofnews zitiert wie du siehst, und die stammen laut dem Text wohl von NV.
b) C1070, Entschuldigung: http://www.nvidia.com/object/product_tesla_s1070_us.html
C1070, Entschuldigung: http://www.nvidia.com/object/product_tesla_s1070_us.html
S1070 wenn schon und das sind immer noch dieselben Karten mit denselben Taktungen wie die C1070 - nur halt 4 Stück in einem 19"-Gehäuse. Sagt aber gar nichts über die normalen Add-on Karten aus, weil natürlich ein geschlossenes System mit daher besser steuer- und garantierbaren Temperaturen.
Schonmal dran gedacht, dass sich die Seite auch irren könnte? ;) Es gab niemals Teslakarten mit 65nm, das ist einfach Bullshit hoch 3.
Dennoch sagen (schlußendlich) die Taktungen/Ausstattungen/Daten der Teslakarten nichts über die GeForcekarten aus, da sich diese schon immer unterschieden haben.
reunion
2010-01-06, 20:11:32
Ich wette dagegen. Es gab AFAIK schon Tesla C1060 Karten da gab es noch gar keinen GT200b. Und aus der Nase gezogen hat sich das brightsideofnews wohl kaum, die Karte wird auch von einigen Seiten noch mit 65nm angegeben.
Ich wette dagegen. Es gab AFAIK schon Tesla C1060 Karten da gab es noch gar keinen GT200b.
Aha, Link?
Der Heise Preisvergleich listet die Karten ab Ende 2008, ungefähr zeitgleich zur GTX260 in 55nm:
http://www.heise.de/preisvergleich/?phist=389202&age=2000
Abgesehen davon kennt auch Wikipedia (auch wenn sie 65nm/55nm ebenfalls behaupten) nur eine Taktung für die Teslakarten:
http://de.wikipedia.org/wiki/Nvidia_Tesla
Karten in 65 und 55nm und beide mit denselben Taktungen? Die Wette schaut sehr schlecht aus :D
reunion
2010-01-06, 20:25:01
Karten in 65 und 55nm und beide mit denselben Taktungen?
Warum nicht? Dafür "65nm - 170W, 55nm - 160W". Eine Link hast ja du offensichtlich auch nicht. Geizhals schriebt 65nm, Wikipedia schriebt 65nm. Ich sehe wenig Gründe anzunehmen das es keine 65nm Tesla-Karten gab außer deiner Behauptung.
Dural
2010-01-06, 20:27:12
Ähm - nein?!
a) gab es nie eine Tesla C1060 in 65nm - die Teslakarten (genauso wie Quadro) gab es NUR in 55nm
b) Takten gleiches Niveau? Wo denn?
Karte Chiptakt Shadertakt
GTX280 602 1296
GTX285 648 1476
C1060 602 1296
Wo ist denn da jetzt dasselbe Niveau? Dasselbe Niveau nur zwischen GTX280 und C1060, das ist allerdings auch 65nm vs. 55nm. Nicht immer alles nachlabern, was ein Megatroll auf semiaccurate schreibt, sondern auch mal selbst nachrecherchieren ;)
ist korekt, es gab nie eine tesla oder quadro mit GT200a! die ersten karten hatten einen GT200 B2 (oder sogar B1)
später kammen B3 und mit 1400MHz shader, voller GTX285 takt gab es bei den tesla nie!
Warum nicht? Dafür "65nm - 170W, 55nm - 160W". Eine Link hast ja du offensichtlich auch nicht. Geizhals schriebt 65nm, Wikipedia schriebt 65nm. Ich sehe wenig Gründe zu glauben das es keine 65nm Tesla-Karten gab außer deiner Behauptung.
Aha, wie wärs mit nem offiziellen Nvidialink?
http://forums.nvidia.com/index.php?showtopic=86399
"Tesla C1060/S1070 have always been 55nm."
Nvidia Employee, reicht dir das endlich? ;)
Und was krieg ich jetzt für die gewonnene Wette? :p
ist korekt, es gab nie eine tesla oder quadro mit GT200a! die ersten karten hatten einen GT200 B2
später kammen B3 und mit 1400MHz shader, voller GTX285 takt gab es bei den tesla nie!
Genau!
reunion
2010-01-06, 20:29:37
Aha, wie wärs mit nem offiziellen Nvidialink?
http://forums.nvidia.com/index.php?showtopic=86399
"Tesla C1060/S1070 have always been 55nm."
Nvidia Employee, reicht dir das endlich? ;)
Okay, ich gebe mich geschlagen.
Und was krieg ich jetzt für die gewonnene Wette? :p
Die Frage hätte vorher kommen müssen. :tongue:
Gipsel
2010-01-07, 01:03:10
ist korekt, es gab nie eine tesla oder quadro mit GT200a! die ersten karten hatten einen GT200 B2 (oder sogar B1)
später kammen B3 und mit 1400MHz shader, voller GTX285 takt gab es bei den tesla nie!
Die ersten Tesla C1060 waren natürlich 65nm GT200. Erst später wurden unter gleichem Namen die 55nm GT200b verkauft.
Wer es nicht glaubt, sollte sich mal fragen, wann der 65nm GT200 eingeführt wurde. Wenn ich mich nicht irre, war das im Juni 2008 (ganz genau am 16.06.2008). Die 55nm Variante kam erst Anfang 2009.
Wie konnte dann nvidia eine Pressemeldung über die Einführung der C1060 und S1070 bereits am gleichen Tag (da wurde das offensichtlich schon angekündigt) (http://www.dvhardware.net/article27987.html) bzw. einen darauf (offiziell) (http://www.nvidia.com/object/io_1213744368983.html) wie zur Einführung der GTX280 (http://www.nvidia.com/object/io_1213610051114.html) herausgeben? Doch nur, wenn im identisch zur GTX280 getaktetem C1060 (der Kern natürlich, nicht unbedingt der Speicher) auch ein identischer 65nm GT200 steckte. Die 55nm Variante kam (zusammen mit der Option auf höhere Taktung, maximal sind es übrigens 1,44 GHz, also nur lächerliche 36 MHz weniger als bei der GTX285) dann wie auch die Desktop-Versionen erst 2009.
Und damit nicht jeder die Links durchklicken muß, hier mal ein Zitat aus dem ersten:
Posted on Monday, June 16 2008 @ 22:46:34 CEST by Thomas De Maesschalck
Besides the GeForce GTX 200 series NVIDIA also introduced the Tesla 10 series for GPU computing. There are two products, the Tesla C1060 Computing Processor which slides into a PCI Express x16 slot and for those who need more processing power there's the Tesla S1070 1U form factor rack that features four Tesla chips. [..]
Diskussion beendet.
deekey777
2010-01-07, 01:06:11
Im Herbst 2008 hieß es, dass die ersten GT200 in 55 nm als B2 schon auf den Teslas verbaut wurden. Regulär war dann B3.
Gipsel
2010-01-07, 01:11:00
Im Herbst 2008 hieß es, dass die ersten GT200 in 55 nm als B2 schon auf den Teslas verbaut wurden. Regulär war dann B3.17. Juni ist aber noch Frühling ;)
Dural
2010-01-07, 01:11:44
die ersten TESLA wurden mit B2 (oder sogar B1) im Spätsommer / Herbst 2008 ausgeliefert, vorher gab es keine TESLA Karten!
Die Fermi TESLA karten wurden ja auch schon angekündigt.... ;)
Gipsel
2010-01-07, 01:26:50
die ersten TESLA wurden mit B2 (oder sogar B1) im Spätsommer / Herbst 2008 ausgeliefert, vorher gab es keine TESLA Karten!
Die Fermi TESLA karten wurden ja auch schon angekündigt.... ;)
Denke ich nicht. Die anfangs ausgelieferten C1060 waren 65nm. Die B2 kamen dann langsam im Oktober/November, die B3 wie gesagt Anfang 2009. Google einfach mal nach "65nm Tesla C1060". Da findet man sogar Anbieter von Visualisierungs Workstations, die explizit auf den Geschwindigkeitsvorteil der 55nm C1060 (mit dem optional erhöhtem Takt) gegenüber den 65nm C1060 hinweisen:
*the 55nm Tesla are a bit faster than the old 65nm C1060's, so you get 1.05-1.1 TFLOPS per board
Dural
2010-01-07, 01:36:51
ich google schon die ganze zeit, finde aber kein bild einer tesla karte ohne kühler...
und das erst B3 mehr takt gebracht hat wissen wir ja und das B2 mit den Tesla ausgeliefert wird wurde nie so richtig offiziell bestätigt...
Gipsel
2010-01-07, 01:48:34
Die Fermi TESLA karten wurden ja auch schon angekündigt.... ;)
Dann Vergleiche mal die Pressemeldung zu den C/S10x0 Teslas (http://www.nvidia.com/object/io_1213744368983.html), mit der Fermi-Pressemeldung (http://www.nvidia.com/object/io_1254288141829.html). Fällt irgendwas auf?
Genau, während erstere von konkreten Produkten spricht ("sampling today", hatte nv im Juni schon den 55nm GT200b?), redet zweitere nur schwammig von der "Enthüllung" der neuen Architektur. Und wenn selbst die Hersteller bzw. Verbauer diverser Tesla-Karten von 65nm Versionen sprechen, wird da schon was dran sein.
mapel110
2010-01-07, 05:10:33
Quelle Facebook:
Our new 3D Vision Surround lets you span your gaming desktop across 3 monitors! Even better, 3D Vision Surround will work with GF100 and GT200 (and yes, it works in 2D mode too)!
GT200 und 3 Monitore? Oder meinen die das anders?!
maximus_hertus
2010-01-07, 05:27:37
Evtl. gibts ja ne externe Box a la Matrox TH? Sonst sehe ich keine Möglichkeit bei einer GT200 3 Monitore anzusteuern....
Knuddelbearli
2010-01-07, 05:41:22
ausser sie legen sie neu auf ^^
reunion
2010-01-07, 07:27:22
Denke ich nicht. Die anfangs ausgelieferten C1060 waren 65nm. Die B2 kamen dann langsam im Oktober/November, die B3 wie gesagt Anfang 2009. Google einfach mal nach "65nm Tesla C1060". Da findet man sogar Anbieter von Visualisierungs Workstations, die explizit auf den Geschwindigkeitsvorteil der 55nm C1060 (mit dem optional erhöhtem Takt) gegenüber den 65nm C1060 hinweisen:
Ich wusste doch das mich mein Gedächtnis nicht täuscht. Danke. Der angebliche NV engineer dort ist wohl auch eher ein Warmduscher.
Aquaschaf
2010-01-07, 09:24:12
Der angebliche NV engineer dort ist wohl auch eher ein Warmduscher.
tmurray arbeitet mit Garantie bei Nvidia.
reunion
2010-01-07, 09:26:01
tmurray arbeitet mit Garantie bei Nvidia.
Mag sein, in der Hinsicht hat er jedenfalls keine Ahnung. Er schriebt ja sogar das auch die Quadros nur in 55nmn kamen, was definitiv Blödsinn ist.
Die ersten Tesla C1060 waren natürlich 65nm GT200. Erst später wurden unter gleichem Namen die 55nm GT200b verkauft.
Wer es nicht glaubt, sollte sich mal fragen, wann der 65nm GT200 eingeführt wurde. Wenn ich mich nicht irre, war das im Juni 2008 (ganz genau am 16.06.2008). Die 55nm Variante kam erst Anfang 2009.
Wie konnte dann nvidia eine Pressemeldung über die Einführung der C1060 und S1070 bereits am gleichen Tag (da wurde das offensichtlich schon angekündigt) (http://www.dvhardware.net/article27987.html) bzw. einen darauf (offiziell) (http://www.nvidia.com/object/io_1213744368983.html) wie zur Einführung der GTX280 (http://www.nvidia.com/object/io_1213610051114.html) herausgeben? Doch nur, wenn im identisch zur GTX280 getaktetem C1060 (der Kern natürlich, nicht unbedingt der Speicher) auch ein identischer 65nm GT200 steckte. Die 55nm Variante kam (zusammen mit der Option auf höhere Taktung, maximal sind es übrigens 1,44 GHz, also nur lächerliche 36 MHz weniger als bei der GTX285) dann wie auch die Desktop-Versionen erst 2009.
Und damit nicht jeder die Links durchklicken muß, hier mal ein Zitat aus dem ersten:
Diskussion beendet.
Nur mal so als Anhaltspunkte:
- Wann waren die Teslas dann wirklich lieferbar?
- Wann wurde Fermi-Tesla vorgestellt (samt Pressemitteilung usw.) und wann wird die Auslieferung erwartet?
AnarchX
2010-01-07, 11:04:11
Fermi Demonstration:
http://pc.watch.impress.co.jp/docs/news/event/20100107_340953.html
Da hätte man doch wenigstens den FPS Counter an lassen können. :D
derguru
2010-01-07, 11:10:54
täusche ich mich oder sieht das gar nicht wie dx11 aus,straße und dach sieht glatt aus.
AnarchX
2010-01-07, 11:12:18
täusche ich mich oder sieht das gar nicht wie dx11 aus,straße und dach sieht glatt aus.
Man schaltet zwischen Tessellation on/off hin und her.
AnarchX
2010-01-07, 11:36:30
Noch mehr von der CES:
Performance numbers are hard to come by on the GeForce GF100, but we overheard someone saying that it is around 36% faster than ATI's Radeon HD 5870. When asked to confirm the number, NVIDIA could not comment.
http://www.legitreviews.com/article/1175/1/
James Ryan
2010-01-07, 11:41:28
36% schneller klingt jetzt nicht so vielversprechend, passt aber zur Informationspolitik der letzten Wochen.
Launchdatum soll der 2. März sein, also noch fast 2 Monate! :freak:
NVIDIA arbeitet hoffentlich bereits mit Hochdruck am Refresh!
MfG :cool:
die frage ist ja auch unter welchen bedingungen...
aa + tesselation, nur tesselation, nur aa oder beides aus?
reunion
2010-01-07, 11:52:04
Noch mehr von der CES:
http://www.legitreviews.com/article/1175/1/
Wenn sie mit einem über 50% größeren und ein halbes Jahr später kommenden Chip nicht deutlich schneller sind dann haben sie eh einiges falsch gemacht. 6 plus 8 Pin Power Connector und damit eine TDP >225W bestätigt sich auch ein weiteres mal.
Wenn sie mit einem um 50% größeren und ein halbes Jahr später kommenden Chip nicht deutlich schneller sind dann haben sie eh einiges falsch gemacht
Hm, waren 30-40 % nicht immer die hier gemunkelten Zahlen? Dazu noch den wie üblich besseren Treiber und Dev-Support.
Jake Dunn
2010-01-07, 12:07:18
Noch mehr von der CES:
http://www.legitreviews.com/article/1175/1/
Von ~30% ggü Cypress bin ich schon immer ausgegangen :)
Von ~30% ggü Cypress bin ich schon immer ausgegangen :)
Das wäre aber nicht so das schlagende Argument um auf den GT100 zu warten.
Bei den anfangs (sicherlich) höheren Preisen bei NV kann man mit dem Kauf eines Cypress kaum noch was falsch machen.
Von ~30% ggü Cypress bin ich schon immer ausgegangen :)
ja wozu denn noch auf reviews und benchmarks warten, es hat ja irgendjemand gesagt fermi wäre 36% schneller
Die Wahrheit liegt wie üblich dazwischen. Das 36-Prozent-Plus ist eine Zahl in einem Benchmark in einer Einstellung. Ergo wird's sich wohl um etwas im Bereich "10 bis 40 Prozent schneller" drehen, mit einem Mittel um 20 Prozent. So wie GTX 285 vs. HD 5870. Wetten? ;)
MfG,
Raff
mapel110
2010-01-07, 12:36:37
Wenn dann noch einen Monat später die Dualchip-Variante kommt, hat man Radeon 5970 jedenfalls vernichtet. :tongue:
reunion
2010-01-07, 12:39:40
Wenn dann noch einen Monat später die Dualchip-Variante kommt, hat man Radeon 5970 jedenfalls vernichtet. :tongue:
Die zweifle ich nach wie vor an. Auch die Karten auf der CES haben 6 plus 8-Pin Stromanschlüsse. Ergo TDP >225W. Wie man da mit kaum noch Luft zu den 300W einen zweiten Chip unter bringen will ohne diesen derart zu kastrieren und runterzutakten das es keinen Sinn mehr hat will ich sehen.
Wenn dann noch einen Monat später die Dualchip-Variante kommt, hat man Radeon 5970 jedenfalls vernichtet. :tongue:
wayne, dafür gabs die 5970 dann schon 6 Monate und der refresh steht schon am Start ;)
Die Wahrheit liegt wie üblich dazwischen. Das 36-Prozent-Plus ist eine Zahl in einem Benchmark in einer Einstellung. Ergo wird's sich wohl um etwas im Bereich "10 bis 40 Prozent schneller" drehen, mit einem Mittel um 20 Prozent. So wie GTX 285 vs. HD 5870. Wetten? ;)
MfG,
Raff
Dito.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.