Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
AnarchX
2010-01-11, 16:01:42
Ich bin mir auf jeden Fall erstmal sicher dass ich den Nagel auf den Kopf getroffen habe mit 32xAA.
Unter der Vorraussetzung dass ich in die richtige Richtung spekuliere, muss erstmal 8xMSAA Leistung sich um einiges verbessert haben. Unter dieser Vorraussetzung duerfte der 24xCSAA Zusatz nur minimal an zusaetzlichem Speicher und Bandbreite gegenueber 8xMSAA kosten.
Ergo wenn wahr etwas dass sich qualitativ ein gutes Stueck vom heutigen 16x AA (4xMSAA + 12xCSAA) absetzt.
.
Damit wohl eher ein relativ uninteressanter AA-Modus. Ein wählbarer RG/SGSSAA-Anteil wäre eher etwas gewesen.
Menace
2010-01-11, 16:03:36
Deshalb spekuliere ich auch dass dieses "32xAA" lediglich ein 16xCSAA * 2 ist.
Du beziehst Dich auf diese Aussage von Dir?
MorPheuZ
2010-01-11, 16:07:29
Das ist so ein "Schlawiner" der Ail :wink:
Lass uns doch mal bisschen über Fermi reden :D
Edit: Ail natürlich... Aber Ali wär eigentlich auch noch cool, nicht? XD
Menace
2010-01-11, 16:12:05
Lass uns doch mal bisschen über Fermi reden :D
Da erst morgen Dienstag ist.... vielleicht muss er noch so lange warten. :biggrin:
crux2005
2010-01-11, 16:13:41
Also dann ist der 32xAA ja nicht wirklich brauchbar. Was ist aber das ominöse AA Muster?
@MorPheuZ76: dieser Ali?
http://s12.directupload.net/images/100111/t6ggbmc9.jpg
http://www.imdb.com/media/rm2869860352/tt0248667
James Ryan
2010-01-11, 16:36:21
Ist eigentlich bekannt, ob Fermi auch "offiziell" RGSSAA/SSGSSAA anbieten wird?
Das per nHancer forcierbare OGSSAA ist doch keine echte Konkurrenz mehr zum ATi-Verfahren.
MfG :cool:
san.salvador
2010-01-11, 16:37:56
Ist eigentlich bekannt, ob Fermi auch "offiziell" RGSSAA/SSGSSAA anbieten wird?
Das per nHancer forcierbare OGSSAA ist doch keine echte Konkurrenz mehr zum ATi-Verfahren.
MfG :cool:
Das ist reine Treibersache, den Schalter könnte nV jederzeit im Treiber anzeigen.
MorPheuZ
2010-01-11, 16:40:15
Da erst morgen Dienstag ist.... vielleicht muss er noch so lange warten. :biggrin:
Was hat dieser "ominöse" Dienstag so auf sich?
Menace
2010-01-11, 16:51:12
Was hat dieser "ominöse" Dienstag so auf sich?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7600617&highlight=Dienstag#post7600617
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7580373&highlight=Dienstag#post7580373
Darauf wurde ein paar mal gehofft, dass am nächsten Dienstag, die Fermi gelauncht wird (im November). :D
MorPheuZ
2010-01-11, 16:55:48
Na toll... ich hol kaffee...:rolleyes:
Menace
2010-01-11, 16:58:03
Na toll... ich hol kaffee...:rolleyes:
:eek: Du bist Optimist. :wink: :rolleyes: Ich hole schon lange nicht mehr am Montag Kaffee für einen Nvidia-Dienstag. Falls es doch mal klappen sollte, bin ich dann halt überrascht.
Dural
2010-01-11, 17:08:09
Was hat dieser "ominöse" Dienstag so auf sich?
der CEO von NV hat letztes jahr mal gesagt das die geforce fermi an einem dienstag kommen, das st alles...
MorPheuZ
2010-01-11, 17:09:20
Da hast sowas von recht! Der Kaffe schmecht schon lange nicht mehr...
Aber wir sollten den Thread nicht zuspammen sonst übersehen wir Ail's Ausführungen noch :D
Dural
2010-01-11, 17:11:13
3D Vision Surround lief übrigens auf einer GF100 karte, so viel dazu man benötigt für drei monitore zwei karten...
Bei der Vorführung von 3D Vision Surround kam Avatar auf drei Bildschirmen zum Einsatz - angeblich auf einer GF100-Karte.
reunion
2010-01-11, 17:23:28
3D Vision Surround lief übrigens auf einer GF100 karte, so viel dazu man benötigt für drei monitore zwei karten...
Falsch.
We have multiple demos on the show floor. Here’s the breakdown:
The booth in the grand lobby is running on dual GTX285s and three Acer projectors. The projectors are 720p using CRT connectors.
The three projector display in the booth are running on dual GF100s. The DepthQ projectors are 720p and use CRT too.
The other demo we have is 3D Vision Surround running on three 1920x1080 LCD displays from Acer and Alienware using 3 dual link dvi connectors. This one is using dual GTX 285s.
We are showing a combination of Need for Speed Shift, Batman Arkham Asylum, and Avatar.
However, it is sort of disconcerting that the NVIDIA "needs" two GF100 cards to run the demo. In fact all the demos are SLI setups. We know a single Radeon 5870 or Radeon 5850 will run three 720P panels with ease. It will also be very interesting to see where all of this settles out in terms of price, performance, and value. And of course you can trust HardOCP to chime in on that, hopefully in late Q110.
http://www.hardocp.com/article/2010/01/08/nvidia_3d_surround_multidisplay_gaming_editorial
Dural
2010-01-11, 17:26:20
hier steh was anderes:
http://www.pcgameshardware.de/aid,699654/Nvidia-GF100-Fakten-zur-Fermi-Geforce-Grafikkarte-Update-Neues-720pYoutube-Video-der-GF100-Techdemo/Grafikkarte/News/
reunion
2010-01-11, 17:28:23
hier steh was anderes:
http://www.pcgameshardware.de/aid,699654/Nvidia-GF100-Fakten-zur-Fermi-Geforce-Grafikkarte-Update-Neues-720pYoutube-Video-der-GF100-Techdemo/Grafikkarte/News/
"Angeblich auf einer GF100-Karte" klingt nicht gerade überzeugend. [H] hat die Specs direkt von Brian Del Rizzo.
Dural
2010-01-11, 17:33:00
fermi hat aber zwei DVI und einen DP und der ist sicher nicht einfach so da, naja mal schauen...
fermi hat aber zwei DVI und einen DP und der ist sicher nicht einfach so da, naja mal schauen...
selbst wenn sie es können
However, it is sort of disconcerting that the NVIDIA "needs" two GF100 cards to run the demo. In fact all the demos are SLI setups. We know a single Radeon 5870 or Radeon 5850 will run three 720P panels with ease.
reunion
2010-01-11, 17:40:19
fermi hat aber zwei DVI und einen DP und der ist sicher nicht einfach so da, naja mal schauen...
Was dir du nicht alles sicher bist. Der ist auch bei allen anderen nicht HD5-Karten "einfach so da", dh man kann nur zwei von drei Anschlüssen gleichzeitig verwenden.
Menace
2010-01-11, 17:46:12
Heise dazu: http://www.heise.de/newsticker/meldung/Stereoskopische-3D-Darstellung-mit-mehreren-Monitoren-899489.html
Dural
2010-01-11, 17:47:39
Was dir du nicht alles sicher bist. Der ist auch bei allen anderen nicht HD5-Karten "einfach so da", dh man kann nur zwei von drei Anschlüssen gleichzeitig verwenden.
wo hab ich geschrieben das ich sicher bin, was versteht man unter naja mal schauen nicht??? und das Fermi GeForce drei anschlüsse haben ist FAKT, was du übrigens immer abgestritten hast... so viel zu diesm Thema!
DP ist bei den 5xxx mit drei monitoren zwingend vorgegeben... ohne DP läuft nichts in sachen drei monitoren nur so als info und wie so der DP sein muss muss ich ja nicht sagen oder? ;)
reunion
2010-01-11, 17:56:14
wo hab ich geschrieben das ich sicher bin, was versteht man unter naja mal schauen nicht???
Das implizierst du hiermit:
fermi hat aber zwei DVI und einen DP und der ist sicher nicht einfach so da
und das Fermi GeForce drei anschlüsse haben ist FAKT, was du übrigens immer abgestritten hast... so viel zu diesm Thema!
Habe ich nicht.
DP ist bei den 5xxx mit drei monitoren zwingend vorgegeben... ohne DP läuft nichts in sachen drei monitoren nur so als info und wie so der DP sein muss muss ich ja nicht sagen oder? ;)
Thema? Bezug? Irgendwas? Oder doch nur Spam? Aber das ist mir zu blöd. EoD.
fermi hat aber zwei DVI und einen DP und der ist sicher nicht einfach so da, naja mal schauen...
Meine 4870 hat VGA/DVI/HDMI/DisplayPort. Leider kann sie trotzdem nur 2 Displays ansteuern und nicht 4.
Cherry
Meint ihr wirklich, dass drei Monitore für so viele Leute entscheidend sind?
Meint ihr wirklich, dass drei Monitore für so viele Leute entscheidend sind?
Für die aller wenigstens. Ich würd sagen nichtmal 5% der Nutzer haben überhaupt einen zweiten Bildschirm und einen dritten? Do the Math....
Für die aller wenigstens. Ich würd sagen nichtmal 5% der Nutzer haben überhaupt einen zweiten Bildschirm und einen dritten? Do the Math....
Das stimmt zwar, aber wie viele werden sich 2 oder mehr GF100 holen?
AnarchX
2010-01-11, 19:24:29
Sie haben anscheinend doch ziemlich gute Hausarbeiten geleistet was Dreiecks-raten bzw. Tesselation betrifft
Deep Dive meeting has over, and we already know how powerful GF100 is, and IT IS! Performance is better then expected, most peoples here will search in own words and feel to shy for craps in thread. We can only laugh now, because Nvidia did it! Perf in Unigine DX11 benchmark is spectacular, Radeon HD 5870 is there like low-end toy for kids against GF100.
http://www.xtremesystems.org/forums/showpost.php?p=4194402&postcount=762
Dazu würden wohl auch PHKs +130% für Unigine passen.
Meint ihr wirklich, dass drei Monitore für so viele Leute entscheidend sind?
Für mich sind sie es. Im Rechner im Wohnzimmer werkelt im Moment eine ATI-IGP+3870, um ein 3-Screen-Setup zu befeuern (2 Monitore zum Arbeiten + TV). Das funktioniert besser als befürchtet, aber trotzdem nicht 100% problemfrei, u.A. weil die IGP vom Mainstream-Catalyst nicht mehr unterstützt wird, sondern nur noch vom Legacy. Da alles aus einem Guß zu haben wäre schon nett.
Im Arbeitszimmer hab ich leider nur 2*1920*1200, weil eben die 4870 nur Dual-Display unterstützt, und ich hier kein Board mit IGP verwende. Im Prinzip reicht das auch, aber manchmal wünsch ich mir doch auch hier einen 3. Monitor.
Alles in allem wird bei beiden Rechnern, sollte mal ein GraKa-Neukauf anstehen, mit Sicherheit die Fähigkeit zur Ansteuerung von 3 Displays eine Rolle spielen.
Martin
James Ryan
2010-01-11, 19:26:46
Das ist reine Treibersache, den Schalter könnte nV jederzeit im Treiber anzeigen.
Sicher?
RGSSAA/SSGSSAA könnte NVIDIA einfach so per Treiberschalter bringen?
MfG :cool:
reunion
2010-01-11, 19:30:48
http://www.xtremesystems.org/forums/showpost.php?p=4194402&postcount=762
Dazu würden wohl auch PHKs +130% für Unigine passen.
Der Typ behauptet ja auch das die Journalisten schon Slides haben und die NDA in wenigen Tagen fällt:
Every invited journalists has complete Fermi Geforce slides now, NDA will lift in few days, but i hope someone broke it and publish something on B3D or somewhere in Asia like always. If you want to know +/- perf. look at my previous post here in this thread.
http://www.xtremesystems.org/forums/showpost.php?p=4193743&postcount=736
Bleibt die Frage warum sonst niemand von diesem Deep Dive berichtet.
Und:
GeForce 380 has huge :smile: power consumption, but performance is only few percent under HD 5970 and far away from HD 5870 perf. Trust me, will see next week on many servers, when NDA for info lifts!
http://www.xtremesystems.org/forums/showpost.php?p=4190012&postcount=599
deekey777
2010-01-11, 19:31:31
Sicher?
RGSSAA/SSGSSAA könnte NVIDIA einfach so per Treiberschalter bringen?
MfG :cool:
ATi hat's ja geschafft.
Sicher?
RGSSAA/SSGSSAA könnte NVIDIA einfach so per Treiberschalter bringen?
MfG :cool:
Ja, könnten sie. Die Performance wäre wohl aber nicht sehr gut ohne Hardware-Support für "Shader Frequency".
Das gibt's aber ab D3D11 auf jeden Fall.
=Floi=
2010-01-11, 19:44:05
ich dachte ab D3D11 gibt es kein SSAA mehr?!
vielleicht hat amd patente auf das ganze.
hoffentlich stimmt die performance dann auf ganzer linie und nicht nur wenn es gerade passt. der R600 war ja auch deswegen ein fail, weil er manchmal so extrem eingebrochen ist. das hat man mit dem RV770 sehr gut behoben.
Menace
2010-01-11, 19:44:06
Immerhin kommt jetzt nvidia doch zur Veröffentlichung (ob es an der besseren Verfügbarkeit der Radeonreihe liegt)? Auf jeden Fall scheint keiner mehr von fail zu reden und Ati wird wohl wieder hinterher hinken.
Immerhin kommt jetzt nvidia doch zur Veröffentlichung (ob es an der besseren Verfügbarkeit der Radeonreihe liegt)? Auf jeden Fall scheint keiner mehr von fail zu reden und Ati wird wohl wieder hinterher hinken.
also ich würde eher noch abwarten ;)
nur weil irgendein typ (mit ganzen 9 postings) schreibt, dass die karte im heaven benchmark schnell ist...??
ich meine allein der satz "We can only laugh now, because Nvidia did it! Perf in Unigine DX11 benchmark is spectacular, Radeon HD 5870 is there like low-end toy for kids against GF100."
wer ist "we" ? nvidia? ein fanboy? und die 5870er als "low end" zu bezeichnen ... naja. wir werden sehen. nur wann ist die frage ;)
ich dachte ab D3D11 gibt es kein SSAA mehr?!
Nein, es gibt kein Anti-Aliasing über den *Treiber* mehr. SSAA ist sogar über die API möglich.
vielleicht hat amd patente auf das ganze.
Nein.
also dem Zed_X typen auf xtreamsystems zu glauben ... ich weiß nicht. schaut euch bitte mal die postings von dem typen an. der ist doch eindeutig ein fanboy erster güte: http://www.xtremesystems.org/forums/search.php?searchid=19242453
G!ZMo
2010-01-11, 19:55:50
http://www.xtremesystems.org/forums/showpost.php?p=4194402&postcount=762
Dazu würden wohl auch PHKs +130% für Unigine passen.
Wenn das wirklich stimmt, hätte Nvidia ja im Prinzip die Leute wie beim G80-Launch an der Nase herumgeführt. :freak:
Botcruscher
2010-01-11, 20:02:37
Wenn das wirklich stimmt, hätte Nvidia ja im Prinzip die Leute wie beim G80-Launch an der Nase herumgeführt. :freak:
Mit was den? Den Nichtinformationen zur Geschwindigkeit, welche sie nicht gegeben haben? Wer nichts sagt kann auch niemanden veräppeln. Der Rest bezieht sich ja auf die Probleme bei der Herstellung. Da waren die Spekus ja richtig.
=Floi=
2010-01-11, 20:03:37
über die api ist SSAA mist. :rolleyes:
da kann es von mir aus langsamer sein, aber dann bin ich wenigstens nicht auf die entwickler angewiesen. Da ist man ja verloren...
vielleicht bringt nv mal wieder einen hack. ;) :D
----
edit
wenn die performance dann doch nicht passt, dann ist die enttäuschung umso größer...
y33H@
2010-01-11, 20:07:06
Mit DX10/11 bist du iirc auf Gedeih und Verderb dem Dev ausgeliefert. Fordert das Spiel MSAA/SSAA/whatever an, ists gut. Ansonsten fail ;(
AnarchX
2010-01-11, 20:16:31
Der Typ behauptet ja auch das die Journalisten schon Slides haben und die NDA in wenigen Tagen fällt:
http://www.xtremesystems.org/forums/showpost.php?p=4193743&postcount=736
Bleibt die Frage warum sonst niemand von diesem Deep Dive berichtet.
Carsten von PCGH auch beim "Deep Dive"?
I asked im about three or four times quite explictly and he remained adamant. Also other guys assured me, that it was only running on one card - and i have reason to believe that (which i cannot talk about right now).
http://forum.beyond3d.com/showpost.php?p=1378459&postcount=3442
san.salvador
2010-01-11, 20:19:20
Der Sig-twitter sagt ja. :)
reunion
2010-01-11, 20:22:40
Schön, dann dürfte ja bald die Katze zumindest aus NVs Sicht aus dem Sack sein. Wenn der Typ recht hat gibt es haufenweise NV-Folien, aber Samples erst im Februar.
No one reviewer will get GeForce 300 this week, NVIDIA will send samples later in february. But they will have many infos about GeForce architecture, features, performance - but no CLOCKS! In few days NDA lifts (someone will leak it, for sure) and every server will bring article about it, be patient.
http://www.xtremesystems.org/forums/showpost.php?p=4187750&postcount=468
Botcruscher
2010-01-11, 20:27:19
Klasse. Da gibts dann gut 4-6 Wochen lang nur Propagandafolien von ausgewählten Situationen.
dildo4u
2010-01-11, 20:28:32
Klasse. Da gibts dann gut 6 Wochen lang nur Propagandafolien von ausgewählten Situationen.
Das selbe in Rot gabs mit massig 8XAA Benches lange bevor die Reviewer Karten hatten.
Botcruscher
2010-01-11, 20:29:46
Exakt. Absolut nichts sagend und maximal zur Belustigung geeignet.
Das selbe in Rot gabs mit massig 8XAA Benches lange bevor die Reviewer Karten hatten.
wo bitte? link her, sofort.
reunion
2010-01-11, 20:30:19
Das selbe in Rot gabs mit massig 8XAA Benches lange befor die Reviewer Karten hatten.
Das waren klassische NDA-Brecher, kein "Folien-Launch". Und das war wenige Tage vor den unabhängigen Tests, nicht lange bevor die Reviewer Karten hatten. Aber es ist nur logisch das NV das in einer solchen Situation macht.
Das selbe in Rot gabs mit massig 8XAA Benches lange bevor die Reviewer Karten hatten.
Sogar nach den Reviewer Karten hielt es an.
derguru
2010-01-11, 20:31:37
von nv kommen benchmarkfolien mit physXunterstützung und dann rockt die hütte.:biggrin:
Botcruscher
2010-01-11, 20:32:42
von nv kommen dann benchmarkfolien mit physXunterstützung und dann rockt die hütte.:biggrin:
Deswegen auch R8XX gleich lowend.;D Oh gott ich sehe es schon kommen...:freak:
EDIT: Batman AA mit gigantischen Balken...
Dann flattern die umherliegenden Blätter in Batman AA noch schneller herum...Wie geil ist das denn:rolleyes:
Es wird wirklich Zeit das Fermi kommt!
y33H@
2010-01-11, 20:47:38
Wenn schon die Demo mit 8x MSAA rennt, dann hat NV wohl diese "Schwäche" gefixt und 32x AA vermutet ail richtig. Aber der schweigt ja (noch) ;D
boxleitnerb
2010-01-11, 20:53:59
Wie kommt es eigentlich, dass es erst hießt, man wolle den Verbrauch auf GTX285 Level halten und jetzt gibts vermehrt Gerüchte von heiß, stromhungrig...waren die ersten Annahmen schlicht falsch oder hat man sich verschätzt bei Nvidia?
Noch mehr wundert mich, dass es Andeutungen gibt, dass die 20-30 % Mehr-Performance gegenüber 5870 nur wenig repräsentative schlechte Vantage Werte wären...
Noch mehr wundert mich, dass es Andeutungen gibt, dass die 20-30 % Mehr-Performance gegenüber 5870 nur wenig repräsentative schlechte Vantage Werte wären...
Welche Andeutungen gab es die letzten Monate eigentlich nicht?:)
Menace
2010-01-11, 21:06:12
Die 130 % sind doch echte 130 % also mehr als doppelt so schnell, oder?
boxleitnerb
2010-01-11, 21:07:53
+130% würde ich als das Bezugsobjekt x2.3 interpretieren.
AnarchX
2010-01-11, 21:08:07
Wie kommt es eigentlich, dass es erst hießt, man wolle den Verbrauch auf GTX285 Level halten und jetzt gibts vermehrt Gerüchte von heiß, stromhungrig...waren die ersten Annahmen schlicht falsch oder hat man sich verschätzt bei Nvidia?
Da hat man wohl Simulationen gefahren, die laut Ailuros wohl noch 0.95V für 1.6GHz Shadertakt ergaben. Jetzt ist man wohl eher bei 1.05V 1.4GHz.
Aber das ist wohl ein Punkt, wo man sich häufig verschätzt in der Fertigung von GPUs, man erinnere sich an den >2GHz G92.
Die 130 % sind doch echte 130 % also mehr als doppelt so schnell, oder?
130% würde ich als 30% schneller als... deuten.
Es müsste schon eher 130% schneller als... heißen
Aber da kann man wie immer auch den Weltuntergang oder UFOs reininterpretieren.:)
boxleitnerb
2010-01-11, 21:11:54
Hm ja gut 10% mehr Spannung heißt grob 20% mehr Leistungsaufnahme. Vielleicht reift der Prozess ja noch mit der Zeit und im Sommer haben wir sparsamere Karten.
crux2005
2010-01-11, 21:19:28
http://s12.directupload.net/images/100111/csttzrqk.jpg
^^
Dimon
2010-01-11, 21:28:22
Wäre lustig wenn Nvidia dass ganze wie mit dem G80 wiederholt :freak:
Gruß
Das stimmt zwar, aber wie viele werden sich 2 oder mehr GF100 holen?
Zunächst mal herrscht zwischen beide was klassische Bildschirme (also DVI+VGA) angeht Gleichstand - zwei Schirme pro Karte bzw GPU. Eyefinity mit drei Monitoren geht nur per DP und die entsprechenden Monitore sind eher selten und eher nicht billig. Und Monitore mischen ist ja nun das letzte. Relativiert natürlich den Aufpreis für die zweite GF100, für die natürlich zusätzlich die höhere Performance spricht.
deekey777
2010-01-11, 21:40:03
Wäre lustig wenn Nvidia dass ganze wie mit dem G80 wiederholt :freak:
Gruß
Nvidia hatte damals keine Konkurrenz: Weder aus eigenem Haus (G71) noch von ATi (die X1950XTX).
Jetzt sieht es ganz anders aus: Einmal hat ATi wirklich ein sehr starkes Angebot und dazu zum Erscheinen des GF100 seit einem Jahr mit passender Software, und dann gibt es noch die "alten" GT200er, die deutlich günstiger sein werden.
Nvidia wird nie und nimmer so gut verdienen können wie mit dem G80.
Ich denke nicht das er das Verdienen meinte sondern den Leistungssprung :wink:
Eyefinity mit drei Monitoren geht nur per DP und die entsprechenden Monitore sind eher selten und eher nicht billig.
Nur gut, daß es keine DP/DVI-Adapter gibt...
Burgard
2010-01-11, 22:10:01
Wenn man die Gerüchten trauen darf, so hat der Fermi verdammt viel Ähnlichkeit mit einem Prescott, was die thermischen Probleme angeht, der hatte ja auch so seine Gchwierigkeiten mit der Geschwindigkeit in Verbindung mit der Hitzeentwicklung.
Wenn man die Gerüchten trauen darf, so hat der Fermi verdammt viel Ähnlichkeit mit einem Prescott, was die thermischen Probleme angeht, der hatte ja auch so seine Gchwierigkeiten mit der Geschwindigkeit in Verbindung mit der Hitzeentwicklung.
so wie 5870 crossfire?
so wie 5870 crossfire?
Nö, so wie die Mars. :D
Einmal hat ATi wirklich ein sehr starkes Angebot und dazu zum Erscheinen des GF100 seit einem Jahr mit passender Software, und dann gibt es noch die "alten" GT200er, die deutlich günstiger sein werden.
Naja wirklich stark ist das ATI-Angebot nicht gerade, ich bezweifle aber das Fermi so viel stärker wird ;)
Naja wirklich stark ist das ATI-Angebot nicht gerade, ich bezweifle aber das Fermi so viel stärker wird ;)Dafür aber deutlich wärmer ;-)
san.salvador
2010-01-11, 22:49:56
Passt schon, draußen hats unter 0°C. Warme Haxn und viele Frames - Herz, was willst du mehr? :D
Tesseract
2010-01-11, 22:54:56
Wenn man die Gerüchten trauen darf, so hat der Fermi verdammt viel Ähnlichkeit mit einem Prescott, was die thermischen Probleme angeht, der hatte ja auch so seine Gchwierigkeiten mit der Geschwindigkeit in Verbindung mit der Hitzeentwicklung.
würde mich wundern da die beiden architekturen verschiedener kaum sein können. fermi ist ein relativ niedrig getaktetes, ultrabreites transistormonster wärend ein prescott ein eher schlankes (abgesehen vom cache vielleicht), dafür hochgezüchtetes taktmonster ist.
gemeinsam haben sie wohl, dass beide für den stand der fertigungstechnik zu ambitioniert waren aber die problematik dürfe eine ganz andere sein.
Burgard
2010-01-11, 23:33:00
würde mich wundern da die beiden architekturen verschiedener kaum sein können. fermi ist ein relativ niedrig getaktetes, ultrabreites transistormonster wärend ein prescott ein eher schlankes (abgesehen vom cache vielleicht), dafür hochgezüchtetes taktmonster ist.
gemeinsam haben sie wohl, dass beide für den stand der fertigungstechnik zu ambitioniert waren aber die problematik dürfe eine ganz andere sein.
Auf die Architektur wollte ich auch nicht hinaus. GPU und CPU kann man da eh nicht vergleichen.
Unter der Bedingung, dass die Gerüchte stimmen:
Beide sind verdammt heiss, grosse Stromfresser und haben beide ihre Probleme die gesteckten Taktziele zu erreichen.
Mehr Leistung als eine einzelner RV870, bei minimalen Mehrverbrauch deute ich nicht als schlecht.
Passt schon, draußen hats unter 0°C. Warme Haxn und viele Frames - Herz, was willst du mehr? :D
Einen 1-jährigen Gutschein für die Stromrechnung, in dem Verhältnis, in dem Fermi schlechter beim spezifischen Verbrauch gegenüber einer 5870 sein sollte, multipliziert mit dem Preis der Kilowattstunde im jeweiligen Vertriebsgebiet. :D
Gut, betrifft eigentlich nur Deutschland, da ist Strom sauteuer.
Ja, könnten sie. Die Performance wäre wohl aber nicht sehr gut ohne Hardware-Support für "Shader Frequency".
Das gibt's aber ab D3D11 auf jeden Fall.
Also da wird nvidia seit der voodoo3 für ihr qualitativ minderwertiges AA kritisiert, obwohl es für die absolut kein problem wäre auch RGSSAA oder SGSSAA anzubieten?!
tombman
2010-01-12, 00:06:46
http://www.xtremesystems.org/forums/showpost.php?p=4194402&postcount=762
Dazu würden wohl auch PHKs +130% für Unigine passen.
PS. Yeah, GF100 has 512 CC, and GPUs are in massproduction now, plenty of manufacturers have first GF100 inhouse.
http://blog.hmes.kh.edu.tw/wordpress/ycns/files/2009/05/spongebob-wallpaper-151.jpg
Passt schon, draußen hats unter 0°C. Warme Haxn und viele Frames - Herz, was willst du mehr? :D
:up:
Also, wenn die letzten Gerüchte stimmen, würden mir wohl 2 oder sogar 1 (!) Furby reichen :cool:
Nightspider
2010-01-12, 00:21:24
http://blog.hmes.kh.edu.tw/wordpress/ycns/files/2009/05/spongebob-wallpaper-151.jpg
:up:
Also, wenn die letzten Gerüchte stimmen, würden mir wohl 2 oder sogar 1 (!) Furby reichen :cool:
Wohl eher 2 ;)
Selbst mir wär vllt nichtmal mehr eine Fermi genug...
Wenn man einmal mit SLI angefangen hat.... :freak:
Blaire
2010-01-12, 00:23:08
Wenn man einmal mit SLI angefangen hat.... :freak:
Fang bloß nicht mit Dreien an. ;)
tombman
2010-01-12, 00:36:50
Fang bloß nicht mit Dreien an. ;)
Oder 4 :devil:
pervert
2010-01-12, 01:06:57
Oder ner Freundin :devil:
tombman
2010-01-12, 01:12:44
Oder schwarz-weiß Schminke :devil:
*lol* zu süß, wie hier einige auf Gerüchte von Low-Count-Postern abfahren :-)
tombman
2010-01-12, 01:25:29
*lol* zu süß, wie hier einige von Forenposts auf echte Gefühle schließen :-)
@mod: bitte aufräumen :rolleyes:
Oder 4 :devil:
Spricht man bei 4en schon von Makro-Rucklern? =)
tombman
2010-01-12, 01:34:27
Spricht man bei 4en schon von Makro-Rucklern? =)
Nö, das rennt erstaunlich gut ;)
Wir sind ja nicht bei ATI :weg:
Obwohl ich nicht daran glaube das GF100 so schnell wird, ihr überseht bei +130% das Vorzeichen. Wenn da steht =130% dann ist eine Performancesteigerung von 30% gemeint, bei +130% sind es auch 130%.
tombman
2010-01-12, 01:57:48
+130% = bullshit
130% kann ich glauben...
deekey777
2010-01-12, 02:04:57
Nvidia Fermi Production and Availability (http://www.tomshardware.com/news/nvidia-fermi-gpu,9420.html)
We received word from an Nvidia partner that Fermi will go into production starting in the 3rd week of February, and be available in "low quantities" starting mid-march.
Aha. Und ich dachte schon, der Fermi wäre schon in "Volume Production".
Wahrscheinlich ist das bei den Yields die "Mass Production" *sigh*
tombman
2010-01-12, 02:26:20
Na toll, also heißts wieder: Deppenaufschlag zahlen und schneller als die anderen bestellen/reservieren :ugly:
Oder bis Mai warten...
mapel110
2010-01-12, 02:56:15
Gibts keinen Unterschied zwischen Massenproduktion der Chips und Massenproduktion der Boards?!
Für die Boards brauchst du auch GPUs. Oder meinst du PCBs?
mapel110
2010-01-12, 03:15:32
Für die Boards brauchst du auch GPUs. Oder meinst du PCBs?
Ja, PCBs. Kann ja sein, dass nvidia erstmal genug GPUs produzieren möchte, damit beim Start auch alle Boardpartner einige Exemplare bekommen.
mictasm
2010-01-12, 03:17:41
Er meinte Chips und fertige Grafikkarten. Und nach den Interpretationen der ATI-Verkaufszahlen durch die ATI-Verfechter gibt es da keinen Unterschied. ;)
EDIT: Zu langsam abgeschickt...
Gipsel
2010-01-12, 04:28:11
Nvidia Fermi Production and Availability (http://www.tomshardware.com/news/nvidia-fermi-gpu,9420.html)
Hat sich das mal irgendwer durchgelesen?
According to our source, Fermi's yield will be low but not any worse than what AMD/ATI is experiencing. TSMC, the company producing Radeon HD 5800 series at 40nm, is "happy at 4-percent yield," said our source.
Nvidia's Fermi GPU will be the company's first DX11 GPU.
Update:to clarify, the 4-percent yield is regarding Radeon HD 5800 series. Nvidia's Fermi is expected to do better.
Mal schauen. ATI hat angeblich in den ersten 3 Monaten über 800.000 DX11 GPUs der 5700er/und HD5800er verkauft, dazu sind kürzlich noch eine gute Million HD54/55/5600er gekommen. Rechnen wir mal der Einfachheit halber mit ~250 Candidates pro Wafer als Mittel zwischen HD57/5800. Bei 4% Yield, muß man damit mindestens 20 Millionen Kandidaten, d.h. mindestens 80,000 Wafer in 40nm belichten.
Hat TSMC eigentlich auch noch was anderes gemacht? Aber da sie ja glücklich sind mit dem was sie machen, geht das wohl schon in Ordnung ;D
4%? WTF? Seriously?
Irgendwie glaube kann ich das kaum glauben.
Wahrscheinlich ist das bei den Yields die "Mass Production" *sigh*
IN dem Zeitrahmen ist mehr als gerine Mengen selbst bei 100% Yield kaum möglich.
4%? WTF? Seriously?
Irgendwie glaube kann ich das kaum glauben.
Nicht im Schnitt, aber am Anfang der Fertigung solllen einzelne Wafer in diesem Bereich gelegen haben.
Hat sich das mal irgendwer durchgelesen?
Mal schauen. ATI hat angeblich in den ersten 3 Monaten über 800.000 DX11 GPUs der 5700er/und HD5800er verkauft, dazu sind kürzlich noch eine gute Million HD54/55/5600er gekommen. Rechnen wir mal der Einfachheit halber mit ~250 Candidates pro Wafer als Mittel zwischen HD57/5800. Bei 4% Yield, muß man damit mindestens 20 Millionen Kandidaten, d.h. mindestens 80,000 Wafer in 40nm belichten.
Hat TSMC eigentlich auch noch was anderes gemacht? Aber da sie ja glücklich sind mit dem was sie machen, geht das wohl schon in Ordnung ;D
sind laut Dave Baumann anscheinend nur 2 Mio Cypress + Juniper im Verhältnis 1:2.
Ailuros
2010-01-12, 07:28:06
http://www.xtremesystems.org/forums/showpost.php?p=4194402&postcount=762
Dazu würden wohl auch PHKs +130% für Unigine passen.
Ich hab kein Prozentual wie hoch der Unterschied ist, aber auf jeden Fall spricht sich herum dass sie ausgezeichnete Arbeit im trisetup gemacht haben.
32xAA ist wohl wie ich mir dachte 8xMSAA + 24xCSAA. Unter welchen Vorraussetzungen solche ein modus eigentlich nur Sinn macht hab ich auch damals gepostet.
Hat sich das mal irgendwer durchgelesen?
Mal schauen. ATI hat angeblich in den ersten 3 Monaten über 800.000 DX11 GPUs der 5700er/und HD5800er verkauft, dazu sind kürzlich noch eine gute Million HD54/55/5600er gekommen. Rechnen wir mal der Einfachheit halber mit ~250 Candidates pro Wafer als Mittel zwischen HD57/5800. Bei 4% Yield, muß man damit mindestens 20 Millionen Kandidaten, d.h. mindestens 80,000 Wafer in 40nm belichten.
Hat TSMC eigentlich auch noch was anderes gemacht? Aber da sie ja glücklich sind mit dem was sie machen, geht das wohl schon in Ordnung ;D
Bei 800.000 Evergreens waren es knapp 300.000 5800-er. Ergo irgendwo um die 38%. Wenn ich jetzt auf 2Mio EGs hochrechne, bekomm ich mit einer sterilen Milchmaedchenrechnung bis zu 760.000 5800-er. Das dumme ist jetzt aber dass ich es nicht stur pro Monat ausrechnen kann denn es war glauch ich um die 50.000 im ersten Monat und von da ab ging es aufwaerts. Bei GF100's A2 schwankte angelich NV's yield zwischen 4 und 43%, ergo wuerde es mir keinen besonderen Eindruck machen wenn AMD's erster minimaler yield auch einstellig war aber dieses nur am Anfang. Die Tendenz ist pro Monat deutlich steigend und es kann nicht sein dass beide IHVs immer noch bei 4% minimal liegen.
Ich bin mir zwar nicht sicher aber ich tendiere zu glauben dass AMD's yields im absoluten Durchschnitt heute bei ca. 50% liegen. Selbst wenn man jetzt Juniper von Cypress trennt und sich nur auf's erste konzentriert macht wie man es auch verdreht 4% (min.) keinen Sinn.
Nicht im Schnitt, aber am Anfang der Fertigung solllen einzelne Wafer in diesem Bereich gelegen haben.
Da GF100 A2 irgendwo um den Zeitpunkt vom Labor zurueckkam kann ich es auch durchaus glauben. Die Sache wird aber hier doch etwas komplizierter. Wenn NV selber hinter den Kulissen minimal 4% angibt dann stockt mir meine Logik irgendwo dass ein um ca. 1/3 weniger komplizierter chip (cypress) beim gleichen Prozentual liegen wuerde. Die naechst beste Frage waere dann was zum Henker genau mit den jeweiligen TSMC Vertraegen genau los ist (spricht wohl nicht dafuer dass jeglicher IHV nur pro funktionierendem chip bezahlt...) und bleibt auch dann die Frage warum NV mit A2 nicht auch in Massenproduktion ging.
Die einzige sinnvolle momentan Antwort waere dass NV schlechtere yields zu diesem Zeitpunkt hatte und selbst wenn AMD's minimale yields bei 4% damals lagen, sagt mir das immer noch nichts aus da mir auch keiner erzaehlen kann wie oft je nach chip dieses ominoese 4% erschien. Es macht schon einen gewaltigen Unterschied wenn es pro X wafer sagen wir mal 2 Mal vorkommt und im anderen Fall pro X dann 10 Mal.
Da kann ich Dir nur zustimmen. Die 4% Yield sind Etremfälle für einzelne Wafer. ICh mag glauben, dass auch ATI solche Wafer hatte, immerhin haben sie wohl angefangen als Fermi A1 war.
Ailuros
2010-01-12, 08:21:11
Mir waere es wichtiger herauszufinden warum NV spaeter ankommt. Wenn man NV's Kerlen glaubt, dann war selbst A1 problemlos. Wenn AMD's 40G Herstellung problemlos waere haette ich erstmal einen ernsthaften Grund es zu bezweifeln.
So wie es aussieht kann es gar nicht sein dass NV nicht schlechtere yields hatte als AMD bis jetzt und dieser 4% Quark ist IMO nur elendiger FUD gegen AMD. Ebenso auch jeglicher Versuch die bis jetzt 2Mio Evergreen SKUs als Anzahl als bedeutungslos zu illustrieren.
PR bullshit zur Seite ca. 5 Monate Unterschied von Cypress zu "360" Verfuegbarkeit ist ein ziemlich grosser Zeitraum fuer den GPU Markt.
mapel110
2010-01-12, 08:25:26
Anfang Februar kommen ja neue Quartalszahlen von nvidia. Dann wird wohl ein Teil der Wahrheit aufgedeckt. Dann dürfte der FUD von nvidia ein Ende haben.
Simon Moon
2010-01-12, 08:25:33
Wen interessieren denn schon die min. Yields? Wenn eine solch aussaglose Zahl genommen wird, um sich vor dem Konkurrenten zu brüsten, der kann doch bei den aussagekräftigen Zahlen folglich nur schwächer auf der Brust sein. Sprich, avg. 9% mit Ausreissern nach oben und unten auf 4 bzw. 14% ist immer noch besser als 8% mit Aussreissern von 5 bis 11%.
Darauf deutet doch auch hin, dass NV gewisse Einheiten deaktiviert (oder ist das schon wieder dementiert?), was Redundanz ergibt. Mehr Redundanz sollte dann auch die Schwankungen zwischen den einzelnen Wafern verringern. Auch ein A3 Stepping, würde doch dann Sinn ergeben... oder hab ich hier nun einen riesen Denkfehler?
Ailuros
2010-01-12, 08:33:52
Darauf deutet doch auch hin, dass NV gewisse Einheiten deaktiviert (oder ist das schon wieder dementiert?), was Redundanz ergibt. Mehr Redundanz sollte dann auch die Schwankungen zwischen den einzelnen Wafern verringern.
Sicher. Nur gehoert die 5850 genau in die gleiche Kategorie wie eine hypothetische "360". Bei dem Preis einer 5850 (und dessen ziemlich guter Ubertaktbarkeit) ist es fast schon Bloedsinn (fuer diejenigen die sich nicht vor normaler Ubertaktung scheuen) zu einer 5870 zu greifen. Es wird also ziemlich schwer sein einzuschaetzen wie viel von AMD's verkauften 5800-er dann 5850 und wie viel 5870 waren; ich denke aber dass die Anzahl der 5850-er um einiges groesser sein sollte (sonst haetten sie auch zwischendrin den Preis der 5850 nicht erhoeht; dieses war eine Notloesung denn es gab vor dem Ausklang von 2009 eine merkwuerdige Schwankung der yields nach unten und es gab die Gefahr dass AMD keinen Gewinn mehr gemacht haette mit den 5850 dank zu niedriger originaler MSRP).
Auch ein A3 Stepping, würde doch dann Sinn ergeben... oder hab ich hier nun einen riesen Denkfehler?
A3 ist nach wie vor ein metal spin, ergo man kann mit dem Ding nichts nenneswertes anrichten was yields betrifft. Generell nur kleinere Schoenheitsfehler. Von dem abgesehen sind TSMC's 40G yields auf sehr gutem Aufschwung momentan nach Geruechten.
reunion
2010-01-12, 08:42:02
+130% = bullshit
130% kann ich glauben...
+130% in Unigine Benchmark ist IMO möglich, wenn sie wirklich wie jetzt schon mehrmals gemutmaßt das Trisetup deutlich verbessert haben. Denn dort gibt es derart viele kleine Dreiecke, dass das wohl sehr entscheidend ist. Dieses Meeting hat definitiv stattgefunden und der Typ aus China erzählt auch viel zu viele Einzelheiten um sich das ausgedacht zu haben. Ich glaube ihm. Er sagt ja selbst Performance knapp unter 5970 aber deutlich über 5870. Wenn man jetzt noch bedenkt das die Angaben von NV kommen sind schnell nochmal 10-20% weg und wir kommen dort hin womit wir eh schon lange rechnen.
Ailuros
2010-01-12, 08:57:04
+130% in Unigine Benchmark ist IMO möglich, wenn sie wirklich wie jetzt schon mehrmals gemutmaßt das Trisetup deutlich verbessert haben. Denn dort gibt es derart viele kleine Dreiecke, dass das wohl sehr entscheidend ist. Diese Meeting hat definitiv stattgefunden und der Typ aus China erzählt auch viel zu viele Einzelheiten um sich das ausgedacht zu haben. Ich glaube ihm. Er sagt ja selbst Performance knapp unter 5970 aber deutlich über 5870. Wenn man jetzt noch bedenkt das die Angaben von NV kommen sind schnell nochmal 10-20% weg und wir kommen dort hin womit wir eh schon lange rechnen.
Tja und hier kommen wir zur eigentlichen Spekulation. Seit G80 (auch frueher aber nicht mehr relevant) sind es in der Mehrzahl der Faelle 1Tri/2clocks. Bei GF100 kann es gar nicht anders sein als dass das Ding rundum 1Tri/clock schafft. Wenn aber das trisetup weiterhin auf core Frequenz liegt, ist das theoretische Maximum immer noch ein gutes Stueck unter einer Cypress mit 850MHz.
Bessere Effizienz? Trisetup bei hot clock? oder noch weitere Fragezeichen....kann uns jemand unter die Arme greifen? Gipsel, Coda und co?
Ailuros
2010-01-12, 09:06:32
Mehr als 2 Clockdomänen?
Gibt es so oder so schon da einige Anteile seit G80 auf 1/2 des hot clocks laufen. Selbst wenn jetzt das trisetup auf half hot clock laufen wuerde dann sieht es auch nicht nach mehr als 750MHz aus.
Ich trappe zwar hier im Dunkeln, aber wenn sie womoeglich schon den gesamten Tesselations-datenfluss in die programmierbare pipeline geschleusst haben, klingt mir als Laie das trisetup@hot clock gar nicht so absurd. Kann aber natuerlich total auf dem falschen Pfad sein.
Simon Moon
2010-01-12, 09:06:39
Sicher.
Mir ging es eigentlich nur um die 4% min yield, von denen hier die Rede ist.
Was ist ein metal spin?
Mir waere es wichtiger herauszufinden warum NV spaeter ankommt. Wenn man NV's Kerlen glaubt, dann war selbst A1 problemlos. Wenn AMD's 40G Herstellung problemlos waere haette ich erstmal einen ernsthaften Grund es zu bezweifeln.
So wie es aussieht kann es gar nicht sein dass NV nicht schlechtere yields hatte als AMD bis jetzt und dieser 4% Quark ist IMO nur elendiger FUD gegen AMD. Ebenso auch jeglicher Versuch die bis jetzt 2Mio Evergreen SKUs als Anzahl als bedeutungslos zu illustrieren.
PR bullshit zur Seite ca. 5 Monate Unterschied von Cypress zu "360" Verfuegbarkeit ist ein ziemlich grosser Zeitraum fuer den GPU Markt.
Da der AMD Chip eben deutlich kleiner ist, dürfte der Ertrag and nutzbaren Chips bei vergleichbarer Schwankungsbreite des Yields besser sein. Und berühmt war die Verfügbarkeit am Anfang nun auch nicht gerade. Fall NV es nun geschafft haben sollte von A1 auf A3 den Takt zu erhöhen und damit das Delta zum 5870 zu vergrößern, dann kann es, neben der NV internen Verzögerung, imho auch eine bewußte Entscheidung gewesen sein zu warten, bis die Yields besser sind.
Wenn ATI mit dem nächsten Chip wirklich zu GF wechselt und einen Release in 2010 plant war das Zeitfenster für den Cypresslaunch schon dadurch klar definiert. Wenn NV bei TSMC belieben will, dann hängt es bei ihnen sowieso an TSMC, die Lebensdauer von GF100 verkürzt sich in diesem Falle durch die Verzögerung nicht. (Davon ausgehend, dass sie keinen 40nm Refresh planen)
Gibt es so oder so schon da einige Anteile seit G80 auf 1/2 des hot clocks laufen. Selbst wenn jetzt das trisetup auf half hot clock laufen wuerde dann sieht es auch nicht nach mehr als 750MHz aus.
Ich trappe zwar hier im Dunkeln, aber wenn sie womoeglich schon den gesamten Tesselations-datenfluss in die programmierbare pipeline geschleusst haben, klingt mir als Laie das trisetup@hot clock gar nicht so absurd. Kann aber natuerlich total auf dem falschen Pfad sein.
In dem Falle würde die Leistung selbst bei 650/1430 höher liegen als man erwartete. Was nun wieder die neusten Gerüchte erklären würde.
Wobei mir momemtan am meisten die Frage bschäftigt was GF104 ist. DualGPU des GF100 glaube ich ja nicht. Stelle ich mir eine performance Variante des GF100 mit 256SP und 256Bit vor, dann wäre das Ding unter diesen Bedingungen schon recht mächtig.
tombman
2010-01-12, 09:18:24
+130% in Unigine Benchmark ist IMO möglich, wenn sie wirklich wie jetzt schon mehrmals gemutmaßt das Trisetup deutlich verbessert haben. Denn dort gibt es derart viele kleine Dreiecke, dass das wohl sehr entscheidend ist. Dieses Meeting hat definitiv stattgefunden und der Typ aus China erzählt auch viel zu viele Einzelheiten um sich das ausgedacht zu haben. Ich glaube ihm. Er sagt ja selbst Performance knapp unter 5970 aber deutlich über 5870. Wenn man jetzt noch bedenkt das die Angaben von NV kommen sind schnell nochmal 10-20% weg und wir kommen dort hin womit wir eh schon lange rechnen.
Ich meinte nicht Tess. allein, sondern die durchsch. Gesamtleistung...
Ailuros
2010-01-12, 09:41:39
Da der AMD Chip eben deutlich kleiner ist, dürfte der Ertrag and nutzbaren Chips bei vergleichbarer Schwankungsbreite des Yields besser sein. Und berühmt war die Verfügbarkeit am Anfang nun auch nicht gerade. Fall NV es nun geschafft haben sollte von A1 auf A3 den Takt zu erhöhen und damit das Delta zum 5870 zu vergrößern, dann kann es, neben der NV internen Verzögerung, imho auch eine bewußte Entscheidung gewesen sein zu warten, bis die Yields besser sind.
Wenn ATI mit dem nächsten Chip wirklich zu GF wechselt und einen Release in 2010 plant war das Zeitfenster für den Cypresslaunch schon dadurch klar definiert. Wenn NV bei TSMC belieben will, dann hängt es bei ihnen sowieso an TSMC, die Lebensdauer von GF100 verkürzt sich in diesem Falle durch die Verzögerung nicht. (Davon ausgehend, dass sie keinen 40nm Refresh planen).
Erstes tape out hat bei jeglichem chip stets moderatere Frequenzen afaik und dieses sind ein Resultat von unendlichen Sicherheitsmassnahmen die die foundry vorschreibt. Wenn am Ende alles gut gelaufen ist dann legen die IHV weder die konservativste noch die bestmoegliche Frequenz eines chips fuers Ende an, sondern eher etwas das irgendwo in der Mitte liegt.
Natuerlich planen sie einen Refresh fuer's zweite Halbjahr.
In dem Falle würde die Leistung selbst bei 650/1430 höher liegen als man erwartete. Was nun wieder die neusten Gerüchte erklären würde.
Wobei mir momemtan am meisten die Frage bschäftigt was GF104 ist. DualGPU des GF100 glaube ich ja nicht. Stelle ich mir eine performance Variante des GF100 mit 256SP und 256Bit vor, dann wäre das Ding unter diesen Bedingungen schon recht mächtig.
Wenn sie irgendwo bei 285 Frequenzen (650/1470) anlegen und auch der Stromverbrauch in etwa auf diesem Nivaeu liegt, kann man erstmal einen kastrierten dual chip nicht ausschliessen. Ob dieser jetzt gleich anschliessend kommt oder nach einem echtem respin in ~H2 kann ich natuerlich nicht wissen, aber wenn es mit GT200b/B3 ging (fuer GTX285 und 275 bzw. 295 (275*2) sehe ich nicht ein warum sie sich vor einem dual chip scheuen wuerden. Die Frage ist eher wann und nicht ob.
Tja und hier kommen wir zur eigentlichen Spekulation. Seit G80 (auch frueher aber nicht mehr relevant) sind es in der Mehrzahl der Faelle 1Tri/2clocks. Bei GF100 kann es gar nicht anders sein als dass das Ding rundum 1Tri/clock schafft. Wenn aber das trisetup weiterhin auf core Frequenz liegt, ist das theoretische Maximum immer noch ein gutes Stueck unter einer Cypress mit 850MHz.
Bessere Effizienz? Trisetup bei hot clock? oder noch weitere Fragezeichen....kann uns jemand unter die Arme greifen? Gipsel, Coda und co?
ist das sicher 1Tri/clock?
vielleicht doch 1Tri/2clocks aber dann bei hot clock?
oder vielleicht ein Ansatz wie Inel bei den "double pumped ALU's"? -> Tri-setup mit doppeltem Takt?
vielleicht is der GF100 A3 ähnlich wie der GT200b3 für die Dual-Karte gedacht?
Falls GF100 mit der 5970 mithalten kann, braucht NV da überhaupt eine Dual-Karte?
Ailuros
2010-01-12, 09:58:44
ist das sicher 1Tri/clock?
Mir macht als Laie weniger fuer etwas dass mit adaptiver Tesselation umgehen muss nicht besonders viel Sinn, lass mich aber gerne korrigieren.
vielleicht doch 1Tri/2clocks aber dann bei hot clock?
Ein Schritt nach vorne und ein Schritt zurueck?
vielleicht is der GF100 A3 ähnlich wie der GT200b3 für die Dual-Karte gedacht?
B3@55nm war kein metal spin sondern ein "voller" respin.
Ein Schritt nach vorne und ein Schritt zurueck?
ich bin auch nur Laie. Kommt drauf an wie groß die Schritte sind.
Am besten wäre 1Tri/clock @ hot clock :wink:
doppelter Takt wie die P4-ALU? wäre das möglich?
B3@55nm war kein metal spin sondern ein "voller" respin.
Ich wußt nicht dass B3 ein "voller" respin war
reunion
2010-01-12, 10:57:44
Angeblich gab es gar keine Leistungsangaben am "Deep Dive":
"It was all technical. But no clock speeds, power consumption or benchmarks were being shown…yet at least," the source confirmed at the time of writing.
http://www.tgdaily.com/hardware-brief/45444-nvidia-holds-clandestine-fermi-briefing
reunion
2010-01-12, 11:25:27
Noch was am 13. Januar:
You’re Invited: Join us for a webinar on Wednesday January 13, 2010, 10am – 11am pst
Do Science with Tesla Today. Be First to do Mad Science with Fermi.
NVIDIA’s next generation CUDA architecture, code named “Fermi” is the most advanced GPU computing architecture ever built. Join us for a live webinar to learn about the new Tesla GPU Compute solutions built on Fermi and the dramatic performance capabilities they offer customers who are tackling the most difficult, compute-intensive problems. In addition you will learn about our limited time offer, the Mad Science Promotion, whereby you may qualify for a promotional upgrade to a new NVIDIA Fermi-based Tesla product when you purchase a NVIDIA® Tesla™ C1060 GPU Computing Processor or a S1070 1U GPU Computing System today.
Who Should Join: Researchers, Scientists and other Professionals looking to accelerate compute-intensive applications with the GPU
Presenter: Sumit Gupta, Sr Product Manager, NVIDIA GPU Compute Solutions
When: Wednesday January 13, 2010, 10am – 11am pst""
http://www.xtremesystems.org/forums/showpost.php?p=4195403&postcount=795
Tarkin
2010-01-12, 11:36:36
Noch was am 13. Januar:
http://www.xtremesystems.org/forums/showpost.php?p=4195403&postcount=795
100%ig gibt's da auch nichts bzgl. Clocks und (Games)Performance zu hören
Ailuros
2010-01-12, 11:46:04
Ich sag es nochmal: A3 wurde nach Geruechten Anfang Dezember ins Labor geschickt. Ca 4 Wochen Laufzeit fuer einen metal spin im Labor klingt mir als eine verdammt optimistische Rekordlaufzeit inklusive auch die Zeit die man braucht einige fertige GPUs daraus herzustellen.
Aber jetzt egal was eigentlich in den Vorzeige-Systemen steckte, es ist so oder so peinlich wenn ein demo bei einer Vorfuehrung abstuerzt. Dass sie nichts ueber Stromverbrauch momentan aussagen heisst entweder dass etwas nicht damit stimmt oder man haelt elegant die Klappe ueber jegliches relevantes bis der erste Schub an finaler hw erstmal ankommt.
Wenn man davon ausgeht, dass ATI ne 5890 nachschieben könnte, wenn Fermi launcht, dann würde ich auch relevante Details so lange wie möglich geheim halten. Waren auf dem Demokarten A2 Chips, dann wären mir Gerüchte über "hot Chips" gar nicht unangenhem, wenn A3 eine Verbesserung bringt. NV liebt solche Tricks, aber sie würden genaus gut echte Probleme so lange wie möglich verschweigen.
mapel110
2010-01-12, 12:15:22
http://www.fudzilla.com/content/view/17197/34/
Noch einige Fuad-Meldungen über fermi. Zwei Varianten am Anfang und Dual chip 1-2 Monate später. Und Fermi soll heißer werden als GTX285.
Eigentlich nur ein Hinweis, die erste Charge zu meiden, denn da wird wohl ne B-Revesion in Arbeit sein.
BlackBirdSR
2010-01-12, 12:29:48
Einige tun hier so, als wäre es nur wichtig, wer den absolut schnellsten Chip hat.
Was Nvidia absolut fehlt sind Mainstream-Chips und die kommen ja ebenfalls sehr viel später. Wenn man jetzt mal eben 200.000 GF100 verkauft ist das gar nichts, wenn ATI in der gleichen Zeit nochmal 2 Mio Mainstream und Low-End Chips absetzen kann.
Mediamarkt und Co. interessiert wenig, wessen 250W TDP-Karte die beste ist. Die paar Foren-User hier und in anderen HW-Foren sind ein relativ kleiner Teil der Absätze.
Nochmal: Es geht nicht darum einmal den 1. Platz zu erreichen, ne Medaille einzustecken und sich dann ein Leben lang zu freuen.
Mediamarkt und Co. interessiert wenig, wessen 250W TDP-Karte die beste ist. Die paar Foren-User hier und in anderen HW-Foren sind ein relativ kleiner Teil der Absätze.
Nochmal: Es geht nicht darum einmal den 1. Platz zu erreichen, ne Medaille einzustecken und sich dann ein Leben lang zu freuen.
Weswegen sich auch seltsamerweise die 1000 x umbenannte G-irgendwas Serie von Nvidia in sämtlichen Low/Mid PC Systemen von Media Markt findet, ATI habe ich im aktuellen Prospekt nur in 1 (!) Highend System gesehen.
Tarkin
2010-01-12, 12:35:24
Einige tun hier so, als wäre es nur wichtig, wer den absolut schnellsten Chip hat.
Was Nvidia absolut fehlt sind Mainstream-Chips und die kommen ja ebenfalls sehr viel später. Wenn man jetzt mal eben 200.000 GF100 verkauft ist das gar nichts, wenn ATI in der gleichen Zeit nochmal 2 Mio Mainstream und Low-End Chips absetzen kann.
Mediamarkt und Co. interessiert wenig, wessen 250W TDP-Karte die beste ist. Die paar Foren-User hier und in anderen HW-Foren sind ein relativ kleiner Teil der Absätze.
Nochmal: Es geht nicht darum einmal den 1. Platz zu erreichen, ne Medaille einzustecken und sich dann ein Leben lang zu freuen.
So ist es... bis März wird AMD wohl insgesamt an die 5Mio DX11 Beschleuniger ausgeliefert haben.
Ailuros
2010-01-12, 12:37:53
We got some thin information on Nvidia Fermi and our sources have strong reasons to believe that Fermi will probably end up hotter than the previous single chip generation, including Geforce GTX 285.
Fermi is a big chip, so this doesn't come as much surprise. As long as it runs stable, people won’t complain about it too much. We’ve seen the card in person at least twice so far and we can tell that the first one we saw has a dual-slot air cooler and runs quite hot. However, this might not be the final revision that should ship later this quarter.
You can only imagine how hot the dual-GPU card will get, and yet Nvidia still plans to make it.
http://www.fudzilla.com/content/view/17198/1/
Palpatin
2010-01-12, 12:37:53
Ich meinte nicht Tess. allein, sondern die durchsch. Gesamtleistung...
30% Mehr Leistung bei 30% mehr Verbrauch und 30% höherem Preis wär ok, aber irgnedwo auch entäuschend da man ja halbes Jahr zu spät dran ist, auf mehr traut man sich auf grund einiger Gerüchte imo leider kaum hoffen und es ist zu erwarten das ATI preislich recht schnell und stark reagieren kann.
reunion
2010-01-12, 12:40:00
http://www.fudzilla.com/content/view/17198/1/
Und du glaubst das A3 da plötzlich Wunder bewirkt?
mapel110
2010-01-12, 12:41:33
Und du glaubst das A3 da plötzlich Wunder bewirkt?
Ich glaube, er wollte damit sagen, dass A3 immer noch nicht fertig ist.
reunion
2010-01-12, 12:42:38
Dann wäre die "mass production" Meldung von Huang schlicht gelogen.
Ailuros
2010-01-12, 12:42:41
Ich bin neugierig ob sich bei NV irgendwo beim zaehlen der Transistoren verwuschtelt hat oder ob sie irgendwann nochmal 140M Transistoren dazugesteckt haben. 3.08 != 3.22
BlackBirdSR
2010-01-12, 12:44:51
Ich bin neugierig ob sich bei NV irgendwo beim zaehlen der Transistoren verwuschtelt hat oder ob sie irgendwann nochmal 140M Transistoren dazugesteckt haben. 3.08 != 3.22
Anders zählen = mehr Transistoren = höhere angebliche Packdichte in den Reviews und besserer Standpunkt ggü ATI im Text .
Ailuros
2010-01-12, 12:45:47
Und du glaubst das A3 da plötzlich Wunder bewirkt?
R600 A10 lag auf ~375MHz, wobei A13 mit 725MHz ankam und garantiert keinen 300W Stromverbrauch wie beim ersten. Zwar ist es zugegeben ein mieser Trick mit dem Beispiel anzukommen, aber trotz allem ist das nicht auch ein "Wunder"?
Anders zählen = mehr Transistoren = höhere angebliche Packdichte in den Reviews und besserer Standpunkt ggü ATI im Text .
Fermi whitepaper= 3.0b
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf (24/9/2009)
3.2b: http://www.semiconductor.net/article/438968-Nvidia_s_Chen_Calls_for_Zero_Via_Defects-full.php (07/12/2009)
Ist zwar nur so eine Blitzidee von mir aber ich koennte mir schon vorstellen dass man einiges mit so einem Transistoren-Unterschied anrichten koennte. Genauer genommen ist das original angeblich bei 3.08 und heutzutage soll es 3.22 heissen.
Einige tun hier so, als wäre es nur wichtig, wer den absolut schnellsten Chip hat.
Was Nvidia absolut fehlt sind Mainstream-Chips und die kommen ja ebenfalls sehr viel später. Wenn man jetzt mal eben 200.000 GF100 verkauft ist das gar nichts, wenn ATI in der gleichen Zeit nochmal 2 Mio Mainstream und Low-End Chips absetzen kann.
Mediamarkt und Co. interessiert wenig, wessen 250W TDP-Karte die beste ist. Die paar Foren-User hier und in anderen HW-Foren sind ein relativ kleiner Teil der Absätze.
Nochmal: Es geht nicht darum einmal den 1. Platz zu erreichen, ne Medaille einzustecken und sich dann ein Leben lang zu freuen.
Yep, aber dennoch färbt "die schnellste Grafikkarte der Welt" auf andere Modelle ab. Und auch wir Freaks färben, als Multiplikatoren, die sich auskennen.
MfG,
Raff
Dann wäre die "mass production" Meldung von Huang schlicht gelogen.
Die "Mass Production" heißt noch lange nicht, dass die Karte auch öffentlicht oder unter NDA gezeigt werden. Man kann wohl annehmen, dass die A3-Karten allesamt irgendwo im Lab rumgondeln, während die A2-Karten auf der CES stehen.
Einige tun hier so, als wäre es nur wichtig, wer den absolut schnellsten Chip hat.
Was Nvidia absolut fehlt sind Mainstream-Chips und die kommen ja ebenfalls sehr viel später. Wenn man jetzt mal eben 200.000 GF100 verkauft ist das gar nichts, wenn ATI in der gleichen Zeit nochmal 2 Mio Mainstream und Low-End Chips absetzen kann.
Mediamarkt und Co. interessiert wenig, wessen 250W TDP-Karte die beste ist. Die paar Foren-User hier und in anderen HW-Foren sind ein relativ kleiner Teil der Absätze.
Nochmal: Es geht nicht darum einmal den 1. Platz zu erreichen, ne Medaille einzustecken und sich dann ein Leben lang zu freuen.
Ich vermute mal, dass NV auch einen performacnechip in der MAche hat, der sich zwischen ihren kleinen GT2X0 und GF100 einordnet. NV wollte die kleinen Ableger ka erst zum Tape-Out führen wenn GF100 in Produtkion ist.
BlackBirdSR
2010-01-12, 13:26:00
R600 A10 lag auf ~375MHz, wobei A13 mit 725MHz ankam und garantiert keinen 300W Stromverbrauch wie beim ersten. Zwar ist es zugegeben ein mieser Trick mit dem Beispiel anzukommen, aber trotz allem ist das nicht auch ein "Wunder"?
Fermi whitepaper= 3.0b
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf (24/9/2009)
3.2b: http://www.semiconductor.net/article/438968-Nvidia_s_Chen_Calls_for_Zero_Via_Defects-full.php (07/12/2009)
Ist zwar nur so eine Blitzidee von mir aber ich koennte mir schon vorstellen dass man einiges mit so einem Transistoren-Unterschied anrichten koennte. Genauer genommen ist das original angeblich bei 3.08 und heutzutage soll es 3.22 heissen.
Anrichten ja, aber wer soll das so spät im Design noch bezahlen? ;)
sklave_gottes
2010-01-12, 13:30:39
Weswegen sich auch seltsamerweise die 1000 x umbenannte G-irgendwas Serie von Nvidia in sämtlichen Low/Mid PC Systemen von Media Markt findet, ATI habe ich im aktuellen Prospekt nur in 1 (!) Highend System gesehen.
Nvidia/Geforce ist einfach der "bessere" Name gegenüber ATI/Radeon.
Die Marke ist einfach stärker. Nicht so krass wie Intel vs AMD aber denoch vorhanden. Ganz einfach, wenn ATI genau die selben Karten, Preise und Treiber hätte wie Nvidia, würden sich die Karten Trotzdem nur halb so gut verkaufen.
Also da gibt es nichts seltsames dran.
mfg martin
Ganz einfach, wenn ATI genau die selben Karten, Preise und Treiber hätte wie Nvidia, würden sich die Karten Trotzdem nur halb so gut verkaufen.
Aber nur WEIL Nvidia andere Karten, Preise und Treiber haben, konnten sie sich diese bessere Stellung erarbeiten.
Cubitus
2010-01-12, 13:40:42
Was haltet ihr eigl vom Gerücht das die GTX380 bei den aktuellen CES Games 52 % Prozent schneller als die 5870 sein soll ? Realistisch ?
mapel110
2010-01-12, 13:42:19
Was haltet ihr eigl vom Gerücht das die GTX380 bei den aktuellen CES Games 52 % Prozent schneller als die 5870 sein soll ? Realistisch ?
Link or it didn't happen.
Bezüglich Marke nvidia: ATI hatte auch schon mal mehr Marktanteile als nvidia. Zu R300-Zeiten. Aber da war das Produkt eben auch Haushoch überlegen.
Gestrandet
2010-01-12, 13:44:52
Aber nur WEIL Nvidia andere Karten, Preise und Treiber [snip]
Och nööööö ... können wir die Treibermumie bitte mal im Keller lassen?!? :rolleyes:
Die müffelt derart erbärmlich, und das zur Mittagszeit, is ja eklig.
reunion
2010-01-12, 13:45:42
Bezüglich Marke nvidia: ATI hatte auch schon mal mehr Marktanteile als nvidia. Zu R300-Zeiten. Aber da war das Produkt eben auch Haushoch überlegen.
Wenn du rein nach den Marktanteile gehst hatten sie ab R300 bis zur AMD-Übernahme immer deutlich mehr Marktanteile als NV. NV hatte halt nach R300 den High-End-Markt Stück für Stück zurück erobert und im Quadro-Bereich waren sie schon immer deutlich stärker.
Dimon
2010-01-12, 13:56:42
Wenn du rein nach den Marktanteile gehst hatten sie ab R300 bis zur AMD-Übernahme immer deutlich mehr Marktanteile als NV. NV hatte halt nach R300 den High-End-Markt Stück für Stück zurück erobert und im Quadro-Bereich waren sie schon immer deutlich stärker.
Auch zur Zeit des G80?
James Ryan
2010-01-12, 14:00:11
Auch zur Zeit des G80?
Bis zur AMD-Übernahme, die war noch vor der G80 Zeit!
MfG :cool:
N0Thing
2010-01-12, 14:03:12
Ich glaube, er wollte damit sagen, dass A3 immer noch nicht fertig ist.
Ich dachte mit "However, this might not be the final revision that should ship later this quarter." sei der Kühler der Karte gemeint. Immerhin wird direkt zuvor von der Dual-Slot-Kühlung gesprochen.
Sorkalm
2010-01-12, 14:15:27
Bis zur AMD-Übernahme, die war noch vor der G80 Zeit!
Die G80-Architektur hat das halt im Desktopbereich endgültig gedreht, im Notebookbereich hat man damals mit den G7x-Chips ATI auch ganz gut zusetzen können, da die recht klein und nicht so leistungshungrig waren.
Link or it didn't happen.
Bezüglich Marke nvidia: ATI hatte auch schon mal mehr Marktanteile als nvidia. Zu R300-Zeiten. Aber da war das Produkt eben auch Haushoch überlegen.
ATI war auch in den 90igern mal Marktführer, aber ja, heute braucht man ein klar besseres Produkt als Nvidia um überhaupt eine Chance zu haben Marktanteile zu gewinnen.
N0Thing
2010-01-12, 15:00:44
http://www.computerbase.de/news/treiber/grafikkarten/ati/2009/oktober/erster_catalyst_hd-5800-serie/
Einen Monat lang haben sie keine offiziellen Treiber gehabt.
Wirft ein sehr gutes Licht auf AMD.
Hat wohl recht wenig mit Fermi zu tun und ich sehe kein Problem in einer fehlenden WHQL-Zertifizierung. Ich vermute, daß auch Nvidia nicht jedes mal einen entsprechenden Treiber angeboten hat.
Kannst dich bei ATI bedanken. Jedesmal wenn man Hoffnung auf Besserung hat drücken sie nochmal einen rein...
Mag nichtmal jemand alle Treiberproblem-Threads raussuchen?
http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=42
Dann hat das Geseier endlich ein Ende.
Zauberer
2010-01-12, 18:32:07
Hier geht es um nVidia - GT300/GF100 (Fermi) - Q1/2010, DX11, CUDA 3.0!
Und nicht um wann AMD/ATi einen Treiber für was für ne Karte, was'n OS, co. usw. veröffentlicht hat!
Ich persönlich denke Nvidia hat sich zu viel Zeit gelassen, denke aber das Nvidia mindestens 30 % schneller als eine ATi 5870 sein wird.
Unter 1920x1200 4xAA/16xAF, ist eine ATi 5970 unter grafiklastig Spielen wie Crysis Warhead laut Benchmark ca. 50 % schneller als die ATi 5870.
Bei anderen Spielen oder Einstellungen meistens sogar nur um die 40%, aber gehen wir ruhig von den max. 50% aus.
Wenn Nvidia 50% schneller wäre, wäre sie so schnell wie eine ATi 5970, was ich für unrealistisch halte.
Wenn man das mal in Frames umrechnet ATi 5870 25 FPS, NVidia Fermi Single Chip 32,5 FPS, ATi 5970 37,5 FPS.
Würde bedeuten der Fermi ist 30 % schneller als die 5870, und die ATi 5970 ist 50% schneller als die 5870.
Aber die ATi 5970 ist nur "15%" schneller als der Fermi.
Also eigentlich nur noch ein minimaler Unterschied.
Auf Grund der Nachteile von Dual Chip Lösungen müsste man dann zu NVidia greifen, zumal eine NVidia Fermi Single Chip Karte günstiger als eine ATi 5970 sein wird, wenn meine Spekulationen in etwa hinkommen.
Die offizielle Preisempfehlung von ATi für die Radeon HD 5970 lautet 599 US-Dollar, und 399 US-Dollar für die 5870.
Darum könnte die High End Single Chip Fermi Karte bei 499 Dollar starten.
Wichtiger wäre aber, so schnell wie möglich im 150-250 Dollar Bereich, so schnell wie möglich nach zu schießen, den da wird das größte Geld gemacht.
reunion
2010-01-12, 19:14:01
So wie es aussieht kann es gar nicht sein dass NV nicht schlechtere yields hatte als AMD bis jetzt und dieser 4% Quark ist IMO nur elendiger FUD gegen AMD.
Bestätigung:
Claims that the current TSMC 40nm process that is being used for the AMD/ATI Cypress family is achieving yields of in the neighborhood of 40% don’t seem to have a shred of truth. Our sources close to TSMC claim that actually the 40nm process that is being used for the Cypress family is routinely achieving yields in the 60% to 80% range, which is actually confirmed by the fact that ATI is keeping product in the pipeline and you can actually buy boards at retail.
Und zu Fermi:
Chip yields seem to be the topic of discussion lately as the much larger Nvidia Fermi chip is struggling with yield issues as our sources suggest that the actual yields are as low as 20% and are not improving quickly according to sources close to the fabs. With wafer starts costing about $5K the numbers suggest that each chip would cost an astounding estimated $200 per chip which pegs the card with a sticker price of about $600.
Those in the known are claiming that Fermi despite the yield and thermal issues is only about 20% faster than Cypress, while Hemlock smokes it. The combination of low yields, high thermals, and marginally better performance than Cypress could be conspiring to place Nvida in the position of having to release the card, but have to sell it at a loss till they are able to address the issues in the next spin according to sources. Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better.
http://www.fudzilla.com/content/view/17205/1/
Hätte mich auch schwer gewundert. Niemand kann einen Chip verkaufen der 4% Yields hat.
Sorkalm
2010-01-12, 19:24:20
Nach Fudzilla also Nvidia jetzt bei 20% Yield ... hmm, das erklärt schon, wieso sie die Karten bisher nicht veröffentlicht haben - und sie haben wohl mit einer schnelleren Erholung der Yields in der Vergangenheit gerechnet, die nicht so schnell eingetreten sind. Das ist natürlich unpraktisch, da man mit den Yieldraten wirklich nur hochpreisige Produkte auf den Markt bringen kann. So langsam zumindest eine schnelle DX11-Karte im oberen Preissegment ist fürs Marketing natürlich trotzdem wichtig, daher rechne ich schon damit, dass man die im Rahmen des jetzigen Plans bringt. Aber die niedrigeren SKUs des GF100 wird man wohl erstmal nur gut dosiert bringen, wenn überhaupt...
Ist über kleinere Fermi-GPUs wirklich praktisch noch nichts bekannt? Soviel später dürften die doch gar nicht kommen, so stand das bestimmt nicht auf der Roadmap. Die wären jetzt demnächst nämlich durchaus praktisch.
Bestätigung:
Und zu Fermi:
http://www.fudzilla.com/content/view/17205/1/
"Bestätigung"? Fudzilla sollte sich mal lieber entscheiden, was sie so schreiben:
http://www.fudzilla.com/content/view/16686/34/
"At this time, TSMC should be at 90 percent + yields, but this is simply not happening. The worst part is that nothing will change in early 2010. The shortage will last throughout Q1 2010 and both ATI’s RV870 and Nvidia’s Fermi will be heavily affected to their die size and complexity."
Also Bestätigung ist das wohl eher nicht ;)
reunion
2010-01-12, 19:32:07
"Bestätigung"? Fudzilla sollte sich mal lieber entscheiden, was sie so schreiben:
http://www.fudzilla.com/content/view/16686/34/
"At this time, TSMC should be at 90 percent + yields, but this is simply not happening. The worst part is that nothing will change in early 2010. The shortage will last throughout Q1 2010 and both ATI’s RV870 and Nvidia’s Fermi will be heavily affected to their die size and complexity."
Also Bestätigung ist das wohl eher nicht ;)
Naja, das ist vom 3. Dezember und in die Zukunft schauen kann niemand. Aber zu wissen was man glauben kann und was nicht ist bei so viel FUD sicherlich nicht leicht.
Naja, das ist vom 3. Dezember und in die Zukunft schauen kann niemand. Aber zu wissen was man glauben kann und was nicht ist bei so viel FUD sicherlich nicht leicht.
Innerhalb von einem Monat von weniger als 20% auf 60-80%? Bei Weihnacht- und Neujahresferien usw? Sry, das klingt ziemlich unwahrscheinlich. Irgendwie gehts doch immer nur darum allen was möglichst schlechtes anzudichten, offensichtlich verdient man damit mehr Geld als mit guten Nachrichten.
Gipsel
2010-01-12, 19:55:18
Innerhalb von einem Monat von weniger als 20% auf 60-80%? Bei Weihnacht- und Neujahresferien usw? Sry, das klingt ziemlich unwahrscheinlich. Irgendwie gehts doch immer nur darum allen was möglichst schlechtes anzudichten, offensichtlich verdient man damit mehr Geld als mit guten Nachrichten.
Lesen hilft manchmal! ;)
According to our sources, yields are currently at around 50 percent
Laß die ~50% von Mitte November sein und die angeblich jetzt vorliegenden 60-80% sind dann gar nicht mehr unglaubwürdig.
Sorkalm
2010-01-12, 20:03:10
Außerdem ist das große chinesische (gilt auch für Taiwan) Neujahrfest zu einer anderen Zeit. Wie groß die Weihnachten feiern weiß ich nicht, dürfte aber auch nicht so fest in der Tradition verankert sein.
aylano
2010-01-12, 20:04:49
"Bestätigung"? Fudzilla sollte sich mal lieber entscheiden, was sie so schreiben:
http://www.fudzilla.com/content/view/16686/34/
"At this time, TSMC should be at 90 percent + yields, but this is simply not happening. The worst part is that nothing will change in early 2010. The shortage will last throughout Q1 2010 and both ATI’s RV870 and Nvidia’s Fermi will be heavily affected to their die size and complexity."
Also Bestätigung ist das wohl eher nicht ;)
Vielleicht meint in diesem Beitrag auch nur die 40nm Generell
also mit GT218 & GT216 & GT215 & RV870 & RV770 (& RV740).
Und die ersten drei werden auch schon ewig produziert und die sind AFAIK auch relativ zur eigenen 55nm-Konkurrenz teuer, was vielleicht auf nicht so hohe Yieldraten wie üblich (=Yieldprobleme) hindeuten könnte.
Dann wäre die "mass production" Meldung von Huang schlicht gelogen.Huang ist Cheffe und nicht Vorsitzender eines Untersuchungsausschusses.
Hätte mich auch schwer gewundert. Niemand kann einen Chip verkaufen der 4% Yields hat.Steve Ballmer kann das.
Tarkin
2010-01-12, 21:05:35
Huang ist Cheffe und nicht Vorsitzender eines Untersuchungsausschusses.
Ist das nicht shice egal? Gelogen ist gelogen! :confused: :mad:
Genau so wie diese "This puppy here, is Fermi" Kacke ... Stellt sich vor Journalisten und lügt ihen direkt in die Fresse... tolle Sache! Sowas ist absolut unter aller Sau! Für solche Dinge gibt es keine Entschuldigung. Das ist einfach indiskutabel.
y33H@
2010-01-12, 21:08:45
Deine Ausdrucksweise ist btw indiskutabel.
Ist das nicht shice egal? Gelogen ist gelogen! :confused: :mad:
Genau so wie diese "This puppy here, is Fermi" Kacke ... Stellt sich vor Journalisten und lügt ihen direkt in die Fresse... tolle Sache! Sowas ist absolut unter aller Sau! Für solche Dinge gibt es keine Entschuldigung. Das ist einfach indiskutabel.
Mäßige deinen Ton. Huang arbeitet für ein Unternehmen und auch für seine Mitarbeiter. Alles was dem Unternehmen hilft ist in Ordnung. Er kann doch erzählen was er will um die Kundschaft bei Laune zu halten.
Du meckerst doch nur weil es für AMD/ATI nicht hilfreich ist.... na und?
Tarkin
2010-01-12, 21:25:14
Mäßige deinen Ton. Huang arbeitet für ein Unternehmen und auch für seine Mitarbeiter. Alles was dem Unternehmen hilft ist in Ordnung. Er kann doch erzählen was er will um die Kundschaft bei Laune zu halten.
Du meckerst doch nur weil es für AMD/ATI nicht hilfreich ist.... na und?
Nicht hilfreich für AMD/ATi? Ich würde eher sagen das Gegenteil ist der Fall, aber bitte. Die Peinlichkeiten des Herrn Jen-Hsun Huang muss ich nicht gut finden... ich bin ehrlich gesagt erstaunt darüber, dass es hier offenbar Leute gibt denen es völlig egal ist, wenn sie verschaukelt werden.
Ich finde das SEHR bedenklich!
Menace
2010-01-12, 21:27:54
Mäßige deinen Ton. Huang arbeitet für ein Unternehmen und auch für seine Mitarbeiter. Alles was dem Unternehmen hilft ist in Ordnung. Er kann doch erzählen was er will um die Kundschaft bei Laune zu halten.
Du meckerst doch nur weil es für AMD/ATI nicht hilfreich ist.... na und?
Immer wieder klasse, wie viele Leute sich selber kasteien, nur um "ihre" Firma zu verteidigen. Natürlich sollte Huang alles tun, damit es seinen Mitarbeitern gut geht, aber deshalb muss man sich ja nicht anlügen lassen und das noch gutheißen. :rolleyes: Ich möchte das hysterische Gekreische (zu Recht) hier hören, wenn das genauso Ati machen würde. ;D
An einer Lüge gibt es nichts zu verteidigen. Willst du die Banken verteidigen, die unser Geld den falschen Leuten, bzw. sich zugeteilt haben, indem Sie die Anleger angelogen haben? Findest Du es gut, wenn Politiker lügen? Es gibt nichts gutes in einer Lüge. Das Problem ist nur, dass Menschen Probleme mit der Wahrheit haben, verlogenes Pack. Sich später aber aufregen...
Black-Scorpion
2010-01-12, 21:27:59
Gerade als Cheffe sollte man sich hüten zu lügen.
Und wenn er das absichtlich auch noch vor Pressevertretern macht ist das eine Sauerei.
Ich weiß ja nicht was manche hier für Vorstellungen haben und das auch noch runter spielen.
Und das der Gast gleich wieder AMD/ATI ins Spiel bringt ist ja nun auch nichts neues.
Redneck
2010-01-12, 21:48:25
[QUOTE=Gast;7777390] Alles was dem Unternehmen hilft ist in Ordnung./QUOTE]
GANZ SICHER NICHT!
1) ist er seinem Unternehmen verpflichtet, dem er einen Imageschaden par excellence aufbürdet, sollten seine Aussagen als Falschaussagen auffliegen.
Der monetäre Schaden ist zwar schwer zu messen, aber man kann sicherlich sagen das die Folgen dem Unternehmen nicht zuträglich sind.
2) ist er auch den Anteilseignern verpflichtet (shareholder value), die es sicherlich nicht gerne sehen, wenn die Firma "Luft" produziert ...
Begriffe wie Moral sind ja im Forum schon gefallen.... ich würde persönlich
noch Gesschäftsethik hinzufügen. Beides Nichts, womit NV mit solcherlei
Benehmen Pluspunkte in der Öffentlichkeit sammelt (und die kaufen ja schließlich
die Produkte)..
Ailuros
2010-01-12, 21:51:14
Bestätigung:
Der Durchschnitt soll eher bei 50% liegen. Die hoechsten Prozentuale hat natuerlich Juniper aber auch hier schwanken die yields nach wie vor, eben aber nicht so radikal wie am Anfang.
Und zu Fermi:
http://www.fudzilla.com/content/view/17205/1/
Woher kenn ich nochmal den Kerl.....:rolleyes: Bei A1 waren die durchschnittlichen yields schon bei ~27% *seufz*
Menace
2010-01-12, 21:54:29
Begriffe wie Moral sind ja im Forum schon gefallen.... ich würde persönlich
noch Gesschäftsethik hinzufügen. Beides Nichts, womit NV mit solcherlei
Benehmen Pluspunkte in der Öffentlichkeit sammelt (und die kaufen ja schließlich
die Produkte)..
Gerade auch in Hardwareforen wird deutlich, dass sich die meisten einen Dreck um irgendeine Moral scheren. Ich sage nur Kohlberg.
Begriffe wie Moral sind ja im Forum schon gefallen.... ich würde persönlich
noch Gesschäftsethik hinzufügen. Beides Nichts, womit NV mit solcherlei
Benehmen Pluspunkte in der Öffentlichkeit sammelt (und die kaufen ja schließlich
die Produkte)..
Das ist doch einfach nur Bullshit, sorry.
Da wurd einfach nur ne Grafikkarte in die Kamera gehalten und nachher durfte sie jeder angrabbeln. Dafür nimmt man natürlich KEIN funktionierendes Sample (die kosten immerhin ordentliche 4-stellige $-Beträge und sind noch dazu besser bei den Ingenieuren aufgehoben, als sonstwo!), sondern einfach irgendwas, was so ähnlich aussieht.
Die einzige die da ne Welle machen, sind irgendwelche Spinner, die wegen jedem Dreck ne große Welle machen (man denke auch mal an die News vom Charlie, dass die 300M kein DX10.1 mehr unterstützt - das so jemand überhaupt noch zitiert wird) und irgendwelche Kiddies und Fanboys. Einen Journalisten interessiert das kein bisschen, das ist absolut normal.
Ailuros
2010-01-12, 22:16:26
Skrupel und Moral passen leider schon seit Jahren nicht in den gleichen Satz wenn es zu NV's PR/marketing kommt. Wenn wir aber auf duennem Seil tanzen sollten dann muessen wir auch die Leichen anderer IHVs ausgraben und in dem Fall hat ATI bzw. AMD sich einen sehr guten Lehrer im Umgang mit NV durch die Jahre gefunden. Wenn ich jetzt noch einen Schritt weiter gehe und auf Intel schiele stinkt der Misthaufen noch um einiges mehr.
Da es sich aber im gegebenen Fall um einen GF100 Spekulationsthread handelt wuerde ich es bevorzugen dass die Debatte ausschliesslich beim Thema bleibt. Danke.
tombman
2010-01-12, 23:44:53
Wieso zerbrecht ihr euch alle so den Kopf wegen der yields? Ist doch scheißegal, denn
1.) Ihr könnts NICHTS ändern am Erscheinungsdatum
2.) Ihr könnts NICHTS ändern am Endkundenpreis
3.) Ihr könnt NICHTS ändern an der Leistung
Oder spekuliert ihr mit Aktien, wo Gerüchte eine Rolle spielen?
Oder wollt ihr den Endpreis möglichst früh abschätzen, um das Geld zum release passend zu haben, oder etwaige Verkaufszeitpunkte jetziger HW gut zu timen?
IMO wird viel zu viel Wind um die yields gemacht, zumal eh alles nur auf mehrfachem Hörensagen basiert....
Gestrandet
2010-01-12, 23:56:25
Der Yield ist aber immens wichtig für die reale Verfügbarkeit und teilweise auch für den Preis.
Ich bin schon am Überlegen, ob lieber noch auf Fermi warten soll oder doch eher zu ner zweiten 5870 greife.
tombman
2010-01-13, 00:00:41
Der Yield ist aber immens wichtig für die reale Verfügbarkeit und teilweise auch für den Preis.
Ich bin schon am Überlegen, ob lieber noch auf Fermi warten soll oder doch eher zu ner zweiten 5870 greife.
Die Diskussion über den yield ändert diesen aber nicht ;)
Sorkalm
2010-01-13, 00:02:42
Wieso zerbrecht ihr euch alle so den Kopf wegen der yields?
Aus Interesse. Ich will Fermi oder irgendwas anderes in der Preisklasse sowieso nicht kaufen, bei mir werkelt noch eine D3D9-Karte. ;)
tombman
2010-01-13, 00:08:56
Aus Interesse. Ich will Fermi oder irgendwas anderes in der Preisklasse sowieso nicht kaufen, bei mir werkelt noch eine D3D9-Karte. ;)
Das ist das "Problem"- die wenigsten kaufen sich sowas, aber alle wollen drüber reden :)
Oh Erkenntnis, im Spekulationsthread wird spekuliert...
olegfch
2010-01-13, 01:32:34
Wieso zerbrecht ihr euch alle so den Kopf wegen der yields? Ist doch scheißegal, denn
1.) Ihr könnts NICHTS ändern am Erscheinungsdatum
2.) Ihr könnts NICHTS ändern am Endkundenpreis
3.) Ihr könnt NICHTS ändern an der Leistung
Hier geht nicht ums ändern, sondern um Prinzip; den Anderen anhand der spekulativen Informationen zu beweisen, dass man Recht hat.
Steve Ballmer kann das.
Auf was spielst du an?
tombman
2010-01-13, 02:29:03
Hier geht nicht ums ändern, sondern um Prinzip; den Anderen anhand der spekulativen Informationen zu beweisen, dass man Recht hat.
Krass :ugly:- und dann ist man der Klügste, oder wie? :uhippie:
Der Durchschnitt soll eher bei 50% liegen. Die hoechsten Prozentuale hat natuerlich Juniper aber auch hier schwanken die yields nach wie vor, eben aber nicht so radikal wie am Anfang.
Woher kenn ich nochmal den Kerl.....:rolleyes: Bei A1 waren die durchschnittlichen yields schon bei ~27% *seufz*
Glaubt einer die Meldungen zu den Fermi Yields kommen nicht von ATI? Ich nicht. So wie NV bei den 4% einen Extremfall ausgeplaudert hat, dürfte nun ATI genau so antworten. 27% mag am unteren Ende der Fermi Wafer liegen mit im Schnitt gegen 60%.
So wie Juniper eben auch 90% Yiel schafft, nicht immer aber immer öfter.
Dimon
2010-01-13, 07:14:56
An einer Lüge gibt es nichts zu verteidigen. Willst du die Banken verteidigen, die unser Geld den falschen Leuten, bzw. sich zugeteilt haben, indem Sie die Anleger angelogen haben? Findest Du es gut, wenn Politiker lügen? Es gibt nichts gutes in einer Lüge. Das Problem ist nur, dass Menschen Probleme mit der Wahrheit haben, verlogenes Pack. Sich später aber aufregen...
Banken und Politiker sind keine Firmen :freak:
Ailuros
2010-01-13, 07:17:07
Hier geht nicht ums ändern, sondern um Prinzip; den Anderen anhand der spekulativen Informationen zu beweisen, dass man Recht hat.
Das "Publikum" erinnert sich genauso gut an die "Erfolge" als auch an jegliche "Fehlschlaege" in diesem Fall. Ein einfacher Laie (und nicht echter "insider") hat selten bis nie mehr Erfolge generell nur setzt sich auch keiner hin und zaehlt.
Am Ende ist der eigentliche "Verlust" groesser als jeglicher "Gewinn" und es hat garantiert keiner etwas davon.
Glaubt einer die Meldungen zu den Fermi Yields kommen nicht von ATI? Ich nicht. So wie NV bei den 4% einen Extremfall ausgeplaudert hat, dürfte nun ATI genau so antworten. 27% mag am unteren Ende der Fermi Wafer liegen mit im Schnitt gegen 60%.
So wie Juniper eben auch 90% Yiel schafft, nicht immer aber immer öfter.
Bei 60% wird GF100 im Durchschnitt immer noch nicht liegen IMO. Aber der unendliche FUD-Krieg zwischen den beiden ist richtig erkannt hier. Da beide wissen dass sie nie eigentliche yield-Raten veroeffentlichen wird, fuettert man einfach A mit X von der einen Seite und B mit Y, damit das Gespraech auch nett lebendig bleibt.
Zweifellos ist AMD in einer sehr guten Position momentan; je mehr NV im Dreck herumwuehlt desto mehr Mist fliegt ihnen zurueck ins Gesicht. Von mir aus haetten sie sich auch den CES/Fermi Firlefanz sparen koennen, stets nach der put up or shut up Logik.
Ich denke dass der Durchschnitt inkl. der salvage parts um 50% liegen muss, bevor eine Produktion Sinn macht. Davon ausgehend, dass die 20-30% der neusten Gerüchte wieder das untere Ende markieren, halte ich das auch für machbar.
Beim PR Krieg sehe ich übringens ATI in einer komfortabelen Situation, da sie einfach mehr Mules haben, die das Dreckwerfen für sie erledigen ohne direkt zu ihnen zu gehören.
mapel110
2010-01-13, 07:53:44
http://www.digitimes.com/news/a20100113PD201.html
Foundry chipmakers, including Taiwan Semiconductor Manufacturing Company (TSMC), have been struggling to increase their yields on 40nm to over 70%, according to industry sources. The unsatisfactory yield rate has caused production for next-generation graphics processors and FPGA (field-programmable gate array) chips to run tight.
TSMC, at its last investors conference, revealed that chamber matching problems had impacted yield rates for its 40nm node. It said the problems could be solved by the end of 2009.
Weiß jemand, was damit gemeint ist?
Wieso zerbrecht ihr euch alle so den Kopf wegen der yields? Ist doch scheißegal, denn
1.) Ihr könnts NICHTS ändern am Erscheinungsdatum
2.) Ihr könnts NICHTS ändern am Endkundenpreis
3.) Ihr könnt NICHTS ändern an der Leistung
Oder spekuliert ihr mit Aktien, wo Gerüchte eine Rolle spielen?
Oder wollt ihr den Endpreis möglichst früh abschätzen, um das Geld zum release passend zu haben, oder etwaige Verkaufszeitpunkte jetziger HW gut zu timen?
IMO wird viel zu viel Wind um die yields gemacht, zumal eh alles nur auf mehrfachem Hörensagen basiert....
Vielleicht ja deswegen:
Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better.
http://www.fudzilla.com/content/view/17205/1/
Dann interessiert es dich sicher auch. Wenn du gar keine Fermi Geforce-Karte kaufen kannst weil Nvidia die nur für Tesla- und Quadro - Karten benutzt
Banken und Politiker sind keine Firmen :freak:
Banken sind also keine Firmen....<grins³³³³> :freak:
tombman
2010-01-13, 08:08:07
Vielleicht ja deswegen:
http://www.fudzilla.com/content/view/17205/1/
Dann interessiert es dich sicher auch. Wenn du gar keine Fermi Geforce-Karte kaufen kannst weil Nvidia die nur für Tesla- und Quadro - Karten benutzt
Das isses ja, ich werde nicht WISSEN warum es keine gibt- nur weiter Spekus lesen. NV würde sicher nicht sagen: "Ja, lieber Herr tombman, Ihre Chips hat jetzt der Herr Dr. Geldspucker in seinen Quadros/Teslas, weil wir ihn eben besser abzocken können als Sie mit Ihren Geforces."
:ulol4:
Krass :ugly:- und dann ist man der Klügste, oder wie? :uhippie:
tombman, ich habe dich in diesem Punkt unterschätzt
was die letzten 400 Seiten sollen, verstehe ich allerdings im Gegensatz zu dir, absolut nicht
das ist wohl sowas wie moderne Gruppentherapie
tombman
2010-01-13, 08:33:02
tombman, ich habe dich in diesem Punkt unterschätzt
was die letzten 400 Seiten sollen, verstehe ich allerdings im Gegensatz zu dir, absolut nicht
das ist wohl sowas wie moderne Gruppentherapie
Dann halt dich jetzt fest: Das ganze 3dcf ist Gruppentherapie :eek:
;)
Ailuros
2010-01-13, 08:37:09
http://www.digitimes.com/news/a20100113PD201.html
Foundry chipmakers, including Taiwan Semiconductor Manufacturing Company (TSMC), have been struggling to increase their yields on 40nm to over 70%, according to industry sources. The unsatisfactory yield rate has caused production for next-generation graphics processors and FPGA (field-programmable gate array) chips to run tight.
TSMC, at its last investors conference, revealed that chamber matching problems had impacted yield rates for its 40nm node. It said the problems could be solved by the end of 2009.
Weiß jemand, was damit gemeint ist?
TSMC behauptet vereinfacht dass die ganze Geschichte "supply contrained" ist. Die Geschichte mit den chamber matching problems ist auch nichts Neues, siehe hier (30/10/2009):
http://www.digitimes.com/news/a20091030PD209.html
Ein bisschen spaeter sah sich AMD gezwungen den 5850 Preis ein bisschen zu erhoehen, was mir aber das obrige nicht unbedingt erklaert.
Dann interessiert es dich sicher auch. Wenn du gar keine Fermi Geforce-Karte kaufen kannst weil Nvidia die nur für Tesla- und Quadro - Karten benutzt
Was macht man mit den Chips, wo die entsprechenden Bereichen (z.B. ECC) beschädigt sind? Die kann man eh nur als Geforce verkaufen.
Ailuros
2010-01-13, 09:44:07
Wieso sollte EEC auf irgendwelchen chips "beschaedigt" sein? Erstens wird die Unterstuetzung auf Quadros/GeForces abgeschaltet und zweitens steckt auf den letzteren wohl auch kein EEC Speicher drauf.
AnarchX
2010-01-13, 09:46:36
Einzig GPUs mit defekten ROP/MC-Partitionen wird man nicht als Tesla verkaufen können.
btw.
There are some benchmarks. Or some Powerpoint slides. As TG Daily reported earlier, Nvidia flew in a gaggle of European journalists just when CES was all done and dusted, to brief them on Fermi, expected to be formally announced on Sunday week, January 17
[...]
it's reputed that the Powerpoint slide that journalists were shown on Sunday in Las Vegas quoted an 80 FPS on just one benchmark, with no actual demo being showed.
The same sources suggest that Hemlock will trip the light fantastic at 89 FPS - but then to see is to believe. It's all a game of smoke and mirrors.
http://www.tgdaily.com/hardware-brief/45461-fermi-die-means-high-nvidia-silicon-costs-ahead
At least Muropaketti has announced that they were behind the closed doors at CES learning about Fermi/GF100 features, and that they're allowed to reveal those details next monday, exclusively in Finland, but assumedly other sites in other countries have similar agreements so there should be plenty to read about in english too
http://www.yougamers.com/forum/showthread.php?t=120872
-> http://plaza.fi/muropaketti/ces-2010-muropaketin-ensikosketus-fermi-geforceen
MorPheuZ
2010-01-13, 10:45:04
Wieso sollte EEC auf irgendwelchen chips "beschaedigt" sein? Erstens wird die Unterstuetzung auf Quadros/GeForces abgeschaltet und zweitens steckt auf den letzteren wohl auch kein EEC Speicher drauf.
Wiso sprichst du eig. immer von "EEC"? Ist das gewollt?
Edit: ECC= Error Correction Code
Ailuros
2010-01-13, 10:59:41
Vom finnischen Link uebersetzt:
Update: We dug a little more information about NVIDIA and the current present in the Fermi-GeForce graphics cards do not represent the final design, but the currents of prototypes. Näytönohjaimessa ON MYÖS kahden DVI-liittimen lisäkdi HDMI-liitin , mutta kolmen näytön 3D Vision Surround -konfiguraatio vaatii ainakin tämän hetken käsityksen mukaan vähintään kaksi näytönohjainta. Display drivers are also two DVI connector lisäkdi HDMI connector, but the three-screen 3D Vision surround configuration requires at least a moment of this view, at least two graphics cards.
http://translate.google.com/translate?js=y&prev=_t&hl=en&ie=UTF-8&layout=1&eotf=1&u=http%3A%2F%2Fplaza.fi%2Fmuropaketti%2Fces-2010-muropaketin-ensikosketus-fermi-geforceen&sl=fi&tl=en
Wiso sprichst du eig. immer von "EEC"? Ist das gewollt?
Edit: ECC= Error Correction Code
Danke fuer die Korrigierung. Werde es mir notieren den Tippfehler in Zukunft nicht zu wiederholen.
AnarchX
2010-01-13, 11:13:00
Da will man vielleicht, passend zum Gerücht der hohen Lautstärke, die Kühlleistung noch verbessern.
Bei Inno3D setzt man wohl auf soetwas:
http://img199.imageshack.us/img199/5639/inno3d03.jpg
http://www.expreview.com/9270.html
Ailuros
2010-01-13, 11:20:54
Ekelhaft....:frown:
Spasstiger
2010-01-13, 11:33:44
Erstens wird die Unterstuetzung auf Quadros/GeForces abgeschaltet und zweitens steckt auf den letzteren wohl auch kein EEC Speicher drauf.
Braucht man überhaupt speziellen ECC-Speicher, wenn man ohnehin auf Kosten der (Netto-)Speicherbandbreite Datenleitungen für die Redundanzdaten opfert?
Braucht man überhaupt speziellen ECC-Speicher, wenn man ohnehin auf Kosten der (Netto-)Speicherbandbreite Datenleitungen für die Redundanzdaten opfert?
nö, einfach zusätzliche chips.
2B-Maverick
2010-01-13, 11:44:12
nö, einfach zusätzliche chips.
und soweit ich informiert bin, nicht einmal dass, da ja der zusätzlich benötigte RAM einfach vom normalen Speicher abgeknapst wird. Mit ECC steht einfach weniger Speicher zur Verfügung. Korrigiert mich bitte, falls ich falsch liege.
Da will man vielleicht, passend zum Gerücht der hohen Lautstärke, die Kühlleistung noch verbessern.
Bei Inno3D setzt man wohl auf soetwas:
Krass finde ich das extra Gehäuse was man da anscheinend braucht für fermi:
http://www.expreview.com/img/news/2009/12/31/inno3D_01.jpg
AnarchX
2010-01-13, 11:46:25
Das wird wohl eher ein Teststand sein, um das Verhalten der Karte in einem geschlossenen Gehäuse zu testen.
MorPheuZ
2010-01-13, 12:08:39
Ich kenns nur aus dem Server Bereich. ECC Speicher haben zusätzliche Controllerchips bereits auf dem RAM Riegel drauf. Da bei einer GPU die RAM Bausteine direkt auf der Platine verbaut sind, denke ich benötigt der zusätliche "Speichercontroller" ebenfalls irgendwo Platz.
_DrillSarge]I[
2010-01-13, 12:25:42
Da will man vielleicht, passend zum Gerücht der hohen Lautstärke, die Kühlleistung noch verbessern.
Bei Inno3D setzt man wohl auf soetwas:
http://img199.imageshack.us/img199/5639/inno3d03.jpg
http://www.expreview.com/9270.html
umgebauter ac accelero twin turbo?
sentinel_first
2010-01-13, 12:44:31
Ich wollte gern mal wissen, ob dieses Spulenfiepen der 285 GTX der Fermi ebenfalls erben wird?
Denn bei meiner WaKü isses derzeit mit Abstand das Lauteste und nervt.
AnarchX
2010-01-13, 13:28:52
Dazu kann die bisher noch niemand etwas sagen. Wenn man wieder massiv Kosten beim PCB sparen muss, um mit AMD zu konkurrieren, könnte das Fiepen wieder auftreten.
Zumindest bei den 2GB Varianten wurde es beseitigt. Würde mich also wundern wenn es mit dem neuen Chip wiederkäme, aber alles ist möglich....
Klingone mit Klampfe
2010-01-13, 13:45:05
tombman, ich habe dich in diesem Punkt unterschätzt
was die letzten 400 Seiten sollen, verstehe ich allerdings im Gegensatz zu dir, absolut nicht
das ist wohl sowas wie moderne Gruppentherapie
Da muss ich zustimmen. Ich lese hier mit, um etwas über den Fermi zu erfahren, und ich weiß bislang - gar nichts. Außer vielleicht, dass "digitimes" und "fudzilla" permanent neue Einzelheiten erfinden und wild phantasieren. Soviele Maulwürfe kann es in der Industrie gar nicht geben.
Was momentan als gesicherte Information anzunehmen ist:
o Die Chip-Ausbeute ist vergleichsweise niedrig
o Es sind recht massive Kühler zu erwarten
Alles andere ist sind zu diesem Zeitpunkt zirkuläre Streiterei.
Ailuros
2010-01-13, 13:59:05
Grund zum meckern gibt es sowieso stets. Dementsprechende Threads in der Vergangenheit waren nie vergleichsmaessig kleiner (und mit vergleichbarer Anzahl an OT Informationen) ueberhaupt wenn sich ein Produkt verspaetet hat.
Es ist keiner gezwungen etwas zu lesen und eine so offene wie moegliche Debatte ist stets im Sinn der generellen Demokratie die herrschen sollte. Und diese Demokratie ist es gerade die auch die Meckerei und oft total substanzlose Posts erlaubt.
N0Thing
2010-01-13, 14:12:17
Und diese Demokratie ist es gerade die auch die Meckerei und oft total substanzlose Posts erlaubt.
Yay! \o/
Die Spekulationsthreads sind für mich Unterhaltung und bieten Futter für meine Neugierde. Ich will wissen, was eine neue Grafikkarte bieten kann, wie sie sich schlägt, welche Vor- und Nachteile sie hat.
Das interessiert nicht jeden in gleichem Maße, ebenso wenig wie sich jeder für SLI oder Übertaktungshöchstleistungen interessiert. Für Informationen über den Stand der Dinge kann man ja den Startpost lesen, in dem die Fakten und "sichersten" Spekulationen aufgeführt werden.
Ich wollte gern mal wissen, ob dieses Spulenfiepen der 285 GTX der Fermi ebenfalls erben wird?
Denn bei meiner WaKü isses derzeit mit Abstand das Lauteste und nervt.
Je höher die Leistungsaufnahme, in der Regel je höher die Stromstärken. Und da die Stromstärken in sehr kurzer Zeit aufsteigen und ansteigen, kann es in elektronischen Bauteilen zu Geräuschentwicklungen kommen. Je nach Auslegung, liegt die Frequenz im hörbaren Bereich und die Amplitude ist hoch. Man sollte bei diesen High-End-Boliden eh den Rechner auslagern und per Remote steuern. Es macht keinen Sinn mehr, solche Hitzeungetüme unter seinem Schreibtisch zu stellen - im Winter ausgenommen.
Die Spekulationsthreads sind für mich Unterhaltung und bieten Futter für meine Neugierde. Ich will wissen, was eine neue Grafikkarte bieten kann, wie sie sich schlägt, welche Vor- und Nachteile sie hat.
Das fettgeschriebene ist Inhalt der (P)Review-Threads :wink:
Grund zum meckern gibt es sowieso stets.
ich meckere nicht, ich stelle fest
boxleitnerb
2010-01-13, 15:05:53
Das geht leider nur bei denen, die die entsprechenden Räumlichkeiten dafür haben. Wanddurchbruch für Kabel etc kommt dazu, dann sollte der Raum belüftet und relativ trocken sein.
Müsste man mal tombman fragen, der hat das gemacht. Denke damit kommt man dann auch auf die Dauer billiger weg als immer neue Knete in einen leisen/silent Rechner zu stecken.
Knuddelbearli
2010-01-13, 15:10:04
wieso fiept ne Gt200b aber nicht ne RV770 wo die doch mehr saft verbraucht ...
stromstärke ist der grudn wieso überhaupt was fiepen kann aber nit wieso es beid er GT200B so fiept
AnarchX
2010-01-13, 15:56:03
ChrisRay Administrator von Nvidias SLIzone Forum:
So.., what happens in vegas stays in vegas... that being said. The NDA isn;t that far off from coming off for another technical layout of "Graphics" Fermi. So I won't be able to talk to freely about it until then.
However, I can say this at this point as I expect alot of leaks in the nearby future. Fermi dramatically improves on of icecold's biggest complaints about Gt200 and really all cards are having this problem. I expect he'll be happy to see it addressed GF100's tessellation engine is impressive. Its certainly not software and there certainly is dedicated tessellation hardware beyond just the HULL/Shader routines. Its been an incredibly long couple months of me being quiet. But thats at an end really shortly.
http://www.rage3d.com/board/showpost.php?p=1336134574&postcount=1573
MorPheuZ
2010-01-13, 16:28:33
Der Druck muss gewaltig sein, dass die das aushalten da:rolleyes:
Wieso sollte EEC auf irgendwelchen chips "beschaedigt" sein? Erstens wird die Unterstuetzung auf Quadros/GeForces abgeschaltet und zweitens steckt auf den letzteren wohl auch kein EEC Speicher drauf.
Wenn die entsprechende Stelle kaputt ist (also der Chip funktioniert, bis auf eine und/oder mehrere ECC-Einheiten), kann und wird er noch als Geforce verkauft werden können.
mapel110
2010-01-13, 17:29:59
http://forum.beyond3d.com/showpost.php?p=1379401&postcount=3415
Es gibt schon morgen Infos?! Sehr fein.
wieso fiept ne Gt200b aber nicht ne RV770 wo die doch mehr saft verbraucht ...
Beide fiepen.
Bzw. ihre Boards fiepen.
Das Problem ist, das die Presse diesen Umstand ignoriert hat und keine Aufklärung betrieben hat und das in diversen Foren Unwissen mit Lügen vermischt wurde.
Der Käufer ist nur vollkommen verwirrt dadurch, im Schlimmsten Fall wird seine Kaufentscheidung fälschlicherweise beeinflusst.
reunion
2010-01-13, 18:24:55
Die GT200b fiepen deutlich lauter. PCGH hat dazu mehrmals Stellung bezogen.
wieso fiept ne Gt200b aber nicht ne RV770 wo die doch mehr saft verbraucht ...
Hochwertigere Stromversorgung.
Gast mit Frage
2010-01-13, 18:26:54
Die GF100 wird es Ende Quartal 1 in homöopatischen Dosen geben. So viel konnte ich in diesem Thread entnehmen. Wie sieht es mit den Performance-/Mainstream-Modellen aus. Werden das wieder zum x-ten Mal relabelte GT200-Derivate unter "Fermi-Flagge" segeln sehen (wie bei den Mobile-Ships?) und müssen wir damit erst auf die 2. Generation (gelungener) Fermi-Karten warten?
Die GF100 wird es Ende Quartal 1 in homöopatischen Dosen geben. So viel konnte ich in diesem Thread entnehmen. Wie sieht es mit den Performance-/Mainstream-Modellen aus. Werden das wieder zum x-ten Mal relabelte GT200-Derivate unter "Fermi-Flagge" segeln sehen (wie bei den Mobile-Ships?) und müssen wir damit erst auf die 2. Generation (gelungener) Fermi-Karten warten?
Der Shrink des GT200 wurde gecancelt.
Auf Mainstreamprodukte muss man aller Wahrscheinlichkeit nach noch länger warten (2/3Quartal)
Der Shrink des GT200 wurde gecancelt.
Auf Mainstreamprodukte muss man aller Wahrscheinlichkeit nach noch länger warten (2/3Quartal)
Waaaaahhh.... :(
Genau das ist es ja! Selbst wenn Fermi ein schnelles Stück Hardware wird und tatsächlich im März erscheint wird er a) teuer b) kaum erhältlich sein. Und die Gegenstücke zur 57XXer-Reihe fehlen komplett. So wird ATI auch die nächsten Monate kaum Grund haben seine Preise merklich zu senken. Konkurrenz - Fehlanzeige!
Botcruscher
2010-01-13, 19:31:35
Die alten GT200 Modelle werden schon noch neue, wohlklingende Namen bekommen. Hier im Forum ist der Bereich um die 5850 und GTX360 eh wichtiger. Der Rest freut sich halt, dass der Markt nicht kaputt gemacht wurden ist.:freak:
Burgard
2010-01-13, 19:35:43
Die alten GT200 Modelle werden schon noch neue, wohlklingende Namen bekommen. Hier im Forum ist der Bereich um die 5850 und GTX360 eh wichtiger. Der Rest freut sich halt, dass der Markt nicht kaputt gemacht wurden ist.:freak:
Markttechnisch ist es sogar noch schlimmer, da sind die Produkte alle unter der 5850 erheblich wichtiger, was den Umsatz bzw. Gewinn angeht.
Und genau da ist z.Zt. bei NV absolute Funkstille.
Vielleicht gibt es demnächst Karten aus dem Notebook bereich, da gibt es ja zumindest schon einige GT200-Modelle in 40nm und mit DX 10.1.
Markttechnisch ist es sogar noch schlimmer, da sind die Produkte alle unter der 5850 erheblich wichtiger, was den Umsatz bzw. Gewinn angeht.
Und genau da ist z.Zt. bei NV absolute Funkstille.
Vielleicht gibt es demnächst Karten aus dem Notebook bereich, da gibt es ja zumindest schon einige GT200-Modelle in 40nm und mit DX 10.1.
Von der Basis dieser Chips aus ist es aber ein weiter Weg 57xx rein aus Performencesicht.
Die GT200b fiepen deutlich lauter. PCGH hat dazu mehrmals Stellung bezogen.
Ja genau, schön pauschal.
Die Realität interessiert gar nicht mehr.
Hochwertigere Stromversorgung.
Ja die berühmten digitalten VRMs.
Nein, du meinst die höhere Spannung in Verbindung mit der niedrigeren Stromstärke.
Markttechnisch ist es sogar noch schlimmer, da sind die Produkte alle unter der 5850 erheblich wichtiger, was den Umsatz bzw. Gewinn angeht.
Und genau da ist z.Zt. bei NV absolute Funkstille.
Im Gegenteil.
205, G210, GT 220, GT 240 sind nicht gerade alt.
Und gegen diese Basis steht AMD weiterhin mit seinen 55nm HD4 da.
Gib "Hallo" ein!
2010-01-13, 19:54:10
Im Gegenteil.
205, G210, GT 220, GT 240 sind nicht gerade alt.
Und gegen diese Basis steht AMD weiterhin mit seinen 55nm HD4 da.
Und zwar ziemlich gut :-) Außerdem gehts jetzt auch mit 56x0 los...
Dimon
2010-01-13, 19:56:07
Im Gegenteil.
205, G210, GT 220, GT 240 sind nicht gerade alt.
Und gegen diese Basis steht AMD weiterhin mit seinen 55nm HD4 da.
Die o.g Karten sind im unteren Leistungssegment, die kommen sehr schlecht gegen die HD4xxx reihe an....
Waaaaahhh.... :(
Genau das ist es ja! Selbst wenn Fermi ein schnelles Stück Hardware wird und tatsächlich im März erscheint wird er a) teuer b) kaum erhältlich sein. Und die Gegenstücke zur 57XXer-Reihe fehlen komplett. So wird ATI auch die nächsten Monate kaum Grund haben seine Preise merklich zu senken. Konkurrenz - Fehlanzeige!
Zumindest einen Performancechip würde ich Anfang Q2 erwarten. nachdem G212 gecancelt wurde, wird NV kaum untätig gewesen sein. Ein erstes Tape-Out sollte bald erfolgen, oder erfolgt sein.
Die o.g Karten sind im unteren Leistungssegment, die kommen sehr schlecht gegen die HD4xxx reihe an....
Du bist lustig, HD 4870 mit GT 210 verglichen?
Und zwar ziemlich gut :-) Außerdem gehts jetzt auch mit 56x0 los...Du bestätigst mich, AMD muss erstmal vorlgegen, bevor man behaupten kann Nvidia wäre hinten dran.
Ich bezweifel nicht das es so kommen wird, aber faktisch hat AMD im unteren Segment noch nicht neuer oder besser aufgestellt.
Um Nvidia finanziell betrachtet überhaupt "einzuholen" braucht AMD noch verdammt lange bei all den Schulden und wie die angeschlagen waren/sind... Ich finde man kann A/A diese Zeit gönnen, denn wenn die (oder auch Nvidia) pleite gehen, hat bestimmt niemand Bock auf einen Monopolisten;)
mfg
Burgard
2010-01-13, 20:43:25
Du bestätigst mich, AMD muss erstmal vorlgegen, bevor man behaupten kann Nvidia wäre hinten dran.
Ich bezweifel nicht das es so kommen wird, aber faktisch hat AMD im unteren Segment noch nicht neuer oder besser aufgestellt.
Dir ist aber bewusst, dass am 14.01. die komplette DX11-Familie vollständig vorgestellt wurde, einschliesslich des Cedar.
Dir ist aber bewusst, dass am 14.01. die komplette DX11-Familie vollständig vorgestellt wurde, einschliesslich des Cedar.
Nein, hier herscht noch der 13.01.
Die Form "AMD steht in den unteren Segmenten besser da" ist falsch. Hättest besser wird besser dastehen schreiben sollen.
Siehe meinen letzten Satz.
Ob AMD wirklich besser dastehen wird, werden wir sehen, aber zumindest dank D3D11 wohl schon.
Burgard
2010-01-13, 20:59:13
Nein, hier herscht noch der 13.01.
Die Form "AMD steht in den unteren Segmenten besser da" ist falsch. Hättest besser wird besser dastehen schreiben sollen.
Siehe meinen letzten Satz.
Ob AMD wirklich besser dastehen wird, werden wir sehen, aber zumindest dank D3D11 wohl schon.
Ist ja auch egal, zumindest in einem Punkt sind wir uns einig, denke ich, ab Morgen ist NV am Zug und muss sein Portfolio zumindest auf Vordermann bringen.
Im unteren Segment wird ja schon fleissig umgelabelt.
5*5=?
2010-01-13, 21:05:15
Nein, hier herscht noch der 13.01.
Die Form "AMD steht in den unteren Segmenten besser da" ist falsch.
Nein, der Satz ist (Preis-/Leistungsmäßig) auch jetzt schon richtig. Die kleinen 40nm-NV-Chips sind langsamer als die ATI-Pendants zum vergleichbaren Preis, und auch von den (für die Kunden in diesem Segment relevanten) Features nicht besser.
Dimon
2010-01-13, 21:35:26
Du bist lustig, HD 4870 mit GT 210 verglichen?
Die HD4xxx reihe umfasst nicht nur die 4870...
Du kannst die konkurrenten jeweils gegenüberstellen, und du wirst feststellen das die Geforces jeweils den kürzeren ziehen...
Du kannst die konkurrenten jeweils gegenüberstellen, und du wirst feststellen das die Geforces jeweils den kürzeren ziehen...
Nö, das ist deine Behauptung und kein Fakt.
Eine Bewertung mit mehr als einem Kriterium kann unter verschiedenen Bewertungsgewichtungen verschiedene Resultate hervorbringen.
Die HD4xxx reihe umfasst nicht nur die 4870...Achso, hat sich so seltsam gelesen, wegen "unteres Leistungsniveau", als ob es keine HD4 gäbe, die langsamer als eine GT 240 wäre.
Ist ja auch egal, zumindest in einem Punkt sind wir uns einig, denke ich, ab Morgen ist NV am Zug und muss sein Portfolio zumindest auf Vordermann bringen.
Darauf können wir uns mehr oder weniger einigen.
Für manch einen mag es wegen diverser Punkte nicht zutreffen, aber im groben kann man es so sehen.
Wichtig ist mir nur, das es Unsinn ist zu behaupten, das AMD seit Oktober den gesamten Markt mit D3D11 HD5 dominiert.
Dem ist nicht so. Btw. morgen wird es auch neue HD5 ohne D3D11 geben, wenn mich alles täuscht. Z.b. gegen solche Produkte können die Geforce 200 noch locker mithalten.
san.salvador
2010-01-13, 23:56:04
GT300 anyone? :rolleyes:
mictasm
2010-01-13, 23:59:15
Eigentlich könnte das Speku-Unterforum geschlossen werden. Wir nehmen dann diesen Sammelthread einfach wie bisher für alle Themen als Sticky in die IT-News...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.