PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 [54] 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Gast
2010-03-01, 21:24:08
Begründung geleakte Tesselation Benches, Preis auf Höhe Dualkarte ATI, und die Specs der 480.;)

LovesuckZ
2010-03-01, 21:26:02
krass. und alle wurden auf den boden zurück geholt ;) bald kann das zitieren alter aussagen aufgenommen werden ..

Ja, bald ist der 26.
Dann war wohl die verwendete GF100 Karte auf der CES die X2 Version. ;D

Gast
2010-03-01, 21:28:10
Ich glaube auch das die 470 schneller als die 5870 ist. Das ist aber nur eine Spekulation meinerseits. We`ll see.

Kosh
2010-03-01, 21:33:08
Begründung geleakte Tesselation Benches, Preis auf Höhe Dualkarte ATI, und die Specs der 480.;)

Also muss NVIDIA nur 1000 Dollar Preis ansetzen,und dann vermuten die Leute doppelte 5970 Leistung,weil doppelt so teuer wie die 5970?

LovesuckZ
2010-03-01, 21:39:23
Da hier jemand Computerbase.de erwähnt hat: Laut dem Bench-Parkour ist die 5870 ohne D3D11 ganze 29,625% schneller als die GTX285 (in 1920x1200 - 4AA/16xAF). Laut diesem User soll die GTX480 5-10% schneller als die 5870 sein: Macht also im besten Fall 32,5875% mehr Leistung gegenüber der GTX285. Na, das will ich sehen, dass nVidia mit 2,14x sovielen Transistoren ganze 32,5875% Leistungsgewinn erreicht.

Gast
2010-03-01, 21:40:03
Also muss NVIDIA nur 1000 Dollar Preis ansetzen,und dann vermuten die Leute doppelte 5970 Leistung,weil doppelt so teuer wie die 5970?

Weiss gerade nicht was du meinst, sorry. Ich meine wenn Nvidia 600 Euro ansetzt (So teuer ist die Dualkarte von ATI) dann muss die auf dem Niveau sein, oder ganz knapp darunter.

=Floi=
2010-03-01, 21:42:19
im cpu-limit sicherlich. ;D

ich bin gespannt wo der GF100 RICHTIG abgeht. Wir werden auch rückschlüsse auf den GT200 ziehen können und wo mittlerweile die wirklichen flaschenhälse sind.

RoNsOn Xs
2010-03-01, 21:43:15
...ganze 32,5875% Leistungsgewinn erreicht.
auf seite ~400 habe ich schon max 40% geschätzt. mal schauen :freak:

Gast
2010-03-01, 21:44:34
Mit Metro und dem Rennspiel (Name gerade entfallen) kann man ja schonmal DX11 benchen. Warten wir mal ab, DX11 Games darauf kommts an;)

Gast
2010-03-01, 21:45:38
Unschön:

http://www.tweakpc.de/news/17944/cebit-gefluester-fermi-nicht-so-schnell-wie-erwartet/


Was ist da unschön?

Es ist wohl ziemlich klar, dass es eine Fermi-Karte geben wird die knapp schneller als die 5870 sein wird, dafür braucht man keine Insiderinfos, da reicht der Hausverstand.

AnarchX
2010-03-01, 21:51:58
GTX 470?
http://www.xtremesystems.org/forums/showpost.php?p=4266128&postcount=1514

Damit sind 320-Bit wohl bestätigt.

LovesuckZ
2010-03-01, 21:54:33
GTX 470?
http://www.xtremesystems.org/forums/showpost.php?p=4266128&postcount=1514

Damit sind 320-Bit wohl bestätigt.

Vorsichtig - das könnten G80 Chips sein. :D
Endlich bilder der Karte. Und 2x6 PIN Anschluss. Immerhin ein Anfang.

Gast
2010-03-01, 21:56:18
Yep, 2x6 Pin. Also wird das Ding nicht übermässig viel Strom fressen.

Lu
2010-03-01, 21:58:38
Das war aber im voraus schon klar....

numb
2010-03-01, 22:01:35
Da hier jemand Computerbase.de erwähnt hat: Laut dem Bench-Parkour ist die 5870 ohne D3D11 ganze 29,625% schneller als die GTX285 (in 1920x1200 - 4AA/16xAF). Laut diesem User soll die GTX480 5-10% schneller als die 5870 sein: Macht also im besten Fall 32,5875% mehr Leistung gegenüber der GTX285.

Prozentrechnen mein Freund ;)

129% * 1,1 = 142%

grüße numb

Gast
2010-03-01, 22:03:14
Laut diesem User soll die GTX480 5-10% schneller als die 5870 sein: Macht also im besten Fall 32,5875% mehr Leistung gegenüber der GTX285. Na, das will ich sehen, dass nVidia mit 2,14x sovielen Transistoren ganze 32,5875% Leistungsgewinn erreicht.
Dazu noch 42A 600Watt Netzteil nötig...

LOL,wenn sich das so bestätigt, kann man sagen:



And the winner is: -> Charlie

Gast
2010-03-01, 22:05:58
Dazu noch 42A 600Watt Netzteil nötig...

LOL,wenn sich das so bestätigt, kann man sagen:



And the winner is: -> Charlie


Eine 285 braucht 40 Ampere so what.

Blaire
2010-03-01, 22:06:31
Unschön:

http://www.tweakpc.de/news/17944/cebit-gefluester-fermi-nicht-so-schnell-wie-erwartet/

Vieleicht die GTX470 ;) Sonst könnte Nvidia kaum solch hohe Preise verlangen.

Triskaine
2010-03-01, 22:12:00
Bin ich der einzige dem der Lüfter zu klein vorkommt? Wäre es nicht sinnvoller, einen größeren und dafür langsamer drehenden Lüfter zu nehmen?
Bei der zu erwartenden Hitzeentwicklung sieht mir das nach einem ziehmlichen Miefquirl aus.

Fetter Fettsack
2010-03-01, 22:14:55
Was sinnvoll ist und was man bei einem Produkt letztendlich realisiert sind zwei Paar Schuhe.
Außerdem kann man zu diesem Zeitpunkt ohne jegliche Information über die Abwärme der GPU, sowie der SpaWas und die Leistungsfähigkeit des verbauten Kühlers schlecht über die Sinnhaftigkeit eine Kühllösung debattieren.

Gast
2010-03-01, 22:15:13
Wozu? Der Lüfter hat sich doch bei der 285 etc erprobt. Korrektur oben: Es wird so ein Netzteil empfohlen, die karte braucht natürlich keine 40 Ampere;)

=Floi=
2010-03-01, 22:22:13
es ist weniger der lüfter entscheidend, sondern die anzahl der verbauten heatpipes und welches material.

Gast
2010-03-01, 22:26:17
Eine 285 braucht 40 Ampere so what.

Komisch, meine stromfressende 280 läuft auch mit einem 20A-Netzteil.

Gast
2010-03-01, 22:32:45
Dann aber auch schwer an der Grenze. Übrigens hab ich mich schon korrigiert. da ich aber Gast bin musste ich das ein zwei Sätze unten hinschreiben;)

Triskaine
2010-03-01, 22:36:57
Eine GTX 260/285 hat einen deutlich größeren Lüfter als die abgebildete GTX 470 Karte, deren Kühler wohl kaum größer als der einer GTX 280 ist. Daraus folgt zwangsläufig das die GTX 470 lauter als die jetzigen High-End Geforces sein wird, außer natürlich die Wärmeentwicklung dieser ist bedeutend geringer als bisher angenommen, was allerdings den bisherigen Informationen nicht entsprechen würde.

Gast
2010-03-01, 22:42:18
Naja, der Lüfter ist etwa genauso groß http://geizhals.at/deutschland/a473146.html

Gast
2010-03-01, 22:47:19
War beim G80 auch nicht anders, dass alle behaupteten, er wird sich vom G71 und G80 nicht weit absetzen können, was man dann sah wissen wir ja alle. Also hört auf ein Gerücht zu bestätigen, ohne das ihr wisst ob es Fakt ist oder Lüge! Ich bin mir ziemlich sicher, dass NVidia ATI richtig Feuer machen wird!;)


mfg

Gast
2010-03-01, 22:48:50
BTW: Erste Bilder!


Quelle:http://www.xtremesystems.org/forums/showpost.php?p=4266128&postcount=1514

Menace
2010-03-01, 22:50:02
also auf dem aufkleber steht:
"GF100 375 A3"


Die Info musste PCGH wohl wieder entfernen.

Anmerkung der Redaktion: Nach Rücksprache mit Nvidia haben wir den ursprünglichen Artikel verändert und Passagen entfernt. Offenbar waren bestimmte Infos noch nicht zur Veröffentlichung gedacht. Bitte haben Sie Verständnis für diese Maßnahme.

http://www.pcgameshardware.de/aid,705737/Geforce-GTX-4xx-Erste-Fermi-Grafikkarte-auf-der-Cebit-gesichtet/Grafikkarte/News/

Triskaine
2010-03-01, 22:50:28
Naja, der Lüfter ist etwa genauso groß http://geizhals.at/deutschland/a473146.html

Nein, ist er nicht.

http://pics.computerbase.de/2/1/8/1/8/158.jpg

Gast
2010-03-01, 22:52:39
mmmm dann scheint das hier "GF100 375 A3" wohl nicht so unwichtig gewesen zu sein. Also liegt die Karte vielleicht unter 470 Niveau? Fragen über Fragen...

Gast
2010-03-01, 22:53:22
AMD hat den RV870 Chip genau vor 1 Jahr fertig abgeschlossen, ich bin mir sicher das demnächst von AMD eine neue High End ATI Karte kommen wird, diesmal mehr als ein Taktupdate.

Gast
2010-03-01, 22:53:51
Nein, ist er nicht.

http://pics.computerbase.de/2/1/8/1/8/158.jpg


Sorry, kann gerade nicht nachmessen;)

LovesuckZ
2010-03-01, 22:53:59
Der Lüfter entspricht mehr denen der 9800GTX Karten: http://www.nvidia.com/object/product_geforce_9800_gtx_us.html

Gast
2010-03-01, 22:56:26
Eine GTX 260/285 hat einen deutlich größeren Lüfter als die abgebildete GTX 470 Karte, deren Kühler wohl kaum größer als der einer GTX 280 ist.
Erzähl kein Blech.
http://www.computerbase.de/bildstrecke/24163/3/
http://www.computerbase.de/bildstrecke/21818/140/
Sind exakt gleich groß. Kleiner/schwächer ist nur der Kühlkörper der 285.

Gast
2010-03-01, 22:56:42
Und Lovesuckz war der laut? Sorry hab die Karte net, deshalb die Frage.

LovesuckZ
2010-03-01, 23:00:18
Also laut Computerbase.de (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/22/#abschnitt_lautstaerke) auf dem Niveau der 8800GTX - also unter Last kaum wahrnehmbar.

TDP der 9800GTX: 140 Watt.

Armaq
2010-03-01, 23:01:19
Und Lovesuckz war der laut? Sorry hab die Karte net, deshalb die Frage.
Der 9800er Lüfter war für die 9800er super.

Gast
2010-03-01, 23:01:40
Na, das hört sich doch gut an. Danke für die Info.

Dural
2010-03-01, 23:13:37
BTW: Erste Bilder!


Quelle:http://www.xtremesystems.org/forums/showpost.php?p=4266128&postcount=1514

die GTX470 scheint kürzer zu sein als 5870 und co!

zudem 2x 6Pin PCI-E somit ist eine TDP von unter 225Watt für die GTX470 gesichert!

mapel110
2010-03-01, 23:33:08
http://www.semiaccurate.com/2010/03/01/fermi-power-requirements-leak/
Tut ja richtig weh, was in der Meldung steht. Und ist noch nicht mal von Charlie. ^^

Gleich mal im Forum dort wieder Stunk machen. Mein Bann ist ja passend dazu abgelaufen. ;D

Gast
2010-03-01, 23:35:29
Das man den Fermi nicht mit einem Chinaböller nutzen sollte dürfte klar sein. Ein 600Watt Markennetzteil und gut ist. Ansonsten wieder pure Meinungsmache seitens Semi-Accurate.

mapel110
2010-03-01, 23:38:07
Das man den Fermi nicht mit einem Chinaböller nutzen sollte dürfte klar sein. Ein 600Watt Markennetzteil und gut ist. Ansonsten wieder pure Meinungsmache seitens Semi-Accurate.
In der Meldung steht, dass man auf EINER 12Volt-Schiene des Netzteils 42 Ampere haben muss für Fermi. Und das ist mal richtiger Blödsinn.

Gast
2010-03-01, 23:39:22
was ist denn das für ne karte:

http://www.abload.de/thumb/attachment13vp.jpg (http://www.abload.de/image.php?img=attachment13vp.jpg)

http://www.abload.de/thumb/attachmentt4zs.jpg (http://www.abload.de/image.php?img=attachmentt4zs.jpg)

Gast
2010-03-01, 23:40:51
In der Meldung steht, dass man auf EINER 12Volt-Schiene des Netzteils 42 Ampere haben muss für Fermi. Und das ist mal richtiger Blödsinn.

Richtig, absoluter Blödsinn. Echt schmierige Seite.

Bucklew
2010-03-01, 23:42:16
was ist denn das für ne karte:

http://www.abload.de/thumb/attachment13vp.jpg (http://www.abload.de/image.php?img=attachment13vp.jpg)

http://www.abload.de/thumb/attachmentt4zs.jpg (http://www.abload.de/image.php?img=attachmentt4zs.jpg)
GTX280 - siehe den schrängen Lüfter auf dem 1. Bild und den SP/DIF-Eingang.

MoC
2010-03-01, 23:56:39
Vll. blöde Frage aber wie kommten Nvidia auf die Minimum 42A?

Was sollen dort noch alles dranhängen bei denen ...nen Staubsauger Oo

Gast
2010-03-01, 23:58:12
GTX 470?
http://www.xtremesystems.org/forums/showpost.php?p=4266128&postcount=1514

Damit sind 320-Bit wohl bestätigt.


der soll mal benchmarks rausrücken :X

Daredevil
2010-03-02, 00:00:34
Ich tippe ja auf Zahlendreher, 24 > 42, oder eben einfach nur Unsinn.

LovesuckZ
2010-03-02, 01:52:18
nVidia hat uns über Twitter angelogen: GF100 wird in Form der GTX470 nicht 10,5" lang sein. Es werden wohl weniger sein. :(
Sogar kürzer als die 9800GTX. Mit den Daten denke ich, ist eine TDP von ca. 200 Watt möglich und somit auch eine mögliche X2 auf Basis der GTX470.

Ich tippe ja auf Zahlendreher, 24 > 42, oder eben einfach nur Unsinn.

Nein, die 42A stehen für das gesamte System. Leider fehlt ja die Erklärung bei den 4*. Eine GTX295 benötigt 680 Watt und 46A, eine GTX280 550 Watt mit 40A.

Gast
2010-03-02, 02:06:22
Fazit: Nix ist so heiss wie es gekocht wird (Seitenhieb Semi-Charlie;))

Daredevil
2010-03-02, 02:10:23
Ach die Sternchen, habe da garnicht drauf geachtet.
Naja die Daten sind ja bestimmt auch sehr großzügig gewählt, dann ist das ja kein Problem.
Ein Corsair VX 550W kostet um die 65€, so ein Breitengrad sollt eh für solche Geschütze vorhanden sein.

Gast
2010-03-02, 02:14:34
Ich behaupte mal felsenfest: Ein Corsair VX 550 reicht. Quadcore, Fermi und noch die schönen Lämpchen. Wenn man alles übertaktet könnte es knapp werden, aber ein Qualitätsnetzteil verkraftet das.

Ihm
2010-03-02, 05:04:50
Laut den Daten aus dem Fermi-Whitepaper wird das Teil ja ein Rechenmonster; sehr stark GPGPU-orientiert. Ich glaube nicht, dass es in Spielen der grosse Überflieger wird. Mir aber egal: Interessiere mich eher für die GPGPU Leistung. :D

Sascha1971
2010-03-02, 08:28:18
Ich hätte da als nicht Profi eine Frage:

Es wird immer herum gejammert, das die GTX480 ungefähr die Geschwindigkeit einer 5970 haben wird oder evtl sogar was weniger.
Aber ist die FTX480er nicht eine SingleGPU ? Und hat damit nicht die Nachteile einer doppel GPU ? Also keine MR und nicht SLI bzw Crossfire Profilabhängig im Treiber ?!

Denn dann dürfte man die GTX 480er nur mit einer 5870er vergleichen ?! :confused:

Ailuros
2010-03-02, 08:34:46
Laut den Daten aus dem Fermi-Whitepaper wird das Teil ja ein Rechenmonster; sehr stark GPGPU-orientiert.

Laut GF100 whitepaper ist die Architektur genauso stark 3D orientiert. Ich bin sogar so frech zu behaupten dass die insgesamte Geometrie-/Tessellations-Investition mehr in hw insgesamt gekostet hat als double precision.

Ich glaube nicht, dass es in Spielen der grosse Überflieger wird. Mir aber egal: Interessiere mich eher für die GPGPU Leistung. :D

Wird sich zeigen. GF100 basierende Quadros kommen sowieso nicht zeitgleich zu GeForces und Tesla und fuer hohe DP Leistung wirst Du so oder so eine Tesla brauchen. Auf Papier und streng auf die DP Leistung begrenzt sind hier selbst einfache 5870-er Radeons mit ihren 544GFLOPs DP alles andere als im Nachteil (und ja uebertriebene Vereinfachungen gegen uebertriebene Vereinfachungen).

Ich hätte da als nicht Profi eine Frage:

Es wird immer herum gejammert, das die GTX480 ungefähr die Geschwindigkeit einer 5970 haben wird oder evtl sogar was weniger.
Aber ist die FTX480er nicht eine SingleGPU ? Und hat damit nicht die Nachteile einer doppel GPU ? Also keine MR und nicht SLI bzw Crossfire Profilabhängig im Treiber ?!

Denn dann dürfte man die GTX 480er nur mit einer 5870er vergleichen ?! :confused:

Die GTX480 ist eine 512SP (bzw. 16 cluster) single chip GPU. Mit der 5870 ist sie vom Stromverbrauch und Preis-/Leistungsnivaeu eher mit der 5970 vergleichbar als mit der 5870. Da AMD keine single chip high end Variante hat, ist die 5970 die einzige wahre vergleichbare Loesung.

Die 5870 kann man dann wohl eher mit einer GTX470 vergleichen.

Sascha1971
2010-03-02, 08:38:43
Die GTX480 ist eine 512SP (bzw. 16 cluster) single chip GPU. Mit der 5870 ist sie vom Stromverbrauch und Preis-/Leistungsnivaeu eher mit der 5970 vergleichbar als mit der 5870. Da AMD keine single chip high end Variante hat, ist die 5970 die einzige wahre vergleichbare Loesung.

Die 5870 kann man dann wohl eher mit einer GTX470 vergleichen.

Ok, für mich ist nur wichtig, das ich eine High End Karte bekomme, die keine MR hat. Ich vermute mal dann fahre ich mit der GTX480 besser ? Und wie schon gesagt, stört micht bei der doppel GPU Lösung immer das die Profile im Treiber erst so spät kommen.

Spasstiger
2010-03-02, 08:45:54
Nein, die 42A stehen für das gesamte System. Leider fehlt ja die Erklärung bei den 4*. Eine GTX295 benötigt 680 Watt und 46A, eine GTX280 550 Watt mit 40A.
Würde ja auf eine Leistungsaufnahme zwischen der GTX 295 und der GTX 280 hindeuten, was bei 2*6-Pin-Steckern aber keinen Sinn macht. Ich denke, dass man unter anderem den 140-Watt-Mainstream-CPUs von AMD Rechnung trägt. Das Basissystem eines GTX-4xx-Käufers schluckt tendentiell mehr Saft als das Basissystem eines GTX-280-Käufers.

AnarchX
2010-03-02, 08:50:17
Würde ja auf eine Leistungsaufnahme zwischen der GTX 295 und der GTX 280 hindeuten, was bei 2*6-Pin-Steckern aber keinen Sinn macht.
Die 600W/42A beziehen sich auf die GTX 480 mit 6+8Pin (http://www.hexus.net/content/item.php?item=22654).

Gast
2010-03-02, 08:51:35
Ok, für mich ist nur wichtig, das ich eine High End Karte bekomme, die keine MR hat. Ich vermute mal dann fahre ich mit der GTX480 besser ? Und wie schon gesagt, stört micht bei der doppel GPU Lösung immer das die Profile im Treiber erst so spät kommen.Tja! Eine GTX480 ist auch nicht ohne Probleme. Eine GTX480 die nächsten Monate überhaupt zu bekommen, sollte ein Kunststück sein. Mal vom vermutlich exorbitanten Preis ganz abgesehen. Und ob der Lüfter halbwegs leise wird, dass bleibt auch noch abzuwarten.

Ailuros
2010-03-02, 09:49:08
Die 600W/42A beziehen sich auf die GTX 480 mit 6+8Pin (http://www.hexus.net/content/item.php?item=22654).

Da die GTX295 ein TDP von 289W hat wundere ich mich wie minimum 680W PSU und 46A gegen die 600W/42A genau stehen und wieso vielleicht die ~240W realer max Stromverbrauch fuer die 480 doch nicht so daneben war am Ende.

James Ryan
2010-03-02, 10:10:41
Mal eine andere Überlegung:
Die auf der Cebit gezeigten Radeon HD 5970er Karten mit 4 GB VRam (2*2 GB) und erhöhten Takt zeigen IMO, dass die GTX 480 doch die Standard HD 5970 angreifen wird.
Warum sonst sollten Asus und Sapphire auf Biegen und Brechen solche Monster nah am Rande des Machbaren bauen?

MfG :cool:

X.Perry_Mental
2010-03-02, 10:24:47
Mal eine andere Überlegung:
Die auf der Cebit gezeigten Radeon HD 5970er Karten mit 4 GB VRam (2*2 GB) und erhöhten Takt zeigen IMO, dass die GTX 480 doch die Standard HD 5970 angreifen wird.
Warum sonst sollten Asus und Sapphire auf Biegen und Brechen solche Monster nah am Rande des Machbaren bauen?

MfG :cool:
Würde die Reaktion dann nicht eher direkt von AMD kommen? Vielleicht bauen ASUS und Sapphire die Katen einfach weil es geht und der Markt zwar klein aber lohnend ist (siehe ASUS Mars).

Gast
2010-03-02, 10:25:57
Mal eine andere Überlegung:
Die auf der Cebit gezeigten Radeon HD 5970er Karten mit 4 GB VRam (2*2 GB) und erhöhten Takt zeigen IMO, dass die GTX 480 doch die Standard HD 5970 angreifen wird.
Warum sonst sollten Asus und Sapphire auf Biegen und Brechen solche Monster nah am Rande des Machbaren bauen?

MfG :cool:


Evtl weil sie es können, sie sich von dem Standard Designs absetzen wollen und wiel es einen Markt dafür gibt?! Für die GTX295 gab es auch keine wirkliche Konkurrenz und ASUS hat die Mars gebaut...

Armaq
2010-03-02, 10:27:30
Asus und Sapphire sind Hersteller, von denen mehr als Standard erwartet wird. Sie bauen halt auch in Eigenregie und dabei kamen ja auch schon einige Modelle rum, die weit besser waren als der Standard.

James Ryan
2010-03-02, 10:41:23
Evtl weil sie es können, sie sich von dem Standard Designs absetzen wollen und wiel es einen Markt dafür gibt?! Für die GTX295 gab es auch keine wirkliche Konkurrenz und ASUS hat die Mars gebaut...

Die Mars kam doch AFAIK nach der HD5000er Reihe, insofern war schon Konkurenz da!

MfG :cool:

Gast
2010-03-02, 10:45:01
was ist denn das für ne karte:

http://www.abload.de/thumb/attachment13vp.jpg (http://www.abload.de/image.php?img=attachment13vp.jpg)

http://www.abload.de/thumb/attachmentt4zs.jpg (http://www.abload.de/image.php?img=attachmentt4zs.jpg)

Die "Tim Allen" - Edition - MEEEEEHR POOOWER !!

YfOrU
2010-03-02, 11:43:40
Evtl weil sie es können, sie sich von dem Standard Designs absetzen wollen und wiel es einen Markt dafür gibt?! Für die GTX295 gab es auch keine wirkliche Konkurrenz und ASUS hat die Mars gebaut...

Es müsste eher heißen: "weil sie es dürfen" Ohne Freigabe vom (GPU) Lieferanten sind solche Produkte nicht möglich.
Ist aber auch logisch denn somit wird die Balkenlänge der 5970 passend zur Fermi-Vorstellung ein gutes Stück länger und das Marketing kann werbewirksame 4GB Sticker verteilen...

Schlammsau
2010-03-02, 12:00:03
Es müsste eher heißen: "weil sie es dürfen" Ohne Freigabe vom (GPU) Lieferanten sind solche Produkte nicht möglich.
Ist aber auch logisch denn somit wird die Balkenlänge der 5970 passend zur Fermi-Vorstellung ein gutes Stück länger und das Marketing kann werbewirksame 4GB Sticker verteilen...

Die 5970 braucht die 2GB pro GPU.....nur werbewirksam ist was andres!

svenw
2010-03-02, 12:05:29
Es sollte mich nicht wundern, wenn bei ATI auch schon ein paar besonders ausgewählte Chips herum liegen, aus denen man eine 5890 bauen könnte. Nur wird ATI bis zum 26ten warten damit sie wissen wie weit sie die 5870 aufbohren müssen. Denn eines kann ich garantieren, einer der Ersten Käufen einer 480er und 470er wird ATI sein für interne Tests. Und wenn die Karten sie 5000$ kostet. ;D

MR2
2010-03-02, 12:21:14
Glaube ich nicht, daß die erst beim Erscheinen solche Karten kaufen müssen. Die großen Hersteller werden wohl am ehesten Karten haben und da sitzen garantiert auf beiden Seiten Leute die Karten zuschieben oder daten weiter geben. Jede Wette...Geld regiert die Welt.

mapel110
2010-03-02, 12:34:43
http://www.semiaccurate.com/2010/03/02/nvidia-threatens-its-partners-cebit/
Nvidia threatens it's partners at CeBIT
CeBIT 2010 Don't you dare talk GTX480

Nvidia Rules & Regulations

Summary of Permitted Activities:

*Public demonstration of GF100 in 3D Vision using NVIDIA supplied PC and content.

*Public display of color box templates and disclosure of features and brand name information included in the NVIDIA retail box template

Not Permitted Activities:

-Public or NDA demonstration of GF100 using any other system or content than supplied by NVIDIA

-Public or NDA disclosure of performance numbers or benchmarks

-Public or NDA disclosure of clocks or any other product specifications outside of those included in the NVIDIA retail box template

-Public disclosure of pricing or availibility

-Public or NDA press briefings of GF100. Please refer all press inquiries on GF100 to NVIDIA PR.

-Public display of GF100 mechanical sample

Iceman346
2010-03-02, 12:37:08
Die Mars kam doch AFAIK nach der HD5000er Reihe, insofern war schon Konkurenz da!

Die war aber schon lange vor den 5XXXern in Entwicklung. Auf die Schnelle hab ich ne News aus dem Mai 2009 gefunden wo von Verfügbarkeit im Juni gesprochen wird. Offiziell angekündigt wurde sie dann im August, die 5870 wurd Ende September vorgestellt.

Asus hatte bei der Karte anscheinend massive Probleme das Ding stabil zu kriegen. Die Testkarte der PCGH lief so heiß, dass sie ohne Zusatzkühlung nicht stabil war. Ich schätze mal, dass es dadurch auch zu deutlichen Verzögerungen kam.

Das Ding war nen reines Prestigeprojekt, mit den 5XXXer Karten hatte das imo nichts zu tun.

Gast
2010-03-02, 12:41:57
http://www.semiaccurate.com/2010/03/02/nvidia-threatens-its-partners-cebit/
Nvidia threatens it's partners at CeBIT
CeBIT 2010 Don't you dare talk GTX480

Nvidia Rules & Regulations

Summary of Permitted Activities:

*Public demonstration of GF100 in 3D Vision using NVIDIA supplied PC and content.

*Public display of color box templates and disclosure of features and brand name information included in the NVIDIA retail box template

Not Permitted Activities:

-Public or NDA demonstration of GF100 using any other system or content than supplied by NVIDIA

-Public or NDA disclosure of performance numbers or benchmarks

-Public or NDA disclosure of clocks or any other product specifications outside of those included in the NVIDIA retail box template

-Public disclosure of pricing or availibility

-Public or NDA press briefings of GF100. Please refer all press inquiries on GF100 to NVIDIA PR.

-Public display of GF100 mechanical sample

Die Regeln zeugen ja nicht gerade von einem Vertrauen in das eigenen Produkt wenn man genau gar nichts zeigen oder sagen darf. Aber lange kann NV das nicht mehr geheim halten.

Plus:

Most of the questions were answered a bit ago, but lets recap. The benchmarks are on par with the ATI HD5850 for the GTX470 and about 5 percent above the HD5870 for the GTX480, but both Nvidia cards run much hotter. Clocks are 625/1250MHz, way short of the intended 750/1500, and wattage is through the roof.

Two box samples seen by SemiAccurate had no clocks or specs on them, quite telling for a product that will paper launch later this month. There must be quite a bit of panic in Santa Clara right now. Pricing wasn't set according to four partners talked with by SemiAccurate, and availability for the high-end part, at least according to what Nvidia has promised to deliver, is basically a few hundred units per vendor. Worldwide. Ever.

Undertaker
2010-03-02, 12:44:56
Na mal schauen, ob sich Charlie damit jetzt nicht (wieder einmal...) endgültig sein Grab zum Thema Fermi geschaufelt hat: GTX470 = HD5850, GTX480 ~= HD5870 bei "massiv" höherem Verbrauch. Nageln wir ihn drauf fest, wenn es soweit ist....

Gast
2010-03-02, 12:49:20
Na mal schauen, ob sich Charlie damit jetzt nicht (wieder einmal...) endgültig sein Grab zum Thema Fermi geschaufelt hat: GTX470 = HD5850, GTX480 ~= HD5870 bei "massiv" höherem Verbrauch. Nageln wir ihn drauf fest, wenn es soweit ist....

Bei dem von ihm angegebenen Taktraten von 625/1250MHz könnte das vielleicht sogar stimmen. Finale Produkte werden aber definitiv deutlicjh höher takten.

X.Perry_Mental
2010-03-02, 12:51:34
Mal abgesehen vom gewohnten Unterton ist dieser Abschnitt aus Charlies Artikel (http://www.semiaccurate.com/2010/03/02/nvidia-threatens-its-partners-cebit/) doch sehr merkwürdig:

"Pricing wasn't set according to four partners talked with by SemiAccurate, and availability for the high-end part, at least according to what Nvidia has promised to deliver, is basically a few hundred units per vendor. Worldwide. Ever."

Wenn dieses letzte "Ever" so gemeint ist, würde es nicht nur auf schlechte Verfügbarkeit, sondern auch auf eine kurze Verfügbarkeit (und einen frühen Nachfolger?) hindeuten.

Botcruscher
2010-03-02, 12:55:32
Bei dem von ihm angegebenen Taktraten von 625/1250MHz könnte das vielleicht sogar stimmen. Finale Produkte werden aber definitiv deutlich höher takten.

"Finale Produkte". Als ob man bei Ende März noch groß was ändern könnte.

Gast
2010-03-02, 13:03:38
"Finale Produkte". Als ob man bei Ende März noch groß was ändern könnte.

Es wurde schon ein paar mal gesagt das die Samples auf der Cebit noch nicht mit den finalen Taktraten laufen.

Gouvernator
2010-03-02, 13:04:41
Das sieht ja nach einem Desaster aus. Und ich dachte AMD hat schon mit einem Desaster (bei Verfügbarkeit) vorgelegt. Fehlt nur noch das sie sagen die Karten werden "Kommunismus like" ausschließlich auf dem Schwarzmarkt verkauft....

svenw
2010-03-02, 13:11:23
Der Maulkorb von Nvidia ist IMHO ganz normal, wenn Partner Zahlen rausgeben dürften, dann könnte sich NV den Termin am 26ten sparen, eagl ob NDA oder nicht. Das sie nur Anwendungen laufen lassen die sie kennen und kontrollieren hat den gleichen Grund. Bei Spielen könnte jemand "versehentlich" die Anzeige Framerate anstellen und dann hätte sich auch das erledigt.

Die Werte die Charlie nennt, passen schon irgendwie. Ansonsten macht das ganze keinen Sinn, denn wenn die Karten sehr heiß werden, dann kann NV wohl kaum sonderlich mit den Takten hochgehen. Wenn die Taktraten nicht final (zu langsam) sind, wieso sollten dann die Karten so heiß werden? Man mag über Charlie sagen was man will, aber das er sich die ganzen Infos zur GF100 nur aus den Fingern saugt glaube ich nicht. Denn spätestens am 26ten wäre es mit den Gelüge vorbei.

Gast
2010-03-02, 13:12:38
Es wurde schon ein paar mal gesagt das die Samples auf der Cebit noch nicht mit den finalen Taktraten laufen.

Und was will man damit zeigen?
Dass der Verbrauch mit weniger Takt (und wahrscheinlich Spannung) nicht so schlimm ist?

Spasstiger
2010-03-02, 13:12:43
Die Regeln zeugen ja nicht gerade von einem Vertrauen in das eigenen Produkt wenn man genau gar nichts zeigen oder sagen darf.
Es gibt ein NDA. Entsprechend wäre es ziemlich unfair den Reviewseiten und -magazinen gegenüber, wenn die Hersteller auf der Cebit schon alles rausposaunen dürften. Nvidia beweist damit nur, dass sie das NDA ernstnehmen und keiner eine Vorzugsbehandlung bekommt.

Gast
2010-03-02, 13:13:24
Denn spätestens am 26ten wäre es mit den Gelüge vorbei.

Ganz genau, dann wird man sehen wer gelogen hat:)

Botcruscher
2010-03-02, 13:15:58
Es wurde schon ein paar mal gesagt das die Samples auf der Cebit noch nicht mit den finalen Taktraten laufen.

Ja und? Wenn man 4 Wochen vor Start, auf der weltgrößten IT Messe, noch mit irgendwelchen halbgaren Laborsamples rummacht bedeutet das einfach nichts gutes. Das ist die Fermidemo, bei Fragen wenden sie sich bitte an die Niwida-PRopagandaabteilung. Marketingtechnisch kommt ein GAU nach dem anderen. Selbst Hitler wird nicht erfreut sein.

Es gibt ein NDA. Entsprechend wäre es ziemlich unfair den Reviewseiten und -magazinen gegenüber, wenn die Hersteller auf der Cebit schon alles rausposaunen dürften. Nvidia beweist damit nur, dass sie das NDA ernstnehmen und keiner eine Vorzugsbehandlung bekommt.

Man könnte die Seiten und Hersteller auch einfach mit einer Hand voll Infos füttern welche veröffentlicht werden dürfen. Vermutlich steht dies aber der "Bitte keine Fremdherstellerkarte kaufen" PR-Strategie im Weg. Zeit schinden...

Gast
2010-03-02, 13:20:39
Autsch, Godwins Gesetz schlägt zurück.

Gast
2010-03-02, 13:20:44
Das heisst nVidia und nicht Niwida oder Nivea. Durch solche Sätze leidet das Niveau. Also btt;)

mboeller
2010-03-02, 13:20:48
Der Maulkorb von Nvidia ist IMHO ganz normal, wenn Partner Zahlen rausgeben dürften, dann könnte sich NV den Termin am 26ten sparen, eagl ob NDA oder nicht. Das sie nur Anwendungen laufen lassen die sie kennen und kontrollieren hat den gleichen Grund. Bei Spielen könnte jemand "versehentlich" die Anzeige Framerate anstellen und dann hätte sich auch das erledigt.



Wenn man sich das ganze so durchliest wundert mich die Aussage von ein paar Seiten aber dann doch. Die von Nvidia auf Nvidia-PCs von Nvidia-Mitarbeitern kontrollierten Nvidia-Demos ruckeln....seltsam!

Gast
2010-03-02, 13:25:34
Wenn die Demo auf der CES auf einem Triple SLI System lief und jetzt auf einem Single GPU System finde ich das eher beruhigend.

Bucklew
2010-03-02, 13:27:28
Die Werte die Charlie nennt, passen schon irgendwie. Ansonsten macht das ganze keinen Sinn, denn wenn die Karten sehr heiß werden, dann kann NV wohl kaum sonderlich mit den Takten hochgehen. Wenn die Taktraten nicht final (zu langsam) sind, wieso sollten dann die Karten so heiß werden? Man mag über Charlie sagen was man will, aber das er sich die ganzen Infos zur GF100 nur aus den Fingern saugt glaube ich nicht. Denn spätestens am 26ten wäre es mit den Gelüge vorbei.
Charlie hat genau dasselbe auch vor dem GT200-Launch behauptet. Es ist im Endeffekt genauso wie damals :)

Gast
2010-03-02, 13:28:24
Die Werte die Charlie nennt, passen schon irgendwie.

Was passt da? Die Werte von Charlie widersprechen allen Ergebnissen, die man bis jetzt sehen konnte.

Ansonsten macht das ganze keinen Sinn, denn wenn die Karten sehr heiß werden, dann kann NV wohl kaum sonderlich mit den Takten hochgehen. Wenn die Taktraten nicht final (zu langsam) sind, wieso sollten dann die Karten so heiß werden?

Wie zum Geier kommst du darauf, dass irgendetwas heiß wird? Alle Reporter die sich das angesehen haben meinten, da kommt auch nicht mehr Abwärme als bei anderen Karten raus.

Man mag über Charlie sagen was man will, aber das er sich die ganzen Infos zur GF100 nur aus den Fingern saugt glaube ich nicht. Denn spätestens am 26ten wäre es mit den Gelüge vorbei.

So lange müssen wir nicht mehr warten. Charlies Lügenmärchen sind vorbei seit die ersten Bilder von der CeBit zeigen, dass die GTX470 nur 2x 6Pin Stromanschlüsse hat. Das heißt max. 225W und wenn man Spannungserhöhung als Feature bewirbt wohl ca. 50W Reserve. Bleiben also max 175W für die GTX470 bei Volllast und da die GTX480 gerade mal 14% mehr Shader hat, kann sie nicht so viel mehr Verbrauchen. Damit sind wohl alle Märchen über die Hitze etc. widerlegt.

Botcruscher
2010-03-02, 13:30:34
Charlie hat genau dasselbe auch vor dem GT200-Launch behauptet. Es ist im Endeffekt genauso wie damals :)
"Damals" war der Prozess ausgereift und es gab keine erwähnenswerten Engpässe bei der Herstellung. Charlie lebt zwar von schlechten Nachrichten aber mit "Damals" hat das wenig zu tun.
Die Situation ist schon deutlich anders.

Gast
2010-03-02, 13:32:35
"Damals" war der Prozess ausgereift und es gab keine erwähnenswerten Engpässe bei der Herstellung. Charlie lebt zwar von schlechten Nachrichten aber mit "Damals" hat das wenig zu tun.

Außer der Tatsache, dass Charlie "Damals" wie "Heute" von Ati dafür bezahlt wird Lügen über NV und ihre Produkte zu verbreiten.

Botcruscher
2010-03-02, 13:34:24
Charlie wird bezahlt, NV macht es höchst selbst. Glaubwürdiger wird in der PR-Schlammschlacht keiner.

Bucklew
2010-03-02, 13:34:53
"Damals" war der Prozess ausgereift und es gab keine erwähnenswerten Engpässe bei der Herstellung. Charlie lebt zwar von schlechten Nachrichten aber mit "Damals" hat das wenig zu tun.
Die Situation ist schon deutlich anders.
Auch damals hat er ständig sein "zu groß, zu heiß, zu langsam, nicht herstellbar" Mantra heruntergebetet. Das er Unrecht hatte wissen wir ja inzwischen alle, oder?

Gast
2010-03-02, 13:35:19
Jep, 2x6 Pin widerspricht ganz klar Charlies These von "Too hot, too loud". Auch der Lüfter sieht nicht nach laut aus. Ich glaube Charlie wird eine schwere Bruchlandung hinlegen, und die Charlie-Jünger ausgelacht:)

Gast
2010-03-02, 13:36:43
Auch damals hat er ständig sein "zu groß, zu heiß, zu langsam, nicht herstellbar" Mantra heruntergebetet. Das er Unrecht hatte wissen wir ja inzwischen alle, oder?
Nachdem GT200 geshrinkt wurde... Wo ist der nächstkleinere Prozeß nach 40nm, auf den man Fermi schnell shrinken kann?

Spasstiger
2010-03-02, 13:37:13
Der GT200 war schon ein Fiasko, sonst würde man ihn noch weiter produzieren. Schau mal nach der Verfügbarkeit von GT200-Karten. Es werden nur noch Restbestände abverkauft. Der G92b ist der schnellste Chip, den NV momentan in 55 nm fertigen lässt.

Gast
2010-03-02, 13:40:02
Jep, 2x6 Pin widerspricht ganz klar Charlies These von "Too hot, too loud". Auch der Lüfter sieht nicht nach laut aus. Ich glaube Charlie wird eine schwere Bruchlandung hinlegen, und die Charlie-Jünger ausgelacht:)

Das ist so sicher wie das Amen in der Kirche. Leider ist es genauso sicher, dass viele Leute wie z.B. Botcruscher es bis zur nächten Generation wieder vergessen haben (oder vergessen haben wollen). Dabei sollte jemand mit fast 10k Posts doch schon mal im G80 oder GT200 Thema vorbeigeschaut haben.

Gast
2010-03-02, 13:43:25
Der GT200 war schon ein Fiasko, sonst würde man ihn noch weiter produzieren. Schau mal nach der Verfügbarkeit von GT200-Karten. Es werden nur noch Restbestände abverkauft. Der G92b ist der schnellste Chip, den NV momentan in 55 nm fertigen lässt.

Das hat natürlich gar nichts damit zu tun, dass NV selbst damit gerechnet hat den GF100 3 Monate früher zu bringen und daher schon die Produktion der GT200 eingestellt hatte.

Gast
2010-03-02, 13:43:29
Auch damals hat er ständig sein "zu groß, zu heiß, zu langsam, nicht herstellbar" Mantra heruntergebetet. Das er Unrecht hatte wissen wir ja inzwischen alle, oder?
Genau. Deswegen wird ja auch noch in Massen G200(b) hergestellt, während G92 schon seit längerem quasi nichtmehr erhältlich ist...

Dural
2010-03-02, 13:44:12
also so von der hardware her würde ich für die GTX470 unter 200Watt tippen...

Gast
2010-03-02, 13:44:43
Das hat natürlich gar nichts damit zu tun, dass NV selbst damit gerechnet hat den GF100 3 Monate früher zu bringen und daher schon die Produktion der GT200 eingestellt hatte.
warum wird dann noch G92 produziert? Hätte man nicht lieber erstmal das ganz alte Ding aus der Produktion genommen, und stattdessen auf G200-derivate gesetzt, wenn doch G200 so toll ist?

Bucklew
2010-03-02, 13:46:41
Nachdem GT200 geshrinkt wurde... Wo ist der nächstkleinere Prozeß nach 40nm, auf den man Fermi schnell shrinken kann?
GT200 war auch in 65nm die schnellste erhältliche Karte.

Genau. Deswegen wird ja auch noch in Massen G200(b) hergestellt, während G92 schon seit längerem quasi nichtmehr erhältlich ist...
Wozu sollte man sich denn noch große Mengen GT200 ins Lager legen, wenn der Nachfolger bald rauskommt?

Gast
2010-03-02, 13:48:23
warum wird dann noch G92 produziert? Hätte man nicht lieber erstmal das ganz alte Ding aus der Produktion genommen, und stattdessen auf G200-derivate gesetzt, wenn doch G200 so toll ist?

Nein, da die GT200 Produktion zu teuer für UltraLowEnd ist, hier müsste man erstmal die Fertigung umstellen z.B. auf 40nm. Der G92 ist ja auch geshrinkt worden und nur solche Chips kann man dann extrem billig produzieren. Leider gibt es zur Zeit keine freien 40nm Kapazitäten für den GT200.

Menace
2010-03-02, 13:48:50
Ganz genau, dann wird man sehen wer gelogen hat:)

Mal rein von der Logik. Charlie spekuliert. Da er nichts weiß, kann er nur bedingt lügen - Konjunktiv hilft in diesem Bereich! Lügen könnte höchsten die Gegenseite, die als Einzige wissen, was wirklich Sache ist. Die sagen aber (uns) nichts. So gibt es also auf der einen Seite esoterische Spekulationen und auf der anderen Seite nichts. Diese hysterisch-kindlichen Äußerungen bringen somit rein gar nichts. :wink:

Noch ein Tipp: Lest nicht die Nachrichten von semiaccurate (Name!), dann müsst ihr euch auch nicht so aufregen.

Odal
2010-03-02, 13:49:05
Der GT200 war schon ein Fiasko, sonst würde man ihn noch weiter produzieren. Schau mal nach der Verfügbarkeit von GT200-Karten. Es werden nur noch Restbestände abverkauft. Der G92b ist der schnellste Chip, den NV momentan in 55 nm fertigen lässt.

ich glaube die G92b kuh lässt sich einfach viel besser melken als GT200
weil klein und billig herzustellen und dabei noch relativ performant

GT200 war zwar kein fiasko imho aber man sieht das die skalierung der G80 architektur mit GT200 dem ende entgegenging

ähnliches was den zypressen passiert ist, trotz nominell deutlicher architekturverbreiterung nicht besonders viel mehrleistung die auf der strasse ankommt

fermi kann rocken wie G80 oder ein Rohrkreppierer wie nv30 o. R600 werden...da ist alles drin da neue architektur

wobei es natürlich auch nicht so unwahrscheinlich ist, das fermi "nur" den üblichen erwartungen für eine neue GPU entspricht...

Bucklew
2010-03-02, 13:54:07
Mal rein von der Logik. Charlie spekuliert. Da er nichts weiß, kann er nur bedingt lügen - Konjunktiv hilft in diesem Bereich!
Mal ein Zitat aus der neusten News:
Most of the questions were answered a bit ago, but lets recap. The benchmarks are on par with the ATI HD5850 for the GTX470 and about 5 percent above the HD5870 for the GTX480, but both Nvidia cards run much hotter. Clocks are 625/1250MHz, way short of the intended 750/1500, and wattage is through the roof.
Zeigst du mir mal kurz den Konjunktiv und die Spekulation? Ich lese da nur "is" und "are" und andere Aussagen, die Fakten beschreiben und keine Spekulation.

Gast
2010-03-02, 13:55:04
Mal rein von der Logik. Charlie spekuliert. Da er nichts weiß, kann er nur bedingt lügen - Konjunktiv hilft in diesem Bereich! Lügen könnte höchsten die Gegenseite, die als Einzige wissen, was wirklich Sache ist. Die sagen aber (uns) nichts. So gibt es also auf der einen Seite esoterische Spekulationen und auf der anderen Seite nichts. Diese hysterisch-kindlichen Äußerungen bringen somit rein gar nichts. :wink:

Noch ein Tipp: Lest nicht die Nachrichten von semiaccurate (Name!), dann müsst ihr euch auch nicht so aufregen.

Es ist so, das Charlie billigste Meinungsmache macht auf Kosten Nvidia. ATI kommt immer gut weg, Nvidia bekommt es mit dem Holzhammer. Das ist wie bei der Bild, die mag auch spezielle Parteien, andere werden niedergeschrieben. Ist aber ein anderes Thema. Ich mag sowas nicht und verstehe die Leute nicht, die solche Artikel hier reinposten.;)

Kosh
2010-03-02, 13:57:07
Jep, 2x6 Pin widerspricht ganz klar Charlies These von "Too hot, too loud". Auch der Lüfter sieht nicht nach laut aus. Ich glaube Charlie wird eine schwere Bruchlandung hinlegen, und die Charlie-Jünger ausgelacht:)

2*6 Pins sagen absolut gar nichts über Lautstärke und Temperatur aus.

Darauf eine Aussage machen,das Charlie unrecht hat bezüglich Temperatur und Lautstärke ist völliger Schwachsinn.

Gast
2010-03-02, 13:58:07
Nochmal, warten wir mal ab laut oder nicht. Ich sage nicht laut. Und morgen soll ja am Gigabyte-Stand der Fermi sein;)

crux2005
2010-03-02, 13:58:54
Bei dem von ihm angegebenen Taktraten von 625/1250MHz könnte das vielleicht sogar stimmen. Finale Produkte werden aber definitiv deutlicjh höher takten.

Ausgegangen von der break-even Frequenz sollte die Karte mit 625MHz core um die ~25% schneller sein als eine HD 5870. Mit 750MHz wäre sie dann 50% schneller...

Bucklew
2010-03-02, 14:03:14
Ausgegangen von der break-even Frequenz sollte die Karte mit 625MHz core um die ~25% schneller sein als eine HD 5870. Mit 750MHz wäre sie dann 50% schneller...
Psssst....verrat das doch keinem :)

Gast
2010-03-02, 14:11:16
2*6 Pins sagen absolut gar nichts über Lautstärke und Temperatur aus.

Darauf eine Aussage machen,das Charlie unrecht hat bezüglich Temperatur und Lautstärke ist völliger Schwachsinn.

Lol? Ok, wir werden es mal einfach der Reihe nach erklären, so dass du auch mitkommst:
2*6Pin=225W zieht man noch die fette Reserve ab (die muss schon wegen dem angekündigtem OC-Features vorhanden sein), so landet man deutlich unter 200W.
Also hat man nicht mehr Leistung abzuführen, als bei der GT200 Serie. Der Chip wird in etwa gleich groß, also haben wir bei den gleichen Kühlern die gleichen Temperaturen und die gleiche Lautstärke, noch Fragen?

Kosh
2010-03-02, 14:16:56
Lol? Ok, wir werden es mal einfach der Reihe nach erklären, so dass du auch mitkommst:
2*6Pin=225W zieht man noch die fette Reserve ab (die muss schon wegen dem angekündigtem OC-Features vorhanden sein), so landet man deutlich unter 200W.
Also hat man nicht mehr Leistung abzuführen, als bei der GT200 Serie. Der Chip wird in etwa gleich groß, also haben wir bei den gleichen Kühlern die gleichen Temperaturen und die gleiche Lautstärke, noch Fragen?

Du kannst keine komplett verschiedene Grafikchips 1 zu 1 von der Temperatur her gleich setzen.

Du hast keine Ahnung, ob die Karte eventuell bei 210 Watt liegt und kaum Reserven hätte.

Du hast keine Ahnung,ob die neue Architektur einfach mehr Wärme produziert. Der Lüfter könnte deutlich schneller laufen müssen als bei der GT200 Serie usw,usw.

Kurzum, du kannst keinerlei Aussagen über die Lautstärke und Temperatur machen,wegen den 2+6 Pins.

Ansonsten müsste es ja nur flüsterliese ,kalte Grafikkarten gegeben haben,wenn diese nur 1 6er Pin gehabt hatten.

Wobei du im zweiten post wenigstens noch den Vergleich zum G200 Chip brachtest,der im ersten Post völlig fehlte und somit die ganze Aussage einfach nur Schwachsinnig machte.

Coda
2010-03-02, 14:19:52
Du kannst keine komplett verschiedene Grafikchips 1 zu 1 von der Temperatur her gleich setzen.
Wenn sie die gleiche Verlustleistung und Fläche haben kann man das sehr wohl.

Du hast keine Ahnung,ob die neue Architektur einfach mehr Wärme produziert. Der Lüfter könnte deutlich schneller laufen müssen als bei der GT200 Serie usw,usw.
Hä was? Bei einem Mikrochip wird die komplett aufgenommene Leistung direkt in Wärme umgewandelt, da ist es bums egal, ob ich mit 200W 2 Mrd Transistoren sinnlos durch die Gegend schalte oder ein Bild damit berechne.

Kurzum, du kannst keinerlei Aussagen über die Lautstärke und Temperatur machen,wegen den 2+6 Pins.
Natürlich kann er das. Die Karte muss dadurch <225W verbrauchen.

Selbst wenn es 210W wären ist das nicht signifikant mehr als ein GT200 verbraucht.

Popopinsel
2010-03-02, 14:21:37
FUD ftw!

Ich glaube ja, dass die Verzögerungen daher rühren, dass sie die Karten zusammen mit "Duke Nukem Forever" bundlen wollen. Und die bisher veröffentlichten "Spiele-Leistungsdaten" basieren alle auf Rasterizer-Engines, aber das wahre Potential des G100 liegt im Raytracing! DNF:RT wird alles je dagewesene in den Schatten stellen!

Außerdem wird die Karte nur so heiß, weil sie einen Großteil der elektrischen Energie in Widerständen verpuffen lassen, um die Raumluft künstlich aufzuheizen, damit die Atmosphäre in dem Spiel noch dichter wird, zu dem ein Beta-Code dem Bundle beiliegt: Diablo III!

:uup:

Gast
2010-03-02, 14:23:12
Natürlich kann er das. Die Karte muss dadurch <225W verbrauchen.

Selbst wenn es 210W wären ist das nicht signifikant mehr als ein GT200 verbraucht.

Wir sprechen hier aber von einer abgespeckten GTX470. 16% mehr Einheiten plus etwas mehr Takt und Spannung und wir sind bei der GTX480 schnell bei >250W.

Coda
2010-03-02, 14:24:20
Das mag ja sein, aber Koshs Aussagen beziehen sich auf die GTX470.

Gast
2010-03-02, 14:33:01
Wenn sie die gleiche Verlustleistung und Fläche haben kann man das sehr wohl.


Hä was? Bei einem Mikrochip wird die komplett aufgenommene Leistung direkt in Wärme umgewandelt, da ist es bums egal, ob ich mit 200W 2 Mrd Transistoren sinnlos durch die Gegend schalte oder ein Bild damit berechne.


Natürlich kann er das. Die Karte muss dadurch <225W verbrauchen.

Selbst wenn es 210W wären ist das nicht signifikant mehr als ein GT200 verbraucht.


Bzgl. Lautstärke, es kann es durchaus der Fall sein dass die Architektur nicht so hohe Temperaturen verträgt wie die Vorhergehende -> bei gleicher Verlustleistung/Kühler müsste in diesem Fall der Lüfter schneller drehen.

Allerdings glaube ich da nicht dran.

Gast
2010-03-02, 14:34:10
Natürlich kann er das. Die Karte muss dadurch <225W verbrauchen.



Das ist der Punkt. Coda hat im Physikunterricht aufgepasst;)

N0Thing
2010-03-02, 14:41:29
Es weiß doch keiner wie der Kühler im inneren aufgebaut ist. Die Kühler der GTX280 und GTX285 sehen auch gleich aus, sind aber nicht identisch.
Anhand der auf der Cebit gezeigten Karten auf die Lautstärke der finalen Grafikkarte zu schließen, halte ich für sehr "mutig".

MorPheuZ
2010-03-02, 14:41:35
Ansonsten müsste es ja nur flüsterliese ,kalte Grafikkarten gegeben haben,wenn diese nur 1 6er Pin gehabt hatten.



Die haben dann halt auch meisstens deutlich schwächere Kühllösungen (billiger).

Kosh
2010-03-02, 14:43:09
Wenn sie die gleiche Verlustleistung und Fläche haben kann man das sehr wohl.


Hä was? Bei einem Mikrochip wird die komplett aufgenommene Leistung direkt in Wärme umgewandelt, da ist es bums egal, ob ich mit 200W 2 Mrd Transistoren sinnlos durch die Gegend schalte oder ein Bild damit berechne.


Natürlich kann er das. Die Karte muss dadurch <225W verbrauchen.

Selbst wenn es 210W wären ist das nicht signifikant mehr als ein GT200 verbraucht.


Ok,dann müssen wir zukünftig nur noch die Stromversorgungs Pins zählen und haben somit die exakten Werte für Lautstärke und Stromverbrauch.

Nehme an,die GTX470 ist exakt so laut und warm wie die HD5870.
Schliesslich hat diese ja auch 2+ 6 Pins.^^

Gast
2010-03-02, 14:43:45
Bzgl. Lautstärke, es kann es durchaus der Fall sein dass die Architektur nicht so hohe Temperaturen verträgt wie die Vorhergehende -> bei gleicher Verlustleistung/Kühler müsste in diesem Fall der Lüfter schneller drehen.

Allerdings glaube ich da nicht dran.

Das Stimmt, da die heutigen Chips aber immer höhere Temperaturen vertragen, kann man das ausschließen. Ein weiterer Punkt ist natürlich die Größe des Chips. Wäre er deutlich kleiner, so würde der Chip auch bei gleicher Kühlertemperatur deutlich wärmer werden. Aber wir wissen ja, das die Oberfläche von GF100 und GT200 etwa gleich groß ist.
Rechnet man die Reserve mit ein und berechnet den Verbrauch der GTX480 (*16/14 + ein paar Watt wegen höherem Takt) so liegt der wohl in etwa auf der Höhe von GTX280 und GTX285.

Gast
2010-03-02, 14:43:47
Das Bild sieht aber nach einer guten Kühllösung aus. Wie gesagt, morgen am Gigabyte Stand wirds den Fermi in Aktion geben.

mapel110
2010-03-02, 14:45:09
http://forum.beyond3d.com/showthread.php?t=56155&page=92
Rys im Beyond3D hört sich so an, als ob die 550mm² tatsächlich zu groß geschätzt sind. Wenn mich mein Englisch nicht trügt, bleibt er bei seinen 500mm² oder gar drunter.

Gast
2010-03-02, 14:48:42
Ok,dann müssen wir zukünfdtig nur noch die Stromversogungs Pins zählen und haben somit die exakten Werte für Lautstärke und Stromverbrauch.

Nehme an,die GTX470 ist exakt so laut und warm wie die HD5870.
Schliesslich hat diese ja auch 2+ 6 Pins.

Wir können aus den Stromanschlüssen nicht die exakten Werte ableiten, aber die maximalen Werte können wir sehr wohl ableiten. Diese zeigen eben, dass die GTX470 irgendwo bei der GTX260 oder GTX275 liegen muss. Da man keine schlechteren Kühllösungen verbauen wird, kann die GTX470 auch nicht lauter sein.

Wir sprechen hier aber von einer abgespeckten GTX470. 16% mehr Einheiten plus etwas mehr Takt und Spannung und wir sind bei der GTX480 schnell bei >250W.

Du vergisst hier auch die Reserve. In der Vergangenheit war NV da immer großzügig und gerade wo sie jetzt ihr OC-Feature bewerben wird die nicht klein sein. Wenn wir mal negativ denken, so Verbraucht die GTX470 190W (mehr geht wirklich nicht, sonst ist man bei 20% OC schon mal schnell über 225W). 190W *16/14=217W
Macht man noch einen Aufschlag wegen höherem Takt so kommt man trozdem nicht auf mehr als eine GTX280.

Coda
2010-03-02, 14:51:20
Ok,dann müssen wir zukünftig nur noch die Stromversorgungs Pins zählen und haben somit die exakten Werte für Lautstärke und Stromverbrauch.
Nein, aber wir haben durch die PCIe-Spec eine feste obere Grenze bei 225W und man wird sicher noch etwas Toleranz einräumen.

Das ist kein wesentlicher Unterschied zu einer GTX 285 und damit ist bei gleicher Kühlerdimensionierung auch von gleicher Lautstärke auszugehen.

Ist das wirklich so schwer zu verstehen?

S940
2010-03-02, 14:52:03
http://forum.beyond3d.com/showthread.php?t=56155&page=92
Rys im Beyond3D hört sich so an, als ob die 550mm² tatsächlich zu groß geschätzt sind. Wenn mich mein Englisch nicht trügt, bleibt er bei seinen 500mm² oder gar drunter.
Nö, da trügt leider Dein Englisch.
a) Rys sagt gar nichts zur Größe
b) neliz schreibt, dass es *minimal* 500mm² sind, falls sie die Transistorendichte von AMD schaffen würde.

550mm² wäre nicht weniger als 500mm², also absolut möglich.

Fazit: Nix Neues, reines Geschwafel.

Ailuros
2010-03-02, 14:54:32
http://forum.beyond3d.com/showthread.php?t=56155&page=92
Rys im Beyond3D hört sich so an, als ob die 550mm² tatsächlich zu groß geschätzt sind. Wenn mich mein Englisch nicht trügt, bleibt er bei seinen 500mm² oder gar drunter.

Nochmal es waere besser fuer NV wenn es 550 statt 495mm2 am Ende sind. Eine vergleichbare Packdichte zu Cypress mit all den hot clocks klingt alles andere als ein gutes Zeichen. Wenn sie's aber trotz allem geschafft haben dann Hut ab natuerlich.

N0Thing
2010-03-02, 14:57:15
Nö, da trügt leider Dein Englisch.
a) Rys sagt gar nichts zur Größe

Nö, er schreibt wirklich etwas zur Größe: http://forum.beyond3d.com/showpost.php?p=1401027&postcount=2258

I can never remember how big GT200b is. I'm pretty convinced GF100's < 500mm/sq at any rate.

Gast
2010-03-02, 14:58:38
Nein, aber wir haben durch die PCIe-Spec eine feste obere Grenze bei 225W und man wird sicher noch etwas Toleranz einräumen.

Das ist kein wesentlicher Unterschied zu einer GTX 285 und damit ist bei gleicher Kühlerdimensionierung auch von gleicher Lautstärke auszugehen.

Ist das wirklich so schwer zu verstehen?

Manche wollen es halt nicht verstehen, oder können es nicht. Manche sind auch Charlie verblendet. Who Cares?

Gast
2010-03-02, 15:06:22
Manche wollen es halt nicht verstehen, oder können es nicht. Manche sind auch Charlie verblendet. Who Cares?


Na Dich offensichtlich... ;)

Gast
2010-03-02, 15:07:57
Stimmt. Ich sag jetzt nix mehr über Charlie. Coda hat schon Recht, ist auch leicht zu verstehen.

Eggcake
2010-03-02, 15:08:20
Wie ein Gast schon anmerkte, könnte es natürlich schon sein, dass die Architektur keine zu hohen Temps verträgt und deshalb stärker gekühlt werden muss.
Jedoch spricht Charlie auch primär von überhöhtem Verbrauch. Da das natürlich (wie jetzt ausgiebig dargelegt wurde) mit den Stromsteckern überhaupt nicht möglich ist, kann man sowieso den ganzen Artikel in die Tonne kloppen.

Glaube allerdings nicht, dass die Karten laut werden. Dafür hat NV seit langem zu gute Kühllösungen parat als dass sie das nicht in den Griff bekommen könnten.

S940
2010-03-02, 15:12:05
Nö, er schreibt wirklich etwas zur Größe: http://forum.beyond3d.com/showpost.php?p=1401027&postcount=2258
Ach ne Seite vorher, na dann war die Seite falsch verlinkt ;-)
Ok, dann behaupte ich das Gegenteil ^^

Gast
2010-03-02, 15:20:19
Nein, aber wir haben durch die PCIe-Spec eine feste obere Grenze bei 225W und man wird sicher noch etwas Toleranz einräumen.

Das ist kein wesentlicher Unterschied zu einer GTX 285 und damit ist bei gleicher Kühlerdimensionierung auch von gleicher Lautstärke auszugehen.

Ist das wirklich so schwer zu verstehen?


Hm, was ich mich jetzt frage ist, warum hat Nvidia bei der GTX280 (mit auch 2x 6PIN) eine TDP von 236 Watt angegeben?

BTW, ich denke dass die GTX470 aufgrund der Anschlüsse bzgl. der Leistungsaufnahme in der gleichen Liga wie die GTX280 spielen wird. Die Kühllösung wird wohl weiterhin verbessert gegenüber dieser, so dass die Karte wohl etwas leiser als die doch recht laute 280er wird.

AnarchX
2010-03-02, 15:21:25
Hm, was ich mich jetzt frage ist, warum hat Nvidia bei der GTX280 (mit auch 2x 6PIN) eine TDP von 236 Watt angegeben?

280 war 8+6: http://www.nvidia.com/object/product_geforce_gtx_280_us.html

Gast
2010-03-02, 15:25:13
280 war 8+6: http://www.nvidia.com/object/product_geforce_gtx_280_us.html


Ok, Irrtum. Ich nehme alles zurück.

mapel110
2010-03-02, 15:39:15
GTX 480 Four heatpipes for this one
http://www.fudzilla.com/content/view/17888/34/

Gibt noch eine Meldung bei FUD, wo er auch auf die 42Ampere anspringt. :rolleyes:

Gast
2010-03-02, 15:39:50
vielleicht interessiert jemandem das hier, falls es noch nicht bekannt war:

4x fermi (tesla) = 2Tflops double precision

viel anfangen kann man damit wohl nicht, weil es mal wieder die theoretischen werte sind.
nv soll da wohl etwas effektiver sein, als ati.

http://www.computerbase.de/bildstrecke/28637/3/

mfg

AnarchX
2010-03-02, 15:41:44
Fermi steht zwar drauf, aber das sind noch GT200 Teslas: http://www.nvidia.com/object/product_tesla_c1060_us.html
Tesla C20x0 hat einen anderen Kühler und einen DVI-Ausgang: http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html

Gast
2010-03-02, 15:46:19
GTX 480 is faster than HD 5870 http://www.fudzilla.com/content/view/17889/65/ twice the speed in Unigine. Na dann ab die Post;)

Menace
2010-03-02, 15:54:01
Na dann ab die Post;)

Wäre schön. Aber ist Fudzilla nicht Gesinnungsgehilfe von nvidia? Wenn ich mich richtig erinnere gibt es laut Fudzilla Fermikarten auch schon seit November - Dezember zu kaufen. :rolleyes:

Hakkerstiwwel
2010-03-02, 15:54:39
GTX 480 is faster than HD 5870 http://www.fudzilla.com/content/view/17889/65/ twice the speed in Unigine. Na dann ab die Post;)

Nvidia's GTX 480 ends up faster than HD 5870 in some cases....

entweder fehlt da was, oder das Resultat ist eher enttäuschend...

Gast
2010-03-02, 15:56:36
Was soll da fehlen? Die Bilder vom Unigine Bench gabs doch schon. Und jetzt sind wir ja wieder 2 Monate weiter. Ich glaube schon das die 480 doppelt so schnell im Unigine bench ist;)

Hakkerstiwwel
2010-03-02, 15:58:34
Was soll da fehlen? Die Bilder vom Unigine Bench gabs doch schon. Und jetzt sind wir ja wieder 2 Monate weiter. Ich glaube schon das die 480 doppelt so schnell im Unigine bench ist;)
lies den Satz durch. Das bedeutet dass es auch "some", wenn nicht "more" cases gibt wo die 5870 schneller als die 480 wäre.

Gast
2010-03-02, 16:00:39
Ja, vielleicht in dx 9/10 games. Ich meine aber DX11 games. Und da wird die GTX 480 rocken. Tesselation ist ein wichtiger Bestandteil von DX11.

boxleitnerb
2010-03-02, 16:04:42
Wenn das eine 470 war von den Folien neulich, die 1.6x 5870 in einer ausgewählten bestcase Szene (!) schafft, wie soll dann eine 480 durch die Bank im ganzen Unigine Benchmark (alle Szenen average, so interpretiere ich diese Aussage: doppelt so schnell wie 5870) den prophezeiten Speed schaffen?

Das stimmt doch wieder hinten und vorne nicht.

Bucklew
2010-03-02, 16:04:50
entweder fehlt da was, oder das Resultat ist eher enttäuschend...
In einem CPU-limitierten Benchmark wird Fermi natürlich nicht schneller (oder nicht signifikant schneller) sein, ist ja logisch.

Gast
2010-03-02, 16:05:34
Ja, vielleicht in dx 9/10 games. Ich meine aber DX11 games. Und da wird die GTX 480 rocken. Tesselation ist ein wichtiger Bestandteil von DX11.
Da es zur Zeit auch sooo viele DX11-Spiele gibt... :rolleyes:

Mal richtige Reviews abwarten.
Ich will aber auch DX9- und DX10-Spiele sehen, da die Marktrelevanz von diesen doch gegenüber DX11 deutlich überlegen ist.

Mal das CB-Rating abwarten. :)

Gast
2010-03-02, 16:06:08
"Nvidia reps are pretty sure that AMD is still tapping in dark when it comes to Fermi." Da kommt was heftiges auf uns zu. Ich freue mich schon.

Gast
2010-03-02, 16:06:13
Ja, vielleicht in dx 9/10 games. Ich meine aber DX11 games. Und da wird die GTX 480 rocken. Tesselation ist ein wichtiger Bestandteil von DX11.
...oh mein gott, plötzlich - wenn der fermi - tesselation gut kann, ist es ein must have, vorher als es nach softwareblabla aussah, wars überflüssig. opportunistische scheisse.

mich verunsichert in dem fud artikel, dass er nur "some" schreibst.

Gast
2010-03-02, 16:08:12
Ja, Tesselation ist ein must have:)

Gast
2010-03-02, 16:11:35
Ja, Tesselation ist ein must have:)
Klar ist Tesselation ein must have, wenn man seine Grafikkarte als DX11-kompatibel bewerben will... :rolleyes:

Was für eine schwachsinnige Aussage...

AnarchX
2010-03-02, 16:12:37
UK-Preise? (http://www.xtremesystems.org/forums/showpost.php?p=4267319&postcount=1579)

Für >400€ sollte die 470 doch ein gutes Prozentual über der 5870 liegen.

Gast
2010-03-02, 16:13:20
Jetzt reden die ATI-boys Tesselation runter. Leute, kommt mal klar und seid nicht so auf Marken fixiert. Ich kaufe das was mir zusagt. Und da DX11 die Zukunft ist hole ich mir das, was am besten in DX11 performt.

numb
2010-03-02, 16:13:50
"Nvidia reps are pretty sure that AMD is still tapping in dark when it comes to Fermi." Da kommt was heftiges auf uns zu. Ich freue mich schon.


Hmm..da AMD über Fermi bisher anscheinend immer besser bescheid wusste als nVidia selbst, würde ich dafür meine Hand nicht ins Feuer legen

Gast
2010-03-02, 16:18:19
Jetzt reden die ATI-boys Tesselation runter. Leute, kommt mal klar und seid nicht so auf Marken fixiert. Ich kaufe das was mir zusagt. Und da DX11 die Zukunft ist hole ich mir das, was am besten in DX11 performt.
Bis es native DX11-Spiele gibt, dürfte deine Fermi aber nicht mehr so ganz frisch sein. ;)
Und auch wahrscheinlich zu schwach.

Was zählt ist jetzt. :)

Damit meine ich natürlich nicht, dass man keine DX11-Spiele testen sollte, im Gegenteil. :)
Nur leider gibt es zur Zeit nicht sooo viele DX-Spiele, hätte aber nichts dagegen, wenn auch alle 3 getestet würden. :)

Nur irgendwelche synthetischen Benchmarks interessieren mich nicht die Bohne.
Was zählt sind Spiele! :)

N0Thing
2010-03-02, 16:19:27
Wenn das eine 470 war von den Folien neulich, die 1.6x 5870 in einer ausgewählten bestcase Szene (!) schafft, wie soll dann eine 480 durch die Bank im ganzen Unigine Benchmark (alle Szenen average, so interpretiere ich diese Aussage: doppelt so schnell wie 5870) den prophezeiten Speed schaffen?

Das stimmt doch wieder hinten und vorne nicht.

Bei Fudzilla steht nichts von doppelt so schnell wie eine 5870 im ganzen Unigine Benchmark. Über die Leistung im Unigine Benchmark wird geschrieben : The GTX 480 is faster in Unigine Heaven benchmark in some situations where actual GPU power does matter.

Das Twice the speed in Unigine im Titel bezieht sich vermutlich auf die bekannte Drachenszene. Der Autor des Artikel läßt ja durchblicken, daß man dank der Verschwiegenheit von Nvidia kaum nützliche Informationen hat.

Gast
2010-03-02, 16:19:47
Metro und dieses Rennspiel testen. Da hätten wir schon 2;)

N0Thing
2010-03-02, 16:22:02
AvP nutzt auch DX11, das sind aber afaik dann alle bisher veröffentlichten Dx11 Titel.

Gast
2010-03-02, 16:22:11
Metro und dieses Rennspiel testen. Da hätten wir schon 2;)
Meinst du Dirt2?

Bei Metro wäre ich vorsichtig, da gerade erst raus.
Bugs nicht ausgeschlossen.
AvP kann man noch nehmen, auch DX11.

Gast
2010-03-02, 16:23:56
Jop Dirt 2. Und Metro wird ja direkt mit Fermi released. Also ran an den Speck PCGH und Konsorten. Und es werden weitere DX11 Games folgen. Wahre Blockbuster:)

Gast
2010-03-02, 16:28:06
Und Metro wird ja direkt mit Fermi released.
Genau das meinte ich.
Ich würde Metro erstmal genauer ansehen, bevor ich es als Benchmark missbrauche.
Heutzutage muss man bei neuen Spielen verdammt vorsichtig sein, da oft sehr verbuggt.

Gast
2010-03-02, 16:29:09
Aber es ist doch klar, das man Fermi und HD58XX in diesen DX11 Games bencht, oder?

Ronny145
2010-03-02, 16:29:42
AvP nutzt auch DX11, das sind aber afaik dann alle bisher veröffentlichten Dx11 Titel.


Naja es gibt noch ein paar mehr wie Battleforge oder Stalker.

Gast
2010-03-02, 16:31:02
Aber es ist doch klar, das man Fermi und HD58XX in diesen DX11 Games bencht, oder?
Auch, ja.
Da die meisten Spiele auf dem Markt DX9/DX10 sind, sollte die Mehrheit der Games aus dieser Sparte sein, damit man auch der Verbreitung auf dem Markt gerecht wird.

Gast
2010-03-02, 16:31:41
Ja, und es werden mehr und mehr. Ich bin gespannt und prophezeie einen Vorsprung beim Fermi.

Tarkin
2010-03-02, 16:31:57
GTX 480 is faster than HD 5870 http://www.fudzilla.com/content/view/17889/65/ twice the speed in Unigine. Na dann ab die Post;)

"480 ends up faster than HD 5870 in some cases" - ähm okay.

und "All this is pretty good news for Nvidia" - WTF? Pretty good news? Soll das ein Witz sein? :eek:

Wow schneller als 5870, 6 Monate später bei +60% größerem Die und min. 30% mehr Verbrauch ... doch, ja, ... ziemlich "good news", muss man schon sagen. Wäre ja auch total übertrieben von mehr auszugehen....

:rolleyes:

Das wird ja immer "besser". Was kommt als nächstes? Verkündet Fudzilla dass nvidia stolz darauf ist eine 285 GTX zu schlagen?

Gast
2010-03-02, 16:35:32
"480 ends up faster than HD 5870 in some cases" - ähm okay.

und "All this is pretty good news for Nvidia" - WTF? Pretty good news? Soll das ein Witz sein? :eek:

Wow schneller als 5870, 6 Monate später bei +60% größerem Die und min. 30% mehr Verbrauch ... doch, ja, ... ziemlich "good news", muss man schon sagen. Wäre ja auch total übertrieben von mehr auszugehen....

:rolleyes:

Das wird ja immer "besser". Was kommt als nächstes? Verkündet Fudzilla dass nvidia stolz darauf ist eine 285 GTX zu schlagen?

Ohweia ohweia. Hier wird einigen noch die Kinnlade runterrutschen. Echt übel dieses Gesülze. Abgerechnet wird am Schluss.

N0Thing
2010-03-02, 16:36:03
Naja es gibt noch ein paar mehr wie Battleforge oder Stalker.

Ja, stimmt. An die habe ich nicht mehr gedacht, weil die schon länger draußen sind. ;)

deekey777
2010-03-02, 16:43:18
Mal abgesehen davon, dass Nvidia in Heaven 1.0 eine Stelle gefunden hat, wo ein GF100 doppelt so schnell ist wie eine HD5870, und die Tessellation, wie sie in Heaven verwendet wird, irrelevant ist:
http://unigine.com/
Unigine booth at GDC SF 2010
We gladly invite you to come visit our booth #1344 at Game Developers Conference, San Francisco, 2010. There you will be presented the recent version of Unigine Engine and the Heaven Benchmark 2.0 along with a lot of featured Unigine-based content. Feel free to contact us for an appointment.
Da muss sich Nvidia wirklich beeilen. Es wäre ja schade, wenn 2.0 realitätsnähere Tessellation bringt, wo der Vorsprung nicht so hoch ist.

Botcruscher
2010-03-02, 16:45:06
Tesselation ist eh relativ da sich die Dreieckszahl praktisch frei wählen lässt. Schieberegler rein und gut.

Bucklew
2010-03-02, 16:45:11
Da muss sich Nvidia wirklich beeilen. Es wäre ja schade, wenn 2.0 realitätsnähere Tessellation bringt, wo der Vorsprung nicht so hoch ist.
Vielleicht ist der Vorsprung da ja sogar noch größer?

Sogar der Nvidia-Hasser Charlie hat ja behauptet, dass der Fermi-Vorsprung im sonstigen Heaven-Benchmark deutlich größer ist als bei den Tessellation-limitierten Szenen.

Gast
2010-03-02, 16:46:59
Lasst doch mal den Heaven-Bench.

Interessiert die meisten Gamer eh nicht.
Was zählt sind Spiele. :)

Gruß

X.Perry_Mental
2010-03-02, 16:51:51
Interessante News von Heise (http://www.heise.de/newsticker/meldung/GeForce-GTX-480-Fermi-Grafikchip-fotografiert-944353.html):

...Das Package der GTX-480-GPU misst 4,2×4,2 Zentimeter, die Karte 10,5 Zoll. Sie besitzt einen acht- und einen sechspoligen Stromanschluss...

... Unbestätigten Gerüchten zufolge soll der GeForce GTX 480 nicht einmal über die bisher vermutete Anzahl von 512 Shader-Rechenkernen verfügen, sondern etwas weniger...

Gast
2010-03-02, 16:56:10
Vielleicht ist der Vorsprung da ja sogar noch größer?

Sogar der Nvidia-Hasser Charlie hat ja behauptet, dass der Fermi-Vorsprung im sonstigen Heaven-Benchmark deutlich größer ist als bei den Tessellation-limitierten Szenen.

Bitte was?
NV hat die Tesselationslimitierte Szene also veröffentlicht um möglichst schlecht auszusehen?

Gast
2010-03-02, 16:57:20
... Unbestätigten Gerüchten zufolge soll der GeForce GTX 480 nicht einmal über die bisher vermutete Anzahl von 512 Shader-Rechenkernen verfügen, sondern etwas weniger...

Schlechte Quelle ab in die Tonne.

LovesuckZ
2010-03-02, 16:57:54
Es war schon interessant zu sehen, wie die beiden PCs bei Zotac und Gigabyte bewacht wurden. Aber die beiden nVidia-Mitarbeiter waren unglaublich nett. :up:
Rocket Sled scheint den Leuten zu gefallen und nach drei, leider missratenen Runden, hat es mir viel Spaß gemacht. Der Comiclook ist gelungen, grafisch sieht es Klasse aus mit den Physik- und DX11 Effekten. Slowdowns gab es einige, mal mehr, mal weniger. Aber der Wireframemodus läuft nun smooth.
Laut dem Mitarbeiter werde man die Karte spätesten Anfang April kaufen können.

Ansonsten war die Cebit wie immer: Viel asiatischer Kram, eine desinteressierte Bundeskanzlerin am IBM Stand, missratende Intel Masters Serie Übertragung. Oh und ich sah Lars Weinand und Tom Peterson wie sie 3D Vision Surround aufgebaut haben - was mit drei Beamern und in Stereo3D fantastisch aussieht.

Highlight: Autogramm von Fatal1ty. Man bin ich ein Nerd. :D

Dural
2010-03-02, 17:02:56
@tarkin

Wennistens hat NV immer die schnellste GPU in der gleichen Generation... :freak:

Komisch das es zu zeiten von R580 und G71 kein "der R580 ist aber grösser kein wunder ist der schneller vergleich gab" ;)

N0Thing
2010-03-02, 17:03:28
Schlechte Quelle ab in die Tonne.

Die Quelle wurde doch gar nicht genannt

Gast
2010-03-02, 17:05:12
Die Quelle wurde doch gar nicht genannt

Umso schlimmer;)

Dural
2010-03-02, 17:07:39
naja das hab ich schon vor monaten vermutet das die GTX480 nicht mit 512SP kommt... den wenn man wirklich nur 1% volle 512SP GPU hat würde das eine GTX480 praktisch nicht lieferbar machen / nur auf dem Papier existieren...

und würde wohl auch die GF100 375-A3 GPU erklären ;)

Gast
2010-03-02, 17:08:00
Mal rein von der Logik. Charlie spekuliert. Da er nichts weiß, kann er nur bedingt lügen - Konjunktiv hilft in diesem Bereich! Lügen könnte höchsten die Gegenseite, die als Einzige wissen, was wirklich Sache ist. Die sagen aber (uns) nichts. So gibt es also auf der einen Seite esoterische Spekulationen und auf der anderen Seite nichts. Diese hysterisch-kindlichen Äußerungen bringen somit rein gar nichts. :wink:

Noch ein Tipp: Lest nicht die Nachrichten von semiaccurate (Name!), dann müsst ihr euch auch nicht so aufregen.

Nvidea Huang am 11.11.2009 Now, I have one right here. This, Ladies and Gentlemen, this puppy here is Fermi. It just came back from Fab."

Und Charlie erdreistete sich zu titeln:

Nvidia fakes Fermi boards at GPU Technology Conference



08.01.2010: NVIDIA CEO Jen-Hsun Huang revealed at CES that the GF100 "Fermi" GPU has finally entered mass production.


Die Frage ist was machen die mit den Millionen von Chips, die seit dem produziert worden sind?


Spannende Sache!

S940
2010-03-02, 17:11:22
http://www.abload.de/img/fermildko.jpeg
http://www.heise.de/newsticker/meldung/GeForce-GTX-480-Fermi-Grafikchip-fotografiert-944353.html

Gast
2010-03-02, 17:11:26
Herrlich. Die GTX 480 wird 512SP haben. Da wette ich mal locker einen Hunderter drauf. Echt lustig hier, komm aus dem Lachen gar nicht mehr raus;)

Dural
2010-03-02, 17:14:16
wenn die 1% stimmen ist das gar nicht mal so abwägig...

Menace
2010-03-02, 17:15:01
Wenn ich die Kaufentscheidung nvidia-Produkten von der geistigen Kompetenz von Jen-Hsun Huang abhängig machen würde, käme mir nie eine derartige Grafikkarte ins Gehäuse. Momentan hat nvidia zugegebenermaßen bei mir einen eher schweren Stand, was an deren aktuellen "Politik" liegt -Umbenennung, Sperrung von PhysX bei Vorhandensein von Ati-Grakas, etc. Überzeugt Fermi werde ich es mir überdenken.

Gast
2010-03-02, 17:17:13
wenn die 1% stimmen ist das gar nicht mal so abwägig...

Wenn wenn wenn. Oder hätte hätte Fahrradkette:)

Gast
2010-03-02, 17:18:05
Wenn ich die Kaufentscheidung nvidia-Produkten von der geistigen Kompetenz von Jen-Hsun Huang abhängig machen würde, käme mir nie eine derartige Grafikkarte ins Gehäuse. Momentan hat nvidia zugegebenermaßen bei mir einen eher schweren Stand, was an deren aktuellen "Politik" liegt -Umbenennung, Sperrung von PhysX bei Vorhandensein von Ati-Grakas, etc. Überzeugt Fermi werde ich es mir überdenken.

Auch wenns nicht hierhin gehört. Aber PhysX gehört halt nVidia;)

Dural
2010-03-02, 17:18:23
@Menace NV macht nichts was jedes anderes wirtschafltichen unternehmen nicht auch machen würde... :rolleyes:

und wegen den 1% gut möglich das NV einfach alle nur verarscht, wäre nicht das erste mal...

Menace
2010-03-02, 17:21:55
Auch wenns nicht hierhin gehört. Aber PhysX gehört halt nVidia;)

Das ist ja völlig ok und das dürfen sie auch ausdrücklich so machen. Ich jammere auch nicht seitenlang darüber rum:

OT:

Und ich entscheide halt nicht immer (!) nach der Leistung, sondern auch nach weiteren Faktoren. Solange AMD-Produkte nicht in Mediamarkt und Saturnläden zu kaufen gab, vermied ich intel-Produkte. Nach der Zahlung an AMD ist das hinfällig.

Tarkin
2010-03-02, 17:23:49
Ohweia ohweia. Hier wird einigen noch die Kinnlade runterrutschen. Echt übel dieses Gesülze. Abgerechnet wird am Schluss.

Abgerechnet? Was denkst du was das ist? Das jüngste Gericht?

Gast
2010-03-02, 17:24:45
Abgerechnet? Was denkst du was das ist? Das jüngste Gericht?

Ich würde das eher Payday bezeichnen.

LovesuckZ
2010-03-02, 17:27:14
Ich finde es ja ziemlich paradox nVdia für Fortschritt abzuwatschen. Welche GPU-Physik-Lösung bietet nochmal AMD? Achja, Havok über OpenCL. :lol:

MR2
2010-03-02, 17:30:06
Und Havok ist schlecht???

"Dennoch ist es heise online gelungen, eine GeForce GTX 480 in die Hände zu bekommen, auseinanderzubauen und bereits einen Blick auf den Grafikchip zu werfen.

Wieso benchen die nicht....basteln lieber an der Karte rum...

Gast
2010-03-02, 17:30:07
Mafia 2 soll übrigens PhysX über GPU unterstützen. Da werden einige ATI`ler dumm aus der Wäsche schauen. Aber back to Fermi.

LovesuckZ
2010-03-02, 17:31:35
Und Havok ist schlecht???


Kommt drauf an, wie man schlecht definiert: Es exitiert nur auf dem Papier? Dann ja - so wie gewisse Leute es heute schon mit GF100 machen. ;D

Gast
2010-03-02, 17:32:11
Und Havok ist schlecht???
Havok ist bislang entgegen der ewigen Behauptungen CPU only.

Gast
2010-03-02, 17:32:51
Ich finde es ja ziemlich paradox nVdia für Fortschritt abzuwatschen. Welche GPU-Physik-Lösung bietet nochmal AMD? Achja, Havok über OpenCL. :lol:
Bullet, die werden nicht nur von Sony gesponsert.

Odal
2010-03-02, 17:34:19
@tarkin

Wennistens hat NV immer die schnellste GPU in der gleichen Generation... :freak:

Komisch das es zu zeiten von R580 und G71 kein "der R580 ist aber grösser kein wunder ist der schneller vergleich gab" ;)

der R580 hat den G71 aber genauso zu Kleinholz verarbeitet wie der G80 dann den R580 ;)

da hätte er schon viel grösser sein dürfen bei dem riesen unterschied
der G71 suckte einfach
bzw. da musste mal was neues her -> G80

http://www.abload.de/img/fermildko.jpeg
http://www.heise.de/newsticker/meldung/GeForce-GTX-480-Fermi-Grafikchip-fotografiert-944353.html

toll alle welt bekommt A2 vorgesetzt und dann wundert man sich bzgl. falschen leaks von charlie&co mit falschen taktraten keinen 512SPs, hohem stromverbrauch etc.

;D

die überraschung kommt dann am ende des monats :D

AmaR
2010-03-02, 17:37:35
Ich hoffe mal, dass wenigstens die 470 Anfang April einigermaßen verfügbar sein wird.
Wobei ich bei Preisen >400€ auch eine 5870 kaufen würde und da wäre ich sicher nicht der Einzige.
350€ für die 470er bei passender Leistung (auf 5870er Niveau) und die Karte wird sehr gut laufen IMO.

Meine 4670 geht mir langsam auf die Nerven. :freak:

Gast
2010-03-02, 17:39:59
Ich hoffe mal, dass wenigstens die 470 Anfang April einigermaßen verfügbar sein wird.
Wobei ich bei Preisen >400€ auch eine 5870 kaufen würde und da wäre ich sicher nicht der Einzige.
350€ für die 470er bei passender Leistung (auf 5870er Niveau) und die Karte wird sehr gut laufen IMO.

Meine 4670 geht mir langsam auf die Nerven. :freak:

Dazu auch noch PhysX, die klar besseren Treiber, wahrscheinlich keine Käfer im Bios etc, pepe. Ich zahle gerne den Aufpreis.

MR2
2010-03-02, 17:42:15
...



toll alle welt bekommt A2 vorgesetzt und dann wundert man sich bzgl. falschen leaks von charlie&co mit falschen taktraten keinen 512SPs, hohem stromverbrauch etc.

;D

die überraschung kommt dann am ende des monats :D...

jep, A2 ist Käse hoch3!

Zauberer
2010-03-02, 17:44:41
toll alle welt bekommt A2 vorgesetzt und dann wundert man sich bzgl. falschen leaks von charlie&co mit falschen taktraten keinen 512SPs, hohem stromverbrauch etc.

;D

die überraschung kommt dann am ende des monats :D
Stimme ich völlig zu, NVidia legt alles daran so viele wie möglich A3 Chips zu produzieren, die Boardpartner werden wohl erst paar Wochen vorher die Chips bekommen.

Es gibt am Anfang nur Launchpartner von Nvidia, dies heißt am Anfang gibt es wenige Hersteller von der GTX 480, erst paar Wochen/Monate später wird es die Karten in großen Mengen geben.

Gast
2010-03-02, 17:45:46
der G71 suckte einfach
Imho war G71 besser als G70. 50% Leistung bei kaum mehr Vebrauch. Dazu war er schneller da als G70 nach NV40.
Also, G70 suckte, war aber balkenmäßig einige Zeit ohne Konkurrenz.

der R580 hat den G71 aber genauso zu Kleinholz verarbeitet wie der G80 dann den R580 Blöder Vergleich, R580 und G71 sind ähnlich alt, R580 und G80 nicht.
Zu R580 und G80 passt eher GT200b und RV870.

LovesuckZ
2010-03-02, 17:46:40
A2 sind auch nur ES im besten Fall. Die Produktion wird erst mit A3 angeworfen, woraus dann eben auch die entgültigen Specs entstehen. Karten mit A2 können daher immer noch beschnitten sein oder eine niedrige Taktung besitzen.

Gast
2010-03-02, 17:48:52
Blöder Vergleich, R580 und G71 sind ähnlich alt, R580 und G80 nicht.
Zu R580 und G80 passt eher GT200b und RV870.

Wann kam denn von ATI ein Wiedersacher zum G80? Das hat doch lange, sehr lange gedauert.

Bucklew
2010-03-02, 17:53:03
Interessante News von Heise (http://www.heise.de/newsticker/meldung/GeForce-GTX-480-Fermi-Grafikchip-fotografiert-944353.html)
Und selbst auf der Cebit überall nur A2-Karten, d.h. es ist immer noch ein fröhliches Rätselraten, was Temperatur, Lautstärke, Takt und Geschwindigkeit angeht ;D

Bitte was?
NV hat die Tesselationslimitierte Szene also veröffentlicht um möglichst schlecht auszusehen?
60% besser als ATI = "möglichst schlecht"? ;D

Sagen wir es mal so, der Knalleffekt wäre auf jeden Fall da, wenn (anders als vermutet) zwar relativ überlegene Szenen bisher gezeigt wurde, die richtigen Knaller aber noch kommen.

Dural
2010-03-02, 17:53:39
der R580 hat den G71 aber genauso zu Kleinholz verarbeitet wie der G80 dann den R580 ;)

da hätte er schon viel grösser sein dürfen bei dem riesen unterschied
der G71 suckte einfach
bzw. da musste mal was neues her -> G80


Nur so als richtig stellung, R580 war 40% grösser als G71

Leistungs mässig waren 7900GTX und 1900XTX damals aber kaum auseinader:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating_qualitaet

S940
2010-03-02, 17:58:08
A2 sind auch nur ES im besten Fall. Die Produktion wird erst mit A3 angeworfen, woraus dann eben auch die entgültigen Specs entstehen. Karten mit A2 können daher immer noch beschnitten sein oder eine niedrige Taktung besitzen.
A3 sind quasi auch noch ES, ansonsten würde die wirkliche Masse nicht erst im Mai/Juni mit B1 erwartet werden ...
Quelle: beyond3d Forum, Link vor 1-2 Seiten.

Gast
2010-03-02, 17:58:11
60% sind nur für Leute mit roter Brille schlecht. Ich finde das Ergebnis gut.

LovesuckZ
2010-03-02, 18:00:21
A3 sind quasi auch noch ES, ansonsten würde die wirkliche Masse nicht erst im Mai/Juni mit B1 erwartet werden ...
Quelle: beyond3d Forum, Link vor 1-2 Seiten.

Logisch. nVidia verkauft ES an die Kunden. Was machen die eigentlich mit den Test-Samples für die Presse? Wegwerfen? ;D

Gast
2010-03-02, 18:00:34
60% sind nur für Leute mit roter Brille schlecht. Ich finde das Ergebnis gut.
Wo?
Zur Zeit ist die Rede von kaum schneller als 5870.

Gast
2010-03-02, 18:01:28
Und überhaupt, mir kommt es vor als ob Leute die schon eine 58xx oder auch eine 5970 gekauft haben die Leistung Nvidias runterschrauben. Das kann doch nicht deren Ernst sein? Oder?

Gast
2010-03-02, 18:02:17
Ich rede von Tesselation, bitte notieren. Darauf kommts an.

Gast
2010-03-02, 18:03:34
Und überhaupt, mir kommt es vor als ob Leute die schon eine 58xx oder auch eine 5970 gekauft haben die Leistung Nvidias runterschrauben. Das kann doch nicht deren Ernst sein? Oder?

Welche Leistung soll man denn runterschrauben?
Es ist doch nichts da

Gast
2010-03-02, 18:04:58
Stimme ich völlig zu, NVidia legt alles daran so viele wie möglich A3 Chips zu produzieren, die Boardpartner werden wohl erst paar Wochen vorher die Chips bekommen.

Hallo? "Ein paar Wochen vorher" ist _jetzt_. Wenns auch nur irgendeine Chance geben soll, daß Ende März zum "Launch" tatsächlich Karten kaufbar sind, dann sollte so langsam mal die Produktion anfangen, meint ihr nicht?
Ich mein, wann wollen die sonst Produktion, QA, Auslieferung an die Händler... alles erledigen? Oder haben die den Weihnachtsmann angeheuert, der alle Karten in Nullzeit zusammenbastelt und verteilt?

Kosh
2010-03-02, 18:05:17
Herrlich. Die GTX 480 wird 512SP haben. Da wette ich mal locker einen Hunderter drauf. Echt lustig hier, komm aus dem Lachen gar nicht mehr raus;)

Möglich,aber sich dann hier einen anonymen Gastaccount verstecken,so das man später diese Aussage niemanden zuordnen kann, ist auch etwas lächerlich.

Schon eigenartig,das hier quasi jeder 2te Post von einem Gast stammt.

Gast
2010-03-02, 18:06:03
Wann kam denn von ATI ein Wiedersacher zum G80? Das hat doch lange, sehr lange gedauert.
Knapp über ein halbes Jahr später kam R600.

Mir gings nur um den zeitlichen Rahmen, den G71 kam nicht nach sondern zeitgleich mit R580.

Gast
2010-03-02, 18:06:41
Welche Leistung soll man denn runterschrauben?
Es ist doch nichts da

Noch nicht. Aber bald wirst auch du sehen, das Fermi in Tesselation überlegen ist.

Gast
2010-03-02, 18:08:48
Hallo? "Ein paar Wochen vorher" ist _jetzt_. Wenns auch nur irgendeine Chance geben soll, daß Ende März zum "Launch" tatsächlich Karten kaufbar sind, dann sollte so langsam mal die Produktion anfangen, meint ihr nicht?
Ich mein, wann wollen die sonst Produktion, QA, Auslieferung an die Händler... alles erledigen? Oder haben die den Weihnachtsmann angeheuert, der alle Karten in Nullzeit zusammenbastelt und verteilt?
In wie weit es für die ersten Tage Kartons beim Händler gibt ist zweitragangig.
Wichtiger ist, das danach ein guter Strom an neuen Kartons erfolgt, die laufende Produktion nach dem Launch muss stimmen.

Gast
2010-03-02, 18:13:14
Noch nicht. Aber bald wirst auch du sehen, das Fermi in Tesselation überlegen ist.
Und?
Wenn ein Spiel shaderlimitiert ist, dann kannst du bei der Tesselation auch 5 mal schneller sein.
Wird dir aber in der Praxis 0,0 bringen.

Gast
2010-03-02, 18:15:39
Und?
Wenn ein Spiel shaderlimitiert ist, dann kannst du bei der Tesselation auch 5 mal schneller sein.
Wird dir aber in der Praxis 0,0 bringen.

Ich warte jetzt nur noch auf benches und auf die Reaktionen hier. Bringt jetzt auch nix hier zu stunkern.

Gast
2010-03-02, 18:16:25
Und?
Wenn ein Spiel shaderlimitiert ist, dann kannst du bei der Tesselation auch 5 mal schneller sein.
Wird dir aber in der Praxis 0,0 bringen.
100% ige Shaderlimitiertung ist keine Praxis.

LovesuckZ
2010-03-02, 18:20:09
Bilder der GTX480:
http://ic.tweakimg.net/ext/i/imagelarge/1267547763.jpeg
http://ic.tweakimg.net/ext/i/imagelarge/1267547764.jpeg
http://ic.tweakimg.net/ext/i/imagelarge/1267547765.jpeg

Bei der Kühllösung geht man stark in die Richtung des Thermalright HR-03 GTX. Und im Gegensatz zur GTX280 setzt man wohl auch kein Kupfer ein.

Und?
Wenn ein Spiel shaderlimitiert ist, dann kannst du bei der Tesselation auch 5 mal schneller sein.
Wird dir aber in der Praxis 0,0 bringen.

Welche Shader? Hull? Domain? Geometry? Pixel? Vertex? :confused:

Gast
2010-03-02, 18:25:04
Bilder der GTX480:
http://ic.tweakimg.net/ext/i/imagelarge/1267547763.jpeg
http://ic.tweakimg.net/ext/i/imagelarge/1267547764.jpeg
http://ic.tweakimg.net/ext/i/imagelarge/1267547765.jpeg

Bei der Kühllösung geht man stark in die Richtung des Thermalright HR-03 GTX. Und im Gegensatz zur GTX280 setzt man wohl auch kein Kupfer ein.



Welche Shader? Hull? Domain? Geometry? Pixel? Vertex? :confused:


wozu die schwarzen balken über dem pcie dingsda und den stromanschlüssen?
was könnte es denn da interessantes zu sehen geben?

Bucklew
2010-03-02, 18:25:59
Stimme ich völlig zu, NVidia legt alles daran so viele wie möglich A3 Chips zu produzieren, die Boardpartner werden wohl erst paar Wochen vorher die Chips bekommen.
Die Boardpartner werden erstmal von Nvidia zentral gefertige komplette Grafikkarten erhalten und die einfach nur ein paar Tage vor Launch erhalten, in ihre Kisten werfen udn verschicken. Das war schon immer so bei Launches. Die Einzelchips und die Fertigung eigener Karten wird erst später kommen.

crux2005
2010-03-02, 18:26:16
wozu die schwarzen balken über dem pcie dingsda und den stromanschlüssen?
was könnte es denn da interessantes zu sehen geben?

damit nV nicht herausfindet wer geleaked hat...

Bucklew
2010-03-02, 18:26:54
wozu die schwarzen balken über dem pcie dingsda und den stromanschlüssen?
was könnte es denn da interessantes zu sehen geben?
Seriennummern.

Gast
2010-03-02, 18:27:36
wozu die schwarzen balken über dem pcie dingsda und den stromanschlüssen?
was könnte es denn da interessantes zu sehen geben?
Stepping, Name, Codename, ...

Gast
2010-03-02, 18:35:14
... oder die Entwicklung von FERMI hat noch ein bisschen länger gedauert als man eh schon annehmen musste und der Slotstecker ist geschwärzt, damit man nicht sieht dass es PCI ist (ohne e) ;)

Gast
2010-03-02, 18:45:05
... oder die Entwicklung von FERMI hat noch ein bisschen länger gedauert als man eh schon annehmen musste und der Slotstecker ist geschwärzt, damit man nicht sieht dass es PCI ist (ohne e) ;)
Aus dem selben Grund warum die 6+8pin verdeckt sind?
Ganz tolle Aufkleber sind da.

Coda
2010-03-02, 18:47:24
wozu die schwarzen balken über dem pcie dingsda und den stromanschlüssen?
was könnte es denn da interessantes zu sehen geben?
Wahrscheinlich Nummern die Rückschlüsse darauf zulassen könnten wer es geleakt hat.

S940
2010-03-02, 18:48:30
Logisch. nVidia verkauft ES an die Kunden. Was machen die eigentlich mit den Test-Samples für die Presse? Wegwerfen? ;DIch schrieb doch "quasi". Das Ganze ist selbstverständlich nur in Bezug auf die Stückzahl, nicht auf den Versuchs/Testcharakter zu verstehen. So schlau solltest Du doch sein, um auschließen zu können, dass nV den Abschlusstest nicht mit den Endkunden veranstaltet ^^

Nachdem öffentlich von nV schon bekannt gegeben wurde, dass es von A3 (im Orginal: "bis Mai" (wenn B1 kommt)) nicht viele Fermis geben wird, sind es in jedem Fall keine nennenswerten Stückzahlen.

Die werden den aktuellen A2 Waferzahlen näher kommen als den späteren der B1 Version, mit denen dann erst der große Schwung kommt.

ciao

Alex

Coda
2010-03-02, 18:51:11
Woher kommt eigentlich das mit dem A3? Ist das "offiziell"?

Die Minor-Revisions geben nur Metal-Spins an, wenn sie Probleme mit der Logik darunter haben und die mit A2 nicht gelöst haben hilft auch kein A3 mehr.

Edit: Ah auf B3D meinen sie es gab noch einen Fuckup mit A2.

S940
2010-03-02, 18:53:45
Woher kommt eigentlich das mit dem A3? Ist das "offiziell"?
Lol, ne natürlich nicht, was ist bei Fermi schon offiziell .. :freak:

Quelle ist die Diskussion bei b3d:
http://forum.beyond3d.com/showthread.php?t=56155&page=92

Hence the no-to-limited availability etc. until June/July. It also is the basis for Charlies "handful" of chips for partners, A3 will be here for launch and B1 will be the "shipping" product.
http://forum.beyond3d.com/showpost.php?p=1401076&postcount=2280

Coda
2010-03-02, 18:59:48
Es scheint jedenfalls funktionsfähige A2s zu geben:
http://www.heise.de/newsticker/meldung/GeForce-GTX-480-Fermi-Grafikchip-fotografiert-944353.html

10.5 inches, also genauso lang wie eine GTX 280/285.

LovesuckZ
2010-03-02, 19:00:57
Ich schrieb doch "quasi". Das Ganze ist selbstverständlich nur in Bezug auf die Stückzahl, nicht auf den Versuchs/Testcharakter zu verstehen. So schlau solltest Du doch sein, um auschließen zu können, dass nV den Abschlusstest nicht mit den Endkunden veranstaltet ^^

Nö, erkläre mir mal, warum nVidia GF100 überhaupt produzieren sollte? Wieso Wafer verschwenden? So schlau solltest du sein, um eine vernünftige Erklärung dazu zufinden.


Nachdem öffentlich von nV schon bekannt gegeben wurde, dass es von A3 (im Orginal: "bis Mai" (wenn B1 kommt)) nicht viele Fermis geben wird, sind es in jedem Fall keine nennenswerten Stückzahlen.

Charlie und Neliz sind nicht nVidia's Pressesprecher. ;D


Die werden den aktuellen A2 Waferzahlen näher kommen als den späteren der B1 Version, mit denen dann erst der große Schwung kommt.

ciao

Alex

Wow, da glaub jemand, dass nVidia mit B1 in massenproduktion geht. Bist mir schon ein Kerlchen. Statt stumpf von Neliz und Charlie abzuschreiben, solltest du auch einmal darüber nachdenken. Frühsten mit B2 kämen sie auf den Markt. Gängen Sie in April zum Tape-Out, schaffen sie es pünktlich zum 3.10.2010 in den Laden...

Gast
2010-03-02, 19:01:36
Metro und dieses Rennspiel testen. Da hätten wir schon 2;)

Und mit dem letzten Stalker sind es 3.

Ailuros
2010-03-02, 19:15:26
A3 sind quasi auch noch ES, ansonsten würde die wirkliche Masse nicht erst im Mai/Juni mit B1 erwartet werden ...
Quelle: beyond3d Forum, Link vor 1-2 Seiten.

Mit A3 wird nach wie vor weiterproduziert. B1 wird so oder so nicht in die Produktion gehen und wenn es erst im April verschickt wird kommt es garantiert nicht schon im Mai zurueck.

Nightspider
2010-03-02, 19:22:20
Zukünftig dürfen sich die Grafikkarten damit hier messen:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7877327&postcount=249

:D

mapel110
2010-03-02, 19:22:30
http://www.golem.de/1003/73547.html
Laut Nvidia werden die ersten Geforce-GTX-480-Grafikkarten Ende März 2010 bei Online-Händlern eintreffen. Wann das kleinere Fermi-Modell GTX 470 kommt, wurde noch nicht angekündigt.

Erst die 480 lieferbar. O_o

Gast
2010-03-02, 19:28:33
Erst die 480 lieferbar. O_o


http://tweakers.net/nieuws/65933/cebit-nvidia-gtx-480-op-de-gevoelige-plaat-gevangen.html

5000 Stück GTX 480 weltweit sollen zum Luanch verfügbar sein, wieviele Computerzeitschriften und Websites gibt es? Und eine pro Karte Online-Shop. Reicht das dafür?

Tarkin
2010-03-02, 19:41:58
Mit A3 wird nach wie vor weiterproduziert. B1 wird so oder so nicht in die Produktion gehen und wenn es erst im April verschickt wird kommt es garantiert nicht schon im Mai zurueck.

448SP A3 Chips wandern dann vermutlich in die Tesla und Quadro Karten da diese am Retail Markt nicht mehr mit anständigem Profit verkauft werden können... dazu würde auch diese Aussage passen:

http://www.golem.de/1003/73547.html

Dann siehts aber mit Verfügbarkeit wirklich düster aus.

Langsam fügt sich das Puzzle zusammen.

Gast
2010-03-02, 19:44:34
was könnte es denn da interessantes zu sehen geben?

Vermutlich irgendeine Seriennummer mit der man die Karte dem NDA-Brecher zuordnen könnte.

Ailuros
2010-03-02, 19:46:31
448SP A3 Chips wandern dann vermutlich in die Tesla und Quadro Karten da diese am Retail Markt nicht mehr mit anständigem Profit verkauft werden können... dazu würde auch diese Aussage passen:

Tesla ist extrem low volume und auf Fermi basierende Quadros wirst Du wohl noch einige Zeit warten werden.

http://www.golem.de/1003/73547.html

Dann siehts aber mit Verfügbarkeit wirklich düster aus.

Langsam fügt sich das Puzzle zusammen.

Wenn man sich schlampig informiert kommt es auch zu schlampigen Schlussfolgerungen.

LovesuckZ
2010-03-02, 19:47:47
Die Nachfrage nach GF100 wird selbst im Tesla-Bereich größer sein als die angeblich 9000k produzierten Stück. :lol: