PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK104 - Salvage-Versionen


AnarchX
2012-03-22, 13:18:54
Semiaccurate: 7 SMX ~ 1344SPs GK104 - GK104-335 (http://semiaccurate.com/2012/02/09/there-are-two-gk104kepler-variants/)

heise.de: Dual-GK104 im Mai zur GTC (http://www.heise.de/newsticker/meldung/Nvidias-GeForce-GTX-680-bringt-Turbo-Technik-und-kommt-noch-im-Maerz-1465891.html)

GTX 690?:
http://img.inpai.com.cn/article/2012/4/20/1ffa0952-f60a-4a2d-b1da-b83ea7b91ab0.jpg

http://www.inpai.com.cn/doc/hard/171400.htm

Odal
2012-03-22, 18:45:23
gk104 mit 12.5% weniger Hardwareeinehiten (und vermutlich weniger Takt) klingt äusserst interessant
Gibts schon Rumore wann das Ding kommt?

Henroldus
2012-04-05, 14:41:19
warum wird hier nix zu den Infos aus den News gesagt?

Die ersten Spezifikationen zur GeForce GTX 670 Ti (http://www.3dcenter.org/news/die-ersten-spezifikationen-zur-geforce-gtx-670-ti)
und woher stammen diese?
ist das nicht die GPU auf die 90% der Nvidia-Jünger warten?
günstiger und noch sparsamer als der GK104

Zergra
2012-04-05, 15:22:08
Und welche Chip soll dann die 670GTX sein ? irgentwie kommt mir das etwas komisch vor, vllt kommt die 670TI ja garnicht auf den Markt. Soweit ich weiß war doch der name 670TI für die jetzige 680GTX gedacht, hat sich dann aber geändert. Gut möglich das wir garkeine 670Ti bekommen.

AnarchX
2012-04-05, 15:25:38
Wohl auch ein nochmals deaktivierter GK104.
Mit 1142SPs hätte man immer noch Abstand zum GK106 mit wohl 768SPs.

Vielleicht hat die "GTX 670" nur 1,5GiB @192-Bit mit 5,5-6,0Gbps.

Godmode
2012-04-05, 15:26:49
warum wird hier nix zu den Infos aus den News gesagt?

Die ersten Spezifikationen zur GeForce GTX 670 Ti (http://www.3dcenter.org/news/die-ersten-spezifikationen-zur-geforce-gtx-670-ti)
und woher stammen diese?
ist das nicht die GPU auf die 90% der Nvidia-Jünger warten?
günstiger und noch sparsamer als der GK104

Noch langsamer als GK104 ergo langweilig, kein Highend.

Und statt Dual-GPU kaufe ich lieber zwei normale GTX 680.

Ailuros
2012-04-05, 15:59:50
Noch langsamer als GK104 ergo langweilig, kein Highend.

Und statt Dual-GPU kaufe ich lieber zwei normale GTX 680.

"High end" ist heutzutage eher relativ zu den Preisen bis sich die 28nm GPU Preise endlich normalisieren. 7 SMXs duerfte stimmen, aber ich will wetten dass das Ding so getaktet sein wird um einer 7950 um etwas die Brust zeigen zu koennen (so in etwa wie 680<->7970).

Thunder99
2012-04-05, 16:44:22
Evt genau so taktfreudig wie die HD7950. Wenn die nicht "langsame" Speicherchips nehmen könnte das Ding echt potential haben

Ailuros
2012-04-05, 17:51:53
Evt genau so taktfreudig wie die HD7950. Wenn die nicht "langsame" Speicherchips nehmen könnte das Ding echt potential haben

Da die Dinger am Anfang so oder so wohl wieder mit pfiffigen Preisen ankommen werden und nicht mehr als 1.5GB framebuffer default erwarte, ist es kein absoluter Zugzwang konservativ getakteten Speicher zu benutzen. Eher das Gegenteil.

Skysnake
2012-04-05, 18:25:32
Nur ein 192 Bit Interface?

Das wäre aber sehr ungeschickt. Die Luft beim SI könnte man echt gebrauchen. GK104 ist da doch etwas Spitz auf Knopf genäht.

PS: Du meinst wohl gepfefferte nicht pfiffige Preise ;)

Ailuros
2012-04-05, 18:59:48
Nur ein 192 Bit Interface?

Das wäre aber sehr ungeschickt. Die Luft beim SI könnte man echt gebrauchen. GK104 ist da doch etwas Spitz auf Knopf genäht.

PS: Du meinst wohl gepfefferte nicht pfiffige Preise ;)

Moment...Mist es geht um GK104 salvage parts, wobei ich dummerweise GK106 im Hinterkopf hatte. GK106 ist 192bit afaik. GK104 salvage duerfte schon 256bit sein.

Skysnake
2012-04-05, 19:10:41
Puh ich dachte schon :ugly:

Man man man Ailuros du kannst einem echt ganz schön Angst machen ;D

Ailuros
2012-04-05, 19:19:05
Puh ich dachte schon :ugly:

Man man man Ailuros du kannst einem echt ganz schön Angst machen ;D

ΟΤ aber ich arbeite auch parallel zu der Tipperei hier ergo cut me some slack.

AnarchX
2012-04-05, 19:26:02
Eine 192-Bit Version des GK104 wird es sicherlich irgendwann auch noch geben.
Mit dem 6Gbps Speicher käme man ja fast auf die Bandreite einer GTX 570.

Zergra
2012-04-05, 19:28:04
Das heißt 2 Salvage Parts... nunja stimmt machen sie ja auch öfters nur dann meistens eher später. Die 28nm Produktion wirft wohl noch ziemlich viel "Schrott" ab die die 2 Versionen jetzt schon erlaubt. Was wohl für uns besser sein kann und die Lücken besser füllt. Amd sollte dort auch mal was machen...

AnarchX
2012-04-05, 19:29:29
Bei AMD wird es sicherlich noch eine 7790/7830 für die Lücke zwischen 7770 und 7850 geben.

Zergra
2012-04-05, 21:25:38
Evt genau so taktfreudig wie die HD7950. Wenn die nicht "langsame" Speicherchips nehmen könnte das Ding echt potential haben
http://www.computerbase.de/news/2012-04/spekulationen-zur-nvidia-geforce-gtx-670-ti/
bzw auch hier http://www.3dcenter.org/news/die-ersten-spezifikationen-zur-geforce-gtx-670-ti
Speichertakt von 1250Mhz.... bauen die noch billigeren und schlechter Taktenden ein ?

disap.ed
2012-04-09, 22:51:52
Ist schon bekannt wann die GTX670 (ohne Ti) released wird?

V2.0
2012-04-10, 08:04:50
Momentan ist das etwas Ruhe im See. Ich persönlich versuche auch gerade zu erfahren ob alle das PCB und die Kühlung der 680 nutzen oder ob wir GK104 auch auf einem GF104/114 ähnlichen Board und ähnlicher Stockkühlung sehen.

AnarchX
2012-04-10, 15:57:25
NVIDIA_DEV.1189 = "NVIDIA GeForce GTX 670"
http://www.station-drivers.com/forum/viewtopic.php?f=47&t=3734&sid=50e5ac0501df18eb259369613d0402e0

z3ck3
2012-04-12, 00:52:06
Möchte auch mal wieder mitspekulieren:

GTX690 GK104 4GB Volle Hardwareeinheiten, TPD 370W, 900 Mhz statt 1Ghz Takt, alles andere, auch maximaler GPU Boost wie GTX680

Also von der Idee her einfach die TPD senken und dafür mehr Spielraum beim GPU Boost. Allerdings nicht sehr wahrscheinlich. Ich denke eher das es in Richtung 2xGTX670 geht.

Thunder99
2012-04-12, 13:47:27
Möchte auch mal wieder mitspekulieren:

GTX690 GK104 4GB Volle Hardwareeinheiten, TPD 370W, 900 Mhz statt 1Ghz Takt, alles andere, auch maximaler GPU Boost wie GTX680

Also von der Idee her einfach die TPD senken und dafür mehr Spielraum beim GPU Boost. Allerdings nicht sehr wahrscheinlich. Ich denke eher das es in Richtung 2xGTX670 geht.
Wenn nvidia es schafft 2x GF110 im Vollausbau auf ein PCB zu klatschen werden die mit Sicherheit nicht 2x GK104 in beschnittener HW Form verbauen ;)

Selektierte Chips + niedrigere Taktraten und du hast nen Super Chip mit relativ niedriger TDP.

AnarchX
2012-04-12, 13:50:25
Denkbar dass Dual-GK104 vielleicht deutlich besser mit dem TDP-Regler skaliert.

Skysnake
2012-04-12, 14:00:02
Ist stark an zu nehmen.

Hades11
2012-04-13, 17:05:52
12,5% weniger hardware einheiten, und etwas geringerer referenztakt hört sich soweit ungefähr wie 580->570 an. Da gab es ja auch 570-er versionen (SO von Gigabyte z.b.) die sich so hoch takten ließen dass man 580-er Leistung und teilweise mehr erreichte (zu geringerem preis). Ich bin gespannt ob das bei det 670TI erneut möglich sein wird. Vorallem wenn sie das gleiche SI wie die 680 hat, das dort ja nach 15% mehrtakt anfängt zu limitieren.
Nur schade dass sie warscheinlich auch wieder überteuert sein wird, wie der ganze 28Nm rest auch.

V2.0
2012-04-13, 20:29:47
Ich hoffe primär, dass man zu einer 560 artigen Kühlung greift. Bei rund 150-160W TDP sollte das wohl möglich sein und leise.

y33H@
2012-04-13, 20:40:40
Du meinst axial wie der bei der GTX 295 v2 und GTX 590?

http://www.abload.de/thumb/zotac-gxt295-12d9jwx.jpg (http://www.abload.de/image.php?img=zotac-gxt295-12d9jwx.jpg)

V2.0
2012-04-13, 21:28:32
Ja axial, rein von der TDP würde ja der GF114 Kühler reichen.

Hades11
2012-04-14, 11:50:22
Denkbar dass Dual-GK104 vielleicht deutlich besser mit dem TDP-Regler skaliert.
Das der Dual GK104 mit der TDP-Begrenzung an sich weit besser zurechtkommen sollte als die AMD Konkurrenz sollte, denke ich jedem Klar sein. GK104 wird man auch nicht viel Drosseln müssen, 195W ( für die gesamte karte mit Kühlung, aber es wird ja auch der speicher,ect 2 mal verbaut, deswegen gehe ich von diesem wert aus) gegen 250W (maximalverbrauch)

2*195 =390
2*250 =500

Das Zeigt alleine schon dass man GK104 weitaus weniger wird drosseln müssen als AMD Thahiti. Hinzu kommt noch die um ~10% größere Leistung des GK104 (CB) und die leicht bessere Skalierung von SLI gegenüber Crossfire (auch von CB). Wenn ich mich jetzt nicht täusche hatte SLI bisher auch die Microruckler weit besser im griff als CF.
Ich denke dass NV mal wieder abwartet bis AMD die 7990 rausbringt, dann die Taktraten der 690 so anpassen dass man wieder 10% (oder etwas mehr) drüber ist.

Ich frage mich nur wie das mit dem Speicher wird. 2GB pro GK104 limitiert ja auch schon selten bei nur einer GPU, mit der Stark erhöhten GPU-Leistung könnte der eventuell zum Problem werden, vorallem da die 690 warscheinlich meistens für sehr hohe Auflösungen und Einstellungen genutzt werden wird. Aber ich glaube trotzdem nicht dass NV was am Speicher dreht. Ansonsten sieht die Sache doch gaz gut aus, wenn man nicht auf den zu erwartenden Preis guckt.

boxleitnerb
2012-04-14, 11:53:11
TDP =! Verbrauch
Ich denke, man könnte auch Tahiti ohne Drosselung verbauen, einfach die Spannung senken - das sollte inzwischen gehen - und man hat denselben Verbrauch wie GK104.

Knuddelbearli
2012-04-14, 13:13:47
jup man muss zwar erst auf ht4u warten aber 7970 wird wohl nur ~10W oder so mehrverbrauchen da dort meistens viel luft zur tdp ist während dank turbo die 680 fast durchgängig dran klebt.

auch ist die Frage wie sehr ein unterschiedlicher Turbo das MR verstärkt. CB halte ich für Erkennung von MR nicht als sehr fähig

Hades11
2012-04-14, 13:32:24
ach ja das Thahiti mit höherer spannung als nötig läuft hatte ich ganz vergessen...
ich vermute dass bei der 690 für beide GPu´s der selbe Turbo anliegt.

boxleitnerb
2012-04-14, 13:38:18
Es kommt stark aufs Spiel an. Teilweise ist die 680 schon klar sparsamer, mehrere 10W, aber dann wieder fast gleichauf.

Wie man den Turbo synchronisieren will, wüsste ich nicht. Das geht bei SLI aktuell ja auch nicht. Aber die Unterschiede sind so gering, da würde ich mir nicht sooo viel Sorgen machen. Techreport sollte das mal messen. Blöd nur, dass man keinen Vergleich zu Turbo aus hat und mit anderen Karten vergleichen ist ja Käse.

Knuddelbearli
2012-04-14, 13:48:12
naja turbo aus ist schon möglich mit dem nv inspector aber die meisten magazine sind für sowas ja zu blöd :-/

ht4u mach es aber vielleicht

boxleitnerb
2012-04-14, 14:38:22
Wobei es verdammt schwer ist, Mikroruckler reproduzierbar zu benchen. Ich habs grad mal in Skyrim versucht, eine Karte 5% unter- und die andere 5% übertaktet. Kein Unterschied, obwohl sich die fps sogar um 1-2 unterschieden haben. Ich glaube, so eine Untersuchung kann man vergessen. Wenn sich die fps ändern durch das Turbogedöhns, ist es schon nicht mehr vergleichbar. Und es richtet sich ja eh nach der langsameren Karte, siehe eben die um 1-2 niedrigeren fps.

Coda
2012-04-14, 15:41:46
Ich wüsste nicht, warum minimal unterschiedliche Taktraten Micro-Ruckler verstärken sollten.

Zergra
2012-04-14, 16:11:55
Vllt. gibt es ja auch keinen Turbo mehr, bzw. der ist halt dauerhaft Deaktiviert.

Hades11
2012-04-15, 11:03:02
ich glaube schon dass die den Turbo auf jeden Fall verwenden werden, in der Vergangenheit war bei dualGPU-Karten immer ihr Größtes Problem sich an die TDP zu halten bzw. bei der vorgegebenen TDP eine vernünftige Leistung zu bekommen. Das geht mit dem Turbo halt recht gut, die Karte wird immer so getaktet dass sie am rande der TDP ist, man also eine "optimale" Leistung hat, sorgt gleichzeitig aber auch dafür dass die TDP dabei nicht überschritten wird.

z3ck3
2012-04-16, 12:53:07
Darum kam von mir ja die Vermutung, das zwar der maximale Turbotakt erhalten bleibt, aber der Grundtakt gesenkt wird.

Wie sich so etwas auf Microruckler auswirkt ist schwer zu sagen. Allerdings vermute ich auch mal, da die Frames, die die die jeweilige Karte berechnen muss, sich ja nicht grundlegend unterscheiden, und so beide Karten ähnliche Arbeit leisten müssen, was wiederum dazu führt, das der Turbomode auf beiden Karten parallel zum Zug kommt oder eben nicht.

Vielleicht hat NV ja auch, was die Microruckler angeht, eine (neue) Lösung. Ich kenne diesbezüglich nicht den aktuellen Stand der Entwicklung.

Godmode
2012-04-18, 17:45:04
Da kommt bald was:
http://www.facebook.com/NVIDIADeutschland

Skysnake
2012-04-18, 19:28:15
Mein Tipp GTX690

Ailuros
2012-04-18, 19:38:00
Mein Tipp GTX690

Wenn ja will ich weder etwas ueber den MSRP noch die eigentliche Verfuegbarkeit hoeren :rolleyes:

boxleitnerb
2012-04-18, 19:40:53
Ich schätze mal $749-799.

Godmode
2012-04-18, 20:30:31
Wenn ja will ich weder etwas ueber den MSRP noch die eigentliche Verfuegbarkeit hoeren :rolleyes:

Hast du eigentlich Informationen wann endlich mehr GTX680 in den Markt kommen? Momentan kommts mir so vor, als würden die verfügbaren Karten eher weniger werden. (http://geizhals.at/?cat=gra16_512&sort=artikel&bpmax=&asuch=&v=l&plz=&dist=&xf=1439_GTX+680)

Ich bin einfach nicht bereit für so eine Karte 500€ zu bezahlen, wenn ich genau weis, dass noch eine richtige Karte nachkommt.

DraconiX
2012-04-18, 21:08:48
Du meinst axial wie der bei der GTX 295 v2 und GTX 590?

http://www.abload.de/thumb/zotac-gxt295-12d9jwx.jpg (http://www.abload.de/image.php?img=zotac-gxt295-12d9jwx.jpg)

Das Ding war aber nunmal alles andere, nur nicht leise ;)

VooDoo7mx
2012-04-19, 02:20:02
Ich bin einfach nicht bereit für so eine Karte 500€ zu bezahlen, wenn ich genau weis, dass noch eine richtige Karte nachkommt.

Stimmt GTX680 ist eine falsche Karte. :ugly:

Ailuros
2012-04-19, 07:39:36
Hast du eigentlich Informationen wann endlich mehr GTX680 in den Markt kommen? Momentan kommts mir so vor, als würden die verfügbaren Karten eher weniger werden. (http://geizhals.at/?cat=gra16_512&sort=artikel&bpmax=&asuch=&v=l&plz=&dist=&xf=1439_GTX+680)

Ich bin einfach nicht bereit für so eine Karte 500€ zu bezahlen, wenn ich genau weis, dass noch eine richtige Karte nachkommt.

Unter normalen Umstaenden wird es ein paar Wochen dauern bis die Verfuegbarkeit etwas besser wird. Vor Mai sieht es nicht nach sehenswerten Aenderungen aus und wir werden dann erst sehen ob die Preise sich etwas reduzieren werden. AMD hat gerade mit einer konservativen Preissenkung fuer 7900-er angefangen, aber die Preise sind immer noch zu hoch fuer meinen Geschmack und Tahiti Verfuegbarkeit ist heute einige Meilen entfernt von GK104 Verfuegbarkeit.

Kurz es sieht grau aus dass sich in absehbarer Zeit etwas sehenswertes aendern wird.

Godmode
2012-04-19, 21:05:10
Unter normalen Umstaenden wird es ein paar Wochen dauern bis die Verfuegbarkeit etwas besser wird. Vor Mai sieht es nicht nach sehenswerten Aenderungen aus und wir werden dann erst sehen ob die Preise sich etwas reduzieren werden. AMD hat gerade mit einer konservativen Preissenkung fuer 7900-er angefangen, aber die Preise sind immer noch zu hoch fuer meinen Geschmack und Tahiti Verfuegbarkeit ist heute einige Meilen entfernt von GK104 Verfuegbarkeit.

Kurz es sieht grau aus dass sich in absehbarer Zeit etwas sehenswertes aendern wird.

Bis Mai kann ich noch warten und dann hoffen wir mal, dass sich was tut!

AnarchX
2012-04-20, 13:35:53
http://img.inpai.com.cn/article/2012/4/20/1ffa0952-f60a-4a2d-b1da-b83ea7b91ab0.jpg

http://www.inpai.com.cn/doc/hard/171400.htm

maximus_hertus
2012-04-20, 18:51:39
YES! Ich hoffe die 690er ist dann wirklich die nächste Karte, die kommt. Brauche was neues zum Spielen und ich könnte mir gut vorstellen, dass die 690 dann doch deutlich günstiger sein wird als 2 x 680. Schaun mer mal, was da kommt ;)

Coda
2012-04-20, 19:26:27
Wer will schon AFR-Crap...

Skysnake
2012-04-20, 20:02:24
sieht aber verdammt lang aus :ugly:

Ailuros
2012-04-23, 03:42:07
Wer will schon AFR-Crap...

Ich kann mir nicht vorstellen was Du damit meinst; fuer den supertollen Preis der GPU ist der alberne sw hack wohl gut bezahlt :biggrin:

dildo4u
2012-04-23, 21:12:01
Am 28 wird die 690 wohl angekündigt.

http://www.geforce.com/whats-new/articles/its-coming-countdown/

Zergra
2012-04-23, 21:36:20
Diesmal vor AMD ? Eher unwarscheinlich, dann können sie ja nichtmal über den Takt Regulieren.Ich glaube das wird die 670TI...

Ailuros
2012-04-23, 21:57:03
Diesmal vor AMD ? Eher unwarscheinlich, dann können sie ja nichtmal über den Takt Regulieren.Ich glaube das wird die 670TI...

Welche SKU wird die kleinere Nachfrage generieren (ueberhaupt wenn man den MSRP bedenkt)? Und ja NV hatte schon seit einiger Zeit vor die mGPU noch vor New Zealand vorzustellen.

boxleitnerb
2012-04-23, 21:59:53
Ich glaub bei der Effizienz müssen sie auch nix regulieren - das Teil wird wenigstens gleichschnell sein.

Ailuros
2012-04-23, 22:05:00
Ich glaub bei der Effizienz müssen sie auch nix regulieren - das Teil wird wenigstens gleichschnell sein.

Keine Ahnung, aber es ist auch nicht so dass die 590 um ein nennenswertes Prozentual schneller war als die 6990. Bei gezielter benchmark Auswahl kann sogar die eine oder die andere einen winzigen Vorsprung haben im Durchschnitt.

Effizienz macht mir keine Sorgen fuer die 690, wohl eher die moegliche alberne Verfuegbarkeit im Vergleich zur 7990 wenn immer diese dann erscheint.

Zergra
2012-04-23, 22:12:50
Welche SKU wird die kleinere Nachfrage generieren (ueberhaupt wenn man den MSRP bedenkt)? Und ja NV hatte schon seit einiger Zeit vor die mGPU noch vor New Zealand vorzustellen.
Okey das stimmt wohl auch wieder ;)

Die 6990 und die 590 waren fast auf einer ebene. Bin diesmal gespannt wielange die Mikroruckler aussehen und ob da mal etwas Abhilfe geschaffen wird :)

Godmode
2012-04-23, 22:32:29
Keine Ahnung, aber es ist auch nicht so dass die 590 um ein nennenswertes Prozentual schneller war als die 6990. Bei gezielter benchmark Auswahl kann sogar die eine oder die andere einen winzigen Vorsprung haben im Durchschnitt.

Der Preis der 690 wird sicher lustig! :ulol:

AnarchX
2012-04-23, 22:38:11
Es gibt schon Gerüchte in Richtung 999 USD. Wenn der Takt nur minimal sinkt und man vielleicht sogar 2x4GiB verbaut, wäre das ausgehend von dem Preis der 680 wohl nicht so unglaubwürdig.

btw.
Although the capacity of TSMC's 28nm process has already been fully booked up, Nvidia still plans to announce its GeForce GTX 670 and GTX 690 in early May with entry-level GeForce 610, GT 650 and GT630 to also appear later in May and GT 640 in June, the sources added.
http://www.digitimes.com/news/a20120423PD206.html

btw2:
http://we.pcinlife.com/data/attachment/forum/201204/23/182704dzqxubd2aqqbaan0.jpg
http://we.pcinlife.com/thread-1888469-1-1.html

Die obere Karte dürfte wohl die GTX 690 sein: 2x8-Pin und nur ein SLI-Konnektor.

Dural
2012-04-24, 09:58:46
mit 375Watt möglicher TDP könnte dies seit langem mal wieder eine fast vollwertige dual GPU karte werden.

boxleitnerb
2012-04-24, 10:06:48
Die müssen nur selektieren, die Spannung einen Tick senken und brauchen die Standardtaktraten imo gar nicht anrühren. In speziellen Fällen geht der Turbo dann vielleicht nicht so hoch wie auf einer GTX680, aber dafür gibts ihn ja, um das dynamisch festzulegen.

Dural
2012-04-24, 10:18:54
jep, ich bin mir sogar schon am überlegen ob ich seit langem mal wieder eine dual GPU karte kaufen werde, nett sieht sie ja auch noch aus :wink:

meine persönlich letzte war die 9800GX2, die war doch auch ganz hübsch und die GPUs gingen auch sehr gut mit 600@780MHz stock ohne spannungs erhöhung :)

boxleitnerb
2012-04-24, 13:22:35
AMD verschickt grüne Pillen, Nvidia verschickt Brechstangen :freak:

http://www.abload.de/thumb/nvidia_brechstange_1p6ee9.jpg (http://www.abload.de/image.php?img=nvidia_brechstange_1p6ee9.jpg)

http://www.tweakpc.de/news/24223/nvidia-brechstange-gegen-zombies-hinweis-auf-geforce-gtx-670-oder-690/

Was hat eine Brechstange mit Grafikkarten und Nvidia zu tun? Weiß Nvidia von einer kommenden Zombie-Invasion und will Redakteure vorbereiten oder ihnen nur einfach ein praktisches Tool im täglichen Umgang mit Hardware bieten?

Heute erreichte einige Redaktionen ein wirklich ungewöhnliches Paket von Nvidia. Inhalt war nicht etwa eine Grafikkarte oder irgend ein anderes Produkt, sondern eine Brechstange!

Das schwarze, klassische und abgenutzte "Half-Life" Modell ist mit der Aufschrift "For use in case of zombies or ... " versehen, worauf noch ein Nvidia-Logo folgt. Jeglicher weiterer Hinweis, wozu die Brechstange gut sein, soll fehlt allerdings.

Die Brechstange könnte also einfach ein Symbol für das nächste Produkt von Nvidia sein. Immerhin ist eine Grafikkarte wie die GeForce GTX 690 - zu der sich derzeit die Gerüchte verdichten - mit zwei Kepler-GPUs schon ein ziemlicher Brute-Force-Ansatz und hat damit irgendwo auch etwas von einer Brechstange, mit der man AMD ordentlich eins vor den Latz knallen könnte.

Andererseits deutet das "For use in case of zombies or Nvidia" eher auf den den Einsatz "gegen" ein Nvidia Produkt. Einen Einsatz gegen Nvidia-Mitarbeiter wird keiner ernsthaft in Erwägung ziehen, da diese bekanntlich nur selten Zombies sind.

(...)

Da wir aber auch ungern direkt brandneue Hardware-Produkte zerstören, dürfte es wohl um das öffnen einer Verpackung gehen. Vielleicht hat Nvidia die nächste GeForce Karte einfach so gut verpackt - um NDA Leaks vorzubeugen - dass nur wer eine passende Brechstange besitzt auch letztendlich an das Produkt kommt.

http://www.tweakpc.de/news/24223/nvidia-brechstange-gegen-zombies-hinweis-auf-geforce-gtx-670-oder-690/

Dural
2012-04-24, 13:33:50
http://www.geforce.com/whats-new/articles/its-coming-countdown/


kommt die 690 wirklich schon so früh :confused:



Da wir aber auch ungern direkt brandneue Hardware-Produkte zerstören, dürfte es wohl um das öffnen einer Verpackung gehen. Vielleicht hat Nvidia die nächste GeForce Karte einfach so gut verpackt - um NDA Leaks vorzubeugen - dass nur wer eine passende Brechstange besitzt auch letztendlich an das Produkt kommt.

;D;D;D

dildo4u
2012-04-24, 13:36:58
http://www.geforce.com/whats-new/articles/its-coming-countdown/


kommt die 690 wirklich schon so früh :confused:



Jo da davon noch weniger Karten als von der 680 verkauft werden,kann man also bringen ohne in große Lieferschwierigkeiten zu kommen.

Dural
2012-04-24, 13:54:31
wäre positiv, aber sicher nicht so schnell im verkaufsregal...


1000/1500MHz Ja/Nein? ;)

ich bin mir noch unschlüssig ob NV dies bringen kann, aber nahe an diesem wert wird es sicher sein. aber diesen takt mit selektierten chip / etwas geringerer spannung wie auf der 680 wäre schon der hammer!

fondness
2012-04-24, 13:54:32
Jo da davon noch weniger Karten als von der 680 verkauft werden,kann man also bringen ohne in große Lieferschwierigkeiten zu kommen.

Man kann nicht mal annähernd genügend GTX680 liefern und jetzt verschwendet man auch noch jeweils zwei hochwertige Chips für diese überflüssige Karte.

Duplex
2012-04-24, 14:00:28
Wozu auf die GK104 Dual Karte warten? Entweder 2x GTX680 oder GK110, alles andere macht aus meiner sicht keinen sinn.

Zergra
2012-04-24, 14:22:41
Man kann nicht mal annähernd genügend GTX680 liefern und jetzt verschwendet man auch noch jeweils zwei hochwertige Chips für diese überflüssige Karte.
Paper Launch....was anderes kann das ja fast garnicht werden...

N0Thing
2012-04-24, 15:26:08
Selbst hier im 3DCenter scheint es kaum Nutezr von Dual-GPU zu geben, einen echten Einfluß auf die Verfügbarkeit der GTX680 kann ich mir daher nicht vorstellen.

Hugo78
2012-04-24, 17:01:50
Man kann nicht mal annähernd genügend GTX680 liefern und jetzt verschwendet man auch noch jeweils zwei hochwertige Chips für diese überflüssige Karte.

Bei dem geringen Verbrauch der GTX 680, wird Nvidia nicht groß selektieren müssen für eine GTX 690.
Ein 680 SLI braucht schon weniger als eine GTX 590.

GTX 680 SLI = 432W
http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-gtx-680-sli-vs.-hd-7970-cf/7/#abschnitt_leistungsaufnahme

GTX 590 = 461W
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/17/#abschnitt_leistungsaufnahme

Für ein 7970 CF stehen dem 501W ggü.

Dural
2012-04-24, 17:08:16
Wozu auf die GK104 Dual Karte warten? Entweder 2x GTX680 oder GK110, alles andere macht aus meiner sicht keinen sinn.

weil auf den dual GPU karten bei NV meisten doch von der qualität her die bessten chips verbaut werden die die fertigung her gibt, von daher kann es schon eine bessere wahl sein.

boxleitnerb
2012-04-24, 17:10:14
http://www.guru3d.com/article/geforce-gtx-680-sli-review/4
http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_680_SLI/21.html

Hier verbrauchen 680 SLI und 590 praktisch dasselbe. Da sollte es wirklich locker möglich sein, zwei volle Chips mit vollem Takt auf ein PCB zu pappen. Das spart ja auch nochmal ein bisschen was.

Ein 7970-CF liegt satte 69W darüber bzw. 9W darunter (guru3d und tpu). Bei HardOCP liegen zwischen den beiden Lösungen je nach Spiel 0-70W:
http://www.hardocp.com/article/2012/03/28/nvidia_kepler_geforce_gtx_680_sli_video_card_review/8

Dural
2012-04-24, 17:12:08
das es kein problem wäre bestreiten ja auch keiner, oder?

die frage ist wohl ehner ob es NV auch macht oder nicht etwas energie effizienter arbeiten möchte als noch bei der 590 :)

boxleitnerb
2012-04-24, 17:18:50
Dann gewinnt man das Duell aber nicht mehr durchgehend. Ob sie das wollen?

Knuddelbearli
2012-04-24, 17:31:52
naja kommt auch drauf an wie sehr amd der Fertigung vertraut.

wenn man beid er Spannung bisschen konservativer rangeht dürfte amd auch nen Vollausbau rein bekommen bei minimalen 1 stelligen Mehrverbrauch im schnitt.

Sind dann aber imemr noch hinten ist für AMD also nicht so toll.

Godmode
2012-04-24, 18:37:59
Das Ding wird aber wohl exterm laut sein unter Last oder hat ein mGPU Board einen so verdammt besseren Kühler, der den zusätzlichen Verbrauch abführt?

Hugo78
2012-04-24, 23:09:52
CB bietet Hörbeispiele der GTX 500 und HD6900er incl. der mGPU Karten:
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/14/#abschnitt_kuehlung

So hat man nochmal den Vergleich Top sGPU vs. mGPU der jeweiligen Gen.

AnarchX
2012-04-28, 11:06:46
GIGABYTE GTX670 980MHZ 2048MB GDDR5, 980MHZ, 256 BIT, HDMI DVI-I, DVI-D, DP, PCIE3.0,DX11 [GV-N670OC-2GD] (http://www.pccanada.com/viewitem.asp?id=39928)

...umgerechnet ~320€

Hier nochmal für ~375€: http://www.czc.cz/-gigabyte-gtx-670-oc-2gb/107716/produkt
Der Kanadische Preise ist wohl ohne MwSt.

Da könnte sich eine Referenz-Version wohl preislich gegen die HD 7950 positionieren, was man auch von der Leistung erwartet.

V2.0
2012-04-28, 11:42:39
Die sieht immer leckerer aus.

Gaestle
2012-04-28, 14:51:07
Welche Leistungsdifferenz vermutet Ihr zwischen GTX670 und GTX680?

dildo4u
2012-04-28, 15:30:29
20% also 10% über GTX580.

http://www.3dcenter.org/news/die-ersten-spezifikationen-zur-geforce-gtx-670-ti

Gaestle
2012-04-28, 17:21:37
Ah, danke.

dildo4u
2012-04-28, 21:26:35
http://1.bp.blogspot.com/-LjKq2wn0xE0/T5wocOqZmkI/AAAAAAAACOY/HLJd-keBa14/s1600/specif.png

http://www.obr-hardware.com/2012/04/geforce-gtx-670660-ti-specs.html

AnarchX
2012-04-28, 22:08:47
Naja, teilweise durchaus wahrscheinlich. Aber den 6Gbps Speicher auf allen SKU klingt etwas unwahrscheinlich.

Mal sehen was NV in ~ 6h zeigt: http://www.geforce.com/whats-new/articles/its-coming-countdown/

Nightspider
2012-04-29, 04:29:04
In einer Minute wird Nvidias neue Karte vorgestellt, Timer läuft:

http://geforce.com/whats-new/articles/its-coming-countdown/

Knuddelbearli
2012-04-29, 04:31:42
timer waren auchs chonmal genauer ^^

Nightspider
2012-04-29, 04:33:34
Also ich glaub die Seite ist gerade total überlastet.

Knuddelbearli
2012-04-29, 05:05:31
bis jetzt nur marketing gebrabel und ne demo mit physix und tesselation

und laggt wie hölle

[dzp]Viper
2012-04-29, 06:59:13
1000$ für die GTX 690 :ulol:

AnarchX
2012-04-29, 07:05:50
GTX 690: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9274077#post9274077

Die gelbe Eule
2012-05-01, 02:57:39
Wir haben schon einige GTX670 von Gigabyte. Verkauft werden diese leider erst Mitte Mai.

Gaestle
2012-05-01, 10:57:07
Stehen die Specs auf der Packung?
Ist es die OC-Variante?

Godmode
2012-05-01, 11:21:18
bzw. gibts schon Infos zum Preis?

Die gelbe Eule
2012-05-01, 13:03:59
Stock, Taktraten standen noch nie bei Gigabyte auf der Verpackung, Preis noch nicht da weil bisher nicht angelegt. Aber ich schau morgen mal nach Infos.

V2.0
2012-05-01, 13:29:57
Kühler = GTX680?

Die gelbe Eule
2012-05-01, 13:59:24
Kannste von ausgehen, das PCB wird nicht viel anders sein der Leistungsaufnahme wegen.

hardtech
2012-05-01, 14:20:19
Naja mit 15% weniger Einheiten bei gleichem Takt = 15% weniger Leistung. Also irgendwo bei der 7950.
Wenn der Preis stimmt, könnte das eine gute Karte werden und die 580 leicht ersetzen, da leiser und ca 100w weniger Verbrauch.

Die gelbe Eule
2012-05-01, 14:26:49
Die 670er kann die 580 ersetzen, wenn sie denn auch die 3GB anbietet, bisher sind 1.5GB stock. Doch der Aufpreis zu einer gebrauchten 580er oder wenn man eh schon eine hat, finde ich unnötig. Da würden so einige über den fehlenden AHA-Effekt meckern.

dildo4u
2012-05-01, 14:30:07
Die 670er kann die 580 ersetzen, wenn sie denn auch die 3GB anbietet, bisher sind 1.5GB stock. Doch der Aufpreis zu einer gebrauchten 580er oder wenn man eh schon eine hat, finde ich unnötig. Da würden so einige über den fehlenden AHA-Effekt meckern.
Die 670 hat 2GB gegenüber 1.5 der 580,die Masse wird sich freiwillig nicht mehr so ein Strommonster einbauen.Die 2GB passen imo genau zur Leistung.

Gaestle
2012-05-01, 15:36:19
Naja mit 15% weniger Einheiten bei gleichem Takt = 15% weniger Leistung. Also irgendwo bei der 7950.



Wenn es wirklich 192ALUs weniger sind, beträgt der Unterschied bei den ALUs 12,5%. Und wenn Deine Rechnung tatsächlich eintritt, ist die 7970 noch in Reichweite, wenn man davon ausgeht, dass die GTX680 10% vor der 7970 liegt. Die Anzahl der TMUs ist wahrscheinlich ebenfalls 12,5% geringer, die Anzahl der ROPs wahrscheinlich gleich.

Aber der Takt ist sicherlich auch etwas geringer als bei der 680.

Also eher zwischen 7950 und 7970.

Knuddelbearli
2012-05-01, 15:43:37
na die letzten tests von cb und vor alem ht4u sehen jetzt eher einen gleichstand naja mal abwarten

7970 ist aber argh Unwahrscheinlich weill ja auch noch der Takt gut gesenkt wird

Skysnake
2012-05-01, 16:33:50
Wenn es wirklich 192ALUs weniger sind, beträgt der Unterschied bei den ALUs 12,5%. Und wenn Deine Rechnung tatsächlich eintritt, ist die 7970 noch in Reichweite, wenn man davon ausgeht, dass die GTX680 10% vor der 7970 liegt. Die Anzahl der TMUs ist wahrscheinlich ebenfalls 12,5% geringer, die Anzahl der ROPs wahrscheinlich gleich.

Aber der Takt ist sicherlich auch etwas geringer als bei der 680.

Also eher zwischen 7950 und 7970.
Unter der Annahme vielleicht grad noch, das Problem ist nur, die GTX680 ist nicht wirklich 10% schneller, sondern eher +/-1%

Gaestle
2012-05-01, 17:44:04
ich sehe es auch gerade. aber warum? hat amd an den treibern gebastelt? waren es beim release nicht etwa 10%?

Knuddelbearli
2012-05-01, 18:07:34
spiele auswahl siehe cb nachteste vor allem in neueren spielen ist amd scheinbar deutlich besser

V2.0
2012-05-01, 18:10:49
Und das ist für die 670 völlig egal.

dildo4u
2012-05-01, 18:14:52
spiele auswahl siehe cb nachteste vor allem in neueren spielen ist amd scheinbar deutlich besser
Diese Games sind ziehmliche nischen DX9(Da ist nix Modern) Games oder laufen schon schnell genug.Man kann diese Test's mit der Gameauswahl immer so drehen wie man bock hat,aber ein Arma 2 wird nur ein Bruchteil jucken wenn dafür BF3 besser läuft.

Knuddelbearli
2012-05-01, 18:24:48
na wenn es darum geht wieviele leute spiele furemark stone gigant oder 3dmark ?
und cod müsste dann ja an allererster stelle getestet werden ;-)


welches game gefält dir bei ht4u eigentlich nicht ?

mir fehlt da eigentlich nur ein blizzard game

y33H@
2012-05-01, 18:28:09
Stone Giant ist nicht von Futuremark. Was haben davon ab Benchmark-Programme mit Spielen zu tun? DX11-Titel gibt's genug.

Knuddelbearli
2012-05-01, 18:28:40
furemark nicht futuremark ^^

aber ok furemark als bench nimmt heute kaum noch jemand

bei ht4u wärs aber interessant gewesen da kann was nicht stimmen nur +10w für furemark da muss was abriegeln ... aber das ist hier offtopic

Die gelbe Eule
2012-05-01, 18:46:18
Die 670 hat 2GB gegenüber 1.5 der 580,die Masse wird sich freiwillig nicht mehr so ein Strommonster einbauen.Die 2GB passen imo genau zur Leistung.

Kenne eigentlich nur die 3GB Version der 580. Und wenn man nicht hauptsächlich spielt, aber dann gerne doch Leistung hat, sind die paar Euro an Strom extra nicht wild.

Thunder99
2012-05-01, 19:21:41
Das neue Risen 2 zieht für ein DX9 Spiel erheblich an der Performance. Wird sehr interessant wie da die GTX670 performend

Knuddelbearli
2012-05-01, 19:40:28
naja als vorzeige spiel ist es trotzdem nicht brauchbar grottiges aa die aufbloppende Bäume / Gestrüpp und massive Inkompatibilitäten ( vor allem mit nv )

Ailuros
2012-05-02, 08:22:38
Kenne eigentlich nur die 3GB Version der 580. Und wenn man nicht hauptsächlich spielt, aber dann gerne doch Leistung hat, sind die paar Euro an Strom extra nicht wild.

Wieso soll insgesamt in mainstream 3D selbst eine 3GB GTX580 mehr Leistung bieten als eine 2GB GTX670 oder verstehe ich hier etwas falsch?

Nuechtern gesehen sind die Leistungsunterschiede nicht besonders gross zwischen den beiden, nur dass die Uebertaktbarkeit auf der 670 besser sein wird. Sonst haengt es eher vom Preis ab als allem anderem. Dass eine 3GB/580 so lange sie noch erhaeltlich sein wird billiger ist als eine 670 beim launch will ich ernsthaft bezweifeln, ergo ist das insgesamte Paket von der 670 um einiges besser ausser irgend jemand fummelt mit irgendwelchem Zeug ausserhalb 3D rum.

hardtech
2012-05-02, 09:40:31
Wenn es wirklich 192ALUs weniger sind, beträgt der Unterschied bei den ALUs 12,5%. Und wenn Deine Rechnung tatsächlich eintritt, ist die 7970 noch in Reichweite, wenn man davon ausgeht, dass die GTX680 10% vor der 7970 liegt. Die Anzahl der TMUs ist wahrscheinlich ebenfalls 12,5% geringer, die Anzahl der ROPs wahrscheinlich gleich.

Aber der Takt ist sicherlich auch etwas geringer als bei der 680.

Also eher zwischen 7950 und 7970.

naja es kommt drauf an, von welcher warte du das siehst. na klar ist 670 12,5% langsamer, wenn nur die shaderanzahl um 192 gesenkt wird und alles andere gleich bleibt.
rechnest du 1536/1344 hast du beinahe 15%, die die 680 schneller als die 670 ist.

gehe ich jetzt nach diesem schema:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/12/#abschnitt_leistung_mit_aaaf

und schaue mich bei 1600p 4aa/16af um, so ist die 680 rund 35% vor der 580.
die 7950 hat nur noch 19% und die 7970 nur noch 1%.

ergo wird die 670 schneller als eine 7950 sein (das muss alleine schon aus prestige gründen drin sein! - nv wird den takt so drehen, dass das auch zutrifft!) und die 7970 ist ein wenig aus der reichweite.

je nachdem, welches game man dann betrachtet, kommen hier und da paar % hinzu oder fallen weg. absolut gesehen ist der unterschied nicht so gross und egalisiert sich spätestens mit dem release der nächsten graka generation.
was also mit einer 670 ruckelt, wird es mit aller voraussicht auch mit einer 680 tun.

allerdings sieht man schon, dass die 580 mit der einführung der 670 ihre daseinsberechtigung verliert:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/17/#abschnitt_leistungsaufnahme
sie frisst idle etwa 20w weniger und bei last ca. 70w weniger.

es kann also einzig und allein nur am preis scheitern.
aber mittelfristig hat die 570 die 480 auch abgelöst :)

ich würde zuschlagen bei einem custom design mit leiser kühler bei idle/last und bei einem preis unter 250 eur.

Leonidas
2012-05-02, 12:17:31
GTX670: 915/980/3000 MHz für 399$
http://www.3dcenter.org/news/die-finalen-spezifikationen-zur-geforce-gtx-670

MartinB
2012-05-02, 12:18:28
http://www.blogcdn.com/www.engadget.com/media/2012/05/geforce-670-final.jpg

Gaestle
2012-05-02, 12:30:49
naja es kommt drauf an, von welcher warte du das siehst. na klar ist 670 12,5% langsamer, wenn nur die shaderanzahl um 192 gesenkt wird und alles andere gleich bleibt.
rechnest du 1536/1344 hast du beinahe 15%, die die 680 schneller als die 670 ist.

Ich gebe Dir mit dem Rest Deines postes Recht, aber bei der Prozentrechnung fühle ich mich genötigt, kurz den Oberlehrer raushängen lassen. Sorry im Voraus. :freak:


Naja mit 15% weniger Einheiten bei gleichem Takt = 15% weniger Leistung.

"weniger Einheiten" bedeutet in diesem Satzzusammenhang:
GTX680 = 100% => GTX670 = 85% von GTX680.

Andersrum gerechnet bedeutet das bei diesem Beispiel, dass die GTX680 17,6% mehr Einheiten hat, als die GTX670. M.a.W.: in diesem Beispiel hat die 670 nur 1306 ALUs.

Wenn die GTX680 aber die 100% sind, sind 1344 ALUs 87,5% davon, also 12,5% weniger.

1536/1344 gerechnet bedeutet, dass 1344 (670) die 100% sind.
Dein urspünglicher Post bezieht sich anhand des Satzbaus aber auf die 680 als 100%.


15%, die die 680 schneller als die 670 ist.


Stimmt und stimm dann auch wieder mit den 12,5% überein, die die 670 weniger als die 680 hat.

Isch 'abe fertig ;D .

V2.0
2012-05-02, 12:47:37
http://www.blogcdn.com/www.engadget.com/media/2012/05/geforce-670-final.jpg

Bilder von der Karte?

Edit gefunden: DHE Kühler

Iruwen
2012-05-02, 15:06:32
http://www.blogcdn.com/www.engadget.com/media/2012/05/geforce-670-final.jpg

Fail :D

Godmode
2012-05-02, 15:25:07
Fail :D

Lol, hab ich vorher gar nicht gecheckt und mich gefragt was am Display Port so besonders sein soll ^^

Doomi
2012-05-02, 15:35:14
rofl.. ist mir auch erst beim 3. Mal aufgefallen.. sehr köstlich ..

Skysnake
2012-05-02, 17:04:54
LOL ;D Mir auch ;D

hardtech
2012-05-02, 19:01:05
@gaestle
danke :)

@topic
dispaly ist natürlich nett. omg, das marketing.

AnarchX
2012-05-02, 19:53:44
Nicht gerade viel PCB für $399:

http://we.pcinlife.com/data/attachment/forum/201205/02/224240h4tde2ooj47jyjeu.jpg

http://we.pcinlife.com/data/attachment/forum/201205/02/224241fmfzu9k7k5k2v2zh.jpg

http://we.pcinlife.com/thread-1894715-1-1.html

... und eine seltsame wechselseitige Speicherbestückung.

Auch bei der MSI sieht es so aus: http://www.techpowerup.com/img/12-05-01/12b.jpg
http://www.techpowerup.com/165252/MSI-GeForce-GTX-670-Pictured-Up-Close.html

Da hat man gleich das Spar-PCB-Design der GTX 560 Ti für seine neue High-End-Karten genutzt. :ugly:

dildo4u
2012-05-02, 20:03:26
Interresant das man so ein großen Kühler nutzt bei dem TDP hätte man weiter sparen können imo.Die 560Ti dürfte sogar ein Tick mehr verbrauchen als die 670,war aber mit nem kleineren (NV)Kühler schon recht leise.

AnarchX
2012-05-02, 20:05:57
Da dürfte es später wirklich sehr kurze Axial-Versionen geben.

V2.0
2012-05-02, 20:14:49
Vielleicht haben sie nun ja eine leise DHE Version. Das wäre auch eine Art "First" auf dem Markt.

Hugo78
2012-05-02, 20:19:11
Natürlich ist der Anblick ungewohnt, aber bei einem typischen Lastverbrauch von 130-140W braucht die GTX 670 auch kein größeres PCB.
Man hätte aber bei dem DHE Design dem Lüfter auch ruhig beide Seiten offen lassen können.

AnarchX
2012-05-02, 20:26:39
Aber bei einer Enthusiasten-Karte, welche sie bei einer UVP von $399 ist, kann man schon ein hochwertigeres PCB erwarten und nicht etwas vergleichbares zu <150€ Karten.
Ähnlich wie bei der 7950, die teilweise bis zu 50% OCing erlaubt.

hardtech
2012-05-02, 20:35:46
Also die Kepler taugen nur was mit Custom Kühler.
Nov macht richtig Gewinn, bei der Karte mit dem Verbrauch.
Die könnten die genausogut für 249 anbieten.

kunibätt
2012-05-02, 20:41:03
Ist übrigens sehr nett den 680er-Käufern gegenüber, dass man auf der 670 problemslos einen Alternativkühler nutzen kann und bei der 680 nicht......

Hugo
2012-05-02, 21:27:17
Aber bei einer Enthusiasten-Karte, welche sie bei einer UVP von $399 ist, kann man schon ein hochwertigeres PCB erwarten und nicht etwas vergleichbares zu <150€ Karten.
Ähnlich wie bei der 7950, die teilweise bis zu 50% OCing erlaubt.


für mich sieht das "Kurze" auch hochwertig aus.
GK104 ist halt nen Performancechip wie man schön an dem PCB sieht ;)

Hugo78
2012-05-02, 22:08:02
Ist übrigens sehr nett den 680er-Käufern gegenüber, dass man auf der 670 problemslos einen Alternativkühler nutzen kann und bei der 680 nicht......

Arctic Twin Turbo 2 und Thermalright Shaman passen auf der GTX 680.
- http://www.pcgameshardware.de/aid,874878/Geforce-GTX-680-welche-VGA-Kuehler-passen-Test-Arctic-Twin-Turbo-2-Thermalright-Shaman/Grafikkarte/Test/

Skinner
2012-05-03, 11:52:57
Karten wird es mit 1,5GB, 2GB und 3GB geben!

V2.0
2012-05-03, 12:15:29
Karten wird es mit 1,5GB, 2GB und 3GB geben!

bei einem 256er Bus?

Mancko
2012-05-03, 12:18:22
Also die Kepler taugen nur was mit Custom Kühler.
Nov macht richtig Gewinn, bei der Karte mit dem Verbrauch.
Die könnten die genausogut für 249 anbieten.

Hm? Das Referenzdesign für die GTX680 ist doch in Ordnung. Klar - leiser geht es immer aber vergleichen zur Konkurenz ist das doch um einiges besser gelungen. Bei der GTX670 muss man noch abwarten aber da die Leistungsaufnahme niedriger ist kann es ja sein, dass auch hier das Referenzdesign ausreicht.

Skinner
2012-05-03, 16:21:44
bei einem 256er Bus?

k.a. aber glaube mir, es wird sie geben ;) Sind bei mir auf der Arbeit ja schon gelistet. Mehr kann ich nicht sagen.

y33H@
2012-05-03, 16:34:09
Gab's bei der GTX 550 Ti auch, wird halt lahmer.

AnarchX
2012-05-03, 19:54:01
Bei 256-Bit könnte man den zusätzlichen Speicher mit der halben Bandbreite anbinden.

AnarchX
2012-05-04, 16:03:04
http://we.pcinlife.com/data/attachment/forum/201205/04/2155528kz9hfykxtwkhjwx.jpg
http://we.pcinlife.com/thread-1896133-1-1.html

Sind noch ein paar 3DMark-Werte im Link.

boxleitnerb
2012-05-04, 16:28:51
Um Gottes Willen, was ist DAS denn? Hat Nvidia beim PCB die Hälfte vergessen? ;D

Hugo78
2012-05-04, 16:46:09
Effizienz ist nicht unbedingt immer sexy. *g*

Iruwen
2012-05-04, 16:48:42
Zwei Karten hintereinander auf 'nem Riser Board, Octo-SLI!

dargo
2012-05-04, 16:48:51
http://we.pcinlife.com/data/attachment/forum/201205/04/2155528kz9hfykxtwkhjwx.jpg

Und dafür verlangen die 399$?! :crazy:

Botcruscher
2012-05-04, 16:54:52
Halt die typische 28nm Abzocke. Das PCB ist klar <100€.

boxleitnerb
2012-05-04, 16:57:41
Aber trotzdem 2x6pin ist auf so einem kleinen Ding schon komisch.

Zergra
2012-05-04, 17:00:35
Aber trotzdem 2x6pin ist auf so einem kleinen Ding schon komisch.
man soll jedenfalls an den Anschlüssen erkennen um was es sich handelt... sonst verwechselt man es noch mit einer 650Ti oder so :confused:

VooDoo7mx
2012-05-04, 17:02:30
Und dafür verlangen die 399$?! :crazy:
Jo länger ist besser.
Das weiß schon die Frau und auch der Benchmark Balken.

Coda
2012-05-04, 17:06:26
Naja, sie können halt. Das ist ja nicht ihr Fehler.

Halt die typische 28nm Abzocke. Das PCB ist klar <100€.
Allein der Chip und der GDDR5-Speicher kosten mehr.

Botcruscher
2012-05-04, 17:10:38
Kann zumindest für den Chip sein. Trotzdem ist die Karte bis zum letzten Cent Kosten-optimiert.

dargo
2012-05-04, 17:27:21
Aber trotzdem 2x6pin ist auf so einem kleinen Ding schon komisch.
Warum? Die 560TI Green Edition hat auch 2 davon.
http://www.club-3d.com/system/html/cgnx-xt56024g_3-3fce784e.jpg

Für ~175W TDP bei der GTX670 werden halt zwei benötigt.

V2.0
2012-05-04, 18:44:26
Da bin ich auf die Herstellerkarten gespannt. Wobei das PCB sicher ziemlich optimal für einen DHE Kühler ist.

san.salvador
2012-05-04, 18:58:19
http://we.pcinlife.com/data/attachment/forum/201205/04/2155528kz9hfykxtwkhjwx.jpg
http://we.pcinlife.com/thread-1896133-1-1.html

Sind noch ein paar 3DMark-Werte im Link.
Das könnt auch meine Soundkarte sein. :ugly:

harzer_knaller
2012-05-04, 19:35:41
Is auf dem PCB der 670 noch Platz für 2 weitere GB VRam?

myrken
2012-05-04, 20:01:15
Palit GTX 670 angeblich lieferbar. Für stolze 429 Ocken.

http://www.bora-computer.de/product_info.php?products_id=23151
http://geizhals.at/de/772990

V2.0
2012-05-04, 20:11:42
Über solche Angebote braucht man wohl nicht diskutieren...

Coda
2012-05-05, 09:31:25
Wieso, offenbar ist sie doch schneller als eine 7950?

Godmode
2012-05-05, 09:36:48
Halt die typische 28nm Abzocke. Das PCB ist klar <100€.

Und kaufen muss man es trotzdem weil es nix schnelleres gibt...

Vor ein paar Wochen hab ich noch gegen mGPU und GTX 680 gewettert und jetzt dann doch ne 690 bestellt, weils ja nix besseres gibt.
Und mit GK110 kann man dann schon bald wieder Geld ausgeben und es wird uns sicher sehr schmackhaft erscheinen.

Finde die aktuelle Situation einfach nur traurig...

AnarchX
2012-05-05, 09:39:24
Wieso, offenbar ist sie doch schneller als eine 7950?

Sind aber fast 20% über dem UVP. Mit dem Mini-PCB sollte wohl ein Preiskampf in Richtung 300€ und weniger möglich sein.

Imo sollte man bei AMD für den Preiskampf ein paar 256-Bit Versionen auflegen, 6Gbps Speicher wird schon jetzt auf der 7970 verbaut:
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-gtx-680/18/#abschnitt_gtx_680_vs_hd_7970_bei_gleicher_speicherbandbreite
Ein gleichzeitiges Anheben des GPU-Taktes sollte den Leistungsverlust im Durchschnitt ausgleichen.

Hugo78
2012-05-05, 10:04:15
Das Kurz-PCB des Ref.designs könnte nicht nur für einen kommenden Preiskampf stehen, sondern auch den AIBs helfen sich leichter vom Ref.Design abzusetzen.
Das hatte Nvidia seinen AIBs ja eher erschwert mit den guten Ref.designs zuletzt, da werden sich sicher ein paar AIBs beschwert haben... :usweet:

Natürlich spricht gegen meine Theorie, dass dieses PCB doch recht optimal für DHE ausschaut, grade mit Blick auf die zuerwartende,
niedrige TDP und dass noch keine AIB eigenen Designs im Netz aufgetaucht sind.
Auf der anderen Seite bedienen 660 & 670 das für Spieler interessanteste Segment. Es wäre dumm hier Zeit verstreichen zulassen.

Gaestle
2012-05-05, 10:18:12
Solange die Kapazitäten nicht deutlich steigen, glaube ich nicht so recht an einen Preiskampf.

Ich denke eher, wie sonst auch, werden auch jetzt die Kosten minimiert. Und wenn der Chip so ein kleines PCB erlaubt, warum dann unnötig viel Material verbauen?

V2.0
2012-05-05, 12:00:15
Wieso, offenbar ist sie doch schneller als eine 7950?

Ich meinte Shops, die solche Karten vor Launch listen..

z3ck3
2012-05-05, 14:05:57
Für mich sieht die aktuelle Marktlage eher nach ner Absprache von AMD und NV aus :D

Dural
2012-05-05, 14:26:14
die wollen halt mal wieder bisschen geld verdienen, gerade in den 55nm zeiten sah das ja nicht so gut für AMD und NV aus.


das könnte für NV ein richtig gutes Jahr werden, wenn man sich die Aktuellen und zukünftige Produkte zu diesen Preisen ansieht...

Zergra
2012-05-05, 15:35:36
das könnte für NV ein richtig gutes Jahr werden, wenn man sich die Aktuellen und zukünftige Produkte zu diesen Preisen ansieht...
Bei der derzeitigen Verfügbarkeit glaube ich nicht daran, und wenn die steigt sinken auch die Preise, das nächste Jahr sollte wohl besser sein da dann die 22nm Produktion besser läuft und die Entwicklungskosten verschwunden sind.

V2.0
2012-05-05, 16:20:45
28nm nicht 22nm

san.salvador
2012-05-05, 21:25:47
Sind aber fast 20% über dem UVP. Mit dem Mini-PCB sollte wohl ein Preiskampf in Richtung 300€ und weniger möglich sein.

Nv hatte das mit Kepler sicher auch vor. Dann aber haben sie gesehen, wieviel Geld AMD für wieviel Leistung verlangt, eine Woche durchgelacht, und dann ein paar Hunderter auf den Preis aufgeschlagen.
Danke AMD. :ufinger:

Spasstiger
2012-05-06, 13:26:16
Danke AMD. :ufinger:
Niemand hindert NV daran, zuerst den Preiskampf zu starten, was sonst meist die Rolle von AMD war. Für die hohen Preisen der GTX 670 ist Nvidia verantwortlich, nicht AMD.

Mancko
2012-05-06, 13:28:03
Niemand hindert NV daran, zuerst den Preiskampf zu starten, was sonst meist die Rolle von AMD war. Für die hohen Preisen der GTX 670 ist Nvidia verantwortlich, nicht AMD.

Der Platzhirsch muss nie den Preiskampf starten. Der Kunde ist bereit für Nvidia Produkte mit gleicher Leistung mehr Geld zu bezahlen, was auch gerechtfertigt ist.

AnarchX
2012-05-06, 13:29:13
AMD hat mit den 7900ern die potentiell teureren Karten. Fragwürdiger dagegen sind die 7800er.

Wenn TSMC in der nächsten Zeit den 28nm Output verdoppeln kann, sollten die Preise wohl deutlicher sinken.

Gaestle
2012-05-06, 16:55:04
Hoffentlich dauert es nicht mehr lange bei TSMC. Alles hängt an denen.

Schaffe89
2012-05-08, 00:46:20
Dann aber haben sie gesehen, wieviel Geld AMD für wieviel Leistung verlangt, eine Woche durchgelacht, und dann ein paar Hunderter auf den Preis aufgeschlagen.


Ich glaube eher Nvidia war überrascht, wie schnell AMD ein komplettes Profukfolio auf den Markt gebracht hat.

Was usn du da erzählen willst, ist natürlich totaler Unsinn.
Der Grund für die hohen Preise sind die Verfügbarkeit, sowie die Yield Raten, ganz sicher nicht AMD, oder meinst u, wenn Nvidia die Karte als erster herausgebracht hätte, dass man dann ohne GK110 mit einem MSRP von 299 Dollar eingestiegen wäre? Das ist doch der Witz des Tages.
Nvidia hat mit Sicherheit schon mitte letzten Jahres geplant den kleinen Kepler einige Zeit als High End zu vermarkten, ganz einfach weil der große Kepler mit GPGPU nicht rechtzeitig fertig sein wird um gegen AMD anzustinken und das haben sie abgesehen von GPGPU Markt mit nem mini Performancevorprung von 0 bis 5% auch gut hinbekommen, mit einem reinen Gamerchip.

Ailuros
2012-05-08, 10:45:52
Ich glaube eher Nvidia war überrascht, wie schnell AMD ein komplettes Profukfolio auf den Markt gebracht hat.

Ueberrascht nicht unbedingt. Selbst als beide IHVs Anfang 2011 immer noch auf 28nm GPU Verfuegbarkeit in Q3/4 11' hofften, war es NV klar dass AMD zumindest um ein Quartal Vorsprung haben wird.

Was usn du da erzählen willst, ist natürlich totaler Unsinn.
Der Grund für die hohen Preise sind die Verfügbarkeit, sowie die Yield Raten, ganz sicher nicht AMD, oder meinst u, wenn Nvidia die Karte als erster herausgebracht hätte, dass man dann ohne GK110 mit einem MSRP von 299 Dollar eingestiegen wäre? Das ist doch der Witz des Tages.
Nvidia hat mit Sicherheit schon mitte letzten Jahres geplant den kleinen Kepler einige Zeit als High End zu vermarkten, ganz einfach weil der große Kepler mit GPGPU nicht rechtzeitig fertig sein wird um gegen AMD anzustinken und das haben sie abgesehen von GPGPU Markt mit nem mini Performancevorprung von 0 bis 5% auch gut hinbekommen, mit einem reinen Gamerchip.

Nach AMD selber sind die Preise so hoch geraten weil die 28nm tools viel zu teuer waren. Natuerlich ist ein gesunder Anteil beider IHVs Preisgebung Marketing (hohe Preise decken miserable - variabel zwischen den beiden - Verfuegbarkeit ziemlich gut), aber so ganz ohne duerfte das vorige am Ende doch nicht sein.

Ich persoenlich befuerworte keineswegs die Preisgebung beider Seiten, aber wenn man zu diesem Zeitpunkt Finger deuten will dann kommt mein erster Finger auf AMD weil sie mir nichts dir nichts so frueh wie moeglich launchen wollten und direkt danach der zweite Finger an NV's marketing die so laecherlich naiv waren zu glauben dass sie anfangs eine GK104 mit einem $299 auftischen koennen. Selbst wenn sie damit hypothetisch keine roten Zahlen generiert haetten, haette es zumindest jemand bei NV einleuchten sollen dass man mit solch einem MSRP eine brutale Nachfrage generieren wuerde die sie nie im Leben gedeckt haetten.

Schwamm drueber, die brennende Frage fuer mich ist eher was beide IHVs fuer 20nm genau vorhaben. Werden beide etwas abwarten bis Kosten/yields/Kapazitaeten sich normalisieren oder legt sich der trend fest dass User anfangs $500-1000 Wucherpreise fuer GPUs bezahlen muessen? In einer Welt wo fast jegliches andere Produkt das verkauft wird mit brutalen Rabattraten ankommt, sind solche Strategien durchaus laecherlich.

Die gelbe Eule
2012-05-08, 16:01:43
Verkaufsstart Ende Mai. Wir haben schon gut eine Woche ein paar Gigabyte rumliegen. Sind OC Versionen, blaues PCB, Länge würde ich mal sagen 27-29cm, TripleFan, 2GB RAM. Preis wohl bei ~340€.
Werden mal eine auspacken wegen Stromanschlüssen und anderen Auffälligkeiten.

*edit*

Die Stromanschlüsse sind 8+6, nebeneinander, obwohl das PCB auch Lötstellen hat, um sie übereinander zu platzieren. Auffällig ist ein Chip auf der Rückseite des PCBs neben den Stromanschlüssen, welcher "gesockelt" aufgelötet ist, wie NVIO aber kleiner. Funktion, kein Plan. Ansonsten sieht die Karte eher unspektakulär aus. Würde gerne Fotos machen, aber Handyverbot ;)

hardtech
2012-05-08, 22:54:57
340 EUR wird schnell sinken nach gk110 Release. AMD und NV müssten doch bei den Preisen gute Gewinne infahren?! PCs von 150 EUR Graka und etwas höherer Chip preis wg schlechter Ausbeute könnten auch für 200 EUR verkauft werden.

schreiber
2012-05-08, 23:01:21
Ailuros, es war doch schon ziemlich früh klar, dass GK104 als GTX 680 auf den Markt kommen wird. Und damit war doch wohl nvidia auch genau so lange klar, dass erstmal GK104 für viel Geld UND als High End über den Tisch gehen wird.
Oder sehe ich das falsch?
Eine kurzfristige, überraschende Planung scheint es bei nvidia bezüglich GK110 nicht zu geben. Sie wussten, dass sie das Ding lange nicht aus der Garage bekommen.

V2.0
2012-05-09, 07:12:36
http://semiaccurate.com/2012/05/08/nvidias-five-new-keplers-raise-a-red-flag/

Sehr spannend. Also kann man davon ausgehen, dass die Verfügbarkeit von GK104 lächerlich bleiben wird und man dazu einen Chip mit einem Designfehler kauft. Was das zu GK110 sagt dürfte jedem klar sein. -> irgendwann 2013

Es ist auch bemerkenswert, dass wohl alle GK-GPUs von dem Problem betroffen sind, dass auf eine mangelnde technische Kompetenzt von NV hindeutet. Charlie mal wieder mit der ungeschmickten Wahrheit. NV GPUs würde ich nicht kaufen.

boxleitnerb
2012-05-09, 07:17:01
Designfehler? Was ein Quatsch. Die Chips funktionieren, mehr braucht der Kunde nicht zu wissen. Ob die Yields wirklich so schlecht sind wie Charlie da an die Wand malt, sei auch mal dahingestellt. Schaut euch mal die Steam Statistik an. Im nächsten Monat wird die 680 die 7970 überrundet haben (aktuell 0.22% zu 0.36%). Wie soll das möglich sein, wenn man die Chips mit der Lupe suchen soll?

Undertaker
2012-05-09, 08:10:37
Die Lieferbarkeit der 680 ist mittlerweile gar nicht mal so schlecht. In Deutschland sind laut Geizhals 17 Modelle bei insgesamt 60 Händlern ab Lager lieferbar - sicherlich schlechter als bei der schon viel länger vorgestellten 7970, aber man bekommt problemlos unter 500€ eine Karte.

Durch die gleichzeitige Vorstellung mit den Mobilmodellen hat man die Situation für die Desktopkarten sicher auch nicht leichter gemacht, bei knappen Kapazitäten dürften die OEMs und damit meist andere Modelle als der GK104 sicher bevorzugt werden. Dementsprechend sind auch schon einige Geräte mit den GT 640/650M (GK107) recht gut lieferbar.

san.salvador
2012-05-09, 08:22:25
Allein in meiner Stadt (~250k Einwohnerz) könnte ich jetzt loslaufen und drei 680er abholen. So schlimm schauts nicht aus.

Godmode
2012-05-09, 09:00:33
IMHO das typische Charlie Geschwätz. Ein Schwarz-Weiß-Denker 1. Klasse. War ja in der Vergangenheit nicht anders. So kann man halt auch viele Pagehits bekommen -> Polarisierung ;)

Hugo78
2012-05-09, 09:30:54
Yup, noch vor ein paar Wochen hieß es, 8 von 10 TSMC Kunden würden über schlechte Yield klagen,
und jetzt ist es plötzlich Nvidia allein, die zu blöd wären mit dem Prozess umzugehen.
Typischer Char_LIE Bullshit, genau wie dass GK104 nur mit PhysX schneller wäre und mit A3 Stepping käme.

Skysnake
2012-05-09, 10:16:22
http://semiaccurate.com/2012/05/08/nvidias-five-new-keplers-raise-a-red-flag/

Sehr spannend. Also kann man davon ausgehen, dass die Verfügbarkeit von GK104 lächerlich bleiben wird und man dazu einen Chip mit einem Designfehler kauft. Was das zu GK110 sagt dürfte jedem klar sein. -> irgendwann 2013

Es ist auch bemerkenswert, dass wohl alle GK-GPUs von dem Problem betroffen sind, dass auf eine mangelnde technische Kompetenzt von NV hindeutet. Charlie mal wieder mit der ungeschmickten Wahrheit. NV GPUs würde ich nicht kaufen.
Naja, ich wäre bei diesem Thema schon eher vorsichtig und würde das nur mit der Beiszange anfassen.

Für mich lehnt sich Charlie da schon weit aus dem Fenster.

Iruwen
2012-05-09, 10:53:37
Seine letzten beiden Sätze machen das Trolling doch offensichtlich...

Mancko
2012-05-09, 11:57:11
Die Steam Statistik und die meissten Preisvergleiche zeigen das Gegenteil. Was durchaus stimmt ist, dass es in den USA ein Lieferproblem gibt. Die Nachfrage dort ist wohl nochmal um einiges höher. In Deutschland gibt es überhaupt kein Probleme eine GTX680 zu bekommen. Hinzu kommen die parallel produzierten Mobile Chips. Ich denke es liegt im allgemeinen an den begrenzten Kapazitäten bei TSMC, die durch die Vielzahl der Produkte(sowohl innerhalb der Nvidia Palette als auch Firmen- und Produktübergreifend) geshared werden müssen. Dazu kommt noch eine höhere Nachfrage und schon kommt es zu Engpässen. Ich denke man kann davon ausgehen, dass die Nachfrage nach der GTX680 höher ist als nach der HD7970 und man darf auch nicht vergessen, dass viele nach dem HD7970 Launch auf die GTX680 gewartet haben um zu vergleichen. Und das führt eben dazu, dass die Nachfrage aktuell konzentriert auftritt.

Ailuros
2012-05-09, 14:07:04
Ich hab die letzten paar Seiten zwar nicht verfolgt, aber launch innerhalb von ein paar Tagen.

Ailuros, es war doch schon ziemlich früh klar, dass GK104 als GTX 680 auf den Markt kommen wird. Und damit war doch wohl nvidia auch genau so lange klar, dass erstmal GK104 für viel Geld UND als High End über den Tisch gehen wird.
Oder sehe ich das falsch?
Eine kurzfristige, überraschende Planung scheint es bei nvidia bezüglich GK110 nicht zu geben. Sie wussten, dass sie das Ding lange nicht aus der Garage bekommen.

GK104 war innerhalb Grenzen schon immer als der eigentliche Kepler launch geplant. Anders performance zuerst und high end spaeter. Kann sein dass NV im Januar noch hoffte dass TSMC ihnen noch extra Kapazitaeten goennt und dachten so sie koennen GK104 bei einem niedrigem Preis verdonnern.

Die obrigen "Grenzen" sind der eigentliche Takt; anfangs als Zwischentuete zwischen TahitiPRO und XT geplant und am Ende mit etwas Takt-zuschuss als direkte Konkurrenz zur XT.

"High end" ist fuer Tahiti und GK104 momentan nur der Preis und eben eine geschickte Vermarktung fuer beide um immer noch begrenzte Verfuegbarkeit zu decken. Je mehr AMD mit der Zeit ihre 7900 Preise reduzieren wird, desto mehr wird die Nachfrage fuer diese steigen.

dildo4u
2012-05-09, 14:27:13
TSMC: Bekommt Nvidia bei 28-nm-Fertigung Priorität?

http://www.computerbase.de/news/2012-05/tsmc-bekommt-nvidia-bei-28-nm-fertigung-prioritaet/

Ailuros
2012-05-09, 14:45:41
TSMC: Bekommt Nvidia bei 28-nm-Fertigung Priorität?

http://www.computerbase.de/news/2012-05/tsmc-bekommt-nvidia-bei-28-nm-fertigung-prioritaet/

Da NV wirklich einen SoC test-chip zur Samsung foundry geschickt hat, kann es durchaus sein dass es dahinter steckt. Es ist auch nicht besonders unueblich dass NV mit solchen Turnereien "droht" um bessere deals zu erreichen. Das dumme ist hier nur dass SoCs und Grafik-chips nicht die gleichen Prozesse benutzen, ergo kann man sich wohl schwer sicher sein (und da auch Qualcomm erwaehnt wird) dass es sich wirklich um 28HP zusaetzliche Kapazitaeten handelt.

Wayne ist zu seinem Grossteil auf jeden Fall nicht 28HP afaik ;)

Zergra
2012-05-09, 16:55:32
http://geizhals.at/de/772990
Ab 380€ gut sie ist noch nicht auf Lager, aber wenn sie wirklich fast so schnell ist wie die 7970 sollte sie bei der auf jedenfall was am Preis tun :)

Schnitzl
2012-05-09, 23:08:33
http://geizhals.at/de/772990
Ab 380€ gut sie ist noch nicht auf Lager, aber wenn sie wirklich fast so schnell ist wie die 7970 sollte sie bei der auf jedenfall was am Preis tun :)

KM lagernd :D
hmmmm sidegrade von 7950OC? .... verdammter Basteldrang :freak:

redfirediablo
2012-05-09, 23:54:42
Ich finds lustig wie sich wieder alle über Charlie aufregen aber eigentlich selber keine Ahnung haben.

Hier weiß keiner wie viele Karten wirklich ausgeliefert wurden (!) Aus Preisvergleich und anderen Zeugs könnt ihr nicht ansatzweise die Stückzahlen abschätzen.

Fakt ist:

Nvidia hat mit dem 499$ MSRP einen PR Stunt in den USA abgeliefert, weil sie nicht ansatzweise ausreichend Karten liefern können. Die Karte ist quasi nicht zu bekommen.

In Deutschland sieht das anders aus, was aber auch daran liegt, das die Händler sich nicht zu schade sind entsprechende Aufpreise zu verlangen. Deshalb sind die Karten verfügbar, nicht mehr und nicht weniger. Auf die Stückzahlen kann man auch dann nicht schließen (!).

Insgesamt sind sich 7970 und GTX680 absolut ebenbürtig. Die eine hat nen geringeren Stromverbrauch und ist tendentiel @ stock minimal schneller, die andere lässt sich besser Übertakten und hat die bessere compute Leistung. Dazu kommt halt der Nvidia Fan Bonus aber von der reinen Attraktivität her unterscheiden sich beide Karten nicht großartig.

In Anbetracht dessen, das in Deutschland eine 7970 schon ab 385 Euro lagernd zu bekommen ist, während man für eine GTX 680 schlappe 480 Euro legen muss, gehe ich davon aus, das weiterhin auch in Deutschland mehr 7970 verkauft werden als GTX 680 und dementsprechend, genauso wie in den USA, die Stückzahlen der GTX 680 äußerst gering sind.

dildo4u
2012-05-10, 00:01:01
Die Nvidia Karten haben schon über Generationen höhere Preise,es hat sich dadurch nix an der Marktlage geändert.Der Unterschied ist das Nvidia jetzt erstmals den kleineren Chip hat,also eher mit na besseren Verfügbarkeit zu rechnen ist im Vergleich zu AMD.

Skysnake
2012-05-10, 11:07:22
nVidia war bisher aber auch immer recht eindeutig schneller, auch wenn es nur einige Prozent waren, aber Sie waren klar schneller.

Das ist jetzt nicht mehr so. Die beiden Modelle sind gleich schnell, und in Compute ist GK104 sogar ein echter Fail. Nicht nur in DP, sondern überhaupt.

Das kann man halt nicht wirklich vergleichen mit bisher. Zudem kann man nicht zwingend durch die Chipgröße etwas über die Verfügbarkeit aussagene. Yealds spielen da noch ne Rolle, und bei den knappen Wafer-Ressourcen auch anderweitige Lieferverpflichtungen. Gerade die vielen Designwins für den Mobile-Bereich können hier schwer drücken.

Ailuros
2012-05-10, 11:26:33
nVidia war bisher aber auch immer recht eindeutig schneller, auch wenn es nur einige Prozent waren, aber Sie waren klar schneller.

Wo und wieso waren vorige performance SKUs von NV schneller? Die GTX580 ist im Durchschnitt um die 15% schneller als eine 6970 und um die 40+% schneller als die GTX560Ti (performance). Kepler's high end ist NICHT die GTX680 und es ist tatsaechlich das erste Mal dass NV's performance chip gleichauf oder etwas schneller antanzt als AMD's performance chip.

Das ist jetzt nicht mehr so. Die beiden Modelle sind gleich schnell, und in Compute ist GK104 sogar ein echter Fail. Nicht nur in DP, sondern überhaupt.

Tahiti ist fuer HPC vorgesehen, GK104 nicht. Wir wollen wohl nicht nochmal die Effizienz-Unterschiede zwischen Tahiti und Pitcairn vergleichen oder?

Das kann man halt nicht wirklich vergleichen mit bisher. Zudem kann man nicht zwingend durch die Chipgröße etwas über die Verfügbarkeit aussagene. Yealds spielen da noch ne Rolle, und bei den knappen Wafer-Ressourcen auch anderweitige Lieferverpflichtungen. Gerade die vielen Designwins für den Mobile-Bereich können hier schwer drücken.

Bleibt die Frage ob NV tatsaechlich Probleme hat mit 28nm oder nicht. Wenn ja liegt nichts krummes an TSMC's wafer yields sondern an GK1xx/Kepler chips binning yields. Wenn am design selber nichts krummes liegt sind die yields unter 28HP vergleichsmaessig zwischen AMD und NV ueberhaupt da NV keinen hotclock mehr hat und die Frequenzen keine besonderen Unterschied haben. In diesem Fall bekommt man bei N 28HP pro wafer yields auch mehr dies pro wafer mit einem GK104.

Entweder NV hat geraumen Druck zich HPC/mobile usw. deals zu bedingen und ihre Kapazitaeten sind zu gering oder es stimmt tatsaechlich etwas nicht mit dem Design.

Uebrigens wenn NV eine hoehere Verfuegbarkeit haette als AMD, waeren sie auch ziemlich schnell dabei ihre Preise zu reduzieren.

Hugo78
2012-05-19, 01:53:24
GTX 680M

http://www.notebookjournal.de/news/xxbericht--nvidia-stellt-geforce-gtx-680m-zur-computex-2012-vor-nkjs-4572

So soll die Geforce GTX 680M nur 744 bis zu 768 sogenannter Stream-Prozessoren aufweisen, wohingegen die Desktop-GTX 680 1536 solcher Rechenkerne besitzt. Dafür würde die GTX 680M allerdings deutlich mehr VRAM unterstützten, nämlich 4 Gigabyte im Vergleich zu den 2 Gigabyte der Desktop-Variante. Was hingegen unverändert bliebe, das sei das 256-Bit breite Speicherinterface. Der Energiebedarf der Mobil-Grafikkarte soll außerdem bei maximal 100 Watt liegen.

Spasstiger
2012-05-19, 09:20:28
744-768 Streamprozessoren? Bei 192 Streamprozessoren pro SMX in der gesamten Kepler-Familie sind die 744 insgesamt nur schwer möglich. An dem Punkt hätte man bei Notebookjournal stutzig werden sollen.
Und dass das Teil bei gleicher, hoher TDP von 100 Watt nur 37% schneller sein soll als die GTX 670M (Fermi), wundert mich, schließlich hat sich die Perf/Watt von Fermi zu Kepler verdoppelt.

AnarchX
2012-05-19, 09:25:04
Das einzige was halbwegs sicher ist, ist dass wohl ein GK104 auf dem MXM-Modul sitzt und erste Benchmarks ~P4600 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9239756#post9239756)im 3DM11 erzielt haben, die mittlerweile gegen die 7970M mit vollem Pitcairn @850MHz nicht ausreichen.

In einem nur halb aktivem GK104 sähe ich nicht viel Sinn, so schlecht sollte die Ausbeute auch nicht sein. Imo sollten es mindestens 1152SPs sein.

Skysnake
2012-05-19, 09:26:45
Sag niemals nie.

Ich würde es aber auch schon als ziemlich krasse Resteverwertung betrachten :ugly:

AnarchX
2012-05-19, 09:29:15
Vielleicht sind es ja 6 SMX und man hat die super-skalaren SIMD32 deaktiviert. ;D

Hugo78
2012-05-19, 09:45:34
Ja mal schauen was draus wird, im Artikel stand ja das die Teile zur Computex erscheinen sollen.
768SPs wäre erstmal ein halber GK104 (leider dann auch in Sachen TMUs), und wenn die restlichen Werte der Desktop 680 übernommen werden + 4GB VRAM,
dann könnten die 100W TDP hinkommen, man braucht ja etwas Spielraum für den Turbo und ebend den RAM.
Die nur 37% mehr Speed würden dann auch stimmen, denn eine 580M war ein GF114 @ 620MHz.
Nimmt man also die Desktop 560Ti (halbe Desktop GTX 680) mit ihren 822MHz als Vergleich, dann kommt das so schon hin.
Die Fermis sind ja mit weniger Takt und Vcore immer besser in Sachen Perf./W geworden.

Spasstiger
2012-05-19, 10:10:29
768SPs wäre erstmal ein halber GK104 (leider dann auch in Sachen TMUs), und wenn man restlichen Werte der Desktop 680 übernommen werden + 4GB VRAM,
dann könnten die 100W TDP hinkommen, man braucht ja etwas Spielraum für den Turbo und ebend den RAM.
Mehr RAM bei gleicher Breite des Speicherinterfaces hat nur einen minimalen Einfluss auf die TDP, da die Speicherzugriffe der große Stromfresser sind, nicht die zyklischen Refreshes des Speicherinhalts. Letzere haben nur auf den idle-Verbrauch einen merklichen Einfluss.
Es kann natürlich sein, dass das 256-Bit-SI @ 6 Gbps generell die Leistungsaufnahme hoch hält. Z.B. 50 Watt Anteil fürs SI und 50 Watt Anteil für den Core. Bei der GTX 680 wären es dann ebenfalls 50 Watt Anteil fürs SI, aber 145 Watt für den Core (doppelt soviele Einheiten, höherer Takt).

Hugo
2012-05-19, 11:33:35
ist ein halber GK104 = ein voller GK106?

Hugo78
2012-05-19, 17:14:40
Wenn GK106 auch mit einem 256bit SI kommt, dann wohl ja.

dildo4u
2012-05-19, 18:00:04
Das einzige was halbwegs sicher ist, ist dass wohl ein GK104 auf dem MXM-Modul sitzt und erste Benchmarks ~P4600 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9239756#post9239756)im 3DM11 erzielt haben, die mittlerweile gegen die 7970M mit vollem Pitcairn @850MHz nicht ausreichen.

In einem nur halb aktivem GK104 sähe ich nicht viel Sinn, so schlecht sollte die Ausbeute auch nicht sein. Imo sollten es mindestens 1152SPs sein.
4900 sind aktuell für die 680M,die 7970 wohl 1000 mehr.

http://www.pcgameshardware.de/aid,884586/Geforce-GTX-680M-auf-der-Computex/Notebook-Netbook/News/

http://www.notebookcheck.com/AMD-Radeon-HD-7970M.70809.0.html

Wär vieleicht mal nicht schlecht für die Preisentwicklung bei NV,oder der Boost funzt noch nicht ich hatte bei Pitcairn vs GK104 mit einem absoluten Patt gerechnet.

Wobei die 5000 passen könnten,die 640M kommt auf 1800,die 660 wird dann vermutlich auf 50% des 680M Speed kommen.
http://www.computerbase.de/artikel/notebooks/2012/test-asus-n76vm-mit-i7-3610qm/10/#abschnitt_3dmark_11

Spasstiger
2012-05-20, 21:55:49
Ich kann mir nicht vorstellen, dass ein fast zur Hälfte deaktivierter GK104 der Plan für die GTX 680M war. Eventuell hat man ärgere Probleme mit dem GK106, will aber das Mobile-Lineup launchen und spezifiziert die GTX 680M so, dass sie später auch mit dem GK106 realisiert werden kann. Derweil müssen GK104 dafür herhalten.
Das muss übrigens kein Indiz dafür sein, dass der GK106 ein 256-Bit-SI hat, 192 Bit wären imo genauso denkbar. Aber wenn man schon den GK104 nutzt, kann man auch gleich ein breiteres Speicherinterface mit langsamerem und günstigerem Speicher verwenden. Mit dem GK106 muss man halt schnelleren Speicher einsetzen.
Dann gibts die GTX 680M z.B. in den Varianten 192 Bit @ 6 Gbps und 256 Bit @ 4,5 Gbps.

Dural
2012-05-20, 22:59:20
macht alles nicht wirklich sinn und wie so sollte nur ein GK106 chip ursprünglich für die 680m vorgesehen sein? GK104 ist ideal für diese besetzung aber sicher nicht mit nur 768SP.

zudem ist es auch nicht vorstellbar das NV mit einem halben GK104 beziehungsweisse doppelten GK107 chip probleme haben könnte ;)


mal abwarten ob die aktuellen gerüchte überhaupt stimmen :)

Hugo78
2012-05-20, 23:45:42
Mit dem GK104 kann man später noch eine sGPU GTX690M bringen.

Die 768Sps für den 680M erscheinen mir auch zuwenig.
1.152 SPs sollten es schon sein, rein vom Bauchgefühl her, dann kann man sich auch einen hohen Takt sparen und hat noch mal +50% mehr TMUs ggü. dem Vorgänger GF114.

Die Frage ist, wie Takt sich bei GK104 auswirkt, und ab welchem Takt dann GK104 "kippt", also der Verbaruch unverhältnissmässig ansteigt.
Wenn die 768SP stimmen und man hier, diese mit einem 1GHz besser auslasten kann und weniger verbraucht, als zb. mit 1152SPs @ 700Mhz, dann wäre das ja erstmal nicht verkehrt.

AnarchX
2012-05-21, 22:28:28
Rückruf-Gerüchte zu GK104:
http://tech.pnosker.com/2012/05/21/nvidia-potentially-recalling-all-gtx-670-680-690-kepler-video-cards/
Und wohl ein offizielles Dementi:
http://www.xbitlabs.com/news/graphics/display/20120521120817_Nvidia_Denies_Plans_to_Recall_GeForce_GTX_600_Due_to_Performance_ Degradation.html

Aber schon seltsam, dass man hier überhaupt ein Kommentar abgibt. Besonders bekannt ist die Ursprungsseite auch nicht.

boxleitnerb
2012-05-21, 22:31:01
AMD virales marketing? Klickhascherei? Oder ein Verzweifelter, der versuchen wollte, die 680 Nachfrage zu drücken, damit er selbst eine bekommt? Wir wissen es nicht.

Spasstiger
2012-05-21, 22:42:03
Kein Rückruf heißt ja nicht, dass das Problem nicht besteht. Die Mobilchips vor ein paar Jahren hat Nvidia ja auch nicht zurückgerufen, wie bei tech.pnosker.com berechtigterweise erwähnt wird. Nvidia hatte das Problem 1 Jahr nach Release auch zugegeben: http://www.engadget.com/2008/07/02/nvidia-says-significant-quantities-of-laptop-gpus-are-defectiv/. Und ich kenne selbst Jemanden, der ein defektes Notebook mit genau diesem Problem hatte und es auf der Arbeit mit einer SMD-Rework-Station selbst lösen konnte.
Wenn man natürlich keine gefixten Chips liefern kann bzw. die Fertigungskapazitäten so begrenzt sind wie aktuell, dann lässt man einen Rückruf lieber bleiben und regelt etwaige Probleme mit der üblichen Garantie.
Möglicherweise steckt dahinter der Grund, warum vom GK106 nichts zu sehen ist und man einen zur Hälfte deaktivierten GK104 für mobiles High End nutzt.

Dass es Slowdown-Probleme bei der GTX 680 gibt, ist unbestritten: http://techreport.com/articles.x/22653/9.

Hugo78
2012-05-21, 22:56:17
Aber schon seltsam, dass man hier überhaupt ein Kommentar abgibt.

Wo ein Trog ist, kommen die Schweine.

Sagste also nix kommen Char_LIE & Co., aus ihren Löchern und packen noch ihre Kacke dazu, nach dem Motto:
"Oh schau sie verschweigen etwas, denn wenns nicht so wäre, könnten sie ja einfach sagen dass das Gerücht Bullshit ist".

dildo4u
2012-05-21, 23:04:35
Dass es Slowdown-Probleme bei der GTX 680 gibt, ist unbestritten: http://techreport.com/articles.x/22653/9.
Stuttering ist kein Slowdown laut dem Gerücht soll die Performance nach einer gewissen Zeit nachlassen.(performance degradation)Scheint eher ein Treiber Problem zu sein,(Laut Text)die anderen Games im Test sind sauber.Wobei das Game eh komisch performt unter DX11 selbst nach dem Gepatche.

M4xw0lf
2012-05-22, 07:32:43
Kein Rückruf heißt ja nicht, dass das Problem nicht besteht. Die Mobilchips vor ein paar Jahren hat Nvidia ja auch nicht zurückgerufen, wie bei tech.pnosker.com berechtigterweise erwähnt wird. Nvidia hatte das Problem 1 Jahr nach Release auch zugegeben: http://www.engadget.com/2008/07/02/nvidia-says-significant-quantities-of-laptop-gpus-are-defectiv/. Und ich kenne selbst Jemanden, der ein defektes Notebook mit genau diesem Problem hatte und es auf der Arbeit mit einer SMD-Rework-Station selbst lösen konnte.
Wenn man natürlich keine gefixten Chips liefern kann bzw. die Fertigungskapazitäten so begrenzt sind wie aktuell, dann lässt man einen Rückruf lieber bleiben und regelt etwaige Probleme mit der üblichen Garantie.
Möglicherweise steckt dahinter der Grund, warum vom GK106 nichts zu sehen ist und man einen zur Hälfte deaktivierten GK104 für mobiles High End nutzt.

Dass es Slowdown-Probleme bei der GTX 680 gibt, ist unbestritten: http://techreport.com/articles.x/22653/9.


"Niemand hat die Absicht, eine Mauer zu errichten!" :freak:

V2.0
2012-05-22, 07:36:59
Das wäre natürlich richtig geil, wenn die alle GK104 zurückrufen müssen.

N0Thing
2012-05-22, 08:28:42
AMD virales marketing? Klickhascherei? Oder ein Verzweifelter, der versuchen wollte, die 680 Nachfrage zu drücken, damit er selbst eine bekommt? Wir wissen es nicht.

Der Autor gab auch nur Informationen einer angeblichen Insiderquelle weiter und hat auch deutlich gemacht, das es reine Spekulation ist. Unseriös ist was anderes.

Aber da Nvidia die Meldung dementiert hat, gibt es keine Rückholaktion und das Thema ist fertig.
Ob die Chips Probleme haben wird man in den nächsten Jahren sehen, z.B. bei einem großen Grafikkartenüberblick bei ht4u, wenn die verwendete Karte zuvor ganz regulär zum Einsatz kam.

Skysnake
2012-05-22, 08:58:02
Das wäre natürlich richtig geil, wenn die alle GK104 zurückrufen müssen.
... Ja total geil -_-

Wie kann man sich bitte über so etwas freuen? Das ist für uns ALLE totaler Bullshit, weil das die Preise weiter oben hält und mir würde es auch um die Leute leid tun, die dann den Umtauschstress haben...

So etwas wünscht man keiner Firma....

Ailuros
2012-05-24, 11:31:10
Recall-Geruechte: http://semiaccurate.com/forums/showthread.php?t=6466&page=3

Kurz: irgend ein EVGA spezifischer hickup, wofuer EVGA schon RMAs angekuendigt hat.

M4xw0lf
2012-05-24, 11:35:08
Recall-Geruechte: http://semiaccurate.com/forums/showthread.php?t=6466&page=3

Kurz: irgend ein EVGA spezifischer hickup, wofuer EVGA schon RMAs angekuendigt hat.

Also scheint es erstmal nur ein Problem mit EVGAs SC-Reihe zu geben (wenn es überhaupt eins gibt) - was jetzt nicht ungewöhnlich für OC-Serien ist.

Ailuros
2012-05-24, 11:54:09
Also scheint es erstmal nur ein Problem mit EVGAs SC-Reihe zu geben (wenn es überhaupt eins gibt) - was jetzt nicht ungewöhnlich für OC-Serien ist.

Im Gegenfall haette Charlie tatsaechlich gutes Futter fuer einen SA-Artikel.

Sonst fuer EVGA: kann in den besten Familien passieren.

Skysnake
2012-05-24, 13:02:57
Hm....

Ich weiß echt nicht, was ich davon halten soll.

Kann wirklich nur bei EVGA liegen, aber warum nur eine gewisse Charge? Und wie sieht das Problem genau aus? Usw usw.

Bis die Sache geklärt ist, sollte man wohl von einem OC der GTX600er Serie absehen. Nicht das es doch zu einem Recall kommt, und man dann geasgt bekommt: "Ätsch, die Karte hat keine Garantie mehr wegen OC, Pech gehabt..."

Das wäre natürlich ziemlich böse, auch wenn ich nicht glaube, dass das passieren wird bei einem generellen Rückruf. Wenn er sich aber nur auf gewisse Modelle bezieht, oder gar nicht kommt, und über RMA abgehandelt werden soll, um die Kosten so klein wie möglich zu halten, dann hat man natürlich Pech gehabt.

Ich frag mich echt, was atm im Umfeld von nVidia los ist. In letzter Zeit hört man ständig Sachen, die einem Bauchschmerzen bereiten.

Dural
2012-05-24, 13:18:51
aha jetzt ist schon NV dafür verantwortlich was die hersteller am bios rumbastelt... als reihenweise AMD karten dank Furmark abgeraucht sind und AMD die karten nachträglich per treiber drosseln musste, gab es nicht so ein rissen aufschrei wie jetzt wegen "ruckler" von offensichtlich einer "handvoll" grafikkarten :rolleyes: und übrigens ist im gegensatz zu AMD bei NV das OC ohne Garantie verlust sogar möglich, aber hauptsache man kann irgendwas behaupten...

lächerlich wie hier mal wieder quasi nichts extrem hoch gepusht wird nur weil NV drauf steht / drin ist...

Skysnake
2012-05-24, 13:26:21
Dural, das zeigste mir mal bitte, wo bei nV OC ohne Garantieverlust möglich ist...

Hugo78
2012-05-24, 13:30:15
Ich mach das ja nur sehr ungern, genauer unter Missachtung meiner Ekelgrenze, aber da Skysnake hier schon wieder die Panik schiebt, zitiere ich mal Char_LIE:
It looks to be a simple EVGA board error, not chip related.
http://semiaccurate.com/forums/showpost.php?p=163281&postcount=23

Skysnake
2012-05-24, 13:43:21
Ich bin nur vorsichtig ;)

Geht ja auch nicht nur um zwei Euro fünfzig sondern um mehrere hundert Euro, wenn das Ding abraucht/sonst wie Probleme bekommt.

Man weiß es halt nie genau. Beim SATA-Bug wussten die Leute auch nicht, warum Sie teilweise Probleme hatten mit ihren HDDs/SSDs, bis halt recht schnell Intel gesagt hat, was los ist. Da hatten zwar noch wenige Leute das Problem, aber man weiß ja nie. Ich geh da halt lieber auf Nummer sicher, weiß darauf hin, und überlass es den Leuten dann selbst, ob Sie das Risiko eingehen oder nicht. Wenns schief geht, ist derjenige Selbst schuld. Ich würde aber niemanden in einer nicht gegebenen Sicherheit wiegen. Es kann (ich denke auch am wahrscheinlichsten) sich nur um ein Problem bei einer einzelnen Charge von EVGA GPUs handeln (wobei das zunächst mal ein schlechtes Licht auf EVGA wirft, auch wenn dies wieder stark aufgebessert wid, dadurch, dass Sie einen Recall machen), es muss aber nicht so sein.

Das Bump-Problem wurde ja auch in einer der Links angesprochen, wo nVidia sehr lange nichts zugeben wollte. Solche Geschichten verbessern halt nicht die Glaubwürdigkeit einer Herstellers, zumal sich nVidia in den letzten Jahren eben sehr viele Schnitzer bzgl. Glaubwürdigkeit geleistet hat. (btw. AMD in gewissen Bereichen auch. Ich sag nur AA)

Vertrauen kann man verdammt schnell ruinieren, aber nur sehr langsam wieder aufbauen, und bei mir hat nVidia eben das Vertrauen zerstört. Daher warte ich zu.

Zumal einfach nicht zu OCen bricht ja keinem ein Bein bei einer Karte der GTX600er Serie. Das ist nichts, was man unbedingt machen muss, um Spiele spielen zu können. Von daher hat man ja keine Nachteile dadurch, sich die Sache erstmal noch ne Weile an zu schauen.

Ailuros
2012-05-24, 14:53:40
Ich bin nur vorsichtig ;)

Geht ja auch nicht nur um zwei Euro fünfzig sondern um mehrere hundert Euro, wenn das Ding abraucht/sonst wie Probleme bekommt.

Man weiß es halt nie genau. Beim SATA-Bug wussten die Leute auch nicht, warum Sie teilweise Probleme hatten mit ihren HDDs/SSDs, bis halt recht schnell Intel gesagt hat, was los ist. Da hatten zwar noch wenige Leute das Problem, aber man weiß ja nie. Ich geh da halt lieber auf Nummer sicher, weiß darauf hin, und überlass es den Leuten dann selbst, ob Sie das Risiko eingehen oder nicht. Wenns schief geht, ist derjenige Selbst schuld. Ich würde aber niemanden in einer nicht gegebenen Sicherheit wiegen. Es kann (ich denke auch am wahrscheinlichsten) sich nur um ein Problem bei einer einzelnen Charge von EVGA GPUs handeln (wobei das zunächst mal ein schlechtes Licht auf EVGA wirft, auch wenn dies wieder stark aufgebessert wid, dadurch, dass Sie einen Recall machen), es muss aber nicht so sein.

Das Bump-Problem wurde ja auch in einer der Links angesprochen, wo nVidia sehr lange nichts zugeben wollte. Solche Geschichten verbessern halt nicht die Glaubwürdigkeit einer Herstellers, zumal sich nVidia in den letzten Jahren eben sehr viele Schnitzer bzgl. Glaubwürdigkeit geleistet hat. (btw. AMD in gewissen Bereichen auch. Ich sag nur AA)

Vertrauen kann man verdammt schnell ruinieren, aber nur sehr langsam wieder aufbauen, und bei mir hat nVidia eben das Vertrauen zerstört. Daher warte ich zu.

Zumal einfach nicht zu OCen bricht ja keinem ein Bein bei einer Karte der GTX600er Serie. Das ist nichts, was man unbedingt machen muss, um Spiele spielen zu können. Von daher hat man ja keine Nachteile dadurch, sich die Sache erstmal noch ne Weile an zu schauen.

Fuer jemand der vorsichtig sein will, lese ich mit Verlaub momentan ziemlich viel nichtsaussagende Schreibfreudigkeit im obrigen Post. Nochmal wuerde etwas dahinter stecken wuerde jemand wie Charlie als erster aus allen vier Windrichtungen auf seiner Hauptseite donnern.

Momentan sieht es danach aus dass es sich eher um ein vendor-spezifisches Spezial-OC Modell eines Herstellers handelt. Bis zum Punkt wo mehr Indizien zum Gegenteil erscheinen ist das obrige leider total nutzlos.

N0Thing
2012-05-24, 15:58:47
als reihenweise AMD karten dank Furmark abgeraucht sind und AMD die karten nachträglich per treiber drosseln musste, gab es nicht so ein rissen aufschrei wie jetzt wegen "ruckler" von offensichtlich einer "handvoll" grafikkarten :rolleyes:

Doch, doch, da gab es eine Menge Aufregung und Empörung, allerdings vor allem von Leuten, die sich nur Karten von Nvidia kaufen würden. :rolleyes:

Skysnake
2012-05-24, 19:27:11
Ailuros, und wo ist das Problem daran? Es tut keinem Weh, einfach mal 2-3 Wochen mit OC zu warten, oder es zurück zu schrauben. Ich würde es zumindest so machen in diesem Fall.

Wegen ein paar Wochen verliert man ja nichts, zumal niemand auf das OC wirklich angewiesen ist bei so einer Karte. Entweder es ist ohne OC schon schnell genug, oder auch mit OC zu langsam.

Ich empfinde es halt einfach fatal, Leuten, da eine Sicherheit zu sugerieren, weil die Schreien dann am lautesten, wenn doch etwas los ist. Vor allem, wenn Sie eigentlich keinen Plan haben. Wer die Gefahren kennt und trotzdem trotz Warnung macht, dem Geschieht es halt nicht anders, und er darf dann auch nicht mimimi machen. Er wusste durch die Warnung ja bzgl. der Gefahren.

Ailuros
2012-05-25, 10:45:40
Ailuros, und wo ist das Problem daran? Es tut keinem Weh, einfach mal 2-3 Wochen mit OC zu warten, oder es zurück zu schrauben. Ich würde es zumindest so machen in diesem Fall.

Nichts dagegen; ganz im Gegenteil. Ich wuerde sowieso persoenlich nicht eine jegliche >400 Euro GPU (ob jetzt 6x0 oder 79x0) uebertakten, erstens weil der Gewinn im Durchschnitt laecherlich ist und zweitens weil es die Lebenszeit von hw so oder so verkuerzt. Bei billiger hw waere es mir persoenlich wurscht; bei einer so teuren GPU eben nicht.

Wegen ein paar Wochen verliert man ja nichts, zumal niemand auf das OC wirklich angewiesen ist bei so einer Karte. Entweder es ist ohne OC schon schnell genug, oder auch mit OC zu langsam.

Das ist eine reine Angelegenheit von EVGA im gegebenen Fall. Sie haben irgendwelchen Mist gebaut und muessen und werden natuerlich auch fuer die relevanten RMAs sorgen.

Ich empfinde es halt einfach fatal, Leuten, da eine Sicherheit zu sugerieren, weil die Schreien dann am lautesten, wenn doch etwas los ist. Vor allem, wenn Sie eigentlich keinen Plan haben. Wer die Gefahren kennt und trotzdem trotz Warnung macht, dem Geschieht es halt nicht anders, und er darf dann auch nicht mimimi machen. Er wusste durch die Warnung ja bzgl. der Gefahren.

Darum ging es mir auch gar nicht. Mir geht es lediglich darum dass es bis jetzt keine anstaendigen Indizien gibt dass die GK104 chips irgendwie problematisch sind. Ohne solche jetzt irgendwelche Maerchen zu stricken aus X,Y,Z Gruenden ist einfach zwecklos im Moment. User sind uebrigens nicht bloed; es wurde der Markt zwar nicht mit GTX680 SKUs ueberflutet, aber ich bezweifle dass die User die sich diese bis jetzt geschnappt haben so ahnungslos sind um irgend ein Problem bis jetzt zu entdecken.

Bis zum Punkt wo es solche Indizien gibt, ist jegliche hypothetische Strickerei auf bump-gate basierenden Problemen oder weiss der Geier was noch einfach sinnlos.

Problematische hw gibt es gelegentlich von allen IHVs egal was fuer hw entwickelt bzw. verkauft wird. In dem Fall ist NV genauso anfaellig wie Intel, AMD oder weiss der Geier wer noch. Wie es NV typisch oefters unter den Teppich zu kehren versucht ist ein anderes Kapitel aber ich wuerde diesbezueglich was andere IHVs betrifft auch nicht unbedingt Steine im Glashaus werfen.

Wobei NV nicht der Kritik entgehen duerfte ist dass ihre Verfuegbarkeit fuer 28nm GPU nach wie vor zum kotzen klein ist und nein dass TSMC daran schuld ist will und kann ich nicht glauben. Und eben genau ist dieses eines der Punkte wo es nicht hilft dass sich die 28nm GPU Preise irgendwie sehenswert bald reduzieren werden.

Die einzige Frage die ich danach habe ist wieso AMD nicht schon nochmal um ein Haeppchen die 7900-er Preise reduziert, worauf NV mit Sicherheit momentan keineswegs folgen kann. Noch schlimmer und noch mehr OT, wo ist eigentlich die 7990 mGPU von AMD?

Skysnake
2012-05-25, 12:42:22
Da haste auch absolut Recht. Ich bin nur etwas übervorsichtig. Bin vom ASUS A8N-SLI-Deluxe Rev1.0 einfach ein gebranntes Kind.

Denn du sagst es. Probleme hat jeder, und es kann immer mal zu einem Montagsprodukt kommen, obwohl die Hersteller machen was Sie können.

Die Probleme rund um nVidia und TSMC tragen da nicht gerade dazu bei, einen ein Gefühl der Sicherheit zu geben, wenn es solche Meldungen gibt. Ich bin da einfach dann bischen paranoid ;D Hoffen wir mal, dass sich die ganzen Ruckler-Probleme usw. in den nächsten Wochen in Wohlgefallen auflösen. Es ist zwar nicht jeder betroffen, aber für die, die betroffen sind, ist das auch kein Trost :(

OT:
Ist die 7990 nicht schon drausen? Ich erinnere mich zumindest dunkel an so etwas.

Zergra
2012-05-25, 16:26:15
OT:
Ist die 7990 nicht schon drausen? Ich erinnere mich zumindest dunkel an so etwas.
ney.... die ist ganz weit weg :D

Skysnake
2012-05-25, 19:00:50
also 7990M! nicht die Desktop 7990.

dildo4u
2012-05-25, 19:02:37
Die Single Core 7970m ist draußen,7990m noch nicht.

http://www.notebookcheck.com/Benchmarkcheck-Dirt-Showdown.75130.0.html

AnarchX
2012-06-04, 17:33:02
Based on Nvidia's Kepler architecture, the GeForce GTX 680M is a high-octane GPU with 1344 CUDA cores, 4GB of GDDR5 graphics memory, and full support for Nvidia's battery-friendly Optimus technology.
http://www.maximumpc.com/article/news/origin_pc_crams_kepler_based_geforce_gtx_680m_gpu_eon15-s_eon17-s_gaming_laptops

Da ist das Mobile High-End wohl mal wieder deutlich näher am Desktop "High-End" als in vergangenen Generationen.
Aber für 100W dürfte wohl der Takt noch ein gutes Stück gegenüber der GTX 670 gesenkt werden.

dargo
2012-06-04, 17:50:58
Das liegt aber wohl nur daran, weil mal im Desktop-Bereich auf Kosten der Leistung die TDP vorerst ziemlich tief angesetzt hat.

AnarchX
2012-06-04, 17:56:06
GK104 ist eben am Ende seiner Takt-Skalierung, die TDP nun vielleicht für 1,3GHz Boost auf 250W oder mehr zu erhöhen würde sich kaum lohnen und die Referenz-Version im Pro-Watt-Vergleich eher schlecht dastehen lassen.

AnarchX
2012-06-04, 18:59:44
720MHz und wohl nur 3,6Gbps GDDR5, was etwas zu niedrig scheint:
http://i.imgur.com/XPjr6.png
http://forum.beyond3d.com/showpost.php?p=1646677&postcount=4773


Die GTX 680M ist wohl nun offiziell: http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=528504