PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31

Undertaker
2012-03-18, 20:15:47
Die 7870 verbraucht ~ 20% weniger als die 7950 (http://ht4u.net/reviews/2012/amd_radeon_hd_7870_pitcairn_xt_im_test/index36.php) und ist dabei ~ 15% langsamer (http://ht4u.net/reviews/2012/amd_radeon_hd_7870_pitcairn_xt_im_test/index36.php). Von den Kosten mal abgesehen, könnten bei einem max. Verbrausbudget von 300Watt der Pitcairn durchaus sinnger sein.

Bei CB verbrauchen beide im Gesamtsystem unter Last praktisch das Gleiche - aber nun gut, da variieren verschiedene Seiten nuneinmal. Was sich aber auch bei HT4U sagen lässt: Bei gleicher Leistung in Form geringer Taktraten + Spannung für die 7950 wäre letztere sehr wahrscheinlich sparsamer als die 7870 = bessere Perf/Watt.

Da halte ich es schon eher für möglich, dass es kein GK110 Dual-Modell geben wird. Bei Tahiti gehe ich sehr sicher von einem solchen aus.

fizzo
2012-03-18, 20:41:18
Da halte ich es schon eher für möglich, dass es kein GK110 Dual-Modell geben wird. Bei Tahiti gehe ich sehr sicher von einem solchen aus.

Ich nicht. 428mm² : 730mm² Die-Fläch und 50% mehr Speicher stehen IMHO zur Mehrleistung in keiner Realtation. Wenn AMD wirtschaflich denkt kann es nur eine Entscheidung geben ;)

AnarchX
2012-03-18, 20:53:54
Der Plan für New Zealand war laut Treiber Dual-Tahiti. Denkbar dass man vielleicht eine HD 7980 mit zwei Pitcairn veröffentlicht.
Aber für eine Ultra-Enthusiast HD 7990 sollten es wohl schon 4096SPs, 768-Bit und vielleicht auch 12GiB Speicher sein. ;)

Zergra
2012-03-18, 21:38:00
Ich sag mal so:
Tahiti wird wohl mit 925 MHz verkauft und GK104 mit 10XX
wenn jetzt GK 104 10-12% Mehrleistung als Tahiti XT hat wäre das auch nicht verwunderlich den der Takt liegt eben auch 10-12% weiter zurück. Und wieso Tahiti bei mehr Rechpower/Einheiten dann genauso schnell wäre ? Weil das Frontend Limitiert. Wenn AMD das beseitig hätte wäre wohl Gk104 mit Tahiti Pro zu vegleichen aber so... ...

Schaffe89
2012-03-18, 22:20:05
Bei CB verbrauchen beide im Gesamtsystem unter Last praktisch das Gleiche - aber nun gut, da variieren verschiedene Seiten nuneinmal.

Nein, CB hat die schlechtesten Karten erwischt, oder an ihrem Testsystem irgendetwas verändert.
Alle! anderen Seiten haben einen geringeren Verbrauch raus.

Und wieso Tahiti bei mehr Rechpower/Einheiten dann genauso schnell wäre ? Weil das Frontend Limitiert. Wenn AMD das beseitig hätte wäre wohl Gk104 mit Tahiti Pro zu vegleichen aber so... ..

Was habt ihr immer alle mit dem Frontend? Sind die Shader die AMD verbaut die gleichen wie bei Nvidia?
Die GTX680 wird btw kaum schneller werden.

Knuddelbearli
2012-03-18, 22:20:44
fizzo bei einer dualkarte wird zuallerletzt an die Wirtschaftlichkeit gedacht das ist für den hersteller ein statussysmbol das einfach nur schneller sein muss als die Konkurrenz

VooDoo7mx
2012-03-18, 22:22:12
Ich sag mal so:
Tahiti wird wohl mit 925 MHz verkauft und GK104 mit 10XX
wenn jetzt GK 104 10-12% Mehrleistung als Tahiti XT hat wäre das.
Sorry aber was ist denn das für eine bescheuerte Logik. 6970 hat auch mehr MHz als GTX580 und liegt trotzdem deutlich dahinter.

Blediator16
2012-03-18, 23:19:20
Sorry aber was ist denn das für eine bescheuerte Logik. 6970 hat auch mehr MHz als GTX580 und liegt trotzdem deutlich dahinter.

Scheinbar bewegen sich beide Hersteller aufeinander zu und man kann scheinbar auch besser vergleichen als vorher.

PrefoX
2012-03-19, 07:56:51
scheinbar doch eher nicht, wenn der nvidia performance chip schon den highend von ati schlägt

dernomax
2012-03-19, 08:09:24
du kannst sie nennen wie du magst - sie kosten das selbe - sind also im selben Segment.

Iruwen
2012-03-19, 08:43:46
Mal sehen ob die GTX 680 wirklich für 549$ startet.

Dural
2012-03-19, 09:49:26
versuchen die AMD boys jetzt schon durch fake werte ihre 7970 besser zu präsentieren... :rolleyes:

das die 7970 in dieser hinsicht zu diesen preisen ein fehlkauf war, war für mich von anfang klar, da sag ich nur selber schuld wer da was anders erwartet hat!



übrigens reagiert der X-Wert im 3DMark11 sehr gut auf bandbreite, die GTX680 ist aber trotzdem deutlich schneller als die 7970, somit behaupte ich mal das die geringere bandbreite in 1080p kein thema für die GTX680 ist.

Raff
2012-03-19, 10:04:46
Interessante Ausführung. Die GTX 680 kommt, wird vermutlich sauteuer sein und die ebenfalls sauteure, aber schon 3 Monate alte HD 7970 wird schlagartig Müll. I don't think so. ;)

MfG,
Raff

robbitop
2012-03-19, 10:17:09
Mich würde es nicht überraschen, wenn bei 2560er Auflösung und 8x AA Tahiti vorn liegt. Ansonsten würde mich die ~50 % höhere Bandbreite irgendwie wundern.

Duke Nukem
2012-03-19, 10:17:35
Ja sauteuer nur 2 GB Speicher kleineres SI nicht viel schneller 3 Monate too late. Ist das dann kein super fail oder fehlkauf wenn die 7970 plötzlich einer sein soll.

cR@b
2012-03-19, 10:19:57
http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop

Yes endlich geht es los uiuiui!

mapel110
2012-03-19, 10:20:42
Interessante Ausführung. Die GTX 680 kommt, wird vermutlich sauteuer sein und die ebenfalls sauteure, aber schon 3 Monate alte HD 7970 wird schlagartig Müll. I don't think so. ;)

MfG,
Raff

fasst immer wird AMD automatisch muell, wenn nvidia eine neue Generation bringt.

BigKid
2012-03-19, 10:24:16
Du lieber Himmel jetzt geht DAS schon wieder los...
Meint ihr das eigentlich ernst ?

Ich weiß dass ich biased bin - ich habe 2 mal ne ATI/AMD Karte gehabt und mich hat jedesmal etwas gestört (Treiber, kleinere grafische Unterschiede) und ich bin wieder bei NV gelandet und war jedes mal zufrieden.
Trotzdem habe ich nicht das Bedürfnis mich in Schadenfreude zu ergiessen oder Missionieren zu wollen...

Liegt aber vielleicht auch daran, dass ich echt andere Sorgen habe...

Also auf die 3 Monate pfeif ich -wer zuerst war, wer später war interessiert mich nicht solange es keine Spiele gibt, die die bei NVIDIA noch aktuelle Version nicht vernünftig packt...

Ich entscheide dann anhand von Fakten + Bias + Wasserstand der Geldbörse...

- Leistung - anscheinend auf Augenhöhe - also kein Kriterium
- Perf/Watt - noch offen - Tendenz aber anscheinend für Nvidia
- Preis - noch offen
- Bias - bei mir Nvidia

Anhand welcher Kriterien ist nun noch mal was ein Fail ?

M4xw0lf
2012-03-19, 10:27:20
http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop

Yes endlich geht es los uiuiui!

Und offenbar zum HD7970-Preis.
the prices confirm similar to hd7970.

Raff
2012-03-19, 10:39:58
fasst immer wird AMD automatisch muell, wenn nvidia eine neue Generation bringt.

Mit der HD-7000-Reihe hat AMD einige Missstände ausgebügelt, daher gilt das nicht mehr.

MfG,
Raff

AnarchX
2012-03-19, 10:41:07
Mich würde es nicht überraschen, wenn bei 2560er Auflösung und 8x AA Tahiti vorn liegt. Ansonsten würde mich die ~50 % höhere Bandbreite irgendwie wundern.
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf

Hier steigt der Leistungsunterschied von 26% bei 1680x1050 4xAA auf 32% bei 2560x1600 8xAA zwischen 7870 und 7970. Die 7970 hat über 70% mehr Bandbreite als die 7870. Bei der GTX 680 wird der Bandbreiten-Unterschied bei ~38% liegen.

Vorteil der 384-Bit für Tahiti liegen wohl eher im HPC-Umfeld und die Möglichkeit 3GiB Speicher zu verbauen.

Iruwen
2012-03-19, 10:49:39
Mit der HD-7000-Reihe hat AMD einige Missstände ausgebügelt, daher gilt das nicht mehr.

MfG,
Raff

Ich hätte seinen Post jetzt als Sarkasmus verstanden :biggrin:

/e: am Rande, Charlie hat bzgl. Kepler mittlerweile mal wieder soviel behauptet dass er mit irgendwas davon garantiert recht behalten wird, auch 'ne Strategie :D

Winter[Raven]
2012-03-19, 11:07:20
Mit der HD-7000-Reihe hat AMD einige Missstände ausgebügelt, daher gilt das nicht mehr.

Wäre ja auch eine Schande wenn nicht, aber um ehrlich zu sein... Es wurde nur das NOTWENDIGE ausgebügelt ... man bewegt nur den Finger soweit, bis es o. k. ist, für mehr macht man sich nur krumm ... und das laste ich AMD einfach an... Es gibt keine Aktion, nur Gegenreaktion ...

robbitop
2012-03-19, 11:09:20
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf

Hier steigt der Leistungsunterschied von 26% bei 1680x1050 4xAA auf 32% bei 2560x1600 8xAA zwischen 7870 und 7970. .
Der Vergleich hinkt, da sich das Verhältnis Rechenleistung zu Bandbreite ja auch ändert. Für 7870 ist die Bandbreite aufgrund der vorhandenen Rechenleistung sicher immer ausreichend.

;9215198']Wäre ja auch eine Schande wenn nicht, aber um ehrlich zu sein... Es wurde nur das NOTWENDIGE ausgebügelt ... man bewegt nur den Finger soweit, bis es o. k. ist, für mehr macht man sich nur krumm ... und das laste ich AMD einfach an... Es gibt keine Aktion, nur Gegenreaktion ...
Das stimmt auch nicht in jedem Fall. Das Ergebnis mit edge CFAA ist mit NVIDIA Karten leider bis dato unerreicht. Der Box-Downfilter hat einfach Grenzen. Und in der Hinsicht liefert NV nicht.
Und ich hätte gern für Klassiker noch 16x SGSSAA (ohne MultiGPU). Da ist 32xS bei NVIDIA mit Kopplung von 8xSGSSAA natürlich ein Segen. Nur ein ordentlicher Downfilter fehlt noch für diesen Zweck... :(

HOT
2012-03-19, 11:24:09
;9215198']Wäre ja auch eine Schande wenn nicht, aber um ehrlich zu sein... Es wurde nur das NOTWENDIGE ausgebügelt ... man bewegt nur den Finger soweit, bis es o. k. ist, für mehr macht man sich nur krumm ... und das laste ich AMD einfach an... Es gibt keine Aktion, nur Gegenreaktion ...
Das ist doch Quatsch. Natürlich muss man auf die Wünsche der Kunden reagieren. Die wollten ein fehlerfreies AF und bekamen das letztendlich auch. Was man AMD anlasten kann, ist, dass es so lange gedauert hat, sonst nix. Letztendlich haben sich die Karten trotzdem verkauft.

Nighthawk13
2012-03-19, 11:41:13
Mit der HD-7000-Reihe hat AMD einige Missstände ausgebügelt, daher gilt das nicht mehr.

Ersteres ist richtig, trotzdem hat AMD ein Problem mit dieser Generation: Es fehlt ein richtiges Alleinstellungsmerkmal.
Eyefinity und Perfomance/Watt sind nun (mehr oder weniger gleichwertig) auch bei Nvidia zu haben, was bleibt dann noch?

AF, Cuda, PhysX, (Treiberqualität?), 3D, MultiGPU, (TXAA?) sprechen tendenziell für Nvidia.
Für die meisten ist das nicht so wichtig, aber mit was kann AMD noch Punkten ausser mit Preis/Leistung? Bitcoin-Performance? :freak:

derguru
2012-03-19, 11:44:08
amd kann man zur zeit gar nichts anlasten was bq-feature angeht.mir fehlt eigentlich nur noch der sogenannte wundertreiber für die GCN mit 5-10% performanceanstieg.

Ersteres ist richtig, trotzdem hat AMD ein Problem mit dieser Generation: Es fehlt ein richtiges Alleinstellungsmerkmal.

allein die LOD-anpassung bei sgssaa directX 10/11 ist für mich deutlich mehr wert als cuda, physX gedöns.

Calypso
2012-03-19, 11:45:22
AF, Cuda, PhysX, (Treiberqualität?), 3D, MultiGPU, (TXAA?) sprechen tendenziell für Nvidia.


wobei ausser evtl. PhysX alles Punkte sind, die nur den Hardwarefreak interessieren, nicht aber Otto-Normal-Spieler. Der mag die Details hochsetzen und dass es dann wen möglich nicht ruckelt.

robbitop
2012-03-19, 11:57:18
AF, Cuda, PhysX, (Treiberqualität?), 3D, MultiGPU, (TXAA?) sprechen tendenziell für Nvidia.

- AF ist gleichwertig.
- Cuda ist eher für Programmierer - nicht für Spieler.
- 3D gibt es bei AMD auch http://www.amd.com/us/products/technologies/amd-hd3d/Pages/hd3d.aspx
- MultiGPU gibt es bei AMD auch
- TXAA - muss man mal sehen was das ist - sieht nach einem Postprocessing Mist aus - gibt es bei AMD auch. Kombinieren kann man MLAA auch mit MSAA.

Was bei AMD fehlt, sind IMO Kompatibilitätsbits und etwas mehr Mikrorucklertuning bei CF. Allerdings ist auch SLI nicht MR frei.

y33H@
2012-03-19, 12:04:21
Zwischen 3D-Vision und HD3D besteht allerdings ein riesiger Unterschied.

derguru
2012-03-19, 12:08:56
mit TriDef-3D ist der unterschied eigentlich nur noch die 10€.;)

Ronny145
2012-03-19, 12:10:36
amd kann man zur zeit gar nichts anlasten was bq-feature angeht.


Ich laste ihnen fehlendes Downsampling an. Hätten sie das noch, wäre AMD für mich mit Pitcairn eine interessante Karte.

Dural
2012-03-19, 12:18:02
klar ist die 7970 auch eine "gute" karte, aber wenn es für den gleichen preis ein besseres produkt gibt ist dieses halt schlechter, punkt.

derzeit sieht die GTX680 in quasi jedem punkt überlegen aus, klar die 384Bit / 3GB ist der letzte strohhalm und es wird garantiert leute geben die irgend ein bench finden wo sich das niderschlägt.


ich bin mir aber ziemlich sicher das die bandbreite für die GTX680 aussreicht, höchstens bei extrem OC könnte sich die höhere bandbreite auszahlen.

V2.0
2012-03-19, 12:19:49
Ach, Du hast schon ne 680 im Rechner??

Nighthawk13
2012-03-19, 12:21:07
Bzgl. des LOD-Bias/Supersampling allgemein verstehe ich nicht, warum das Nvidia nicht offiziell(er) anbietet. Im NV-Inspector geht es doch?
Solange das nicht passiert, ein Komfort-Punkt für AMD.

Bzgl AF: Dachte es gibt noch kleine Vorteile für NV, zumindest im Fall "Witcher":
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index9.php
Meistens Gleichstand, ok.

(Ich will hier niemand seine Karte schlechtreden, mir gehts darum, ob es bei gleichem P/L ein Grund gibt, eher zu AMD als zu NV zu greifen.)

derguru
2012-03-19, 12:21:28
Ich laste ihnen fehlendes Downsampling an. Hätten sie das noch, wäre AMD für mich mit Pitcairn eine interessante Karte.
hätte ich auch gerne.vielleicht kommt das auch noch,würde mich jetzt nicht mehr überraschen nach dem sie sogar die LOD-anpassung für dx10/11 nach gereicht haben.pcgh muss amd noch ein weng nerven damit.:)
Bzgl. des LOD-Bias/Supersampling allgemein verstehe ich nicht, warum das Nvidia nicht offiziell(er) anbietet. Im NV-Inspector geht es doch?
das geht bei nv aber nur unter dx9 über den nv-inspector und auch nicht so komfortabel wie bei amd aber ich denke das nv bald nachzieht.

Knuddelbearli
2012-03-19, 12:22:32
Das ist doch Quatsch. Natürlich muss man auf die Wünsche der Kunden reagieren. Die wollten ein fehlerfreies AF und bekamen das letztendlich auch. Was man AMD anlasten kann, ist, dass es so lange gedauert hat, sonst nix. Letztendlich haben sich die Karten trotzdem verkauft.


falsch ausserhalb der deutschen hardwareforen hat es kaum jemand interessiert

Knuddelbearli
2012-03-19, 12:25:46
Bzgl. des LOD-Bias/Supersampling allgemein verstehe ich nicht, warum das Nvidia nicht offiziell(er) anbietet. Im NV-Inspector geht es doch?
Solange das nicht passiert, ein Komfort-Punkt für AMD.

Bzgl AF: Dachte es gibt noch kleine Vorteile für NV, zumindest im Fall "Witcher":
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index9.php
Meistens Gleichstand, ok.

(Ich will hier niemand seine Karte schlechtreden, mir gehts darum, ob es bei gleichem P/L ein Grund gibt, eher zu AMD als zu NV zu greifen.)


NV kann aktuell unter DX 10+ gar kein lod bias weshalb es in 90% der fälle unbrauchbar ist ( anderseits fressen dx10+ games sowieso meist schon mehr als genug leistung weshalb es meistens egal ist, bzw nur für uns junkies hier relevant ^^ )

Raff
2012-03-19, 12:34:08
Mit 2x Supersampling leiden die Details nur unwesentlich und es hilft gegen Flimmern. Das ist nicht unbrauchbar, auch wenn es besser ginge. Zumal man bei Nvidia beispielsweise 8x MSAA mit 2x SSAA verheiraten kann – das ist etwas, neben Downsampling, was AMD nachliefern sollte.

MfG,
Raff

Duke Nukem
2012-03-19, 12:39:13
klar ist die 7970 auch eine "gute" karte, aber wenn es für den gleichen preis ein besseres produkt gibt ist dieses halt schlechter, punkt.

derzeit sieht die GTX680 in quasi jedem punkt überlegen aus, klar die 384Bit / 3GB ist der letzte strohhalm und es wird garantiert leute geben die irgend ein bench finden wo sich das niderschlägt.


ich bin mir aber ziemlich sicher das die bandbreite für die GTX680 aussreicht, höchstens bei extrem OC könnte sich die höhere bandbreite auszahlen.

Ob die 680 in quasi jedem punkt überlegen ist wage ich zu bezweifeln.:smile:
http://www.computerbase.de/forum/showpost.php?p=11703947&postcount=314

Hades11
2012-03-19, 12:47:34
Ja sauteuer nur 2 GB Speicher kleineres SI nicht viel schneller 3 Monate too late. Ist das dann kein super fail oder fehlkauf wenn die 7970 plötzlich einer sein soll.
Teuer sind atm alle 28Nm karten wegen der problematischen Produktion. 2GBSpeicher ist sogar genug für SGSSAA ect, nur weil AMD mehr Speicher verbaut als sinnvoll ist ist eine sinnvolle Speichermenge noch lange nicht zu klein. Für richtig hohe Auflösungen (3DMonitore) braucht man alleine um die nötige Leistung zu erreichen sowieso noch SLI/Crossfire Systeme und dafür wird´s wieder Costumdesigns mit mehr Speicher geben, wie schon bei der 580. Mehr Speicher auf einem Referenzdesign ist nur teurer und bringt kaum nutzen. Es kommt nicht auf die Größe/Breite des SI an sondern auf die bandbreite - und die scheint ja hoch genug zu sein. Ein kleineres SI wirkt sich auch wieder Positiv auf die Die-größe aus -> Chips sind leichter und günstiger zu Produzieren. 3 monate zu spät? Quatsch man ist bei NV den einzig sinvollen weg gegangen und bringt die Karte erst dann raus wenn es von der produktion her zumindest etwas sinn macht anstatt wie AMD ein Produkt einfach verfrüht auf den markt zu bringen - wie man an den extrem hohen Referenz-Spannungen der 7970 sehen kann. Imho wäre es sogar noch sinnvoll gewesen noch ein paar Monate zu warten bis die Produktion besser läuft, aber wenn AMD anfäng hat NV keine wahl. Wie viel schneller sie ist wissen wir noch nicht, weder sicher noch genau - da musst du dich noch etwas gedulden. Aber die 680 hat sehr warscheinlich die weit bessere Übertaktbarkeit, es kamen ja schon OC ergebnisse (nicht von NV) mit 1150Mhz auf <1V, wenn eine durchschnittliche 7970 auf <1V läuft (guck dir auch mal ergebnisse von mehreren Tests an ) ist mit OC nicht viel. Ich sehe keinen grund warum sich dieser vorteil der 680 bei höheren Spannungen nicht fortsetzen sollte, zumal die kleinere Chipfläche ja schon vorher vermuten ließ dass GK104 sich besser (über)takten lässt. Da sich die 549USD für 680 scheinbar immer mehr bestätigen wird es wohl keinen Preiskampf geben und die 28Nm-Karten generell "fehlkäufe" sein, weil sie viel teurer verkauft werden als sie es eigentlich wert sind. Zudem verbraucht die 680 weniger als die 7970 und lässt sich somit leiser bei besseren Temperaturen halten.
Schalte das nächste mal bitte dein Hirn ein bevor du etwas Postest, und wenn du Trolllen wilst dann versuchs mal bei einem Spiegel.

Iruwen
2012-03-19, 12:50:30
Ob die 680 in quasi jedem punkt überlegen ist wage ich zu bezweifeln.:smile:
http://www.computerbase.de/forum/showpost.php?p=11703947&postcount=314

Ich weiß schon warum ich nicht im CB-Forum les, allein der letzte Satz ;D

King
2012-03-19, 12:54:41
Teuen sind atm alle 28Nm karten wegen der Problematischen produktion. 2GBSpeicher ist sogar genug für SGSSAA ect, nur weil AMD mehr speicher verbaut als sinnvoll ist ist eine sinnvolle Speichermenge noch lange nicht zu klein. Für richtig hohe auflösungen braucht man sowieso noch SLI/Crossfire systeme und dafür wird´s wieder Costumdesigns mit mehr speicher geben, wie schon bei der 580. Mehr speicher auf einem Referenzdesign ist nur teurer und bringt kaum nutzen. Es kommt nicht auf die größe/breite des SI an sondern auf die bandbreite - und die scheint ja hoch genug zu sein. Ein kleineres SI wirkt sich auch wieder Positiv auf die Die-größe aus -> Chips sind leichter und günstiger zu Produzieren. 3 monate zu spät? Quatsch man ist bei NV den einzig sinvollen weg gegangen und bringt die Karte erst dann raus wenn es von der produktion her zumindest etwas sinn macht anstatt wie AMD ein Produkt einfach verfrüht auf den markt zu bringen - wie man an den extrem hohen Referenz-Spannungen der 7970 sehen kann. Wie viel schneller sie ist wissenn wir noch nicht, weder sicher noch genau - da musst du dich noch etwas gedulden. Aber die 680 hat sehr warscheinlich die wiet bessere Übertaktbarkeit, es kamen ja schon OC ergebnisse (nicht von NV) mit 1150Mhz auf <1V, wenn eine durchschnittliche 7970 auf <1V läuft (guck dir auch mal ergebnisse von mehreren tests an ) ist mit OC nicht viel. Ich sehe keinen grund warum sich dieser vorteil der 680 bei höheren spannungen nicht fortsetzen sollte, zumal die kleinere chipfläche ja schon vorher vermuten ließ dass GK104 sich besser (über)takten lässt.da sich die 549USD für 680 scheinbar immer mehr bestätigen wird es wohl keinen Preiskampf geben und die 28Nm-Karten generell "fehlkäufe" sein, weil sie viel teurer verkaufft werden als sie es eigentlich wert sind.
Schalte das nächste mal bitte dein Hirn ein bevor du etwas Postest, und wenn du Trolllen wilst dann versuchs mal bei einem Spiegel.
Bei so einer Unmenge an Rechtschreibfehlern sollte man nicht jemand anderen zum Hirn einschalten auffordern.

scully1234
2012-03-19, 12:57:12
Ich weiß schon warum ich nicht im CB-Forum les, allein der letzte Satz ;D


Wieder so ein Kid was mit dem Tes Optionen spielt und meint die Leute meschugge zu machen damit

Daran wird man sich wohl gewöhnen müssen bis völlig wertungsfrei Benches kommen

N0Thing
2012-03-19, 13:02:27
Ist das deshalb auch gleich ein Indiz dafür das das Doppelsandwitch "verhungert"? Immerhin solllte der hohe Speichertakt eine ebenbürtige Bandbreite des Vorgängers 580GTX ermöglichen

Nö, das ist nur eine Antwort auf deine Frage, ob das SI schon bekannt sei. ;)
Ich kann mir nicht vorstellen, daß die Bandbreite bei der Dual-GPU Lösung zu einem Problem werden wird.

Duke Nukem
2012-03-19, 13:04:07
@scully1234
Zitat:
Daran wird man sich wohl gewöhnen müssen bis völlig wertungsfrei Benches kommen
Das sollten diese Leute die sowas posten dann auch tun.
Zitat:
derzeit sieht die GTX680 in quasi jedem punkt überlegen aus

scully1234
2012-03-19, 13:05:56
Nö, das ist nur eine Antwort auf deine Frage, ob das SI schon bekannt sei. ;)
Ich kann mir nicht vorstellen, daß die Bandbreite bei der Dual-GPU Lösung zu einem Problem werden wird.

Mein Fehler mit "bekannt sei" meinte ich eher auf "verhungern" bezogen als auf die rohen Spezifikationen:smile:

Hades11
2012-03-19, 13:07:03
Bei so einer Unmenge an Rechtschreibfehlern sollte man nicht jemand anderen zum Hirn einschalten auffordern.
Rechtschreibung ist Imho unwichtig, solange jeder weiß was gemeint ist, Kritik ist aber angekommen und ein Großteil der Fehler wurden korrigiert. :rolleyes:
Ob die 680 in quasi jedem punkt überlegen ist wage ich zu bezweifeln.:smile:
http://www.computerbase.de/forum/showpost.php?p=11703947&postcount=314
Eine übertaktete 7950 mit einer auf Referenzwerten laufenden 680 zu vergleichen und die Leistung nur an einem einzigen Benchmark festzustellen ist wirklich nicht sinnvoll. :uclap: Außerdem haben übertaktete Karten sowieso ein Besseres P/L-verhältniss, da man durch das Übertakten eine kostenlose mehrleistung bekommt. Warte erst mal die offiziellen Reviews und Tests ab und dann vergleiche mal mit einer ebenfalls übertakteten 680.

cR@b
2012-03-19, 13:51:34
http://www.fudzilla.com/home/item/26406-28nm-works-well-for-nvidia

Mal ne gute Nachricht am Rande und hey, zerleischt euch nicht so hier :p

scully1234
2012-03-19, 13:53:32
@ Scully

OBR verbreitet doch Mist.
Wie will Nvidia bei erst mitte Februar gestarteten Produktion ( Semiaccurate schrieb davon) und angeblich etwas mehr Performance wie bei der 7970 billige Preise fahren?
Gibts nochmal nen Preisturz bei den GTX580 Karten?
Wohl ja kaum. -.-


Nvidia Geforce GTX 680 - Laut US-Händler günstiger als eine Radeon HD 7970 (http://www.gamestar.de/hardware/news/grafikkarten/2565939/nvidia_geforce_gtx_680.html)

boxleitnerb
2012-03-19, 13:55:26
http://www.fudzilla.com/home/item/26406-28nm-works-well-for-nvidia

Mal ne gute Nachricht am Rande und hey, zerleischt euch nicht so hier :p

Wäre interessant, mal neutrale Quellen dazu zu hören. Charlie ist nicht neutral, Nvidia offensichtlich auch nicht.

y33H@
2012-03-19, 14:00:53
Das nennt sich Marktanteile durch aggressive Preisgestaltung zurückgewinnen ...

scully1234
2012-03-19, 14:01:05
Also neulich hat Mstr. Huang noch sorgenvoll die 28nm Produktion beklagt per Telefonmeeting und nun soll wieder alles so ziemlich neutral sein?

Hübie
2012-03-19, 14:06:11
Bei MacMall gibts die für 629$ (http://www.macmall.com/p/ASUS-Video-Cards/product~dpno~9074917~pdp.hbdihie).
Also so oder so alles zu teuer.

Superheld
2012-03-19, 14:07:45
http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop

Yes endlich geht es los uiuiui!

thx...706Mhz stock ?

http://www.abload.de/img/725a8b9d_gpuz0skfu.png (http://www.abload.de/image.php?img=725a8b9d_gpuz0skfu.png)

Raff
2012-03-19, 14:11:06
Man sieht sehr gut, dass diese GPU-Z-Version noch nicht alles "weiß" und auslesen kann - warum sollte sie also den Takt richtig ausgeben? Die 700-MHz-Gerüchte gibt's schon ewig.

MfG,
Raff

AnarchX
2012-03-19, 14:13:18
... dazu noch ein älterer 300.65er Treiber, der wohl auch beim Current Clock nur 706MHz meldet und nicht 1006MHz wie der 300.99er.

scully1234
2012-03-19, 14:32:05
Das nennt sich Marktanteile durch aggressive Preisgestaltung zurückgewinnen ...

Meinst du der Preis ist schon aggressiv?

Auf Gefahr hin das man "Out of Stock" ist mit GK104 vielleicht,aber von den Herstellungskosten dürfte sich Nvidia doch gerade ein drittes Ei freuen:biggrin:

Wenn man bedenkt mit was für Die Size Schwergewichten sonst immer gekontert wurde:freak:

dildo4u
2012-03-19, 14:43:28
Nvidia wird auch noch bei 300€ massig Kohle mit der Karte machen,aber am Anfang werden sie min 400€ mitnehmen.Es gibt imo kaum was zurück zu gewinnen bei den Preisen die AMD aufgerufen hat,wird sich nicht viel verkauft haben.

Knuddelbearli
2012-03-19, 14:49:07
wie dürfte eigentlich ne 670er aussehen ? 1 Shader Block weg und 950Mhz ?

wäre ja immerhin schon -20% rohpower, da die blöcke so groß sind.

AnarchX
2012-03-19, 15:02:39
Durchaus denkbar, dazu wohl nur 4,8-5,0 Gbps Speicher.
Irgendwann dürfte es wohl auch noch eine 1152SPs+192-Bit Variante geben.

Superheld
2012-03-19, 15:06:08
Vergleichswerte bitte:)

http://www.abload.de/img/f882ffc3_heaven2005-a5kz6.jpeg (http://www.abload.de/image.php?img=f882ffc3_heaven2005-a5kz6.jpeg)

N0Thing
2012-03-19, 15:09:29
Das nennt sich Marktanteile durch aggressive Preisgestaltung zurückgewinnen ...

Das klappt aber auch nur dann, wenn man entsprechend viele Karten liefern kann.

Knuddelbearli
2012-03-19, 15:10:47
und der gegner nicht sofort mitzieht ( bzw er nicht mitziehen kann )

derguru
2012-03-19, 15:45:46
Vergleichswerte bitte:)

http://www.abload.de/img/f882ffc3_heaven2005-a5kz6.jpeg (http://www.abload.de/image.php?img=f882ffc3_heaven2005-a5kz6.jpeg)
7970 default
http://www.abload.de/img/heaven2012-03-1915-435au0s.png

AnarchX
2012-03-19, 15:47:17
Möglicherweise ist in dem 300.65 Treiber noch kein Turbo aktiv.

Man From Atlantis
2012-03-19, 15:50:47
Möglicherweise ist in dem 300.65 Treiber noch kein Turbo aktiv.
Ailuros hinted earlier it draws less than GTX560Ti when Turbo off and more when Turbo is activated.. Maybe 1006MHz is Turbo and it can still boost the clock if There is room to TDP..

mironicus
2012-03-19, 15:52:24
i3-2100 (GF104) vs i7-2600k (7970)?

derguru
2012-03-19, 15:54:02
i3-2100 (GF104) vs i7-2600k (7970)?
das ist es wahrscheinlich.bei der geringen auflösung und nur 4xaa durchaus möglich auch bei extreme tess.

MadManniMan
2012-03-19, 15:56:11
Hat der i3 HT? Wenn ja, könnte man dem i7 doch mal zwei Kerne nehmen, oder?

Dural
2012-03-19, 15:56:16
min. FPS bescheiden, aber das liegt am Bench / System selber und nicht an der GPU.

boxleitnerb
2012-03-19, 16:01:15
Wenn die Leute es mal lernen würden, alle Szenen mindestens einmal am Anfang durchzudrücken, wären auch die min fps reproduzierbar und gescheit...

derguru
2012-03-19, 16:08:29
Hat der i3 HT? Wenn ja, könnte man dem i7 doch mal zwei Kerne nehmen, oder?
hab dem i7 ht und 2 kerne ausgeschaltet und habe 1 fps weniger,ändert sich doch nichts,nicht mal am max.fps.

Zergra
2012-03-19, 16:15:46
hab dem i7 ht und 2 kerne ausgeschaltet und habe 1 fps weniger,ändert sich doch nichts,nicht mal am max.fps.
Dann muss aber auch der Turbo aus und der große L3 Cache ist auch im Weg. Imo nicht so einfach reproduzierbar !

Godmode
2012-03-19, 16:17:09
Wenn die Leute es mal lernen würden, alle Szenen mindestens einmal am Anfang durchzudrücken, wären auch die min fps reproduzierbar und gescheit...

Gerade Heaven ist da anfällig im ersten Durchlauf. Ich warte aber sowieso lieber auf ordentliche Benchmarks ala PCGH.

mironicus
2012-03-19, 16:17:45
Gab es schon vorher Heaven-Benchmarks irgendwo?

Der Punkteabstand ist meiner Meinung nach aber zu groß, so dass die 7970 wohl wirklich hier etwas schneller sein dürfte. Die CPU spielt bei Heaven keine so große Rolle, die wird kaum belastet und der i3 ist in seiner IPC-Leistung nicht weit unter dem i7. Ein zweiter Durchlauf wird die minimalen Frames etwas erhöhen, aber das wirkt sich kaum auf den Score aus.

Ich habe auf meiner 6950 einen zweiten Durchlauf gestartet und die min. Frames stiegen von 8 auf 12 aber die Gesamtepunktzahl ist im zweiten Durchlauf nur um 2 Punkte gestiegen. Ich habe 809 Punkte mit den gleichen Settings die auf den Bildern hier schon gepostet wurden.

MadManniMan
2012-03-19, 16:18:55
hab dem i7 ht und 2 kerne ausgeschaltet und habe 1 fps weniger,ändert sich doch nichts,nicht mal am max.fps.

Vielen Dank! Dein System scheint(!) recht reproduzierbar zu laufen, das andere vielleicht nicht ganz ... üben wir uns in Geduld ^^

Superheld
2012-03-19, 16:20:06
Crysis 1600*900 very high 4xAA Average ~50fps

GTX 680
http://www.abload.de/img/de9b1f65_crysis2005-sej11.jpeg (http://www.abload.de/image.php?img=de9b1f65_crysis2005-sej11.jpeg)

INDEX75
2012-03-19, 16:23:54
Vergleichswerte bitte:)

http://www.abload.de/img/f882ffc3_heaven2005-a5kz6.jpeg (http://www.abload.de/image.php?img=f882ffc3_heaven2005-a5kz6.jpeg)

7970 @ default

http://www.abload.de/img/7970lgq_2o1usr.jpg
Diesmal mit einem "schwachen" FX-0815, äh, FX-8150 :wink:

derguru
2012-03-19, 16:30:14
tut sich null,also doch gpu-limitiert selbt bei den settings.

Crysis 1600*900 very high 4xAA Average ~50fps

GTX 680
http://www.abload.de/img/de9b1f65_crysis2005-sej11.jpeg (http://www.abload.de/image.php?img=de9b1f65_crysis2005-sej11.jpeg)

ist das mit sgssaa:confused::tongue:

Iruwen
2012-03-19, 16:36:50
Macht 32/64 Bit Windows einen Unterschied?

Duke Nukem
2012-03-19, 16:37:50
Crysis 1600*900 very high 4xAA Average ~50fps

GTX 680
http://www.abload.de/img/de9b1f65_crysis2005-sej11.jpeg (http://www.abload.de/image.php?img=de9b1f65_crysis2005-sej11.jpeg)

Das wäre mehr als traurig in 1600x900.

AnarchX
2012-03-19, 16:44:35
Gab es schon vorher Heaven-Benchmarks irgendwo?

http://www.abload.de/img/1618503636863221510rdfh5.png

Der Treiber, der dort beiliegt, dürfte fast 2 Monate alt sein.

mironicus
2012-03-19, 16:50:27
Laut den NVidia-Benchs sollte Heaven 12% schneller sein gegenüber einer 7970...

dildo4u
2012-03-19, 16:50:51
Er schreibt das auch im Control Panel 700mhz angezeigt werden,das könnte passen.NV wird vermutlich zum Launch über die Update Funktion den 300.99 anbieten,um keine Ergebnisse vorher zu leaken.

http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/110#post_16748662

aufkrawall
2012-03-19, 16:51:44
ist das mit sgssaa:confused::tongue:
Sieht auf dem Screenshot aus wie nur Geometrie MSAA.

Macht 32/64 Bit Windows einen Unterschied?
So gut wie gar nicht.

fizzo
2012-03-19, 16:57:06
Ist die GTX 680 nicht DirectX 11.1 ready?

http://cdn.overclock.net/e/e7/600x338px-LL-e71fec4d_19032012004.jpeg

Blediator16
2012-03-19, 16:57:11
http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop

Yes endlich geht es los uiuiui!

Wie in der Tabelle steht nun auch auf der Packung nur DX11. Ist das also schonwieder so, dass man da kein Update bringt?

Edit: sec zu spät^^

Er schreibt das auch im Control Panel 700mhz angezeigt werden,das könnte passen.NV wird vermutlich zum Launch über die Update Funktion den 300.99 anbieten,um keine Ergebnisse vorher zu leaken.

http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/110#post_16748662

Hier auch nur Dx11 :(

derguru
2012-03-19, 16:57:38
http://www.abload.de/img/1618503636863221510rdfh5.png

Der Treiber, der dort beiliegt, dürfte fast 2 Monate alt sein.

nichts für ungut aber was die da gebencht haben stimmt doch vorn und hinten nicht,zwischen der 580gtx und der 7970 ist der abstand größer als da vorgezeigt.
http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_7950/benchmarks.php?benchmark=heaven2ex

Er schreibt das auch im Control Panel 700mhz angezeigt werden,das könnte passen.NV wird vermutlich zum Launch über die Update Funktion den 300.99 anbieten,um keine Ergebnisse vorher zu leaken.

http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/110#post_16748662

du glaubst also das in heaven z.b. noch mal fast 40% drauf kommt? :|

dildo4u
2012-03-19, 17:02:18
nichts für ungut aber was die da gebencht haben stimmt doch vorn und hinten nicht,zwischen der 580gtx und der 7970 ist der abstand größer als da vorgezeigt.
http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_7950/benchmarks.php?benchmark=heaven2ex
Wayne?Der 7970 Wert stimmt,vermutlich auch der 680.Sind ja keine Welten zwischen den Karten.

derguru
2012-03-19, 17:07:15
ich glaub hkepc.com erstmal gar nichts,da warte ich doch lieber auf made in germany.

dildo4u
2012-03-19, 17:23:44
Klar aber zumindest hatte hkepc ein aktuellen Treiber und die Karte wird definitiv nicht mit 700mhz laufen.

Mit 300.99 GPU clock 1000mhz

http://www.hkepc.com/7672/page/6#view

300.65 700mhz und dort wird nicht mal GTX 680 sondern noch der Codename angezeigt

http://www.abload.de/image.php?img=725a8b9d_gpuz0skfu.png

Schätze mal das war der Treiber für die Engineer Samples.

Blediator16
2012-03-19, 17:28:21
Klar aber zumindest hatte hkepc ein aktuellen Treiber und die Karte wird nicht mit 700mhz laufen.

Mit 300.99 GPU clock 1000mhz

http://www.hkepc.com/7672/page/6#view

300.65 700mhz und dort wird nicht mal GTX 680 sondern noch der Codename angezeigt

http://www.abload.de/image.php?img=725a8b9d_gpuz0skfu.png

Könnte dann der Ur104 mit den 700 gewesen sein. Dann hätten sie ihn ja bereits ziemlich gut geprügelt und bis zu den Gerüchten für 1400 wäre das eine 100%ige Steigerung:eek:

derguru
2012-03-19, 17:32:02
Klar aber zumindest hatte hkepc ein aktuellen Treiber und die Karte wird definitiv nicht mit 700mhz laufen.

Mit 300.99 GPU clock 1000mhz

http://www.hkepc.com/7672/page/6#view

300.65 700mhz und dort wird nicht mal GTX 680 sondern noch der Codename angezeigt

http://www.abload.de/image.php?img=725a8b9d_gpuz0skfu.png

Schätze mal das war der Treiber für die Engineer Samples.
sagen wir mal so,wenn die wirklich auf 700mhz beim benchen bleibt sind die werte mehr als beachtlich,für heaven würde sogar um die 750mhz takt ausreichen um mit der 7970 gleichzuziehen.

was mich dazu treibt das es wirklich 700mhz sind ist dieser crysis wert von 50fps denn das ist sehr wenig.

Konami
2012-03-19, 17:32:48
Ist die GTX 680 nicht DirectX 11.1 ready?

http://cdn.overclock.net/e/e7/600x338px-LL-e71fec4d_19032012004.jpeg
Wie in der Tabelle steht nun auch auf der Packung nur DX11. Ist das also schonwieder so, dass man da kein Update bringt?

Edit: sec zu spät^^



Hier auch nur Dx11 :(
Sieht fast so aus, als würde DX11.1 ähnlich "wichtig" werden wie DX10.1 :ugly:

Blediator16
2012-03-19, 17:32:51
sagen wir mal so,wenn die wirklich auf 700mhz beim benchen bleibt sind die werte mehr als beachtlich,für heaven würde sogar um die 750mhz takt ausreichen um mit der 7970 gleichzuziehen.

Wenns die 1006 am Ende mit dem "neueren Treiber" werden, dann dürfte sie die 7970 ziemlich deutlich schlagen.

Sieht fast so aus, als würde DX11.1 ähnlich "wichtig" werden wie DX10.1 :ugly:

Das wäre in der tat echt traurig. Nicht, dass DX11.1 die Welt verändern würde, ab sie lassen einfach mal wieder einen "Standard" aus. Soetwas bremst etwas. Dann hätten sie gleich bei PCIE2.0 bleiben könnten hätte dann auch niemanden gejuckt.

@Heaven:
http://cdn.overclock.net/f/f9/442x700px-LL-f96567a7_Unigine.jpeg

Der i3 wird also nicht entscheident sein im Test, sondern wenn überhaupt der Treiber. Ob das einen Unterschied in 3.0 macht weiß man noch nicht.

M4xw0lf
2012-03-19, 17:35:52
Die 700 MHz waren doch von Anfang an nur Auslesefehler, warum in aller Welt soll der Takt im Spiel anliegen?

AnarchX
2012-03-19, 17:37:31
Die 706MHz sind irgendein Basis-Takt-State, der vielleicht in Power-Viren wie FurMark angelegt wird.

Fragt sich nun ob der 300.65 nicht in der Lage ist den Turbo an GPU-Z weiterzugeben oder ob der Turbo überhaupt nicht aktiv ist.

Liquaron
2012-03-19, 17:38:49
Wie....jetzt haben sogar schon Händler ne GTX 680 und es gibt noch keine anständigen Benchmarks? BF3, Crysis2 usw. anyone?

Blediator16
2012-03-19, 17:39:18
Die 700 MHz waren doch von Anfang an nur Auslesefehler, warum in aller Welt soll der Takt im Spiel anliegen?

So viele Fragen, die erst in 3 Tagen beantwortet werden :D

Konami
2012-03-19, 17:39:59
Das wäre in der tat echt traurig. Nicht, dass DX11.1 die Welt verändern würde, ab sie lassen einfach mal wieder einen "Standard" aus. Soetwas bremst etwas. Dann hätten sie gleich bei PCIE2.0 bleiben könnten hätte dann auch niemanden gejuckt.
D3D11.1 setzt eh auf WDDM 1.2 auf, was erst mit Win8 eingeführt wird. Und wenn es nach dem aktuellen Stimmungsbild geht, wird Win8 auf Desktops nicht gerade wahnsinnig schnell Verbreitung finden.

Insofern wäre es wahrscheinlich eh nicht von Developern ernstgenommen worden, IMHO.

Duke Nukem
2012-03-19, 17:41:19
Bei dem crysis Bench kann was nicht stimmen. Das wäre der Supergau für kepler.
50 Frames bei 1600x900

Zitat:
In our 1,920 x 1,080 Very High quality Crysis test, the HD 7970 scored 65fps: 11fps faster than the single GPU GTX 580,

http://www.pcpro.co.uk/reviews/graphics-cards/371893/amd-radeon-hd-7970/2#ixzz1pa3YAXru

M4xw0lf
2012-03-19, 17:41:45
Insofern wäre es wahrscheinlich eh nicht von Developern ernstgenommen worden, IMHO.

Natürlich erst recht, wenn Nvidia es mal wieder links liegen lässt so wie schon DX10.1.

mironicus
2012-03-19, 17:42:27
Nach und nach kommt die schreckliche Wahrheit ans Licht... :D

dildo4u
2012-03-19, 17:43:01
Die 700 MHz waren doch von Anfang an nur Auslesefehler, warum in aller Welt soll der Takt im Spiel anliegen?
Weil die Karte niemals so schlecht unter Crysis läuft.Das dürfte deutlich unter der GTX 570 liegen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9215647&postcount=6828

AnarchX
2012-03-19, 17:43:54
Bei dem crysis Bench kann was nicht stimmen. Das wäre der Supergau für kepler.
50 Frames bei 1600x900

Zitat:
In our 1,920 x 1,080 Very High quality Crysis test, the HD 7970 scored 65fps: 11fps faster than the single GPU GTX 580,

http://www.pcpro.co.uk/reviews/graphics-cards/371893/amd-radeon-hd-7970/2#ixzz1pa3YAXru
Ist denn das die gleiche Szene?

Duke Nukem
2012-03-19, 17:45:29
@AnarchX
Das sit beidesmal mit dem Crysis Benchtool gebencht. Das kann nicht sein. Sonst wärs bitter für NV mit ihrem Kepler.

Gaestle
2012-03-19, 17:48:10
Der i3 wird also nicht entscheident sein im Test, sondern wenn überhaupt der Treiber. Ob das einen Unterschied in 3.0 macht weiß man noch nicht.


Die Min-fps sind beim i3 nur halb so hoch wie bei den anderen Karten.
Selbes Bild bei bei den weiter oben gezeigten Karten-Ergebnis-Bildchen.

Blediator16
2012-03-19, 17:48:51
Die Min-fps sind beim i3 nur halb so hoch wie bei den anderen Karten.
Selbes Bild bei bei den weiter oben gezeigten Karten-Ergebnis-Bildchen.

Im Endeffekt wären es trotzdem nur sehr wenige Pünktchen das ist nicht entscheident.

kunibätt
2012-03-19, 17:53:30
Vergesst mal den Crysis-Score. IMHO hat sich der User "Superheld" da nen Spaß draus gemacht und die Ergebnisse seiner GTX560 als GTX680 gepostet. Falls nicht wäre das trotzdem ganz cool, weil dann könnte man durch den Verkauf seiner GTX570 fette Arbitragegewinne erzielen und davon umsonst eine HD7970 kaufen ;D

Gaestle
2012-03-19, 17:56:35
Im Endeffekt wären es trotzdem nur sehr wenige Pünktchen das ist nicht entscheident.


Das ist IMHO noch gar nicht raus.
Das von Dir gezeigte Prozessorbildchen weist offenbar ein GPU-Limit auf. Das Bildchen zeigt nur 39fps avg, während die 7970 41% mehr avg. (55fps) rennt.

Wenn das GPU-Limit steigt, kann der Einfluss der CPU möglicherweise größer werden.

Blediator16
2012-03-19, 17:56:46
Vergesst mal den Crysis-Score. IMHO hat sich der User "Superheld" da nen Spaß draus gemacht und die Ergebnisse seiner GTX560 als GTX680 gepostet. Falls nicht wäre das trotzdem ganz cool, weil dann könnte man durch den Verkauf seiner GTX570 fette Arbitragegewinne erzielen und davon umsonst eine HD7970 kaufen ;D

Das wird nicht stimmen da lief etwas falsch;)

derguru
2012-03-19, 17:59:20
Vergesst mal den Crysis-Score. IMHO hat sich der User "Superheld" da nen Spaß draus gemacht und die Ergebnisse seiner GTX560 als GTX680 gepostet. Falls nicht wäre das trotzdem ganz cool, weil dann könnte man durch den Verkauf seiner GTX570 fette Arbitragegewinne erzielen und davon umsonst eine HD7970 kaufen ;D
Superheld hat sich kein spaß gemacht denn das kommt hier her.
http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop

Superheld
2012-03-19, 18:00:45
ich bin unschuldig:biggrin:

AnarchX
2012-03-19, 18:01:29
Aber wohl eben kein vergleichbarer Benchmark, sondern einfach ein paar Gameplay Screenshots.

dildo4u
2012-03-19, 18:03:17
Aber wohl eben kein vergleichbarer Benchmark, sondern einfach ein paar Gameplay Screenshots.
?Das sollte der GPU Bench sein.

boxleitnerb
2012-03-19, 18:07:47
GPU-Z 0.6.0 ist endlich verfügbar und bringt Kepler-Erkennung mit. Vielleicht verwendet es ja jemand.

derguru
2012-03-19, 18:19:58
nehmen wir die 50fps von der gtx680 und steigern das bei 40% mehr takt zu 35% performancegewinn,so kommt man auf,

67,5fps für die gtx680
64,8fps=7970 default mit screen
http://www.abload.de/thumb/crysis2012-03-1918-13dhkqs.jpg (http://www.abload.de/image.php?img=crysis2012-03-1918-13dhkqs.jpg)
das passt.

Blaire
2012-03-19, 18:22:21
Vergesst den Benchmark da limitiert die CPU zu stark.

Blediator16
2012-03-19, 18:30:09
http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/350#post_16750252

i3 stock mit 7970 selbe settings
laut des gpuz screens aus seinem anderen beitrag stock 7970
also wäre es im grunde auch wie bei amd. alte treiber in der verpackung und der verbraucher darf sich die neueren besseren dann erstmal selbst besorgen

dildo4u
2012-03-19, 18:32:06
http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/350#post_16750252

i3 stock mit 7970 selbe settings
Auch so bescheidene min fps,naja das wird nix bis jemand ein 2500k oder besser zum Benchen nutzt.

Hübie
2012-03-19, 19:01:02
Das Problem bei der Betrachtung reiner fps-Werte ist, das diese nur einmal kurz auftreten können. Meiner Meinung nach sagen die min-fps auch nichts aus. Ein Graph mit fps und frametimes ist das A und O.
Bis das aber in Tests ankommt vergehen sicher noch Jahre.

Besonders im Crysis 2 Benchmark hat man am Anfang (wenn der Bildschirm sogar noch schwarz ist) manchmal min-fps von 8-10. Der Benchmark an sich läuft aber bspw. mit konstanten ~40 fps durch.

boxleitnerb
2012-03-19, 19:05:20
Nochmal:
Die min-fps in Heaven kann man total in die Tonne treten, wenn man nicht gescheit bencht - was 99,9% der Leute nicht tun.

Liquaron
2012-03-19, 19:08:15
Wayne Benchmarktests.....gebt uns Games FPS!

Ich will mit der Karte zocken und nicht benchen ;)

dildo4u
2012-03-19, 19:11:36
Nochmal:
Die min-fps in Heaven kann man total in die Tonne treten, wenn man nicht gescheit bencht - was 99,9% der Leute nicht tun.

Jo aber wird haben jetzt das 3 Ergebnis mit 10fps min beim i3.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9215765&postcount=6846

Denke nicht das die CPUs hier verschieden gestestet wurden also z.b grad beim i3 nur ein Durchgang.I5 hat auch wieder 20fps min scheint konstant.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9215593&postcount=6815

Ailuros
2012-03-19, 19:34:29
http://www.fudzilla.com/home/item/26406-28nm-works-well-for-nvidia

Wie kann man gleichzeitig von seinen yields zufrieden sein und einen ~$499 MSRP verlangen? Was verpass ich gerade wieder? :rolleyes:

dildo4u
2012-03-19, 19:38:30
http://www.fudzilla.com/home/item/26406-28nm-works-well-for-nvidia

Wie kann man gleichzeitig von seinen yields zufrieden sein und einen ~$499 MSRP verlangen? Was verpass ich gerade wieder? :rolleyes:
Man Orientiert sich an AMD was sonst?

M4xw0lf
2012-03-19, 19:42:49
http://www.fudzilla.com/home/item/26406-28nm-works-well-for-nvidia

Wie kann man gleichzeitig von seinen yields zufrieden sein und einen ~$499 MSRP verlangen? Was verpass ich gerade wieder? :rolleyes:

Man ist zufrieden mit seinen yields und noch viel zufriedener mit seinem MSRP, kein Zweifel ;D

-GENO-
2012-03-19, 19:42:52
Vergleichswerte bitte:)

http://www.abload.de/img/f882ffc3_heaven2005-a5kz6.jpeg (http://www.abload.de/image.php?img=f882ffc3_heaven2005-a5kz6.jpeg)
Ich steuere auch mal mein Resultat bei um die Ergebnisse zu untermauern. :smile:

http://www.abload.de/img/unigine1600x900yex6n.jpg
MfG

MadManniMan
2012-03-19, 19:44:42
Nvidia wäre auch schön blöde, wenn sie die offenbar funktionierende Hochpreistaktik AMDs untergraben würden. Ja, ein kleiner Preiskampf wird kommen - aber wohl nicht mehr auf dem bekannten 40-nm-Niveau. Sagt meine Swarowksi-Kugel.

boxleitnerb
2012-03-19, 19:46:28
Außerdem können sie genauso lügen bzw. stark beschönigen. Ist doch nichts Neues in der Industrie.

foenfrisur
2012-03-19, 19:47:38
ich frage mich gerade, ob die 2x 6-pin-anschlüsse das overclocking + turbo begrenzen (werden) ?!

also ob auch noch (deutlich) mehr drin wäre, wenn eben 1x 8-pin + 1x6-pin wäre ?!

mfg

reaperrr
2012-03-19, 19:57:17
http://www.fudzilla.com/home/item/26406-28nm-works-well-for-nvidia

Wie kann man gleichzeitig von seinen yields zufrieden sein und einen ~$499 MSRP verlangen? Was verpass ich gerade wieder? :rolleyes:
Dass es sich hier um Unternehmen handelt, denen es um möglichst hohe Gewinne geht, würde ich sagen:wink:

Odal
2012-03-19, 20:03:47
Nvidia wäre auch schön blöde, wenn sie die offenbar funktionierende Hochpreistaktik AMDs untergraben würden. Ja, ein kleiner Preiskampf wird kommen - aber wohl nicht mehr auf dem bekannten 40-nm-Niveau. Sagt meine Swarowksi-Kugel.

wo gabs denn auf 40nm grossartige Preiskämpfe? GF114 ist preisstabil seit ewigkeiten, barts kostet auch schon ewig das gleiche und die erste gen. 40nm (5870/5850 und thermi) war auch irgendwie überteuert für das was sie leistete

ich sehe hier eher eine Wiederholung....die launch preise sinken erstmal etwas und dann wird sich hier ewig nix tun...wenn kepler raus ist + 1-2 Wochen dann wird man die Preise haben wie sie erstmal das ganze Jahr fix bleiben

Hades11
2012-03-19, 20:12:24
ich frage mich gerade, ob die 2x 6-pin-anschlüsse das overclocking + turbo begrenzen (werden) ?!

also ob auch noch (deutlich) mehr drin wäre, wenn eben 1x 8-pin + 1x6-pin wäre ?!

mfg

Imho wird das nicht stark begrenzen, die normale TDP liegt bei 195 Watt, da hat man mit 2 6Pin Stecker noch sehr viel luft nach oben. Außerden hat ein 8 Pin-stecker das selbe wie ein 6 pin Stecker + 2 Massen. Es kommt also eher darauf an wie "Robust" die Spannungsversorgung bzw das PCB sind. Darum mache ich mir keine sorgen, ich denke NV ist lernfähig genug um diesen fehler, den sie schon bei der 590 gemacht hatten, nicht nochmal zu machen. Manche Custom-designes hatten schon in der vergangenheit eine verbesserte Spannungsversorgung (z.b. GTX570 SOC) und es gibt keinen grund warum es diese nicht wieder geben sollte.

dildo4u
2012-03-19, 20:15:38
Imho wird das nicht stark begrenzen, die normale TDP liegt bei 195 Watt, da hat man mit 2 6Pin Stecker noch sehr viel luft nach oben. Außerden hat ein 8 Pin-stecker das selbe wie ein 6 pin Stecker + 2 Massen. Es kommt also eher darauf an wie "Robust" die Spannungsversorgung bzw das PCB sind. Darum mache ich mir keine sorgen, ich denke NV ist lernfähig genug um diesen fehler, den sie schon bei der 590 gemacht hatten, nicht nochmal zu machen. Manche Custom-designes hatten schon in der vergangenheit eine verbesserte Spannungsversorgung (z.b. GTX570 SOC) und es gibt keinen grund warum es diese nicht wieder geben sollte.
NV muss nicht unbedingt viel bessere Spannunsversorgung verbauen,um eine zweite 590 zu verhindern.Der Limiter muss nur unabhänig von Treiber funktionieren,damit man ihn nicht umgehen kann.(Bis auf die 20%+ die NV zulässt)

Adam D.
2012-03-19, 20:16:23
ich sehe hier eher eine Wiederholung....die launch preise sinken erstmal etwas und dann wird sich hier ewig nix tun...wenn kepler raus ist + 1-2 Wochen dann wird man die Preise haben wie sie erstmal das ganze Jahr fix bleiben
Seh ich ähnlich. Der GK110-Launch dürfte in Nvidias Lineup vielleicht noch etwas bewegen, außer man startet >599$ (was ja noch ein Schnäppchen wäre im Vergleich zu GK104 :freak: ).

aufkrawall
2012-03-19, 20:17:54
Vergesst den Benchmark da limitiert die CPU zu stark.
Mit SSAA nicht. :)
Ein SGSSAA-Bench wär eh mal interessant.

Ailuros
2012-03-19, 20:28:47
Dass es sich hier um Unternehmen handelt, denen es um möglichst hohe Gewinne geht, würde ich sagen:wink:

Oder man leckt TSMC ein bisschen den Hintern, damit sie nicht in Panik geraten:

http://www.brightsideofnews.com/news/2012/3/14/exclusive-nvidia-tapes-out-tegra-at-samsung-fab2c-ibm2c-globalfoundries-next.aspx

boxleitnerb
2012-03-19, 20:44:18
http://www.abload.de/thumb/2am93roodhl.jpg (http://www.abload.de/image.php?img=2am93roodhl.jpg)
http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/410#post_16751307

78.4fps. Das wäre gute 35% flotter als die 7970.

Superheld
2012-03-19, 20:48:18
thats fake .

boxleitnerb
2012-03-19, 20:48:37
Weil?
Edit: Er hat die Karte angeblich auf 1300/6500 übertakten können:

Batman AC: 4x MSAA, 16xAF, Global Settings on very high, PhysX off (to compare to AMD)
112 FPS at 1300/6500 on 1920x1080.

Eine GTX570 erreicht mit dem Patch in diesen Einstellungen 40fps, allerdings mit 8xMSAA:
http://www.legitreviews.com/article/1798/3/

dildo4u
2012-03-19, 20:50:44
thats fake .
Nope die Anzeige ist ein Bug wenn man die Onboard GPU+680 nutzt z.b mit Virtu.

Ist dieses Board.
http://www.gigabyte.com/products/product-page.aspx?pid=4016#ov

Ailuros
2012-03-19, 20:53:15
Na auf jeden Fall liest GPU-Z endlich "Boost" anstatt "Shader" :D

boxleitnerb
2012-03-19, 20:54:26
Was mich stutzig macht: Warum hat er erst in 1600x900 gebencht und jetzt in 1080p?

dildo4u
2012-03-19, 20:55:42
Was mich stutzig macht: Warum hat er erst in 1600x900 gebencht
Weil er die alten Benches im Thread entkräften wollte.Es ist ein anderer Typ anderes System mit i7 2600 und 1080p Monitor.

scully1234
2012-03-19, 20:57:14
Oder man leckt TSMC ein bisschen den Hintern, damit sie nicht in Panik geraten:

http://www.brightsideofnews.com/news/2012/3/14/exclusive-nvidia-tapes-out-tegra-at-samsung-fab2c-ibm2c-globalfoundries-next.aspx

Sozusagen ein rein diplomatischer Schachzug von Huang

like verbales Baldrian for TSMC:)

derguru
2012-03-19, 20:59:33
Weil er die alten Benches im Thread entkräften wollte.Es ist ein anderer Typ anderes System mit i7 2600 und 1080p Monitor.
was aber nicht geklappt hat wenn es die 1300mhz sind.;)

Leonidas
2012-03-19, 20:59:41
Nvidia wäre auch schön blöde, wenn sie die offenbar funktionierende Hochpreistaktik AMDs untergraben würden. Ja, ein kleiner Preiskampf wird kommen - aber wohl nicht mehr auf dem bekannten 40-nm-Niveau. Sagt meine Swarowksi-Kugel.


Meine Kugel sagt, daß wir richtige gute Preise für die 28nm-Beschleuniger erst sehen werden, wenn diese erste 28nm-Generation schon wieder ausläuft.

Superheld
2012-03-19, 21:00:10
Nope die Anzeige ist ein Bug wenn man die Onboard GPU+680 nutzt z.b mit Virtu.

Ist dieses Board.
http://www.gigabyte.com/products/product-page.aspx?pid=4016#ov

achso.. also bei ihn schein dann die 1006 Mhz beim benchen anzuliegen, beim andern nich:confused:

dildo4u
2012-03-19, 21:05:00
achso.. also bei ihn schein dann die 1006 Mhz beim benchen anzuliegen, beim andern nich:confused:
Der 300.99 ist der einzige Treiber der die Karte korrekt als 680 anzeigt und 1Ghz einstellt,alles vorher sind Treiber für Vorserien Karten die wohl nich mit dem finalen Takt liefen.

AnarchX
2012-03-19, 21:06:35
Laut GPU-Z/Unwinder wohl doch D3D11.1.

Iruwen
2012-03-19, 21:07:34
Nvidia wäre auch schön blöde, wenn sie die offenbar funktionierende Hochpreistaktik AMDs untergraben würden. Ja, ein kleiner Preiskampf wird kommen - aber wohl nicht mehr auf dem bekannten 40-nm-Niveau. Sagt meine Swarowksi-Kugel.
Bei 40nm gabs 'nen Preiskampf? Die 5870 war von Anfang an günstig, 380$ MSRP.

/e: "günstig" ist relativ, normaler Preis im Vergleich zu heute halt.

boxleitnerb
2012-03-19, 21:09:03
Die Ergebnisse sind wohl glaubhaft:

Just posting that i've been chatting with another member who is still under NDA, and lolitsallwrong's match his results. Not sure what OP is doing to get his results, but they are off.
Drivers perhaps?

derguru
2012-03-19, 21:09:03
Weil?
Edit: Er hat die Karte angeblich auf 1300/6500 übertakten können:



Eine GTX570 erreicht mit dem Patch in diesen Einstellungen 40fps, allerdings mit 8xMSAA:
http://www.legitreviews.com/article/1798/3/
hat er mit dx11 oder 9 gebencht,kann ich ja mal mit meiner 7970 benchen und wieso nur very high,hätte ruhig noch auf extreme gehen können.

edit:hmm auf very high sind die dx11 optionen aus.:rolleyes:

dildo4u
2012-03-19, 21:11:14
Verlesen als doch Batman AC ohne Physx.

Ronny145
2012-03-19, 21:13:42
Der 300.99 ist der einzige Treiber der die Karte korrekt als 680 anzeigt und 1Ghz einstellt,alles vorher sind Treiber für Vorserien Karten die wohl nich mit dem finalen Takt liefen.


300.99 dürfte der launch Treiber sein, alle Resultate mit älteren Treibern kann man vergessen.

derguru
2012-03-19, 21:14:39
Ah doch nicht.
naja dann,hat er sich ja ein dollen bench ausgesucht.:biggrin:

boxleitnerb
2012-03-19, 21:15:06
Verlesen als doch Batman AC ohne Physx.

Er schreibt:

Batman AC: 4x MSAA, 16xAF, Global Settings on very high, PhysX off (to compare to AMD)
112 FPS at 1300/6500 on 1920x1080.

derguru
2012-03-19, 21:18:33
also dann habe mit sicherheit im defaulttakt mit einer 7970 mehr denn 112fps ist wenig,ich benche mal.

Superheld
2012-03-19, 21:19:14
Die Ergebnisse sind wohl glaubhaft:

And the result in Heaven is not valid because it's done in windowed mode which means higher score.

http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/480#post_16751807

:|

Blediator16
2012-03-19, 21:19:44
Der Heaven Bench wurde im Windowed Mode gemacht.

boxleitnerb
2012-03-19, 21:21:47
Ich teste mal, ob das bei der Performance was ändert.

dildo4u
2012-03-19, 21:22:11
also dann habe mit sicherheit im defaulttakt mit einer 7970 mehr denn 112fps ist wenig,ich benche mal.
? Wie soll das gehen.
http://www.anandtech.com/show/5625/amd-radeon-hd-7870-ghz-edition-radeon-hd-7850-review-rounding-out-southern-islands/9

derguru
2012-03-19, 21:24:43
http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/480#post_16751807

:|
ah gut,muss ich nicht mal benchen.
? Wie soll das gehen.
http://www.anandtech.com/show/5625/amd-radeon-hd-7870-ghz-edition-radeon-hd-7850-review-rounding-out-southern-islands/9

so! wie oben:biggrin:

very high soll er genommen haben und nicht extreme.

Blaire
2012-03-19, 21:26:08
Mal korrekte Benchmarks abwarten, da wird doch ziemlich viel durcheinander gebencht, gerade bei so hohen Werten spielt die CPU viel zu stark mit rein. 2560x1600 Extreme Scores wären aussagekräftiger bei diesen Game.

dildo4u
2012-03-19, 21:26:53
very high soll er genommen haben und nicht extreme.
Ach ohne Tesselation?,das kann hinkommen mit wirds anders aussehen siehe 7950 vs 580 unter Extreme.

derguru
2012-03-19, 21:32:27
Ach ohne Tesselation?,das kann hinkommen mit wirds anders aussehen siehe 7950 vs 580 unter Extreme.
ja was denn sonst,ich sagte doch das bei very high die dx11 optionen aus sind.

edit:hier mein extrem-wert mit einer 7970@1100/1575

1080p / 4xmsaa/ 97 fps
http://www.abload.de/thumb/batmanac2012-03-1921-fyw4s.png (http://www.abload.de/image.php?img=batmanac2012-03-1921-fyw4s.png)

Dural
2012-03-19, 21:34:11
Eigentlich sind die werte schon brutal entäuschent, wir sprechen da von rund 20-30% mehr leistung im vergleich zur gtx580 und das bei 3x ALUs und 2x TMUs... OK auch nur rund 20% mehr transistoren.

dildo4u
2012-03-19, 21:38:32
Eigentlich sind die werte schon brutal entäuschent, wir sprechen da von rund 20-30% mehr leistung im vergleich zur gtx580 und das bei 3x ALUs und 2x TMUs... OK auch nur rund 20% mehr transistoren.
Wo hast du die 30% her?Batman very high wurde bei anandtech nur bei 1600*1050 ohne MSAA gebencht.

Die 580 dürfte noch mal hinter der 7970 liegen.Kann mal jemand gegenbenchen?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9216148&postcount=6890

boxleitnerb
2012-03-19, 21:57:33
Hm, das mit dem windowed vs. fullscreen muss jemand anderes testen. Meine Auflösung ist zu niedrig und Downsampling geht nicht im Fenster.

Akira20
2012-03-19, 22:00:03
Edit: Hier stand Unsinn, da AF aus war :).

dildo4u
2012-03-19, 22:00:18
Hm, das mit dem windowed vs. fullscreen muss jemand anderes testen. Meine Auflösung ist zu niedrig und Downsampling geht nicht im Fenster.

Windowed macht kein Unterschied.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9216002&postcount=6879

Blediator16
2012-03-19, 22:01:56
Hm, das mit dem windowed vs. fullscreen muss jemand anderes testen. Meine Auflösung ist zu niedrig und Downsampling geht nicht im Fenster.

Wenn ich im Fullscreentest bei mir 1600x900 einstelle bencht er auch nur mit 1440x900 egal was man macht. Nur im windowed macht er die 1600x900.

boxleitnerb
2012-03-19, 22:02:14
K. Ja die Ergebnisse bei Batman AC sind komisch. Vielleicht hat er wirklich DX11 gebencht und meinte das mit "very high"? Anders ergibt das keinen Sinn.

PingpiN
2012-03-19, 22:02:42
Jetzt heulen alle ohoh.:rolleyes: Die GTX 680 wird mit der 7970 schon mithalten keine sorge.Immerhin kommt die karte ja gut 4 Monate später....;D

PS:Traurig ist ja eher das AMD jetzt nicht ne XTX oder so launcht mit 1150 core takt.Nvidia wird ja noch immer mehr gekauft.Wenn die 680 GTX jetzt 4 % vor der 7970 ist,wird die 680 gtx jedenfalls mengenweise mehr gekauft als die 7970 obwohl die karte 70 E billiger ist.....

Akira20
2012-03-19, 22:11:45
So jetzt nochmal mit den richtigen Settings und einer GTX 580 @default &296.10:
4x MSAA, 16xAF, Sehr hoch, PhysX aus
103 FPS avg. @ 1920x1080:
http://img163.imageshack.us/img163/592/batmanac2.jpg

Wenn 112 Fps avg. die Werte einer übertakteten GTX 680 sind, dann gute Nacht :mad:.

dildo4u
2012-03-19, 22:12:24
Jetzt heulen alle ohoh.:rolleyes: Die GTX 680 wird mit der 7970 schon mithalten keine sorge.Immerhin kommt die karte ja gut 4 Monate später....;D

PS:Traurig ist ja eher das AMD jetzt nicht ne XTX oder so launcht mit 1150 core takt.Nvidia wird ja noch immer mehr gekauft.Wenn die 680 GTX jetzt 4 % vor der 7970 ist,wird die 680 gtx jedenfalls mengenweise mehr gekauft als die 7970 obwohl die karte 70 E billiger ist.....
Die 680 verbraucht auch weniger Strom,für Argumente für die 7970 gibt bis auf V-Ram nicht wirklich

http://www.computerbase.de/news/2012-03/erster-test-der-nvidia-geforce-gtx-680/

@Akira20 Bench doch mal Heaven gegen.

Blaire
2012-03-19, 22:14:04
nn 112 Fps avg. die Werte einer übertakteten GTX 680 sind, dann gute Nacht :mad:.

Das ist auch nur SehrHoch und damit nur DX9 da limitiert die CPU...da hilft die schnellste Karte nix.

boxleitnerb
2012-03-19, 22:14:39
In Heaven komme ich mit einer 580 auf 47,6fps. Selbe Settings wie der andere Typ, nur Vollbild statt Fenstermodus. Damit wäre die 680 ca. 65% schneller als eine 580.

dildo4u
2012-03-19, 22:14:54
Das ist auch nur SehrHoch und damit nur DX9 da limitiert die CPU...da hilft die schnellste Karte nix.
Man kommt im Bench aber auf 150fps mit nem 2600k.

derguru
2012-03-19, 22:15:32
So jetzt nochmal mit den richtigen Settings und einer GTX 580 @default &296.10:
4x MSAA, 16xAF, Sehr hoch, PhysX aus
103 FPS avg. @ 1920x1080:
http://img163.imageshack.us/img163/592/batmanac2.jpg

Wenn 112 Fps avg. die Werte einer übertakteten GTX 680 sind, dann gute Nacht :mad:.

glaub ich nicht vor allem bei einer 30% übertaktung,das wäre erbärmlich.das war bestimmt unter extrem und er hat sich verschrieben.

Blaire
2012-03-19, 22:25:13
Man kommt im Bench aber auf 150fps mit nem 2600k.

Am Ende des Benchmarks Aussenbereich fällt die GPU-Usage und damit CPU Limit, was für eine CPU wurde da zum Test benutzt? Wenn der natürlich einen 2600k mit 4,5 oder 5Ghz dann natürlich nicht, da ist man meist GPU-Limitiert.

Akira20
2012-03-19, 22:25:20
glaub ich nicht vor allem bei einer 30% übertaktung,das wäre erbärmlich.das war bestimmt unter extrem und er hat sich verschrieben.
Na hoffentlich... sonst kann ich meiner 580 doch länger treu bleiben, als mir lieb ist :freak:

dildo4u
2012-03-19, 22:33:33
Er hat noch mal Fullscreen gebencht.

http://i42.tinypic.com/f1kv7l.jpg

http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/560#post_16752543

boxleitnerb
2012-03-19, 22:34:33
Mann, zu langsam ...

Liquaron
2012-03-19, 22:43:17
Er hat noch mal Fullscreen gebencht.

http://i42.tinypic.com/f1kv7l.jpg

http://www.overclock.net/t/1231113/gigabyte-gtx-680-2gb-already-arrive-at-my-shop/560#post_16752543

Und was soll uns das jetzt sagen?

Also doch 1k Gpu und schnell?

Wird jetzt auch der richtige Treiber benutzt?

dildo4u
2012-03-19, 22:46:17
Und was soll uns das jetzt sagen?

Also doch 1k Gpu und schnell?

Wird jetzt auch der richtige Treiber benutzt?
Ja das ist der Review Treiber der auch bei hkepc aufgetaucht ist.

http://www.hkepc.com/7672/page/6#view

Blediator16
2012-03-19, 22:46:59
Haben die "Tester" jetzt plötzlich alle keine 1080p Bildschirme mehr? :freak:

dildo4u
2012-03-19, 22:48:36
Der Typ wird immer noch des Fakes bezichtigt,weil der Wert zum Anfang des Threads mit 700mhz bei 54fps lag.Der Thread Starter hatte nur ein 20er TFT mit der Auflösung.

Blediator16
2012-03-19, 22:50:45
Der Threadstarter und dieser andere Typ sind aber zwei verschiedene oder hab ich dich falsch verstanden? Ich kann mir irgendwie nicht vorstellen, dass man bei der 700mhz 54 macht bei 1006 80fps und man angeblich bis 1300 takten kann. Das wäre einfach unnormal^^ ca. 84% OC potential finde ich brachial und irgendwie nicht wirklich glaubhaft. Da wurde sogar von 1400 unter Luft gesprochen das wären locker flockige 99% OC. Bei 706mhz war der 104 bereits so schnell wie die 7970.

boxleitnerb
2012-03-19, 22:54:25
Ist aber schön proportional, also 1000/700 = 80/54.

dildo4u
2012-03-19, 22:55:35
Der Threadstarter und dieser andere Typ sind aber zwei verschiedene oder hab ich dich falsch verstanden? Ich kann mir irgendwie nicht vorstellen, dass man bei der 700mhz 54 macht bei 1006 80fps und man angeblich bis 1300 takten kann. Das wäre einfach unnormal^^
Zwei Typen anderes System mit I7 2600k jedenfalls passt das Bild was er von seinem System gepostet hat,beim ihm wird der Onboard Chip angezeigt weil er ein z68 mit Virtu hat.

-GENO-
2012-03-19, 22:55:59
Hab mal Batman angeworfen. Falls er wirklich nur mit "Very High" gebencht hat warens recht wenig Punkte. :confused:

1080p - 4xMSAA | alle Takte @ Default.
http://www.abload.de/img/batmanacjeuxc.jpg

Strange...

Blediator16
2012-03-19, 22:56:18
Ist aber schön proportional, also 1000/700 = 80/54.

Eher Unterschied 43% bei den Taktraten und knapp 48% Leistungszuwachs:freak:

dildo4u
2012-03-19, 22:57:32
Eher Unterschied 43% bei den Taktraten und knapp 49% Leistungszuwachs:freak:
Den Boost nicht vergessen.Und es ist ein Tessbench,Batman zeigt das die 7970/7950 extrem durch Tesselation limitiert werden,die 680 vermutlich kaum.


7970 weit vor 580 unter Very High(Ohne Tesselation) und unter Extreme rücken sie zusammen.

http://www.anandtech.com/show/5261/amd-radeon-hd-7970-review/20

Hugo78
2012-03-19, 23:07:50
Immerhin kommt die karte ja gut 4 Monate später....;D

7970 Verkaufsstart: 9.Januar
680 Verkaufstart: 22.März

Unterschied: 2,5 Monate

AwesomeSauce
2012-03-19, 23:09:16
7970 Verkaufsstart: 9.Januar
680 Verkaufstart: 22.März

Unterschied: 2,5 Monate
Verwirr den Troll doch nicht mit Fakten :D

dildo4u
2012-03-19, 23:30:47
550€

http://www.abload.de/img/gtd44u1ioa.jpg

http://www.cybertek.fr/mini_boutique/NVIDIA_Serie_600.aspx


http://collider.com/uploads/imageGallery/Austin_Powers/mike_myers_as_dr_evil_in_austin_powers.jpg

M4xw0lf
2012-03-19, 23:39:23
Also wenn morgen nicht das NDA fällt, wirds echt lächerlich ^^

Blediator16
2012-03-19, 23:43:01
Also wenn morgen nicht das NDA fällt, wirds echt lächerlich ^^

Soll DO. fallen:)

-=Popeye=-
2012-03-19, 23:49:42
Wo hast du die 30% her?Batman very high wurde bei anandtech nur bei 1600*1050 ohne MSAA gebencht.

Die 580 dürfte noch mal hinter der 7970 liegen.Kann mal jemand gegenbenchen?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9216148&postcount=6890

570er SLi
http://www.abload.de/thumb/unbenanntf1f2q.png (http://www.abload.de/image.php?img=unbenanntf1f2q.png)

kruemelmonster
2012-03-19, 23:50:08
Beta 15 has been submitted to MSI a few minutes ago. Changes list includes:

- Added NVIDIA Kepler graphics processors family support
- Added GPU power consumption monitoring for NVIDIA Kepler series graphics cards
- Added,core clock offset, memory clock offset and voltage offset support for dynamic overclocking on NVIDIA Kepler series graphic cards
- Fixed issue preventing applying new settings from control shared memory
- Fixed issue with video capture timer display, causing hours to be incremented erroneously after each 6 minutes of videorecording
- Skin format reference guide has been updated to v1.5 to document new indicator types support
- Added new "Force fan speed update on each period" option to the "Fan" tab. New option may improve compatibility of software automatic fan speed control mode with some bugged display drivers, overriding manually programmed fan speed under certain conditions


Here we go, fehlt nur noch AIDA64 im Reigen. :)

hardtech
2012-03-19, 23:52:14
550€

http://www.abload.de/img/gtd44u1ioa.jpg

http://www.cybertek.fr/mini_boutique/NVIDIA_Serie_600.aspx


http://www.computerbase.de/news/2010-11/weitere-bilder-und-erste-preise-zur-geforce-gtx-580/

naja war bei gtx580 auch schon hoher preis.
warum wundert es dich, dass sie für den nachfolger einen ähnlichen preis verlangen?

dildo4u
2012-03-19, 23:53:45
570er SLi
http://www.abload.de/thumb/unbenanntf1f2q.png (http://www.abload.de/image.php?img=unbenanntf1f2q.png)

Nice Kepler wird lange reichen denke nicht das nv vor 2013 ne neue High-End Consumer Karte bringt.

Blaire
2012-03-19, 23:54:10
570er SLi
http://www.abload.de/thumb/unbenanntf1f2q.png (http://www.abload.de/image.php?img=unbenanntf1f2q.png)

Beeindruckend :) Aber entsprechend auch der Preis...

MadManniMan
2012-03-19, 23:54:54
Bei 40nm gabs 'nen Preiskampf? Die 5870 war von Anfang an günstig, 380$ MSRP.

/e: "günstig" ist relativ, normaler Preis im Vergleich zu heute halt.


Aaaach scheiße, ich meinte "bis zum 40-nm-Niveau" - weil da schlief es ja wirklich ein.

scully1234
2012-03-20, 00:25:03
Beeindruckend :) Aber entsprechend auch der Preis...

Und schon 4 Stück geordert für "Spielereien"?:biggrin:

hardtech
2012-03-20, 00:29:06
2600k@stock
7950@950/1400
= 1397 Score Unigine 3.0
http://www.abload.de/thumb/uniginerun7wwif.jpg (http://www.abload.de/image.php?img=uniginerun7wwif.jpg)

update: sorry, hab die einstellungen nun exakt übernommen vom vorgänger.

derguru
2012-03-20, 00:30:35
toll tess off.:freak:

scully1234
2012-03-20, 00:31:47
toll tess off.:freak:

Nächster Versuch wird am Schalter gespielt

Blaire
2012-03-20, 00:33:50
Und schon 4 Stück geordert für "Spielereien"?:biggrin:

Ich warte auf finale Scores, dann wird entschieden. :)

scully1234
2012-03-20, 00:35:48
Ich warte auf finale Scores, dann wird entschieden. :)

Wenns dann mal nicht eng wird bei der Beschaffung:biggrin:

hardtech
2012-03-20, 00:41:58
angepasst ;)
http://www.abload.de/thumb/uniginerun7wwif.jpg (http://www.abload.de/image.php?img=uniginerun7wwif.jpg)

JaniC
2012-03-20, 03:00:15
Habe meine GTX480 eben aus Spaß auch nochmal mit den Settings durchlaufen lassen.

Zusammengefasst:

Heaven 3.0 - 1600x900 - 4xAA - Tess Extreme

http://www.abload.de/thumb/gtx480heaven3k0jrt.jpg (http://www.abload.de/image.php?img=gtx480heaven3k0jrt.jpg)

Sortiert nach Release:

GTX 480 [@0800] - 46.4fps - 1169

570 SLI [@0732] - 78.2fps - 1970 - Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9216488&postcount=6952)

HD 7950 [@0950] - 55.5fps - 1397 - Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9216531&postcount=6959)

HD 7970 [@0925] - 57.1fps - 1439 - Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9215593&postcount=6815)

HD 7970 [@0925] - 56.1fps - 1413 - Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9215654&postcount=6829)

GTX 680 [@1006] - 78.4fps - 1975 - Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9216148&postcount=6890)

GTX 680 [@1006] - 80.0fps - 2016 - Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9216385&postcount=6935)

:eek:

... übles Moped.

hardtech
2012-03-20, 03:36:29
danke für die zusammenfassung, janic!
interessante werte!
ich werde bis ende der woche noch benches einer gtx580 posten können, die ich mir gekauft habe.

JaniC
2012-03-20, 03:47:40
Naja, Donnerstag fällt das NDA, spätestens dann haben wir aussagekräftige Benches im Überfluss.
Aber die Heavenzahlen geben ja schonmal eine grobe Einschätzung, die durchaus gefällt.

OT: Interessant finde ich auch, dass meine alte GTX480 ca. 80% der Leistung einer 450€ teuren HD 7970 bringt.

Superheld
2012-03-20, 04:30:42
erst Dienstag..:(

cR@b
2012-03-20, 08:36:46
Naja, Donnerstag fällt das NDA, spätestens dann haben wir aussagekräftige Benches im Überfluss.
Aber die Heavenzahlen geben ja schonmal eine grobe Einschätzung, die durchaus gefällt.

OT: Interessant finde ich auch, dass meine alte GTX480 ca. 80% der Leistung einer 450€ teuren HD 7970 bringt.
Hmm ist deine 480er übertaktet?

M4xw0lf
2012-03-20, 09:44:58
Die Leute bei Overclock.net haben ihre halbe Zeit und ihren halben Thread auf clock to clock-Vergleiche verschwendet - mit 700 MHz vs. 700 MHz... Sogar noch nachdem ihnen die neue GPUZ-Version 1006 MHz ausgespuckt hat. :facepalm:

dargo
2012-03-20, 09:49:14
http://www.computerbase.de/news/2010-11/weitere-bilder-und-erste-preise-zur-geforce-gtx-580/

naja war bei gtx580 auch schon hoher preis.
warum wundert es dich, dass sie für den nachfolger einen ähnlichen preis verlangen?
Weil die GPU bei der GTX580 ~77% größer war.

boxleitnerb
2012-03-20, 09:51:28
Wieviel macht die GPU an den Gesamtkosten einer Karte aus? 20-25%? Die Frage ist, ob der Rest soviel günstiger ist als bei GF110. Also PCB, Speicher, Kühler usw.

Timbaloo
2012-03-20, 09:52:50
Es gibt erschreckend viele die glauben, dass GK104 ursprünglich mit 700MHz geplant war, und dass man dann um die 7970 zu matchen/schlagen mal so kurz von 700MHz auf 1000MHz "übertaktet" hat. Plausibel wird das dann damit erklärt, dass ja auch 7970 ähnlich stark auf 1200MHz übertaktet werden können...

AnarchX
2012-03-20, 09:55:00
Wieviel macht die GPU an den Gesamtkosten einer Karte aus? 20-25%? Die Frage ist, ob der Rest soviel günstiger ist als bei GF110. Also PCB, Speicher, Kühler usw.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=522430
High-End- und Performance-GPUs dürften bei >=50% liegen.

Abgesehen von der GPU entspricht die GTX 680 der HD 6970 (gleicher 6Gbps Speicher, ähnliche TDP, ähnlicher Kühler).

Wenn man da bedenkt, dass eine HD 6970 teilweise für 250€ verfügbar war, dann ist GK104 entweder ~4-mal so teuer wie Cayman oder man hat da eine sehr nette Marge. ;)

dargo
2012-03-20, 09:55:39
Wieviel macht die GPU an den Gesamtkosten einer Karte aus? 20-25%? Die Frage ist, ob der Rest soviel günstiger ist als bei GF110. Also PCB, Speicher, Kühler usw.
Das PCB und der Kühler müssten zumindest theoretisch bei der GTX680 günstiger sein weil weniger TDP. Speicher ist nur 0,5GB mehr, allerdings schnellerer. Bei der GTX560TI unterscheidet sich im Gesamtpreis eine 2GB Karte von der 1GB Karte nur um ~30€.
http://geizhals.at/de/711486
http://geizhals.at/de/680384

Odal
2012-03-20, 10:03:59
ist denn schon bekannt was noch für kepler derivate neben der GTX680 diese Woche vorgestellt werden?

Ich kann mir nicht vorstellen das wirklich nur die GTX680 kommen soll wo A(TI)MD schon 6 28nm Produkte für den Desktop am Start hat

AnarchX
2012-03-20, 10:05:39
Momentan sieht es nur nach der GTX 680 aus, April bis Mai kommen dann wohl die restlichen Karten(GK104-Salvage/Dual, GK107, GK106). GK110 ist wohl unbestimmt.

boxleitnerb
2012-03-20, 10:08:33
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=522430
High-End- und Performance-GPUs dürften bei >=50% liegen.

Abgesehen von der GPU entspricht die GTX 680 der HD 6970 (gleicher 6Gbps Speicher, ähnliche TDP, ähnlicher Kühler).

Wenn man da bedenkt, dass eine HD 6970 teilweise für 250€ verfügbar war, dann ist GK104 entweder ~4-mal so teuer wie Cayman oder man hat da eine sehr nette Marge. ;)

Ah Mist, ich hatte diese Tabelle im Hinterkopf, bezog das aus irgendeinem Grund aber immer auf den MSRP. Das ist dann schon sehr viel mehr als ich immer gedacht hatte. Danke für den Hinweis.

AnarchX
2012-03-20, 11:27:37
MSI GTX 680 Marketing Material: http://www.techpowerup.com/162685/MSI-Slips-Out-Some-GeForce-GTX-680-Marketing-Material.html

40% beträgt der Marketing-Unterschied zwischen GTX 580 und GTX 680.

V2.0
2012-03-20, 11:30:48
Wieder kein Own-Design-Kühler

Iruwen
2012-03-20, 11:31:51
Kommen nicht zu Anfang ausschließlich Referenzmodelle?

derguru
2012-03-20, 11:32:25
hmm, 40% higher gegenüber der gtx580 wird beworben und hier beim user sind es 40% gegenüber der 7970. :|

dildo4u
2012-03-20, 11:34:48
hmm, 40% higher gegenüber der gtx580 wird beworben und hier beim user sind es 40% gegenüber der 7970. :|
Die FPS sind so hoch vermutlich wurde nicht extreme Tess gebencht.


http://www.abload.de/img/msi_gtx680_lpl014zdzv.jpg

derguru
2012-03-20, 11:38:36
haut hin aber dann hat die marketingabteilung versagt.:biggrin:

dildo4u
2012-03-20, 11:46:46
Ich hab kein Plan was die da gebencht haben,selbst @1680*1050 2XAA mit normal Tess kommt man nur auf 44fps mit einer 580.

http://www.technic3d.com/review/grafikkarten/1344-sapphire-radeon-hd-7970-im-test/4.htm

Hier 70fps
http://cdn.overclock.net/5/5e/600x674px-LL-5e7112dc_msi_gtx680_lpl02.jpeg

Raff
2012-03-20, 11:46:57
Die Balken-Skalierung. OMFG. Typisch.

MfG,
Raff

boxleitnerb
2012-03-20, 11:49:55
Ich hab kein Plan was die da gebencht haben,selbst @1680*1050 2XAA mit normal Tess kommt man nur auf 44fps mit einer 580.

http://www.technic3d.com/review/grafikkarten/1344-sapphire-radeon-hd-7970-im-test/4.htm

Hier 70fps
http://cdn.overclock.net/5/5e/600x674px-LL-5e7112dc_msi_gtx680_lpl02.jpeg

2.5 vs. 3.0
In 3.0 komme ich mit einer 580 auf knapp 48fps in 1600x900, 4xAA und extreme.

dildo4u
2012-03-20, 11:52:25
Die Balken-Skalierung. OMFG. Typisch.

MfG,
Raff
Das OC ist echt lächerlich hoffentlich nur weil MSI keine Garantie für die 20+ TDP Schalter gibt.

2.5 vs. 3.0
In 3.0 komme ich mit einer 580 auf knapp 48fps in 1600x900, 4xAA und extreme.
FPS sind vergleichbar(+4fps beim 3.0) habs gerade getestet.Jedenfall's keine 70 statt 45.

hardtech
2012-03-20, 11:57:06
Weil die GPU bei der GTX580 ~77% größer war.

Spielt aber für den Marktpreis keine Rolle!
Gtx680 ist offiziell der Nachfolger der gtx580. D.h. Die startbereite werden ähnlich hoch ausfallen.
Theoretisch hat Nov dabei mehr Gewinn, da Chip kleiner, nur interessiert das nicht, weil das für die Preisbildung Keine Rolle spielt, da als hingehend vermarktet.

Hugo
2012-03-20, 11:59:41
GK106 ist der nächst kleinere nach GK104 oder?

Spasstiger
2012-03-20, 12:03:48
Hat NV den Speichercontroller eigentlich komplett neu entwickelt? 50% gesteigerte Datenraten können ja nicht alleine vom Fertigungsprozess des Die kommen.

dargo
2012-03-20, 12:09:26
Spielt aber für den Marktpreis keine Rolle!

Lol... ;D

Edit:
Schau dir mal die Tabelle die AnarchX verlinkt hat nochmal an.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9183751&postcount=1

Da kostet die GF114 GPU weniger als die Hälfte der vollen GF110 GPU. Und GF114 ist sogar noch etwas größer als GK104. Was NV und AMD momentan mit den Preisen veranstalten ist einfach nur Witz³. Mich interessierts nur obs wirklich an den 28nm Problemen momentan liegt oder ob es nicht doch irgendwelche dubiosen Preisabsprachen gibt.

dildo4u
2012-03-20, 12:10:10
Hat NV den Speichercontroller eigentlich komplett neu entwickelt? 50% gesteigerte Datenraten können ja nicht alleine vom Fertigungsprozess des Die kommen.

Die 580 wird ja nicht direkt am Bandbreiten Limit hängen oder?Denke da geht noch einiges bis das Limitiert.

Raff
2012-03-20, 12:11:54
Ich glaube, er meint, dass der Controller nun 3+ GHz schafft (anstelle von 2+ GHz bei Fermi/GF110). Eventuell haben sie sich beim GF114 bedient?

MfG,
Raff

V2.0
2012-03-20, 12:35:48
Oder verzichten auf Unterstützung für ECC.

Skysnake
2012-03-20, 12:49:43
Glaub ich eher nicht dran. Sooo viel macht das jetzt auch nicht aus. Man wird wohl echt schlicht das Ding verbessert haben, um ein kleineres SI nutzen zu können.

Was mich allerdings schon verwundert ist das Tiefstapeln auf diesen Slides :ugly: Das sieht ja selbst dort nicht besser aus als bei der HD7970, und da wird ja normal schon Cherrypicking betrieben. Wie siehts dann in unabhängigen Tests aus? :ugly:

M4xw0lf
2012-03-20, 12:51:26
Hey MSI wirbt mit nicht-explodierenden Kondensatoren! Respekt ;D

dildo4u
2012-03-20, 12:52:50
Glaub ich eher nicht dran. Sooo viel macht das jetzt auch nicht aus. Man wird wohl echt schlicht das Ding verbessert haben, um ein kleineres SI nutzen zu können.

Was mich allerdings schon verwundert ist das Tiefstapeln auf diesen Slides :ugly: Das sieht ja selbst dort nicht besser aus als bei der HD7970, und da wird ja normal schon Cherrypicking betrieben. Wie siehts dann in unabhängigen Tests aus? :ugly:

Naja die schaffen es nicht mal max Tesselations zu benchen oder den V-Ram der 580 zu überladen da ginge Einiges mehr.

Skysnake
2012-03-20, 12:56:38
Und wer sagt dir, dass die GTX580 mehr einbricht durch max Tesselation als die GTX680?

derguru
2012-03-20, 12:58:19
unsere werte die du anscheinend nicht gesehen hast.;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9216488&postcount=6952