PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GTX-700-Karten/Titanen - GK180/GK110-B1 - GTX 790?


Seiten : 1 2 3 4 [5] 6 7

Iruwen
2013-10-24, 11:43:03
Na aber noch ist gsync ein Papiertiger. So wie mantle und true audio. Brauchts dafür nicht auch einen neuen Monitor? Verschlechtert das P/L-Verhältnis noch mal und bindet dich an einen IHV.

Kann man das Modul nicht rausnehmen und den Monitor dann wieder normal nutzen?

Hugo78
2013-10-24, 11:44:41
Kann man das Modul nicht rausnehmen und den Monitor dann wieder normal nutzen?

Das Modul ist keine Addon, es ersetzt IIRC die bisherige Elektronik.

Iruwen
2013-10-24, 11:47:13
Dann ergibt es aber keinen Sinn, dass es das Modul auch einzeln gibt bzw. dass es überhaupt ein separates Modul ist?

Hugo78
2013-10-24, 11:50:54
Es soll ja auch nicht regulär als seperates Modul erscheinen, da kommen nur ein paar Kits die speziell für bestimmte TFTs erhältlich sind. Bisher wird auch nur vom ASUS VG248QE (http://geizhals.at/de/asus-vg248qe-90lmgg001q022b1c-a891345.html) geredet.

Die Monitorpartner werden auch nicht sonderlich scharf auf die Addon Kits sein, die wollen neue TFTs verkaufen, logisch.

ndrs
2013-10-24, 12:52:11
Da GSync nur über DP geht, beschränkt man sich bestimmt nicht generell auf nV. Sonst wären ja die anderen Anschlüsse nichtmehr nutzbar, bzw. GSync-fähige Monitore dürften die anderen garnicht haben. Also nix mit Beschränkung.

Hugo78
2013-10-24, 12:56:30
G-Sync Monitore werden natürlich auch normal ohne eine Geforce funktionieren.
Nur halt ohne die G-Sync Funktion.

Iruwen
2013-10-24, 13:07:35
Darum gings ja, von wegen "man legt sich auf einen IHV fest". Das Modul wäre nicht nutzbar, aber man muss den Monitor nicht wechseln.

AnarchX
2013-10-24, 14:33:05
B1-Revision des GK110 ist wohl schon auf den besseren GTX 780 OC Versionen verbaut:

http://i458.photobucket.com/albums/qq306/owikh84/HOF/DSC_0654.jpg
http://www.xtremesystems.org/forums/showthread.php?287540-REVIEW-GALAXY-GTX-780-Hall-of-Fame-%28HOF%29-Performance-Test

TPU hat bei der GTX 780 Rev. 2 auch die B1-Revision ergänzt:
http://www.techpowerup.com/gpudb/2513/geforce-gtx-780-rev-2.html

Duplex
2013-10-24, 14:35:42
Wahrscheinlich gibt es den B1 Chip auch bei den EVGA Classified Karten.

AnarchX
2013-10-24, 14:57:13
GTX 780 Rev.2 2304SPs@ 1006/1058/6Gbps
GTX 780 Ti 2880SPs @ 1006/1058/7Gbps (6GiB Option)
... wären wohl durchaus brauchbare Antworten auf die 290er Karten.

V2.0
2013-10-24, 15:00:15
1006 Base, glaube ich nicht. Eher ~950.

Gaestle
2013-10-24, 15:45:57
Ist B1 auch auf den Titanen drauf?

Oder ist B1 etwas kleiner als A1 (weniger SMX)?

Kann 780Ti auch mit B1 + viel Takt erreicht werden?

Knuddelbearli
2013-10-24, 16:20:18
A1 B1 sind unterschiedliche steppings der chip an sich ist der selbe

meist zur bugbereinigung, bessere ausbeute und leicht höheren takt

an smx anzahl usw wird da NIE was geändert

Hübie
2013-10-24, 21:26:25
Darum gings ja, von wegen "man legt sich auf einen IHV fest". Das Modul wäre nicht nutzbar, aber man muss den Monitor nicht wechseln.

Ähm. Ja. Also. Ich kaufe eine GeForce und einen G-Sync-Monitor. Dann in der nächsten Gen scheiß ich aufs Feature und kauf ne AMD weil die mantle (und schnickeschnacke) nutzt aber kein G-Sync nutzen kann. Ich denke nicht. Klar könnten wir jetzt hin und her philosophieren "du hast keine Glaskugel", "musst nicht von dir auf andere schließen" etc.. aber wir kennen alle die Vergangenheit.

Knuddelbearli
2013-10-24, 21:57:44
solange ein proprietäres Feature noch zusätzliche Hardware benötigt kann es so gut sein wie es will, es ist scheiße und wird sich zu 99,99% sicher nie durchsetzen

einziger Vorteil den ich sehe:
so wird wohl DP endlich ein wenig gepusht

Hugo78
2013-10-24, 22:20:51
Ja ist schon schlimm mit G-Sync.
Da reicht in Zukunft eine leise, sparsame 200€ Grafikarte und ein 300€, 24" 120Hz G-Sync Monitor um ein so cremiges butterweiches Spielerlebniss zuhaben, das einem kein 1000€ Crossfire je bieten kann.

Und die 200€ Karte ist nach einem Jahr, wenn der Mittelklasse Nachfolger raus ist,
höchstwahrscheinlich immernoch 120-150€ wert, während man für das 1000€ Crossfire Gespann, keine 700€ mehr bekommt.

Als zukünfiger G-Sync Display Besitzer kommen wahrlich schweren Zeiten auf mich zu.

Knuddelbearli
2013-10-24, 22:23:04
selten so einen zusammenhanglosen quatsch gelesen ...

mit Gsynch fühlen sich spiele also 4 mal soschnell an? Quelle? Benchmarks? :rolleyes:

dafür das ein proprietäre Feature das noch zusätzliche Hardware benötigen sich nicht gut halten wird und es eher schwer auf dem Markt haben wird, da braucht man keinen Hellseherkugel.

Eventuell kaufe ich mir sogar einen aber nur wenn sie nicht mehr als normale Monitore kosten was wohl niemals passieren wird ( naja ok 10-30€ mehr gingen auch noch wenn dafür 1600p und 120+ HZ ohne TN und Glitzern ) . Und ich habe eine NV Karte im PC!

Raff
2013-10-24, 22:24:41
GTX 780 Rev.2 2304SPs@ 1006/1058/6Gbps
GTX 780 Ti 2880SPs @ 1006/1058/7Gbps (6GiB Option)
... wären wohl durchaus brauchbare Antworten auf die 290er Karten.

Ich versteh's nicht. Nvidia braucht keinen 780er-Refresh, sie brauchen nur etwas, das die 290X in jeder Situation besiegt. Dafür würde schon ein Vollausbau @ 1.006 MHz reichen.

MfG,
Raff

-/\-CruNcher-/\-
2013-10-24, 22:35:16
Ich versteh's nicht. Nvidia braucht keinen 780er-Refresh, sie brauchen nur etwas, das die 290X in jeder Situation besiegt. Dafür würde schon ein Vollausbau @ 1.006 MHz reichen.

MfG,
Raff

Nvidia muss AMD nur in Compute einholen nur da hinken sie ziemlich hinterher im Consumer Berreich, wobei TressFX patch Ergebnisse ein anderes Bild wiederspiegeln als die Synthetischen Ergebnisse.
Gamer die so viel Geld für so wenig Perforamce Gewinn ausgeben zwischen den Generationen ist eh absolut unverständlich, und wenn man sieht wie gut sich die Engine Performance entwickelt auch völlig unnötig.
Die Mindestanforderung steht immernoch bei G92 bei den meisten Entwicklern verschiebt sich aber langsam in Richtung G104, die Render/Performance Ergebnisse sind aber heute schon durchaus beindruckend.
Man sollte allerdings den Memory aufpreis absolut mitnehmen das gibt etwas Zukunftssicherheit ;)
So gesehen ist für Pro Gamer sprich Multiplayer Gamer die Reduzierung des Lag im System absolute Priorität und da wird man an G-sync nicht vorbeikommen am Ende des Renderpfades, es sei den andere springen auf und zeigen ihre Solutions was zu begrüssen wäre anstelle das Nvidia hier ihren Premium Markt etabliert.
Sieht man den momentanen Wettbewerb im Displaymarkt in Asien Japan, Korea und Taiwan sieht es durchaus gut aus das dort sich was bewegen wird zwecks Produkt Differenzierung und diese Problematik bald unter einem Standard eh Geschichte sein könnte.

Hugo78
2013-10-24, 23:06:56
selten so einen zusammenhanglosen quatsch gelesen ...

mit Gsynch fühlen sich spiele also 4 mal soschnell an? Quelle? Benchmarks? :rolleyes:

Ich beleuchte nur eine andere Sichtweise.
Und als Quelle könnte ich John Carmack, Tim Sweeney, Mike Rein & Johan Andersson anbieten. :biggrin:


Eventuell kaufe ich mir sogar einen aber nur wenn sie nicht mehr als normale Monitore kosten was wohl niemals passieren wird ( naja ok 10-30€ mehr gingen auch noch wenn dafür 1600p und 120+ HZ ohne TN und Glitzern ) . Und ich habe eine NV Karte im PC!

Ich weiß das du ne Nvidia hast und ich versteh auch die Position,
dass man als Kunde keinen der beiden IHVs bevorzugen sollte, wenn man günstige Preise haben will.

Nur hat Nvidia ausgeschloßen, dass sie die Technik an andere lizensieren?
Haben sie ausdrücklich nicht, sie brauchen aber Zeit das richtige Lizenzmodell dafür zuentwickeln.
Dass hat Tom Petersen ja schon durchblicken lassen, beim PCPer Preview.
Denn mein Beitrag zuvor zeigt auch, dass auch Nvidia mit G-Sync das eigene High End in Frage stellt.
Nicht um sonst wurden auf der Show in Montreal, nur 200€ GTX 760er in den Vorführechnern verbaut.

Mehr noch, Linus Sebastian hatte in seinem Dauerstream von der Show, im Teil in dem auch Jensen kurz Hallo gesagt hat,
den anderen Nvidia PR Mensch mit der Brille, auch kurz in Erklärungsnot gebracht, warum sie nicht einen Blindtest gemacht haben.
Einen Titanbestückten PC ohne G-Sync, und einen GTX 760 mit G-Sync und die Presse hätte jetzt raten können welcher PC mehr Horsepower hat.

Die Technik ist kein reines Win-Win Ding für Nvidia.

Ok anderer Punkt.

dafür das ein proprietäre Feature das noch zusätzliche Hardware benötigen sich nicht gut halten wird und es eher schwer auf dem Markt haben wird, da braucht man keinen Hellseherkugel.

Jetzt kann man Kepler lizensieren und nur mal angenommen, Samsung oder Intel nimmt ab morgen keine Mali oder PowerVR Technik mehr, sondern greift zur mobilen Kepler... gut wird auch zu OT, aber in dem Fall wäre es deutlich weniger proprietär.

Featureseitig geht Nvidia jedenfalls den richtigen Weg.
Framesfreudliches game capturing per Shadowplay und mit G-Sync verschwindet ein noch gewichtiger Zwang für immer noch mehr Horsepower.

Rente
2013-10-24, 23:19:15
Ich versteh's nicht. Nvidia braucht keinen 780er-Refresh, sie brauchen nur etwas, das die 290X in jeder Situation besiegt. Dafür würde schon ein Vollausbau @ 1.006 MHz reichen.

MfG,
Raff
Das ist korrekt, wenn sie aber dann im Schnitt knapp 15% über der Uber (:freak:) liegen werden sie wohl auch wieder >700€/$ verlangen wollen, der Zwischenschritt für 550 (und die normale 780 wird billiger) wäre schon gut denkbar.

Raff
2013-10-24, 23:25:48
Gibt's halt schon, diverse Custom-Designs der GeForce GTX 780 laufen mit 1,1+ GHz (und damit knapp der Titan davon). Hier ist man schon im 600-Euro-Bereich.

MfG,
Raff

Rente
2013-10-24, 23:40:16
Gibt's halt schon, diverse Custom-Designs der GeForce GTX 780 laufen mit 1,1+ GHz (und damit knapp der Titan davon). Hier ist man schon im 600-Euro-Bereich.

MfG,
Raff
Da hast du wohl auch wieder Recht, gibt es denn schon einen Termin von nV für die richtige Präsentation der Ti?

gnahr
2013-10-25, 06:28:15
Die Technik ist kein reines Win-Win Ding für Nvidia.
vor allem ist sie anwendungsunspezifisch immer einsetzbar. etwas, was diese in-engine-features nicht sind, sondern immer auf den guten willen dritter angewiesen bleiben. von daher ist der vorwurf "proprietär" zu sein... einer der am kern der sache vorbei geht.

und vervierfachen der leistung: noch besser. die schwächen werden um faktor 10 und mehr gemindert. ;D u cant deny the gain.

Iruwen
2013-10-25, 11:10:32
Gibt's halt schon, diverse Custom-Designs der GeForce GTX 780 laufen mit 1,1+ GHz (und damit knapp der Titan davon). Hier ist man schon im 600-Euro-Bereich.

MfG,
Raff

Den preiswerten Titan-Killer habt ihr doch schon getestet:
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/Zotac-Geforce-GTX-780-AMP-im-Test-preiswerter-Titan-Killer-1082941/
530€ :D

N0Thing
2013-10-25, 12:40:45
Mit einem guten Kühler ist man dann aber eher wieder bei den angesprochenen 600€: http://geizhals.de/inno3d-ichill-geforce-gtx-780-herculez-x3-ultra-c78v-1sdn-l5hsx-a952154.html

aufkrawall
2013-10-25, 12:42:55
Deswegen warten, bis r290 und 780 Ti am Markt und breit verfügbar sind.

AnarchX
2013-10-25, 16:00:34
Ich versteh's nicht. Nvidia braucht keinen 780er-Refresh, sie brauchen nur etwas, das die 290X in jeder Situation besiegt. Dafür würde schon ein Vollausbau @ 1.006 MHz reichen.

Die Chinesen sprachen explizit von einer GTX 780 GHz. Aber möglicherweise nimmt einfach nur der Anteil der GHz-Karten mit größerer Verbreitung von B1 zu.

A1 B1 sind unterschiedliche steppings der chip an sich ist der selbe

meist zur bugbereinigung, bessere ausbeute und leicht höheren takt

an smx anzahl usw wird da NIE was geändert
Ein B-Revision ist schon etwas mehr als ein einfacher Metalspin, wie es z.B. ein A2 oder A3-Chip wäre.
Bei GF100 hat man in der B1-Revision (GF110) z.B. neben den SM-Fix auch die TMUs verändert.

4Fighting
2013-10-25, 16:13:36
Also meine 780er Lightning hatte auch bereits das GK110er B Board...Leider aber direkt in die RMA gewandert;D;(

Sunrise
2013-10-25, 16:17:50
NV hatte jedenfalls mehr als genug Zeit, um weitere Optimierungen an GK110 vorzunehmen. Vor der GTX 780-Einführung hatte man sicher auch mehr als genug ASICs gesammelt, die für Titan nicht ausgereicht hatten.

Evtl. hat man da einfach noch ein paar Prozessoptimierungen in GK110 einfließen lassen und nennt das Teil deshalb B1.

Die Tatsache, dass es GK180 gibt, lässt zumindest darauf schließen, dass B1 keine tiefgreifenden Änderungen erlebt hat. Ansonsten hätte man keinen neuen Codenamen vergeben müssen. Man muss ja auch bedenken, dass von GK180 wohl mehr als genug "Abfall" übrig bleiben wird.

Eine Anpassung an 28nm HPM beim GK110 wäre rein theoretisch auch denkbar, aber auch dann würde NV GK110 nichtmehr GK110 nennen.

28nm HPM hebt man sich wohl eher für Maxwell auf.

kunibätt
2013-10-25, 18:08:15
:frown: Das aktuelle Preisgefüge ist einfach nur noch durch ....

boxleitnerb
2013-10-26, 07:16:29
GeForce GTX 780 Ti stock performance within ~3-5 % of a heavily (read: maxed out) air OC'd Radeon R9 290X in 3DM11.
http://www.xtremesystems.org/forums/showthread.php?p=5213182#post5213182

Die Frage ist jetzt, welcher Takt und vor allem welches Preset. Im X-Preset ist Titan um ca. 6% schneller, im P-Preset hat wiederum die 290X die Nase um 5% vorne (basierend auf 3 Reviews, die Ergebnisse sind überall fast gleich). Unterschiede im Quiet- und Ubermode gibt es in diesem Benchmark nicht, heißt die Karte taktet schon mit 1 GHz. Bei Computerbase liegen zwischen Titan und Titan@max aber 6% in 3DMark11 in beiden Presets. Die Performanceangabe ist daher schwierig einzuordnen, auch weil man nicht weiß, wie Nvidia die Standardeinstellungen bei der 780 Ti setzen wird.

Edit:
Stock clock speed on the 780 Ti puts it between 3 and 5 % below a 290X running at around 1150 MHz on the Performance Preset.

By the way, I'm pretty sure the 780 Ti will use a new revision of GK110, not GK180. I don't see any need for validating ECC, etc on a consumer desktop card. GK110 can indeed have more CUDA cores.

Das würde die 780 Ti ca. 12% schneller als Titan machen (1,05*1,11 = 290X OC /1,04 = 1,12).

Angiesan
2013-10-26, 10:34:50
Jetzt hat der Leo auch noch den Fake von Chip Hell auf die Hauptseite gehämmert, kann ihm mal jemand der einen Draht zu ihm hat Bescheid geben das es ein Fake ist. :D

novl
2013-10-26, 10:48:31
Jetzt hat der Leo auch noch den Fake von Chip Hell auf die Hauptseite gehämmert, kann ihm mal jemand der einen Draht zu ihm hat Bescheid geben das es ein Fake ist. :D

Ist doch alles gut.
Er hat doch angemerkt dass es ein Fake sein kann.

Aus dem chinesischen Chiphell-Forum kommt ein angeblicher CPU-Z-Screenshot zur GeForce GTX 780 Ti,

Angiesan
2013-10-26, 11:23:50
Die Formulierung ist trotzdem falsch, zumal der Vergleich anschließend weiter geführt wird.

Und nein es es kann nicht angeblich, es ist!

fondness
2013-10-26, 12:42:20
According to this data the GTX 780 Ti would be faster than both cards by few percents in 3DMark 11 (Extreme Preset):

NVIDIA GeForce GTX 780 TI: X5204 (100%)
NVIDIA GeForce GTX TITAN: X4924 (94,6%)
AMD Radeon R9 290X: X4664 (89,6%)

The leaker also revealed that is sample is equipped with 6GB memory, we are probably looking at GeForce GTX TITAN refresh with faster clocks. From the information I received it looks like GeForce GTX 780 Ti will consume more power than TITAN, since power section has been redesigned and manufacturers were notified about this change.

So you are probably wondering how many CUDA cores does GTX 780 Ti have. The rumor has it that we are looking at 2688 cores.

http://videocardz.com/47287/nvidia-geforce-gtx-780-ti-3dmark-score-exposed

Also offenbar 5-6% schneller als Titan, was man durch etwas mehr Takt und Leistungsaufnahme (270W TDP) erreicht. Aber immerhin 6GB VRAM und das wohl zum Preis der bisherigen GTX780.

Ronny145
2013-10-26, 12:48:11
Jetzt auf einmal 6GB. Was denn nun? Jeder schreibt was anderes. Wäre ja schön mit 6GB. Das hier ist auch recht passend: $649

So viel verlangt Nvidia derzeit für die 780. Diese müsste deutlich fallen.

fondness
2013-10-26, 12:49:33
Offenbar ist die Entscheidung auch sehr kurzfristig gefallen, NV hat wohl nicht damit gerechnet auf AMD reagieren zu müssen:

The leaker also revealed that the launch may happen even sooner than expected. Does NVIDIA feel threatened by R9 290X? Well I can tell you that even manufacturers had no idea about this card before it was announced, the decision to launch it was made very quickly, that’s also why they cannot make a completely new card, rather than redesign existing model (TITAN).

Jetzt auf einmal 6GB. Was denn nun? Jeder schreibt was anderes. Wäre ja schön mit 6GB. Das hier ist auch recht passend: $649

So viel verlangt Nvidia derzeit für die 780. Diese müsste deutlich fallen.

Nachdem der Typ offenbar eine Karte hat und ja auch schon Benchmarks postet wird das schon stimmen....

boxleitnerb
2013-10-26, 13:27:37
Es kann mir keiner erzählen, dass Nvidia nicht wusste, was Hawaii leisten kann. Die Kurzfristigkeit beruht laut meinen Informationen eher darauf, dass man sich noch nicht entschieden hatte, in welcher Konfiguration die Karte nun kommt. Dass ein Konter kommt, war klar, denn mit einer Preissenkung der Titan hätte man sich keinen Gefallen getan - man kann 1.3 TFLOPs DP nicht noch billiger anbieten. Es war auch überlegt worden, die Karte nur mit 3 GB zu bringen, offenbar hat man sich jetzt doch umentschieden.

Duplex
2013-10-26, 13:37:10
Man kann doch nicht weniger Speicher als AMD anbieten und teurer sein, 6GB ist die richtige Entscheidung.

Die R9-290X gibt es schon für 490,- http://www.computeruniverse.net/products/90534095/sapphire-radeon-r9-290x.asp

dildo4u
2013-10-26, 14:33:34
Man kann doch nicht weniger Speicher als AMD anbieten und teurer sein, 6GB ist die richtige Entscheidung.

Die R9-290X gibt es schon für 490,- http://www.computeruniverse.net/products/90534095/sapphire-radeon-r9-290x.asp
NV hat doch die ganze Zeit weniger Speicher und kostet mehr siehe 770 vs 7970Ghz.Die 6Gb werden Titan only bleiben um das als Alleinstellungsmerkmal zu erhalten.

Angiesan
2013-10-26, 14:39:40
Bei unseren Nachbarn mit den Bergen schon für 460,-- Euro

dildo4u
2013-10-26, 14:43:15
Bei unseren Nachbarn mit den Bergen schon für 460,-- Euro
Ist auch klar wenn man sieht wie überteuert die Karte zur R280 ist.30% Leistung für 230€ Aufpreis.Sie selbe Strategie wie NV(GTX770 zu 780) nur ein Tick billiger.

R280 ist schon bei 230€ :eek:
http://geizhals.de/powercolor-radeon-r9-280x-axr9-280x-3gbd5-dhe-a1013294.html?v=l

fondness
2013-10-26, 14:47:28
NV hat doch die ganze Zeit weniger Speicher und kostet mehr siehe 770 vs 7970Ghz.

Eigentlich ist das erst seit Vorstellung der 280X bzw. kurz davor dem Abverkauf der 7970Ghz so. Vorher waren 770 und 7970ghz ungefähr gleich teuer.



Die 6Gb werden Titan only bleiben um das als Alleinstellungsmerkmal zu erhalten.

Titan ist Geschichte. Ev. kommt stattdessen eine Titan Ultra mit allen SPs, aber IMO wird das noch etwas dauern und womöglich den GK180 bekommen.

Hübie
2013-10-26, 15:05:02
NV hat doch die ganze Zeit weniger Speicher und kostet mehr siehe 770 vs 7970Ghz.Die 6Gb werden Titan only bleiben um das als Alleinstellungsmerkmal zu erhalten.

Es gibt etliche Modelle mit 4GB VRAM *hust* 7970er mit 6GB dagegen faktisch gar nicht.

Eggcake
2013-10-26, 15:30:51
Bei unseren Nachbarn mit den Bergen schon für 460,-- Euro

Also falls du die Schweiz meinst, da gibt es sie erst für 510 Euro, nicht lieferbar.

Das ist 30CHF oder rund 20€ weniger als eine Palit 780 Super Jetstream.

Knuddelbearli
2013-10-26, 15:34:25
er meint österreich

Ronny145
2013-10-26, 15:38:27
Es gibt etliche Modelle mit 4GB VRAM *hust* 7970er mit 6GB dagegen faktisch gar nicht.


3GB sind für Tahiti Standard....was für die Karte angemessen ist. 4GB für GK104 gibt es nur als Custom Karte mit 50€ Aufpreis zum ohnehin schon schlechteren P/L Verhältnis, das ist der entscheidende Punkt.

Iruwen
2013-10-26, 16:25:50
Leistung ist nicht alles.

Felixxz2
2013-10-26, 18:10:59
Ist auch klar wenn man sieht wie überteuert die Karte zur R280 ist.30% Leistung für 230€ Aufpreis.Sie selbe Strategie wie NV(GTX770 zu 780) nur ein Tick billiger.

R280 ist schon bei 230€ :eek:
http://geizhals.de/powercolor-radeon-r9-280x-axr9-280x-3gbd5-dhe-a1013294.html?v=l

Pöses AMD. Die 280X ist viel zu billig!!! Und dann kopieren sie auch noch die Hochpreisstrategie von nVidia, anstatt die Karte für 350€ zu verkaufen. Wahrscheinlich bringen die Schweine bald auch noch ne Karte für 1000€ :freak:

dildo4u
2013-10-26, 18:24:08
Die Entwicklung ist nicht gut für die Kunden vorallem wenn es keine günstigen Alternativen mehr gibt.Lieber ist die Karte 10% langsamer als Titan und leise dafür aber viel billiger wie 2010 6970 zur GTX 580 stand.

Schnitzl
2013-10-27, 08:50:41
Die Entwicklung ist nicht gut für die Kunden vorallem wenn es keine günstigen Alternativen mehr gibt.Lieber ist die Karte 10% langsamer als Titan und leise dafür aber viel billiger wie 2010 6970 zur GTX 580 stand.
bin verwirrt. Ist dir jetzt die 280 zu billig oder die 290 zu teuer?
Die 290 ist doch deutlich billiger als die Titan? Imho sogar deutlicher als die 6970 zur 580.
Zusätzlich bedenke den Shitstorm wenn die 290 tatsächlich 10% langsamer als die Titan wäre...

Zurück zum Thema: ich hatte hier gelesen nVidia zieht den Launch der 780Ti vor?
jetzt find ichs nimmer :(
Ist immer noch Mitte Nov geplant?

Mancko
2013-10-27, 09:14:55
bin verwirrt. Ist dir jetzt die 280 zu billig oder die 290 zu teuer?
Die 290 ist doch deutlich billiger als die Titan? Imho sogar deutlicher als die 6970 zur 580.
Zusätzlich bedenke den Shitstorm wenn die 290 tatsächlich 10% langsamer als die Titan wäre...

Zurück zum Thema: ich hatte hier gelesen nVidia zieht den Launch der 780Ti vor?
jetzt find ichs nimmer :(
Ist immer noch Mitte Nov geplant?

Ja ist noch Mitte November - sprich in wahrscheinlich 3 Wochen.

Hübie
2013-10-27, 10:59:01
3GB sind für Tahiti Standard....was für die Karte angemessen ist. 4GB für GK104 gibt es nur als Custom Karte mit 50€ Aufpreis zum ohnehin schon schlechteren P/L Verhältnis, das ist der entscheidende Punkt.

a) Bezog ich mich auf die Aussage von dildo4u
b) sind die customs in jeder Hinsicht der Referenz überlegen
c) müsstest du für die nicht erhältliche Ref-Karte einen Kühler kaufen damits anständige (geringe) Geräuschemission gibt
d) stimmts dass es kein Ref-Board mit 4 GB VRAM gibt aber wayne...

AnarchX
2013-10-28, 14:34:30
http://we.poppur.com/data/attachment/forum/201310/28/180037axk7y3x00v7j1k1j.png
http://we.poppur.com/thread-2165722-1-1.html

Raff
2013-10-28, 14:39:04
~5,2 TFLOPS mit Basistakt, ~5,8 mit einem voraussichtlichen, typischen Boost auf 1.006 MHz. Klingt gut.

MfG,
Raff

mironicus
2013-10-28, 14:44:11
Wäre das dann der Vollausbau mit soviel Shadern? Bin gespannt was die Titan-Besitzer dazu sagen, wenn die Karte für unter 600 Euro auf dem Markt kommt...

Raff
2013-10-28, 14:54:12
Yep, 2.880 Shader entspricht dem Vollausbau mit 15 SMX à 192 ALUs und 16 TMUs.

MfG,
Raff

Blediator16
2013-10-28, 14:56:10
Wäre das dann der Vollausbau mit soviel Shadern? Bin gespannt was die Titan-Besitzer dazu sagen, wenn die Karte für unter 600 Euro auf dem Markt kommt...

Sie hatten genug Leistung über Monate hinweg:rolleyes:

boxleitnerb
2013-10-28, 14:58:57
Soll 700 Dollar kosten laut SweClockers. Aber die 2880 würden mich schon überraschen. Die angegebenen Füllraten passen wieder nicht zu den Taktraten...

Duplex
2013-10-28, 15:02:38
GK110 ist über 1 Jahr alt, 2880 Shader & 1000MHz+ Boost sollte kein Problem sein.

Das wars dann für AMD, von wegen Leistungskrone :D:D

mironicus
2013-10-28, 15:05:23
http://www.computerbase.de/news/2013-10/die-geforce-gtx-780-ti-kommt-fuer-699-us-dollar/

Peter Gräber
2013-10-28, 15:05:34
Die Katze aus dem Sack:
http://ht4u.net/news/28546_nvidia_kuendigt_die_geforce_gtx_780ti_fuer_den_7_november_an_und_nennt_pre ise/

boxleitnerb
2013-10-28, 15:05:54
Technisch womöglich nicht, aber ob es
a) wirtschaftlich optimal
b) nötig ist
ist wieder fraglich. Man macht ja normalerweise nur gerade soviel, um die Konkurrenz knapp zu schlagen. Alles darüber kostet nur unnötig Geld und würde evtl. auch die kleineren Nextgen-Chips gefährden. Wenn Nvidia die GTX 580 z.B. auf 900 MHz getaktet hätte, hätte die GTX 680 im Vergleich nicht prickelnd ausgesehen.

Hugo78
2013-10-28, 15:06:02
2880 ALUs @ 1 GHz, 7 gbit VRAM = die Definition von Nerdgasim 2013.

Ronny145
2013-10-28, 15:08:16
Die Katze aus dem Sack:
http://ht4u.net/news/28546_nvidia_kuendigt_die_geforce_gtx_780ti_fuer_den_7_november_an_und_nennt_pre ise/


Den Preispunkt der GTX 780 Ti nennt man in der Pressemitteilung mit 649 US-Dollar, was umgerechnet zirka 560 Euro entsprechen sollte.

CB:
Der offizielle Preis der Karte wird bei 699 US-Dollar (ohne Steuern) liegen.


Wer hat sich vertan?

Ronny145
2013-10-28, 15:10:28
http://we.poppur.com/data/attachment/forum/201310/28/180037axk7y3x00v7j1k1j.png
http://we.poppur.com/thread-2165722-1-1.html


Wäre sinnvoll das Bild auf eine neutrale Seite hochzuladen, der Chinesen Mist lädt nicht.

Duplex
2013-10-28, 15:11:48
Man sollte mit 550-600 € rechnen.

Knuddelbearli
2013-10-28, 15:43:57
sagte ja das ihr mir eure titans verkaufen sollt! überlege jetzt ernsthaft meinen preis zu senken ^^

Raff
2013-10-28, 15:49:31
Titan hat immer noch 6 GiB und schnelles DP ... ;)

MfG,
Raff

Edgecrusher86
2013-10-28, 15:50:09
Also hier hat es sogar sehr schnell geladen für ne chin. Seite. ;)

http://abload.de/img/180037axk7y3x00v7j1k1m3qev.png

Sofern das dieses Mal kein Fake wäre, würde bei der Ti ja GK180 verbaut sein.

E: DP bringt uns leider nicht viel, 6GB dagegen hin und wieder doch schon eher etwas. :D
Nun ja, es soll ja auch dieses Mal bis zu 6GB geben, entweder gleich über zwei Referenzversionen ähnlich GTX 460 damals oder später über die Boardpartner.

Ronny145
2013-10-28, 15:50:31
Titan hat immer noch 6 GiB und schnelles DP ... ;)

MfG,
Raff


Möchtest du sagen das 780 Ti mit 3GB bestückt ist?

Also hier hat es sogar sehr schnell geladen für ne chin. Seite. ;)



Vorhin nicht. Jetzt sehe ich es. Jetzt wieder 3GB, je nach Leak 3 oder 6GB lol.

boxleitnerb
2013-10-28, 15:52:18
Wer eine Titan gekauft hat, würde einen Fehler machen, die zu verkaufen. Mit dem Erlös könnte man sich höchstens eine gleichschnelle Karte kaufen, was bringt das? Ich für meinen Teil behalte die Karten bis Maxwell, also noch mindestens ein Jahr, eher anderthalb.

Sven77
2013-10-28, 15:55:14
True

Edgecrusher86
2013-10-28, 15:58:29
Angeblich soll es ja dieses Mal zwei Referenzversionen geben. Einer meinte auch, dass seine Karte 6GB haben soll (siehe XS). Nun ja, auf jeden Fall werden sich die 699$ auf die 3GB Version beziehen, denke ich.

Schauen wir mal, ob es dann auch schon am 7.11. eine 6GB Variante gibt oder man diesbezüglich vielleicht bis Q1 warten muss.

Knuddelbearli
2013-10-28, 16:02:34
Titan hat immer noch 6 GiB und schnelles DP ... ;)

MfG,
Raff


und wielviel Titan besitzer dürfte das letztere interessieren?
und von denen die das interessiert wieviele davon benötigen das wirklich und wieviele nutzen das nur um es sich schönzureden? ^^

Sven77
2013-10-28, 16:05:46
und wielviel Titan besitzer dürfte das letztere interessieren?
und von denen die das interessiert wieviele davon benötigen das wirklich und wieviele nutzen das nur um es sich schönzureden? ^^

nein, du kriegst keine Titan für 450Eur

Blaire
2013-10-28, 16:06:33
http://we.poppur.com/data/attachment/forum/201310/28/180037axk7y3x00v7j1k1j.png
http://we.poppur.com/thread-2165722-1-1.html

Fake :)

Knuddelbearli
2013-10-28, 16:07:59
nein, du kriegst keine Titan für 450Eur

Wo ein Wille ist :P ^^

Superheld
2013-10-28, 16:16:43
Fake :)

die Karte zeigen is doch viel einfacher:cool:

Ailuros
2013-10-28, 17:13:51
Ist bei den GPU + game bundles + Shield@discount das letzte eine Bestrafung der User oder was? :devil: Die werden die Dinger wohl ueberhaupt nicht los.

Hübie
2013-10-28, 17:16:51
Hä? Wie meinst du das mit shield?? Ich las neulich dass die permanent ausverkauft seien... Okay wenn ich nur 1000 Stück pro Monat herstelle ist das kein Wunder aber ich denke doch das die (aus eigenem Interesse) mehr produzieren werden. Tegra4 scheint mir aber n echter Ladenhüter zu sein ;D

Ailuros
2013-10-28, 17:33:05
Hä? Wie meinst du das mit shield?? Ich las neulich dass die permanent ausverkauft seien... Okay wenn ich nur 1000 Stück pro Monat herstelle ist das kein Wunder aber ich denke doch das die (aus eigenem Interesse) mehr produzieren werden. Tegra4 scheint mir aber n echter Ladenhüter zu sein ;D

Ich nichts meinen; NVIDIA meinen :P

http://www.geforce.com/whats-new/articles/announcing-the-geforce-gtx-holiday-bundle-featuring-heroes-pirates-and-spies

http://www.geforce.com/sites/default/files-world/attachments/nvidia-geforce-gtx-holiday-bundle-with-shield-tiers-v2-640px.png

Schnell die Straf...eerrrr bundle fuer shield gilt nur bis zum 26.11.13 ;)

Knuddelbearli
2013-10-28, 17:39:52
solange es Shield bei uns nicht gibt ...

prinz_valium
2013-10-28, 18:46:57
tegra 4 ist wohl deshalb eine ladenhüter, weil es einfach keinen mobilfunk im chip hat.
eigentlich gibt es doch nur das surface 2 und shield. sonst noch irgendwo?

mit glück schaffen die vllt 10 mio bei den beiden. 9,5 mio surface und 0,5 shield
innerhalb eines jahres + abverkauf der alten gen...

AnarchX
2013-10-28, 19:04:28
CB:



Wer hat sich vertan?
HT4u.
Für die $699 wären wohl aber doch bald 6GiB angebracht.

Wenn NV die Restriktionen fallen lassen würde, gäbe es wohl mitterweile auch eine 6GiB GTX 780 für <500€.

fondness
2013-10-28, 19:12:36
HT4u.
Für die $699 wären wohl aber doch bald 6GiB angebracht.

Wenn NV die Restriktionen fallen lassen würde, gäbe es wohl mitterweile auch eine 6GiB GTX 780 für <500€.

Für $200 mehr als jetzt eine normale GTX780 kostet sind 6GB das Mindeste und die werden IMO auch vorhanden sein.

pest
2013-10-28, 20:34:03
schnelles DP ...


und das nutzt do genau wofür? deine hochgenaue Strömungssimulation? :tongue:

Hübie
2013-10-28, 23:38:27
Ich nichts meinen; NVIDIA meinen :P

http://www.geforce.com/whats-new/articles/announcing-the-geforce-gtx-holiday-bundle-featuring-heroes-pirates-and-spies

http://www.geforce.com/sites/default/files-world/attachments/nvidia-geforce-gtx-holiday-bundle-with-shield-tiers-v2-640px.png

Schnell die Straf...eerrrr bundle fuer shield gilt nur bis zum 26.11.13 ;)

;D;D Eben erst die News dazu gesehen. Geile Bestra... äh Bündelung, ja! Shield sieht schon so derbe unbequem aus das mir die Hände beim zuschauen weh tun.
Wurde Tegra4 nicht mit diesem "programmierbaren" Funkmodul vorgestellt? :|

Skysnake
2013-10-28, 23:48:37
Das ist der T4i, der erst noch kommen wird, und das FPGA-Funkmodem ist noch nicht durch die Zertifizierung soweit ich das richtig verfolgt habe. Sprich auf gut Deutsch bis das geschehen ist ziemlich teurer Elektroschrott.

Hübie
2013-10-29, 06:47:40
Ah, okay. Hab leider kaum Zeit um mich damit noch zu beschäftigen. Tegra4 kann man dann aber auch auslassen oder weil der T5 ja schon an die Tür klopft.

AnarchX
2013-10-30, 07:44:51
GTX 780 GHz:
http://www.expreview.com/29089-all.html
http://news.mydrivers.com/1/280/280618.htm

Botcruscher
2013-10-30, 08:46:55
Technisch unglaublich spannend.:rolleyes: Als nächstes kommt dann die Titan GHz und Titan Ultra GHz. Namen verhandelbar.
PS: Eigentlich alles nur eine Frage was NV bei den Partnern zulässt.

V2.0
2013-10-30, 09:05:13
Von der Leistungsaufnahme genauso schlecht wie R290X.

Hugo78
2013-10-30, 09:32:35
GK110-A1 hat schon eine bessere Perf./W als Hawaii, da wird GK110-B1 noch einen drauflegen.

Raff
2013-10-30, 09:40:37
Eindeutige Tests, um das zu belegen, sind aber beinahe unmöglich. Erstens handelt es sich bei der Karte um ein beschnittenes Produkt, zweitens wird die GPU an Partner ausgehändigt, die gänzlich verschiedene Kühlung/Takt-Kombinationen fahren und drittens gibt's bei jeder Version verschiedene ASIC-Qualitäten. Man kann's natürlich mit Glück probieren und dann etwas testen, aber wasserdicht ist das nicht.

MfG,
Raff

Hübie
2013-10-30, 10:26:53
Wobei die ASIC lediglich als Indiz dient. Meine beiden haben nicht mal 2% Differenz aber booten total unterschiedlich (einzeln getestet).

Duplex
2013-10-30, 10:55:31
Auf die Asic Werte kann man sich nicht mehr verlassen, es gibt Karten bei EVGA mit 75er Asic die meilenweit besser gehen als 85er Asic.
Die Chips werden bestimmt spezial Selektiert.

Angiesan
2013-10-30, 12:19:06
Doch kann man, nur bei den EVGA Karten wo du ansprichst wird auch heftig an der Spannung gedreht und dann kann es durchaus sein das eine niedrige ASIC besser geht wie eine mit hoher.

Hohe ASIC = niedriger V-Drop, niedrige ASIC = hoher V-Drop

Beispiel liegen laut Tool 1,175 Volt an nimmt eine 60 ASIC nur 1,150 eine 85 ASIC jedoch die vollen 1,175 Volt was mit Standard-Kühlung in einem höheren OC endet aber auch ...normal in einer etwas höheren Temperatur.

Gibt man jetzt jedoch 1,3 Volt auf den Chip wie das einige bei der Classi machen kann es durchaus sein das eine 75 ASIC besser geht da die Hotspots im Chip aufgrund des höheren V Drops nicht so massiv auftreten.
Was ich bis jetzt so gesehen habe scheint gerade unter Spannungszugabe und bei anständiger Kühlung die 75-80er ASIC die besten OC Ergebnisse zu liefern.

Da NV leider keinen Steuerchip verlötet der da genau ausgelesen werden kann ist das immer ein Versuchen, bei AMD Karten kann man es aber sehr gut auslesen denn da unterscheidet sich anliegende und eingestellte Spannung recht deutlich und mit "besser" ASIC wird der Spread kleiner.

Grüße

Schaffe89
2013-10-30, 12:37:06
Wenn Nvidia die GTX 780 auf die Leistung einer 290x im Übermode bringt, benötigt man auch Taktraten von mindestens 1050, eher 1100mhz, dass das natürlichn ineffizient ist, ist keine Frage.

Sollte die 780 Ti nun Gigahertz heißen, dann ist das ziemlich unspannend. Eine 290pro kann man dann locker auch auf das Niveau takten, bei günstigeren Preis.

Wirklich zu erwarten dass Nvidia ihre Full SMX Karten dafür nimmt, wäre auch etwas realitätsfern gewesen.

Bei AMD liegt die höhere Leistungsaufnahme aktuell nur am Kühler, weil der einfach keine Wärme rauslässt und alles rauspustet.

Ich hab da sselbst schon getestet. Bei gleichem Takt sinkt der Verbrauch um 30 Watt. ( 94 Grad vs. 75 Grad)

yamo
2013-10-30, 12:53:30
Wenn Nvidia die GTX 780 auf die Leistung einer 290x im Übermode bringt, benötigt man auch Taktraten von mindestens 1050, eher 1100mhz, dass das natürlichn ineffizient ist, ist keine Frage.

Sollte die 780 Ti nun Gigahertz heißen, dann ist das ziemlich unspannend. Eine 290pro kann man dann locker auch auf das Niveau takten, bei günstigeren Preis.

Wirklich zu erwarten dass Nvidia ihre Full SMX Karten dafür nimmt, wäre auch etwas realitätsfern gewesen.

Bei AMD liegt die höhere Leistungsaufnahme aktuell nur am Kühler, weil der einfach keine Wärme rauslässt und alles rauspustet.

Ich hab da sselbst schon getestet. Bei gleichem Takt sinkt der Verbrauch um 30 Watt. ( 94 Grad vs. 75 Grad)

Die 780 GH soll neben der Ti lt Videocardz (http://videocardz.com/47420/nvidia-updates-geforce-gtx-780-ghz-edition)nur über AIB erscheinen, daher kein Custom Design.
NV scheint da verzweifelt einige Konter aufzufahren. Endlich kommt mal eine preisliche Bewegung in den High-Performance/Enthusiast Bereich.

V2.0
2013-10-30, 13:07:08
Verzweifelt würde ich es nicht nennen dem alten Chip nur soviel TDP zu geben wie die Konkurrenz auch ihrem neuen erlaubt.

Angiesan
2013-10-30, 13:07:41
Ja man muss auch mal abwarten was das B1 Stepping bringt da wurde ja schon was verändert, nur was?
Würde mich nicht wundern wenn man bei der Spannung und Leistungsaufnahme geblieben ist und nur höher taktet.
Das schlägt halt bei den großen NV genau so durch wie bei AMD das dürften gute 10% mehr sein und damit auf Augenhöhe einer Titan

prinz_valium
2013-10-30, 13:12:11
wir kommen jetzt nach 2 jahren 28nm endlich da an p/l technisch, wo ich es von anfang an gehofft hatte...


gk110 vollausbau für 699
gk100 salvage für 450
gk104 für 299



hat ja nicht ganz so lange gedauert :D

Botcruscher
2013-10-30, 13:14:52
Bei dem Vollausbau warten wir mal ab. Für 699 kann man auch eine ehemalige Titan mit etwas mehr Takt verscherbeln.

Iruwen
2013-10-30, 13:39:58
Sollte die 780 Ti nun Gigahertz heißen, dann ist das ziemlich unspannend. Eine 290pro kann man dann locker auch auf das Niveau takten, bei günstigeren Preis.

Vergleichen wir jetzt also plötzlich wieder manuelles OC mit Serienkarten weils uns argumentativ grad in den Kram passt ja. Und parallel gegen ein Verstellen des PT (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9979315#post9979315) wettern weil man dafür ja Software und keinen Schalter braucht :freak:

Skysnake
2013-10-30, 13:45:21
Gegen das einfache Verstellen des PT sagt hoffentlich keiner etwas. Das Flashen eines neuen BIOS, um das mögliche PT zu erhöhen ist was ganz anderes.

Iruwen
2013-10-30, 13:49:06
Da geht es nur um die Herstellersoftware, abgedeckt von der Garantie.

Skysnake
2013-10-30, 14:01:19
Wie gesagt, da nen Unterschied zu machen ist lächerlich in meinen Augen. Das mit dem Flashen ist aber wieder was komplett anderes.

Schaffe89
2013-10-30, 14:09:08
Vergleichen wir jetzt also plötzlich wieder manuelles OC mit Serienkarten weils uns argumentativ grad in den Kram passt ja. Und parallel gegen ein Verstellen des PT wettern weil man dafür ja Software und keinen Schalter braucht

Spar dir deine Polemik, ich hab überhaupt nichts gegen OC(oder wie man das auch nennen will), weder mit dem System von Nvidia oder dem von AMD, was du hier als Widerspruch anführst hat überhaupt keinen Bezug zu dem jetzigen Thema.

Hier gehts rein ums übertakten und wenn eine günstigere Karte dieselbe IPC hat, dann dürften die teureren Modelle sich nicht lohnen, aber es scheint ja eh die 780 Ti was anderes zu werden, ergo erledigt.

Es gibt zudem schon GTX 780 Gigahertz Editions.

PS: Ich habe überhaupt nicht gewettert, sonder boxleitnerb hat gewettert, wegen einem Spielbarkeitstest.

boxleitnerb
2013-10-30, 14:17:26
Nö, ich hab kritisiert, wegen dem Fazit aus dem 290X-Test. Durch den Spieletest bin ich überhaupt erst darauf aufmerksam geworden.
OC vs stock war noch nie und wird nie ein vernünftiger Vergleich sein.

Durch die 780 GHz steigen die Erwartungen an die 780 Ti, denn die Lücke wird dadurch ja kleiner, und für 5% mehr Performance braucht man echt keine neue Karte. Entweder hat die Ti also einen deutlich höheren Takt als Titan (auch so +10-15%) oder das Ding hat eben doch alle 15 SMX.

yamo
2013-10-30, 14:17:53
gk110 vollausbau glaube ich nicht bei der Ti.
wäre ja zu schön. eher gepimpte Titan mit 110b. backhand wird der vollausbau sein.
nach der ti kommt bestimmt noch was ;)

Angiesan
2013-10-30, 15:55:59
Nein die GTX 780 TI wird das neue Flaggschiff bis zur nächsten Generation zumindest für Gamer.

StefanV
2013-10-30, 16:02:44
Nö, ich hab kritisiert, wegen dem Fazit aus dem 290X-Test. Durch den Spieletest bin ich überhaupt erst darauf aufmerksam geworden.
OC vs stock war noch nie und wird nie ein vernünftiger Vergleich sein.
Nur blöd, dass das kein OC ist sondern einfach nur eine höhere Lüfterdrehzahl (+50% bzw 1000rpm)...
Aber da bin ich echt auf die Custom 290X gespannt und was du dazu sagen wirst :devil:

Aber im PCGH meldest dich ja auch nicht mehr...

Iruwen
2013-10-30, 16:14:50
Du solltest vielleicht die vorherigen Posts lesen.

maximus_hertus
2013-10-30, 16:35:59
Hmmm. 780 Ti = Voller GK110:

http://wccftech.com/gtx-780-ti-specifications-leaked-full-blown-gk110-core-2880-sp/

2880 Shader, 240 TMUs, 48 ROPs, 3 GiB, 902 MHz Base bzw. 1033 MHz Boostclock, 3500 MHz Memclock.

dildo4u
2013-10-30, 16:38:09
Hmmm. 780 Ti = Voller GK110:

http://wccftech.com/gtx-780-ti-specifications-leaked-full-blown-gk110-core-2880-sp/

2880 Shader, 240 TMUs, 48 ROPs, 3 GiB, 902 MHz Base bzw. 1033 MHz Boostclock, 3500 MHz Memclock.
Wird Brutal ich vermute da es keine Titan Ultra ist werden auch Custom Karten kommen.

LSSJBroly
2013-10-30, 16:42:41
Lagweilig da Fake - die Werte passen nicht im Ansatz überein...

Ein 902MHz 15SMX Chip besitzt 43,3GPixel/s und 216,5GTexel/s. Die Werte passen nur mit 941MHz Basistakt...

Außerdem würde der Speichertakt bei 7GBps-Vram nicht 1752 sondern 1753Mhz betragen, siehe GTX 770.

boxleitnerb
2013-10-30, 19:34:44
Die Taktraten passen zwar nicht, die 2880 Kerne stimmen aber ;)

LSSJBroly
2013-10-30, 20:19:21
Die Taktraten passen zwar nicht, die 2880 Kerne stimmen aber ;)

Deswegen sagte ich ja auch:
Die Werte passen nur mit 941MHz Basistakt...

boxleitnerb
2013-10-30, 20:25:25
Angeblich hat die Karte eine neue Stromversorgung (mehr Saft?), Verbrauch soll aber "gut" sein, was auch immer das heißt. So jedenfalls kommts aus dem XS-Forum.
An den hohen Takt glaub ich nicht so ganz, 10% mehr Performance sollten eigentlich schon ausreichen, um die 290X durchgehend zu schlagen. Mehr Takt würde nur die Effizienz wieder killen.
Alles über ca. 880 MHz Basis und 925 MHz Durchschnittsboost würde mich überraschen.

tw34k3r
2013-10-30, 20:31:25
Hmmm. 780 Ti = Voller GK110:

http://wccftech.com/gtx-780-ti-specifications-leaked-full-blown-gk110-core-2880-sp/

2880 Shader, 240 TMUs, 48 ROPs, 3 GiB, 902 MHz Base bzw. 1033 MHz Boostclock, 3500 MHz Memclock.

Wow da geht was wenn die kommen sollte :)
Dachte eigentlich die Titan wäre max. aber das scheint dann wohl die 780ti zuwerden.

fondness
2013-10-30, 20:32:56
IMO machen die Taktraten und die neue Stromversorgung nur Sinn, wenn es eben kein voller Chip ist. Oder es ist ein voller Chip und dafür sind Taktraten und Stromversorgung nicht groß anders. Für NV wäre die erste Variante wohl wirtschaftlicher. Hängt aber von den Yields ab.

Hugo78
2013-10-30, 21:34:35
Angeblich hat die Karte eine neue Stromversorgung (mehr Saft?),

Mehr Phasen als die üblichen 6+2 helfen zu mehr Spannungstabilität und am ende so zu mehr Takt ohne zwangsweise gleich mehr Saft zubrauchen.
Die Bauteile und das dicker PCB kosten natürlich mehr.

EVGAs GTX 780 Classified hat z.b 14 Phasen, ebendso Colorful.
ASUS, Gainward und Galaxy Modelle haben immernoch 10 und MSI sogar 20 Phasen auf ihrer 780 Lightning.

Angiesan
2013-10-30, 23:57:31
Angeblich hat die Karte eine neue Stromversorgung (mehr Saft?), Verbrauch soll aber "gut" sein, was auch immer das heißt. So jedenfalls kommts aus dem XS-Forum.
An den hohen Takt glaub ich nicht so ganz, 10% mehr Performance sollten eigentlich schon ausreichen, um die 290X durchgehend zu schlagen. Mehr Takt würde nur die Effizienz wieder killen.
Alles über ca. 880 MHz Basis und 925 MHz Durchschnittsboost würde mich überraschen.
Na wenn es wirklich nach dem Abverkauf von der normalen GTX 780 noch eine weitere zur TI geben wird und der Titan EOL geht braucht es schon 902 MHz und einen Boost von 954 MHz um den Abstand dann auch einzuhalten sonst würde die Ti das Gleiche ereilen was die Titan schon hinter sich hat die vom Werk aus frisierten GTX 780er würden sie wieder überholen, dies möchte man zumindest beim Factory OC vermeiden........ ;-)

Schaffe89
2013-10-31, 00:20:16
Es wäre doch bei den bisherigen Custom Modellen völliger Unsinn, einfach nur nen Takt draufzulegen.
Der gleiche Unsinn wie bei der Gigahertz HD 7970, einfach nur Marketing.

dildo4u
2013-10-31, 00:56:01
Es wäre doch bei den bisherigen Custom Modellen völliger Unsinn, einfach nur nen Takt draufzulegen.
Der gleiche Unsinn wie bei der Gigahertz HD 7970, einfach nur Marketing.
Nein es ist eine neue Revision die vermutlich besser oc bzw für 780 Takt weniger Spannung braucht.

StefanV
2013-10-31, 02:43:09
Nein es ist eine neue Revision die vermutlich besser oc bzw für 780 Takt weniger Spannung braucht.
Sagt wer?! Du??

Links?? Oder ist das nur Spekulation deinerseits??

Hübie
2013-10-31, 05:42:58
Das Wort vermutlich ist dir wohl nicht geläufig, was?
Und in welchem Unterforum wir uns hier befinden ist dir doch hoffentlich klar, hm?
Bringt nVidia nun zwei oder drei Karten dieses Quartal auf den Markt? Hab da vielleicht etwas falsch verstanden...

boxleitnerb
2013-10-31, 06:11:02
Es wäre doch bei den bisherigen Custom Modellen völliger Unsinn, einfach nur nen Takt draufzulegen.
Der gleiche Unsinn wie bei der Gigahertz HD 7970, einfach nur Marketing.

Es geht um die 780 Ti, nicht um die 780 GHz.
Und immerhin macht Nvidia um die 780 GHz überhaupt kein Aufhebens mit Tests und separaten SKUs, jedenfalls bisher nicht. Also weder Marketing noch Unsinn.

robbitop
2013-10-31, 08:14:43
Wird Brutal ich vermute da es keine Titan Ultra ist werden auch Custom Karten kommen.
Was ist daran "brutal"? Ein SMX mehr sind 7 % Mehrleistung.

Vor ein paar Jahren wurde das Wort "brutal" nicht vor Faktor 2 benutzt. Heute feiern offenbar alle wegen ein paar %, die uns scheibchenweise für teures Geld verkauft wird.
Eine GK110 im Vollausbau mit 1 GHz wäre Anfang 2012 ggü der GTX580 "brutal" gewesen. Gegenüber existierenden GPUs ist es nur ein vorhersehbarer Konter.
Auf den nächsten Faktor 2 für 500 € darf man vermutlich wieder 3 Jahre warten...

Skysnake
2013-10-31, 08:56:37
Dem ist nichts hinzuzufügen :up:

RLZ
2013-10-31, 09:07:46
Vor ein paar Jahren wurde das Wort "brutal" nicht vor Faktor 2 benutzt. Heute feiern offenbar alle wegen ein paar %, die uns scheibchenweise für teures Geld verkauft wird.
Vor ein paar Jahren hätte man bei einer neuen Generation für einen Faktor <2 das Wort "enttäuschend" benutzt. :ucoffee:

Ailuros
2013-10-31, 09:10:57
Vor ein paar Jahren hätte man bei einer neuen Generation für einen Faktor <2 das Wort "enttäuschend" benutzt. :ucoffee:

Welche neue Generation genau? Die Leistung steigt pro GPU Generation schon meistens bis zu 2x Mal im Vergleich zur vorigen, nur sind die Zeitspannen zwischen Generationen laenger geworden. Bis es einen Nachfolger fuer GK110-basierenden mainstream GPUs gibt wird es wohl noch zumindest 1.5 Jahre dauern.

yamo
2013-10-31, 11:51:42
Die Taktraten passen zwar nicht, die 2880 Kerne stimmen aber ;)

Wäre zu schön. Wie schauts mit dem Speicher aus?:whistle:
Da könnte ich schon schwach werden....

boxleitnerb
2013-10-31, 12:45:37
Dazu weiß ich nichts Konkretes. Es wurde nur angedeutet, dass es 3 GB und 6 GB Modelle geben könnte (möglicherweise sogar als Referenz). Da Titan EOL ist und die 780 Ti schneller wird und sich auch mit den 4 GB der AMDs rumschlagen muss, glaube ich nicht, dass Nvidia 6 GB-Modelle verbieten würde.

fondness
2013-10-31, 20:34:05
You were probably wondering why I didn’t post anything about the ‘leaked’ GPU-Z screenshots from Chinese forums. Unfortunately these are all fake, so I would only waste my and your time.

So the only thing I cannot confirm yet is the configuration of the GPU. Everything suggests that we are looking at TITAN refresh with slightly faster GPU and much faster memory. There is a slim chance that GTX 780 Ti could be equipped with 2880, especially since the clocks are not much higher than TITAN’s, and I already know that power section had to be redesigned, so the card does require more power (they wouldn’t redesign it for 50MHz right?). Let me also remind you that NVIDIA calls it ‘Newest and Fastest Graphics Card Ever’. So yeah, we can still hope it’s the full GK110.

GeForce GTX 780 TI: GK110B P2083 SKU 30 VGA BIOS
GeForce GTX TITAN: GK110 P2083 SKU 20 VGA BIOS
GeForce GTX 780: GK110 P2083 SKU 10 VGA BIOS

Now let’s look at confirmed specs. The GeForce GTX 780 Ti is clocked at 875 MHz for base and 928 MHz for boost, the memory clock is 1752 MHz (7008 MHz effective). Card is equipped with 3GB memory across 384-bit interface. The GPU itself is Kepler GK110. The revision is B1, most likely GK110-400-B1 (400 if this is a TITAN refresh).

I cannot confirm yet if 3GB memory is the only possible configuration here. I do hope that NVIDIA will also launch 6GB cards, maybe after a while when all TITAN’s are sold out.

While the TITAN was a bridge between GeForce and Quadro cards with much better 64-bit floating point performance (every SMX had 192 FP32 and 64 FP64 CUDA cores) the GTX 780 Ti will feature less FP64 CUDAs. The GTX 780 Ti is definitely more gaming oriented, so it is an obvious and unsurprising move.

NVIDIA GeForce GTX 780 Ti will be released next week, on November 7th for the price of 699 US dollars.

Contact me if you know how to read CUDA cores from graphics card’s BIOS.

http://videocardz.com/47491/nvidia-geforce-gtx-780-ti-3gb-memory-gk110-gpu

LSSJBroly
2013-10-31, 21:20:47
15SMX wohl sogut wie bestätigt:
http://videocardz.com/47508/videocardz-nvidia-geforce-gtx-780-ti-2880-cuda-cores

Hugo78
2013-10-31, 21:35:46
GK110 B1 bekommt also DirectX 11.2.

fondness
2013-10-31, 21:54:16
GK110 B1 bekommt also DirectX 11.2.

Ich gehe jede Wette ein dass das nicht stimmt. Auch auf der abgedruckten Verpackung steht nur DX11. Mit einem B-Stepping baut man für gewöhmlich keine neue Features ein, denn dafür bedarf ist tiefgreifende Änderungen an den ALUs.

Knuddelbearli
2013-10-31, 22:00:44
vermutlich DX 11.2 in Software ^^

Hübie
2013-10-31, 23:10:40
Afaik müssten die Änderungen eher an den TAUs und TMUs gemacht werden.

Dural
2013-11-01, 09:30:51
Der GF110 B hatte ja auch Veränderungen an den TMUs.

Aber an DX11.2 glaube ich auch nicht so recht, ausser die Veränderungen sind sehr klein.

Raff
2013-11-01, 11:23:21
http://videocardz.com/47491/nvidia-geforce-gtx-780-ti-3gb-memory-gk110-gpu

15SMX wohl sogut wie bestätigt:
http://videocardz.com/47508/videocardz-nvidia-geforce-gtx-780-ti-2880-cuda-cores

Dick, auf diese Karte haben wohl viele gewartet: Vollausbau und schneller Speicher – aber nur 3 GiB. :freak: Mit 2.880 ALUs @ 928 MHz pumpt die GTX 780 Ti ~5,35 TFLOPS, eine Titan mit 2.688 ALUs @ 876 MHz noch ~4,7 TFLOPs; die GTX 780 mit 2.304 ALUs @ 902 MHz nur ~4,16 TFLOPs.

Die GTX 780 Ti braucht rechnerisch nur 722 MHz, um mit der GTX 780 gleichzuziehen und 818 MHz für eine Titan. Da letztere aber 1-3 Prozent durch ihren Speicher-Overhead zurückliegt, werden wohl 800 MHz reichen (eine GTX 780 braucht dafür 1.006 MHz).

MfG,
Raff

-/\-CruNcher-/\-
2013-11-01, 11:31:48
Das Kepler Finale Maxwell steht vor der Tür :)

aufkrawall
2013-11-01, 11:33:55
Schneller als ein voller GK110 kann ein GM104 in 28nm ja nicht werden. :(

-/\-CruNcher-/\-
2013-11-01, 11:36:50
muss er auch nicht hauptsache er erreicht eine bessere balance dann wird die 860 GTX schon rocken bei niedrigerem Verbrauch :)

Raff
2013-11-01, 11:38:08
Wo ist GK110 denn unausgeglichen? Mit Maxwell sollte Nvidia aber den Schritt zu DX11.2(+) wagen.

MfG,
Raff

aufkrawall
2013-11-01, 11:40:29
Mit Maxwell sollte Nvidia aber den Schritt zu DX11.2(+) wagen.

Davon hat man erstmal gar nichts und vielleicht auch später kaum was.

Tzunamik
2013-11-01, 11:54:00
OU man, jetzt juckt es wieder gewaltig in den Fingern... wo ich doch so sicher war das die 780 meine Lust auf Upgrades erst mal bis Maxwell stillt, wieso tust du sowas nVidia :D

Naja ich werde wohl auf der 780 bleiben, läuft ja mit 1280 Mhz, dürfte immer noch weit schneller wie die 780Ti sein, auch wenn man die noch OCen können wird :D

Aber guter Zug von nVidia, erst mal abwarten was von AMD kommt um dann gleich aus dem Portfolio wieder vorne zu stehen =)

fondness
2013-11-01, 11:56:05
Davon hat man erstmal gar nichts und vielleicht auch später kaum was.

Und vielleicht hat man später dank der Konsolen auch einiges davon. ;)
Ich würde mir jedenfalls heute keine DX11.0-Karte kaufen, zumindest nicht wenn ich diese länger behalten will.

aufkrawall
2013-11-01, 12:11:14
Und vielleicht hat man später dank der Konsolen auch einiges davon. ;)
Ich würde mir jedenfalls heute keine DX11.0-Karte kaufen, zumindest nicht wenn ich diese länger behalten will.
Von NV gabs zum Glück nie DX11.0-Karten.

Gipsel
2013-11-01, 12:21:37
Von NV gabs zum Glück nie DX11.0-Karten.Was denn sonst?

aufkrawall
2013-11-01, 12:33:28
Was denn sonst?
Die meisten D3D11.1-Features haben sie ja schon lange vor DX11.1 supported:
http://nvidia.custhelp.com/app/answers/detail/a_id/3196

Weiß man schon von einem Spiel, das "UAVs in the vertex, geometry and tessellation shaders" nutzen wird und, dass dieses Feature nicht auf NV-Hardware genutzt werden wird können?

Bei BF4 wurde schließlich auch schon von den üblichen Verdächtigen geunkt, dass AMDs mit DX11.1 da einen Vorteil haben werden würden.

Skysnake
2013-11-01, 12:44:14
:facepalm:

nVidia hat kein DX11.1, sondern nur die meisten Features, die unter DX11.1 Pflicht wurden, aber unter DX11.0 noch optional waren....

Und alles andere ist scheis egal, oder sollen wir jetzt anfangen bei beiden Herstellern die nicht offiziellen Features aufzuzählen?

aufkrawall
2013-11-01, 12:51:08
Laut dem Link oben werden alle D3D relevanten Features in Hardware unterstützt.
Nur auf eines kann nicht direkt per D3D zugegriffen werden, aber der Artikel nennt einen anderen möglichen Weg.

NV unterstützt also nicht D3D11_1, aber alle für Spiele relevanten Features davon. Auf ein Feature muss nur anderweitig zugegriffen werden.

Schlümm!

boxleitnerb
2013-11-01, 12:59:44
Die Frage bleibt letztendlich, ob die Features in Spielen dann unterstützt werden (per Extension z.B.) oder ob sich die Entwickler nicht die Mühe machen und Nvidia auf 11.0-Features runterstufen.

Was wo wie draufsteht oder wie es heißt, ist irrelevant. Relevant ist nur, wie es im Alltag dann tatsächlich aussieht bzw. performt.

Skysnake
2013-11-01, 13:07:04
Laut dem Link oben werden alle D3D relevanten Features in Hardware unterstützt.
Nur auf eines kann nicht direkt per D3D zugegriffen werden, aber der Artikel nennt einen anderen möglichen Weg.

NV unterstützt also nicht D3D11_1, aber alle für Spiele relevanten Features davon. Auf ein Feature muss nur anderweitig zugegriffen werden.

Schlümm!
Was ein Bullshit sorry. WER entscheidet denn, was relevant ist? DU?

Ich glaube nicht Tim...

Über Standards muss man nicht diskutieren. Entweder Sie werden zu 100% eingehalten, oder eben nicht. Da gibt es nur eine binäre Antwort. Ja oder Nein. Das wars, und das ist auch gut so! Ansonsten kannste nämlich nen fetten Haufen auf jedweden Standard setzen, wenn man akzeptieren würde, das auch einzelne Sachen nicht unterstützt werden.

Die Frage bleibt letztendlich, ob die Features in Spielen dann unterstützt werden (per Extension z.B.) oder ob sich die Entwickler nicht die Mühe machen und Nvidia auf 11.0-Features runterstufen.

Was wo wie draufsteht oder wie es heißt, ist irrelevant. Relevant ist nur, wie es im Alltag dann tatsächlich aussieht bzw. performt.
Ach ja?

Hast recht, Pi=3 reicht ja auch völlig aus... Irgendein Staat wollte das ja auch mal einführen, weil es doch vollig irrelevant ist....

boxleitnerb
2013-11-01, 13:11:05
Ach ja?

Hast recht, Pi=3 reicht ja auch völlig aus... Irgendein Staat wollte das ja auch mal einführen, weil es doch vollig irrelevant ist....

Was soll die Polemik?
Wenn BF4 z.B. auf Nvidia-Karten alle Features nutzt, die auf AMD-Karten unter DX11.1 genutzt werden, gibt es kein Problem. Der heikle Punkt ist die Unsicherheit, das kann man nicht verleugnen. Aber genausowenig kann man sich stur auf die Standards festlegen und behaupten, es wird so und so. Es bleibt abzuwarten.

dildo4u
2013-11-01, 13:16:11
Wurde schon zu 4870 Zeiten erzählt wie wichtig 10.1 wird was draus geworden ist hat man gesehen.So lange NV noch so ein großen Marktanteil hat werden die NV DX11 Karten,der kleinste Nenner bleiben nach dem sich alles ausrichtet.MS hat doch sogar schon DX11.2 Features auf NV gezeigt.

http://youtu.be/EswYdzsHKMc

Skysnake
2013-11-01, 13:32:22
Was soll die Polemik?
Wenn BF4 z.B. auf Nvidia-Karten alle Features nutzt, die auf AMD-Karten unter DX11.1 genutzt werden, gibt es kein Problem. Der heikle Punkt ist die Unsicherheit, das kann man nicht verleugnen. Aber genausowenig kann man sich stur auf die Standards festlegen und behaupten, es wird so und so. Es bleibt abzuwarten.
1. ist das keine Polemik, sondern die reine Wahrheit
2. Spielt gar keine Rolle, ob man in irgendwelchen Games - warum jetzt eigentlich BF4 so rauskehren? - über die einzelne Abfrage sich alles holen kann oder nicht? Schau mal ein Stückchen weit über deinen Tellerrand hinaus, und begreife mal bitte den Wert, den Standards haben! Wenn du den mit Füßen trittst, dann ok. Dann brauchst du dich aber nicht wundern, wenn du für die Weltanschauung gewaltigen Gegenwind bekommst. Das mit dem Handrücken hinwegwischen von Standards ist ein GEWALTIGES! Problem in der gesamten Industrie/Wirtschaft. Sorry, aber da platzt mir einfach der Kragen.... Weiste was für nen elendiger Scheisdreck es ist, weil sich eh schon nicht konsequent an Standards gehalten wird? Und das sind meist wirklich nur irgendwelche Kleinigkeiten bzw sogar Lücken in den Specks. Da jetzt auch noch öffentlich zu verteidigen, das man auf Specks scheisen kann kann ich überhaupt nicht akzeptieren.

Sorry, aber das ist einfach nur im hier und jetzt für sich selbst gedacht und keinen Millimeter weiter.

Wurde schon zu 4870 Zeiten erzählt wie wichtig 10.1 wird was draus geworden ist hat man gesehen.So lange NV noch so ein großen Marktanteil hat werden die NV DX11 Karten,der kleinste Nenner bleiben nach dem sich alles ausrichtet.MS hat doch sogar schon DX11.2 Features auf NV gezeigt.

http://youtu.be/EswYdzsHKMc
Es ist VÖLLIG! irrelevant, ob es je wichtig wurde oder nicht. Was stört es euch, wenn es eh nicht wichtig war, ob jetzt etwas nicht unterstützt wird oder nicht?

Und bzgl dem Video. nVidia unterstützt auch wieder nur Teile von DX11.2. Damit hat die GPU kein DX11.2. Das ist einfach in den Specs so festgelegt. Was Sie unterstützt sind einige Features vom DX11.2 Featurelvl. Das ist ja auch voll auf ok, wobei da auch ein paar stärkere Einschränkungen da sind als bei AMD, und wenn ich mich richtig erinnere, sind die Einschränkungen auch größer als DX11.2 eigentlich vorsieht, das müsste man aber nochmal nachschauen, erinnere mich da nur noch dunkel an was.

Aber zurück zum Thema.
@all, die meinen, nVidia würde DX11.1/DX11.2 unterstützen.
Wenn ihr es ernst meint, gebt eine eidesstattliche Versicherung ab, für jedwede eventuellen Schäden einzustehen, die durch ein nicht zutreffen entstehen.

Entweder ihr habt die Eier dazu in der Hose, dann könnt ihr von mir aus gern weiterhin so einen Unsinn verbreiten, oder ihr habt die Eier nicht, und dann lasst es bitte sein, solche Storys zu erzählen!...

boxleitnerb
2013-11-01, 13:35:09
1. ist das keine Polemik, sondern die reine Wahrheit
2. Spielt gar keine Rolle, ob man in irgendwelchen Games - warum jetzt eigentlich BF4 so rauskehren? - über die einzelne Abfrage sich alles holen kann oder nicht? Schau mal ein Stückchen weit über deinen Tellerrand hinaus, und begreife mal bitte den Wert, den Standards haben! Wenn du den mit Füßen trittst, dann ok. Dann brauchst du dich aber nicht wundern, wenn du für die Weltanschauung gewaltigen Gegenwind bekommst. Das mit dem Handrücken hinwegwischen von Standards ist ein GEWALTIGES! Problem in der gesamten Industrie/Wirtschaft. Sorry, aber da platzt mir einfach der Kragen.... Weiste was für nen elendiger Scheisdreck es ist, weil sich eh schon nicht konsequent an Standards gehalten wird? Und das sind meist wirklich nur irgendwelche Kleinigkeiten bzw sogar Lücken in den Specks. Da jetzt auch noch öffentlich zu verteidigen, das man auf Specks scheisen kann kann ich überhaupt nicht akzeptieren.

Sorry, aber das ist einfach nur im hier und jetzt für sich selbst gedacht und keinen Millimeter weiter.

Ausgequengelt? Deine Meinung zu Standards kennen wir zur Genüge. Außerdem habe ich überhaupt keine Bewertung in diesem Fall vorgenommen, sondern nur gesagt, dass - falls es keinen Unterschied gäbe zwischen AMD und NV trotz DX11.1 - es für den Kunden letztendlich egal wäre.

Und warum BF4? Weil das nunmal das voraussichtlich erste DX11+ Spiel wird, ganz einfach.

Ailuros
2013-11-01, 13:36:17
Schneller als ein voller GK110 kann ein GM104 in 28nm ja nicht werden. :(

Na erzaehl mal was 20SoC so supertolles liefert im Vergleich zu 28HPM :rolleyes:

fondness
2013-11-01, 13:37:54
Die Frage bleibt letztendlich, ob die Features in Spielen dann unterstützt werden (per Extension z.B.) oder ob sich die Entwickler nicht die Mühe machen und Nvidia auf 11.0-Features runterstufen.

Was wo wie draufsteht oder wie es heißt, ist irrelevant. Relevant ist nur, wie es im Alltag dann tatsächlich aussieht bzw. performt.

Spätestens wenn Maxwell verkauft wird (und das ist wohl nicht mehr so lange hin), hat auch NV kein Interesse mehr daran in Kepler extra Ressourcen zu stecken. Und dann werden die Karten als da eingestuft was sie auch sind, nämlich DX11.0-Karten.

boxleitnerb
2013-11-01, 13:44:11
Spätestens wenn Maxwell verkauft wird (und das ist wohl nicht mehr so lange hin), hat auch NV kein Interesse mehr daran in Kepler extra Ressourcen zu stecken. Und dann werden die Karten als da eingestuft was sie auch sind, nämlich DX11.0-Karten.

Es ging um die Entwickler, nicht um Nvidia. Wenn du natürlich meinst, dass Nvidia jeden Entwickler einzeln bezahlen muss, damit der die Extrawurst macht, dann schon. Es ist halt die Frage, wie aufwändig diese Sonderbehandlung ist.

aufkrawall
2013-11-01, 13:57:37
Was soll die Polemik?
Wenn BF4 z.B. auf Nvidia-Karten alle Features nutzt, die auf AMD-Karten unter DX11.1 genutzt werden, gibt es kein Problem. Der heikle Punkt ist die Unsicherheit, das kann man nicht verleugnen. Aber genausowenig kann man sich stur auf die Standards festlegen und behaupten, es wird so und so. Es bleibt abzuwarten.
So ist es.
Bis man mit NV wirklich mal benachteiligt ist, sollten einige schön den Ball flachhalten.
Werden sie natürlich nicht tun, es trollt sich doch so schön, und Standards geben offenbar nen guten Fetisch ab.

Ailuros
2013-11-01, 13:57:49
Spätestens wenn Maxwell verkauft wird (und das ist wohl nicht mehr so lange hin), hat auch NV kein Interesse mehr daran in Kepler extra Ressourcen zu stecken. Und dann werden die Karten als da eingestuft was sie auch sind, nämlich DX11.0-Karten.

Die Resourcen in Logan/Tegra5 sind weder nur heisse Luft noch umsonst.

StefanV
2013-11-01, 14:04:13
NV unterstützt also nicht D3D11_1
Richtig, sie unterstützen D3D11.1 nicht...

aber alle für Spiele relevanten Features davon. Auf ein Feature muss nur anderweitig zugegriffen werden.
...was nichts an dem Fakt ändert, dass nV D3D11.1 nicht unterstützt...

Also was soll der scheiß hier irgendeinen schwachsinn von wegen unterstützt irgendwie doch D3D11.1 zu sabbeln?!

Skysnake
2013-11-01, 14:18:16
Ausgequengelt? Deine Meinung zu Standards kennen wir zur Genüge. Außerdem habe ich überhaupt keine Bewertung in diesem Fall vorgenommen, sondern nur gesagt, dass - falls es keinen Unterschied gäbe zwischen AMD und NV trotz DX11.1 - es für den Kunden letztendlich egal wäre.

Du bezogst dich darauf, das es eben irrelevant sei, was drauf steht, und dem ist eben nicht so...

Wenn die Devs keinen Bock mehr auf Extrawürste haben, dann biste gekniffen.

Genauso, wenn du selbst was machen willst, und dir im Vertrauen darauf ne Karte holst, bzw halt für diese entwickelst, und es dann am Ende nicht funktioniert!

Hier geht es gar nicht um den konkreten Fall, sondenr um die Philosophie die hinter so einer Entscheidung/Beurteilung steckt, und die ist wie gesagt nur zu verurteilen. Das ist nämlich ein Schritt hin zu Anarchie.


Und warum BF4? Weil das nunmal das voraussichtlich erste DX11+ Spiel wird, ganz einfach.
Stark Trek online ist das erste. (http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support)

Mancko
2013-11-01, 14:23:02
Hier geht es gar nicht um den konkreten Fall, sondenr um die Philosophie die hinter so einer Entscheidung/Beurteilung steckt, und die ist wie gesagt nur zu verurteilen. Das ist nämlich ein Schritt hin zu Anarchie.


Stark Trek online ist das erste. (http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support)

Achwas. Es ist einfach so wie es immer war. Den Standard setzt der Marktführer und der ist im PC Bereich nun mal Nvidia Punkt! Solange das für NV Benutzer keine Nachteile hat ist doch alles in Butter. Bis sich das auswirkt haben die Meißten sowieso neue Karten.

boxleitnerb
2013-11-01, 14:26:11
Du bezogst dich darauf, das es eben irrelevant sei, was drauf steht, und dem ist eben nicht so...

Wenn die Devs keinen Bock mehr auf Extrawürste haben, dann biste gekniffen.

Genauso, wenn du selbst was machen willst, und dir im Vertrauen darauf ne Karte holst, bzw halt für diese entwickelst, und es dann am Ende nicht funktioniert!

Hier geht es gar nicht um den konkreten Fall, sondenr um die Philosophie die hinter so einer Entscheidung/Beurteilung steckt, und die ist wie gesagt nur zu verurteilen. Das ist nämlich ein Schritt hin zu Anarchie.

Stark Trek online ist das erste. (http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support)

Dann hast du nicht verstanden, worauf ich hinauswollte. Es ging mir um den Kunden, und wenn es für ihn eben keinen Unterschied gibt, gibt es keinen. Dass eine Unsicherheit da ist, hab ich selbst gesagt, da musst du mich nicht wiederholen.

Anarchie...ich glaub du solltest mal deine Wortwahl überdenken. Du regst dich viel zu sehr auf.

Skysnake
2013-11-01, 14:28:52
Nein, Standards werden verabschiedet und sind auf Papier gedruckt und für jeden verbindlich, weil eine Kommission darüber wacht. Ein Standard, der nicht überwacht wird, und an den man sich nicht hält ist einen Dreck wert, und ich hoffe das wir uns einig sind, das wir Standards im Bereich der APIs ganz ganz ganz ganz ganz dringend brauchen!

So Alleingänge wie AMD mit Mantle macht können wir wirklich nicht brauchen, und ich hoffe im Innersten, dass Sie damit vor die Wand rennen, sofern Sie nicht schleunigst anfangen, den anderen Marktteilnehmern die Hand im Bereich Mantle zu reichen, damit sich das als allgemeingültige Schnittstelle etablieren kann.

StefanV
2013-11-01, 14:31:35
Den Standard setzt der Marktführer und der ist im PC Bereich nun mal Nvidia Punkt!
Richtig und im Konsolenmarkt, der von den ISV als wichtiger eingeschätzt wird, ist AMD dominierend...

Von daher sollte man erwarten, dass der D3D11.0 Support so schnell wie möglich abgesägt wird...

Skysnake
2013-11-01, 14:32:47
Anarchie...ich glaub du solltest mal deine Wortwahl überdenken. Du regst dich viel zu sehr auf.
Hab einfach mal ein bischen selbst mit dem Mist, den nVidia und AMD teils in OpenGL verbrechen, weil Sie sich nicht 100% an den STandard halten zu tun.

Von anderen Bereichen mal GANZ zu schweigen. Das ist ne allen Ortens um sich greifende Krankheit in der IT-Branche. Vorne raus, ist alles super duper schnike, und wenn man wirklich mal damit bis in die Tiefen zu tun hat, dann kommen nach und nach die ganzen kleinen dreckigen Tricks und Geheimnisse ans Tageslicht, weil einem der Scheis anfängt um die Ohren zu fliegen, weils doch nicht immer genau so funktioniert wie es eigentlich sollte....

Da brauchts nicht auch noch rumgetrickse bei den Standards. Man sollte sich so weit nur irgend möglich auf die Sachen verlassen können. Getrickst wird nämlich schon so genug.... Da brauchts kein Fünkchen mehr... :down:

Iruwen
2013-11-01, 14:44:08
An welchen Standard hält sich NV denn bezüglich DX nicht? Sie erfüllen schlicht und ergreifend nicht alle Voraussetzungen für Feature Level 1_1+. Damit verstoßen sie aber gegen keinen Standard. Das würden sie tun, wenn sie etwas anders implementieren als es die Spezifikation vorschreibt.
Und wenn Microsoft diese Situation nicht hätte kommen sehen, warum gibt es dann DX Feature Checks? Hätte man genauso gut alles durch die Feature Level abdecken können. Wenn ein Entwickler ein Feature nutzen möchte, kann er damit prüfen ob er es nutzen kann. Die Funktion hat MS wohl nicht grundlos eingebaut. Das betrifft ja nicht nur NV, sondern jede GPU die Feature Level 1_1+ nicht erfüllt.

Richtig, sie unterstützen D3D11.1 nicht...

...was nichts an dem Fakt ändert, dass nV D3D11.1 nicht unterstützt...

Also was soll der scheiß hier irgendeinen schwachsinn von wegen unterstützt irgendwie doch D3D11.1 zu sabbeln?!

Sie unterstützen die meisten 11.1 Features, erfüllen aber das Feature Level nicht. Entgleiten dir gerade wieder die Gesichtszüge?

Ronny145
2013-11-01, 14:47:42
Spätestens wenn Maxwell verkauft wird (und das ist wohl nicht mehr so lange hin), hat auch NV kein Interesse mehr daran in Kepler extra Ressourcen zu stecken. Und dann werden die Karten als da eingestuft was sie auch sind, nämlich DX11.0-Karten.


Nvidia braucht keine weiteren Ressourcen reinstecken, weil sie bis auf ein Feature alle game relevanten DX11.1 Sachen unterstützen, da sie eh schon unter dx11 optional waren und erst ab dx11.1 verpflichtend sind. In BF4 haben wir so ein aktuelles Beispiel. Wenn jemand sagt sie unterstützen D3D11.1 nicht ist das nur die halbe Warhheit. 90% der Feature Level 11_1 Features sind unter Feature Level 11_0 bereits vorhanden. Darüber hinaus gibt es weitere optionale DX11 Features, die AMD nicht unterstützt und leider nicht verpflichtend sind unter dx11.1. Driver Command Lists werden von AMD nicht unterstützt im Gegensatz zu Nvidia.

AffenJack
2013-11-01, 14:54:50
Die ganze Diskussion hier ist doch sowieso müßig, statt Nv gibts wen ganz anderen der DX11.1/2 getötet hat und das ist MS. Selbst wenn Nv DX11.2 unterstützt, wird kaum ein Entwickler dafür extra Ressourcen hergeben, solange Win 7 das dominierende Betriebssystem ist und das wird noch lange so bleiben.

Aber es wäre auch schön, wenn mal aufgehört wird den Thread wieder mit unsinnigen Diskussionen zu schrotten.

fondness
2013-11-01, 14:55:09
Nvidia braucht keine weiteren Ressourcen reinstecken, weil sie bis auf ein Feature alle game relevanten DX11.1 Sachen unterstützen, da sie eh schon unter dx11 optional waren und erst ab dx11.1 verpflichtend sind.

Weil du das sagst ist nur ein Feature in DX11.1 "game relevant" interessant. :rolleyes:
UAVs in non-pixel-shader stages ist so ziemlich das bedeutendste DX11.1-feature überhaupt, und das unterstützt NV nicht. Dazu gab es auch bereits Äußerungen hier im Forum.
Im übrigen geht es gar nicht darum das sie manches über DX11.0 optional unterstützen, die Frage ist wie viele Entwickler eine entsprechende Überprüfung überhaupt durchführen werden. Man muss so schon auf genug APIs Rücksicht nehmen am PC, da noch extra für Kepler etwas zu machen wird manche wohl wenig Freude bereiten. Selbst Intel unterstützt mittlerweile schließlich DX11.1.


90% der Feature Level 11_1 Features sind unter Feature Level 11_0 bereits vorhanden.

Das ist schlicht falsch, es ist ca. die Hälfte.


Darüber hinaus gibt es weitere optionale DX11 Features, die AMD nicht unterstützt und leider nicht verpflichtend sind unter dx11.1. Driver Command Lists werden von AMD nicht unterstützt im Gegensatz zu Nvidia.

Genial, ein Software-Feature.

Godmode
2013-11-01, 14:56:28
Dick, auf diese Karte haben wohl viele gewartet: Vollausbau und schneller Speicher – aber nur 3 GiB. :freak: Mit 2.880 ALUs @ 928 MHz pumpt die GTX 780 Ti ~5,35 TFLOPS, eine Titan mit 2.688 ALUs @ 876 MHz noch ~4,7 TFLOPs; die GTX 780 mit 2.304 ALUs @ 902 MHz nur ~4,16 TFLOPs.

Die GTX 780 Ti braucht rechnerisch nur 722 MHz, um mit der GTX 780 gleichzuziehen und 818 MHz für eine Titan. Da letztere aber 1-3 Prozent durch ihren Speicher-Overhead zurückliegt, werden wohl 800 MHz reichen (eine GTX 780 braucht dafür 1.006 MHz).

MfG,
Raff

Nene, die betreiben wir schön mit 1,25 GHz was dann wahnwitzigen 7,2 TFLOPS entspricht. Das Ding heizt sicher gut, aber wayne. ;D

Ronny145
2013-11-01, 15:23:08
Weil du das sagst ist nur ein Feature in DX11.1 "game relevant" interessant. :rolleyes:


Außer Polemik kommt von dir nicht viel. Dass nur ein relevantes game Feature darunter fällt, hat sich nach den vielen Diskussionen im Vorfeld rausgestellt und Nvidia bestätigt es. Wenn du es anders siehst, warte ich auf deine Begründung.


UAVs in non-pixel-shader stages ist so ziemlich das bedeutendste DX11.1-feature überhaupt, und das unterstützt NV nicht.

Kannst du es näher ausführen? Was für tolle Sachen kann ein Dev damit machen und welche Spiele sind damit geplant?


Im übrigen geht es gar nicht darum das sie manches über DX11.0 optional unterstützen, die Frage ist wie viele Entwickler eine entsprechende Überprüfung überhaupt durchführen werden.


Von was für einer Überprüfung ist ständig die Rede? Solange das Spiel keine Erzwingung auf Feature Level 11_1 einbaut, sehe ich kein Problem. Das wird und wurde in vielen heutigen DX11 Spielen nicht anders gehandhabt. Solange es keine Feature Level 11 braucht oder der Dev keine Feature Level 11 Mindestabfrage einbaut, kann die dx10 oder 10.1 Karte das DX11 Spiel problemlos ausführen.



Das ist schlicht falsch, es ist ca. die Hälfte.

Quelle?



Genial, ein Software-Feature.


Ob das nicht unterstützte Feature Software oder Hardware abhängig ist spielt für den gamer letztendlich keine Rolle.

LSSJBroly
2013-11-01, 16:02:33
Nene, die betreiben wir schön mit 1,25 GHz was dann wahnwitzigen 7,2 TFLOPS entspricht. Das Ding heizt sicher gut, aber wayne. ;D

scheint sogar machbar zu sein :freak:
http://videocardz.com/47522/nvidia-geforce-gtx-780-ti-great-overclocking-potential

Und anscheinend mit dem referenzkühler :D

Iruwen
2013-11-01, 16:08:31
Warum auch nicht, PCGH hat Titan ja auch auf 1,25GHz geprügelt. Aber die 290X kann man auch übertakten. Entweder Stock vs Stock oder OC vs OC.

dildo4u
2013-11-01, 16:09:05
Leise war wohl wieder ne Vorgabe massig OC Spielraum.

Schaffe89
2013-11-01, 16:16:03
Außer Polemik kommt von dir nicht viel. Dass nur ein relevantes game Feature darunter fällt, hat sich nach den vielen Diskussionen im Vorfeld rausgestellt und Nvidia bestätigt es. Wenn du es anders siehst, warte ich auf deine Begründung.

Wow und wenn Nvidia Directx11.1 hätte, würde es heißen AMD ist veraltet usw.. usw.., mache sind wirklich durchschaubar wenn es darum geht seinen Lieblingshersteller zu pushen, das trifft genauso auf fondness zu.

TheCounter
2013-11-01, 16:16:43
12GB VRam? :ulol:

Die Karte kostet dann wohl auch 1000EUR

Godmode
2013-11-01, 16:53:42
scheint sogar machbar zu sein :freak:
http://videocardz.com/47522/nvidia-geforce-gtx-780-ti-great-overclocking-potential

Und anscheinend mit dem referenzkühler :D

Nicht schlecht! Schade dass sie uns nicht schon im Frühjahr dieses Tier zu kaufen gegeben haben.

@OT: Diese DX11 Diskussion muss echt nicht sein, das hatten wir doch schon 10 mal in anderen Threads. Vielleicht kann da ein Mod mal durchwischen, echt elendig Seitenlang diesen Schrott lesen zu müssen.

Raff
2013-11-01, 17:00:48
Warum auch nicht, PCGH hat Titan ja auch auf 1,25GHz geprügelt. Aber die 290X kann man auch übertakten. Entweder Stock vs Stock oder OC vs OC.

Die Titan bei PCGH lief aber mit einem svl7-Mod-BIOS. Ohne ein solches sind 1,2 bis 1,25 GHz völlig unmöglich. Ich glaube nicht, dass Nvidia bei der GTX 780 Ti die enge Powerfessel gelockert hat. Und Videocardz schreibt, dass auf dem Shot 1.851 MHz (3.702) stehen. Das ist ja enorm viel bei einem Standard von 1.750 (3.500) wegen 7 Gbps ... ;)

MfG,
Raff

Scorpius
2013-11-01, 17:02:30
Wow und wenn Nvidia Directx11.1 hätte, würde es heißen AMD ist veraltet usw.. usw.., mache sind wirklich durchschaubar wenn es darum geht seinen Lieblingshersteller zu pushen, das trifft genauso auf fondness zu.
Da schenken sich beide Lager nicht viel.
Aber ich denke es ist müßig sich über sowas soviel Gedanken zu machen, dass man sich die Köpfe einschlagen muss. War damals mit 10.0 (Nvidia) vs 10.1 (AMD) genauso unnötig. Klar die Ausgangslage ist nun ein bisschen anders weil 11.2 von den Konsolen gepuscht werden wird. Ich mag mich vielleicht irren, aber ich denke eher, dass es eine Weile brauchen wird bis die Features so exzessiv genutzt werden, dass man einen übermäßigen Performance oder Grafikeinbruch hat, geschweige denn eine unabdingbare Vorraussetzung für den Spielstart werden. Und ein großer Teil hängt ja sowieso noch eine Weile auf Windows 7. D.h. bis das Otto-Normal-Zocker merkt oder was vermisst ist wahrscheinlich eh Maxwell draussen.

Godmode
2013-11-01, 17:03:48
Die Titan bei PCGH lief aber mit einem svl7-Mod-BIOS. Ohne ein solches sind 1,2 bis 1,25 GHz völlig unmöglich. Ich glaube nicht, dass Nvidia bei der GTX 780 Ti die enge Powerfessel gelockert hat. Und Videocardz schreibt, dass auf dem Shot 1.851 MHz (3.702) stehen. Das ist ja enorm viel bei einem Standard von 1.750 (3.500) wegen 7 Gbps ... ;)

MfG,
Raff

Ein alternatives BIOS wird es für die 780 Ti sicherlich auch bald geben, da sehe ich also kein Problem. Wenn sie wirklich die Spannungsversorgung verbessern, dann spricht nichts dagegen, dass man ordentlich Takt und Volt anlegt.

horn 12
2013-11-01, 18:06:25
Wie man schön sehen kann hat NV alles wieder optimal vorbereitet und zudem 3GB / 6GB und gar 12GB Modelle parat, am Start um den Kunden möglich hoch abzocken zu können.
GTX 780 ist somit wie HD7950 / 7970 ein Abverkauf.

dildo4u
2013-11-01, 18:11:21
Wie man schön sehen kann hat NV alles wieder optimal vorbereitet und zudem 3GB / 6GB und gar 12GB Modelle parat, am Start um den Kunden möglich hoch abzocken zu können.

Was ein Unsinn wenn sie Abzocken würden gäbe es weniger z.b nur 6 und 12GB nich mehr Optionen.

boxleitnerb
2013-11-01, 18:16:50
Es geht das Gerücht um, dass die 780 Ti noch A1-Stepping hat. Mutet merkwürdig an, weil ich jetzt eigentlich gedacht hätte, die 12 GB-Versionen sind einfach umgelabelte K6000/K40 - die aber GK180 sind. Dem entgegen steht ja die Aussage mit der gepimpten Stromversorgung...naja bald wissen wir es, die deutschen Tester sollen schon Karten haben seit mindestens gestern.

Edit:
Scheint noch eine Black Edition mit 1000 MHz Basistakt, 6/12 GB und unbegrenzter TDP zu kommen. Also praktisch eine K-Edition wie bei Intel :D
Ne im Ernst, das ist Abzocke, die Karte wird sicher wieder bei $999 liegen. Den Sinn kapiere ich auch nicht so ganz, weil man die normale 780 Ti ja angeblich gut übertakten kann. Ich könnte mir evtl. vorstellen, dass man hier wieder die 6 GB-Modelle für die Custom-Varianten verbietet, um diese teure Black Edition absetzen zu konnen. Weil sonst kauft die doch keiner, wenn man dasselbe mit Mod-Bios bzw. Custom-Modell billiger haben kann.

http://videocardz.com/47530/nvidia-geforce-gtx-780-ti-also-special-edition

Ailuros
2013-11-01, 18:56:59
GK180 ist doch lediglich auf einem marketing slide fuer Tesla K40 erschienen oder? Es wuerde mich nicht ueberraschen wenn der angebliche "GK180" nichts anderes als ein metal spin vom originalen GK110 ist und da passt eben GK110-B1 weniger in eine kunterbunte Marketing-Tuete.

Sonst LOL zur 780Ti Wucher-Edition :D nun ja irgendwie muss NV ihre Tegra Ausgaben auch decken koennen.

boxleitnerb
2013-11-01, 18:59:49
Den $999 Preispunkt will man wohl nicht so schnell aufgeben.

Godmode
2013-11-01, 19:03:12
Den $999 Preispunkt will man wohl nicht so schnell aufgeben.

Was habt ihr den, da kann man doch gleich zur 4-er Familienpackung greifen. ;D

Ailuros
2013-11-01, 19:05:05
Den $999 Preispunkt will man wohl nicht so schnell aufgeben.

Bekommt man wenigstens auch ein Shield dafuer zugesteckt als symbolische Geste? Waere nett mit einer Karte an der Seite: "Dank Dir dass Du mich finanziert hast." :freak:

Was habt ihr den, da kann man doch gleich zur 4-er Familienpackung greifen. ;D

Bei Dir ist es schon kein Scherz mehr; ich weiss nur nicht was Du mit 4 Shields anstellen wuerdest....

boxleitnerb
2013-11-01, 19:06:48
Bekommt man wenigstens auch ein Shield dafuer zugesteckt als symbolische Geste? Waere nett mit einer Karte an der Seite: "Dank Dir dass Du mich finanziert hast." :freak:


Du kriegst wahrscheinlich wieder $100 Rabatt drauf und die drei Games. Aber hey...der Kühler ist schwarz, schwarz! Nicht so popeliges Silber :tongue:
Ne im Ernst: Der Karte hätte dann ein Custom-Kühler oder gar Wakü gut zu Gesicht gestanden. Bei ernsthaften OC-Versuchen ist das eh Pflicht.

Loeschzwerg
2013-11-01, 19:13:44
Die 12GB Version sicher 999 USD, bei der 6GB 799?

boxleitnerb
2013-11-01, 19:20:02
12 GB ist doch totaler Unsinn. Das wird wohl nur benutzt, um die Karte möglichst teuer zu machen. Wieviel kosten 6 GB GDDR5@7 Gbps im Einkauf?

fondness
2013-11-01, 19:26:03
Mit Sicherheit deutlich weniger als NV dafür Aufpreis verlangen wird. Aber wenigstens fährt man den Chip mal voll aus. Wenn man allerdings tatsächlich wieder $999 bezahlen muss um mehr als 3Gb VRAM zu bekommen wäre das schon etwas enttäuschend. Eine Karte die so viel eine eine 780Ti kostet sollte auch genug VRAM haben.

Godmode
2013-11-01, 20:14:06
Bekommt man wenigstens auch ein Shield dafuer zugesteckt als symbolische Geste? Waere nett mit einer Karte an der Seite: "Dank Dir dass Du mich finanziert hast." :freak:



Bei Dir ist es schon kein Scherz mehr; ich weiss nur nicht was Du mit 4 Shields anstellen wuerdest....

Ne diesmal war es wirklich nur ein Scherz. Ich weiß nicht wann ich den PC das letzte mal an hatte, nur dass es mehr als 1 Monat ist.

Hugo78
2013-11-01, 21:18:54
Wenn die "780Ti 1000", aka "Atlas", aka "Black Ed." mit 6GB wieder im Einsteiger-Quadro-Revier wildern darf (volles DP), wird sie ganz sicher 1000€ kosten und die 12Gb dann 1500€.

Für Einzelplatz-Workstations ist die 12GB Version dann doch immernoch ein Schnäppchen oder?

Skysnake
2013-11-01, 22:00:25
An welchen Standard hält sich NV denn bezüglich DX nicht? Sie erfüllen schlicht und ergreifend nicht alle Voraussetzungen für Feature Level 1_1+. Damit verstoßen sie aber gegen keinen Standard. Das würden sie tun, wenn sie etwas anders implementieren als es die Spezifikation vorschreibt.

Absolut richtig, und das sollten die Leute auch ENDLICH mal begreifen. Mir gehts ja nur darum, das man son Blödsinn nicht dastehen lassen kann, sonst glaubt das am Ende sogar noch wirklich jemand...

Die Leute müssen einfach endlich mal begreifen, das es Standards gibt, das etwas gutes ist, und man entwerder diese zu 100%! einhält, und man dann eben den STandard unterstützt, oder eben nicht, und dann ist es SCHEIS egal, wie wichtig oder unwichtig etwas ist. Dies sollte sich hier nämlich niemand anmaßen beurteilen zu wollen. Standards sind wie ne Schwangerschaft. Eine binäre Entscheidung. Ja oder Nein, oder nichts dazwischen.


Und wenn Microsoft diese Situation nicht hätte kommen sehen, warum gibt es dann DX Feature Checks? Hätte man genauso gut alles durch die Feature Level abdecken können.

Nein hätte man nicht, da ja die Sachen die nVidia unterstützt alle als optionale Features unter DX11.0 hat. Damit MUSST du auch ne Abfrage drin haben!

Wenn ein Entwickler ein Feature nutzen möchte, kann er damit prüfen ob er es nutzen kann. Die Funktion hat MS wohl nicht grundlos eingebaut. Das betrifft ja nicht nur NV, sondern jede GPU die Feature Level 1_1+ nicht erfüllt.

Ja, und JEDER Entwickler schreit da JUCHHE! Endlich wieder zusätzliche Arbeit, weil die Hardwarehersteller es mal wieder nicht gebacken bekommen sich mit MS vernünftig an einen Tisch zu setzen, und solche Situationen erst gar nicht entstehen zu lassen....

Das ist ja durchaus das Problem, warum sich die SAchen nicht durchsetzen. Die Entwickler haben meist was besseres zu tun als für alles mögliche Sonderlösungen zu implementieren. Du musst ja auch immer im Auge behalten, das alles richtig funktioniert.... Denn wenns nicht geht, bist DU als Entwickler der Depp der Nation... Ganz großes Kino sag ich dir....

Nvidia braucht keine weiteren Ressourcen reinstecken, weil sie bis auf ein Feature alle game relevanten DX11.1 Sachen unterstützen, da sie eh schon unter dx11 optional waren und erst ab dx11.1 verpflichtend sind. In BF4 haben wir so ein aktuelles Beispiel. Wenn jemand sagt sie unterstützen D3D11.1 nicht ist das nur die halbe Warhheit. 90% der Feature Level 11_1 Features sind unter Feature Level 11_0 bereits vorhanden. Darüber hinaus gibt es weitere optionale DX11 Features, die AMD nicht unterstützt und leider nicht verpflichtend sind unter dx11.1. Driver Command Lists werden von AMD nicht unterstützt im Gegensatz zu Nvidia.
Ach Ronny145, warum kommste wieder mit diesem Scheis daher? Coda hatte sich doch dazu schon vor Ewigkeiten ausführlich geäußert, oder bist du jetzt kompetenter als Coda?

Und auch für DICH nochmals extra. Entweder man unterstützt einen STandard zu 100%, oder man kann sich das im Großen und Ganzen eigentlich komplett in den Arsch schieben.

Außer Polemik kommt von dir nicht viel. Dass nur ein relevantes game Feature darunter fällt, hat sich nach den vielen Diskussionen im Vorfeld rausgestellt und Nvidia bestätigt es. Wenn du es anders siehst, warte ich auf deine Begründung.

Nein, nur nVidia erzählt das. Was soll man auch anderes erwarten??? Wie leichtgläubig muss man bitte sein, ernsthaft zu erwarten, das nVidia schon sagen würde, wenn was relevantes fehlen würde :facepalm:

Wie gesagt, Coda hat sich dazu direkt am Anfang geäußert, und der wirds wohl besser wissen als du...


Kannst du es näher ausführen? Was für tolle Sachen kann ein Dev damit machen und welche Spiele sind damit geplant?

Frag die Devs, die werden sich aber oft gar keine Gedanken drüber gemacht haben, weils eben nicht überall unterstützt wird, und damit Zeitverschwendung wäre...

Wobei "dank" den Konsolen haben sie sich vielleicht doch Gedanken darüber gemacht.


Von was für einer Überprüfung ist ständig die Rede? Solange das Spiel keine Erzwingung auf Feature Level 11_1 einbaut, sehe ich kein Problem. Das wird und wurde in vielen heutigen DX11 Spielen nicht anders gehandhabt. Solange es keine Feature Level 11 braucht oder der Dev keine Feature Level 11 Mindestabfrage einbaut, kann die dx10 oder 10.1 Karte das DX11 Spiel problemlos ausführen.

Äh ja, und im Zweifel schmierts halt einfach ab ;D


Ob das nicht unterstützte Feature Software oder Hardware abhängig ist spielt für den gamer letztendlich keine Rolle.
Softwarelösungen sind oft schnarch LAAAAAAANNNNNNGGGGGSSSSSAAAAAMMMM.... im Vergleich zu Hardwareimplementierungen.

Dir bringt die reine Unterstützung über Software rein gar nichts, wenn die Implementierung einfach schnarch langsam ist. Du kannst es dann praktisch halt nicht nutzen.




@OT: Diese DX11 Diskussion muss echt nicht sein, das hatten wir doch schon 10 mal in anderen Threads. Vielleicht kann da ein Mod mal durchwischen, echt elendig Seitenlang diesen Schrott lesen zu müssen.
Verklicker das bitte den Leuten, die immer noch nicht verstanden habe, wie Standards funktionieren...

12 GB ist doch totaler Unsinn. Das wird wohl nur benutzt, um die Karte möglichst teuer zu machen. Wieviel kosten 6 GB GDDR5@7 Gbps im Einkauf?
Weniger als 100€/$.

Ich würde mal so was im Bereich 50$ tippen, eher aber weniger. Genau kann man das aber nur schwer sagen. Speicher ist bzgl Einkaufspreisen etwas.. ähm ja.

Ich hatte mal mit jemandem Kontakt, der an Speicherbausteinen und Flash interessiert war. Die "normalen" Einkaufpreise liegen öfters so hoch, das große Produzenten ihre fertigen! Produkte schon unter dem Einkaufspreis des Speichers verkaufen...

Wenn die "780Ti 1000", aka "Atlas", aka "Black Ed." mit 6GB wieder im Einsteiger-Quadro-Revier wildern darf (volles DP), wird sie ganz sicher 1000€ kosten und die 12Gb dann 1500€.

Da greifste aber lieber wirklich zur Quadro. Wenn wirds interessant als TESLA-Ersatz, aber auch da eben nur sehr eingeschränkt. ECC usw wird wieder fehlen.


Für Einzelplatz-Workstations ist die 12GB Version dann doch immernoch ein Schnäppchen oder?
Nein, weil dir wichtige Features wie Framelock und eben die unbeschränkten Treiber und meines Wissens nach auch einige Freiheiten bzgl Farbwerten also Bit-Umfang fehlen.

Quadros sind was total anderes als Teslas. Bei Quadros zahlste vor allem für den Softwaresupport. Schau dir mal so manchen alten Quadro-Test an. Da haben schon die Einsteiger-Quadros die High-End-GeForce versägt...

Der große RAM ist für manche zwar wirklich sehr geil, aber ohne den Treibersupport bringt er dir halt nichts.

Ronny145
2013-11-01, 22:19:14
Ach Ronny145, warum kommste wieder mit diesem Scheis daher? Coda hatte sich doch dazu schon vor Ewigkeiten ausführlich geäußert, oder bist du jetzt kompetenter als Coda?


Coda gibt sich gerne als Allwissender aus und fiel in der Vergangenheit oft genug auf die Fresse. Zuletzt mit seinen AF Behauptungen, als er mir frech Augenprobleme vorwarf. Jetzt ist er ganz kleinlaut. Also komm mir nicht mit Coda, entweder du bringst selber Argumente rein oder lässt es bleiben. Übrigens komm erstmal runter von deinem notorischen Hasstrip.


Und auch für DICH nochmals extra. Entweder man unterstützt einen STandard zu 100%, oder man kann sich das im Großen und Ganzen eigentlich komplett in den Arsch schieben.


Du schnallst es einfach nicht. Das hat mit man unterstützt einen Standard zu 100% nichts zu tun.



Nein, nur nVidia erzählt das. Was soll man auch anderes erwarten??? Wie leichtgläubig muss man bitte sein, ernsthaft zu erwarten, das nVidia schon sagen würde, wenn was relevantes fehlen würde :facepalm:


Das ist gelogen. In den Diskussionen ging es am Ende nur noch um UAV, alles andere ist entweder sowieso schon als Feature Level 11_0 abgedeckt oder haben keine gaming Relevanz. Wenn Du anderer Meinung bist oder glaubst es besser zu wissen als der Hersteller selber, zähle bitte die Dinge auf, die du davon ausschließen möchtest. Mit Quellenangabe zur besseren Nachvollziehbarkeit.



Dir bringt die reine Unterstützung über Software rein gar nichts, wenn die Implementierung einfach schnarch langsam ist. Du kannst es dann praktisch halt nicht nutzen.


Wende dich an Firaxis. Trotz Software Feature haben sie es implementiert, bestimmt nicht grundlos.


So in conclusion, the reason NVIDIA beats AMD in Civ V is that NVIDIA currently offers full support for multi-threaded rendering/deferred contexts/command lists, while AMD does not. Civ V uses massive amounts of objects and complex terrain, and because it's multi-threaded rendering capable the introduction of multi-threaded rendering support in NVIDIA's drivers means that NVIDIA's GPUs can now rip through the game.
http://forums.anandtech.com/showpost.php?p=31520674

Skysnake
2013-11-01, 22:33:22
OMG. Du siehst nVidia da wirklich als valide Quelle an.

Ok, dann bringts auch nichts mit dir zu diskutieren, denn von dir wird eh immer das Totaschlagargument: "Der Hersteller wird es besser wissen"

kommen. Sorry, aber da kann ich mit meiner Zeit was besseres anfangen.

-/\-CruNcher-/\-
2013-11-01, 22:36:52
Coda gibt sich gerne als Allwissender aus und fiel in der Vergangenheit oft genug auf die Fresse. Zuletzt mit seinen AF Behauptungen, als er mir frech Augenprobleme vorwarf. Jetzt ist er ganz kleinlaut. Also komm mir nicht mit Coda, entweder du bringst selber Argumente rein oder lässt es bleiben. Übrigens komm erstmal runter von deinem notorischen Hasstrip.




Du schnallst es einfach nicht. Das hat mit man unterstützt einen Standard zu 100% nichts zu tun.





Das ist gelogen. In den Diskussionen ging es am Ende nur noch um UAV, alles andere ist entweder sowieso schon als Feature Level 11_0 abgedeckt oder haben keine gaming Relevanz. Wenn Du anderer Meinung bist oder glaubst es besser zu wissen als der Hersteller selber, zähle bitte die Dinge auf, die du davon ausschließen möchtest. Mit Quellenangabe zur besseren Nachvollziehbarkeit.




Wende dich an Firaxis. Trotz Software Feature haben sie es implementiert, bestimmt nicht grundlos.


http://forums.anandtech.com/showpost.php?p=31520674


Es geht hier nicht um Gaming relevanz es geht darum das sie geflunkelt haben bei ihrem Hardware featureset und das ist nicht das erste mal und nicht der einzige berreich.
Und erst nachdem die sachen bekannt wurden tauchten plötzlich überall in den Marketing sachen diese nicht integrierten features auf (wir kennen ja das schöne sternchen mit dem kleingedruckten) aber erst nachdem das Publik wurde und jetzt erzähl mir nix von schlechter internen Kommunikation.
Sie Integrieren die Standards nicht immer 100% wenn sie keinen Wirtschaftlichen sinn für sich selbst darin sehen oder machen es use case abhängig ab und an sind sie auch der Meinung ihre Properitären sachen sind besser und man soll doch einen Dev einfliegen lassen der das mal erörtert.
Nur komunizieren sie das relativ spät für Otto normal und auch Devs haben manchmal probleme wenn plötzlich was nicht funktioniert kommts aber meistens so oder so raus, deswegen ist es relativ hirnverbrant was sie da machen.
AMD hat bis jetzt immer alle MS Standards voll eingehalten egal ob wichtig oder in deinen Augen nicht Gaming relevant.
Genauso wie viele noch glauben TXAA sei ein Kepler Hardware feature das ist BS und von anfang an nur Marketing gefassel, genauso wie sie damals das Thermal Diode auslesen zu einem Hardware feature nur für die neue GPU Generation erklärt haben das war genauso BS bis es durch einen Treiber trick rauskam das es auf den anderen GPUs genauso funktioniert.

Ronny145
2013-11-01, 22:37:04
OMG. Du siehst nVidia da wirklich als valide Quelle an.

Ok, dann bringts auch nichts mit dir zu diskutieren, denn von dir wird eh immer das Totaschlagargument: "Der Hersteller wird es besser wissen"

kommen. Sorry, aber da kann ich mit meiner Zeit was besseres anfangen.


Ich sehe es als weitere bestätigende Quelle an, die die vorangegangene Diskussion nur bestätigt. Und natürlich weiß Nvidia am besten, was sie unterstützen und was nicht. Nochmals, wenn du es anders siehst, zähle die Dinge mit Quellenangabe auf, die nicht darunter fallen. Welche gaming relevanten Sachen sind nur als Feature Level 11_1 vorhanden? Mit dem Finger auf andere zeigen kann jeder.


Es geht hier nicht um Gaming relevanz es geht darum das sie geflunkelt haben bei ihrem Hardware featureset und das ist nicht das erste mal und nicht der einzige berreich.


Es geht um die Wichtigkeit und Relevanz von DX11.1. Die wird zu hoch gekocht. Bestes Beispiel wie gesagt BF4. Was wurde von AMD Seite im Vorfeld mit DX11.1 argumentiert. Und was ist? Nvidia profitiert davon genauso.

Iruwen
2013-11-01, 23:23:33
Ja, und JEDER Entwickler schreit da JUCHHE! Endlich wieder zusätzliche Arbeit, weil die Hardwarehersteller es mal wieder nicht gebacken bekommen sich mit MS vernünftig an einen Tisch zu setzen, und solche Situationen erst gar nicht entstehen zu lassen....
Den Sinn optionaler Features innerhalb eines Levels hab ich ehrlich gesagt bisher auch nicht verstanden.

MrSchmelzer
2013-11-01, 23:29:16
@Skysnake:
Sag mal, merkst Du eigentlich nicht, wie einfach Du trollbar bist?
Hier brauch nur ein Captain Sheridan-Hilfsdarsteller argumentieren mit der
normativen Kraft des Faktischen, und Du keilst, beißt und rastest sofort aus. :rolleyes: :eek:
Warum eigentlich? Lass Dich doch nicht so einfach provozieren ;)
Ein erhebliches Maß an Gelassenheit würde dir wirklich besser zu Gesicht stehen...

Skysnake
2013-11-01, 23:55:55
Ja würde es. Da haste absolut Recht, da mich sowohl AMD als auch nVidia aber schon zich Stunden meines Lebens mit so nem Dreck gekostet haben, reagier ich das einfach allergisch.

Zudem glauben eben viele auch noch son Gefasel, und wenn sich das einmal festgesetzt hat, dann brauchts zich mal so viel Zeit, um das wieder aus den Köpfen der Leute raus zu bekommen.... Da direkt rein zu grätschen spart auf lange sicht einfach verdammt viel Arbeit und vor allem Nerven ;)

Den Sinn optionaler Features innerhalb eines Levels hab ich ehrlich gesagt bisher auch nicht verstanden.
Na, das ist an sich schon ok.

Man kann so Sachen ausprobieren, und halt Sachen rein bringen in die API, auf die man sich nicht verständigen konnte, oder halt nur einer anbietet. So weiß jeder was Sache ist und muss halt abwägen, ob er sich die Mühe macht oder nicht.

Man kann so im Prinzip auch austesten, ob Features angenommen werden, und man gibt der Konkurrenz auch die Chance ihr "Gesicht zu wahren".

Wenn Game QWERTZ 5% langsamer auf Hardware A ist als auf Hardware B, weil Sie das optionale Feature Y unterstützt, dann interessiert das unterm Strich keine Sau. Das fällt dann einfach unter den Tisch. Das gibt einem die Chance das dann bis zur nächsten Ref auch ein zu bauen und allgemeingültig zu machen.

Dafür müssen die Beteiligten aber halt miteinander reden, und mit offenen Karten spielen und es nicht nur darauf absehen, den anderen Möglichst ins Knie zu ficken wo immer es nur geht....:mad:

Und da nehm ich jetzt keinen aus. AMD ist da neuerdings auch auf nem ganz eigenen Trip und eifert nVidia auch hier nach... Da bekomm ich das große Kotzen, weil das am Ende nur schlecht für uns Kunden und die gesamte Branche ist.

-/\-CruNcher-/\-
2013-11-02, 00:09:42
Ja würde es. Da haste absolut Recht, da mich sowohl AMD als auch nVidia aber schon zich Stunden meines Lebens mit so nem Dreck gekostet haben, reagier ich das einfach allergisch.

Zudem glauben eben viele auch noch son Gefasel, und wenn sich das einmal festgesetzt hat, dann brauchts zich mal so viel Zeit, um das wieder aus den Köpfen der Leute raus zu bekommen.... Da direkt rein zu grätschen spart auf lange sicht einfach verdammt viel Arbeit und vor allem Nerven ;)


Na, das ist an sich schon ok.

Man kann so Sachen ausprobieren, und halt Sachen rein bringen in die API, auf die man sich nicht verständigen konnte, oder halt nur einer anbietet. So weiß jeder was Sache ist und muss halt abwägen, ob er sich die Mühe macht oder nicht.

Man kann so im Prinzip auch austesten, ob Features angenommen werden, und man gibt der Konkurrenz auch die Chance ihr "Gesicht zu wahren".

Wenn Game QWERTZ 5% langsamer auf Hardware A ist als auf Hardware B, weil Sie das optionale Feature Y unterstützt, dann interessiert das unterm Strich keine Sau. Das fällt dann einfach unter den Tisch. Das gibt einem die Chance das dann bis zur nächsten Ref auch ein zu bauen und allgemeingültig zu machen.

Dafür müssen die Beteiligten aber halt miteinander reden, und mit offenen Karten spielen und es nicht nur darauf absehen, den anderen Möglichst ins Knie zu ficken wo immer es nur geht....:mad:

Und da nehm ich jetzt keinen aus. AMD ist da neuerdings auch auf nem ganz eigenen Trip und eifert nVidia auch hier nach... Da bekomm ich das große Kotzen, weil das am Ende nur schlecht für uns Kunden und die gesamte Branche ist.

Das sollte nicht verwundern wenn man sieht welche Nvidia leute jetzt bei AMD rumschwiren ;)

Ronny145
2013-11-02, 00:20:04
Zudem glauben eben viele auch noch son Gefasel, und wenn sich das einmal festgesetzt hat, dann brauchts zich mal so viel Zeit, um das wieder aus den Köpfen der Leute raus zu bekommen


Das braucht es in der Tat. Durch die sich immer wiederholenden Halbwahrheiten von dir und anderen setzt sich in vielen Köpfen der Gedanke fest, dass Nvidia per se bei DX11.1 Features nicht mit von der Partie ist. Aktuelles Beispiel zuletzt: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9951802#post9951802

Und so haben viele gedacht. Warum der Gedanke nur der halben Warhheit entspricht, wurde zu Genüge erklärt. Das und nichts anderes muss aufgeklärt werden. Betrachte es etwas differenzierter, dein Schwarz-Weiß Gedanke ist fehl am Platz.

Skysnake
2013-11-02, 03:19:51
Meine Fresse, du raffst es wohl echt nicht.

Wenn hier jemand undifferenziert ist, dann du.

Also nochmals ganz langsam zum Mitschreiben:

nVidia nix DX11.1.
nVidia nur DX11.0+einige optionale Featres, welche großteils DX11.1 ausmachen, aber eben nicht DX11.1 komplett.

Dazu gibt es nicht mehr zu sagen, und daran gibt es vor allem nichts zu rütteln. Dem ist einfach so, und was anderes erzählt auch keiner, außer so komischen Leuten, die meinen nVidia würde DX11.1 sehr wohl supporten, bzw alles was davon halt "wichtig" sei....

Marty98
2013-11-02, 08:30:30
Gibt es ein einziges Spiel bei dem AMD mehr von DX 11.1 profitiert als NVidia?

StefanV
2013-11-02, 08:35:48
Was spielt das eine Rolle?!

Warum versucht ihr 'nV Gläubien' so krampfhaft den Zustand, dass nV gerad mal D3D11.0 unterstützt mit der Brechstange schön zu reden?! Warum könnt ihr in diesem Punkt nicht einfach die Klappe halten und es so hinnehmen, wie es ist?! Und nicht permanent versuchen, irgendwie das ganze anders darzustellen als es ist!

Wenn eine Anwendung D3D11.1 benutzen möchte, läuft das nicht auf nV Hardware, PUNKT.
So einfach ist das. WARUM wollt ihr diesen Fakt nicht anerkennen?!

Noch mal für euch, zum mitmeißeln:

Eine D3D11.1 Anwendung wird auf aktueller nV Hardware (Kepler und Fermi) N I C H T laufen!
Bzw wenn, dann nur mit D3D11.0

Ailuros
2013-11-02, 08:52:52
Wir sind nicht blind; der rote Riesenkrampf ist total ueberfluessig. Also bitte.

gnahr
2013-11-02, 09:05:52
eigentlich ist der krampf sogar falsch. da dx in sich abwärtskompatibel bleibt, ist nicht gesagt, dass das was drauf steht auch drinnen ist.
analogie zu 80plus specs für effizienz: nur weil jemand die latte über den testbereich nicht schafft, ist das keine aussage, dass das gerät ineffizienz sein muss.
so auch hier, man schafft nicht alles, korrekt. wenn man aber unbedingt auf was bestimmtes von den 5neuerungen in der ausstufung angewiesen ist lohnt sich die einzelabfrage, weil eben doch praktisch alle wichtigen features drinnen sind.
aber guckt man sich mal an, wer damit ein problem hat... naja.

boxleitnerb
2013-11-02, 09:28:23
Dass Nvidia DX11.1 nicht vollständig unterstützt, zweifelt doch keiner an. Das wird von Skysnake leider ignoriert. Der Punkt um den es geht ist doch viel eher der, ob das immer zwangsläufig einen Nachteil bedeuten wird. Und das ist nunmal unklar bislang. Ist doch eigentlich ganz simpel, oder?

Timbaloo
2013-11-02, 10:10:17
Ist doch eigentlich ganz simpel, oder?
Ich sitze hier ob der letzten Seiten auch etwas verwundert vor dem Schirm...

Raff
2013-11-02, 10:45:07
Einigen wir uns einfach darauf, dass Nvidia einen Nachteil hat. Wie gewichtig dieser für Spieler wird, zeigt sich erst im Laufe des Jahres 2014. Es ist wirklich schwierig einzuschätzen, denn wir haben eine gänzlich neue Situation hinsichtlich der Marktmacht: Niemals zuvor breitete sich AMD mit der "checklistenmäßig" fortschrittlichsten Architektur in ~3/4 aller High-End-Gaming-Systeme (Xbone, PS4, PC) aus, zuvor mischte Nvidia immer mit oder hatte beim Konsolenstart bereits einen Technolgiesprung nachgelegt. Jetzt bleibt Nvidia nur die Marktmacht am PC, wo die Firma nach wie vor ~2/3 inne hat. Aber davon ist längst nicht alles DX11 und wir reden hier nur von dedizierten Grafikkarten ...

Also ich sehe das locker. DX11.1 und 11.2 sind Minor Updates, keine Supersprünge. Viele Features kommen mobilem DX9-Gammel zu Gute, der an jeder Ecke bei Präzision und Renderauflösung tricksen muss, um auf einen grünen Zweig zu kommen. DX10.1 war meiner Meinung nach im Vergleich ein größerer Sprung, welcher zu Lebzeiten Radeon-GPUs nur selten Vorteile brachte – "posthum" waren die Auswirkungen größer, etwa als DX11-Fallback (siehe CODBLOPS2: kein MSAA bei 10.0, erst ab 10.1). Aber wie gesagt, mit den neuen Konsolen hat AMD die Marktmacht ...

Erinnert sich noch jemand an die Tessellationsdebatte Evergreen gegen Fermi? ;) Selbst heute, vier Jahre nach dem HD-5870-Release, hat sich der Kram nicht flächendeckend durchgesetzt. Die GTX 480 steht dennoch klar besser da als die HD 5870 – nicht wegen der Tessellaionsleistung, sondern weil sie 1,5 GiB trägt und im Gegensatz zur VLIW-Architektur noch etwas Treiberliebe erfährt.

Was lernen wir daraus? Wenig. :D Ich sehe das Fehlen von DX11+ bei Nvidia locker. Ein voller GK110 wird heftig austeilen und sich an die Spitze setzen, keine Frage. Und wenn sich die Gerüchte um das B1-Stepping bewahrheiten, dann wird sich das Teil auch noch bestens übertakten lassen. Niemand wird eine Grafikkarte mit 2.880 ALUs @ 1.200 MHz @ 4 Sone Lautheit ernsthaft ungeil finden, nur weil da DirectX 11.0 draufsteht. Oder doch?

MfG,
Raff

Ronny145
2013-11-02, 11:01:27
Wenn eine Anwendung D3D11.1 benutzen möchte, läuft das nicht auf nV Hardware, PUNKT.
So einfach ist das. WARUM wollt ihr diesen Fakt nicht anerkennen?!

Noch mal für euch, zum mitmeißeln:

Eine D3D11.1 Anwendung wird auf aktueller nV Hardware (Kepler und Fermi) N I C H T laufen!
Bzw wenn, dann nur mit D3D11.0



Das ist eine Lüge. Vom Wiederholen deiner Falschaussage wird es nicht richtiger. Entscheidend ist das Feature Level.

horn 12
2013-11-02, 11:05:43
Dies mit 1200 Mhz muss sich erst noch zeigen!
Auch wird die Standard Karte mehr Strom ziehen, schauen wie Ihr dies dann bewertet!
Der Unterschied R9 290X Custom : GTX 780 TI Custom wird recht ausgeglichen sein, mit KEINEM eindeutlichem Gewinner/ Verlierer :-)

Raff
2013-11-02, 11:09:27
Dies mit 1200 Mhz muss sich erst noch zeigen!
Auch wird die Standard Karte mehr Strom ziehen, schauen wie Ihr dies dann bewertet!
Der Unterschied R9 290X Custom : GTX 780 TI Custom wird recht ausgeglichen sein, mit KEINEM eindeutlichem Gewinner/ Verlierer :-)

Bei den Custom-Designs ist tatsächlich noch alles offen. Klar ist schon heute, dass die Referenzdarbietung bei Nvidia leiser ausfallen wird.

MfG,
Raff

Timbaloo
2013-11-02, 11:13:21
Und sollten die 15 SMX kommen, dann wird diese Karte sicher auch in Sachen Effizienz gewinnen.

Duplex
2013-11-02, 11:36:45
Selbst bei 1100MHz GPU & 2880 Shader wird die Karte effizienter als eine 290x.

290x, 438mm², mehr Interface, mehr Rops, mehr Takt und trotzdem nicht besser, liebe AMDler, diese DX11.2 Diskussion nervt langsam, Nvidia ist einfach besser als AMD.

StefanV
2013-11-02, 11:43:41
Nvidia ist einfach meilenweit besser als AMD.
Ja, nee, is klar, schau dir mal das an (http://www.hardocp.com/article/2013/11/01/amd_radeon_r9_290x_crossfire_video_card_review/10#.UnTWvtM8O8M), den Punkt mit dem 4k Display...

Sorry, aber 'sowieso ist eh besser :P' hilft echt niemandem...

Ich verstehe auch nicht, warum es so schwer ist, einzugestehen, dass momentan die AMD 290X die beste Karte am Markt ist...
Schreib das doch mal, tut sicher gut...

Woklbokl
2013-11-02, 11:46:03
Ja, nee, is klar, schau dir mal das an (http://www.hardocp.com/article/2013/11/01/amd_radeon_r9_290x_crossfire_video_card_review/10#.UnTWvtM8O8M), den Punkt mit dem 4k Display...

Sorry, aber 'sowieso ist eh besser :P' hilft echt niemandem...

Ich verstehe auch nicht, warum es so schwer ist, einzugestehen, dass momentan die AMD 290X die beste Karte am Markt ist...
Schreib das doch mal, tut sicher gut...

Weil sie pauschal nicht die beste Karte ist?
Die Ti wird ebenso wenig pauschal die beste Karte sein.

StefanV
2013-11-02, 11:51:54
Weil sie pauschal nicht die beste Karte ist?
In welchem Punkt, außer dem Kühler, ist die 290X denn nicht die beste Karte momentan??

maximus_hertus
2013-11-02, 11:58:25
In welchem Punkt, außer dem Kühler, ist die 290X denn nicht die beste Karte momentan??

physx, gsync, 3dvision, zu günstig (nvler wollen nv Preise zahlen :D)

Woklbokl
2013-11-02, 11:59:25
Ich kann nur für mich sprechen, da jeder andere Vorlieben und ein anderes Nutzungsverhalten hat.

Ich hab einen 1440p Monitor, mit einer AMD Karte ist da kein Downsampling möglich, mit Nvidia schon, sogar auf 5120x2880@60Hz.
Physx ist für mich ein optischer Mehrwert in Spielen die es unterstützen, klar sind das nicht viele, aber es gibt sie. Falls Mantle einen optischen Mehrwert mit sich bringt kommt halt eine AMD in den 2. Rechner, schließe AMD also nicht komplett aus.

Für Multi-Gpu Nutzer: Die Möglichkeit SLI-Bits im Inspector zu setzen, um die SLI Skalierung zu verbessern.
Ebenso Vsync Smooth AFR behavior, was den Inputlag deutlich reduzierst, sowas hast du bei AMD leider nicht.

Zu guter letzt noch die AA-Bits für DX-9 Games, auch wenn die kurz vorm Aussterben sind, nutze ich noch regelmäßig.

Zudem sind die 290x und die Titan pro Takt in 1440p praktisch gleich schnell, die Titan aber ein wenig effizienter, die höheren Auflösungen wo die AMD teilweise 20% schneller wird kann ich ohne Downsampling nicht nutzen.

boxleitnerb
2013-11-02, 12:02:20
PhysX, Downsampling, SGSSAA-Performance, AA/SLI-Bits, TXAA, G-Sync (noch theoretisch, da nicht kaufbar). Dafür hat sie DX11.2, Mantle und Truaudio. Es bleibt dem jeweiligen Geschmack überlassen, wie man die einzelnen Punkte gewichtet. Pauschal das Beste gibt es eigentlich nie, weil jeder andere Prioritäten hat.

Woklbokl
2013-11-02, 12:03:43
PhysX, Downsampling, SGSSAA-Performance, AA/SLI-Bits, TXAA, G-Sync (noch theoretisch, da nicht kaufbar). Dafür hat sie DX11.2, Mantle und Truaudio. Es bleibt dem jeweiligen Geschmack überlassen, wie man die einzelnen Punkte gewichtet. Pauschal das Beste gibt es eigentlich nie, weil jeder andere Prioritäten hat.

Stimmt, TXAA hab ich vergessen..in Verbindung mit Luma-Sharpen und oder Downsampling eine echte Offenbarung.

fondness
2013-11-02, 12:07:17
Stimmt, TXAA hab ich vergessen..in Verbindung mit Luma-Sharpen und oder Downsampling eine echte Offenbarung.

TXAA FXAA gibt es auch auf AMD mit RadeonPRO. Genauso wie SMAA im übrigen. Zusätzlich hat AMD noch MLAA.

Und wenn man die SGSSAA-Performance bei NV aufführt, dann sollte man mindestens auch die gute Performance der AMD bei hohen Auflösungen erwähnen.

boxleitnerb
2013-11-02, 12:07:21
Stimmt, TXAA hab ich vergessen..in Verbindung mit Luma-Sharpen und oder Downsampling eine echte Offenbarung.

Wobei das eher ein theoretischer Vorteil ist in der Kombi, die Performance dürfte grausam sein ;)

TXAA gibt es auch auf AMD mit RadeonPRO. Genauso wie SMAA im übrigen. Zusätzlich hat AMD noch MLAA.

Und wenn man die SGSSAA-Performance bei NV aufführt, dann sollte man mindestens auch die gute Performance der AMD bei hohen Auflösungen erwähnen.

TXAA auf AMD? Gibts dazu nen Link? SMAA gibts auf allen GPUs per Injector.
Bei hohen Auflösungen geben sich AMD und NV nicht wirklich was, siehe z.B. den Computerbase-Test mit 5760x1080.

horn 12
2013-11-02, 12:10:26
@Duplex

Dies sagt einer welcher eine R9 290X im Rechner hat, oder auch vielleicht nur aus Testzwecken. Dies kann ich nicht sagen.
Gut AMD war lange hinterher, und OHNE AMD hätte man auch JETZT noch die Titan und GTX 780-er Preise bis Maxwell!
Nur Konkurrenz belebt das Geschäft, sind wir doch froh KEIN MONOPOL zu haben!

Woklbokl
2013-11-02, 12:11:09
TXAA gibt es auch auf AMD mit RadeonPRO. Genauso wie SMAA im übrigen. Zusätzlich hat AMD noch MLAA.

Und wenn man die SGSSAA-Performance bei NV aufführt, dann sollte man mindestens auch die gute Performance der AMD bei hohen Auflösungen erwähnen.

TXAA mit Radeon Pro? Quelle?
SMAA funktioniert bei beiden Herstellern.
MLAA ist leider nur toll wenn sonst kein AA/Downsampling möglich is, TXAA ist meiner Meinung nach was Bildqualität angeht überlegen, aber das sieht vermutlich jeder anders.
Und was bringt mir die höhere Performance in höheren Auflösungen, wenn ich die Auflösungen nicht nutzen kann? SGSSAA dafür fast überall? (Vorsicht: das gilt nur für mein Nutzungsverhalten)

Ronny145
2013-11-02, 12:12:19
TXAA gibt es auch auf AMD mit RadeonPRO.


Wie kommst du denn darauf? Erstens muss TXAA ins Spiel integriert werden und zweitens ist es als Nvidia Entwicklung ein Nvidia exklusives Feature.

Woklbokl
2013-11-02, 12:14:27
Wobei das eher ein theoretischer Vorteil ist in der Kombi, die Performance dürfte grausam sein ;)

In Batman läufts recht gut mit 2x TXAA in 4K, aber halt nur mit 30Hz (Vsync 1/2) und am Gamepad, dafür muss man sich natürlich mit 30FPS zufrieden geben, sieht halt jeder anders.

fondness
2013-11-02, 12:24:48
Sorry mein Fehler, meinte FXAA.

V2.0
2013-11-02, 12:26:29
Unbedeutend weil der Performancevorteil von 8.1 + DX11.1/2 sich in BF4 ja auch bei den Geforces zeigt.

fondness
2013-11-02, 12:37:07
Damit dürfte die GTX780 Ghz Edition bestätigt sein
http://videocardz.com/47542/gigabyte-releases-geforce-gtx-780-ghz-edition-windforce-3x-cooler

derguru
2013-11-02, 12:42:54
unspektakulär,*schnarch* :O

wo ist die full?:biggrin:

dildo4u
2013-11-02, 12:59:25
Stärkere Stromversorgung bin gespannt wie hoch der TDP Regler geht.Vom Preis her ein R290X Gegner da muss die 780 gegen 290 im Programm bleiben.

Skysnake
2013-11-02, 13:21:31
Dass Nvidia DX11.1 nicht vollständig unterstützt, zweifelt doch keiner an. Das wird von Skysnake leider ignoriert. Der Punkt um den es geht ist doch viel eher der, ob das immer zwangsläufig einen Nachteil bedeuten wird. Und das ist nunmal unklar bislang. Ist doch eigentlich ganz simpel, oder?
Na da wird aber was ganz anderes suggeriert von Aufkrawall und Ronny145. Wenn man als unbedarfter ihre Posts liest, dann kommt das so rüber, als ob DX11.1 Spiele auch auf nVidia Karten laufen würden, als ob Sie DX11.1 hätten.

Dem ist aber eben nicht so. Der Developer muss extra Abfragen einbauen, statt einfach nur DX11.1 feature_lvl ab zu fragen. Wenn er die Sachen braucht, die nVidia nicht unterstützt, und daher eben auch kein DX11.1 hat, ist man halt gekniffen. Genauso in dem Fall, in dem sich der Entwickler halt keine Mühe macht, da nochmal einzeln ran zu gehen.

Wenn man bedenkt, was für Assizüge AMD in letzter Zeit aufblitzen lässt, dann kann man nur darauf warten, das bei Game Evolved Titeln DX11.1/11.2 kommt, ohne DX11.0 Fallback, oder halt einen mit starken Einbußen bei Performance und oder Optik.

Einigen wir uns einfach darauf, dass Nvidia einen Nachteil hat. Wie gewichtig dieser für Spieler wird, zeigt sich erst im Laufe des Jahres 2014. Es ist wirklich schwierig einzuschätzen, denn wir haben eine gänzlich neue Situation hinsichtlich der Marktmacht: Niemals zuvor breitete sich AMD mit der "checklistenmäßig" fortschrittlichsten Architektur in ~3/4 aller High-End-Gaming-Systeme (Xbone, PS4, PC) aus, zuvor mischte Nvidia immer mit oder hatte beim Konsolenstart bereits einen Technolgiesprung nachgelegt. Jetzt bleibt Nvidia nur die Marktmacht am PC, wo die Firma nach wie vor ~2/3 inne hat. Aber davon ist längst nicht alles DX11 und wir reden hier nur von dedizierten Grafikkarten ...

Ja so kann man das ohne jedwede Einschränkung stehen lassen. Nutzer einer nVidia sind halt auf die Entsatzbereitschaft der Entwickler angewiesen, eine Extrawurst zu machen. Das ist eine ungünstige Ausgangslage. nVidia ist aber halt wie du schon sagst immer noch sehr stark im Desktop-Markt. Daher darf man hoffen, das alles glatt geht. Man muss den Leuten aber offen die Wahrheit sagen, wies wirklich aussieht. Wenn dann einer sagt: "Mey Gott, wird scho gut gehe.", dann ist das ok. Er darf dann aber halt auch nicht heulen, wenns schief geht.


Also ich sehe das locker. DX11.1 und 11.2 sind Minor Updates, keine Supersprünge. Viele Features kommen mobilem DX9-Gammel zu Gute, der an jeder Ecke bei Präzision und Renderauflösung tricksen muss, um auf einen grünen Zweig zu kommen. DX10.1 war meiner Meinung nach im Vergleich ein größerer Sprung, welcher zu Lebzeiten Radeon-GPUs nur selten Vorteile brachte – "posthum" waren die Auswirkungen größer, etwa als DX11-Fallback (siehe CODBLOPS2: kein MSAA bei 10.0, erst ab 10.1). Aber wie gesagt, mit den neuen Konsolen hat AMD die Marktmacht ...

Würde ich jetzt nicht sagen. Vor ner ganzen Weile wurden hier im Forum mal Links zu Presentationen von ner Konferenz zu 3D Gameengines. Wenn ich das richtig verstanden habe, wurden da eben die DX11.2 Features für Overlay usw genutzt, um sehr sehr sehr gute Ergebnisse bei deutlich reduzierten Leistungsanforderungen zu realisieren. Das kann sich auch für den Desktop als wirklich sehr nützlich erweisen.

Die Frage ist halt, was kann nVidia davon unterstützen, wie lässt es sich abfragen, und unterstützen Sie alle Features, die die Entwickler für solche Tricks brauchen.

Nützt ja nichts, wenn man alles bis auf ein Feature unterstützt, dass die Entwickler brauchen um mit Overlayes und der Auflösung zu tricksen, ohne das es auffällt.


Was lernen wir daraus? Wenig. :D Ich sehe das Fehlen von DX11+ bei Nvidia locker. Ein voller GK110 wird heftig austeilen und sich an die Spitze setzen, keine Frage. Und wenn sich die Gerüchte um das B1-Stepping bewahrheiten, dann wird sich das Teil auch noch bestens übertakten lassen. Niemand wird eine Grafikkarte mit 2.880 ALUs @ 1.200 MHz @ 4 Sone Lautheit ernsthaft ungeil finden, nur weil da DirectX 11.0 draufsteht. Oder doch?

Wie gesagt, durch Overlay usw sollen sich ziemliche Performanceverbesserungen durch Trickserei realisieren lassen, ohne das man es sieht. Wenn das auf nVidia Karten nicht funktioniert, dann wird sich das bemerkbar machen.

Hat dann ziemlich genau in die gleiche Kerbe wie dein Beispiel 1 vs 1,5 GB RAM. Beim Kauf hats nicht wirklich was ausgemacht, relativ kurze Zeit danach aber schon.

V2.0
2013-11-02, 13:21:38
unspektakulär,*schnarch* :O

wo ist die full?:biggrin:

Du meinst die 780ti Black Edition? :biggrin:

StefanV
2013-11-02, 13:33:25
Wenn man bedenkt, was für Assizüge AMD in letzter Zeit aufblitzen lässt, dann kann man nur darauf warten, das bei Game Evolved Titeln DX11.1/11.2 kommt, ohne DX11.0 Fallback, oder halt einen mit starken Einbußen bei Performance und oder Optik
Da kann man nur sagen, dass AMD von den 'den besten gelernt' hat und genau das macht, was von vielen immer gewünscht wird...

Mit dem 'wir machen das für alle offen' kommt man in diesen Tagen leider nicht sehr weit, da hat man dann wohl kaum 'ne Option, wenn die ganzen Leute solch einen Müll wie PhysX wünschen bzw auch noch aktiv unterstützen...

Gut, immerhin gibts hier wohl keine 'Genuine' Abfrage, wie mans aus anderen Bereichen kennt. Aber Mantle gibts ja auch noch...

aufkrawall
2013-11-02, 13:37:27
Wenn man bedenkt, was für Assizüge AMD in letzter Zeit aufblitzen lässt, dann kann man nur darauf warten, das bei Game Evolved Titeln DX11.1/11.2 kommt, ohne DX11.0 Fallback, oder halt einen mit starken Einbußen bei Performance und oder Optik.

So viel Kohle hat AMD nicht.

V2.0
2013-11-02, 13:42:30
Wenn AMD etwas gelernt hätte, hätten sie bessere Refrenzkühler und ne bessere Qualitätskontrolle vor Auslieferung der Review-Samples. 290 (ohne X) ist ein neuer Tiefpunkt an Mist.

Marty98
2013-11-02, 13:46:18
Noch mal für euch, zum mitmeißeln:

Eine D3D11.1 Anwendung wird auf aktueller nV Hardware (Kepler und Fermi) N I C H T laufen!
Bzw wenn, dann nur mit D3D11.0

Um welche Anwendung handelt es sich hier? Oder gibt es gar keine?

Ja, nee, is klar, schau dir mal das an (http://www.hardocp.com/article/2013/11/01/amd_radeon_r9_290x_crossfire_video_card_review/10#.UnTWvtM8O8M), den Punkt mit dem 4k Display...

Sorry, aber 'sowieso ist eh besser :P' hilft echt niemandem...

Ich verstehe auch nicht, warum es so schwer ist, einzugestehen, dass momentan die AMD 290X die beste Karte am Markt ist...
Schreib das doch mal, tut sicher gut...

Für 80% der Kunden ist die 290X aufgrund der Lautstärke vollkommen unbrauchbar. Gegen eine 780 OC ist sie auch in Sachen Preis/Leistung eine Ecke schlechter.

Ronny145
2013-11-02, 13:51:33
Na da wird aber was ganz anderes suggeriert von Aufkrawall und Ronny145. Wenn man als unbedarfter ihre Posts liest, dann kommt das so rüber

Du spinnst dir einigies zusammen. Völlig aus dem Kontext gerissenes ohne konkret zu werden.



als ob DX11.1 Spiele auch auf nVidia Karten laufen würden, als ob Sie DX11.1 hätten.


Definiere DX11.1 Spiel. Da fängt doch schon an. Alle DX11.1 Sachen, die vom Feature Level 11_0 abgedeckt werden, dürften nach deiner Definition nicht darunter zählen. Somit dürfte BF4 nicht mit DX11.1 werben, da nach deiner Definition kein DX11.1 Spiel. Das gleiche für unzählige DX11 Spiele, die auf DX10 Hardware laufen als ob sie DX11 hätten.



Dem ist aber eben nicht so. Der Developer muss extra Abfragen einbauen, statt einfach nur DX11.1 feature_lvl ab zu fragen. Wenn er die Sachen braucht, die nVidia nicht unterstützt, und daher eben auch kein DX11.1 hat, ist man halt gekniffen. Genauso in dem Fall, in dem sich der Entwickler halt keine Mühe macht, da nochmal einzeln ran zu gehen.


Was für eine Abfrage ständig? Wozu muss der Dev extra etwas abfragen wenn die DirectX Spezifikation Feature Level Abwärtskompatibiliät vorsieht?