Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013
Seiten :
1
2
3
4
5
6
7
8
9
10
[
11]
12
13
14
15
16
boxleitnerb
2013-02-07, 21:11:23
Auch für GK104 ist PCIe 3.0 auf Sandy-E nicht freigegeben, deshalb doch der inoffizielle Patch.
PCB?
http://www.abload.de/img/geforce-titanunuwk.jpg (http://www.abload.de/image.php?img=geforce-titanunuwk.jpg)
http://wccftech.com/exclusive-nvidia-geforce-titan-pcb-unveiled-6-gb-memory-gk110-gpu-8-phase-supply/
HarryHirsch
2013-02-07, 21:15:06
Auch für GK104 ist PCIe 3.0 auf Sandy-E nicht freigegeben, deshalb doch der inoffizielle Patch.
PCB?
http://www.abload.de/img/geforce-titanunuwk.jpg (http://www.abload.de/image.php?img=geforce-titanunuwk.jpg)
http://wccftech.com/exclusive-nvidia-geforce-titan-pcb-unveiled-6-gb-memory-gk110-gpu-8-phase-supply/
das mein ich ja. mit einer ivy läuft es laut nv.
warum sollte es dann an der gpu liegen? :confused:
dildo4u
2013-02-07, 21:18:25
Die Tesla's wurden einfach nicht auf Ivy Board's gestestet daher keine 3.0 Zertifizierung.
Gipsel
2013-02-07, 21:19:24
das mein ich ja. mit einer ivy läuft es laut nv.
warum sollte es dann an der gpu liegen? :confused:
Weil GK110 eine andere GPU ist. GK104 ist offiziell PCI Express 3.0 fähig, GK110 auf den Teslas offiziell nicht. Was ist daran so schwer zu verstehen? SB-E ist nur Gen 2. Ivy kann Gen3. Eine Tesla K20 läuft auch an Ivy nur mit 2.0, eine Tesa K10 (mit GK104) aber mit 3.0.
boxleitnerb
2013-02-07, 21:20:46
Hm, Intel hat zumindest damals auch nur 2.0 freigegeben:
Wie sich herausstellt, wird Sandy Bridge-E nun tatsächlich PCI Express 3.0 unterstützen. Da es aber nach wie vor keine entsprechenden Erweiterungskarten gibt, gestaltet sich die Validierung problematisch. Wie man dem unten stehenden Diagramm entnehmen kann, garantiert Intel übrigens nach wie vor nur bei PCI Express 2.0 den reibungslosen Betrieb. Das wird sich wohl auch erst ändern, wenn erste Hardware mit der PCIe-Schnittstelle der nächsten Generation auf den Markt kommt.
http://www.tomshardware.de/core-i7-3960x-x79-sandy-bridge-e,testberichte-240906-2.html
Gipsel
2013-02-07, 21:22:18
Wenn GK104 offiziell PCI Express 3.0 fähig ist, warum schaltet Nvidia es auf Sandy-E nicht frei? Das impliziert doch, dass an der CPU doch was nicht stimmen könnte, zum Spass verzichtet man sicher nicht drauf.
Weil SB-E mit den X79-Boards die 3.0 Spec nicht erfüllt. Steht doch ganz klar in dem Link von HarryHirsch. Das kommt direkt von nV.
Godmode
2013-02-07, 21:24:59
Weil SB-E mit den X79-Boards die 3.0 Spec nicht erfüllt. Steht doch ganz klar in dem Link von HarryHirsch. Das kommt direkt von nV.
Komisch ist aber das es bei der GTX690 funktioniert. Dürfte dann am PLX Chip liegen. Also Laut Inspector habe ich definitiv PCI3.0 trotz X79 und SB-E.
boxleitnerb
2013-02-07, 21:25:16
Schon geändert.
Godmode
2013-02-07, 21:26:29
Auch für GK104 ist PCIe 3.0 auf Sandy-E nicht freigegeben, deshalb doch der inoffizielle Patch.
PCB?
http://www.abload.de/img/geforce-titanunuwk.jpg (http://www.abload.de/image.php?img=geforce-titanunuwk.jpg)
http://wccftech.com/exclusive-nvidia-geforce-titan-pcb-unveiled-6-gb-memory-gk110-gpu-8-phase-supply/
Stromanschluss nur 6+8? :confused:
Wieviele Speicherchips zählt ihr?
Gipsel
2013-02-07, 21:27:53
Komisch ist aber das es bei der GTX690 funktioniert. Dürfte dann am PLX Chip liegen. Also Laut Inspector habe ich definitiv PCI3.0 trotz X79 und SB-E.
Daß man die Specs nicht einhält, heißt ja nicht, daß es nicht funktionieren kann (sonst würde ja auch kein OC funktionieren :rolleyes:). Es kann nur nicht garantiert werden. Lest Euch doch einfach den Link von HarryHirsch durch. Da sagt nV doch selber alles. Was gibt es da zu diskutieren?
boxleitnerb
2013-02-07, 21:28:12
12 vorne und vermutlich nochmal 12 hinten.
HarryHirsch
2013-02-07, 21:28:35
Weil GK110 eine andere GPU ist. GK104 ist offiziell PCI Express 3.0 fähig,* GK110 auf den Teslas offiziell nicht. Was ist daran so schwer zu verstehen? SB-E ist nur Gen 2. Ivy kann Gen3. Eine Tesla K20 läuft auch an Ivy nur mit 2.0, eine Tesa K10 (mit GK104) aber mit 3.0.
*was aber nicht stimmt.
ich denke auch die desktop gk110 unterstützen teilweise pcie 3.0 je nach chipsatz und cpu.
und das die neuen teslas nur pcie 2.0 können weiß ich. der erste link überhaupt dazu in diesem forum kam von mir. ;)
Gipsel
2013-02-07, 21:30:00
*was aber nicht stimmt.Na klar stimmt das. Warum sollte nV da lügen?
Edit:
Aus Deinem Link:GeForce GTX 680 and GTX 670 GPUs support PCI Express 3.0. They operate properly within the SIG PCI Express Specification and have been validated on multiple PCI Express 3.0 platforms.
HarryHirsch
2013-02-07, 21:33:30
Na klar stimmt das. Warum sollte nV da lügen?
:confused:
warum braucht es für x79 dann einen patch?
Though we cannot officially support or guarantee 8GT/s speeds for X79/SNB-E, you can manually enable faster 8GT/s bus speeds (at your own risk)
Gipsel
2013-02-07, 21:37:43
:confused:
warum braucht es für x79 dann einen patch?
Weil SB-E/X79 keine Gen3 innerhalb der Specs kann? Steht auch in deinem Link und ist eine Auskunft von nV. Die bezeichnen das als 2.0 Plattform, die lediglich auf 3.0 Speed übertaktet wird und die Timing-Specs von 3.0 verletzt. Das ist keine 3.0 Plattform, weswegen nV die Funktion nicht garantiert, aber den Nutzern ermöglicht auf eigenes Risiko das trotzdem zu aktivieren (und dann darauf zu hoffen, daß das funktioniert).
Ich kapier nicht, was an der Aussage von nV so schwer zu verstehen ist. :confused:
Edit:
Und intel selbst gibt für SB-E auch nur PCI-Express 2.0 an (http://ark.intel.com/products/70845/Intel-Core-i7-3970X-Processor-Extreme-Edition-15M-Cache-up-to-4_00-GHz). Case closed.
HarryHirsch
2013-02-07, 21:41:19
womit wir wieder hier wären:
so wie ich das verstanden hab liegt es nicht an den gpus sondern an den cpus.
auf der verpackung von meinem board (x79) steht pcie 3.0 ready.
wer unterstützt denn nun kein pcie 3.0?
aufkrawall
2013-02-07, 21:49:40
womit wir wieder hier wären:
auf der verpackung von meinem board (x79) steht pcie 3.0 ready.
wer unterstützt denn nun kein pcie 3.0?
Das Board und somit die Angabe ist ja nicht von Intel (Marketing vom PCB-Hersteller), die CPU mit dem Controller schon (offizielle Specs).
Gipsel
2013-02-07, 21:50:27
womit wir wieder hier wären:
auf der verpackung von meinem board (x79) steht pcie 3.0 ready.
wer unterstützt denn nun kein pcie 3.0?
Laut Intel unterstützt SB-E kein PCI-Express 3.0, nur 2.0. Und was für Sticker Dein Mainboard-Hersteller auf die Box tackert, interessiert keinen Menschen. "PCIE 3.0 ready" heißt gar nichts, höchstens daß das BIOS ermöglicht, diese Geschwindigkeit einzustellen, was dann ein Betrieb eines 2.0 Interfaces außerhalb der Spezifikation ist. Das kann klappen, muß aber nicht.
Auf einer ordentlichen PCIE 3.0 Plattform laufen die GK104 ohne Kopfstände garantiert mit 3.0. Die Tesla K20 allerdings (bisher) offiziell nicht. Was mit der Geforce-Version (oder zukünftigen Tesla K20-Versionen) ist, wird man sehen.
HarryHirsch
2013-02-07, 21:56:10
dann lag ich also doch nicht falsch und es liegt an den cpus.
problem solved
Rampage 2
2013-02-07, 21:59:10
Die 680 sind auch kaum billiger geworden,denke nich das es bei einem wesentlich größeren Chip mit komplexeren PCB anders sein wird.
70€
http://geizhals.at/de/?phist=753753&age=9999
Unter 700€ würde ich sie Ende 2013 nicht erwarten.
Heißt das etwa, ein Preisfall der 680 auf 300€ ist nach dem Release von Titan unwahrscheinlich?
Skysnake
2013-02-07, 22:01:54
Hast Du eigentlich gesehen, daß zuerst PCI Express 3.0 drinstand und das erst am 09.Oktober 2012 in 2.0 geändert wurde? Das spricht irgendwie wirklich dafür, daß man knapp außerhalb der Specs gelandet ist (was man natürlich erst feststellen konnte, nachdem man ein paar Samples im Labor ordentlich gequält hat) und das vermutlich erst mit einer neuen Revision hinbiegt. Wenn ein Metal-Spin reicht (evtl. ja sogar nur eine Revision des PCBs), könnte die Geforce Version durchaus schon mit 3.0 kommen. Seit Oktober war ja genug Zeit.
Ich weiß nicht, wo ich das gelesen hatte mit 3.0, aber ich hatte es mit 3.0 gelesen, und bin dann ziemlich böse aus allen Wolken gefallen, als ich das mitbekommen habe, das 3.0 bei GK110 nicht geht :ugly:
Für die Teslas ist das nämlich schon ziemlich scheise...
Also, dass da eigentlich Logik für PCIe 3.0 im Chip vorhanden ist, darüber brauchen wir doch nicht streiten?
Und? Du weißt schon wie schwierig es ist, ein Signal mit 4GHz durch nen Package, und dann noch über nen PCB, durch nen Slot, über das MB, durch den Sockel, durch das CPU-Package zu leiten....
Da bringt dir auch die tollste Logikschaltkreise und (Hardware-)Treiber, wenn du dir das Signal verkackst....
Es reicht schon ein kleiner Fehler im Package und du kannst PCI-E 3.0 vergessen. Wenns dumm läuft hat man mit dem Pinout einfach scheise gebaut, und bekommt die Signale einfach nicht geroutet.... In dem Fall hat man dann echt die Arschkarte gezogen... Wenns dumm läuft kannst du wegen so nem Fehler dann anfangen den Pinout des Chips neu zu legen, oder gar Dinge auf dem Chip hin und her zu schieben...
Das sollte sich natürlich mit einem neuen Tapeout oder sogar nur einem Metal-Layer-Respin lösen lassen. Vor allem in der Zeit die sie jetzt hatten. Die Probleme deuteten sich ja schon bei GK104 an.
Kann muss aber nicht... Es gibt einfach eine Millionen Ursachen, warum das nicht funktioniert... Viele sind leicht zu lösen, mehr als genug bekommst du aber auch praktisch gar nicht gelöst. Und ja, da arbeiten Menschen und nutzen tools, die auch Fehler machen... Man kanns also wenns dumm läuft echt noch auf der Ziellinie verkacken.
Die Sache mit PCIe 3.0 kann ich nicht so richtig nachvollziehen: Wieso baut man da nicht einfach eine Art Verstärkerchip oder ähnliches ein, wenn man nur knapp an der Zertifizierung scheitert? Bei dem Stückpreis für eine Tesla-Karte sollte das doch möglich sein?
Es ist doch gar nicht klar, was nicht geht...
Und nen "Repeater" willst du auch nicht wirklich verbauen. Die Chips von PLX, die das z.B. eventuell bewerkstelligen könnten sind absolut Mangelware.
Zusätzlich pusht du damit wieder den Verbrauch und machst das PCB VIEL aufwendiger...
so wie ich das verstanden hab liegt es nicht an den gpus sondern an den cpus.
...
Jetzt nicht anfangen SAchen durcheinander zu werden. Das die Core i SB-E kein PCI-E 3.0 können liegt an den CPUs und/oder den MBs.
Das GK110 kein PCI-E 3.0 kann liegt an der GPU...
Ich bezweifle dass GK110 voll DX11.1 sein wird; und nein ein metal spin reicht dafuer nicht aus und waere auch wirtschaftlich Bloedsinn egal von welchem IHV.
Ist doch schon bekannt.
Ja, mit GK104 (für den nV explizit PCI Express 3.0 Support angibt). Wir reden hier von GK110, für den sie das nicht tun. ;)
Was sie nicht garantieren, ist die Funktion im Zusammenspiel mit auf 3.0-Speed übertakteten 2.0 Interfaces (die die 3.0 Spec nicht einhalten).
Erzähl ich jetzt schon seid knapp nem 3/4 Jahr bis Jahr den Leuten....
Die Tesla's wurden einfach nicht auf Ivy Board's gestestet daher keine 3.0 Zertifizierung.
BOAH! Ich kanns nicht mehr hören! Alter schalter, was ist denn so schwer daran zu verstehen, das es Spezifikationen gibt, die man einhalten muss.... Ihr habt echt denn Sinn nicht dahinter verstanden, warum man Spezifikationsgremien bildet, die solche Dinge eben für die Industrie bezifizieren... Dann muss man sich nämlich als Hersteller eben einfach "nur" an die Specs halten, und es läuft.... Was ihr da labert ist die Sache vor jedweder Spezifikation wo jeder sein eigenes Süppchen kocht....
Weil GK110 eine andere GPU ist. GK104 ist offiziell PCI Express 3.0 fähig, GK110 auf den Teslas offiziell nicht. Was ist daran so schwer zu verstehen? SB-E ist nur Gen 2. Ivy kann Gen3. Eine Tesla K20 läuft auch an Ivy nur mit 2.0, eine Tesa K10 (mit GK104) aber mit 3.0.
Reg dich nicht auf... Wie gesagt, ich mach das bald ein Jahr schon mit den Leuten das zu erklären, aber natürlich ist immer da pöse Intel Schuld, und bei nVidia läuft natürlich alles, und natürlich lügt ja auch nur Intel rum, weil es geht ja....
Daß man die Specs nicht einhält, heißt ja nicht, daß es nicht funktionieren kann (sonst würde ja auch kein OC funktionieren :rolleyes:). Es kann nur nicht garantiert werden. Lest Euch doch einfach den Link von HarryHirsch durch. Da sagt nV doch selber alles. Was gibt es da zu diskutieren?
Das können oder wollen die Leute nicht verstehen...
Aber danke, das du es auch mal versuchst den Leuten in ihren Schädel zu hämmern.... Auf mich hört ja niemand...
*was aber nicht stimmt.
ich denke auch die desktop gk110 unterstützen teilweise pcie 3.0 je nach chipsatz und cpu.
und das die neuen teslas nur pcie 2.0 können weiß ich. der erste link überhaupt dazu in diesem forum kam von mir. ;)
BOah... Wer wird es besser wissen DU oder nVidia?
UND ZUM TAUSENDSTEN MAL! ES GIBT NICHT TEILWEISE SUPPORT!!!! GANZ ODER GAR NICHT :P
womit wir wieder hier wären:
auf der verpackung von meinem board (x79) steht pcie 3.0 ready.
wer unterstützt denn nun kein pcie 3.0?
Schön... Dein Board hält die PCI-E 3.0 Specs ein, und wir mit ner IvyBridge-E CPU zu 99,99% wahrscheinlichkeit PCI-E 3.0 unterstützen....
DEINE SB-E CPU KANN ABER KEIN PCI-E 3.0!!!
Meine Fresse....
Skysnake
2013-02-07, 22:04:30
dann lag ich also doch nicht falsch und es liegt an den cpus.
problem solved
Ich bekomm echt noch nen Anfall :mad:
NEIN es liegt bei GK110 NICHT an der CPU... GK110 kann genau so wenig PCI-E 3.0 wie die Core i SB-E....
Nur! GK104 kann bei nVidia PCI-E 3.0
Da ein SB-E aber kein PCI-E 3.0 kann, läuft das auf ner Core i SB-E Platform eben auch nicht.....
Gipsel
2013-02-07, 22:06:45
dann lag ich also doch nicht falsch und es liegt an den cpus.
problem solvedDu kannst eine Tesla K20 an jede CPU Deiner Wahl hängen und das ändert trotzdem nichts daran, daß die nur für 2.0 spezifiziert ist.
Also nochmal ganz einfach (vorbehaltlich Übertaktungen und mutwilligem Betrieb außerhalb der Specs):
CPU kann 2.0, GPU kann 2.0 => läuft mit 2.0
CPU kann 2.0, GPU kann 3.0 => läuft mit 2.0
CPU kann 3.0, GPU kann 2.0 => läuft mit 2.0
CPU kann 3.0, GPU kann 3.0 => läuft mit 3.0
SB-E kann nur 2.0, Ivy kann 3.0, GK104 in Form der GTX670/680 und auch Tesla K10 kann 3.0, GK110 in Tesla K20 kann nur 2.0. Den Rest kannst Du Dir zusammenwürfeln. War das einfach genug? :rolleyes:
Die Frage ist jetzt nur, ob nV das (vermutlich sehr kleine) Problem mit der Einhaltung der 3.0 Spec inzwischen gelöst hat (neue Chiprevision, entsprechend Designänderungen am PCB könnten eventuell schon reichen). Genügend Zeit hatten sie ja, seitdem sie wußten daß Tesla K20 3.0 nicht schafft (spätestens seit Anfang Oktober).
HarryHirsch
2013-02-07, 22:08:14
Ich bekomm echt noch nen Anfall :mad:
NEIN es liegt bei GK110 NICHT an der CPU... GK110 kann genau so wenig PCI-E 3.0 wie die Core i SB-E....
Nur! GK104 kann bei nVidia PCI-E 3.0
Da ein SB-E aber kein PCI-E 3.0 kann, läuft das auf ner Core i SB-E Platform eben auch nicht.....
komm mal wieder runter...
meine atis laufen mit pcie 3.0, nur mal so am rande. ;D
edit:
und hab die specs nicht mal mutwillig überfahren, das ist @ default so.
Auch für GK104 ist PCIe 3.0 auf Sandy-E nicht freigegeben, deshalb doch der inoffizielle Patch.
PCB?
http://www.abload.de/img/geforce-titanunuwk.jpg (http://www.abload.de/image.php?img=geforce-titanunuwk.jpg)
http://wccftech.com/exclusive-nvidia-geforce-titan-pcb-unveiled-6-gb-memory-gk110-gpu-8-phase-supply/
Ich zähle volle 12 Speicherchips, wären also wohl 384 bit.
gnahr
2013-02-07, 22:18:07
6 rechts, 4 oben und 2 oder 3 links vom chip.
ist der unterste davon nicht verbaut oder doch?
mein wunschdenken erkennt da nämlich einen^^
Skysnake
2013-02-07, 22:22:32
Auch für GK104 ist PCIe 3.0 auf Sandy-E nicht freigegeben, deshalb doch der inoffizielle Patch.
Es wird NIE für eine bestimmte Platform/Kombination ein Zertifikat ausgestellt, sondern ganz allgemein... Das würde ja ansonsten den Sinn von PCI-E ad absurdrum führen -.-
PCB?
http://www.abload.de/img/geforce-titanunuwk.jpg (http://www.abload.de/image.php?img=geforce-titanunuwk.jpg)
http://wccftech.com/exclusive-nvidia-geforce-titan-pcb-unveiled-6-gb-memory-gk110-gpu-8-phase-supply/
Das ist mal wenigstens was interessantes....
Das PCB entspricht nicht dem von K20(x). So viel kann man schon sagen. 2 Chips links von der GPU sind auf die rechte Seite gewandert!
Ergo MUSS(EDIT: MUSS ist doch zu stark, man kann es geometrisch doch anders lösen. Elegant ist das dann aber wirklich nicht, und ich habe noch immer zweifel ob, das ohne neues Package funktioniert. GDDR5 hat aber halt training. Da könnte man eventuell die Unterschiede ausgleichen. Ich will dafür aber nicht meine Hand ins feuer legen. Kann sehr gut auch ein neues Package sein) es mindestens ein neues Package geben. Ansonsten bekommt man da nicht hin.
GeForce Titan entspricht damit nicht den bis jetzt käuflichen K20(x). So viel kann man schonmal sagen, sofern denn das Bild wirklich echt ist...
Man kann aber durchaus davon ausgehen. Das Platinenlayout habe ich zumindest bisher noch nie gesehen, ähnelt aber dem der GTX285 sehr stark, nur eben mit weniger Chips. http://www.bit-tech.net/hardware/graphics/2009/01/16/nvidia-zotac-geforce-gtx-285-1gb/1
Ein GF1x0 kann es nicht sein. Der hat 3 Chips auf der linken Seite 5 oben und 4 rechts. http://www.ixbt.com/video3/images/ref/gtx580-scan-front.jpg
Hier noch ein Bild der K20(x) Platine. Die sieht wie gesagt komplett anders aus, vor allem ist die Aufteilung der Chips auch anders.http://forum.hardware.fr/hfr/Hardware/2D-3D/unique-nvidia-geforce-sujet_910643_1.htm
Displayanschlüsse scheint die KArte auch zu haben, soweit man das erahnen kann.
Tendenziell würde ich jetzt nicht auf einen Fake tippen, da ich so ein PCB-Layout einfach noch nie gesehen habe, und die naheliegenden Verdächtigen bereits ausgeschieden sind. Eventuell erkennt ja aber jemand das PCB, und es stellt sich damit doch als Fake raus.
Ich tendiere aber zu 98% True 2% Fake ;)
HarryHirsch
2013-02-07, 22:39:17
Das GK110 kein PCI-E 3.0 kann liegt an der GPU...
Meine Fresse....
wir werden sehen. ;)
Skysnake
2013-02-07, 22:44:48
Die Frage ist jetzt nur, ob nV das (vermutlich sehr kleine) Problem mit der Einhaltung der 3.0 Spec inzwischen gelöst hat (neue Chiprevision, entsprechend Designänderungen am PCB könnten eventuell schon reichen). Genügend Zeit hatten sie ja, seitdem sie wußten daß Tesla K20 3.0 nicht schafft (spätestens seit Anfang Oktober).
An einen "kleinen" Fehler denke ich nachdem ich das neue PCB gesehen nicht mehr unbedingt. So eine gravierende Änderung am PCB nimmt man nicht mal eben so vor.
Das ist schon eine radikale Änderung.
Wie oben schon gesagt, da kommt man wohl ohne ein neu designtes Package nicht hin. Wobei es eventuell doch gehen könnte, wenn man eben alles parallel nach rechts verschiebt. Bin ich vorher spontan wirklich nicht drauf gekommen. Ich bin mir aber wirklich nicht sicher, ob das überhaupt funktionieren würde, ohne ein redesign des Packages. GDDR5 hat halt training. Damit könnte man doch eventuell einiges wieder ausgleichen...
Ich tendiere daher trotz der Möglichkeit eher zu nem neuen Package.
@Harry:
nVidia sagt nein... Weißt du besser über ihre Karten bescheid als Sie? Wenn ja würde ich mich schnell bei Ihnen bewerben.... So Leute braucht man immer -.-
HarryHirsch
2013-02-07, 22:56:59
ich weiß nix besser, ich spekuliere.
bei einem desktop gk110 mal eben so ~10% leistung in z.b. civ v verschenken.
never.
kruemelmonster
2013-02-07, 22:59:28
...aber natürlich ist immer da pöse Intel Schuld, und bei nVidia läuft natürlich alles, und natürlich lügt ja auch nur Intel rum, weil es geht ja....
Beim X38 hatte Intel das Power State Management für den PCIe 2.0 Link nicht hinbekommen was NV dazu brachte alle 2.0 fähigen GPUs auf 1.1 einzubremsen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=469691), obwohl es mit älteren Treibern oder einem 3rd Party Patch keinerlei Probleme mit freigeschaltetem 2.0er Link gab. Der X48 sollte dann laut Datenblatt nur ein für FSB400 gebinnter X38 ohne weitere Änderungen sein, jedoch: da funktioniert der 2.0er Link problemlos.
Soviel zu "man hält sich an die specs und alles ist dufte."
Die AMD Karten waren damals btw nicht betroffen da sie bereits PCIe 2.1 verwendeten. PCI Express 2.1 supports a large proportion of the management, support, and troubleshooting systems planned for full implementation in PCI Express 3.0. However, the speed is the same as PCI Express 2.0.
Skysnake
2013-02-08, 00:26:38
Mit dem Fall kenne ich mich nicht aus, daher werde ich mich hüten etwas dazu zu sagen.
Sollte Intel die Specs aber nicht eingehalten haben, hätten Sie kein Zertifikat erhalten dürfen.
Wie gesagt, der Fall ist mir aber nicht bekannt, und jetzt auch sehr müßig sich in so altes Zeug derart detailiert ein zu arbeiten, um da ne halbwegs akkurate Aussage zu treffen. Vielleicht kenn Gipsel den Fall.
kunibätt
2013-02-08, 04:54:56
Das Bild erinnert mich an meine nackte GTX285....
boxleitnerb
2013-02-08, 07:45:03
http://www.abload.de/img/attachmentobyd6.jpg (http://www.abload.de/image.php?img=attachmentobyd6.jpg)
http://diy.pconline.com.cn/317/3177824.html
Ca. 60% schneller als die 680, das wäre doch was. Plausibler als die anderen 3DMark11 Fakes.
dildo4u
2013-02-08, 07:54:19
http://www.abload.de/img/attachmentobyd6.jpg (http://www.abload.de/image.php?img=attachmentobyd6.jpg)
Ca. 60% schneller als die 680, das wäre doch was. Plausibler als die anderen 3DMark11 Fakes.
In jedem Fall der größte Sprung der letzten Jahre.Deshalb Natürlich auch der Preis.
boxleitnerb
2013-02-08, 07:58:01
Ist doch wieder nur ne Prognose. Auf der Seite wird auch aller möglicher Müll gezeigt...kann man also mit der Pfeife rauchen.
Ailuros
2013-02-08, 09:22:31
Ca. 60% schneller als die 680, das wäre doch was. Plausibler als die anderen 3DMark11 Fakes.
Und um wieviel langsamer ist hier angeblich Titan als die GTX690? :P Na faellt der Groschen?
boxleitnerb
2013-02-08, 09:27:16
15%. Aber wie gesagt, unter dem Bild steht "Prognose". Auch wenn es glaubwürdig ist, ist es kein Messwert.
gnahr
2013-02-08, 09:30:53
PCB?
[url=http://www.abload.de/image.php?img=geforce-titanunuwk.jpg]
scheinbar haben ja noch mehr an ne gtx285 gedacht. mir kam die vor allem wegen der 4 kondensatoren am rechten ende hoch, aber es ist weder revision 1 noch 1.1 oder 2 oder kleinserien wie die classified/palit/gainward/zotac. es passt schon nicht weil die meißten 285 2*6pin pcie hatten.
die revision 2 schaut zwar gut aus wegen der caps, aber der rest will nirgends auch nur annähernd passen und auch andere spontane sucheingaben haben bei den bildersuchen nix hochgebracht.
es wär schön wenn jemand nochmal mit photoshop-filtern sich das kamera-rauschen durch den blur angucken könnte ob es offensichtlich zusammengesetzt ist (die schatten sagen nein), ansonsten kann man das als absolut approved annehmen. ich müsste eigentlich was anderes machen, aber es hat mir keine ruhe gelassen und es will einfach nix gegen den 20februar mit exakt dem pcb sprechen...
das graphen-bild ist indiskutabel. prognosen aus alten ideen sind für den popo.
Ailuros
2013-02-08, 09:40:59
15%. Aber wie gesagt, unter dem Bild steht "Prognose". Auch wenn es glaubwürdig ist, ist es kein Messwert.
Ich bezog mich offensichtlich auf das erste Geruecht dass Titan in etwa 85% der GTX690 haben soll; ich erklaerte Dir doch dass meistens solcher Mist auf 3dFurz scores basiert und nicht unbedingt realistisch ist. Beim launch befuerchte ich dass Titan im wahren Durchschnitt bei Spielen enttaeuschend weniger Unterschied zur 680 erreichen wird. Alle Indizien sprechen fuer ein absolut laecherliches perf/$ ratio.
boxleitnerb
2013-02-08, 09:43:22
Ich bezog mich offensichtlich auf das erste Gerueckt dass Titan in etwa 85% der GTX690 haben soll; ich erklaerte Dir doch dass meistens solcher Mist auf 3dFurz scores basiert und nicht unbedingt realistisch ist. Beim launch befuerchte ich dass Titan im wahren Durchschnitt bei Spielen enttaeuschend weniger Unterschied zur 680 erreichen wird. Alle Indizien sprechen fuer ein absolut laecherliches perf/$ ratio.
Das Problem mit deiner Befürchtung ist, dass die 3DMark11-Werte ziemlich gut mit Spielen übereinstimmen, solange wir Kepler mit Kepler oder GCN mit GCN vergleichen:
Differenzen immer zur langsameren Karte im 3DMark11 Extreme Preset vs Schnitt durch 15 Spiele:
GTX680 vs GTX660
3DM11: +52%
Spiele: +46%
GTX680 vs GTX650 Ti
3DM11: +230%
Spiele: +225%
7970 GE vs 7870
3DM11: +49%
Spiele: +48%
7870 vs 7750
3DM11: +150%
Spiele: +145%
Quelle:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660/
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650-ti/
Passt also sehr gut innerhalb einer Architektur. Zumal bei Titan Rechenleistung und Bandbreite fast 1:1 steigen sollten ggü. der GTX680.
Bevor du jetzt sagst, dass die Ergebnisse mit der 690 nicht ins Bild passen -> CPU-Limit. SLI braucht schonmal 10% mehr CPU-Leistung. Mit SSAA o.ä. sollte es dann auch passen. Ich würde Titan nie im CPU-Limit beurteilen, was leider viele Reviews machen werden. Das sieht dann natürlich enttäuschend aus, ist aber irreführend. SGSSAA, Surround, 4K/Downsampling, ENB-Mods...da spielt die Musik.
derguru
2013-02-08, 09:52:55
Ich bezog mich offensichtlich auf das erste Geruecht dass Titan in etwa 85% der GTX690 haben soll; ich erklaerte Dir doch dass meistens solcher Mist auf 3dFurz scores basiert und nicht unbedingt realistisch ist. Beim launch befuerchte ich dass Titan im wahren Durchschnitt bei Spielen enttaeuschend weniger Unterschied zur 680 erreichen wird. Alle Indizien sprechen fuer ein absolut laecherliches perf/$ ratio.
deutlich lieber den x wert von 3 furz um die leistung zu ermitteln als zum launch unqualifizierte chinesische und co. reviews mit ihrem standard settings in games von 1080p 4x aa/16xaf (die dauernd im cpu-limit sind)denn kommen tut es so wieso.
Skysnake
2013-02-08, 09:54:14
Und warum erwähnst du dann nicht, wies sich das Bild dann wandelt, wenn men zwischen den Herstellern vergleicht?
Das ist eben genau das was Ailuros sagen will, und auch ich selbst schon lange sage. Man wird sich was rauspicken, wos gut aussieht, die Realität sieht dann aber doch wieder ganz anders aus... Und genau deswegen wird es mal wieder richtig lange Gesichter geben....
Das Bild erinnert mich an meine nackte GTX285....
Ich hab doch ein Stückchen weiter oben schon ein GTX285 PCB gepostet... Das fällt eigentlich schon durch das 448 Bit Interface raus, aber selbst die genaue Anordnung der Chips ist leicht anders.
Deswegen ist das sehr sicher wohl wirklich ein GK110 PCB
boxleitnerb
2013-02-08, 09:57:21
Könntest du vielleicht mal sorgfältiger lesen, bevor der Anti-NV Reflex einsetzt?
Ailuros schrieb:
Beim launch befuerchte ich dass Titan im wahren Durchschnitt bei Spielen enttaeuschend weniger Unterschied zur 680 erreichen wird.
Da wurde mit keinem Wort AMD erwähnt. Es ging hier rein um 680 vs Titan, und das wird mit 3DMark11 sehr gut abgebildet wie ich bewiesen habe, solange sich das Verhältnis zwischen Rechenleistung und Bandbreite nicht großartig ändert. Also bitte, bleib doch mal beim Thema und erfinde nicht irgendwas, um Nvidia schlechtreden zu können.
Ailuros
2013-02-08, 10:30:42
Jegliches Prozentual Leistungsunterschied zwischen 680 und Titan werden viele logischerweise sofort auch zu Tahiti bzw. dessen Nachfolger parallelisieren.
M4xw0lf
2013-02-08, 10:31:45
Der Preis wird auf jeden Fall lächerlich - ~60% Mehrleistung (von mir aus noch +-10%) zum letzten Top-Dog sind nicht wirklich eine Revolution, aber dafür den Preis zu verdoppeln, statt die Marktposition des vorherigen Topmodells einzunehmen? Hmmja... Nvidia ist inzwischen durch die kleinen Keplers verwöhnt von hohen Margen pro Die-Fläche, und da sie dann wohl eh keine Massen GK110s haben werden, wird die Marge eben hochgehalten.
boxleitnerb
2013-02-08, 10:37:47
Jegliches Prozentual Leistungsunterschied zwischen 680 und Titan werden viele logischerweise sofort auch zu Tahiti bzw. dessen Nachfolger parallelisieren.
Die 7970 GE ist 15% flotter als die 680. Klar geht da etwas weg, aber wenn der Sprung mit Titan ordentlich wäre, würde noch genug Abstand bestehen. Und bzgl. des Nachfolgers wissen wir weder Performance noch Erscheinungsdatum.
BigKid
2013-02-08, 10:42:15
Der Preis wird auf jeden Fall lächerlich - ~60% Mehrleistung (von mir aus noch +-10%) zum letzten Top-Dog sind nicht wirklich eine Revolution, aber dafür den Preis zu verdoppeln, statt die Marktposition des vorherigen Topmodells einzunehmen? Hmmja... Nvidia ist inzwischen durch die kleinen Keplers verwöhnt von hohen Margen pro Die-Fläche, und da sie dann wohl eh keine Massen GK110s haben werden, wird die Marge eben hochgehalten.
Die Frage ist doch, was GK110 sonst noch zu bieten hat !
Wenn in Spielen im Schnitt 60% Mehrleistung anfällt ist das eine Sache...
Wenn aber sobald z.B. PhysX oder komplizierte Shader anfallen noch mehr bei rumm kommt dann unterstreicht das halt den anderen Ansatz des Chips...
Oder wenn z.B. dem Ding in höheren Auflösungen nicht mehr so die Luft ausgeht (siehe die Frage "Ist GK104 nun besonders stark in niedrigen Auflösungen - oder geht ihm in Hohen die Puste aus... ?")
Und würde den Preis relativieren.
Im übrigen ist es meine Theorie (der ich hier eventuell mal selbst zum Opfer falle) - du musst etwas nur als Exklusiv genug vermarkten - dann kannst du JEDEN Preis draufpappen - irgend ein Depp kaufts immer... (Siehe Handys in Uralt Technik aber von irgend nem Hippen Designer mit Strass-Steinchen verziert in limitierter Auflage).
Botcruscher
2013-02-08, 10:56:01
PhysX ist tot oder extrem hässlich +hinderlich.
Komplizierte Shader sollte man erst mal klären was das sein soll. In Spielen wird man so etwas nicht antreffen und GPU-Berechnungen sind für Spieler bedeutungslos. Womöglich freuen sich die Bitcoinminer.
PhysX ist tot oder extrem hässlich +hinderlich.
Komplizierte Shader sollte man erst mal klären was das sein soll. In Spielen wird man so etwas nicht antreffen und GPU-Berechnungen sind für Spieler bedeutungslos. Womöglich freuen sich die Bitcoinminer.
:facepalm:
BigKid
2013-02-08, 11:21:05
PhysX ist tot oder extrem hässlich +hinderlich.
Komplizierte Shader sollte man erst mal klären was das sein soll. In Spielen wird man so etwas nicht antreffen und GPU-Berechnungen sind für Spieler bedeutungslos. Womöglich freuen sich die Bitcoinminer.
Ob du das nun PhysX oder sonstwie nennst ist mir wurscht... Es geht um GPU gestützte Physik und die ist alles andere alles todt1!111 ;) ... Realistisches Wasser ist IMHO nach wie vor eine der Herausforderungen und oft das was mich bei den Karibik-OpenWorld Games aus der Immersion reisst...
Was Komplexe Shader sind solltest du dir eigentlich selbst grob denken können (ich denke an Spiegelungen, Lichtbrechungen, simulierte Materialeigenschaften, Feuer, Flirren in der Luft, Lichteffekte, realistische Haut (subsurface scattering) ) und wenn du eine technische Erklärung willst dann können wir ja mal die Profis hier fragen ob sie das Laientauglich erklären können bzw. Beispiele haben...Fakt ist doch dass auch das ein Vorwurf an GK104 war - weniger compute power... Und was Spiele betrrifft ist das ein Henne-Ei Problem... Wenn's die GPUs hergeben, dann wirds auch irgendwann genutzt !
Also wenn Titan die neue Elfe auf meinem (hoffentlich heute kommenden) neuen 29er 21:9 Ruckelfrei darstellen könnte - dann wäre er so gut wie gekauft... Denn SLI ist für mich keine Option das ist mir zu kompliziert und hat mir aktuell noch zu viele Nachteile...
robbitop
2013-02-08, 11:28:45
Gerade bei Wasser hat man bei Crysis 3 offenbar einen riesen Schritt nach vorne gemacht. Es gibt auf YT eine Vorstellung (ich habs auf dem PCGH Kanal gefunden) der neuen Features von Crysis 3. Einiges hat mich wirklich positiv überrascht.
Gaestle
2013-02-08, 12:31:01
Jegliches Prozentual Leistungsunterschied zwischen 680 und Titan werden viele logischerweise sofort auch zu Tahiti bzw. dessen Nachfolger parallelisieren.
Dieser Hinweis bringt mich zu der Frage, wie sich GK114 eigentlich zu GK110 verhalten wird... (zeitlich und leistungsmäßig)
robbitop
2013-02-08, 13:03:18
Ist es eigentlich sicher, dass ein GK114 kommen wird?
BigKid
2013-02-08, 13:10:01
Ist es eigentlich sicher, dass ein GK114 kommen wird?
Ich nehme an mit GK114 meinst du einen GK104 refresh ?
Ich denke das ist so gut wie sicher... Die Frage ist nur:
Welches SEGMENT wird GK114 nun bedienen... Bis hoch GTX 780 ? Und nach Titan kommet dann "Zeus", "Thor" whatever ? Und NVIDIA schafft permament eine neue Klasse noch über "Enthusiast", die sich vielleicht mehr durch Features und weniger durch "tumbes" FPS absetzt (siehe mein vorheriger Post, mehr compute power, weniger Einbruch bei hohen Auflösungen etc.)...
Gaestle
2013-02-08, 13:30:18
Ist es eigentlich sicher, dass ein GK114 kommen wird?
Aus Sicht von DIE-Größe und möglichem Verkaufspreis ist GK114 vermutlich zu lukrativ, als dass NV den nicht bringt. Der dürfte ja (bezogen auf die Stellung in der Chipfamilie) eigentlich das Upper-Mainstream-Segement gehören.
Die Frage ist natürlich, ob das Konstrukt "Chip-Familie" in Zukunft weiter in der Form Bestand haben wird, wie wir sie seit der GeForce 5(?) kennen.
Die 7970 GE ist 15% flotter als die 680. Klar geht da etwas weg, aber wenn der Sprung mit Titan ordentlich wäre, würde noch genug Abstand bestehen. Und bzgl. des Nachfolgers wissen wir weder Performance noch Erscheinungsdatum.
15%? Hmm für mich ist nach wie vor 1080p maßgebend mit Einstellungen die auch fps tauglich sind und da liegt der Unterschied bei 5%. Also auf fixe 15% würde ich mich nicht festlegen.
Wie auch immer... ~50% Mehrleistung des Titanen wären für mich keine 800-900€ wert!
derguru
2013-02-08, 14:59:57
hier haste einige spiele in deiner auflösung als vergleich.
7970boost vs. gtx 680 (http://ht4u.net/reviews/2013/50_directx_11_grafikkarten_im_test/index36.php?dummy=&advancedFilter=true&prod[]=AMD+Radeon+HD+7970+Boost&prod[]=NVIDIA+GeForce+GTX+680&filter[0][]=1920&filter[2][]=2x2+SSAA&filter[2][]=2x2+SSAA+%2B+MLAA&filter[2][]=4&filter[2][]=8&filter[2][]=FXAA&filter[2][]=FXAA+%2B+2x2+SSAA&filter[2][]=FXAA+%2B+SSAA&filter[2][]=FXAA+hoch&filter[2][]=MLAA&filter[2][]=Post+AA&filter[3][]=16&aa=on)
Knuddelbearli
2013-02-08, 15:06:13
derguru verkehrt herum
Richtig rum (http://ht4u.net/reviews/2013/50_directx_11_grafikkarten_im_test/index36.php?dummy=&advancedFilter=true&prod[]=NVIDIA+GeForce+GTX+680&prod[]=AMD+Radeon+HD+7970+Boost&filter[0][]=1920&filter[2][]=2x2+SSAA&filter[2][]=2x2+SSAA+%2B+MLAA&filter[2][]=4&filter[2][]=8&filter[2][]=FXAA&filter[2][]=FXAA+%2B+2x2+SSAA&filter[2][]=FXAA+%2B+SSAA&filter[2][]=FXAA+hoch&filter[2][]=MLAA&filter[2][]=Post+AA&filter[3][]=16&aa=on)
so ists richtig rum, 15% dürfte gut passen
Sleeping Dogs
1920 x 1080 [FXAA + 2x2 SSAA/16xAF] 27,8 39,3 (+41,4%)
ist aber schon übel ^^ 4k Test der aktuellen PCGH ist da auch ganz interessant
Ailuros
2013-02-08, 15:18:23
Dieser Hinweis bringt mich zu der Frage, wie sich GK114 eigentlich zu GK110 verhalten wird... (zeitlich und leistungsmäßig)
Um es noch klarer zu machen: ich hab nicht die geringste Ahnung wie Titan genau aussieht oder was er leisten kann. Ich hab lediglich ein muerbes Bauchgefuehl in letzter Zeit bekommen. Nennen wir es worst case scenario:
GTX Titan = GTX680+30% oder 7970GE+15%
Leerlauf von beiden bis Q3 2013?
GTX"780?" (GK204) = GTX680+15%
HD 8970 = GTX680+30% oder 7970GE+15%
GTX Titan with cheese? = 8970+15% (ein cluster mehr + 10% mehr Frequenz?)
Unter dem hypothetischen Leerlauf von beiden IHVs bis Herbst oder vor Weihnachten und auch unter der moeglichen begrenzten Verfuegbarkeit von GK110, kann NV locker die Milchkuh ausmelken. Volumen haben sie ja so oder so nicht ergo verkauft man bei sehr hohen Margen das was gerade verfuegbar ist und man hat damit auf mehreren Fronten ausgesorgt.
hier haste einige spiele in deiner auflösung als vergleich.
7970boost vs. gtx 680 (http://ht4u.net/reviews/2013/50_directx_11_grafikkarten_im_test/index36.php?dummy=&advancedFilter=true&prod[]=AMD+Radeon+HD+7970+Boost&prod[]=NVIDIA+GeForce+GTX+680&filter[0][]=1920&filter[2][]=2x2+SSAA&filter[2][]=2x2+SSAA+%2B+MLAA&filter[2][]=4&filter[2][]=8&filter[2][]=FXAA&filter[2][]=FXAA+%2B+2x2+SSAA&filter[2][]=FXAA+%2B+SSAA&filter[2][]=FXAA+hoch&filter[2][]=MLAA&filter[2][]=Post+AA&filter[3][]=16&aa=on)
Tja ich spiele hauptsächlich so...
http://www.abload.de/thumb/sotbu50.jpg (http://www.abload.de/image.php?img=sotbu50.jpg)
und da sinds eben nur 5%.
Nur 30% Titan wäre hart...
aufkrawall
2013-02-08, 16:33:56
Ist auch mal die Frage, ob bei 1080p 4xSGSSAA die 7970 GE überhaupt noch schneller als eine 680 ist.
Neurosphere
2013-02-09, 09:48:45
Woher kommt eigentlich diese 85% Aussage seitens NV die in den News steht? Ich hab nie was davon gelesen das NV selbst gesagt hat sie würden 85% der Performance einer 690 erreichen.
OgrEGT
2013-02-09, 09:57:08
Woher kommt eigentlich diese 85% Aussage seitens NV die in den News steht? Ich hab nie was davon gelesen das NV selbst gesagt hat sie würden 85% der Performance einer 690 erreichen.
Das stammt aus dem SweClockers Artikel und bezieht sich auf NV als Quelle wenn ichs richtig verstanden habe.
Hübie
2013-02-09, 10:12:05
Könnte das hinkommen? Kenne die Punkte von anderen Karten/Systemen nicht und habe gerade keine Zeit das zu validieren.
Dritte Zeile:
http://www.abload.de/img/untitled81jof.jpg (http://www.abload.de/image.php?img=untitled81jof.jpg)
Quelle (http://www.overclock.net/t/1354372/nvidia-gk110-titan-performance-analysis/60#post_19243685)
Ailuros
2013-02-09, 10:18:10
Mensch der Scheiss mit den unendlichen fakes ist wirklich nicht mehr zu ertragen. Ich dachte wir haben so weit etabliert dass GK110 desktop GeForce GTX Titan heissen wird oder?
Hübie
2013-02-09, 10:22:10
Na ja so dachte ich mir das auch, aber da ich mich mit den Punkten nicht auskenne dacht ich, ich frag einfach mal. Natürlich ist mir klar das es wohl zu 99% wieder fake-mist ist =)
Aber den 1% will ich ebenfalls haben :biggrin:
Edit: GTX580@770 MHz und i5 @4,5 GHz machen 4.500 Punkte. Habs eben getestet.
Ailuros
2013-02-09, 10:28:23
Na ja so dachte ich mir das auch, aber da ich mich mit den Punkten nicht auskenne dacht ich, ich frag einfach mal. Natürlich ist mir klar das es wohl zu 99% wieder fake-mist ist =)
Aber den 1% will ich ebenfalls haben :biggrin:
Edit: GTX580@770 MHz und i5 @4,5 GHz machen 4.500 Punkte. Habs eben getestet.
Damit die angeblichen 780 Resultate Sinn machen, muesste GK110 unter dem test verdammt ALU limitiert sein im Vergleich zum GF110.
Hübie
2013-02-09, 10:36:18
Kann zu dem Test nix sagen. Hab den eben angemacht und mal durchruckeln lassen. Aber technisch habe ich mich 0,0 damit befasst. ;D Bin nun auch wieder weg :tongue:
Vllt. ist 780!=Titan - wer weiß was die sich da wieder ausgedacht haben um den Kunden und Konkurrenten eins auszuwischen...
AnarchX
2013-02-09, 10:44:47
Die GTX 680 war zeitweise auch eine GTX 670 Ti. Vielleicht ist es noch ein Sample ohne Titan-Kennung im BIOS/Treiber.
Interessant wäre ob Futuremark eine umbenannte GPU so einfach übernimmt oder als Unknown GPU bezeichnet.
Hübie
2013-02-09, 10:51:19
Der liest das aus was im Geräte-Manager steht. Nur der Treiber wird dann nicht erkannt und entsprechend gilt das Ergebnis als nicht validiert.
Edgecrusher86
2013-02-10, 13:15:50
http://www.abload.de/img/3dmark11xspekut1ydi.jpg
Könnte schon hinkommen, auch wenn es wohl ein Sahnehäubchen für Titan sein dürfte.
Eventuell 10% höher als im Schnitt ingame, wird man sehen. :)
Quelle: http://flyingsuicide.net/news/exclusive-geforce-gtx-titan-performance-leaked/
Videocardz hatte das angebliche PCB-Bild von WCCF noch einmal etwas geschärft:
http://www.abload.de/img/geforce-titanoyaql.jpg
Quelle: http://videocardz.com/39399/nvidia-geforce-gtx-titan-pcb-pictured-sort
MfG
Edge
Duplex
2013-02-10, 13:42:45
Das Bild müsste ein Fake sein
GT200b PCB von Zotac, sieht ähnlich aus...
http://www.abload.de/img/zotacgt200b8bjoy.jpg
Also eigentlich sieht's völlig anders aus (Speicher, kein NVIO), aber derzeit kann man wohl nichts ausschließen. Interessant finde ich, dass man die Ausgänge verbirgt.
MfG,
Raff
Skysnake
2013-02-10, 13:57:52
Das Bild müsste ein Fake sein
GT200b PCB von Zotac, sieht ähnlich aus...
http://www.abload.de/img/zotacgt200b8bjoy.jpg
Und wie kommst du drauf? Es gibt mehr als genug Unterschiede, und die wären schon SEHR gut rein retuschiert.
Das sich prinzipiell gewisse Dinge ähneln liegt einfach daran, das es eben nur eine endliche Anzahl an sinnvollen Lösungen gibt, und man sich immer an ähnlichen Lösungen orientiert, die es schon gibt.
@Raff:
Eventuell sieht man ja ein 3Slot Bracket.
gnahr
2013-02-10, 14:00:29
orangene dvi-ausgänge?
also für zotac ist das in der tat normal, aber als early-ref-shot?
Godmode
2013-02-10, 14:42:20
Das Bild müsste ein Fake sein
GT200b PCB von Zotac, sieht ähnlich aus...
http://www.abload.de/img/zotacgt200b8bjoy.jpg
Witzig, die Kondis sind genau an den selben stellen, auch der Fan-Connector. Das Layout ist anscheinend gut. Aber sonst ist schon vieles anders, wie Raff und Co. schon sagten.
Eventuell sieht man ja ein 3Slot Bracket.
Nein, man sieht eindeutig, dass es nur eine 2-Slot Blende ist.
edit:
Eventuell sind da gar keine Display Ausgänge drauf, und es ist andere Tesla Karte?
Zergra
2013-02-10, 15:03:09
Ich denke schon das es eine Tesla Karte ist, wieso sollte man sonst die Unschärfe hinzufügen ?
Godmode
2013-02-10, 15:15:26
Ich denke schon das es eine Tesla Karte ist, wieso sollte man sonst die Unschärfe hinzufügen ?
Du meinst Titan oder?
Naja weil faken ja so lustig ist... :rolleyes:
M4xw0lf
2013-02-10, 15:29:10
Mir kommts ja so vor, als säße der angebliche GK110 Chip perspektivisch nicht ganz richtig auf dem PCB... sprich: er könnte da reinmontiert sein.
boxleitnerb
2013-02-10, 16:04:18
Im XS-Forum denkt man auch, dass es ein Fake ist. Die Ähnlichkeiten sind zu frappierend. Grad bei den Speicherchips sieht es so aus, als habe man welche wegretouchiert, deshalb die komische Anordnung von 2/4/6.
OBR meint ebenfalls, das das PCB-Bild Fake ist. So wie alles andere im Netz außer den Infos von Sweclockers. Benchmarks gibts auch von ihm:
http://www.abload.de/img/gtx-titan-3dmarkreu9a.png (http://www.abload.de/image.php?img=gtx-titan-3dmarkreu9a.png)
This is Titan! Yeah, first real numbers! ~ OBR-HARDWARE (http://www.obr-hardware.com/2013/02/this-is-titan-yeah-first-real-numbers.html)
Firestrike kommt sehr gut hin, sieht insgesamt recht plausibel aus.
Godmode
2013-02-10, 16:42:47
Im XS-Forum denkt man auch, dass es ein Fake ist. Die Ähnlichkeiten sind zu frappierend. Grad bei den Speicherchips sieht es so aus, als habe man welche wegretouchiert, deshalb die komische Anordnung von 2/4/6.
OBR meint ebenfalls, das das PCB-Bild Fake ist. So wie alles andere im Netz außer den Infos von Sweclockers. Benchmarks gibts auch von ihm:
http://www.abload.de/img/gtx-titan-3dmarkreu9a.png (http://www.abload.de/image.php?img=gtx-titan-3dmarkreu9a.png)
This is Titan! Yeah, first real numbers! ~ OBR-HARDWARE (http://www.obr-hardware.com/2013/02/this-is-titan-yeah-first-real-numbers.html)
Firestrike kommt sehr gut hin, sieht insgesamt recht plausibel aus.
Das sieht gut aus im Vergleich zur 680. Ich hoffe das der Preis falsch ist und die Karte doch billiger zu haben sein wird.
edit: omfg was im Luxx wieder abgeht...
boxleitnerb
2013-02-10, 16:47:00
Ja ich glaub die im Luxx haben schon üble Entzugserscheinungen :D
Godmode
2013-02-10, 16:51:19
Ja ich glaub die im Luxx haben schon üble Entzugserscheinungen :D
Ich meine eigentlich die *** die da mitreden wollen und GK110 sowieso nie kaufen würden und dann noch alles in Frage stellen. Zuviel VRam, zu wenig Leistung. Eine Übertaktete Karte schaft ja fast das selbe, Apfel sind Birnen....
;D
LSSJBroly
2013-02-10, 17:04:14
Eine Übertaktete Karte schaft ja fast das selbe, Apfel sind Birnen....
;D
Aber das ist doch die Frage: Wird der Titan die Überkarte? Ich bezweifle das langsam immer mehr. Selbst bei guten +50% zur GTX 680, stehen da "nur" noch rund +35% gegenüber der HD 7970 GHz Ed. und sind eben 35% das Merkmal, was solch eine Karte zur Überkarte macht? Ich denke da einfach an die 8800GTX -> über 60% schneller als die direkte Konkurenz, da wäre ein solch hoher Preis gerechtfertigt. Aber so...
Außerdem: eine HD 7970 mit 1300 MHz sollte man nicht unterschätzen. Da liegen dann nur noch rund 10% zwischen GK110 und dieser (Klar, GK110 wird man wohl auch hochziehen können, aber um wie viel genau, dass muss sich noch herrausstellen)
Godmode
2013-02-10, 17:07:04
Aber das ist doch die Frage: Wird der Titan die Überkarte? Ich bezweifle das langsam immer mehr. Selbst bei guten +50% zur GTX 680, stehen da rund +35% gegenüber der HD 7970 GHz Ed. und sind eben 35% das Merkmal, was solch eine Karte zur Überkarte macht? Ich denke da einfach an die 8800GTX -> über 60% schneller als die direkte Konkurenz, da wäre ein solch hoher Preis gerechtfertigt. Aber so...
Die 7970 war ja von Anfang an schon fetter als ne 680. Die 7970 legt dann noch etwas drauf. Wären GK110 und GHz Ed zu selben Zeit erschienen, wäre alles wie beim alten gewesen. Wenn GK110 nicht ordentlich viel Takt bekommt, wirds halt ein netter Refresh zur 680, nicht mehr.
Überkarten erwarte ich schon lange nicht mehr, zu oft bin ich enttäuscht worden.
Wenn eine stark übertaktete GHz Edition fast die gleiche Leistung wie Titan bringt, dann sagt das was genau aus? Entweder ich vergleiche Stock vs Stock oder Oc vs Oc.
LSSJBroly
2013-02-10, 17:13:41
Wenn eine stark übertaktete GHz Edition fast die gleiche Leistung wie Titan bringt, dann sagt das was genau aus? Entweder ich vergleiche Stock vs Stock oder Oc vs Oc.
Siehe
Außerdem: eine HD 7970 mit 1300 MHz sollte man nicht unterschätzen. Da liegen dann nur noch rund 10% zwischen GK110 und dieser (Klar, GK110 wird man wohl auch hochziehen können, aber um wie viel genau, dass muss sich noch herrausstellen)
Jetzt gehen wir mal aus, dass nVidia ihre Karte mit einer sehr niedrigen Spannung laufen lässt ->OC ist dadurch schon sogut wie kaum möglich, GPU-Boost funkt da noch mehr dazwischen. Ich bleibe dabei: GK110 als Titan und als Heilsbringer zu vermarkten ist der größte Rotz, den nVidia in den letzten Jahren gebracht hat.
Nightspider
2013-02-10, 17:20:46
Ich meine eigentlich die *** die da mitreden wollen und GK110 sowieso nie kaufen würden und dann noch alles in Frage stellen. Zuviel VRam, zu wenig Leistung. Eine Übertaktete Karte schaft ja fast das selbe, Apfel sind Birnen....
;D
Jo das nervt. Die meisten die mitreden wollen, würden sich eh nie so eine Karte kaufen und reden dann von den Bedürfnissen und das 6GB unmöglich und unrealistisch sind. :rolleyes:
Godmode
2013-02-10, 17:24:30
Siehe
Jetzt gehen wir mal aus, dass nVidia ihre Karte mit einer sehr niedrigen Spannung laufen lässt ->OC ist dadurch schon sogut wie kaum möglich, GPU-Boost funkt da noch mehr dazwischen. Ich bleibe dabei: GK110 als Titan und als Heilsbringer zu vermarkten ist der größte Rotz, den nVidia in den letzten Jahren gebracht hat.
Ja kann durchaus sein. Seit wann gibts die GHz Edition genau? Man könnte jetzt sagen, GHz Edition ist und Titan sind Konkurenten. IMO hatten wir diese Situation schon öfters in den letzten Jahren. Nvidia versuchte oft Überkarten zu bauen, oder gab das zumindest nach außen hin an. AMD ist dann meistens mit kleinere Chips ziemlich gut gefahren.
LSSJBroly
2013-02-10, 17:28:13
Natürlich ist die HD 7970 GHz Ed. die direkte Konkurenz zum Titan, es gibt schließlich nichts schnelleres (Single-GPU) von AMD. Und sobald die HD 8970 erscheint, ist eben das die direkte Konkurenz zu Titan. Selbst wenn die HD 8970 "nur" rund 20% auf die HD 7970 GHz Ed. draufpacken sollte, liegen Titan, die vermeindliche Überkarte, und AMDs zukünftiges Topmodell nur rund 13% auseinander. Die Frage ist eigentlich nur, wann diese erscheint... wie es aktuell aussieht, dauerts wohl noch etwas... (3.-4. Q?)
Godmode
2013-02-10, 17:33:02
Natürlich ist die HD 7970 GHz Ed. die direkte Konkurenz zum Titan, es gibt schließlich nichts schnelleres (Single-GPU) von AMD. Und sobald die HD 8970 erscheint, ist eben das die direkte Konkurenz zu Titan. Selbst wenn die HD 8970 "nur" rund 20% auf die HD 7970 GHz Ed. draufpacken sollte, liegen Titan, die vermeindliche Überkarte, und AMDs zukünftiges Topmodell nur rund 13% auseinander. Die Frage ist eigentlich nur, wann diese erscheint... wie es aktuell aussieht, dauerts wohl noch etwas... (3.-4. Q?)
Naja man muss auch sagen, den ganzen Hype um die Titan haben wir auch selber aufgebaut. Nvidia hat nie gesagt, dass sie jetzt die Überkarte bringen.. ok das sagt Jensen dann am Launchtag. ;D
PCGH_Carsten
2013-02-10, 17:35:48
Also eigentlich sieht's völlig anders aus (Speicher, kein NVIO), aber derzeit kann man wohl nichts ausschließen. Interessant finde ich, dass man die Ausgänge verbirgt.
MfG,
Raff
Und wie kommst du drauf? Es gibt mehr als genug Unterschiede, und die wären schon SEHR gut rein retuschiert.
Das sich prinzipiell gewisse Dinge ähneln liegt einfach daran, das es eben nur eine endliche Anzahl an sinnvollen Lösungen gibt, und man sich immer an ähnlichen Lösungen orientiert, die es schon gibt.
Ich seh da nichts, was nicht ein durchschnittlich begabter Photoshopper in 10 Minuten hingebastelt hätte.
Fehlender NVIO: Die "Bauteile" an dieser beim GK110 sind 1:1 kopiert aus dem Bereich darunter.
Speicherchips oben:
- Auf dem "GK110" sind sie verdächtig unzentriert
- Im Vergleich zu den 285-Markierungen auf dem PCB fällt auf, dass der "GK110" oben links vom Die in dem aufgezeichneten Kreis genau die Lücke hat, welche beim GT200b durch einen Speicherchip bedingt wird. Oben rechts ist die Stelle in der PCB-Markierung zwar fortgemalt, aber genau an der Stelle, wo GT200b einen Speicherchip gehabt hätte, ist es beim "GK110" seltsam unscharf.
Das Zotac-Bild nach 5 Minuten MS Paint (Copy-and-Paste) und XNView (Gauß'scher Blur 11x11) - den Metallkranz hätte ich als Fälscher lieber schnell abgeschraubt.
boxleitnerb
2013-02-10, 17:36:34
Ach, wenn das Ding Titan heißt, erzeugt es den Hype doch schon von ganz alleine. So wie Bulldozer :D
LSSJBroly
2013-02-10, 17:37:10
Nvidia hat nie gesagt, dass sie jetzt die Überkarte bringen.. ok das sagt Jensen dann am Launchtag. ;D
Naja, dass nVidia die Karte "Titan" nennt, sagt doch wohl schon alles;)
Godmode
2013-02-10, 17:37:54
Ich seh da nichts, was nicht ein durchschnittlich begabter Photoshopper in 10 Minuten hingebastelt hätte.
Fehlender NVIO: Die "Bauteile" an dieser beim GK110 sind 1:1 kopiert aus dem Bereich darunter.
Speicherchips oben:
- Auf dem "GK110" sind sie verdächtig unzentriert
- Im Vergleich zu den 285-Markierungen auf dem PCB fällt auf, dass der "GK110" oben links vom Die in dem aufgezeichneten Kreis genau die Lücke hat, welche beim GT200b durch einen Speicherchip bedingt wird. Oben rechts ist die Stelle in der PCB-Markierung zwar fortgemalt, aber genau an der Stelle, wo GT200b einen Speicherchip gehabt hätte, ist es beim "GK110" seltsam unscharf.
Du hast recht, sogar die Löcher sind gleich?
IMO Fake
Naja, dass nVidia die Karte "Titan" nennt, sagt doch wohl schon alles;)
Naja weil sie halt auch im Titan Super Computer verwendet wird.
LSSJBroly
2013-02-10, 17:39:07
@Box
Na dann hoffen wir mal nicht, dass Titan in die selbe Kerbe wie Bulli einschlagen wird:freak:
Godmode
2013-02-10, 17:39:42
@Box
Na dann hoffen wir mal nicht, dass Titan in die selbe Kerbe wie Bulli einschlagen wird:freak:
Wäre eh wieder mal Zeit für einen richtigen Fail bei NV. ;D
LSSJBroly
2013-02-10, 17:41:55
Wäre eh wieder mal Zeit für einen richtigen Fail bei NV. ;D
Naja, GF110 ist noch nichmal so lange her:D
Naja weil sie halt auch im Titan Super Computer verwendet wird.
Und? GF100 und GF110, sowie alle anderen High-End Chips haben es auch in Super Computer geschafft. macht da GK110 was anderes? Ok, GK110 liefert dem aktuell schnellsten Super Computer die Leistung, aber dennoch, meiner Meinung nach wäre eine klassische Klassifizierung ala GTX 780 weiterhin besser gewesen. GK110 ist und bleibt eben nichts wirklich besonderes, ist eben ein genauso monströser Chip wie schon der GT200 oder der GF100/110
Godmode
2013-02-10, 17:48:54
Naja, GF110 ist noch nichmal so lange her:D
Und? GF100 und GF110, sowie alle anderen High-End Chips haben es auch in Super Computer geschafft. macht da GK110 was anderes? Ok, GK110 liefert dem aktuell schnellsten Super Computer die Leistung, aber dennoch, meiner Meinung nach wäre eine klassische Klassifizierung ala GTX 780 weiterhin besser gewesen. GK110 ist und bleibt eben nichts wirklich besonderes, ist eben ein genauso monströser Chip wie schon der GT200 oder der GF100/110
Also entweder hab ich schon wieder alles Vergessen, aber IMO war doch GF110 in Ordnung? Und GF100 auch nur etwas warm ^^
Ich dachte da so an Kaliber wie NV3x der unüberhörbare ;D
Finde GK110 auch nicht besonders. Ich werde zwei oder mehr davon kaufen und dann eine lange Zeit damit überbrücken.
Skysnake
2013-02-10, 18:32:54
Jo das nervt. Die meisten die mitreden wollen, würden sich eh nie so eine Karte kaufen und reden dann von den Bedürfnissen und das 6GB unmöglich und unrealistisch sind. :rolleyes:
Wer sagt, das 6GB unmöglich sind? :ugly:
Ich seh da nichts, was nicht ein durchschnittlich begabter Photoshopper in 10 Minuten hingebastelt hätte.
Fehlender NVIO: Die "Bauteile" an dieser beim GK110 sind 1:1 kopiert aus dem Bereich darunter.
Speicherchips oben:
- Auf dem "GK110" sind sie verdächtig unzentriert
- Im Vergleich zu den 285-Markierungen auf dem PCB fällt auf, dass der "GK110" oben links vom Die in dem aufgezeichneten Kreis genau die Lücke hat, welche beim GT200b durch einen Speicherchip bedingt wird. Oben rechts ist die Stelle in der PCB-Markierung zwar fortgemalt, aber genau an der Stelle, wo GT200b einen Speicherchip gehabt hätte, ist es beim "GK110" seltsam unscharf.
Das Zotac-Bild nach 5 Minuten MS Paint (Copy-and-Paste) und XNView (Gauß'scher Blur 11x11) - den Metallkranz hätte ich als Fälscher lieber schnell abgeschraubt.
Kannst du mal bitte den Link zum Orginalbild bitte raussuchen?
Über die google Bildersuche finde ich leider nichts. Das PCB-Layout ist mir auch komplett unbekannt. Welche Karte hatte denn das? Daher meine Annahme "kein Fake" auch durchaus schlüssig.
Ich hab sicherlich ne halbe Stunde bis Stunde PCBs geschaut, und das war nicht dabei...
Du hast recht, sogar die Löcher sind gleich?
IMO Fake
Naja weil sie halt auch im Titan Super Computer verwendet wird.
Sieht scheinbar so aus, aber ich würde dennoch gern mal das Orginal sehen
M4xw0lf
2013-02-10, 18:49:17
Kannst du mal bitte den Link zum Orginalbild bitte raussuchen?
Über die google Bildersuche finde ich leider nichts. Das PCB-Layout ist mir auch komplett unbekannt. Welche Karte hatte denn das? Daher meine Annahme "kein Fake" auch durchaus schlüssig.
Ich hab sicherlich ne halbe Stunde bis Stunde PCBs geschaut, und das war nicht dabei...
Sieht scheinbar so aus, aber ich würde dennoch gern mal das Orginal sehen
Öhm hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9649026#post9649026
:tongue:
prinz_valium
2013-02-10, 19:28:42
boah kotzt mich das ganze an
wie lange soll ich noch auf das ersetzen meiner 470 warten?
glückwunsch an alle, die die 680 am relesetag für 460 ergattern konnten...
scheibar wird es grafikkarten mit einem guten P/L erst wieder 2015 geben
wie ich doch so blauäugig an die 499 für gk110 topdog und 299 für gk104 geglaubt hatte :D
Godmode
2013-02-10, 19:36:02
boah kotzt mich das ganze an
wie lange soll ich noch auf das ersetzen meiner 470 warten?
glückwunsch an alle, die die 680 am relesetag für 460 ergattern konnten...
scheibar wird es grafikkarten mit einem guten P/L erst wieder 2015 geben
wie ich doch so blauäugig an die 499 für gk110 topdog und 299 für gk104 geglaubt hatte :D
Tja wer hat nicht daran gelaubt. Ich wollte auch noch auf GK110 warten hab mich dann aber doch für die 690er entschieden, was im Nachhinein auch ne gute Entscheidung war.
Konami
2013-02-10, 19:43:31
Ich bin wirklich gespannt, ob nVidia dann gegen Ende des Jahres GK110 als "GTX 780/770" auch für die breitere Masse zugänglich macht, oder ob sie gleich einen GM104 in 28nm bringen. In jedem Fall wirds für mich dann auch dringend Zeit zum Aufrüsten. Die GTX 275 wird langsam schmerzhaft. X-D
PCGH_Carsten
2013-02-10, 19:44:12
Öhm hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9649026#post9649026
:tongue:
Yep. Skysnake hatte es hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9649055#post9649055) sogar mitzitiert - auch wenn es nicht das Originalbild (von Zotac) ist.:eek:
Godmode
2013-02-10, 19:46:49
Ich bin wirklich gespannt, ob nVidia dann gegen Ende des Jahres GK110 als "GTX 780/770" auch für die breitere Masse zugänglich macht, oder ob sie gleich einen GM104 in 28nm bringen. In jedem Fall wirds für mich dann auch dringend Zeit zum Aufrüsten. Die GTX 275 wird langsam schmerzhaft. X-D
Ich denke mal da gibt es dann den GK104 Nachfolger um 500 €, in Q3 oder Q4. Mexwell wird noch etwas länger dauern, vielleicht Mitte 2014 und in 28nm.
Godmode
2013-02-10, 19:48:53
Yep. Skysnake hatte es hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9649055#post9649055) sogar mitzitiert - auch wenn es nicht das Originalbild (von Zotac) ist.:eek:
Wahrscheinlich hat das wieder der liebe Marc fabriziert und in der PCGH lachen sie sich schon seit knapp ner Woche schlapp ;)
Skysnake
2013-02-10, 19:50:41
Yep. Skysnake hatte es hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9649055#post9649055) sogar mitzitiert - auch wenn es nicht das Originalbild (von Zotac) ist.:eek:
Hehe :hammer:
Da war ich wohl total neben der Kappe :ugly: DAS tut ja richtig weh...
100% bin ich mir aber noch nicht ganz sicher, auch wenns 99,999% sind. Paar Sachen sehen aber schon etwas seltsam aus. Die Spannungswandler bestehen aus 9 Elementen, wobei da wohl einfach freudig kopiert wurde...
Der Fake ist auf jeden Fall nicht schlecht gemacht. Auch der 8 Pin sieht gut gemacht aus, genau wie die sonstige Anordnung der Bauteile. Was ich mich nur frage ist, warum dann der unterste Chip auf der rechten Seite so aus dem Rahmen fällt :confused:
Da hat man ja nichts dran drehen müssen.
EDIT:
Jetzt raff ich auch, was das unter dem Chip ist. Ich dachte, das wären nochmal paar Bauteile, aber das ist wohl einfach das Kupfer des Groundlayers, wenn man den Rahmen entfernt :-_-:
Gibt trotzdem noch echt viele Differenzen. Da hat sich wirklich jemand richtig Mühe gegeben.
PS: Ich ich hab das Bild sicherlich versaubetelt, weil da kein Link zum Orginal dabei war, und ichs beim Suchen nicht gefunden hatte über die google Bildersuche... Sachen ohne Quelle blende ich wohl echt gekonnt aus :ugly: Naja, für die Diplomarbeit ja gute Voraussetzungen ;D
john carmack
2013-02-10, 19:51:24
das teil soll wirklich 800 steine kosten? Puhhhhhhhh!
boxleitnerb
2013-02-10, 19:53:11
Ich denke mal da gibt es dann den GK104 Nachfolger um 500 €, in Q3 oder Q4. Mexwell wird noch etwas länger dauern, vielleicht Mitte 2014 und in 28nm.
Warum so spät eigentlich? An Maxwell dürfte ja schon ziemlich lange gearbeitet werden. Wenn man eh 28nm nutzt, hindert einen ja niemand, den statt dem Refresh zu bringen. Ich wüsste eh nicht, was man an Kepler noch verbessern soll, was nicht schon die OC-Versionen hinbekommen.
Godmode
2013-02-10, 19:54:49
Warum so spät eigentlich? An Maxwell dürfte ja schon ziemlich lange gearbeitet werden. Wenn man eh 28nm nutzt, hindert einen ja niemand, den statt dem Refresh zu bringen. Ich wüsste eh nicht, was man an Kepler noch verbessern soll, was nicht schon die OC-Versionen hinbekommen.
Ka war aus der Hüfte geschossen. Wenn ich genau nachdenke würde ein Refresh von GK104 im März Sinn machen quasi als Geforce 700 Serie. In Q4 bzw. Q1 14 könnte dann Maxwell antanzen.
dargo
2013-02-10, 20:20:11
boah kotzt mich das ganze an
wie lange soll ich noch auf das ersetzen meiner 470 warten?
glückwunsch an alle, die die 680 am relesetag für 460 ergattern konnten...
scheibar wird es grafikkarten mit einem guten P/L erst wieder 2015 geben
wie ich doch so blauäugig an die 499 für gk110 topdog und 299 für gk104 geglaubt hatte :D
Eine GTX670 für ~240€ ist doch gar nicht so schlecht. ;)
http://www.amazon.de/gp/offer-listing/B009GPHYIQ/ref=dp_olp_new?ie=UTF8&condition=new
Godmode
2013-02-10, 20:23:25
Eine GTX670 für ~240€ ist doch gar nicht so schlecht. ;)
http://www.amazon.de/gp/offer-listing/B009GPHYIQ/ref=dp_olp_new?ie=UTF8&condition=new
Ich hoffe inständig, dass das ein Vorbote für einen niedrigen Titan Preis ist. Nvidia seid mal nicht so gierig, ihr habt jetzt fast ein Jahr lang sehr gut verdient.
dargo
2013-02-10, 20:24:45
Ich hoffe inständig, dass das ein Vorbote für einen niedrigen Titan Preis ist. Nvidia seid mal nicht so gierig, ihr habt jetzt fast ein Jahr lang sehr gut verdient.
Könnte auch ne Reaktion auf das Spielebundle von AMD sein, wer weiß? :D
BigKid
2013-02-10, 21:01:55
Ich hoffe einfach dass der Preis noch etwas abrutscht.
Sonst würde ich ja fast genötigt doch noch zu SLI zu greifen und mir ne Zweite GTX670 dazu zu holen - dabei will ich das eigentlich nicht.
Anderseits - erstmal abwarten und Tee trinken ob Crysis 3 in 2560x1440 anfängt zu zuckeln oder ob das noch geht...
Übrigens zuckeln - Dead Space 3 läuft gut (scheint auch auf 30fps festgenagelt) und belegt lächerliche 500MB Speicher auf der Grafikkarte - HighRes Textures FTW ;).
Godmode
2013-02-10, 21:11:17
Könnte auch ne Reaktion auf das Spielebundle von AMD sein, wer weiß? :D
Gut möglich, oder nur ne sehr kurzfristige Aktion. Am 18.2. wird hoffentlich etwas Klarheit in die Sache gebracht.
Zergra
2013-02-10, 21:20:13
Könnte es möglich sein das AMD und NV beide nur ein neues Flaggschiff rausbringen ? Die alten Karten umlabeln. Genau wie NV das bei 400Serie zur 500S gemacht hat ? Dort gab es auch nicht gerade viele Gerüchte das dies passieren wird. Das könnte auch ein Hinweiß auf die AMD OEM Labels der HD8000 sein..... und darauf das der Preis der 670GTX sinkt.
Godmode
2013-02-10, 21:24:09
Könnte es möglich sein das AMD und NV beide nur ein neues Flaggschiff rausbringen ? Die alten Karten umlabeln. Genau wie NV das bei 400Serie zur 500S gemacht hat ? Dort gab es auch nicht gerade viele Gerüchte das dies passieren wird. Das könnte auch ein Hinweiß auf die AMD OEM Labels der HD8000 sein..... und darauf das der Preis der 670GTX sinkt.
Durchaus denkbar. Das spräche dann auch für einen normal gepreisten GK110. Die Hoffnung stirbt zuletzt.
LSSJBroly
2013-02-10, 21:26:13
Durchaus denkbar. Das spräche dann auch für einen normal gepreisten GK110. Die Hoffnung stirbt zuletzt.
Naja, außer AMD würde ihre neue Karte ebnfalls für über 600€ anbieten:freak:
Naja, ich hoffe ja auch weiterhin, dass die Preise wenigstens einigermaßen Human bleiben:D
Godmode
2013-02-10, 21:33:46
Naja, außer AMD würde ihre neue Karte ebnfalls für über 600€ anbieten:freak:
Naja, ich hoffe ja auch weiterhin, dass die Preise wenigstens einigermaßen Human bleiben:D
Gibt es Gerüchte, dass da was kommt? Ist ja schon verdächtig wenn man gar nichts hört, nicht?
Skysnake
2013-02-10, 21:39:28
Nö, dazu gibt es absolut keine Andeutungen. Wie gesagt, die Positionierung am Markt stelle ich mir da auch eher schwierig vor :ugly:
Zergra
2013-02-10, 21:41:15
Nö, dazu gibt es absolut keine Andeutungen. Wie gesagt, die Positionierung am Markt stelle ich mir da auch eher schwierig vor :ugly:
Außer der Kommentar von Baumann ;D
Godmode
2013-02-10, 21:43:50
Nö, dazu gibt es absolut keine Andeutungen. Wie gesagt, die Positionierung am Markt stelle ich mir da auch eher schwierig vor :ugly:
Radeon 7980 mit etwas mehr Takt als die GHz Edition? Sollte doch machbar sein. Schneller Speicher und TDP richtig 300-350W und fertig ist das neue Produkt.
Skysnake
2013-02-10, 21:46:35
Das wäre lächerlich...
Mit der GHz-Edition wars ja noch hinnehmbar, da auch einige kleine Verbesserungen wie der Boost gekommen sind, aber ein zweites mal? Neee.... da würde man sich lächerlich machen...
Zumal da auch nicht mehr viel Luft ist. Da müsste man extrem die Keule raus holen... Kann ich mir nicht vorstellen.
Godmode
2013-02-10, 21:48:44
Das wäre lächerlich...
Mit der GHz-Edition wars ja noch hinnehmbar, da auch einige kleine Verbesserungen wie der Boost gekommen sind, aber ein zweites mal? Neee.... da würde man sich lächerlich machen...
Zumal da auch nicht mehr viel Luft ist. Da müsste man extrem die Keule raus holen... Kann ich mir nicht vorstellen.
Schade, weil dann können wir uns wohl wirklich auf gesalzene Titan Preise einstellen.
aufkrawall
2013-02-10, 21:59:13
Mit der GHz-Edition wars ja noch hinnehmbar, da auch einige kleine Verbesserungen wie der Boost gekommen sind
Dieser "Boost" war keine Verbesserung.
Welche anderen meinst du denn noch?
Mir fallen gerade keine ein.
Zergra
2013-02-10, 22:00:18
Das wäre lächerlich...
Mit der GHz-Edition wars ja noch hinnehmbar, da auch einige kleine Verbesserungen wie der Boost gekommen sind, aber ein zweites mal? Neee.... da würde man sich lächerlich machen...
Zumal da auch nicht mehr viel Luft ist. Da müsste man extrem die Keule raus holen... Kann ich mir nicht vorstellen.
1.2Ghz + 1.75Ghz Speichertakt
+ 400W TDP :D
aber falsches Thema ;)
Die AMD-Partner schaffen zwischen 1.100 und 1.200 MHz Boost-Takt, Asus mit 3.300 MHz Speicher. AMD könnte einen Metal-Spin probieren oder einfach die Sahneteilchen selektieren und eine 1,3-GHz-Version mit mindestens 3,3er-Speicher wäre drin. Mit einer TDP von 300 Watt und gescheiter Kühlung (damit ist nicht der aktuelle Referenzmüll gemeint) ist das realistisch. Das Plus der Rechenleistung betrüge gegenüber der HD 7970 GHz Edition 24 Prozent (ausgehend vom 1.050-MHz-Boost). Da Tahiti nicht an der Speichertransferrate klebt, kann man von einem mittleren Fps-Plus im guten 20er-Bereich ausgehen.
[x] 1.337/3.500 MHz :biggrin:
MfG,
Raff
Godmode
2013-02-10, 22:52:33
Die AMD-Partner schaffen zwischen 1.100 und 1.200 MHz Boost-Takt, Asus mit 3.300 MHz Speicher. AMD könnte einen Metal-Spin probieren oder einfach die Sahneteilchen selektieren und eine 1,3-GHz-Version mit mindestens 3,3er-Speicher wäre drin. Mit einer TDP von 300 Watt und gescheiter Kühlung (damit ist nicht der aktuelle Referenzmüll gemeint) ist das realistisch. Das Plus der Rechenleistung betrüge gegenüber der HD 7970 GHz Edition 24 Prozent (ausgehend vom 1.050-MHz-Boost). Da Tahiti nicht an der Speichertransferrate klebt, kann man von einem mittleren Fps-Plus im guten 20er-Bereich ausgehen.
[x] 1.337/3.500 MHz :biggrin:
MfG,
Raff
Ob das in 300W reinpasst?
1337 MHz Core, das hätte schon was ^^
und 3500 Mem sollte überhaupt kein Problem sein, hab ich auf meiner 690 auch laufen.
horn 12
2013-02-10, 22:57:30
Somit würde es wohl recht eng werden mit Titan gegen Tahiti Extreme
Aber mal schauen ob überhaupt was kommt auf AMD ´s Seite.
Mit 300 Watt sind gerade 1.200/3.200 (Sapphire Toxic) oder 1.100/3.300 MHz (Asus Matrix Platinum) drin. 1.300 MHz Kerntakt ist gewiss nicht möglich, ohne nochmal an die Hardware zu gehen – das schaffen derzeit nur die allerbesten Tahitis mit 1,3 Volt mehr oder minder stabil (und sucken dann mehr als 350 Watt).
MfG,
Raff
LSSJBroly
2013-02-10, 23:00:28
Ob das in 300W reinpasst?
1337 MHz Core, das hätte schon was ^^
und 3500 Mem sollte überhaupt kein Problem sein, hab ich auf meiner 690 auch laufen.
Der höhere Speichertakt sollte allein schon wegen den 1,6V funktionieren. Aber wirklich ne HD 7970 mit 1337MHz hätte dann mal flockig 25% mehr Leistung als die GHz Ed.
Also (Milchmädchenrechnung an:D):
GTX 680 = 100%
HD 7970 GHz Ed. = 110%
HD 7970 @1,3MHz = 137,5%
GTX Titan = 150%
Also nur noch theoretisch einen Vorsprung von etwa 9% von Titan gegenüber der 1,4GHz HD 7970:freak: Wäre schon recht nice^^
PCGH_Carsten
2013-02-10, 23:05:12
AMD könnte einen Metal-Spin probieren oder einfach die Sahneteilchen selektieren und eine 1,3-GHz-Version mit mindestens 3,3er-Speicher wäre drin.
Wie würde eine Änderung bei den Verdrahtungsebenen denn die Taktbarkeit beeinflussen?
Godmode
2013-02-10, 23:07:31
Der höhere Speichertakt sollte allein schon wegen den 1,6V funktionieren. Aber wirklich ne HD 7970 mit 1337MHz hätte dann mal flockig 25% mehr Leistung als die GHz Ed.
Also (Milchmädchenrechnung an:D):
GTX 680 = 100%
HD 7970 GHz Ed. = 110%
HD 7970 @1,3MHz = 137,5%
GTX Titan = 150%
Also nur noch theoretisch einen Vorsprung von etwa 9% von Titan gegenüber der 1,4GHz HD 7970:freak: Wäre schon recht nice^^
Das wär schon was, somit gäbe es noch weniger Grund Titan für 900€ zu verkaufen. Oder AMD macht es einfach nacht auf verkauft die 1337-Edition auch aum 800-900€.
Das darfst aber nicht den Luxxern sagen, sonst drehen die gewisen wieder am Rad. ;D
Hab jetzt die Ignore-Liste updated, da sieht man dann nicht mehr viele Postings. ^^
Godmode
2013-02-10, 23:09:24
Wie würde eine Änderung bei den Verdrahtungsebenen denn die Taktbarkeit beeinflussen?
Eventuell um Nebensprechen zu verringern? Ich bin da leider ein Laie, aber Sky könnte als Physiker sicher mehr dazu sagen.
LSSJBroly
2013-02-10, 23:12:37
Das wär schon was, somit gäbe es noch weniger Grund Titan für 900€ zu verkaufen. Oder AMD macht es einfach nacht auf verkauft die 1337-Edition auch aum 800-900€.
Das darfst aber nicht den Luxxern sagen, sonst drehen die gewisen wieder am Rad. ;D
Hab jetzt die Ignore-Liste updated, da sieht man dann nicht mehr viele Postings. ^^
Ja, ist teilweise echt furchtbar, was da abgeht. Wie kann man nur so fanboygesteuert sein?:biggrin:
Naja, Wie Raff schon sagte, glaube eher weniger, dass so eine monster HD 7970 kommen würde. Da macht es einfach mehr sinn, der Karte +25% mehr Shader zu geben und den Takt nur geringmäßig zu erhöhen.
Ich bleibe einfach dabei. Titan ist einfach viel zu teuer, egal, wie man es biegen und drehen will.
derguru
2013-02-10, 23:38:31
och, amd braucht doch nur mehr gcn optimierte titel rauszubringen um in titan regionen anzukommen ohne groß oc ,mehr von Dirt Showdown. :lol:
Godmode
2013-02-10, 23:41:37
och, amd braucht doch nur mehr gcn optimierte titel rauszubringen um in titan regionen anzukommen ohne groß oc ,mehr von Dirt Showdown. :lol:
Das geht aber nicht in ein paar Monaten...
btw. aus dem Luxx:
http://clbenchmark.com/device-environment.jsp?config=14470292
Wenn die kolportiertien 80% (mit oc >300W) auf ne 690 erreicht werden ohne dieses ganze mGPU Gefrickel, daß ganze möglichst für 800 Steine, könnte ich meine Schmerzgrenze überschreiten.
So´n Teil muß man sowieso absolut ins GPU-Limit treiben. Mit schnellen 6GiB Ram sollte da schon was gehen.
Sowas holt man sich für gute BQ. Vielfach hilft nur DS, weil MSAA und damit auch SGSSAA teilweise gar nicht greifen.
Edgecrusher86
2013-02-10, 23:55:15
Habe nochmal die Werte von OBR umgerechnet. ;)
http://www.abload.de/img/titan3dmwkjvy.png
E: Ok, also wenn das vom CLBench stimmt, dann sind es 875 MHz (zumindest mit Boost), 14 SMX und auch 6GB (auch wenn er 64xx MB anzeigt).
MfG
Edge
Skysnake
2013-02-11, 00:46:08
Die AMD-Partner schaffen zwischen 1.100 und 1.200 MHz Boost-Takt, Asus mit 3.300 MHz Speicher. AMD könnte einen Metal-Spin probieren oder einfach die Sahneteilchen selektieren und eine 1,3-GHz-Version mit mindestens 3,3er-Speicher wäre drin. Mit einer TDP von 300 Watt und gescheiter Kühlung (damit ist nicht der aktuelle Referenzmüll gemeint) ist das realistisch. Das Plus der Rechenleistung betrüge gegenüber der HD 7970 GHz Edition 24 Prozent (ausgehend vom 1.050-MHz-Boost). Da Tahiti nicht an der Speichertransferrate klebt, kann man von einem mittleren Fps-Plus im guten 20er-Bereich ausgehen.
[x] 1.337/3.500 MHz :biggrin:
MfG,
Raff
Ja ne ist klar Raff ;D
Setz den Leuten doch nicht solche Flausen in den Kopf :freak:
Mit 300 Watt sind gerade 1.200/3.200 (Sapphire Toxic) oder 1.100/3.300 MHz (Asus Matrix Platinum) drin. 1.300 MHz Kerntakt ist gewiss nicht möglich, ohne nochmal an die Hardware zu gehen – das schaffen derzeit nur die allerbesten Tahitis mit 1,3 Volt mehr oder minder stabil (und sucken dann mehr als 350 Watt).
MfG,
Raff
Also meine 7970, die sichelrich nicht zu den schlechtesten gehört, braucht inkl leichter Grafikfehler für 1260/1950 1231/1643 mV.
Die CPU mit 3,81 GHz verbraucht dabei in Prime maximal 260W. In Heaven extreme, wo die CPU Last deutlich! geringer ist, spreng das Gesamtsystem die 500W Marke am Ende :ugly:
Bei 1300 MHz wirst du nicht nur >350W sein, sondern eher >>350W. Das wird sicherlich sogar mehr als 400W schon sein. Und das unter NORMALEN Bedingungen!
Wie würde eine Änderung bei den Verdrahtungsebenen denn die Taktbarkeit beeinflussen?
Puh... Das kannst du so pauschal nicht sagen. Du legst ja ein Design auf gewisse Taktraten aus, und die packt das Design, oder es packt die Taktraten eben nicht.
Ein Punkt sind die Laufzeiten von den Signalen. Die passen aber bei den Designs eigentlich immer soweit. Also komplett aus dem Ruder laufen Sie nicht, sonst könnte man mit egal wie viel Saft die Dinger nicht betreiben.
Je mehr Sie aber natürlich auseinander laufen, desto mehr muss man halt durch mehr Spannung die Signalflanken steiler machen. Das geht aber auch nur in gewissen Maße, und wir wohl eher nie das Problem sein bei derartig kleinen Strukturen.
Da wird das Übersprechen ein vielfaches an Probleme bereiten.
Letzten Endes ist das aber immer absolut Implementierungsspezifisch. Da musst halt die Auswertungen von den Tools dir anschauen, und die analysieren, und dann eben was Neues ausprobieren.
Du hast da halt ein Problem, dass du einfach nicht mehr komplett lösen kannst, sondern nur noch nach lokalen Minimas suchst. Wenn ich mich recht erinnere, kann man zwar noch recht leicht abschätzen wo das absolute Minimum etwa liegen sollte, aber das wars dann auch. Man darf ja auch nicht die Fertigungstolleranzen aus den Augen verlieren. Was bringt dir das geilste Design/lokales Minimum, das aber so scharf ist, dass du durch ganz normale Produktionsschwankungen 90% der Chips einfach in die Tonne treten kannst, weil es eben viel zu scharf ist.
Eventuell um Nebensprechen zu verringern? Ich bin da leider ein Laie, aber Sky könnte als Physiker sicher mehr dazu sagen.
Übersprechen, Tunnelströme, allgemein auch die Übertragungswege optimieren. Ein Punkt ist natürlich auch das Package, das man noch optimieren kann. Da gehts auch immer eng her, hat jetzt aber nicht die Relevanz. Das betrifft halt eher die Interfaces, welche Frequenz man denn noch schafft, und wie stark die Treiber dafür sein müssen.
Ist das trivial? Nö ganz sicher nicht. Da brauchts auch durchaus Feeling dafür, um die richtigen Ideen zu haben. Man sollte immer dran denken. Die Designs sind schon ziemlich lange optimiert, bevor Sie in den Handel kommen. Die "einfachen" Sachen hat man schon gefunden. Daher sollte man da echt keine Wunder erwarten mit nem gleichen Design. Zudem ist man halt auch auf TSMC angewiesen, und wie die Produktion läuft. Das bestimmt halt auch, welche Parameter man wie scharf wählen kann. nVidia und AMD haben da aber eben nicht die Möglichkeiten wie Intel mit der eigenen Fertigung. Das sind komplett andere Möglichkeiten. Zumal Intel auch "mal auf die Schnelle" nen neues Stepping auflegt, und einfach schaut. (stark verkürzt sinngemäß laut nem Intel Mensch)
Habe nochmal die Werte von OBR umgerechnet. ;)
http://www.abload.de/img/titan3dmwkjvy.png
E: Ok, also wenn das vom CLBench stimmt, dann sind es 875 MHz (zumindest mit Boost), 14 SMX und auch 6GB (auch wenn er 64xx MB anzeigt).
MfG
Edge
Das klingt auch durchaus vernünftig, wobei man auf die Sachen von OBR nicht einen Pfifferling geben sollte...
Der hat sich bis auf BD so oft und so eklatant geirrt, das geht auf keine Kuhhaut mehr... Allein seine deletes und edites in seinen "News" sprechen da Bände...
So kann ich auch vorgaukeln, relativ gut zu treffen... Ich hau halt alles mögliche raus, und wenns nicht passt nehm ichs wieder von der Seite und mach nen kleines Edit.... :down:
Skysnake
2013-02-11, 01:01:47
Das geht aber nicht in ein paar Monaten...
btw. aus dem Luxx:
http://clbenchmark.com/device-environment.jsp?config=14470292
Sieht vernünftig aus, wobei sich die Werte natürlich eventuell auch faken lassen.
Würde aber anscheinend bedeuten, das es keinen Turbo gibt, soweit ich die angaben richtig verstehe. Zudem wäre man von der reinen Rechenleistung nicht mal 30% vor ner GTX680 mit 1200MHz.
Also keine Ahnung, was ich davon halten soll... Könnte aber durchaus passen, da es im Bereich der Erwartung liegt. Das weiß aber eben auch jeder vernünftige Faker...
EDIT:
Ich bin grad dabei mir die Luxx-Diskussion rein zu ziehen, und ich muss sagen, das ist reinste Standup Comedy ;D
>1000 MHz für GK110 bei 260W ;D
Ich krieg mich echt nicht. Ich komm mir vor, als ob ich in nem Raum mit lauter Suchtis warte, die wissen, dass Sie gleich ihre tägliche Dosis Stoff bekommen :crazy::ulol:
Ich geb mir das jetzt noch mit ner schön großen Portion :popcorn: Ist einfach zu geil ;D
Tesseract
2013-02-11, 01:51:15
es wäre aber durchaus denkbar dass die karte mit eher moderatem takt kommt und beim performance/watt-verhältnis ganz oben mitspielt. das wär sicher auch für die ausbeute keine schlechte strategie. das ding ist momentan sowieso total konkurrenzlos, da kann man es sich ruhig leisten das ding "sinnvoll" zu bauen anstatt sie wie die GTX 480 damals total zu überzüchten.
Skysnake
2013-02-11, 02:14:19
Man wird wohl dennoch deutlich ineffizienter sein als mit GK104. Man schleppt einfach viel zu viel Ballast mit rum für reines Gameing.
Schaffe89
2013-02-11, 03:48:21
Raff hat die Karte schon, da ist es schon etwas komisch wenn er mit ner straffen HD 7970 OC gegen die Titan anstinken will.
Könnte ja heißen dass die Karte doch nicht so schnell wird *g*.
Nightspider
2013-02-11, 04:23:03
Raff hat die Karte schon
Quelle?
Thunderburne
2013-02-11, 07:47:56
Also ich hab meine HD7970 satt und freue mich auf neues Spielzeug.
An den Preisen sind die Nvidianer selber schuld wie konnte man NV da mit bestätigen den Wucher zu betreiben und 500 Euro zum launch für eine Mittelklasse GPU inc.Layout zu Zahlen .
Jetzt habt ihr die Preise selber hoch getrieben und heult wie die kleinen Kinder weil man nun endlich ne richtige Highend bekommt.
Das ist absolute Comedy in den Foren im LUXX so wie hier auch im 3DC.
Der GK104 war von der Hardware Ausstatung ein absoluter Blender gegen über der HD7970 den die ist die schnellste am Markt.
Aber nein die PC Gemeinde bestätigt NV und zahlt.
Jetzt ist NV halt grössen Wahnsinig geworden.
Allerdings bin ich jetzt auch mal an der Reihe und freue mich schon sehr auf die ersten Benchmarks .
Sollte der Titan die 680 um 50 -60% schlagen landet das Monster auch bei mir im Case.
Was für eine Ironie.
Also ich hab meine HD7970 satt und freue mich auf neues Spielzeug.
An den Preisen sind die Nvidianer selber schuld wie konnte man NV da mit bestätigen den Wucher zu betreiben und 500 Euro zum launch für eine Mittelklasse GPU inc.Layout zu Zahlen .
Jetzt habt ihr die Preise selber hoch getrieben und heult wie die kleinen Kinder weil man nun endlich ne richtige Highend bekommt.
Das ist absolute Comedy in den Foren im LUXX so wie hier auch im 3DC.
Der GK104 war von der Hardware Ausstatung ein absoluter Blender gegen über der HD7970 den die ist die schnellste am Markt.
Aber nein die PC Gemeinde bestätigt NV und zahlt.
Jetzt ist NV halt grössen Wahnsinig geworden.
Allerdings bin ich jetzt auch mal an der Reihe und freue mich schon sehr auf die ersten Benchmarks .
Sollte der Titan die 680 um 50 -60% schlagen landet das Monster auch bei mir im Case.
Was für eine Ironie.
Dann bist du schuld, dass die nächsten Highend Karten nach gk110 so ca. 1200€ kosten werden!
Für ne Mittelklasse Karte kann diese aber gut gegen die 7970 mithalten... nV kann anscheinend zaubern :eek:
Totaler BS den du da schreibst. Mich interessiert die Leistung hinten raus und zu meiner zweijährigen 480er war der Umstieg mehr als lohnend und ich bereue keine Sekunde.
Titan wird einfach teuer sein, da AMD noch ne Runde aussetzt und weil Speicher einfach teuer ist...
PCGH_Carsten
2013-02-11, 08:43:12
Quelle?
+1, das würd' mich auch mal interessieren.
Puh... Das kannst du so pauschal nicht sagen. Du legst ja ein Design auf gewisse Taktraten aus, und die packt das Design, oder es packt die Taktraten eben nicht.
Ein Punkt sind die Laufzeiten von den Signalen. Die passen aber bei den Designs eigentlich immer soweit. Also komplett aus dem Ruder laufen Sie nicht, sonst könnte man mit egal wie viel Saft die Dinger nicht betreiben.
Je mehr Sie aber natürlich auseinander laufen, desto mehr muss man halt durch mehr Spannung die Signalflanken steiler machen. Das geht aber auch nur in gewissen Maße, und wir wohl eher nie das Problem sein bei derartig kleinen Strukturen.
Da wird das Übersprechen ein vielfaches an Probleme bereiten.
Letzten Endes ist das aber immer absolut Implementierungsspezifisch. Da musst halt die Auswertungen von den Tools dir anschauen, und die analysieren, und dann eben was Neues ausprobieren.
Du hast da halt ein Problem, dass du einfach nicht mehr komplett lösen kannst, sondern nur noch nach lokalen Minimas suchst. Wenn ich mich recht erinnere, kann man zwar noch recht leicht abschätzen wo das absolute Minimum etwa liegen sollte, aber das wars dann auch. Man darf ja auch nicht die Fertigungstolleranzen aus den Augen verlieren. Was bringt dir das geilste Design/lokales Minimum, das aber so scharf ist, dass du durch ganz normale Produktionsschwankungen 90% der Chips einfach in die Tonne treten kannst, weil es eben viel zu scharf ist.
Übersprechen, Tunnelströme, allgemein auch die Übertragungswege optimieren. Ein Punkt ist natürlich auch das Package, das man noch optimieren kann. Da gehts auch immer eng her, hat jetzt aber nicht die Relevanz. Das betrifft halt eher die Interfaces, welche Frequenz man denn noch schafft, und wie stark die Treiber dafür sein müssen.
Ist das trivial? Nö ganz sicher nicht. Da brauchts auch durchaus Feeling dafür, um die richtigen Ideen zu haben. Man sollte immer dran denken. Die Designs sind schon ziemlich lange optimiert, bevor Sie in den Handel kommen. Die "einfachen" Sachen hat man schon gefunden. Daher sollte man da echt keine Wunder erwarten mit nem gleichen Design. Zudem ist man halt auch auf TSMC angewiesen, und wie die Produktion läuft. Das bestimmt halt auch, welche Parameter man wie scharf wählen kann. nVidia und AMD haben da aber eben nicht die Möglichkeiten wie Intel mit der eigenen Fertigung. Das sind komplett andere Möglichkeiten. Zumal Intel auch "mal auf die Schnelle" nen neues Stepping auflegt, und einfach schaut. (stark verkürzt sinngemäß laut nem Intel Mensch)
Butter bei die Fische, keine Allgemeinplätze pls: Welcher Metal-Spin hat bei einem nicht-kaputten Design (also einem verkaufbaren) schonmal merklich was an der Taktung geändert.
Ailuros
2013-02-11, 09:26:40
Butter bei die Fische, keine Allgemeinplätze pls: Welcher Metal-Spin hat bei einem nicht-kaputten Design (also einem verkaufbaren) schonmal merklich was an der Taktung geändert.
G80= 8800GTX@1.35GHz vs. 8800Ultra@1.5GHz?
mapel110
2013-02-11, 09:31:34
das ist doch mehr der Reifung des Prozesses zuzuschreiben,oder?
john carmack
2013-02-11, 09:49:15
Der höhere Speichertakt sollte allein schon wegen den 1,6V funktionieren. Aber wirklich ne HD 7970 mit 1337MHz hätte dann mal flockig 25% mehr Leistung als die GHz Ed.
Also (Milchmädchenrechnung an:D):
GTX 680 = 100%
HD 7970 GHz Ed. = 110%
HD 7970 @1,3MHz = 137,5%
GTX Titan = 150%
Also nur noch theoretisch einen Vorsprung von etwa 9% von Titan gegenüber der 1,4GHz HD 7970:freak: Wäre schon recht nice^^
die 7970 Toxic @ 1200Mhz&6GB gibt es ja auch noch :)
Ailuros
2013-02-11, 10:06:34
das ist doch mehr der Reifung des Prozesses zuzuschreiben,oder?
Ich hab lediglich versucht Carsten's Frage zu beantworten, egal ob es wohl eines der seltenen Ausnahmen war (und auch zugegeben daemlichen Leistungsunterschied). Und ja es war ein metal spin: http://techreport.com/review/12379/nvidia-geforce-8800-ultra-graphics-card
http://www.google.gr/imgres?imgurl=http://images.bit-tech.net/content_images/2007/05/nvidia_geforce_8800_ultra/12.jpg&imgrefurl=http://www.bit-tech.net/hardware/2007/05/02/nvidia_geforce_8800_ultra/1&h=350&w=350&sz=76&tbnid=lEShMhtbIxwMMM:&tbnh=93&tbnw=93&prev=/search%3Fq%3D8800ultra%2Bchip%2Bpicture%26tbm%3Disch%26tbo%3Du&zoom=1&q=8800ultra+chip+picture&usg=__Lc9xlsM-z8uHCuGyMTA2xiW-pdM=&docid=84OixS94XCwjEM&hl=el&sa=X&ei=crQYUb2gA6Se0QX8rIHIAQ&ved=0CDYQ9QEwBA&dur=503
8800GTX = launch 08.11.2006/A2
8800Ultra = launch 02.05.2007/A3
Tape out fuer die ersten chips war bei der 35. Woche 2006 und fuer die zweiten 10. Woche 2007. Gerade genug Zeit fuer einen metal spin und 90nm war innerhalb 2006 schon verdammt lange "ausgereift".
***edit: ich bin jetzt zu faul weitere Daten aufzusuchen, aber ich glaube ein weiterer Fall war GT200@55nm um die Dinger erstmal auf mGPU Nivaeau zu bringen. Wenn ich mich nicht irre war GTX285/A2 und die GTX275 bzw. chips fuer die damaligen mGPUs A3.
Ailuros
2013-02-11, 10:24:24
Habe nochmal die Werte von OBR umgerechnet. ;)
E: Ok, also wenn das vom CLBench stimmt, dann sind es 875 MHz (zumindest mit Boost), 14 SMX und auch 6GB (auch wenn er 64xx MB anzeigt).
MfG
Edge
GeForce GTX Titan is in those synthetic test +/- 65 percents above GeForce GTX 680. And only few percents (4-7) under GeForce GTX 690! But this is an synthetic benchmark, i think in real games will be Titan 40-60 percents above GeForce GTX 680 ... depends on title.
http://www.obr-hardware.com/2013/02/this-is-titan-yeah-first-real-numbers.html
So absurd klingt das jetzt nicht unbedingt. OBR hat Zugang zu NV, die Frage ist lediglich ob die Infos von NV kommen (selbst indirekt) oder ob wieder mal jemand versucht ihn auf die Palme zu treiben. Ich will es glauben damit mein Pessimismus der letzten Zeit verschwindet und ja die default Frequenz des cores (nicht boost) duerfte irgendwo bei =/<850MHz liegen. Trotzdem zu teuer.
Godmode
2013-02-11, 10:39:52
http://www.obr-hardware.com/2013/02/this-is-titan-yeah-first-real-numbers.html
So absurd klingt das jetzt nicht unbedingt. OBR hat Zugang zu NV, die Frage ist lediglich ob die Infos von NV kommen (selbst indirekt) oder ob wieder mal jemand versucht ihn auf die Palme zu treiben. Ich will es glauben damit mein Pessimismus der letzten Zeit verschwindet und ja die default Frequenz des cores (nicht boost) duerfte irgendwo bei =/<850MHz liegen. Trotzdem zu teuer.
Also stimmen 800 € wirklich?
robbitop
2013-02-11, 10:50:08
Mittlerweile dürften die Titan Samples raus sein, oder? PCGH hatte soetwas indirekt geteast. Ab jetzt sollten die Leaks also reinkommen und die Infos immer härter werden.
http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/Die-PCGH-Woche-in-Bildern-KW6-1054402/
...Während Herr Stöwer fleißig spielte, war Kollege Spille in geheimer Mission unterwegs, um sich eine brandneue Grafikkarte anzuschauen. Wir sind mal gespannt, was Carsten dann am Rosenmontag in der Redaktion präsentieren wird. Ein Karnevalsscherz wird das sicher nicht. :)...
Skysnake
2013-02-11, 11:15:09
Butter bei die Fische, keine Allgemeinplätze pls: Welcher Metal-Spin hat bei einem nicht-kaputten Design (also einem verkaufbaren) schonmal merklich was an der Taktung geändert.
Mir ist keiner namentlich bekannt. Die Frage ist aber halt auch, was man als "kaputt" definiert.
Ohne die orginal Entwicklerdaten kann man einfach nichts dazu sagen. Man muss sich nur mal die TSMC "Einkaufslisten" zu den verschiedenen Prozessen anschauen. Schon allein da gibt es genug Auswahl, noch etws zu drehen.
Und wenn man mal schon dabei ist, solte man mal die Constraints die TSMC vorgibt sich anschauen, und dann einen Blick auf die werfen, die nVidia und AMD verwenden. Das könnte auch sehr überraschend werden ;)
PS: Wollt ihr nicht mal ne Serie über TSMC machen, und wie man einen Chip in die Produktion bringt?
Iruwen
2013-02-11, 11:31:17
Wollt ihr nicht mal ne Serie über TSMC machen, und wie man einen Chip in die Produktion bringt?
Das wäre genial!
deekey777
2013-02-11, 12:09:51
Butter bei die Fische, keine Allgemeinplätze pls: Welcher Metal-Spin hat bei einem nicht-kaputten Design (also einem verkaufbaren) schonmal merklich was an der Taktung geändert.
Passt nicht ganz zu deiner Formulierung, aber ich würde da auf den R520 tippen. Der R520 als A14 kam als X1800XL mit 500 MHz auf den Markt, als A15 als X1800XT. Nur mit dem A15 waren mehr als 600 MHz möglich (625 MHz). Und da gab es noch den A23.
PCGH_Carsten
2013-02-11, 13:07:10
Mir ist keiner namentlich bekannt. Die Frage ist aber halt auch, was man als "kaputt" definiert.
Ohne die orginal Entwicklerdaten kann man einfach nichts dazu sagen. Man muss sich nur mal die TSMC "Einkaufslisten" zu den verschiedenen Prozessen anschauen. Schon allein da gibt es genug Auswahl, noch etws zu drehen.
Und wenn man mal schon dabei ist, solte man mal die Constraints die TSMC vorgibt sich anschauen, und dann einen Blick auf die werfen, die nVidia und AMD verwenden.
Also nix konkretes, hab ich mir schon gedacht.
M4xw0lf
2013-02-11, 13:08:19
Wurde das hier schon diskutiert? http://clbenchmark.com/device-info.jsp?config=14470292
Seite 2 ist interessanter, denke ich: http://clbenchmark.com/device-environment.jsp?config=14470292
14 "Compute Units", 875 MHz, 6GB Ram. - Klingt nicht unsinnvoll, oder?
Skysnake
2013-02-11, 13:14:42
Also nix konkretes, hab ich mir schon gedacht.
Nein, und wer behaupet, er könne eins nennen strapaziert die Wahrheit. Ohne komplette Einsicht in die Entwicklungsunterlagen, kann dir das keiner mit Gewissheit sagen. Und Hersteller sind bei solchen Sachen nicht gerade für ihre Ehrlichkeit bekannt...
Ok, ganz ehrlich war das nicht...
Man könnte ein komplettes Reverseengineering zweier Chipversionen machen, aber ich glaube das will und kann keiner zahlen. Vor allem in den heutigen Strukturgrößen...
Wurde das hier schon diskutiert? http://clbenchmark.com/device-info.jsp?config=14470292
Seite 2 ist interessanter, denke ich: http://clbenchmark.com/device-environment.jsp?config=14470292
14 "Compute Units", 875 MHz, 6GB Ram. - Klingt nicht unsinnvoll, oder?
Nein, aber das wissen halt auch die Faker...
PCGH_Carsten
2013-02-11, 13:33:16
Passt nicht ganz zu deiner Formulierung, aber ich würde da auf den R520 tippen. Der R520 als A14 kam als X1800XL mit 500 MHz auf den Markt, als A15 als X1800XT. Nur mit dem A15 waren mehr als 600 MHz möglich (625 MHz). Und da gab es noch den A23.
Dave Baumann beschreibt es auf Beyond3d.com etwas anders. Wafer-Hold wegen Problemen, Silicon-Respin für XT, XL aus den gestoppten Wafern, da mit Metal-Fixes noch 500 MHz aus dem ungefixten Silizium herauszuholen waren. Dave hatte schon immer gute Kontakte zu Ati/AMD.
PCGH_Carsten
2013-02-11, 13:33:58
Nein, und wer behaupet, er könne eins nennen strapaziert die Wahrheit.
Klang oben so, als wüsstest du mehr über die Thematik, daher fragte ich nach.
watugonad00?
2013-02-11, 14:11:01
also pcgh, wann gibt es benches? :cool:
Timbaloo
2013-02-11, 14:12:36
Wenn sie dir das beantworten weisst du dass sie kein NDA unterschrieben haben ;)
M4xw0lf
2013-02-11, 14:14:33
Das NDA ist ziemlich sicher unterschrieben ^^
boxleitnerb
2013-02-11, 14:19:10
Ich hab nochmal über die Taktratendiskussion aus dem Luxx nachgedacht. Ich weiß die Rechnung ist total simpel, aber:
2x GK104@915 Baseclock = 300W TDP bei 7 Mrd. Transistoren.
1x GK110@915 Baseclock = 300W TDP bei 7 Mrd. Transistoren
Im Endeffekt sind es ähnlich viele Transistoren, die mit Frequenz x schalten müssen, also warum sollten die 300W TDP nicht auch für Titan machbar sein mit ca. 260-270W Realverbrauch wie bei der GTX690?
Edgecrusher86
2013-02-11, 14:25:33
Sicher nicht vor NDA-Fall. ;)
Ich denke nicht, dass NV alles Pulver verschießen werden, selbst wenn es bei so einer Prestige-Karte möglich wäre. Man könnte ja notfalls, wenn AMD eine HD 8970 GHz Edition oder ähnlich bringt, vielleicht auch noch mit der TDP etwas hoch gehen (Taktraten-Erhöhung) und auch den Vollausbau bringen, wobei man besser beraten wäre, diesen als "K25X" oder Quadro auf den Markt zu bringen - das wirft doch deutlich mehr Gewinn ab. ;)
Skysnake
2013-02-11, 14:26:55
Klang oben so, als wüsstest du mehr über die Thematik, daher fragte ich nach.
Ja, ein "bischen" mehr weis ich auch ;)
Um mich rum sitzen ja auch genug Leute, die gerade nen Package designen, mit TSMC was am Hut haben, VERILOG Code schreiben usw.
Mit denen kommt man immer wieder ins Gespräch. Besonders Weihnachtsfeiern sind immer wieder sehr informativ ;)
Daher habe ich auch einige Einblicke aus 1. Hand. Was man dabei aber sehr schnell merkt ist, dass die ganzen Sachen extrem schnell extrem kompliziert werden. Schon kleinse Veränderungen können echt extreme Seiteneffekte hevorrufen, wo man sich dann teilweise auch echt an den Kopf langt, weil man da NIE drauf gekommen wäre.
Genau deswegen kann man auch nur die grundsätzlichen Sachen ansprechen, was überhaupt möglich ist, und was nicht. Alles andere ist halt echt Implementierungsabhängig.
Ich geb mal ein kleines Beispiel:
Nen Package kann man erst designen, wenn man den Pinout hat. Den Pinout hat man aber erst, wenn das Design grundlegend mal fertig ist. Beim Packagedesign kannst du dann aber in den realen Simulationen auf massive Probleme stoßen, die du so nicht erwartet hast. Im optimalfall bekommst du es dennoch gelöst, sitzt aber einfach länger dran. Wenns blöd läuft, musst du mehr Layer verwenden, und wenns sau dumm läuft, bekommst du die Spezifikationen halt gar nicht gebacken.
Und von eventuellen Fehlern/unzulänglichkeiten im den Tools und den Toolchains wollen wir mal lieber nicht anfangen. Da brauchts einfach Leute, die wissen was Sie machen, und die auch nen Gespür dafür haben, was Sie machen. Dennoch kann immer mal was Schief gehen aus oben genannten Gründen. Vor allem wenn man am Rande des technisch machbaren arbeitet wie AMD und nVidia mit ihren GPUs.
Btw. Das hier gibt mal so einen ganz kleinen Einblick bzgl TSMC:http://www.eng.utah.edu/~cs5830/handouts/dw_qrg.pdf
Und von derartigen Listen/Constraints wirst du erschlagen. Und dass du alles beachtest, liegt ganz an dir. Also insbesondere, dass du die Tools überhaupt richtig verwendest.
Und bei den tools reden wir nicht von Minuten, bis mal ein Ergebnis da ist, sondern von Stunden bis Tagen. Meist versucht man, dass die Simulation über Nacht durchläuft. Dann schafft man zwei Anpassungen pro Tag, wenns wirklich gut läuft.
Ich hoffe ihr könnt euch vorstellen, wie sehr dass das Arbeitstempo einschränkt, vorallem, wenn man vor einem schwierigen Problem mal steht.
Ganz lustig wirds, wenn eine "einfache" Simulation sagt es geht, man nimmt ja einfachere Modelle, um schneller arbeiten zu können, und dann zeigt einem die komplette Simulation den Stinkefinger und mein "Nö, interessiert mich nicht, das es mit dem anderen Modell ging. Ich sag es geht nicht, also versuchs nochmal."
Das passiert selten, aber es kann passieren, und je nachdem löst man dann das Problem, um zwei neue Probleme zu haben...
Kurz um, wie ich schon gesagt habe, ohne die genauen Designunterlagen, die man nie sehen wird, ist das alles reine Spekulation.
Duplex
2013-02-11, 14:28:10
Kann mir vorstellen das GK110 Titan auf eine neue Chip Rev. basiert. Mehr Takt und weinger Verbrauch.
watugonad00?
2013-02-11, 14:30:30
Wenn sie dir das beantworten weisst du dass sie kein NDA unterschrieben haben ;)
wird überbewertet :freak:
Skysnake
2013-02-11, 14:31:39
Wird man sehen müssen. Eventuell reicht wie gesagt auch schon ein neues Package, um zumindest PCI-E 3.0 zum laufen zu bekommen.
Bald werden wir es ja wissen.
Edgecrusher86
2013-02-11, 14:33:54
Kann mir vorstellen das GK110 Titan auf eine neue Chip Rev. basiert. Mehr Takt und weinger Verbrauch.
Schön möglich, wenn die Tesla wohl als A1 kommen - Wunder sollte man aber auch nicht erwarten. Aber evtl. ermöglicht so etwas 5 - 10% höhere Taktraten bei gleichem Verbrauch. So ins Blaue geraten. :)
Ailuros
2013-02-11, 15:10:43
Schön möglich, wenn die Tesla wohl als A1 kommen - Wunder sollte man aber auch nicht erwarten. Aber evtl. ermöglicht so etwas 5 - 10% höhere Taktraten bei gleichem Verbrauch. So ins Blaue geraten. :)
Gab es nicht auch K20 samples mit A2 oder hab ich das falsch in Erinnerung? 5-10% ist zu wenig von Tesla auf GeForce da die K20X "nur" eine TDP von 235W hat. Nebenbei taktet die GTX580 um ca. 19% hoeher als die GF110 Tesla bei 244 vs. 225W TDP.
Die Moeglichkeit eines metal spins bzw. A3 will ich nicht ausschliessen, aber ob Frequenz bzw. Stromverbrauch der einzige treibende Faktor dahinter war will ich bezweiflen.
Skysnake
2013-02-11, 15:17:24
Also mir ist kein A2 bekannt.
Die K20c die ausgeliefert werden sind anscheinend A1
Man müsste "einfach" nur mal an ne ASUS K20x kommen, dann wären VIELE Fragen geklärt :ugly:
Wenn da auch A1 verwendet wird, wird auch Titan A1 sein. Wenn da A2/A3 what ever verwendet wird, wird das auch bei Titan verwendet.
Timbaloo
2013-02-11, 15:17:41
Werden die Tesla-Karten eigentlich mit einer etwas höheren Spannung betrieben als die Consumer-Karten?
Ailuros
2013-02-11, 15:28:36
Also mir ist kein A2 bekannt.
Die K20c die ausgeliefert werden sind anscheinend A1
Man müsste "einfach" nur mal an ne ASUS K20x kommen, dann wären VIELE Fragen geklärt :ugly:
Wenn da auch A1 verwendet wird, wird auch Titan A1 sein. Wenn da A2/A3 what ever verwendet wird, wird das auch bei Titan verwendet.
Ehrliche Frage: was genau hat jetzt Asus mit der ganzen Sache zu tun?
Blediator16
2013-02-11, 15:44:27
Versteh ich das richtig? 235tdp bei +50% auf die 680? Kann mir jemand erklären was die special sauce bei der Karte sein wird?
680 190tdp
titan 235tdp 50% schneller
24% höhere tdp für 50% mehr Leistung? Oder hab ich da die tdp des k20x im Kopf.
AnarchX
2013-02-11, 15:49:12
Theoretisch sollte Titan deutlich niedriger takten, wodurch die Pro-Watt-Leistung steigt.
btw.
Hier behauptet man >1GHz Boost für Titan, aber seltsamerweise ist das Grün bei "Titan" anders, wohl ein Photoshop:
http://www.arabpcworld.com/?p=26335
Ailuros
2013-02-11, 16:00:16
Versteh ich das richtig? 235tdp bei +50% auf die 680? Kann mir jemand erklären was die special sauce bei der Karte sein wird?
680 190tdp
titan 235tdp 50% schneller
24% höhere tdp für 50% mehr Leistung? Oder hab ich da die tdp des k20x im Kopf.
Tesla K20X bei 732MHz fuer den core und 6GB Speicher hat einen TDP von 235W. Wer und wieso jetzt die gleiche TDP auf Titan zurueckgeleitet haben soll keine Ahnung aber es ist BS. Bei schaetzungsweise =/>850MHz core clock wuerde ich irgendwo =/>250W TDP erwarten.
Theoretisch sollte Titan deutlich niedriger takten, wodurch die Pro-Watt-Leistung steigt.
btw.
Hier behauptet man >1GHz Boost für Titan, aber seltsamerweise ist das Grün bei "Titan" anders, wohl ein Photoshop:
http://www.arabpcworld.com/?p=26335
Ich glaub arabpcworld nichtmal wenn sie behaupten wuerden dass die Milch weiss ist :biggrin: Wenn Titan aber tatsaechlich mit 950 (1000)/1500MHz und nur einem 240W TDP ankommt, muss ich NV den Hut abnehmen.
Skysnake
2013-02-11, 16:43:37
Die Einschätzung teile ich zu 100%
Ehrliche Frage: was genau hat jetzt Asus mit der ganzen Sache zu tun?
Weil es schon etwas außergewöhnlich ist. Ich kenne keine Teslas von jemand anderen als PNY.
Hauptsächlich bezieht es sich aber noch darauf, das ASUS ne K20x anbietet, PNY aber nur ne K20. Hat sich inzwischen aber geändert. PNY bietet auch K20x an.
Die Sache mit ASUS ist mir aber immer noch nicht so 100% koscher, weil Sie auch keine Informationen raus rücken wollen... Und das für ne Karte die schon gelistet wird, usw. :ugly:
Die Neuigkeiten bzgl K20x sind aber eher düster, was GTX Titan anbelangt. Lieferbar erst April 2013 :ugly: Heyha.... :down:
http://extreme.pcgameshardware.de/user-news/259871-erste-listung-einer-k20x-von-asus-laesst-geforce-titan-chancen-steigen-update2-duestere-aussichten-fuer-verfuegbarkeit.html#post4971339
Edgecrusher86
2013-02-11, 17:23:07
Die 235W stammen mit Sicherheit 1:1 von K20X - genauso wie die Taktraten, die Sweclockers ja auch für Titan angenommen haben.
Klar, bei höheren Taktraten muss man schon mit ~ 250W rechnen wie bei Fermi damals der Fall. :)
Nightspider
2013-02-11, 17:25:52
Falls Titan wirklich nur 6+8pol Anschlüsse hat, hätte ich Angst das man zu wenig Reserven für stärkeres OC hat. Gerade wenn man Titan wasserkühlen will.
Eine Frage ist ja auch immer noch ob die Speicherchips nur genauso schnell sind, wie die der 680. Nach einem Jahr sollte es ja auch schon etwas schnellere Speicherchips geben.
Godmode
2013-02-11, 17:27:15
Falls Titan wirklich nur 6+8pol Anschlüsse hat, hätte ich Angst das man zu wenig Reserven für stärkeres OC hat. Gerade wenn man Titan wasserkühlen will.
Eine Frage ist ja auch immer noch ob die Speicherchips nur genauso schnell sind, wie die der 680. Nach einem Jahr sollte es ja auch schon etwas schnellere Speicherchips geben.
Also auf der 690 sind bessere drauf. Meine takten ohne Probleme mit 3500 MHz.
VooDoo7mx
2013-02-11, 17:49:55
Also auf der 690 sind bessere drauf. Meine takten ohne Probleme mit 3500 MHz.
Nöö. DIe GTX 690 hat genau wie die GTX 680, 670 und 660Ti 6 gbps Speicher drauf. Bei meiner GTX 680 kann man den auch auf 3500 MHz übertakten.
7gbps Speicher ist laut den Speicherherstellern schon länge verfügbar, wird aber deutlich teurer sein. Bei den bisher spekulierten Premium Preis könnte der bei Titan wohl verbaut sein, ich glaub aber nicht das sich nVidia dazu entschließt. Die werden wahrscheinlich wieder konservativ den 6gbps nehmen um die Marge nicht zu schmälern.
Godmode
2013-02-11, 17:53:24
Nöö. DIe GTX 690 hat genau wie die GTX 680, 670 und 660Ti 6 gbps Speicher drauf. Bei meiner GTX 680 kann man den auch auf 3500 MHz übertakten.
7gbps Speicher ist laut den Speicherherstellern schon länge verfügbar, wird aber deutlich teurer sein. Bei den bisher spekulierten Premium Preis könnte der bei Titan wohl verbaut sein, ich glaub aber nicht das sich nVidia dazu entschließt. Die werden wahrscheinlich wieder konservativ den 6gbps nehmen um die Marge nicht zu schmälern.
Achso, dann hatte ich das wohl falsch in Erinnerung.
Nightspider
2013-02-11, 17:58:29
Das wären immerhin 16,6% mehr Bandbreite.
Carsten klimpert mit den Wimpern und weiß nix von ner next gen VGA bei PCGH.:freak:
Wenigstens hält sich PCGH an NDA. Ihr könnt mal schwer davon ausgehen, dass eine solche Redaktion ein Sample hat.
4Fighting
2013-02-11, 19:51:53
http://videocardz.com/images/2013/02/ASUS-GeForce-GTX-Titan-Austing-Listing.png
tja ob hier das SI oder überhaupt der Takt stimmt :freak:
M4xw0lf
2013-02-11, 19:54:03
Natürlich nicht.
Zergra
2013-02-11, 19:56:03
http://videocardz.com/images/2013/02/ASUS-GeForce-GTX-Titan-Austing-Listing.png
tja ob hier das SI oder überhaupt der Takt stimmt :freak:
Ist ein Fake... :D man braucht sich nur die Original Seite anzuschauen ;)
TurricanM3
2013-02-11, 20:15:06
Nöö. DIe GTX 690 hat genau wie die GTX 680, 670 und 660Ti 6 gbps Speicher drauf. Bei meiner GTX 680 kann man den auch auf 3500 MHz übertakten.
Es gibt aber scheinbar zumindest auf den 680ern unterschiedliche RAMs. Meine erste ging bis 3500 ohne Probleme, die zweite packt spielend 3900.
Cubitus
2013-02-11, 20:28:11
Carsten klimpert mit den Wimpern und weiß nix von ner next gen VGA bei PCGH.:freak:
Wenigstens hält sich PCGH an NDA. Ihr könnt mal schwer davon ausgehen, dass eine solche Redaktion ein Sample hat.
Ich vermute auch das größere Redaktionen bereits gebrieft wurden..
Aber stellt euch mal vor er würde zugeben das se so ne Karte bereits hätten.
Es würde Pns und Anfragen im Thread hageln, wäre sicherlich witzig ;D.. Aber förderlich mit Sicherheit nicht ^^
Thema GTX-690-RAM: Die Karten haben Samsung-RAM drauf, die anderen Kepler setzen auf Hynix (R0C-Selektion, AFR oder MFR). IIRC. Ist also nicht alles gleich. Die meisten GTX-600-Karten, welche mir durch die Finger glitten, packen mindestens 3.400, oft 3.500, manchmal 3.600 und ganz selten auch 3.700 MHz Speichertakt.
MfG,
Raff
Godmode
2013-02-11, 20:36:12
Ich vermute auch das größere Redaktionen bereits gebrieft wurden..
Aber stellt euch mal vor er würde zugeben das se so ne Karte bereits hätten.
Es würde Pns und Anfragen im Thread hageln, wäre sicherlich witzig ;D.. Aber förderlich mit Sicherheit nicht ^^
Außer Problemen mit Nvidia würde ihm das nichts bringen. Schließlich sind die Leute bei der PCGH integer und nicht solch geltungssüchtige Vollidioten.
Skysnake
2013-02-11, 20:50:19
/sign
:up:
Ailuros
2013-02-11, 20:52:28
Die paar Tage werden wir wohl alle noch geduldig aussitzen koennen. Nach all der Warterei sind ein paar Tage nur noch Erbsen.
Godmode
2013-02-11, 21:03:13
Die paar Tage werden wir wohl alle noch geduldig aussitzen koennen. Nach all der Warterei sind ein paar Tage nur noch Erbsen.
Ja da hast du recht. Wenn ihr trotzdem amüsiert werden wollt, einfach im Hardwareluxx vorbeischaun. :popcorn:
http://www.hardwareluxx.de/community/f14/nvidia-gk110-geforce-7xx-geforce-titan-speku-news-diskussion-1-seite-lesen-880821-150.html
Zergra
2013-02-11, 21:12:53
Ja da hast du recht. Wenn ihr trotzdem amüsiert werden wollt, einfach im Hardwareluxx vorbeischaun. :popcorn:
http://www.hardwareluxx.de/community/f14/nvidia-gk110-geforce-7xx-geforce-titan-speku-news-diskussion-1-seite-lesen-880821-150.html
Ne :freak: da lese ich freiwillig nicht mehr weiter.....
Die haben echt ein Problem :rolleyes:
BigKid
2013-02-12, 08:23:46
Die paar Tage werden wir wohl alle noch geduldig aussitzen koennen. Nach all der Warterei sind ein paar Tage nur noch Erbsen.
Wissen wir denn wenigstens das? Gibts denn was ofizielles das irgendwas kommt und wann?
Godmode
2013-02-12, 09:02:17
Wissen wir denn wenigstens das? Gibts denn was ofizielles das irgendwas kommt und wann?
Am Wochenende ist die PDX-Lan, das wird wohl der Launchtermin werden.
Ailuros
2013-02-12, 10:42:11
Wissen wir denn wenigstens das? Gibts denn was ofizielles das irgendwas kommt und wann?
http://www.anandtech.com/show/6736/nvidias-new-f2p-bundle-the-first-hit-is-free
:biggrin:
Godmode
2013-02-12, 10:52:39
Hat das Bild was mit GK110 zu tun?
http://www.anandtech.com/Gallery/Album/2625#11
Ailuros
2013-02-12, 10:59:54
Hat das Bild was mit GK110 zu tun?
http://www.anandtech.com/Gallery/Album/2625#11
Nicht wirklich. Ich hab BigKid's Frage beantwortet und die Initiative hat offensichtlich nichts mit GK110 zu tun. Er fragt mich lediglich ob bald etwas offizielles kommt und ich darf mir ab und zu einen Scherz erlauben ;)
Die Kollegen von Obr-Hardware sind es, die mit ersten echten 3DMark-Ergebnissen zur Geforce Titan aufwarten können. Die erzielten Ergebnisse decken sich mit unseren und spiegeln daher tatsächlich die Leistung des künftigen Nvidia-Chips wider.
http://www.hardware-infos.com/news/4223/nvidia-geforce-titan-erster-echter-3dmark-score.html
Laut unserer Quelle wird die Geforce Titan außerdem mit einem 6 GiB großen Texturenspeicher daherkommen und einen TDP von annähernd 300 Watt haben.
http://www.hardware-infos.com/news/4216/geforce-titan-neue-informationen.html
Godmode
2013-02-12, 11:57:31
http://www.hardware-infos.com/news/4223/nvidia-geforce-titan-erster-echter-3dmark-score.html
http://www.hardware-infos.com/news/4216/geforce-titan-neue-informationen.html
Das ist hier nichts neues, da brauch ich nichtmal auf den Link drauf gehen.
Skysnake
2013-02-12, 12:13:21
Nicht wirklich. Ich hab BigKid's Frage beantwortet und die Initiative hat offensichtlich nichts mit GK110 zu tun. Er fragt mich lediglich ob bald etwas offizielles kommt und ich darf mir ab und zu einen Scherz erlauben ;)
Der war aber schlecht :tongue:
Man sieht doch gleich, dass das ne ganz kleine Karte vom Schlage einer GTX 660 ist. :freak:
Rechts geht der Schaumstoff direkt nach unten :rolleyes:
Ich musste aber auch kurz schlucken, und genau hinsehen ;D
...
Ok, er war doch gut :tongue:
Skysnake
2013-02-12, 12:15:29
Das ist hier nichts neues, da brauch ich nichtmal auf den Link drauf gehen.
Sicher?
Die Kollegen von Obr-Hardware sind es, die mit ersten echten 3DMark-Ergebnissen zur Geforce Titan aufwarten können. Die erzielten Ergebnisse decken sich mit unseren und spiegeln daher tatsächlich die Leistung des künftigen Nvidia-Chips wider.
Ich hab mal das Entscheidende markiert....
Wenns stimmt, wäre es mal wieder ne riesen Sauerei.... :down:
Ronny145
2013-02-12, 12:21:49
Die Bestätigung von OBR ist schon eine Neuigkeit. 6GB scheint ja die Standardgröße zu werden, endlich geizt Nvidia nicht beim Speicher. Am VRAM wird es also nicht scheitern. Wenn Titan mindestens 50% im Schnitt vor der 680 liegt, wäre ich voll zufrieden.
Thunder99
2013-02-12, 12:34:26
Die Bestätigung von OBR ist schon eine Neuigkeit. 6GB scheint ja die Standardgröße zu werden, endlich geizt Nvidia nicht beim Speicher. Am VRAM wird es also nicht scheitern. Wenn Titan mindestens 50% im Schnitt vor der 680 liegt, wäre ich voll zufrieden.
Wenn nvidia schon die Karte als exklusiv Karte außerhalb der eigentlichen Serie verkaufen möchte wäre es armselig und das Marketing total daneben nur 3GB zu bringen. Dann hätte man ja gerade mal die Menge an Speicher einer HD79xx Karte.
Bin echt mal gespannt was die Karte so kann :)
Godmode
2013-02-12, 12:38:31
Sicher?
Ich hab mal das Entscheidende markiert....
Wenns stimmt, wäre es mal wieder ne riesen Sauerei.... :down:
Was ist den die Sauerei? :confused:
Besteht eigentlich noch der Kepler Bug bei 3840x2160 DS? Wäre ja blanker Hohn, wenn Titan dat nich kann:freak:
Ich hoffe mal, daß Raff das Teil bereits auf der Folterbank hat und es mit fordernden Settings quält...
Kurz OT, sorry muß ich loswerden. Durch einen traurigen Anlaß (Tod meiner Mutter) bin ich zu etwas Geld gekommen. Neben der Trauer jede Menge Stress, vor allem mit dem Vermieter. Heute morgen habe ich die Wohnung übergeben und bin endlich durch damit, jetzt beginnt erst die richtige Trauer.
Nun ja, habe beschlossen mich mit ner Titan zu belohnen, selbst wenn ich nichts geerbt hätte. Sorry für OT.
Timbaloo
2013-02-12, 12:46:50
Interessantes Timing ;)
http://www.techpowerup.com/180059/Unigine-Returns-with-Two-New-GPU-Benchmark-Apps.html
Hübie
2013-02-12, 13:24:24
Besteht eigentlich noch der Kepler Bug bei 3840x2160 DS? Wäre ja blanker Hohn, wenn Titan dat nich kann:freak:
Ich hoffe mal, daß Raff das Teil bereits auf der Folterbank hat und es mit fordernden Settings quält...
Kurz OT, sorry muß ich loswerden. Durch einen traurigen Anlaß (Tod meiner Mutter) bin ich zu etwas Geld gekommen. Neben der Trauer jede Menge Stress, vor allem mit dem Vermieter. Heute morgen habe ich die Wohnung übergeben und bin endlich durch damit, jetzt beginnt erst die richtige Trauer.
Nun ja, habe beschlossen mich mit ner Titan zu belohnen, selbst wenn ich nichts geerbt hätte. Sorry für OT.
Mein herzlichstes Beileid und Mitgefühl. So ein Verlust ist tragisch. Alles Gute Dir und den Angehörigen.
b2t: Die News überschlagen sich. Also wenn das kein eindeutiges Zeichen ist ..:confused::rolleyes:
Ich frage mich nur wie man den Preis - so er denn stimmt - rechtfertigen will. Weder der von GK104 noch der von 2 * GK104 ist gerechtfertigt. :cool: Aber irgendwie kann man sich wohl alles schön reden.
M4xw0lf
2013-02-12, 13:26:01
Was ist den die Sauerei? :confused:
Der NDA-Bruch. (nicht der von OBR, der macht sowas schließlich berufsmäßig... :rolleyes: )
Godmode
2013-02-12, 13:29:04
Der NDA-Bruch. (nicht der von OBR, der macht sowas schließlich berufsmäßig... :rolleyes: )
Achso... naja das seh ich nicht so eng. Solange kein komplettes Review online gestellt wird...
Ich schau mir das später nur bei richtigen Seiten an.
Besteht eigentlich noch der Kepler Bug bei 3840x2160 DS? Wäre ja blanker Hohn, wenn Titan dat nich kann:freak:
Ich hoffe mal, daß Raff das Teil bereits auf der Folterbank hat und es mit fordernden Settings quält...
Auf Kepler ist 2x2 OGSSAA/Downsampling in Full-HD schon eine Weile möglich. :)
Guckst du: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9464653#post9464653
MfG,
Raff
Ailuros
2013-02-12, 13:40:26
Was ist den die Sauerei? :confused:
Dass Titan mehr leistet als es ihm passt ;D :biggrin:
Mein herzlichstes Beileid und Mitgefühl. So ein Verlust ist tragisch. Alles Gute Dir und den Angehörigen.
b2t: Die News überschlagen sich. Also wenn das kein eindeutiges Zeichen ist ..:confused::rolleyes:
Ich frage mich nur wie man den Preis - so er denn stimmt - rechtfertigen will. Weder der von GK104 noch der von 2 * GK104 ist gerechtfertigt. :cool: Aber irgendwie kann man sich wohl alles schön reden.
Vielen Dank für Dein Beileid, gilt auch für alle Nachfolger um den OT-Anteil so gering wie möglich zu halten.
Wie hoch ist den der kolportierte Preis? Bin grad nicht so auf der Höhe...
Auf Kepler ist 2x2 OGSSAA/Downsampling in Full-HD schon eine Weile möglich. :)
Guckst du: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9464653#post9464653
MfG,
Raff
Dann ist ja gut, hab gar nicht dran gedacht, das zu googlen. Bin momentan etwas daneben.
Und von Dir kommt kein Dementi, was die Folterbank betrifft?:biggrin::biggrin:
Knuddelbearli
2013-02-12, 13:51:28
700-800€ ( 899$ UVP für Europa also vermutlich 849€ UVP)
Skysnake
2013-02-12, 13:51:50
Dass Titan mehr leistet als es ihm passt ;D :biggrin:
Ja klar! :uclap:
Wie kann man nur drauf kommen das ich den NDA Bruch meine... :rolleyes:
Ronny145
2013-02-12, 14:00:58
Dass Titan mehr leistet als es ihm passt ;D :biggrin:
Und das OBR offenbar mal wieder richtig lag.
700-800€ ( 899$ UVP für Europa also vermutlich 849€ UVP)
Aha. Ist zwar heftig, aber entspricht meiner Erwartung. Für ne single GPU natürlich völlig irrsinig:freak:
http://i3.kym-cdn.com/photos/images/newsfeed/000/264/241/9e9.gif
http://www.hardware-infos.com/news/4223/nvidia-geforce-titan-erster-echter-3dmark-score.html
Demnach rechnet Titan im 3DMark Fire Strike und 3DMark 11 gut 65 Prozent schneller als die GTX 680.
Ist doch ganz ordentlich. Zu einer GXT580 (mit 2133 (http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-301.42-whql/4/)) wären es ~157% mehr Leistung. Das würde ja fast mein T-SLI ersetzen.
BigKid
2013-02-12, 14:48:20
Ist doch ganz ordentlich. Zu einer GXT580 (mit 2133 (http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-301.42-whql/4/)) wären es ~157% mehr Leistung. Das würde ja fast mein T-SLI ersetzen.
Mann muss es eher so sagen: Es sieht so aus als wäre das Ding ist als SingleChip auf Schlagweite zur GTX690 ohne die SLI Nachteile (Mikro-Ruckler, "doppelter" Speicher)...
Klar ist das Äpfel/Birne aber mit etwas OC (und über das Potential wissen wir noch nix) könnte es ne Stock GTX690 schlagen...
Frage: Wenn sie ein ähnliches Lüfterkonzept wie bei der GTX690 nutzen - was meint ihr wie sich das im Vergleich zum Asus DC2 Lüfter schlagen würde ?
Also IDLE und Last-Lautstärke...
Ist doch ganz ordentlich. Zu einer GXT580 (mit 2133 (http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-301.42-whql/4/)) wären es ~157% mehr Leistung. Das würde ja fast mein T-SLI ersetzen.
Same here.
+1
Same here.
+1
Kannst Du mal bitte Deinen Wert hier als Vergleich posten? Hier finde ich 5548 für T-SLI GTX 580 (http://forums.anandtech.com/showthread.php?t=2179318).
Knuddelbearli
2013-02-12, 15:25:30
Ist doch ganz ordentlich. Zu einer GXT580 (mit 2133 (http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-301.42-whql/4/)) wären es ~157% mehr Leistung. Das würde ja fast mein T-SLI ersetzen.
naja 3dmark extreme ist schon extrem 600er lastig
Godmode
2013-02-12, 15:26:58
naja 3dmark extreme ist schon extrem 600er lastig
Naja aber zum Vergleich zwischen 680, 690 und Titan taugt er doch, oder?
dildo4u
2013-02-12, 15:29:50
naja 3dmark extreme ist schon extrem 600er lastig
Der nutzt einfach aufwändige Shader wie auch der neue 3DMark 13 macht schon Sinn wenn die zeigen sollen,wie sich die Karten in der Zukunft machen.
Manche Moderne Games zeigen sogar schon diese Abstand zwischen 580 und 680.
http://www.pcgameshardware.de/Battlefield-3-PC-221396/Tests/Battlefield-3-Grafikkarten-Benchmarks-1042773/
In 1080p limitiert noch nicht der Vram der 580.
Kannst Du mal bitte Deinen Wert hier als Vergleich posten? Hier finde ich 5548 für T-SLI GTX 580 (http://forums.anandtech.com/showthread.php?t=2179318).
3dMark11? im 2013 habe ich grad etwas mehr als ne singel 580:eek:
Liegt vlt. auch an meinem Steinzeit-Win7. Aber irgendwas stimmt da nicht.
3dm11 kann ich gleich mal durchjagen.
Knuddelbearli
2013-02-12, 16:01:54
Naja aber zum Vergleich zwischen 680, 690 und Titan taugt er doch, oder?
würde ich so nicht sagen
bei AMD reihen sich auch die alten Karten recht schön ein. und auch da finde ich +70% gegenüber der 7970GE einfach zuviel
Ich vermute aber kein Fake sondern eher eine OC Titan, gerade OBR ist ja ein kleiner Fanboy geworden.
+160% von einer Generation zur anderen bei kleinerem DIE ...
DAS glaube ich erst wenn ich es selber in den Händen halte
BigKid
2013-02-12, 16:23:11
würde ich so nicht sagen
bei AMD reihen sich auch die alten Karten recht schön ein. und auch da finde ich +70% gegenüber der 7970GE einfach zuviel
Ich vermute aber kein Fake sondern eher eine OC Titan, gerade OBR ist ja ein kleiner Fanboy geworden.
+160% von einer Generation zur anderen bei kleinerem DIE ...
DAS glaube ich erst wenn ich es selber in den Händen halte
Naja die Vorzeichen gab es... Erinnert euch mal daran, dass NVIDIA anscheinend erstaunt darüber war wie wenig die Konkurrenz zulegt und dass man deshalb dann beschloss mit dem ursprünglich als Mainstream Chip geplanten GK104 auch ins Enthusiast Segment vorzustossen...
Das wiederspricht ja der anderen Aussage NICHT, dass man von vorneherein vorhatte ZUERST mit dem kleinen Chip anzutreten... Es hatte vermutlich eher Einfluss darauf wieviel Zeit man sich mit dem "echten" Biest lassen konnte und dass dieses jetzt als "Sonderedition" und eben nicht als GTX680 kommt...
Gabs was ähnliches nicht schonmal bei der 8800 ? Nur dass sich diesmal NVidia das Geschenk macht (Preis) und nicht dem Kunden...
Ehrlich gesagt ist mir auch wurscht ob Titan nun MIT OC in Schlagreichweite der GTX690 kommt oder ob er dann mit OC vielleicht diese (@stock) sogar leicht überholt... Der Vorteil eine Single-Chip Lösung zu haben überwiegt imho (bei vergleichbarem Preis)... Dass der unanständig hoch ist sei mal dahingestellt... Aber ohne jetzt hier Öl in die Flammen giessen zu wollen - hat nicht AMD die Mond-Preise vorgegeben und NVIDIA hat dann lediglich seinen üblichen kleinen Premium Aufschlag drauf gehauen anstatt Druck zu machen ? Wer war denn zuerst auf dem Markt - AMD wenn ich mich richtig erinnere...
robbitop
2013-02-12, 16:27:44
Titan müsste ungefähr doppelt so schnell sein wie die GF110. GK104 war ~ 30 % schneller als GF110. Titan wird ~ 60 % schneller als GK104. Sind knapp über Faktor 2.
Also das ehemals übliche für eine High End Karte. Vieleicht ein klein wenig mehr als das.
Godmode
2013-02-12, 16:35:35
Also ich werde mich damit eindecken und dann kommt eh wieder lange Zeit nichts. Viel falsch, kann man damit nicht machen, wenn man vom hohen Preis mal absieht.
Knuddelbearli
2013-02-12, 16:36:58
naja vergleichen wir 560 TI mit 580 und 680 mit der Titan
+40% im 3dMark11
332mm² vs 520mm²
150W vs 250W
+60% im 3DMark13
294mm² vs 550mm² ( dachte Titan ist kleiner als GK110 ? )
190W vs 300W
und das wo Titan vs 680 deutlich mehr Server Sachen hat als 560TI vs 580
@ robbitop ja das halte ich auch für realistischer, Skalierung pro fullnode ist nie 1:1 dafür gibt es ja architekturverbesserungen
Lowkey
2013-02-12, 16:37:05
Also ich werde mich damit eindecken und dann kommt eh wieder lange Zeit nichts. Viel falsch, kann man damit nicht machen, wenn man vom hohen Preis mal absieht.
Schenkst du mir dann deine alte Karte? Ich würde sie gerne in einen Kasten setzen und an die Wand nageln :)
boxleitnerb
2013-02-12, 16:39:55
würde ich so nicht sagen
bei AMD reihen sich auch die alten Karten recht schön ein. und auch da finde ich +70% gegenüber der 7970GE einfach zuviel
Ich vermute aber kein Fake sondern eher eine OC Titan, gerade OBR ist ja ein kleiner Fanboy geworden.
+160% von einer Generation zur anderen bei kleinerem DIE ...
DAS glaube ich erst wenn ich es selber in den Händen halte
Doch, Kepler vs Kepler passt sehr gut beim 3DMark, das bildet auch die Spielerealität (ohne CPU-Limit) ab.
BigKid
2013-02-12, 16:44:45
naja vergleichen wir 560 TI mit 580 und 680 mit der Titan
+40% im 3dMark11
332mm² vs 520mm²
150W vs 250W
+60% im 3DMark13
294mm² vs 550mm² ( dachte Titan ist kleiner als GK110 ? )
190W vs 300W
und das wo Titan vs 680 deutlich mehr Server Sachen hat als 560TI vs 580
@ robbitop ja das halte ich auch für realistischer, Skalierung pro fullnode ist nie 1:1 dafür gibt es ja architekturverbesserungen
Wer sagt uns denn dass die in Titan nicht schon eingeflossen sind ? Ich nehme doch mal schwer an, dass es Teil der Idee war zuerst mal mit GK104 Erfahrungen zu sammeln und dann erst mit GK110 zu kommen... Und diesmal haben sie sich ja richtig Zeit gelassen...
Wenn das nicht möglich ist (weil die Architekturen zu unterschiedlich sind) dann versteh ich wiederum die Gründe für diese Vorgehensweise nicht...
Für mich ist da die Analogie dazu GTX480 v.s GTX460 (nur wars damals halt anders rumm)...
Godmode
2013-02-12, 17:05:16
Schenkst du mir dann deine alte Karte? Ich würde sie gerne in einen Kasten setzen und an die Wand nageln :)
So Dick habe ich es nicht, dass ich eine so teure Karte verschenken kann. Aber du kannst sie mir gerne abkaufen. Für 700 € ist sie dein. ;)
Gipsel
2013-02-12, 17:42:04
und das wo Titan vs 680 deutlich mehr Server Sachen hat als 560TI vs 580Wirklich? ECC ist das Gleiche, für DP ist der Mehraufwand relativ gesehen sogar geringer und der Rest ist doch eher Kleinkram.
Was GK110 von GK104 unterscheidet, ist eine minimal geänderte ISA mit geändertem Instruction-Encoding (8 Bits für Register statt nur 6). Aber sonst sind die sich eigentlich ziemlich ähnlich.
Ailuros
2013-02-12, 17:53:49
Und das OBR offenbar mal wieder richtig lag.
Bei dem Kerl ist es auch nicht immer die Regel. Nachdem er so oft auf die Palme getrieben wurde mit falschen Infos ist er lediglich verdammt vorsichtig geworden bevor er etwas veroeffentlicht.
Ja klar! :uclap:
Wie kann man nur drauf kommen das ich den NDA Bruch meine... :rolleyes:
Ich will mir nicht vorstellen dass Du keinen Humor hast. Klingt zwar egoistisch aber ich hab drueber schon lachen muessen :P
----------------------------------------------------------------------------------
Sonst tut es mir leid aber ich kann mit dem zu hohen MSRP immer noch nicht zustimmen. Es ist eben auch ein ziemlich passender "Zufall" dass der GK104 Nachfolger mit schatzungsweise GTX680+ =/>15% Leistung NICHT bald kommen wird. Ich hab im November 2006 etwas ueber 650 Euros fuer die 8800GTX hingelegt und es waren immer noch nicht die Zeiten wo high end GPUs spaeter um einiges billiger wurden. Das Ding war nicht nur um bis zu 3x Mal schneller als sein Vorgaenger beim launch (spaeter um sogar mehr), sondern lieferte auch einen ziemlich wichtigen fuer mich IQ Zusatz. Heute wuerde ich trotz allem gerne 600-650 Euros auf den Ladentisch legen fuer einen Titan, aber was dafuer NV anfangs verlangen wird ist weder ein Zufall noch will ich hier mitspielen. Hoffnung stirbt halt als letzte und ich hoffte wirklich dass nach einem Jahr 28nm GPUs sich die ganze Affaere um einiges normalisieren wird.
Skysnake
2013-02-12, 18:26:29
Ich will mir nicht vorstellen dass Du keinen Humor hast. Klingt zwar egoistisch aber ich hab drueber schon lachen muessen :P
Oh doch ich versteh schon Spaß, und ich musste auch selbst ein bischen schmunzeln. Nur heißt aber nicht, das ich mir keine Retourkutsche erlauben kann, um auch ein bischen Spaß zu haben :tongue:
Ich konnte jetzt nämlich 2 mal lachen :biggrin::tongue:
Ronny145
2013-02-12, 18:30:59
Bei dem Kerl ist es auch nicht immer die Regel.
Die Regel ist das bei niemanden. Davon kannst du ein Lied singen.
BigKid
2013-02-12, 19:03:06
Bei dem Kerl ist es auch nicht immer die Regel. Nachdem er so oft auf die Palme getrieben wurde mit falschen Infos ist er lediglich verdammt vorsichtig geworden bevor er etwas veroeffentlicht.
Ja und wenn er dem Weg weiter folgt, dann ist er auf gutem Weg seriös zu werden... :eek:
Blediator16
2013-02-12, 19:10:31
Er hat den "leak" übrigends aus seinem Blog gelöscht.
Godmode
2013-02-12, 19:12:44
Er hat den "leak" übrigends aus seinem Blog gelöscht.
Das ist doch nur Taktik, damit er nochmal nen Haufen Hits bekommen. ;D
crux2005
2013-02-12, 19:22:54
Auf PCtuning.cz ist die News noch. Nur nicht in Englisch...
Ailuros
2013-02-12, 19:32:31
Die Regel ist das bei niemanden. Davon kannst du ein Lied singen.
Nur bin ich kein angeblicher "Redakteur", hab keine Webseite von der ich Geld kassiere noch erlaube ich mir so viel kollektiven Bloedsinn generell wie der Kerl. Sonst hast Du natuerlich recht; davon sollte jeder ein Lied singen, ohne jegliche Aussnahme.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.