PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF104 - Q2/2010 - und andere GF10x


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11

Gast
2010-07-03, 00:49:18
Kannst du die Behauptung, dass GF100 eine höhere Geometrieleistung als RV870 habe auch belegen?
Ich habe einen Thread in der NV-Sektion offen der die Leistung beider Chips in Crysis in der Map Townfight von Superheld vergleicht.
Die Map stellt pro Frame bis zu 100 Millionen Polygone dar.
Eine Überlegenheit ist nocht zu sehen, es herrscht vielmehr absoluter Gleichstand.


Bei dermaßen vielen auf der CPU erzeugten Polygonen ist das auch kein wunder, da limitiert die CPU bzw. auch der PCIe-Bus.

Coda
2010-07-03, 02:28:42
@ Bucklew

Kannst du die Behauptung, dass GF100 eine höhere Geometrieleistung als RV870 habe auch belegen?
Ich habe einen Thread in der NV-Sektion offen der die Leistung beider Chips in Crysis in der Map Townfight von Superheld vergleicht.
Die Map stellt pro Frame bis zu 100 Millionen Polygone dar.
Eine Überlegenheit ist nocht zu sehen, es herrscht vielmehr absoluter Gleichstand.
Natürlich sieht man das da. Die NVIDIAs brechen mit vielen Polygonen praktisch nicht ein, die ATIs aber deutlich. Das heißt bei NVIDIA ist dort noch lange keine Bottleneck, bei ATI aber schon.

Ihr müsst auch die Ergebnisse richtig interpretieren.

Bei dermaßen vielen auf der CPU erzeugten Polygonen ist das auch kein wunder, da limitiert die CPU bzw. auch der PCIe-Bus.
Da wird nichts auf der CPU erzeugt.

Die NVIDIAs haben derzeit tatsächlich eine viel stärkere Geometrieleistung, aber ob sie das zu ihrer Lebenszeit ausspielen können ist sehr fraglich. Vor allem da ATI das mit anderen Stärken teilweise auch kompensieren kann.

Captain Future
2010-07-03, 08:52:49
Guten Morgen allerseits!
Das ist alles richtig. Man könnte höchstens anführen, dass Fermi seiner Zeit zu weit voraus ist.
Stimmt, das könnte man. Allerdings steht man bei der Symbiose zwischen Hard- und Software immer vor dem Henne-Ei-Problem; gerade wenn man den GPU-Computing-Markt abdecken will, der sich noch im Entstehen befindet. Dort braucht man wahrscheinlich ein möglichst CPU-nahes Feature-Set, auch wenn es Transistoren und damit "Spieleleistung" kostet, um überhaupt interessant zu sein und sich gegen Sechs- und Zehnkern-CPUs zu behaupten.

Insofern ist GF100 schon weitaus erfolgreicher als Nvidias letzter Versuch - die Geforce FX. GF100 ist zwar auch stromhungrig, aber die absolute Performance stimmt.

Kalmar
2010-07-03, 09:02:14
Guten Morgen allerseits!

Stimmt, das könnte man. Allerdings steht man bei der Symbiose zwischen Hard- und Software immer vor dem Henne-Ei-Problem; gerade wenn man den GPU-Computing-Markt abdecken will, der sich noch im Entstehen befindet. Dort braucht man wahrscheinlich ein möglichst CPU-nahes Feature-Set, auch wenn es Transistoren und damit "Spieleleistung" kostet, um überhaupt interessant zu sein und sich gegen Sechs- und Zehnkern-CPUs zu behaupten.


des problem ist doch das der wille vielleicht da ist T. zu benutzen in spielen aber momentan die umsetzbarkeit wegen konsolen einfach nicht gegeben ist.. ich würde mir als entwickler doch auch net die massiven mehr kosten ans bein binden um auf einer plattform etwas besser auszusehen ...
und metro hat ja auch gezeigt das die kleineren karten dann das nicht vernüftig können, obwohl hier auch die frage im raum steht wie sinnvoll und gut optimiert metro das einsetzt und ob da nicht vielleicht noch viel mehr luft nach oben ist bei der optimierung ...

Captain Future
2010-07-03, 09:09:33
des problem ist doch das der wille vielleicht da ist T. zu benutzen in spielen aber momentan die umsetzbarkeit wegen konsolen einfach nicht gegeben ist.. ich würde mir als entwickler doch auch net die massiven mehr kosten ans bein binden um auf einer plattform etwas besser auszusehen ...
und metro hat ja auch gezeigt das die kleineren karten dann das nicht vernüftig können, obwohl hier auch die frage im raum steht wie sinnvoll und gut optimiert metro das einsetzt und ob da nicht vielleicht noch viel mehr luft nach oben ist bei der optimierung ...
Richtig, Konsolenspiele - nein, vielmehr billige Portierungen von der Konsole auf den PC - sind ein Bremsklotz für die Notwendigkeit schneller, moderner Grafikkarten auf dem PC. Und man muss leider konstatieren, dass der Konsolenmarkt weitaus größer ist als der PC-Spielemarkt (Vollpreis, Casual-, F2P- und Browsergames mal nicht mitgerechnet).

Umso mehr müssen sowohl Nvidia als auch AMD zusehen, dass Entwickler Anreize haben, auf dem PC für Mehrwert zu sorgen. Komischerweise stösst das in der Community aber jedesmal auf Ablehnung, gar Entrüstung! Ich erinnere mich noch an die fantastische Techdemo von Call of Juarez, bei der AMD-Technik dafür sorgte, dass auch mit HDR-Rendering Antialiasing gescheit aussah; die Nvidia-Fanboys schrien auf. Später dasselbe mit Physx-Spielen, die die GPU nutzen: AMD Fanboys schrien auf.


Zu deinem T-Punkt jedoch: T. ist IMHLO nur ein Nebenprodukt der umgestellten Architektur - mit dem Anfangs Ati warb (Dirt2, Alien vs. Predator, Unigine), nun Nvidia (Metro, Unigine). Natürlich sollte es optimiert eingesetzt werden, entfernungsabhängig zum Beispiel. Aber es sollte auch nicht an falscher Stelle gespart werden. Wenn trotz Tessellation und der damit verbundenen Einschränkungen (nur DX11-Karten - das ist für Publisher schon problematisch, und man muss einen Fallback anbieten) ein vorher sehr eckiges Fass nun "nur noch" einigermaßen eckig ist, ist der Einsatz von T. Verschwendung: Es muss rund aussehen - sonst sieht der Kunde den Mehrwert nicht.

Ein weiteres Problem: Durch den Fallback ist man gezwungen, schon einigermaßen brauchbare Geometrie abzuliefern, was den T.-Vorteil, nämlich die Bussysteme und Speicher zu entlasten, drastisch bremst. Und wenn man erstmal an dieser Basis ist, nämlich geometrisches Detail auch geometrisch darzustellen und nicht via Bump- oder Normal-Mapping, dann lohnt es sich auch richtig. Eine Szene lässt sich dann anstelle von 1 Mio Polygone plus Normalmapping einfach mit 50 Mio. Polygonen darstellen - und das gute daran ist: es müssen vielleicht nur 100k Polygone von der CPU zur GPU übertragen werden.

IVN
2010-07-03, 09:12:56
des problem ist doch das der wille vielleicht da ist T. zu benutzen in spielen aber momentan die umsetzbarkeit wegen konsolen einfach nicht gegeben ist.. ich würde mir als entwickler doch auch net die massiven mehr kosten ans bein binden um auf einer plattform etwas besser auszusehen ...
und metro hat ja auch gezeigt das die kleineren karten dann das nicht vernüftig können, obwohl hier auch die frage im raum steht wie sinnvoll und gut optimiert metro das einsetzt und ob da nicht vielleicht noch viel mehr luft nach oben ist bei der optimierung ...
Metro ist eines der ersten Spiele, die Tess einsetzen. Erinnerst du dich an das HDR in Farcry "anno damals"? Das war viel schlimmer als Tess heute. Ich erinnere mich, wie User kein AA nutzen konnten, ein, zwei Auflösungsstufen runtergehen mussten, damit es spielbar läuft. Und das auf damaliger Top-Highend-HW. In meinen Augen bedeutet das, dass für Tess genug Power da ist. Mit ein bisschen Optimierung wird das in den zukunftigen Spielen super laufen. In Metro hat man es bestimmt nur drangeklatscht, und es läuft gut auf einer Highend-Karte.

Captain Future
2010-07-03, 09:16:31
Übrigens: Bei Metro haut doch hauptsächlich der hohe Speicherverbrauch so derb ins Kontor, gar nicht mal die T. - oder erinnere ich das falsch?

Tante Edith meint: Nein, stimmt wohl, siehe den mittleren der Benchmarks.
http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2

Undertaker
2010-07-03, 12:44:54
40,5 zu 25,8fps oder 26,9 zu 19,8fps finde ich schon ganz schön heftig für die Aktivierung von Tesselation.

Captain Future
2010-07-03, 12:54:01
40,5 zu 25,8fps oder 26,9 zu 19,8fps finde ich schon ganz schön heftig für die Aktivierung von Tesselation.
Argh! Verguckt. Ich dachte irgendwie, dass ab dem ersten "4xMSAA" alle mit 4x MSAA liefen. Dann nehme ich die Behauptung natürlich herzlich gern zurück. :)

LovesuckZ
2010-07-03, 13:00:35
Schade, dass die PCGH.de dort noch keine GF100 Karte durchlaufen gelassen hat. Ich wäre hier sehr auf das Ergebnis gespannt.

aylano
2010-07-03, 14:07:14
Die Leute haben ja jetzt ihre Performance. Die meisten mir bekannten Reviews sehen GF100 > Cypress, und zwar nicht nur in Sachen Preis, Transistoren, Feature-Set und Leistungsaufnahme sondern auch in Sachen Fps.
Die meisten wollen aber nicht den immensen Stromverbrauch. Und die T-Performance kann momentan eben nicht genutzt werden.


Ich finde den Vergleich, wie du aus meinen Sätzen wohl gemerkt haben wirst, zwischen R600 und GF100 unpassend.

Aus sicht der Effizienz sind sich dieser Ähnlicher als du glaubst.
Und die ist eben entscheidend, wenn die Low-End & Mainstream-GPUs in den Markt, vorallem Notebook-Markt kommen.

Vorallem ist GF100 ziemlich an der Grenze. Einerseits die sehr niedrige Spannung & Breiter-Die, sowie der Stromverbrauch.
Das ist suboptimial wenn man für die Zukunft kaum noch Reserven hat, und die Low-End & Mainstream brauch ja auch schon ewig, bis sie am Markt kommen.

Dazu kommt, AMD kann seine Architektur deutlich schneller & einfacher einführen und steht somit in dieser Zeit Performance-Mäßig viel besser da.
Das vergessen nähmlich welche. Denn Gamer warten, aber OEM verbauen diese Karten in Desktop & Notebooks und Normalo kaufen diese.

Kurz gesagt, Architektur-Eigenschaften ist viel mehr als nur Performance.


Hm, die Technik soll also maximal ein Jahr aktuell sein und danach sind 400-Euro-Grafikkarten für alle uninteressant? Sag das denen, die soviel Kohle für eine Karte raustun.
Also, seitdem die HD 5870 & 480GTX da ist, redet keiner mehr in diesem Forum über die GTX285.


Interessant ist auch dein letzter Satz: Das, was Ati mit den Inseln macht, ist also für 2011 interessant - egal ob sie dann Geometrie massiv verbessern oder links liegen lassen? Oder wie ist das gemeint?
Es steht eh dort, wie es gemeint ist.
North-Island bringt Verbesserungen.
Diese Verbesserungen können zu mehr Stromverbrauch führen und somit wenig Effizienz-Steigerungen oder zu gleichbleibenden Stromverbrauch und somit mehr Effizienz führen.
Da muss man halt abwarten, ob im Jahre 2011 North-Island aufgrund der 2011er-Spiele zuwenig oder genaurichtig oder auch zuviel-Tesselation hat.

Klar, eine mögliche C++, falls das kommen soll, würde eben zu keinen Performance-Steigerungen in Spiele bringen, aber zu mehr Stromverbrauch was dann eine Effizienz-verschlechterung wäre.
Mal sehen, was AMD da bringt.

AnarchX
2010-07-03, 14:20:21
http://translate.google.de/translate?u=http%3A%2F%2Fwww.donanimhaber.com%2FNvidia_GeForce_GTX_460_GeForce_9 800GTden_26x_daha_fazla_oyun_performansi_sunuyor-20868.htm&sl=tr&tl=en&hl=&ie=UTF-8
GTX 460: 2,6x 9800GT, 1,45x GTX 260 laut Nvidia.
Da will man wohl die 8800GT/9800GT Käufer zu einem Upgrade überzeugen.

Botcruscher
2010-07-03, 14:40:21
... in FC2. Ganz großes Kino. Bleibt noch das Update beim NT. Nebenbei fand sich die Zielgruppe von 98GT und GTX260 doch in deutlich günstigeren Gefilden. TSMC kommt einfach nicht aus der Hüfte.

pest
2010-07-03, 18:17:41
GTX 460: 2,6x 9800GT, 1,45x GTX 260 laut Nvidia.


da muss man in 1680x1050 nur mal AA einschalten, da fliegt jede Karte mit 1GB der 8800GT davon

V2.0
2010-07-03, 18:22:43
... in FC2. Ganz großes Kino. Bleibt noch das Update beim NT. Nebenbei fand sich die Zielgruppe von 98GT und GTX260 doch in deutlich günstigeren Gefilden. TSMC kommt einfach nicht aus der Hüfte.

Nein. Die 8800Gt hat bei gegen 300Euro angefangen. Eine doppelt so schnelle Karte mit geringfügig erhöhtem Strombedarf, DX11 und um 200 Euro wird viele (mich eingeschlossen ansprechen).

Gast
2010-07-03, 18:59:27
Speicher ist doch relativ gut getaktet, mal schauen was der volle GF104 zur Seite gestellt bekommt, könnte auch ein 2GHz GDDR5 werden, wenn die GPUs sich gut takten lassen. Dann brauch man keine GTX475 mehr bringen ^^

LovesuckZ
2010-07-03, 19:14:19
Nein. Die 8800Gt hat bei gegen 300Euro angefangen. Eine doppelt so schnelle Karte mit geringfügig erhöhtem Strombedarf, DX11 und um 200 Euro wird viele (mich eingeschlossen ansprechen).

230€ war der UVP.

Botcruscher
2010-07-03, 19:54:13
Nein. Die 8800Gt hat bei gegen 300Euro angefangen. Eine doppelt so schnelle Karte mit geringfügig erhöhtem Strombedarf, DX11 und um 200 Euro wird viele (mich eingeschlossen ansprechen).

Deswegen auch 9800GT. Geizhals geht leider nur bis Mitte 2008 zurück. Da hat eine 98GT 140€ gekostet. Die 88er waren eh vergleichbar überteuert wie die heutigen Karten. Damals lag es nicht an der Fertigung. NV hat sich da dank des schwachen R600 gesund gestoßen.
230€ war der UVP.
Der schnell nach unten wanderte.
Die gegenwärtige Situation ist einfach hochgradig indiskutabel. Der Schnitt der Karten müsste glatt 100€ tiefer liegen.

y33H@
2010-07-03, 21:24:38
Wieso? Nur weil alle HD4k-Dumping verwöhnt sind? Nein.

360€ für eine HD5870 ist lächerlich günstig ...

V2.0
2010-07-03, 21:38:29
230€ war der UVP.

Der aber erst spät gegriffen hat. Nach Launch lag sie lange um 250.

Und ich würde die 460 mit der 8800GT vergleichen. Denn imho ist sie der legitime Nachfolger.

Botcruscher
2010-07-03, 21:57:56
Wieso? Nur weil alle HD4k-Dumping verwöhnt sind? Nein.
360€ für eine HD5870 ist lächerlich günstig ...
Ist es nicht, wobei es bei der 5870 noch geht.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=453122

2010 sagenhafte 0% Steigerung bei 150€

y33H@
2010-07-03, 22:07:02
Ich hab anno 2007 das Doppelte für eine 8800 Ultra gezahlt und früher und später über 500€ für andere High-End-Karten. Und die HD5870 ist kein High-End mehr, sondern nur noch Performance *Schulter zuck* Da sind 360€ niedlich, eine 88GTS/640 ging für weit über 400€ weg damals. Daher halte ich dieses "hochgradig indiskutabel" für hochgradig indiskutabel ;)

Botcruscher
2010-07-03, 22:11:08
Du brauchst ja auch nicht diskutieren, der Beweis der Stagnation ganzer Marktsegmente wurde ja erbracht.:D

AnarchX
2010-07-03, 23:15:12
MSI N460GTX CYCLONE 768D5 OC Edition:
http://www.coolaler.com/forum/showthread.php?t=242374

Captain Future
2010-07-03, 23:26:07
Die meisten wollen aber nicht den immensen Stromverbrauch. Und die T-Performance kann momentan eben nicht genutzt werden.
Die meisten wollen auch keine 300 bis 400 Euro ausgeben. Kompromisse geht man ein, oder lässt es bleiben.
Aus sicht der Effizienz sind sich dieser Ähnlicher als du glaubst.
Und die ist eben entscheidend, wenn die Low-End & Mainstream-GPUs in den Markt, vorallem Notebook-Markt kommen.
Du wiederholst dich, leider jedoch ohne weitere Informationen zu liefern. Ich behaupte dann einfach mal, dass die Effizienz ziemlich gut ist - viel besser als in der Evergreen-Reihe. Zum Beispiel in Sachen Bildqualität pro Watt.

Was den Notebook-Markt angeht: Immerhin hat Nvidia es geschafft, ihre High-End-GPU in Notebooks unterzubringen. Von Ati sehe ich bisher nur den Performance-Chip mit dem Namen des Desktop-High-End.

Vorallem ist GF100 ziemlich an der Grenze. Einerseits die sehr niedrige Spannung & Breiter-Die, sowie der Stromverbrauch.
Das ist suboptimial wenn man für die Zukunft kaum noch Reserven hat, und die Low-End & Mainstream brauch ja auch schon ewig, bis sie am Markt kommen.
Das hat bei Nvidia eigentlich Tradition. High-End kommt zuerst, danach wird im Glanze der Performance-Krone der Restbestand älterer Geforce-Karten ein halbes Jahr abverkauft und dann kommt die neue Technik in die Einsteigerklasse.

Dazu kommt, AMD kann seine Architektur deutlich schneller & einfacher einführen und steht somit in dieser Zeit Performance-Mäßig viel besser da.Das vergessen nähmlich welche. Denn Gamer warten, aber OEM verbauen diese Karten in Desktop & Notebooks und Normalo kaufen diese.
Das ist einfach eine Entscheidung, die man im Vorfeld trifft. Die hochbezahlten Betriebswirte beider Seiten werden das sicher gut durchgerechnet haben. Siehe mein Argument oben: Der Performance-Halo hilft auch beim Abverkauf älterer Karten, während bei Ati die 512er-4870 zum Teil um 100 Euro zu bekommen war, um die Lager vor dem Eintreffen der neuen Generation zu leeren.


Kurz gesagt, Architektur-Eigenschaften ist viel mehr als nur Performance.
Richtig: Bildqualität, Features, Skalierbarkeit in andere Bereiche, Skalierbarkeit in andere Prozesse und - auch wenn du es nicht hören willst - auch die Vermarktbarkeit der Features.

Übrigens: Effizienz ist auch viel mehr als nur Performance pro Watt. ;)

Also, seitdem die HD 5870 & 480GTX da ist, redet keiner mehr in diesem Forum über die GTX285.
… und alle Besitzer derselben haben sie weggeworfen, weil sie uninteressant geworden ist? Ich glaube nicht, Tim.


Es steht eh dort, wie es gemeint ist.
North-Island bringt Verbesserungen.
Diese Verbesserungen können zu mehr Stromverbrauch führen und somit wenig Effizienz-Steigerungen oder zu gleichbleibenden Stromverbrauch und somit mehr Effizienz führen.
Da muss man halt abwarten, ob im Jahre 2011 North-Island aufgrund der 2011er-Spiele zuwenig oder genaurichtig oder auch zuviel-Tesselation hat.

Klar, eine mögliche C++, falls das kommen soll, würde eben zu keinen Performance-Steigerungen in Spiele bringen, aber zu mehr Stromverbrauch was dann eine Effizienz-verschlechterung wäre.
Mal sehen, was AMD da bringt.
Na, da lassen wir uns doch überraschen (und legen selbstverständlich an die Inselketten auch dieselben, unabhängig-strengen Maßstäbe an, was Effizienz angeht, gelle?).

Gast
2010-07-03, 23:29:53
Hat die falsche RückSeite vom Karton abgelichtet, man kann die Taktraten nicht lesen ^^
Außer 2xDVI und HDMI sieht man leider nichts. Zum Start also doch direkt Custom Design.

AnarchX
2010-07-03, 23:31:53
Hat die falsche RückSeite vom Karton abgelichtet, man kann die Taktraten nicht lesen ^^
Außer 2xDVI und HDMI sieht man leider nichts. Zum Start also doch direkt Custom Design.
Die gibt es doch auf dem GPU-Z-Screens: 728/900MHz.
Durchaus ein Niveau wo der vollständige GF104 mit ~1GHz GDDR5 sehr interessant werden könnte.

y33H@
2010-07-03, 23:36:11
Default sind ja 675/1.350/1.800 MHz. Also Speicher "untouched" und GPU +8%. Naja - hoffentlich taugt die Kühlung.

LovesuckZ
2010-07-03, 23:38:55
Die Netzteilempfehlung entspricht der einer GTS250.

Gast
2010-07-03, 23:42:19
Ups runterscrolln sollte man, dachte er hat nur im Eingangspost paar Bilder als Heißmacher hinterlegt.
Die "kleine" drückt ganz schön, eine GTX260 kommt im Vantage Performance auf ca. 10,5k-12,5k je nach Version und Taktrate. Wenn er noch einen xTreme Test macht wäre man Schlau.
Aber man kann sich auf ne gute Karte freuen mit Voltage Control ;)

LovesuckZ
2010-07-03, 23:43:47
Xtreme soll bei ca. 6k liegen.

Gast
2010-07-04, 00:41:01
Wenn man die Werte mit den GTX465 mal vergleicht: http://www.coolaler.com/forum/showthread.php?t=242000
Die GTX465 ist echt überflüssig...

GTX465: 700/1400/800 /P-GPU: 13147
GTX460 728/1455/900 /P-GPU: 12567

AwesomeSauce
2010-07-04, 04:31:35
Äh, 224 SPs und 24 ROPs... GPU-Z Fail? Da stimmt noch einiges nicht an den Daten...

A1 als Retail-Stepping. Ausbeute scheint kein Problem zu sein;) Wann gab es das zum letzten Mal?

Ailuros
2010-07-04, 07:25:04
Wenn man die Werte mit den GTX465 mal vergleicht: http://www.coolaler.com/forum/showthread.php?t=242000
Die GTX465 ist echt überflüssig...

GTX465: 700/1400/800 /P-GPU: 13147
GTX460 728/1455/900 /P-GPU: 12567

15k in 3dfart P? Netter Zufall.

AwesomeSauce,

Wieso koennte wohl GPU-Z so frueh etwas falsch auslesen?

Gast
2010-07-04, 07:47:05
Liest GPU-Z nicht mittlerweile die CUDA Kern Angabe aus dem Forceware Treiber aus?

Ailuros
2010-07-04, 07:58:55
Liest GPU-Z nicht mittlerweile die CUDA Kern Angabe aus dem Forceware Treiber aus?

Ich bezweifle dass GPU Z ueberhaupt etwas auslesen kann was die Anzahl der Einheiten betrifft. Im Gegenfall hat das Ding eben die Anzahl der SMs (7) richtig ausgelesen und eben nicht die richtige Anzahl von SPs/SM (32 vs. 48 realen).

***edit: die Anzahl der ROPs stimmt uebrigens; bei 192bit (3*64bit) = 3*8 ROPs/partition = 24 ROPs

******edit Nr.2: uebrigens zu Eurer quasi "Neben-Debatte": man kann es leicht vereinfachen und sagen dass AMD in der Zukunft ihre Geometrie bzw. Tessellations-Leistung verbessern koennte und NVIDIA den Stromverbrauch. Zwar gibt es fuer beide stets viel mehr Punkte fuer Verbesserungen, aber bleiben wir mal bei diesen beiden Punkten. Theoretisch ist es um einiges leichter fuer AMD nachzuholen.

Gast
2010-07-04, 08:16:30
TMUs sollen es laut GPU-Z 42 sein. ;)

Auf Basis der zwei unabhängigen, vorliegenden Vantage Feature-Tests kann man doch schon sagen, dass es 336 SPs je 2 FLOPs und 56 TMUs sind. Dass es sich dabei um Fakes handeln sollte, wäre schon sehr unrealistisch.

Captain Future
2010-07-04, 08:49:47
******edit Nr.2: uebrigens zu Eurer quasi "Neben-Debatte": man kann es leicht vereinfachen und sagen dass AMD in der Zukunft ihre Geometrie bzw. Tessellations-Leistung verbessern koennte und NVIDIA den Stromverbrauch. Zwar gibt es fuer beide stets viel mehr Punkte fuer Verbesserungen, aber bleiben wir mal bei diesen beiden Punkten. Theoretisch ist es um einiges leichter fuer AMD nachzuholen.
Trefflich zusammengefasst.

Nur deinem letzten Satz stimme ich nicht zu. Es wird schon seinen Grund haben, warum man das Tri-Setup bisher nie als Flaschenhals angegangen ist. Ganz so trivial wie einfach mehr Shader-ALUs reinzuwerfen, die offenbar auch nicht immer angesprochen werden können, ist es eben doch nicht.

Und der Stromverbrauch sinkt fast automatisch mit a) Process Maturity b) kleineren Chips und c) mit etwas Überarbeitung.

Gast
2010-07-04, 09:14:08
Wenn GPU-Z auser der VendorID/PCI ID und der Taktrate nichts weiter ausließt, kann man die Angaben vergessen. 336 SPs sind ja schon länger geleakt worden, und ob die TMU Anzahl stimmt... Die hängen ja nicht mehr im festen Verhältnis an den ROP Einheiten, man wird sich da überraschen lassen müssen.

Gast
2010-07-04, 09:22:56
Coolaler hat noch ein paar MHz rausgequetscht: http://www.coolaler.com/forum/showpost.php?p=2661258&postcount=35

830/1660/2060, der Zalman Kühler auf 100% ist aber auch eher eine Turbine :cool:

Gast
2010-07-04, 10:01:55
Trefflich zusammengefasst.

Nur deinem letzten Satz stimme ich nicht zu. Es wird schon seinen Grund haben, warum man das Tri-Setup bisher nie als Flaschenhals angegangen ist. Ganz so trivial wie einfach mehr Shader-ALUs reinzuwerfen, die offenbar auch nicht immer angesprochen werden können, ist es eben doch nicht.

Und der Stromverbrauch sinkt fast automatisch mit a) Process Maturity b) kleineren Chips und c) mit etwas Überarbeitung.

Sehe ich nicht so. Dein letzter Absatz ist allgemeingültig für jeden Silizium-Chip. Damit wird aber NV nicht aufholen. Ihr Problem liegt eben schon am Design, das zu hohe Shadertaktraten bzw. zu viele Transistoren benötigt für Leistung x und dadurch der Stromverbrauch im Vergleich zur Konkurrenz durch die Decke geht. Sie haben ja aktuell noch das wahnsinnige Glück das AMD davon nicht profitieren kann weil sie zu wenige Chips bekommen. Aber auf Dauer wird man IMO ähnlich wie Intel von den hohen Taktraten abkommen müssen und das bedarf natürlich fundamentaler Designänderungen.

Dural
2010-07-04, 11:28:16
ehm nur jetzt mit 40nm ist das ein problem, NV war auch immer in sachen Strom/Leistung bis 55nm vorne, nur zur erinnerung die NV chips benötigen immer deutlich weniger Spannung als die ATi chips und das trotz deutlich höherem ALU takt!

Mehr transistoren benötigen sie aber definitiv, da wird sich auch nicht ändern

Wenn man bedenkt das man seit dem ur G80 in 90nm NULL MHz mehr takt mit den 40nm erziehlt zeigt doch ganz deutlich das es am Prozess liegt, immerhin war man mit 65/55nm schon über 1800MHz! Die OC freutigkeit des Fermi zeigt auch ganz klar das mehr gänge, nur macht der hohe verbrauch einen strich durch die rechnung...

und der verbrauch des GF104 scheint ja OK zu sein, villeicht ist es ja auch nur ein only GF100 problem weil es halt eben doch ein big big chip ist, villeicht auch einfach zu gross für 40nm...

Wenn man die Werte mit den GTX465 mal vergleicht: http://www.coolaler.com/forum/showthread.php?t=242000
Die GTX465 ist echt überflüssig...

GTX465: 700/1400/800 /P-GPU: 13147
GTX460 728/1455/900 /P-GPU: 12567

hmm das sieht nicht gerade gut aus was wenn man bedenkt das man deutlich mehr TMU leistung hat, der GF104 chip ist was die Leistung betrifft wohl sogar langsamer bei gleichen SP Anzahl/Takt als der GF100 chip, die mehr TMUs bringen nichts. jedenfalls in vantage P...........

Gast
2010-07-04, 12:08:18
IMO liegt es nicht nur am 40nm Prozess, sondern auch daran dass NV die Packdichte der Transistoren erhöht hat.
Und dass man mit so niedriger V-Core keine hohen Taktraten abseits der Shaderdomain (die ja der kleineren Teil des Chips darstellt) verwundert auch nicht wirklich.

Bucklew
2010-07-04, 12:23:23
Wenn man bedenkt das man seit dem ur G80 in 90nm NULL MHz mehr takt mit den 40nm erziehlt zeigt doch ganz deutlich das es am Prozess liegt, immerhin war man mit 65/55nm schon über 1800MHz! Die OC freutigkeit des Fermi zeigt auch ganz klar das mehr gänge, nur macht der hohe verbrauch einen strich durch die rechnung...
Das liegt aber nicht an der Fertigung oder an dem Design, sondern schlicht daran, dass man bei Überschreitung der aktuellen Taktgrößen nicht mehr mit den normalen Rechengröße arbeiten könnte, sondern mit Problemen und Rechengrößen der Hochfrequenz arbeiten müsste. Da traut sich aber aktuell keiner der großen Chipentwickler dran, deswegen stagniert ja auch die CPU-Frequenz bei Intel und AMD.

und der verbrauch des GF104 scheint ja OK zu sein, villeicht ist es ja auch nur ein only GF100 problem weil es halt eben doch ein big big chip ist, villeicht auch einfach zu gross für 40nm...
Ich denke man hat beim GF100-Design aufgrund der Probleme mit dem 40nm Design den Stromverbrauch zugunsten von funktionierenden Chip geopfert.

Gast
2010-07-04, 12:28:35
ehm nur jetzt mit 40nm ist das ein problem, NV war auch immer in sachen Strom/Leistung bis 55nm vorne, nur zur erinnerung die NV chips benötigen immer deutlich weniger Spannung als die ATi chips und das trotz deutlich höherem ALU takt!

Bis zu 40nm hatte sie auch eine sehr großzügige Packdichte. Jetzt sind sie fast auf AMD-Niveau und der Stromverbrauch geht durch die Decke, trotz sehr niedriger Spannung und Taktraten. Die Taktraten und die Spannung sind ja nicht aus Spaß so niedrig, sondern eben ganz klar weil das Design in letzter Konsequenz zu stromhungrig ist.

Der 40nm Prozess ist kein Problem, dazu braucht man sich nur bei der Konkurrenz umsehen. Wie es Coda schon mal sehr schön beschrieben hat haben sie ein Prescott-Problem. Die Spannung muss immer weiter sinken um den Stromverbrauch unter Kontrolle zu haben, doch damit sinken auch die Taktraten, was das Design ad absurdum führt. AMD kann dank niedriger Taktraten den Stromverbrauch unter Kontrolle halten.


Mehr transistoren benötigen sie aber definitiv, da wird sich auch nicht ändern

Das sollte sich aber ändern, spätestens wenn AMD auch mal eine Chip mit so vielen Transistoren bringt haben sie ein Problem.

Dural
2010-07-04, 12:54:26
auch bei den ATi chips kann man das gleiche festellen, bei entsprechendem takt schnellt der verbrauch in die höhe, dieses verhalten konnte man bei den 55nm chips so nie feststellen, es ist ganz klar ein 40nm problem! zu viele transistoren zu viele leckströme... das es nicht ein only fermi problem ist zeigen auch ganz deutlich die kleinen GT21x chips, hier merkt man es nur nicht so krass...

wie würde sich wohl ein RV8xx chip mit 3.2 Milliarden transistoren so schlagen...

Gast
2010-07-04, 12:58:41
auch bei den ATi chips kann man das gleiche festellen, bei entsprechendem takt schnellt der verbrauch in die höhe, dieses verhalten konnte man bei den 55nm chips so nie feststellen, es ist ganz klar ein 40nm problem!

Nein, dass ist ein generelles Problem bei jedem Fertigungsprozess seit Jahren.
Deshalb ist es vor Allem bei Grafikkarten konsequent in zusätzliche Einheiten zu investieren, anstatt die Taktraten für einzelne Domains zu erhöhen.
Die Taktraten taugen höchstens zu einer Produktdifferenzierung innerhalb einer Serie.

Dural
2010-07-04, 13:00:18
nein ist es nicht, so extrem wie es jetzt mit 40nm ist war es noch nie, klar umso grösser die chips werden umso deutlicher merkt man es... sage ja auch nichts anders!

LovesuckZ
2010-07-04, 13:01:23
Ist es eigentlich immer so schwer bei der Wahrheit zu bleiben?
nVidia hat den Takt gegenüber dem GT200b genauso wenig erhöht wie AMD zum rv790. Beide haben ihre Einheiten in einigen Bereichen stark erhöht.
Wahrheit und nicht Fiktion.

Gast
2010-07-04, 13:06:14
nein ist es nicht, so extrem wie es jetzt mit 40nm ist war es noch nie, klar umso grösser die chips werden umso deutlicher merkt man es... sage ja auch nichts anders!

Du kannst aber nicht den G92 mit dem GF100 vergleichen und dann behaupten, dass Es am Prozess liegt, dass man den GF100 nicht ebenfalls so hohe Taktraten erreicht.
NV hat die Packdichte der Transistoren im GF100 viel stärker erhöht, als der Prozess das von selbst zugelassen hat (GT200 in 55nm hatte ja auf ca. gleicher Fläche 1.3 Mrd Tr.).
Da kann man nicht einfach Alles AUf TSMC und den Prozess schieben.
Das ist auch eine Frage des Designs.

Gast
2010-07-04, 13:11:08
Ist es eigentlich immer so schwer bei der Wahrheit zu bleiben?
nVidia hat den Takt gegenüber dem GT200b genauso wenig erhöht wie AMD zum rv790. Beide haben ihre Einheiten in einigen Bereichen stark erhöht.
Wahrheit und nicht Fiktion.

Aber NV hat versucht den Diespace zu verkleinern, während AMD mehr Diespace investiert hat.
Deshalb ist auch der Energiebedarf kostant geblieben.

Gast
2010-07-04, 13:13:16
Ist es eigentlich immer so schwer bei der Wahrheit zu bleiben?
nVidia hat den Takt gegenüber dem GT200b genauso wenig erhöht wie AMD zum rv790. Beide haben ihre Einheiten in einigen Bereichen stark erhöht.
Wahrheit und nicht Fiktion.

Hat jemand etwas anderes geschrieben? Der Unterschied ist halt ganz einfach das AMD den Stromverbrauch in der Praxis gesenkt hat während der von NV explodiert ist.

Gast
2010-07-04, 13:15:28
Aber NV hat versucht den Diespace zu verkleinern, während AMD mehr Diespace investiert hat.
Deshalb ist auch der Energiebedarf kostant geblieben.

Allerdings ist die Packdichte von AMD noch immer etwas besser als die von NV -> Designproblem. NV hat also die Wahl extrem wenig Transistoren/mm² zu verbauen oder den Stromverbrauch durch die Decke zu jagen, beides keine brauchbaren Optionen.

Gast
2010-07-04, 13:31:24
Allerdings ist die Packdichte von AMD noch immer etwas besser als die von NV -> Designproblem. NV hat also die Wahl extrem wenig Transistoren/mm² zu verbauen oder den Stromverbrauch durch die Decke zu jagen, beides keine brauchbaren Optionen.

Ja eben.
Ich schrieb ja bereits, dass es wohl ein Designproblem ist und eben eines das sich nicht direkt auf das Design von GF100 zurückzuführen ist.

LovesuckZ
2010-07-04, 13:52:29
Hat jemand etwas anderes geschrieben? Der Unterschied ist halt ganz einfach das AMD den Stromverbrauch in der Praxis gesenkt hat während der von NV explodiert ist.

Natürlich hast du etwas anderes geschrieben.
Shadertakt der 8800GTX lag bei 1350MHz, bei der GTX480 bei 1400MHz. Ja, ganz klar: Der Shadertakt ist schuld am Stromverbrauch.
Weniger unsinn schreiben und sich einfach an die Fakten halten.

anderer Gast
2010-07-04, 13:54:41
Natürlich hast du etwas anderes geschrieben.
Shadertakt der 8800GTX lag bei 1350MHz, bei der GTX480 bei 1400MHz. Ja, ganz klar: Der Shadertakt ist schuld am Stromverbrauch.
Weniger unsinn schreiben und sich einfach an die Fakten halten.

Ich bin mur zwar nicht ganz sicher, aber der Ausgangspunkt war doch warum beim G92 der Shadertakt bei 1.8GHz war und warum Das Jetzt nicht mehr so ist.

LovesuckZ
2010-07-04, 13:57:35
Ich bin mur zwar nicht ganz sicher, aber der Ausgangspunkt war doch warum beim G92 der Shadertakt bei 1.8GHz war und warum Das Jetzt nicht mehr so ist.

Nein:
Aber auf Dauer wird man IMO ähnlich wie Intel von den hohen Taktraten abkommen müssen und das bedarf natürlich fundamentaler Designänderungen.

Der G92 konnte deswegen so hohe Taktraten ab, weil er ein fast 1:1 Shrink auf 65nm war. Hätte nVidia den GT200b auf 40nm gebracht, hätte man auch locker mehr als 1400MHz bei geringerem Verbrauch erreicht.
Die Taktrate ist nicht das Grundproblem beim GF100 für den Stromverbrauch.

BlackBirdSR
2010-07-04, 17:10:57
Die Taktrate ist nicht das Grundproblem beim GF100 für den Stromverbrauch.

Aber so sicher, wie Die Liebe suckt!
Bräuchte GF100 nur 300MHz wäre das ganze Problem gar nicht so schlimm. Spannung minmal, Taktraten minimal, Parasiten minimal, Stabilisatoren minimal, Spannungsregler minimal, Signallaufzeiten minimal.... einfach Perfekt!

Captain Future
2010-07-04, 17:56:30
Sehe ich nicht so. Dein letzter Absatz ist allgemeingültig für jeden Silizium-Chip. Damit wird aber NV nicht aufholen. Ihr Problem liegt eben schon am Design, das zu hohe Shadertaktraten bzw. zu viele Transistoren benötigt für Leistung x und dadurch der Stromverbrauch im Vergleich zur Konkurrenz durch die Decke geht. Sie haben ja aktuell noch das wahnsinnige Glück das AMD davon nicht profitieren kann weil sie zu wenige Chips bekommen. Aber auf Dauer wird man IMO ähnlich wie Intel von den hohen Taktraten abkommen müssen und das bedarf natürlich fundamentaler Designänderungen.
Meinen letzten Absatz habe ich leider nicht so geschrieben, wie er mir im Geiste erschien. Eigentlich wollte ich noch die unterschiedlichen Ansätze zur Redundanz mit einbeziehen. Naja, sei's drum.

Die hohen Taktraten braucht Nvidia IMHO allerdings, um bei der Skalar-Performance mit dem Hauptkonkurrenten im HPC-Bereich ansatzweise mithalten zu können. Zudem müssen sie aus dem Grunde auch ein größeres Feature-Set als AMD bieten, die ja bei den CPUs als zweitem Standbein von HPC auch abschöpfen können - so gesehen: Ja, aber…

Es ist halt wirklich wie damals FX gegen 9700, Feature-Set gegen Baseline - nur mit dem Unterschied, dass die Radeon nicht bei aktuellem Shader-Load meilenweit davonzieht.

Bräuchte GF100 nur 300MHz wäre das ganze Problem gar nicht so schlimm. Spannung minmal, Taktraten minimal, Parasiten minimal, Stabilisatoren minimal, Spannungsregler minimal, Signallaufzeiten minimal.... einfach Perfekt!
Wie passt dass den mit dem Idle-Verbrauch zusammen, der bei GF100 trotz 1/3 der AMD-Taktrate gut 50% höher liegt?

BlackBirdSR
2010-07-04, 17:59:02
Ist IMO nicht so direkt vergleichbar.

Meiner Meinung nach wird es demnächst darauf hinaus laufen, dass Gaming und Prof. Chips parallel gefertigt und entwickelt werden und nicht mehr direkt aufeinander basieren. Bisher versucht Nvidia hier eben so viel Geld wie möglich rauszuschlagen. Das ist bei getrennten Designs natürlich nicht mehr so optimal.

Gast
2010-07-04, 18:08:19
Es ist halt wirklich wie damals FX gegen 9700, Feature-Set gegen Baseline - nur mit dem Unterschied, dass die Radeon nicht bei aktuellem Shader-Load meilenweit davonzieht.


Der Vergleich passt auch sonst nicht. Denn GF100 hat nicht wirklich ein größeres Featureset wie die FX damals. Einzig ECC könnte man hier nennen. IMO passt am besten der Vergleich R580 vs. G71 mit umgekehrten Vorzeichen. R580 hatte sehr schnelles dynamisches Branching, eine höhere Shaderleistung, besseres AF, brauchte aber dafür deutlich mehr Strom.

Nakai
2010-07-04, 18:09:45
NV muss da was machen. Ohne DP und sovielen GPGPU-Fähigkeiten würde Fermi wohl nicht mehr so stark bzgl der Diesize über Cypress liegen. Stromverbrauch könnte sich auch verbessern.

IMO wird die nächste GEN so aufgebaut sein.

Ailuros
2010-07-04, 18:23:12
Trefflich zusammengefasst.

Nur deinem letzten Satz stimme ich nicht zu. Es wird schon seinen Grund haben, warum man das Tri-Setup bisher nie als Flaschenhals angegangen ist. Ganz so trivial wie einfach mehr Shader-ALUs reinzuwerfen, die offenbar auch nicht immer angesprochen werden können, ist es eben doch nicht.

Zu langwierige Analysen sind auch zu OT fuer diesen Thread. Kurz: da wo es momentan bei Evergreen mit Tessellation wirklich stockt ist es nicht allzu schwer nachzuladen und nein ich beziehe mich natuerlich nicht auf ff hw.

Und der Stromverbrauch sinkt fast automatisch mit a) Process Maturity b) kleineren Chips und c) mit etwas Überarbeitung.

Prozess-Technologie ist aber leider nicht ausschliesschlich fuer nur einen IHV verfuegbar sondern fuer alle.

Ist es eigentlich immer so schwer bei der Wahrheit zu bleiben?
nVidia hat den Takt gegenüber dem GT200b genauso wenig erhöht wie AMD zum rv790. Beide haben ihre Einheiten in einigen Bereichen stark erhöht.
Wahrheit und nicht Fiktion.

Stimmt vollkommen und dieses ist auch durchaus direkt mit 40G verbunden. Kurz 40G erlaubte zwar X mehr Komplexitaet aber eben nicht hoehere Frequenzen als 55nm.

Aber so sicher, wie Die Liebe suckt!
Bräuchte GF100 nur 300MHz wäre das ganze Problem gar nicht so schlimm. Spannung minmal, Taktraten minimal, Parasiten minimal, Stabilisatoren minimal, Spannungsregler minimal, Signallaufzeiten minimal.... einfach Perfekt!

Wenn Du ein Design-Problem hast dann kackt Dir meistens Frequenz bzw. Stromverbrauch als erstes ab. Damit hat er dann schon recht, denn Frequenz ist wirklich nicht das eigentliche Problem.

Der Vergleich passt auch sonst nicht. Denn GF100 hat nicht wirklich ein größeres Featureset wie die FX damals. Einzig ECC könnte man hier nennen. IMO passt am besten der Vergleich R580 vs. G71 mit umgekehrten Vorzeichen. R580 hatte sehr schnelles dynamisches Branching, eine höhere Shaderleistung, besseres AF, brauchte aber dafür deutlich mehr Strom.

Was schert mich als Otto-Normalverbraucher ECC? Am Ende verbraucht das Zeug sowieso nicht genug Logik dass es der Rede wert ist bei ueber 3Mrd. Transistoren. Da schluckt 4 offset gather 4 um einiges mehr und ist IMO eines der Gruende warum sie sich auf nur 4 TMUs/SM auf GF100 begrenzten.

Dein letzter Satz stimmt zwar aber es war auch der Grund warum sich G71 im notebook Markt damals wie warme Semmeln verkaufte.

Jetzt aber wirklich zurueck zum eigentlichen Thema meine Herrschaften:

ich brauch am originalen Post hier wirklich nichts aendern was die 8SMs betrifft.

Ich wuerde zwar auch gerne sagen dass die 2 GPCs gesichert sind, aber ich lass noch ein kleines Fenster offen denn man fluesterte mir etwas ueber "quad issue" ins Ohr. Fuer die SMs macht quad issue bei 3*16 keinen Sinn (und eine 4*12 These klingt mir zu absurd....) ergo kann es sein dass dieses quad Zeug auf Geometrie bezogen ist?

Captain Future
2010-07-04, 18:35:05
denn man fluesterte mir etwas ueber "quad issue" ins Ohr. Fuer die SMs macht quad issue bei 3*16 keinen Sinn (und eine 4*12 These klingt mir zu absurd....) ergo kann es sein dass dieses quad Zeug auf Geometrie bezogen ist?
3*16 + 1*x
x= L/S, SFU

Coda
2010-07-04, 21:56:45
Quad Issue ergibt bei drei Warp-Schedulern keinen Sinn.

BlackBirdSR
2010-07-05, 08:03:59
Wenn Du ein Design-Problem hast dann kackt Dir meistens Frequenz bzw. Stromverbrauch als erstes ab. Damit hat er dann schon recht, denn Frequenz ist wirklich nicht das eigentliche Problem.




Du packst das Problem am falschen Schwanz. Am Anfang steht das Konzept, dann die Performancebetrachtung und anschließend das Target.
Die Frequenzen sind schon von Beginn an ein zentraler Bestandteil des endgültigen Pakets. Es ist ja nicht so, dass ein Design entwickelt wird, und man dann hinterher gespannt wie ein Kind an Weihnachten bangt, wie viel MHz denn dieses Jahr aus der Packung hüpfen.

Kurzum: Das Design wird stark vom Clock-Target beeinflusst. Wäre dies bei 300MHz, würde das Design ganz anders aussehen und das Problem wäre gar nicht so extensiv. Natürlich kommt jetzt hinzu, dass viele Transistoren mit viel Takt gleich nochmal so schlimm sind. Das ist aber ein Problem des Konzepts.

Reaping_Ant
2010-07-05, 08:43:26
Zumindest die kleine GTX 460 ist schon im Preisvergleich (http://geizhals.at/eu/a545017.html) gelistet.

ShinyMcShine
2010-07-05, 09:15:42
Jo! Eine Woche noch. Bin gespannt wie'n Flitzebogen! Vielleicht sogar noch mehr als beim GF100... ;)

VG
Shiny

Gast
2010-07-05, 09:41:25
Zumindest die kleine GTX 460 ist schon im Preisvergleich (http://geizhals.at/eu/a545017.html) gelistet.

Allerdings stellt sich die Frage wer das Ding kaufen soll. Das ist genauso ein Krüppel wie die Geforce 8800 GS bzw. 9600 GSO. Reinste Verschwendung!
So ein schöner Chip! Massig Rohleistung, aber durch SI und Speicherausbau derart beschnitten, dass es nicht mehr feierlich ist...

Jetzt betreibt NVidia diesen Mist auch noch im Performance-Segment.
Ich halt's im Kopf nicht aus...
Außerdem ist der (aktuelle) Preis für den Krüpel absolut unangemessen.
Für ~ 150-160 € wär's ja OK.

Bin übrigens NV Freund.

BlackBirdSR
2010-07-05, 09:45:21
Ich finde Du übertreibst etwas.
Marktsegmentierung ist schon immer ein Instrument aller Firmen. Ob das nun Mercedes, VW, Intel oder AMD sind.

Man kauft ja auch CPUs, deren Fähigkeiten absichtlich beschnitten sind, oder Dieselmotoren, deren Leistung für das niedrigere Modell beschränkt sind.

Wenn die 460 die Leistung einer 465 erreicht, dabei aber billiger ist, dann ist das ein gutes Produkt (im Vergleich). Dass Nvidia natürlich erst die Mainstream-HW bringt und dann langsam die schnelleren Modelle ist auch klar - wo verdient man denn das ganze Geld?

Daher würde ich das nicht so emotional sehen!

ShinyMcShine
2010-07-05, 09:51:01
Ich warte ja auch auf das "unbeschnittene Produkt" (aka GTX 468 bzw. GTX 460/1024) :D. Allerdings erhoffe ich mir von den zahlreichen Reviews nächste Woche auch Informationen wie es denn um den GF104 generell steht (Verlustleistung, genaue Spezifikationen des vollen Chips, ...). Ich denke da wird man schon das eine oder andere Häppchen geliefert bekommen.
Ein oder zwei Reviews der GTX 460/1024 direkt am Montag wären auch super. Aber daran glaube ich (leider) nicht...

VG
Shiny

V2.0
2010-07-05, 09:59:57
Jo, die 1GB Version habe ich auch im Auge.

Auf die 468 warten ist auch ne Idee, aber wenn ich mir überlege wie irrelevant heute der Unterschied zwischen 8800GT und der 8800GTS 512 ist.

ShinyMcShine
2010-07-05, 10:10:48
Habe "damals" auch den Fehler gemacht die 8800GTS 512 zu kaufen. :( Naja, sei's Drum... Die 40-50 EUR mehr haben jetzt zwar nicht wirklich weh getan, standen aber eben in keinem Verhältnis zur Mehrleistung.
Nichtsdestotrotz sollte der Unterschied zwischen GTX 460/1024 und GTX 468 schon spürbar sein, da Erstere ja die GTX 465 ablöst und Zweitere, bei entsprechender Taktung, locker eine GTX 470 kassieren sollte! Und zwischen einer GTX 465 und GTX 470 ist schon ein Unterschied zu bemerken. Es ist natürlich dann auch wieder eine Frage des Preises bei GTX 460/1024 und GTX 468.
Mit einem schönen Customdesign und leisem Kühler wäre für mich die GTX 468 aber erstmal das Produkt der Wahl! :D

VG
Shiny

Gast
2010-07-05, 10:35:28
14% mehr ALU- und Tex-Leistung wird die 468 gegenüber der 460-256-Bit pro MHz haben. Jetzt noch ~725MHz statt den 675MHz und man ist bei fast 25%.
Eine große Frage könnte der Speicher werden, da wären wohl >1GHz angebracht um auch die GPU-Mehrleistung entsprechend umzusetzen.

Dant3
2010-07-05, 10:49:44
Ich kann nicht so ganz nachvollziehen warum Nvidia die karte nicht direkt mit 1GB speicher auf den markt bringt. Klar ist es keine high end karte, aber selbst mittelklasse karten profitieren heute doch schon sehr ausreichend von so einer speicher menge.

So ist die karte erst mal voellig uninteressant IMO.
Bin mal gespannt ob man direkt zum launch von den board partnern 1GB versionen sehen wird.

y33H@
2010-07-05, 10:51:37
Die 465er müssen erst abverkauft werden.

IVN
2010-07-05, 10:52:02
Ich kann nicht so ganz nachvollziehen warum Nvidia die karte nicht direkt mit 1GB speicher auf den markt bringt. Klar ist es keine high end karte, aber selbst mittelklasse karten profitieren heute doch schon sehr ausreichend von so einer speicher menge.

So ist die karte erst mal voellig uninteressant IMO.
Bin mal gespannt ob man direkt zum launch von den board partnern 1GB versionen sehen wird.
Weil die kleine, mit ihrem Interface, kein 1Gig ansprechen kann. Entweder 700 irgendwas, oder 1,5Gig.

ShinyMcShine
2010-07-05, 11:38:11
768MB sind es auf der "kleinen" GTX 460. nVidia hätte aber wirklich auch die GTX 460/1024 mit einem Referenzdesign vorstellen können. :( So muss man im blödesten Fall noch eine Weile warten, bis die Boardpartner entsprechende Karten mit 1024MB präsentieren. Ich glaube nämlich nicht, dass wir nächsten Montag schon Reviews der GTX 460/1024 lesen werden (lasse mich aber auch gerne vom Gegenteil überraschen). :D

VG
Shiny

V2.0
2010-07-05, 11:45:42
Schwer dürfte es nicht sein. Das Refenzenboard hat ja auch schon die Vorbereitung für 1024MB. Hier werden bei der kleinen Vatiante also einfach 2 Plätze frei bleiben.

AnarchX
2010-07-05, 11:54:23
Bei Newegg werden auch schon 1GiB Karten gelistet: http://www.newegg.ca/Product/ProductList.aspx?Submit=ENE&DEPA=0&Order=BESTMATCH&Description=gtx+460&x=0&y=0

Sorkalm
2010-07-05, 12:12:20
Auf die 468 warten ist auch ne Idee, aber wenn ich mir überlege wie irrelevant heute der Unterschied zwischen 8800GT und der 8800GTS 512 ist.

Da gabs aber auch keine Unterschiede beim Speicher. ;)
(Den es ja jetzt zumindest bei der GTX 460 768M i. V. zur 468 geben wird.)

Aber wie es um den GF104-Chip allgemein steht, wird man mit den Reviews zur 460 schon herauslesen können, klar.

V2.0
2010-07-05, 12:12:36
Palit sogar mit ner OC Version.

BlackBirdSR
2010-07-05, 12:32:45
Hmm wenn ich mir das so recht überlege, eine 1-2 jährige Verzögerung bei 32nm durch völliges Versagen der Prozesstechnik auf allen Seiten wäre das beste für uns. Endlich wieder Zeit für die Hersteller eine gemeinsame Basis zu bedienen und ausreichend niedrige Preise für Karten mit ausreichend Leistung, dass mehr daran Spass haben können....

Ailuros
2010-07-05, 12:40:49
Du packst das Problem am falschen Schwanz. Am Anfang steht das Konzept, dann die Performancebetrachtung und anschließend das Target.
Die Frequenzen sind schon von Beginn an ein zentraler Bestandteil des endgültigen Pakets. Es ist ja nicht so, dass ein Design entwickelt wird, und man dann hinterher gespannt wie ein Kind an Weihnachten bangt, wie viel MHz denn dieses Jahr aus der Packung hüpfen.

Kein Zweifel. Nur liegt das entgueltige Resultat des GF100 unter der Form einer GTX480 nicht allzu weit entfernt vom originalen Frequenz-ziel. Der Grund warum sie am Ende von 725/1450/1100 auf 700/1400/930 reduzierten und auch warum es nur 15 SMs aktiv und nicht alle 16 ist bekannt. Es aendert aber nichts an der Tatsache dass der Stromverbrauch unerwartet hoch war am Ende und es hat wohl nichts direkt mit der Frequenz zu tun. Entweder gibt es irgend ein merkwuerdiges Problem mit den SMs selber oder Charlie's These ueber den verpatzten Speichercontroller hat was an sich.

Kurzum: Das Design wird stark vom Clock-Target beeinflusst. Wäre dies bei 300MHz, würde das Design ganz anders aussehen und das Problem wäre gar nicht so extensiv. Natürlich kommt jetzt hinzu, dass viele Transistoren mit viel Takt gleich nochmal so schlimm sind. Das ist aber ein Problem des Konzepts.

Waere das Ziel theoretisch bei 300MHz gewesen wuerde es hoechstwahrscheinlich heissen dass ein GF100 um X mehr SMs haben wuerde. Und ja eben heisst es dann automatisch hoehere Chip-komplexitaet, aber es aendert auch nichts am eigentlichen Problem des Designs. Es gibt guten Grund warum NV das Ding durch einen re-spin quaelt (mit projeziertem release fuer Anfang Herbst); man "ueberlaeuft" nicht einfach so alle layers ohne Grund. Alles was off the record NV's engineering fuer den Fall verspricht ist alle SMs aktiv, leicht bessere Frequenzen und leicht besserer Stromverbrauch.

V2.0
2010-07-05, 12:48:01
Ich würde auch eher davon ausgehen, dass sie bei der Komplexität weiter über den Möglichkeiten des Prozess lagen, als beim Takt. Man kann es drehen und wenden wie man will. Am Ende limitert immer der Prozess. Weder könnten sie einen doppelten Fermi @ 325 produzieren, noch einen halben @ 1300.

Sehe ich mir GF104 an, dann sieht man eigentlich, dass NV bei vergleichbarer Anzahl an Transistoren bei Takt und Verbrauch nicht schlechter als AMD steht.

Ailuros
2010-07-05, 13:20:16
Ich würde auch eher davon ausgehen, dass sie bei der Komplexität weiter über den Möglichkeiten des Prozess lagen, als beim Takt. Man kann es drehen und wenden wie man will. Am Ende limitert immer der Prozess. Weder könnten sie einen doppelten Fermi @ 325 produzieren, noch einen halben @ 1300.

TSMC hat anscheindend irgendwo Anfang 2008 ueber zu hohe Herstellungskosten bei sehr hoher Chip-komplexitaet gewarnt. Da es aber nicht danach aussieht dass weder TSMC noch NV selber die heutigen GF100 Probleme bewusst waren damals, sehe ich auch hier keine direkte Verbindung.

Sehe ich mir GF104 an, dann sieht man eigentlich, dass NV bei vergleichbarer Anzahl an Transistoren bei Takt und Verbrauch nicht schlechter als AMD steht.

Da ich mir mit dem angeblichen 250W TDP vom GF100 schon die Finger verbrannt habe, will ich erstmal einen GF104 von unabhaengigen Quellen getestet sehen.

ShinyMcShine
2010-07-05, 13:25:16
Palit sogar mit ner OC Version.

Und die Karte mit 725/1450 dann noch mit allen 384 SPs, fertig ist meine GTX 468! ;D

VG
Shiny

Spasstiger
2010-07-05, 13:43:25
Da ich mir mit dem angeblichen 250W TDP vom GF100 schon die Finger verbrannt habe
Weichei. ;)
Was ist jetzt eigentlich mit den TMUs? Geizhals vertraut bei der GTX 460 den 42-TMU-Gerüchten (im Vollausbau entsprechend 48 TMUs), aber wenn die Füllratenbenchmarks von vor ein paar Wochen kein Fake waren, sind es 56 TMUs bei der GTX 460. Dramatisch dürfte der Unterschied dadurch nicht ausfallen, aber gerade bei der großen GTX 460 mit 256-Bit-SI könnte es entscheidend dafür sein, ob man an die Radeon HD 5850 rankommt oder nicht.

ShinyMcShine
2010-07-05, 13:53:05
Naja, da kommt man schon auf 25% Unterschied bei der Füllrate, oder sehe ich das falsch? Dürfte sich schon bemerkbar machen...

VG
Shiny

Ailuros
2010-07-05, 14:08:26
Weichei. ;)

Pfff NV behauptet 150W TDP, aber rechne mir eins an warum ich es nicht glauben will bis ich es sehe (und nein in meinem Buch sind eben ~290W nicht ploetzlich 250W...)


Was ist jetzt eigentlich mit den TMUs? Geizhals vertraut bei der GTX 460 den 42-TMU-Gerüchten (im Vollausbau entsprechend 48 TMUs), aber wenn die Füllratenbenchmarks von vor ein paar Wochen kein Fake waren, sind es 56 TMUs bei der GTX 460. Dramatisch dürfte der Unterschied dadurch nicht ausfallen, aber gerade bei der großen GTX 460 mit 256-Bit-SI könnte es entscheidend dafür sein, ob man an die Radeon HD 5850 rankommt oder nicht.

Ich hab mir den Thread hier nicht vollstaendig durchgelesen aber ich kann mir gut vorstellen dass jemand die 6 TMU/SM These unterstuetzt hat ;)

NV ist wohl bis das GTX465 Zeug zum EOL kommt die GF104 vorruebergehend quasi egal. Das Ding wird wohl erst wirklich interessant danach.

Gast_mboeller
2010-07-05, 14:50:40
NV ist wohl bis das GTX465 Zeug zum EOL kommt die GF104 vorruebergehend quasi egal. Das Ding wird wohl erst wirklich interessant danach.

IMHO macht Nvidia hier einen Fehler. Die alten Fehler wurden schon gemacht. Man sollte sie nicht noch durch neue Fehler weiter vergrößern.

IMHO sollte also Nvidia die GF104 so schnell wie möglich in allen Varianten (192bit/256bit; Vollausbau etc...) auf den Markt bringen. Wenn sie diese gute GPU zurückhalten um die alten noch zu verkaufen vergraulen sie nur die Kunden.

Ailuros
2010-07-06, 09:24:30
IMHO macht Nvidia hier einen Fehler. Die alten Fehler wurden schon gemacht. Man sollte sie nicht noch durch neue Fehler weiter vergrößern.

IMHO sollte also Nvidia die GF104 so schnell wie möglich in allen Varianten (192bit/256bit; Vollausbau etc...) auf den Markt bringen. Wenn sie diese gute GPU zurückhalten um die alten noch zu verkaufen vergraulen sie nur die Kunden.

Wirklich interessant wird 104 so oder so erst nach X chip-Revisionen. Wenn Du jetzt natuerlich glaubst dass jeglicher IHV einen Zauberstab hat und ihn auf X Frequenzen von Anfang an zu jagen, dann ist es ein anderes Kapitel. Zaehl nach durch wieviele Revisionen bzw. + die shrink G92 ging bis es von 1.5 auf ueber 1.8GHz ankam und die Antwort ist relativ leicht.

GF104 ist so wie es aussieht NV's G92 Nachfolger. Ausser natuerlich Du denkst die gesamte G92 Masche war ein "Fehler" und NV diesen nicht bis zum geht nicht mehr ausgemolken hat (und auch heute noch ausmelkt...).

Es gibt keine "Emotionen" in solchen Faellen; heute muss GF104 als GTX465 Ersatz dienen und morgen als Konkurrent fuer AMD's analogen Evergreen-Nachfolger. Heute so etwas zu veroeffentlichen ist schlecht moeglich mit dem Zielpreis fuer das Ding und was man dann in der Zukunft gegen AMD's 5830 Nachfolger stellt ist auch so eine Frage fuer sich.

>1.7GHz sollten unter 28nm mit der Zeit schon moeglich werden. Wer aber heute chips haben will mit der Prozess-technologie von morgen ist wohl doch eher Realitaets-fremd.

Dural
2010-07-06, 09:44:58
Zaehl nach durch wieviele Revisionen bzw. + die shrink G92 ging bis es von 1.5 auf ueber 1.8GHz ankam und die Antwort ist relativ leicht.


keine...

V2.0
2010-07-06, 10:00:01
keine...

Von 8800Gt zu Gt250 gab es keine neuen Revisionen oder so etwas wie G92b?

Gast
2010-07-06, 10:02:43
Die 1836 MHz Shadertakt waren auch schon mit der 9800 GTX+ aus 65nm-G92-Basis möglich.

Gast
2010-07-06, 10:09:08
A2 bis 1,675GHz (AIB-OC 1,944GHz)
B1 bis 1,836GHz

Gast
2010-07-06, 10:10:52
Die 1836 MHz Shadertakt waren auch schon mit der 9800 GTX+ aus 65nm-G92-Basis möglich.
Wo soll es 65nm GTX+ gegeben haben? Das große Problem war hier, das GPU-Z es falsch ausgelesen/zugeordnet hat.

Ailuros
2010-07-06, 10:26:30
Die 1836 MHz Shadertakt waren auch schon mit der 9800 GTX+ aus 65nm-G92-Basis möglich.

Dann zeig mir wenigstens eine LOL :biggrin:

deekey777
2010-07-06, 11:38:40
Dann zeig mir wenigstens eine LOL :biggrin:
http://www.pcgameshardware.de/aid,676324/Geforce-9800-GTX-mit-1-GB-Videospeicher-im-Test/Grafikkarte/Test/
Damit ich nicht jedes Review einer 9800GTX+ poste: Die ersten 9800GTX+ hatten den normalen G92 in 65 nm.

Gast
2010-07-06, 11:44:01
Damit ich nicht jedes Review einer 9800GTX+ poste: Die ersten 9800GTX+ hatten den normalen G92 in 65 nm.
Wo sieht man da denn 65nm Die? GPU-Z ist kein Beweis.
Bei CB sieht man deutlich einen Sample B1-Die: http://www.computerbase.de/artikel/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/7/#abschnitt_nvidia_geforce_9800_gtx

deekey777
2010-07-06, 11:47:58
hoppla
aber ich gebe nicht auf

Gast
2010-07-06, 11:49:51
Was ist der Unterschied zwischen Februar und Juni?
Dass Juni 08 ein früherer Zeitpunkt als Februar 09 ist. ;)

Dural
2010-07-06, 11:54:53
es gab nur ein A2 und ein B1

der B1 hat in sachen takt rein gar nichts gebracht, es gibt keinen untrschid.

y33H@
2010-07-06, 12:08:56
GTX+ gab's mit G92 non-b.

Gast
2010-07-06, 12:24:31
Ich finde Du übertreibst etwas.
Marktsegmentierung ist schon immer ein Instrument aller Firmen. Ob das nun Mercedes, VW, Intel oder AMD sind.

Man kauft ja auch CPUs, deren Fähigkeiten absichtlich beschnitten sind, oder Dieselmotoren, deren Leistung für das niedrigere Modell beschränkt sind.

Wenn die 460 die Leistung einer 465 erreicht, dabei aber billiger ist, dann ist das ein gutes Produkt (im Vergleich). Dass Nvidia natürlich erst die Mainstream-HW bringt und dann langsam die schnelleren Modelle ist auch klar - wo verdient man denn das ganze Geld?

Daher würde ich das nicht so emotional sehen!

Nunja, ein Stück weit hast du ja auch recht, aber für ganz so übertrieben halte ich das nun auch wieder nicht.

Mit der emotionalen Betrachtung hast du zumindest recht.
Ich und viele andere hätten wohl weniger bzw. kein problem damit,
wenn Chip, SI & RAM bei der Karte so abgestimmt und austariert wären,
dass zumindest keine derart offensichtliche "Beschneidung" vorliegt.
Wenn man das weiß, dann sträubt man sich eben schon innerlich soetwas zu kaufen. So geht's zumindest mir.
Ich würde mich nach den ersten Tagen des Glückes nämlich in regelmäßigen abständen fragen - warum hab ausgerechnet ich kein 256-Bit SI, warum hab ich kein GB VRAM...

@ V2.0:
Ist das jetzt wirklich gesichert mit der GTX 268???

Wäre ja wirklich schön. Darauf lohnt sich dann auch das Warten.

ShinyMcShine
2010-07-06, 12:54:10
Unter der Annahme, dass die GTX 468 gemeint ist ;) denke ich schon, dass diese Karte kommen wird. Die Frage ist nur, wann! Wenn nVidia erstmal alte GTX 465 und GTX 470 Karten abverkauft, kann es durchaus noch einige Zeit dauern! :(

Auch ich werde aber erstmal abwarten, möchte nämlich ebenfalls einen unbeschnittenen GF104 auf meiner nächsten Grafikkarte haben (die dann auch wieder mind. 2 Jahre genügen soll)!

VG
Shiny

Gast
2010-07-06, 13:42:36
Unter der Annahme, dass die GTX 468 gemeint ist ;) denke ich schon, dass diese Karte kommen wird. Die Frage ist nur, wann! Wenn nVidia erstmal alte GTX 465 und GTX 470 Karten abverkauft, kann es durchaus noch einige Zeit dauern! :(

Auch ich werde aber erstmal abwarten, möchte nämlich ebenfalls einen unbeschnittenen GF104 auf meiner nächsten Grafikkarte haben (die dann auch wieder mind. 2 Jahre genügen soll)!

VG
Shiny

Jaja, das mein ich doch -> GTX 468 <-.

Jupp. Bei mir würde sich der Wechsel auch lohnen.
Hab mir zwar erst ne (2.) GTS 250 gekauft bzw. kaufen müssen,
aber wenn ich 'nen neuen Monitor und Win 7 will,
dann muss 'ne deutlich stärkere Karte her.

GTX 460 / 468 wären genau solche Kandidaten.
Von 128 auf 336 Stream-Prozessoren (mit DX 11 + Tesselation).
Dann ist alles nur noch eine Frage des Preises.
Mein Limit habe ich bereits geistig um 70 € auf 200 € erhöht.
Alles nur noch eine Frage der Zeit...

Auch wenn ich nicht gern auf die Werbeplattform CBlöd verlinke;
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/juli/uebertaktete_geforce_gtx_460/

Demnach hat es den Anschein dass die 256-Bit/1G-Versionen auch schon im Anmarsch bzw. damit auch bestätigt sind.

:uup:

V2.0
2010-07-06, 13:58:28
Jo, die 1GB sollten zeitnah kommen. Ebenso erste Eigendesigns der Hersteller. Imho sieht die ganze Sache immer viel versprechender aus. Wann die 468 kommt hängt eigentlich nur vom NVs. Marketingdepartment ab. Technisch wäre sie wohl bereit.

ShinyMcShine
2010-07-06, 14:12:21
Ich denke, wir werden schon noch ein paar Wochen nach der Vorstellung nächsten Montag auf eine GTX 468 warten müssen. :( So abrupt wird nVidia den GTX 465 und GTX 470 Karten nicht den Todesstoß versetzen! Außer natürlich, die befinden sich bereits im Abverkauf, was ich mir aber (insbesondere für die erst frisch erschienene GTX 465) nicht vorstellen kann.

Naja, hilft nur abwarten und hoffen dass ein nVidia Arbeiter hier mitliest und unsere Wünsche entsprechend weiterleitet... :D

VG
Shiny

Konami
2010-07-06, 14:13:47
Steht der Name des GF104 im Vollausbau eigentlich wirklich schon als "GTX 468" fest? Wenn die 470 schon EOL geht, wäre dann nicht "475" sinnvoller (für nVidia ;))?

ShinyMcShine
2010-07-06, 14:57:34
Wird auch ein wenig von den Taktraten abhängen, ob nVidia die Karte als 468 oder 475 bezeichnet! Mir ist es letztendlich Wurschd, wie die nachher heißt. Eine Karte mit dem GF104 mit einer Leistung knapp über oder unter der jetzigen GTX 470 will ich haben!
:D

VG
Shiny

Spasstiger
2010-07-06, 15:50:49
Eine leere Maske für die GTX-460-Serie gibts auf der Sparkle-Homepage schonmal: http://www.sparkle.com.tw/product.asp?id=111.

Gast
2010-07-06, 15:59:30
Nicht nur die Maske.
http://www.sparkle.com.tw/product_detail.asp?id=111&sub_id=396
:D

VooDoo7mx
2010-07-06, 15:59:41
Steht der Name des GF104 im Vollausbau eigentlich wirklich schon als "GTX 468" fest? Wenn die 470 schon EOL geht, wäre dann nicht "475" sinnvoller (für nVidia ;))?

Der Name steht nicht fest. Ist bisher nur ein Gerücht. Aber man kann ruhig erst mal bei GTX468 bleiben, da weiß man was gemeint ist.
Ich persönlich finde allerdings die Bzeichnung 468 ziemlich bescheuert und halte es auch für unwarscheinlich. Ich gehe eher von 470 oder 475 aus.

Coda
2010-07-06, 16:01:13
GTX 470 könnte sehr gut sein. Haben sie bei der 8800 GTS ja auch so gemacht.

Gast
2010-07-06, 16:01:49
http://www.sparkle.com.tw/product_detail.asp?id=111&sub_id=394
http://www.sparkle.com.tw/product_detail.asp?id=111&sub_id=395

Die GDDR3-Version oben sieht etwas seltsam aus...

Spasstiger
2010-07-06, 16:04:22
Nicht nur die Maske.
http://www.sparkle.com.tw/product_detail.asp?id=111&sub_id=396
:D
Nice find! :D
"Processor Clock : 1485 MHz" und "Core Clock : 700 MHz" passen nicht so ganz zusammen. Oder hat man das feste 2:1-Verhältnis beim GF104 wieder aufgebrochen? Zur Texelfüllrate oder der Anzahl von TMUs finden sich leider keine Angaben.
Die GDDR3-Version oben sieht etwas seltsam aus...
GDDR3 und 3600 MHz passen nicht zusammen. Bestimmt ein Tippfehler. Sollte GDDR5 sein.

Coda
2010-07-06, 16:34:48
Bei mir steht da auch (bereits?) überall GDDR5.

Sorkalm
2010-07-06, 17:06:47
Bei mir steht da auch (bereits?) überall GDDR5.

Bei ID 394 und 395 steht GDDR5, bei ID 396 GDDR3. Nichtsdestotrotz glaube ich an einen Tippfehler.

Spasstiger
2010-07-06, 17:10:17
Ich scanne gerade die PNY-Homepage nach versteckten Seiten ab, da wird nämlich die Texelfüllrate der Grafikkarten entsprechend der offiziellen NV-Angaben aufgeführt.

Gast
2010-07-06, 17:14:22
Ich scanne gerade die PNY-Homepage nach versteckten Seiten ab, da wird nämlich die Texelfüllrate der Grafikkarten entsprechend der offiziellen NV-Angaben aufgeführt.
Aber sonst nix zu tun? :)

Spasstiger
2010-07-06, 17:16:19
Aber sonst nix zu tun? :)
Warum? Das läuft automatisiert. Hab mir ein entsprechendes Skript geschrieben, schon im letzten Jahr.

Gast
2010-07-06, 17:16:25
Das ist wohl ein Auszug aus dem offiziellen Datenblatt:
http://we.pcinlife.com/thread-1461144-1-2.html

56 TMUs, 150W

Gast
2010-07-06, 17:20:16
Für eine GTS 250 mit 150W empfiehlt man übrigens ein 450W Netzteil: http://www.nvidia.com/object/product_geforce_gts_250_us.html
Bei der GTX 460-768 sind es laut dieser Datenliste nur 400W. ;)

ShinyMcShine
2010-07-06, 17:21:57
Das ist wohl ein Auszug aus dem offiziellen Datenblatt:
http://we.pcinlife.com/thread-1461144-1-2.html

56 TMUs, 150W

Dass hört sich gut an. Würde dann 64 TMUs für die GTX 460/1024 (und GTX 468) heissen! Ich liebe die Zeit vor Neuveröffentlichungen! ;D Wenn kurz davor immer mehr Informationen kommen... :biggrin:
Und 150W für die kleine GTX 460 läßt auch beim vollen GF104 auf einen akzeptablen Energieverbrauch hoffen!

VG
Shiny

ShinyMcShine
2010-07-06, 17:23:12
Für eine GTS 250 mit 150W empfiehlt man übrigens ein 450W Netzteil: http://www.nvidia.com/object/product_geforce_gts_250_us.html
Bei der GTX 460-768 sind es laut dieser Datenliste nur 400W. ;)

450 Watt No-Name Netzteil für die GTS 250 und ein 400 Watt Markennetzteil für die GTX 460-768! :tongue:

VG
Shiny

Spasstiger
2010-07-06, 17:27:22
Es gibt 400-Watt-NTs, die für 33 Ampere auf 12 Volt kombiniert spezifiziert sind und welche, die nur 15 Ampere auf 12 Volt erlauben. Eine konkrete Wattzahlempfehlung fürs NT ist eigentlich sinnlos.

@ShinyMcShine: Die GTX 460 192 Bit und 256 Bit haben gleichviele TMUs und SPs. Dem angeblichen Datenblatt von NV nach also 336 SPs und 56 TMUs.

/EDIT: Ich glaube, PNY blockt mich gerade. ^^ Eine GTX 460 konnte ich auf jeden Fall nicht finden und die für Consumer-Grafikkarten üblichen Product IDs bei PNY bin ich schon durchgegangen.

ShinyMcShine
2010-07-06, 17:31:55
Es gibt 400-Watt-NTs, die für 33 Ampere auf 12 Volt kombiniert spezifiziert sind und welche, die nur 15 Ampere auf 12 Volt erlauben. Eine konkrete Wattzahlempfehlung fürs NT ist eigentlich sinnlos.

@ShinyMcShine: Die GTX 460 192 Bit und 256 Bit haben gleichviele TMUs und SPs. Dem angeblichen Datenblatt von NV nach also 336 SPs und 56 TMUs.

Argh, mein Fehler! Ich bin mit den Gedanken immer beim GF104 im Vollausbau wenn ich GTX 460-1024 lese... :biggrin:

Ich meinte dann dementsprechend:
Dass hört sich gut an. Würde dann 64 TMUs für die GTX 468 heissen!

Man kommt aber mittlerweile auch durcheinander!

:freak:

Was die Netzteilspezifikationen angeht, hoffe ich doch sehr, dass mein Enermay Liberty 500W mit 32A auf 12 Volt kombiniert ausreicht! :uponder:

VG
Shiny

Thunder99
2010-07-06, 23:45:00
und bei mir mein Enermax Pro 82+ mit 425W, möchte nicht schon wieder ein Netzteil kaufen... :(

Waitung for GF104 im Vollausbau :D

Bin echt mal gespannt wie sich der Chip in Sachen Effizienz gegenüber den GF100 schlägt.

Irgendwelche Infos über das Erscheinen sind noch nirgends durchgesickert oder?

Spasstiger
2010-07-06, 23:52:26
und bei mir mein Enermax Pro 82+ mit 425W, möchte nicht schon wieder ein Netzteil kaufen... :(
Solange du nicht übertaktest und keinen Core i7 @ 4 GHz hast, kannst du da sogar eine GTX 480 dranhängen. Das Netzteil hat Anschlüsse für Grafikkarten bis 300 Watt und leistet 396 Watt auf 12 Volt.

Schrotti
2010-07-07, 00:47:20
Was die Netzteilspezifikationen angeht, hoffe ich doch sehr, dass mein Enermay Liberty 500W mit 32A auf 12 Volt kombiniert ausreicht! :uponder:

VG
Shiny

Damit betreibe ich meinen Rechner in der Signatur.

i7 860@3,3GHz + SMT + TM, GTX 480@default

ShinyMcShine
2010-07-07, 05:50:41
Damit betreibe ich meinen Rechner in der Signatur.

i7 860@3,3GHz + SMT + TM, GTX 480@default

Das beruhigt mich! :wink:

:up:

Gast
2010-07-07, 12:44:08
Folien von Gigabyte: http://we.pcinlife.com/thread-1462076-1-1.html

Thunder99
2010-07-07, 12:55:58
Solange du nicht übertaktest und keinen Core i7 @ 4 GHz hast, kannst du da sogar eine GTX 480 dranhängen. Das Netzteil hat Anschlüsse für Grafikkarten bis 300 Watt und leistet 396 Watt auf 12 Volt.
Danke :up:

Ich bleibe bei AMD, und hab nicht vor extrem zu übertakten :D (wenn dann max 1.425V auf die CPU)

IVN
2010-07-07, 13:00:37
Danke :up:

Ich bleibe bei AMD, und hab nicht vor extrem zu übertakten :D (wenn dann max 1.425V auf die CPU)
Das ist schon 0,1V mehr als Default. Sehr viel Saft.

AffenJack
2010-07-07, 13:05:22
Folien von Gigabyte: http://we.pcinlife.com/thread-1462076-1-1.html

Das meiste wie erwartet leicht unter der 465. Enttäuschend ist aber Unigine Heaven. Gerademal 8.1 im vergleich zu 16.1 der 465.
Wurde da ma kräftig an den Tesselation-Units gespart?

Gast
2010-07-07, 13:11:33
Folien von Gigabyte: http://we.pcinlife.com/thread-1462076-1-1.html

Nur "Performance close to 5830"? Ich hätte erwartet das man die zumindest schlägt. Noch dazu ist die Tesslationsleistung offenbar schlechter als bei AMD, selbst beim Unigine-Bench verliert man gegen eine 5830. Wo liegen die Vorteile? Stromverbrauch wird wohl weiter zu hoch sein.

IVN
2010-07-07, 13:14:29
Nur "Performance close to 5830"? Ich hätte erwartet das man die zumindest schlägt. Noch dazu ist die Tesslationsleistung offenbar schlechter als bei AMD, selbst beim Unigine-Bench verliert man gegen eine 5830. Wo liegen die Vorteile? Stromverbrauch wird wohl weiter zu hoch sein.
Das ist zum Glück nur die 192bit-Version. Und auch der Speicher ist klein, wenn man bedenkt in welchen Settings die Karten da getestet wurden...

Für diese "gf104-Small-Fry" würde ich max €120 geben.

Gast_mboeller
2010-07-07, 13:21:45
Nur "Performance close to 5830"? Ich hätte erwartet das man die zumindest schlägt. Noch dazu ist die Tesslationsleistung offenbar schlechter als bei AMD, selbst beim Unigine-Bench verliert man gegen eine 5830. Wo liegen die Vorteile? Stromverbrauch wird wohl weiter zu hoch sein.

Mal ne Noob Frage zu dem Vergleich mit der HD5830:

Hat die HD5830 mit den neuesten Treibern immer noch die AA-Schwäche? Wenn ja ist die HD5770 bei den gezeigten Benchmarks doch fast so schnell wie die HD5830, da alle Spiele mit 4xAA od. 8xAA gestestet wurden; oder?

y33H@
2010-07-07, 13:26:20
Die Treiber ändern an den beschnittenen ROPs nichts. Ergo ja.

Gast
2010-07-07, 13:46:42
Bei Heaven wird wohl der Speicher ausgehen.

Coda
2010-07-07, 13:57:32
Na hoffentlich. Ansonsten hat das Ding wohl nur einen Rasterizer. Kann ich mir aber nicht vorstellen.

Spasstiger
2010-07-07, 14:27:49
Hat die HD5830 mit den neuesten Treibern immer noch die AA-Schwäche? Wenn ja ist die HD5770 bei den gezeigten Benchmarks doch fast so schnell wie die HD5830
Naja, selbst im Worst Case ist die HD 5830 noch 15% schneller als die HD 5770. Die allgemeine Aufregung gab es bei HD-5830-Release nur, weil sie damals fast doppelt so teuer wie die HD 5770 war. Der Performanceunterschied ist aber schon fast immer spürbar.

In Unigine Heaven spielt der Speicher definitiv eine Rolle. Hier sieht man schön, wie eine HD 5670 512 MiB ins Bodenlose fällt (6 fps -> 1 fps), wenn 4xAA dazukommt, während die HD 5750 1024 MiB nur im üblichen Rahmen einbricht (9 fps -> 7 fps): http://www.pcgameshardware.de/aid,703007/Test-Radeon-HD-5670-Redwood-DirectX-11-fuer-unter-100-Euro/Grafikkarte/Test/?page=11.
Aber trotzdem wundert es mich, dass die GTX 460 in den Gigabyte-Folien durchweg langsamer ist als die GTX 465. Sogar in 3DMark06 und 3DMark Vantage @ 1280x1024 ohne AA, wo die Größe des Grafikspeichers ab 512 MiB irrelevant ist. Von 336 SPs und 56 TMUs @ 675 MHz gegenüber 352 SPs und 44 TMUs @ 607 MHz habe ich mehr erwartet.

Ailuros
2010-07-07, 14:42:56
Das meiste wie erwartet leicht unter der 465. Enttäuschend ist aber Unigine Heaven. Gerademal 8.1 im vergleich zu 16.1 der 465.
Wurde da ma kräftig an den Tesselation-Units gespart?

GF104 hat hoechstwahrscheinlich nur 2 GPCs. Dass das Ding nach dem Resultat 4 GPCs hat und die ROPs limitieren faellt mir schwer zu glauben.

dildo4u
2010-07-07, 15:06:58
Aber trotzdem wundert es mich, dass die GTX 460 in den Gigabyte-Folien durchweg langsamer ist als die GTX 465. Sogar in 3DMark06 und 3DMark Vantage @ 1280x1024 ohne AA, wo die Größe des Grafikspeichers ab 512 MiB irrelevant ist. Von 336 SPs und 56 TMUs @ 675 MHz gegenüber 352 SPs und 44 TMUs @ 607 MHz habe ich mehr erwartet.
Ist ja auch die 768MB Version,die 1GB wird ca gleichauf sein.Die Spiele wurden ja in hohen Auflösungen mit AA getestet Bandbreite spielt da schon eine Rolle.

ShinyMcShine
2010-07-07, 15:26:07
Ist ja auch die 768MB Version,die 1GB wird ca gleichauf sein.Die Spiele wurden ja in hohen Auflösungen mit AA getestet Bandbreite spielt da schon eine Rolle.

Das denke (und hoffe) ich auch. Evtl. liegt es auch am verwendeten Treiber...
Die Hoffnung (auf eine gute Leistung des GF104) stirbt zuletzt. ;D

VG
Shiny

Coda
2010-07-07, 15:43:48
GF104 hat hoechstwahrscheinlich nur 2 GPCs. Dass das Ding nach dem Resultat 4 GPCs hat und die ROPs limitieren faellt mir schwer zu glauben.
Selbst mit zwei GPCs wäre die Leistung aber wohl kaum so schlecht.

IVN
2010-07-07, 15:50:32
Womöglich sind die neuangeordneten Alus günstiger vom Transistor-Count her, aber leistungsschwächer...

dildo4u
2010-07-07, 15:55:03
Womöglich sind die neuangeordneten Alus günstiger vom Transistor-Count her, aber leistungsschwächer...
Der Speicher geht aus 1900*1200 8XAA bei Heaven belegen an die 1GB.

V2.0
2010-07-07, 16:53:53
Macht doch keine Panik. NV launcht nicht ohne Grund offiziell nur die 768.

Gast
2010-07-07, 19:54:38
Jup, 86,4 GB/sec vs 128GB/sec Bandbreite (GF460/768 vs HD5830) sind zusammen mit nur 768MB ein dicker Nachteil. Die Karte wird bis max 22" Spieler interessant sein. Hier im Forum gibt es genug Beispiele von Spielen die schon ohne AA über 600MB Videospeicher belegen.
In 1-2 Monaten ist sie auf 150€ runter und dürfte wie warme Semmeln gehn.

Gast
2010-07-07, 20:16:27
Macht doch keine Panik. NV launcht nicht ohne Grund offiziell nur die 768.
Es ist nunmal Mittelklasse.

Wer mehr will mus mehr ausgeben, so wie immer.

Ailuros
2010-07-07, 20:26:57
Selbst mit zwei GPCs wäre die Leistung aber wohl kaum so schlecht.

Dass der Speicher bzw. Bandbreite auch limitieren bezweifle ich auch nicht. Wenn es nicht der Fall waere haette theoretisch eine 104 was genau schaffen koennen? 12 oder sogar 13 fps? Bei einem synthetischen demo dass bis zu 2.5 Tris anlegt, erscheinen die Zahlen sogar verdammt optimistisch mit 2 trisetups. Wenn man jetzt auch noch so wahnwitzig ist und geht auf 1920 mit 8xMSAA na dann gute Nacht.

Superheld
2010-07-08, 00:59:07
Jup, 86,4 GB/sec vs 128GB/sec Bandbreite (GF460/768 vs HD5830) sind zusammen mit nur 768MB ein dicker Nachteil. Die Karte wird bis max 22" Spieler interessant sein. Hier im Forum gibt es genug Beispiele von Spielen die schon ohne AA über 600MB Videospeicher belegen.
In 1-2 Monaten ist sie auf 150€ runter und dürfte wie warme Semmeln gehn.

joar und was soll ich jetzt kaufen ?

5770 oder ne 460/bzw die mit 1024mb :(

die 5830 find ich nich so besonders...

dildo4u
2010-07-08, 02:55:56
MSI N460GTX Cyclone 768D5/OC

http://www.expreview.com/img/news/2010/07/07/msigtx460_01.jpg

http://www.expreview.com/img/news/2010/07/07/msigtx460_02.jpg

This graphics card part number is N460GTX Cyclone 768D5/OC, it based on GF104 which has 336 CUDA Core, core/Shader/memory clocks of 725/1450/3600MHz; Features 768MB of GDDR5 memory as well as 192-bit memory interface, dual-DVI/HDMI output.

It predicts that N460GTX Cyclone 768D5/OC will have higher price than reference GTX460

http://en.expreview.com/2010/07/07/msi-non-reference-gtx460-leaked/7767.html

V2.0
2010-07-08, 07:01:53
Taugen die Cylcone Modelle was?

ShinyMcShine
2010-07-08, 07:17:11
Viel schlechts habe ich bisher nicht über die Cyclone Modelle gelesen. Bestimmt eine Überlegung wert, wenn man eine GTX 460 - 768 kaufen will, die leicht übertaktet ist.

It predicts that N460GTX Cyclone 768D5/OC will have higher price than reference GTX460.
:rolleyes: Ui, da hat sich aber jemand weit aus dem Fenster gelehnt. :massa: Diese Aussage hätte auch meine Oma treffen können! :lol:

VG
Shiny

ShinyMcShine
2010-07-08, 08:06:03
joar und was soll ich jetzt kaufen ?

5770 oder ne 460/bzw die mit 1024mb :(

die 5830 find ich nich so besonders...

Mit einer GTX 460 - 1024 solltest Du besser dastehen als mit einer 5770 bzw. 5830. Ist aber eben auch eine Frage des Preises. Wenn Du noch ein paar Wochen nach dem Release der GTX 460 warten kannst und der Preis noch ein wenig nach unten geht, würde ich die GTX 460 - 1024 nehmen. :whisper:

VG
Shiny

P.S.: Langsam wird es mal Zeit, dass mehr Informationen leaken (Anzahl TMUs/ROPs/GPCs)... :whistle:

Gast
2010-07-08, 08:53:46
Mit einer GTX 460 - 1024 solltest Du besser dastehen als mit einer 5770 bzw. 5830. Ist aber eben auch eine Frage des Preises. Wenn Du noch ein paar Wochen nach dem Release der GTX 460 warten kannst und der Preis noch ein wenig nach unten geht, würde ich die GTX 460 - 1024 nehmen. :whisper:

VG
Shiny

P.S.: Langsam wird es mal Zeit, dass mehr Informationen leaken (Anzahl TMUs/ROPs/GPCs)... :whistle:

Ist doch nicht so wichtig. Die Infos bezüglich der GTX 460 1024 / 768 kommen doch schon früh genug. Der 768-Krüppel interessiert sowieso fast keinen (hier) und die 1024-Variante scheint auch nur bedingt interessant.
Da kommt es wohl auch ein wenig auf's OC-Potential an.

Viel interessanter wären Information zum GF 104 aka "GTX 468" im Vollausbau.
Dies Karte scheint mir - in Anbetracht der bisherigen Alternativen - am zukunftsträchtigsten. Hoffen wir mal, dass die Hersteller gleich von Anfang ermächtigt sind, die Karten mit 2048 MB schnellem GDDR5-VRAM auszustatten.
In Anbetracht der Rohleistung des Chips wäre das eine sehr sinnvolle Option.

Nachdem ich bei meiner GTS 250 schon festgestellt hatte, dass 512 MB heutzutage eben nicht mehr genug sind (bereits das ansonsten recht anspruchslose UT3 braucht in hohen Settings deutlich mehr als die 512 MB), halte ich die 1024 MB mittelfristig tatsächlich für zu wenig. Insbesondere, wenn man an die inzischen möglichen extremen Settings beim AA denkt.

Aber vermutlich wird genau das dann das Problem sein und keine Freigabe seitens Nvidia kommen. Mit einem 2 GB GF104 hätte die GTX 480 vermutlich zu viel Feuer unterm Arsch. Sowohl Leistungsmäßig als auch preislich. :usad:

ShinyMcShine
2010-07-08, 09:38:00
Naja, wenn man endlich die genauen Specs der GTX 460 kennen würde, dann kann man daraus auch ein paar Rückschlüsse auf den kompletten GF104 Chip ziehen. Dementsprechend wäre die Einordnung einer GTX 468 ein wenig einfacher.

Auch ich hoffe auf eine GTX 468 - 2048 ;D mit gutem Custom-Design. Seit meine alte 8800GTS 512 die Auflösung meines 26"ers befeuern muss, geht oft nicht mehr viel... :down:

Da nVidia den Boardpartnern bei der GTX 460 - 1024 anscheinend freie Wahl läßt, hoffe ich auf eine ähnliche "Politik" bei der GTX 468. Entsprechend könnte sich ja z.B. Gainward einer GTX 468 - 2048 annehmen! :wave: Wobei ich prinzipiell bei den letzten nVidia-Modellen der GTX400er Serie keine einzige mit doppeltem Speicherausbau kenne... :conf2:

VG
Shiny

Gast
2010-07-08, 09:46:26
Der 768-Krüppel interessiert sowieso fast keinen (hier) und die 1024-Variante scheint auch nur bedingt interessant.
Quatsch.
Mittelklasse bleibt auch im 3DCenter das wichtigste Segment.


Aber vermutlich wird genau das dann das Problem sein und keine Freigabe seitens Nvidia kommen. Mit einem 2 GB GF104 hätte die GTX 480 vermutlich zu viel Feuer unterm Arsch. Sowohl Leistungsmäßig als auch preislich. Nichts ist umsonst. Wenn du eine GTX 480 willst bekommst du sie nicht für unter 200€.

V2.0
2010-07-08, 09:49:56
Wobei die Bandbreite auch beim Vollausbau ein Thema sein wird, ebenso die Tesselationperformance. Eine GF100 470 kann da durchaus im Vorteil sein.

Gast
2010-07-08, 10:26:34
Dafür ist sie auch teurer.

Wär ja noch schöner, wenn ein unter 200€ Produkt mal eben an der 300€ Liga vorbeimarschiert.
Nur weil etwas neu ist, muss es nicht gleich das neue High-End Modell sein.

Ailuros
2010-07-08, 10:47:09
Wobei die Bandbreite auch beim Vollausbau ein Thema sein wird, ebenso die Tesselationperformance. Eine GF100 470 kann da durchaus im Vorteil sein.

Tessellations-Leistung liegt im schlimmsten Fall auf dem Niveau von konkurrierenden Radeons. Was jetzt Bandbreite betrifft: was man bezahlt bekommt man auch. Wer erwartet dass er mit einer $200 GPU in 2560*1600 mit AA alles spielen kann ist wohl extrem schlecht beraten.

V2.0
2010-07-08, 10:48:45
Ich erwate das auch gar nicht. Ich sehe im Vollausbau der GF104 auch nur eine bedingte Alternative zur 470.

ShinyMcShine
2010-07-08, 11:32:13
Naja, eine GTX 468 mit 4000MHz GDDR5 kommt auf 128GB Bandbreite. Eine GTX 470 kommt mit Ihren 3352MHz "nur" auf 134GB. Der Unterschied ist da also nicht so gewaltig! Sieht man übrigens auch gut in der aktuellen News (http://www.3dcenter.org/dateien/abbildungen/spec-vergleich-gf104-460-465-470-480.png)!

VG
Shiny

Gast
2010-07-08, 12:39:26
Jep, eine HD5850 hat auch "nur" 128GB/s Bandbreite und drückt im Gesicht.
Werde mal eine GTX460/1024 einfach anschaffen und vs. GTX260 Testen.

dreas
2010-07-08, 13:32:29
gtx460 ist ab morgen spätestens montag bei den ersten distributoren lieferbar.
ist ne gainward mit herstellernummer 426018336-1190 für die 1024mb und
426018336-1145 für 768mb ram.

LovesuckZ
2010-07-08, 14:00:24
http://rolfi-tech.com/wp-content/uploads/2010/07/its-coming.bmp

ShinyMcShine
2010-07-08, 16:44:15
Ich freue mich immer wieder auf Neuerscheinungen bei den Grafikchips. ;D Egal ob ATI oder nVidia. ;) Bin gespannt auf Montag...

VG
Shiny

LovesuckZ
2010-07-08, 16:55:58
Ein paar offizielle Folien: http://www.adrenaline.com.br/tecnologia/noticias/5507/geforce-gtx-460-especificacoes-precos-e-estreia-no-brasil.html

GF104 hat zwei GPC - also zwei Rasterizer.

/edit: Die Folien machen einen guten Eindruck. 160 Watt für die 1Gb version, leise Kühlkonstruktion, brauchbare Leistung und Tessellationleistung über der 5870. Könnte eine Killerkarte werden.

http://www.adrenaline.com.br/files/upload/noticias/2010/07/andrei/2010-07-07_nvidia_cdesempenhogeometrico.jpg

ShinyMcShine
2010-07-08, 17:12:26
Endlich mal neue Einsichten! ;D
Es dürfte sich also bewahrheiten, dass ein voller GF104 64 TMUs hat, dazu 8 Polymorph Engines.
Eine TDP von 180 Watt für eine GTX 468 scheint doch auch machbar zu sein. :uponder:

Wenn die Präsentation kein Fake ist sieht es echt gut aus für den Chip!

VG
Shiny

dildo4u
2010-07-08, 17:14:59
GTX 460 1GB vs 5830 1900*1200 4XAA NV: 258.70 ATI Cat 10.6

http://www.abload.de/img/gtx466hquq.jpg

Gast
2010-07-08, 17:16:41
Ein paar offizielle Folien: http://www.adrenaline.com.br/tecnologia/noticias/5507/geforce-gtx-460-especificacoes-precos-e-estreia-no-brasil.html

GF104 hat zwei GPC - also zwei Rasterizer.


Ein GF100 hat 16 nicht? Damit gerade mal 1/8 der Tessleistung eines GF100 und damit bestenfalls dieselbe Tessleistung wie AMD. Damit hat man auch den letzten Vorteil verschenkt.

ShinyMcShine
2010-07-08, 17:19:27
Die Webseite will morgen schon ein komplettes Review der Karte veröffentlichen. :eek:

UPDATE: Within the next day the Adrenaline will publish the full review of the model.

Da muss man schnell sein, falls die gleich wieder gezwungen werden, die Seiten zurückzuziehen wenn nVidia dahinterkommt. ;)

VG
Shiny

dildo4u
2010-07-08, 17:20:53
Ein GF100 hat 16 nicht? Damit gerade mal 1/8 der Tessleistung eines GF100 und damit bestenfalls dieselbe Tessleistung wie AMD. Damit hat man auch den letzten Vorteil verschenkt.
Polymorph Engines 15 vs 7

http://www.abload.de/img/gtx4666cos3.jpg

http://www.abload.de/img/gtx460fqkn.jpg

ShinyMcShine
2010-07-08, 17:23:01
Ein GF100 hat 16 nicht? Damit gerade mal 1/8 der Tessleistung eines GF100 und damit bestenfalls dieselbe Tessleistung wie AMD. Damit hat man auch den letzten Vorteil verschenkt.

Es gibt eine Folie die vergleicht die Polymorph-Enigines: 15 vs. 7. Der volle GF104 hat also die halbe Anzahl der Tesselation-Units des vollen GF100.

VG
Shiny

/Edit: dildo4u war schneller! ;)

LovesuckZ
2010-07-08, 17:30:43
Ein GF100 hat 16 nicht? Damit gerade mal 1/8 der Tessleistung eines GF100 und damit bestenfalls dieselbe Tessleistung wie AMD. Damit hat man auch den letzten Vorteil verschenkt.

Es sind 787,5 Mtris/s gegenüber 285 Mtris/s. Also ca. 2,7x soviel Geometrieleistung gegenüber AMD beim Einsatz von Tessellastion.
nVidia hat also hier verstärkt auf Textur- und Rechenleistung gesetzt und die Geometrieleistung - wie angekündigt - deutlich nach unten skaliert.
Jedoch könnte der GF104 zur rechten zeit kommen: Leicht langsamer als eine 5850, jedoch deutlich billiger und bessere Tessellationleistung bei (anscheinend) gleichem Stromverbrauch.

Gast
2010-07-08, 17:35:03
Es sind 787,5 Mtris/s gegenüber 285 Mtris/s. Also ca. 2,7x soviel Geometrieleistung gegenüber AMD beim Einsatz von Tessellastion.
nVidia hat also hier verstärkt auf Textur- und Rechenleistung gesetzt und die Geometrieleistung - wie angekündigt - deutlich nach unten skaliert.
Jedoch könnte der GF104 zur rechten zeit kommen: Leicht langsamer als eine 5850, jedoch deutlich billiger und bessere Tessellationleistung bei (anscheinend) gleichem Stromverbrauch.

Ähm, wie kommst du auf 285 Mtris/s bei AMD? Der Stromverbrauch wird entscheidend, da man hier aber wie bei den anderen Fermis wohl wieder den Durchschnittsverbrauch angibt wäre das >5870 und damit noch immer deutlich zu viel für die Leistung.

deekey777
2010-07-08, 17:36:00
Ist das nicht das erste Mal, dass die goldene Mitte mehr ist als die Hälfte des Highendchips?
Das Ding wird mir immer sympatischer, mal sehen, wie es am Montag ausschaut.

LovesuckZ
2010-07-08, 17:39:33
Ähm, wie kommst du auf 285 Mtris/s bei AMD?


Der Tessellator limitiert den Durchsatz auf 1/3 des möglichen. 285 waren rein aus dem Kopf. Keine Lust zu rechnen.

Der Stromverbrauch wird entscheidend, da man hier aber wie bei den anderen Fermis wohl wieder den Durchschnittsverbrauch angibt wäre das >5870 und damit noch immer deutlich zu viel für die Leistung.

GTX470 und GTX465 liegen deutlich unter der TDP bei Messung mit Spielen. Siehe dazu die Tests von HT4U.de.

ShinyMcShine
2010-07-08, 17:45:10
Also wenn in einer internen Präsentation der GF104 auf über 800MHz hochgelobt wird, sollten für die GTX 468 mind. 725 MHz drin sein! Mit entsprechend schnellem Speicher kann man damit wirklich sogar eine GTX 475 auf GF104-Basis rausbringen! Einzig in der Tesselationsleistung dürfte die GTX 470 noch ein wenig vorne liegen...

VG
Shiny

Gast
2010-07-08, 18:22:20
Ich freue mich immer wieder auf Neuerscheinungen bei den Grafikchips. ;D Egal ob ATI oder nVidia. ;) Bin gespannt auf Montag...

VG
Shiny

Die Grafikchip kriege sind meine WM!

BlackBirdSR
2010-07-08, 18:22:49
Dummerweise liegt damit die Leistung bei Spielen mit echtem DX11 also Tess, auf dem Nivau der 5870.
Damit bewahrheitet sich, was viele schon gesagt haben: Tesselation verbleibt auf dem Niveau des kleinsten gemeinsamen Nenners... schade für die GTX480

Thunder99
2010-07-08, 18:22:51
Hat die verminderte Geometrieleistung noch einen weiteren Nachteil/Effekt als nur bei Tessellation?

Gast
2010-07-08, 18:26:41
Wieviel ROPs sind es denn jetzt? Das das einzige was das Baby noch ausbremsen kann, und unbekannte Bremsklötze im Design.

Spasstiger
2010-07-08, 18:26:42
Ist das nicht das erste Mal, dass die goldene Mitte mehr ist als die Hälfte des Highendchips?
G80 vs. G92 vs. G94. Nichtmal G94 war nur die Hälfte des G80.

Schön, dass sich die Gerüchte im Vorfeld mal alle bestätigen. 8 SMs (wg. 8 Polymorph-Engines), 64 TMUs, 2 GPCs/Rasterizer. Jetzt bin ich wirklich auf die Praxisbenchmarks gespannt. Die Folien von Gigabyte zeichnen imo ein Bild, das schon auf eine gewissen Speicherlimitierung durch die 768-MiB-Variante zurückzuführen ist. Bei 1920x1200 mit 8xAA nicht verwunderlich.

Wieviel ROPs sind es denn jetzt? Das das einzige was das Baby noch ausbremsen kann, und unbekannte Bremsklötze im Design.
Nichts spricht gegen 32 ROPs im Vollausbau.

Hat die verminderte Geometrieleistung noch einen weiteren Nachteil/Effekt als nur bei Tessellation?
Die Recheneffizienz dürfte allgemein leicht abnehmen gegenüber dem GF100. Aber ein echter Flaschenhals sind die 2 Rasterizer sicherlich nicht, solange keine Tessellation eingesetzt wird.

LovesuckZ
2010-07-08, 18:28:07
Dummerweise liegt damit die Leistung bei Spielen mit echtem DX11 also Tess, auf dem Nivau der 5870.
Damit bewahrheitet sich, was viele schon gesagt haben: Tesselation verbleibt auf dem Niveau des kleinsten gemeinsamen Nenners... schade für die GTX480

Die Karte kostet 210€ (oder so). Eine 5870 kostet 360€.
Man erhält also für 210€ die realistische Tessellationleistung einer 72% teureren Grafikkarte. Da Tessellation sowieso dynamisch ist, ist der Anspruch voll individuell einstellbar.

Wieviel ROPs sind es denn jetzt? Das das einzige was das Baby noch ausbremsen kann, und unbekannte Bremsklötze im Design.

24 bzw. 32 ROPs.

dildo4u
2010-07-08, 18:28:17
Hat die verminderte Geometrieleistung noch einen weiteren Nachteil/Effekt als nur bei Tessellation?
Nich wirklich im Vergleich zur ATI 58XX und der Nvidia GTX 2XX Serie liegt die GTX 460 was Geometrie Leistung angeht komfortabel in Führung.Auch limitiert sehr selten die Geometrieleistung bei DX9 bzw DX10 Games.

deekey777
2010-07-08, 18:32:26
G80 vs. G92 vs. G94. Nichtmal G94 war nur die Hälfte des G80.
.
G80 vs. G84 und G92 vs. G94. SI&ROPs mal ausgenommen.

dildo4u
2010-07-08, 18:37:25
Der Vollausbau des G104 als Dual Chip Karte hätte dann die Geometrie Leistung eines 512SP GF100 aber deutlich mehr Shader und Texturpower.

Thunder99
2010-07-08, 18:46:16
Danke,

dann kann man davon ausgehen, dass bis Ende 2011 oder so die Karte(en) selbst mit Tessellation schnell genug sind. Laut den Aussagen hier aus dem Forum wird ja auch den starken Einsatz des Feature noch verzichtet

dildo4u
2010-07-08, 18:49:48
Danke,

dann kann man davon ausgehen, dass bis Ende 2011 oder so die Karte(en) selbst mit Tessellation schnell genug sind. Laut den Aussagen hier aus dem Forum wird ja auch den starken Einsatz des Feature noch verzichtet
Jup auf der E3 wurde auch nicht viel Neues in die Richtung gezeigt,zum ATI Launch gabs ein paar Games,jetzt sieht es wieder sehr nach mher Multiplattform Umsetzungen aus.

V2.0
2010-07-08, 19:11:46
Bemerkenswert auch, dass NV mit der Lautstärke des Kühlers wirbt. Mal sehen was unabhängige Tests sagen.

Coda
2010-07-08, 19:15:52
Dummerweise liegt damit die Leistung bei Spielen mit echtem DX11 also Tess, auf dem Nivau der 5870.
Wie begründest du das? Doch hoffentlich nicht mit der Anzahl der Einheiten der zwei Chips. Das ist nämlich blanker Unsinn.

Ich empfehle dazu immer noch die Lektüre dieser Präsentation (http://www.highperformancegraphics.org/media/Hot3D/HPG2010_Hot3D_NVIDIA.pdf).

BlackBirdSR
2010-07-08, 19:25:22
Die Karte kostet 210€ (oder so). Eine 5870 kostet 360€.
Man erhält also für 210€ die realistische Tessellationleistung einer 72% teureren Grafikkarte. Da Tessellation sowieso dynamisch ist, ist der Anspruch voll individuell einstellbar.
.

Das spielt absolut keine Rolle. Fakt ist, dass damit Tesselation und DX11 aufgehalten wird und die GTX470/480 ihre Power damit nicht richtig ausspielen können.
Dadurch, dass es dynamisch ist und Entwickler auf die größte Basis hin visuell optimieren, bringt die vermeintlich schnelle Karte nicht mehr so viel. Erstmal müssten die Entwickler auch dynamische Tess inkludieren, optimieren und im Content vorsehen. TruForm konnte ich auch beliebig hoch stellen :(

Auch der Preis ist da egal.. weil damit quasi alle verlieren.
Mich ärgert jetzt, dass DAS DX11 Feature damit ein großes Handicap bekommt.. Mainstream!

LovesuckZ
2010-07-08, 19:29:15
Das spielt absolut keine Rolle. Fakt ist, dass damit Tesselation und DX11 aufgehalten wird und die GTX470/480 ihre Power damit nicht richtig ausspielen können.
Dadurch, dass es dynamisch ist und Entwickler auf die größte Basis hin visuell optimieren, bringt die vermeintlich schnelle Karte nicht mehr so viel. Erstmal müssten die Entwickler auch dynamische Tess inkludieren, optimieren und im Content vorsehen. TruForm konnte ich auch beliebig hoch stellen :(

Auch der Preis ist da egal.. weil damit quasi alle verlieren.
Mich ärgert jetzt, dass DAS DX11 Feature damit ein großes Handicap bekommt.. Mainstream!

Schön, dass die Moderation jetzt mittrollt. :up:

BlackBirdSR
2010-07-08, 19:34:22
Schön, dass die Moderation jetzt mittrollt. :up:

Das ist kein Trolling sondern ein ernster Post.

Wir haben erneut eine Situation wie immer schon. Feature X wird nur zögerlich oder schlecht implementiert, weil 90% der User nichts davon hätten. Die wenigen Fälle, wo es genutzt wird, sind meist gesponsorte Titel und Proof-of-Concept.

Die Liste ist sehr sehr sehr lang: T&L, MMX, SSE2, PhysX.......

Das kannst Du ja nicht verneinen oder? Die Möglichkeiten von T. werden durch geminderte Leistung im Mainstream stark verringert... Das ist nicht gut für GF100 Besitzer :(

Spasstiger
2010-07-08, 19:41:20
Der GF104 hat die halbe Geometrieleistung des GF100. Was ist daran jetzt schlimm? $200-Grafikkarten waren schon immer ein ganzes Stück langsamer als $500-Grafikkarten.

/EDIT: Die GTX 480 in Unigine Heaven @ Extreme Tessellation auch nur 80% schneller als die GTX 460 (siehe NV-Folie) bei 122% mehr Geometrieleistung (15 Polymorph-Engines @ 700 MHz vs. 7 Polymorph-Engines @ 675 MHz), 50% mehr arithmetischer Rechenleistung und 105% mehr Speicherbandbreite. So wahnsinnig viel kleiner wäre der Vorsprung der GTX 480 auch dann nicht, wenn die GTX 460 4 Raster-Engines und 14 Polymorph-Engines hätte.

LovesuckZ
2010-07-08, 19:41:56
Das ist kein Trolling sondern ein ernster Post.

Wir haben erneut eine Situation wie immer schon. Feature X wird nur zögerlich oder schlecht implementiert, weil 90% der User nichts davon hätten. Die wenigen Fälle, wo es genutzt wird, sind meist gesponsorte Titel und Proof-of-Concept.

Die Liste ist sehr sehr sehr lang: T&L, MMX, SSE2, PhysX.......

Das kannst Du ja nicht verneinen oder? Die Möglichkeiten von T. werden durch geminderte Leistung im Mainstream stark verringert... Das ist nicht gut für GF100 Besitzer :(

GF104 besitzt eine 63% höhrere Geometrieleistung mit Tessellation als eine 5970. Das Verhältnis Rechenleistung zu Geometrieleistung ist bei der GTX460 gegenüber der GTX480 ebenfalls besser mit 1152 Flops/Triangle zu 787,5 Flops/Triangle.
keine Ahnung, was für Geister du siehst, aber sie sind nicht existent.

Gast
2010-07-08, 19:42:05
In anbetracht des mächtigen Konsolen Marktes muss man aber Abstriche hinnehmen bei der Implementierung von Tesselation. Extra Aufwand, wird sind doch froh wenn Multi-Games auf dem PC AA unterstützen (Danke DX11 schonmal hierfür)...
Immer weniger Entwicklungen in der der PC den Lead angibt, ich hoffe auf unternehmen wie Crytek und Dice, die wenigstens ein wenig mehr Zucker in die PC Umsetzungen geben als EA mit den Sportspielen.

V2.0
2010-07-08, 19:43:56
Das ist kein Trolling sondern ein ernster Post.

Wir haben erneut eine Situation wie immer schon. Feature X wird nur zögerlich oder schlecht implementiert, weil 90% der User nichts davon hätten. Die wenigen Fälle, wo es genutzt wird, sind meist gesponsorte Titel und Proof-of-Concept.

Die Liste ist sehr sehr sehr lang: T&L, MMX, SSE2, PhysX.......

Das kannst Du ja nicht verneinen oder? Die Möglichkeiten von T. werden durch geminderte Leistung im Mainstream stark verringert... Das ist nicht gut für GF100 Besitzer :(

Jeder, des Tesselation als wichtiges Feature für diese Generation verkauft belügt den Kunden sowieso. ATI hat es relativ halbherzig umgesetzt und bei NV war es schon designbedingt klar, dass die kleinere Chips weniger leistung haben werden als die GF100.

deekey777
2010-07-08, 19:58:12
Könntet ihr mir bitte einen Spieltitel nennen, wo die Tessellation auf einer Radeon ein limitierender Faktor ist?
Nein?

y33H@
2010-07-08, 20:02:05
Wie definierst du "limitierend"?

deekey777
2010-07-08, 20:07:57
Wie definierst du "limitierend"?
Was ist an "limitierendem Faktor" so unklar, dass es einer Definition bedarf?

y33H@
2010-07-08, 20:11:38
Eine Limitierung liegt vor, wenn eine Komponente oder Berechnung den kompletten Rendering-Vorgang bremst. Das kann man in Metro 2033 wie in Stalker CoD selbst auf einem Fermi provozieren - 4x MSAA ist dann etwa "kostenlos".

deekey777
2010-07-08, 20:37:43
Milchmädchenrechnung: Bei aktivierter Tessellation kann eine HD5870 maximal ~280 MTri/s liefern. Damit ich mit 60 FPS spielen kann, dürfen die einzelnen Frames maximal 4 Mio Dreiecke haben.
Das Problem ist, dass zB ein Spiel wie Crysis mit seinen 2 Mio Dreiecken pro Frame irgendwie sich weigert, mit 350 FPS zu laufen.

Gast
2010-07-08, 20:41:22
Weil hier die dedizierte Tesselation garnicht erst angesprochen wird? Teclvl und so...

y33H@
2010-07-08, 20:41:46
Seit wann kann Crysis Tessellation?

deekey777
2010-07-08, 20:43:33
Weil hier die dedizierte Tesselation garnicht erst angesprochen wird? Teclvl und so...
Seit wann kann Crysis Tessellation?
Verfolgt ihr eine andere Diskussion als ich?

y33H@
2010-07-08, 20:47:13
Könntet ihr mir bitte einen Spieltitel nennen, wo die Tessellation auf einer Radeon ein limitierender Faktor ist? Ich nannte Metro 2033 und CoP - du aber Crysis. Was wie gesagt mit Tessellation nichts am Hut hat. Wenngleich einen verdammt hohen Polycount.

deekey777
2010-07-08, 21:09:19
Ich nannte Metro 2033 und CoP - du aber Crysis. Was wie gesagt mit Tessellation nichts am Hut hat. Wenngleich einen verdammt hohen Polycount.
Tessellation oder nicht: Christ ist Christ. Dreiecke sind Dreiecke.
Ok, es gibt da noch die Diskussion, ob nicht der Domainshader das eigentliche Problem ist, aber letztendlich ist es egal: Werden Dreiecke tesselliert, sind der Dreieckoutput auf ein Drittel. Nur tun hier gewisse Leute so, dass das der einzige limitierende Faktor sei. Und noch besser: Das führt zur Stagnation.

Darum das Beispiel mit Crysis: Hier limitieren ganz andere Sachen und dazu noch am Ende der Pipeline, obwohl eigentlich das Rasterizing längst der Flaschenhals sein sollte. Man spielt das Spiel nunmal nicht mit Shader/Postprocessing/Effekte etc auf Low, wenn eine HD5870 im Rechner hat.
Und das gleiche sehen wir auch in Metro 2033: Da limitieren nicht die aufgeblähten Schreibmaschinen, sondern ganz andere Stages der Pipeline.
Niemand wird heute und morgen und übermorgen ein Spiel auf den Markt bringen, das von Geometrie nur so strotzt, aber Materialshader, Beleuchtung usw. a la HL2 hat.

y33H@
2010-07-08, 21:15:42
Klar, Polys sind Polys und das Crysis-Beispiel ist interesant [wenngleich Crysis wie üblich die Ausnahme ist, die die Regel bestätigt]. Aus dem Gesichtspunkt hast du Recht - Tessellation bremst nur dann, wenn man es bewusst provoziert oder in Ausnahmen.

Coda
2010-07-08, 21:31:34
Milchmädchenrechnung: Bei aktivierter Tessellation kann eine HD5870 maximal ~280 MTri/s liefern. Damit ich mit 60 FPS spielen kann, dürfen die einzelnen Frames maximal 4 Mio Dreiecke haben.
Ja, das ist eine Milchmädchenrechnung, weil sich die Bottlenecks je nach gesetztem Renderstate natürlich sehr deutlich in die eine oder andere Richtung verschieben können.

Captain Future
2010-07-08, 23:19:24
Tessellation oder nicht: Christ ist Christ. Dreiecke sind Dreiecke.
Crysis-Dreiecke schafft die HD 5870 aber 850 Millionen.
Außerdem: Geometrie muss nicht single-pass sein.

Gast
2010-07-08, 23:21:33
Die "Tesselation" Einheiten werden doch garnicht angesprochen, da kannst auch Point Sampling aktivieren anstelle AF... Texturen sind Texturen, egal ob man die TMUs belastet oder sie voll duchrauschen lässt ^^

=Floi=
2010-07-09, 01:29:53
wie sieht es denn mit dem vollen GF100 aus und dessen refresh?! was kann man da erwarten?
lohnt es sich überhaupt noch den vollen gf100 zu kaufen, oder sollte man auf einen richtigen refresh (mit shrink) dessen warten?!

Coda
2010-07-09, 01:32:11
Die "Tesselation" Einheiten werden doch garnicht angesprochen, da kannst auch Point Sampling aktivieren anstelle AF... Texturen sind Texturen, egal ob man die TMUs belastet oder sie voll duchrauschen lässt ^^
Hä?

Leonidas
2010-07-09, 05:49:16
wie sieht es denn mit dem vollen GF100 aus und dessen refresh?! was kann man da erwarten?
lohnt es sich überhaupt noch den vollen gf100 zu kaufen, oder sollte man auf einen richtigen refresh (mit shrink) dessen warten?!


Derzeit ist sowas nicht in der absehbaren Pipeline. Ein Shrink wird sowieso nicht vor Frühling 2011 zu erwarten sein, ich gehe eher von später aus.

=Floi=
2010-07-09, 07:12:48
ein doppelter GF104 als GF100 refresh wäre hald ganz nett. ;) irgendwie fehlt mir die leistung für den preis und den nachteilen. ein beschnittener chip kommt mir auch nicht ins haus.

V2.0
2010-07-09, 07:13:08
wie sieht es denn mit dem vollen GF100 aus und dessen refresh?! was kann man da erwarten?
lohnt es sich überhaupt noch den vollen gf100 zu kaufen, oder sollte man auf einen richtigen refresh (mit shrink) dessen warten?!

Für einen Shrink brauchen sie einen neuen Fertigungsprozess. Das wird noch etwas dauern.

ShinyMcShine
2010-07-09, 07:25:32
ein doppelter GF104 als GF100 refresh wäre hald ganz nett. ;) irgendwie fehlt mir die leistung für den preis und den nachteilen. ein beschnittener chip kommt mir auch nicht ins haus.

Dito! Warten auf den vollen GF104 ist angesagt! ;D Das ich beschnittene Chips nicht mag ist mir allerdings auch schon beim Kauf der 8800 GTS 512 zum "Verhängnis" geworden. :rolleyes: Eine 8800 GT wäre vom P/L Verhältnis damals wohl die bessere Wahl gewesen. :wink:

VG
Shiny

=Floi=
2010-07-09, 07:40:25
wobei der G92 im nachhinein auch nicht der hit war. er war gut, aber hatte zu viele flaschenhälse und brachte seine rohpower nicht auf den boden.
das problem hat zB die die neue 460er auch wieder zu kleines SI und zu wenig vram VOR dem release --> fail
leistung kostet eben geld und da bekommt man leider wieder nur eine karte die in normalen settings und benchmarks gut dasteht und bei richigem einsatz einfach wegbricht.

ShinyMcShine
2010-07-09, 07:45:07
OK, aber eine GTX 468 mit 256 Bit SI und 4000MHz RAM würde auf eine Bandbreite kommen, die nur knapp unter einer GTX 470 liegt. Somit würde dieser Flaschenhals wegfallen.

VG
Shiny

V2.0
2010-07-09, 07:50:45
wobei der G92 im nachhinein auch nicht der hit war. er war gut, aber hatte zu viele flaschenhälse und brachte seine rohpower nicht auf den boden.
das problem hat zB die die neue 460er auch wieder zu kleines SI und zu wenig vram VOR dem release --> fail
leistung kostet eben geld und da bekommt man leider wieder nur eine karte die in normalen settings und benchmarks gut dasteht und bei richigem einsatz einfach wegbricht.

Ich würde sagen dass die 460/1024 beim SI und der Bandbreite nur geringe Unterscheide zum Vollausbau haben wird. Die 768 würde ich mir auch nicht holen.

Gast
2010-07-09, 08:58:11
Wieso steht eigentlich nirgendwo genau wieviel Textureinheiten der GF104 jetzt nun wirklich hat? Sollten sich die 42 Bewahrheiten, dann ist die Karte ja noch verkrüpelter als die 465'er.

Warum sollte man sich die 460'er also holen????

Hier gibts übrigens ein Info-PDF:

http://many-electronics.shops4ecommerce.de/pics/11747.pdf

Ausserdem hat Geizhals schon zwei als Lieferbar gelistet:

Palit/XpertVision GeForce GTX 460 Sonic für 304,51

Palit/XpertVision GeForce GTX 460 Sonic Platinium für 311,52 EUR

Was für ein Einstieg!

ShinyMcShine
2010-07-09, 09:09:14
In der auf Thread Seite 72 verlinkten Präsentation gibt es die Information, dass die GTX460/768 56 TMUs hat. Ergo hat der volle GF104 64 TMUs.
Zu den Preisen sage ich nur so viel: Vorbestellerabzocke! Wenn es die GTX 465 vereinzelt schon für unter 250 EUR gibt, warum sollte die GTX460 (selbst die GTX460/1024) 50-60 EUR mehr kosten?

VG
Shiny

Edit: Bei Geizhals (http://geizhals.at/deutschland/?fs=GTX+460&in=) ist eine ASUS GTX460/768 übrigens schon für 202 EUR gelistet (EU-weit).

Gast
2010-07-09, 09:20:10
150W für die 768: http://many-electronics.shops4ecommerce.de/pics/11748.pdf

300€ wird man sich wohl kaum erlauben können, bei der aktuellen Preis und Liefersituation der GTX 470, die immernoch um einiges schneller sein wird als die 460-1GB.

Gast
2010-07-09, 09:22:26
Präsentationen und Folien schön ung gut, aber die meisten Sachen die ich jetzt gelesen habe sprechen für 42 Textureinheiten und das wäre (no)

Es hilft nix. Man muss wohl auf den 12.'ten warten und Reviews lesen.

ShinyMcShine
2010-07-09, 09:23:42
Die GTX460/1024 wird mit 160 Watt angegeben. ;)
Dass eine GTX470 schneller sein wird steht außer Frage. Erst ein GF104 im Vollausbau mit schnellem RAM dürfte die GTX470 gefährden. Dies wird sich dann wohl auch in einem Preis um die 300 EUR ausdrücken.
Aber die beschnittenen 460er dürfen nie und nimmer 250 EUR überschreiten! Mal den Release am Montag abwarten und dann schauen wohin sich der Preis nach ein paar Tagen bewegt...

VG
Shiny

Gast
2010-07-09, 09:24:53
Präsentationen und Folien schön ung gut, aber die meisten Sachen die ich jetzt gelesen habe sprechen für 42 Textureinheiten und das wäre (no)

42 TMUs sind weder logisch, da 6 TMUs kein Quad bilden können. Weiterhin sind die 56 TMUs durch die NV-Folie und auch die unabhängigen Vantage Tests mit Füllraten über der GTX 470 mit 56TMU@600MHz gesetzt.

ShinyMcShine
2010-07-09, 09:27:43
Die 42 TMUs würden wenn dann nur beim beschnittenen GF104 gehen können, oder? Ein voller GF104 müßte demnach 48 TMUs haben, was ihn wieder über die GTX465 (44 TMUs) hebt.

VG
Shiny

Gast
2010-07-09, 09:30:58
Die 42 TMUs würden wenn dann nur beim beschnittenen GF104 gehen können, oder? Ein voller GF104 müßte demnach 48 TMUs haben, was ihn wieder über die GTX465 (44 TMUs) hebt.

Es sind je SM 8 TMUs, insgesamt 64 bei den 8 SMs des GF104.
Absolut nichts, außer den Halbwissen von W1zzard und dennen die von ihm abschreiben, spricht für SMs mit 6 TMUs.

ShinyMcShine
2010-07-09, 09:43:15
Wunderbar! :up:

Gast
2010-07-09, 09:59:07
Die 768MB 460 könnte wohl die passende PhysX-Zusatzkarte für ein GTX 480 (SLI) System werden: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8134934#post8134934

Gast
2010-07-09, 10:17:00
http://www.coolaler.com/forum/showthread.php?t=242673
900/1100MHz @ FurMark

ShinyMcShine
2010-07-09, 10:24:25
Die 768MB 460 könnte wohl die passende PhysX-Zusatzkarte für ein GTX 480 (SLI) System werden: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8134934#post8134934

Gibt es wirklich Leute, die sich eine dedizierte Karte für 200 EUR für PhysX kaufen? :uponder:

VG
Shiny

Gandharva
2010-07-09, 10:30:55
Jetzt sind die ersten 1GB Versionen gelistet. -> 300€

ShinyMcShine
2010-07-09, 10:39:01
Die GTX460/768 von Sparkle steht aber z.B.: schon für 199 drin! Nie und nimmer kosten die 1GB-Versionen 100 EUR mehr... Einfach abwarten was sich im Laufe der Tage bis Dienstag/Mittwoch tut. Wer unbedingt jetzt so eine Karte zu den Preisen vorbestellt ist selbst schuld... :crazy:

VG
Shiny

Bioshock
2010-07-09, 10:44:35
Ich rechne für die 1GB Versionen so mit 230 euro.

Mfg

crux2005
2010-07-09, 11:03:45
Gibt es wirklich Leute, die sich eine dedizierte Karte für 200 EUR für PhysX kaufen? :uponder:

VG
Shiny

wenn jemand die System Requirements von Mafia 2 sieht:

Video Cards and resolution: APEX High settings
Minimum: NVIDIA GeForce GTX 470 (or better) and a dedicated NVIDIA 9800GTX (or better) for PhysX
Recommended: NVIDIA GeForce GTX 480 for Graphics and a dedicated NVIDIA GTX 285 (or better) for PhysX NVIDIA GPU driver: 197.13 or later.
NVIDIA PhysX driver: 10.04.02_9.10.0522. Included and automatically installed with the game.

...
Gut das ich meine GTX 285 noch nicht verkauft habe. LOL

Gast
2010-07-09, 11:09:32
Ich rechne für die 1GB Versionen so mit 230 euro.

Mit breiter Verfügbarkeit sollten daraus 220€ werden. Aber vielleicht übt AMD mit einer Preissenkung der 5850 auf <250€ auch etwas Druck aus.
Für GTX 460-1G/5850 Leistung <200€ wäre es doch langsam mal Zeit...

ShinyMcShine
2010-07-09, 11:10:26
wenn jemand die System Requirements von Mafia 2 sieht:


:uwoot:

Ohne jetzt OT werden zu wollen: WTF! :eek:
Die Minimum System Requirements beinhalten eine dedizierte PhysX Beschleunigerkarte? Das kann doch nur so gemeint sein, dass man die braucht WENN man mit PhysX spielen will. :uponder:
Man denke nur an alle Hardcore ATI Fans die sich bestimmt keine nVidia Karte als PhysX Beschleuniger kaufen werden. Die könnten dann das Spiel nicht spielen...
Überhaupt halte ich diese Minimum System Requirements für übertrieben. Das kann ja nicht deren Ernst sein: Minimum GTX470! Wie soll dieses Spiel auf Konsolenhardware dann laufen? Werde mir mal den anderen Thread genauer durchlesen müssen...

Mit breiter Verfügbarkeit sollten daraus 220€ werden. Aber vielleicht übt AMD mit einer Preissenkung der 5850 auf <250€ auch etwas Druck aus.
Für GTX 460-1G/5850 Leistung <200€ wäre es doch langsam mal Zeit...

Dem kann ich nur zustimmen! ;)

VG
Shiny

Bucklew
2010-07-09, 11:14:10
Ohne jetzt OT werden zu wollen: WTF! :eek:
Die Minimum System Requirements beinhalten eine dedizierte PhysX Beschleunigerkarte? Das kann doch nur so gemeint sein, dass man die braucht WENN man mit PhysX spielen will. :uponder:
Man denke nur an alle Hardcore ATI Fans die sich bestimmt keine nVidia Karte als PhysX Beschleuniger kaufen werden. Die könnten dann das Spiel nicht spielen...
Überhaupt halte ich diese Minimum System Requirements für übertrieben. Das kann ja nicht deren Ernst sein. Werde mir mal den anderen Thread genauer durchlesen müssen...
Die sind nur für APEX (PhysX) High Settings. Ohne braucht man natürlich keinen dezidierten Physikbeschleuniger:

http://www.game-debate.com/games/index.php?g_id=89&game=Mafia%202

y33H@
2010-07-09, 11:29:17
Als NV-User hat man mehr Effekte, Ati- und CPU-Nutzer bekommen Konsolen-Optik. Die Specs für "APEX" liegen imo aber zu hoch.

HarryHirsch
2010-07-09, 11:31:34
Als NV-User hat man mehr Effekte, Ati- und CPU-Nutzer bekommen Konsolen-Optik. Die Specs für "APEX" liegen imo aber zu hoch.

Und ein ATI-User mit dedizierter GT240 GPU? Laut den Specs bekommt der ja auch nix?

VooDoo7mx
2010-07-09, 11:39:33
http://www.coolaler.com/forum/showthread.php?t=242673
900/1100MHz @ FurMark
900Mhz sind schon ne Hausnummer, nur wie sieht es mit der Kühlung da aus? Ich kann kein chinesisch.:ugly:

ShinyMcShine
2010-07-09, 11:41:25
Google übersetzen lassen! ;)
Aber ohne Spannungserhöhung und immer noch mit Luftkühlung wäre schon ein kleiner Wahnsinn! ;D

VG
Shiny

Gast
2010-07-09, 11:44:34
Beachtenswert sind aber auch der Speichertakt von 1,1GHz, laut GPU-Z liegt die Spannung bei 1,03V. Afterburner: 0,875V Idle, 1,025V Last.

V2.0
2010-07-09, 12:02:06
Und die Temps, noch unter 90°C