PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Erste GTX260 in 55nm im Anmarsch! - neue Designs - 1792 MiB VRAM


Seiten : 1 [2]

Botcruscher
2009-01-02, 00:56:34
Naja.

NVIDIA spart bei der 55-nm GeForce GTX 260

http://ht4u.net/news/19733_nvidia_spart_bei_der_55-nm_geforce_gtx_260/

Gast
2009-01-02, 01:13:39
Naja.

NVIDIA spart bei der 55-nm GeForce GTX 260

http://ht4u.net/news/19733_nvidia_spart_bei_der_55-nm_geforce_gtx_260/

Na Klasse :rolleyes:


Die Ursachen für den unerwartet schlechten Verbrauch sind wohl in einem veränderten PCB-Layout und Kühlkonstruktion zu suchen. Beim neuen PCB liegen alle Speicherbausteine auf der gleichen Seite und der Kühler fällt deutlich kleiner aus.
Leckströme dürften nicht ganz unschuldig am gestiegenen Verbrauch sein

Fetza
2009-01-02, 04:44:45
Nein, es limitiert nicht. Zum Größteil limitiert die Speichermenge in hohen Auflösungen mit AA.

Das glaube ich nicht, in solchen auflösungen muss doch auch das speicherinterface limitieren bei gddr3. Mag ja sein, dass auch der speicherbug ordentlich mitmischt, aber wenn ich bei meiner 8800gts den speichertakt senke (320er interface), bemerke ich sofort framerate unterschiede in hohen auflösungen.

falls einer kaufen will,dann zackig ist gleich sense.
http://www.zack-zack.eu/html/detail/zackzack.html

Scheiße ;( die hätte ich mir gerne gegönnt zu dem preis.

Coda
2009-01-02, 05:15:01
Das glaube ich nicht, in solchen auflösungen muss doch auch das speicherinterface limitieren bei gddr3.
Quatsch. Das Speicherinterface der G200-Chips kompensiert das mit seiner Breite.

aths
2009-01-02, 09:08:48
Das glaube ich nicht, in solchen auflösungen muss doch auch das speicherinterface limitieren bei gddr3. Mag ja sein, dass auch der speicherbug ordentlich mitmischt, aber wenn ich bei meiner 8800gts den speichertakt senke (320er interface), bemerke ich sofort framerate unterschiede in hohen auflösungen.Das Speicherinterface limitiert nur im Zusammenhang mit der Füllrate.

Fetza
2009-01-02, 09:28:55
Quatsch. Das Speicherinterface der G200-Chips kompensiert das mit seiner Breite.

Aehm, ich meinte eigentlich das 256 bittige speicherinterface des g92..... von gt200 war nicht die rede.

Gast
2009-01-02, 10:32:50
Glaubt's halt nicht. Die Dinger verrecken nicht. Das sind keine Siliziumchips.


Ach ne, aus was sollen die Leistungshalbleiter denn sonst sein?

Gast
2009-01-02, 10:36:55
Scheiße ;( die hätte ich mir gerne gegönnt zu dem preis.

Werden wohl "alte" 65nm Karten abverkauft worden sein. Trotzdem ein guter Preis.

robbitop
2009-01-02, 12:22:03
Glaubt's halt nicht. Die Dinger verrecken nicht. Das sind keine Siliziumchips.

Ich glaub's. Allerdings warum kühlen die IHVs die MOSFETs auf den Referenz-PCBs? Anderseits wurde der GDDR auch schon seit Langem gekühlt, obwohl das relativ unnötig war. Ist dem eigentlich noch immer so?

=Floi=
2009-01-02, 12:37:16
weil die teile unnötigerweise den chip und die umgebung aufheizen?
das pcb fungiert ja auch als küher und da kann man 100°C heiße bauteile auch nicht gebrauchen.

http://de.wikipedia.org/wiki/Leistungs-MOSFET#Anwendungen

Gast
2009-01-02, 12:39:51
Nein, weil sie gekühlt werden müssen um stabil zu arbeiten. Einfach mal Datenblatt schauen. Hier werden ja übelste Theorien aufgestellt, ne ne ne...

HarryHirsch
2009-01-02, 12:41:07
und warum hat dann ati z.b. den furmark ausgebremst?
war es nicht so sich viele user die spannungswandler geschrottet haben weil die temps zu hoch waren?

y33H@
2009-01-02, 12:41:21
Die verrecken so schnell nicht, da hat Coda schon recht. Habe Karten gehabt, da wurden an die 160° ausgelesen und die Oberfläche war auch über 100° heiß. Allerdings schmieren die dann halt ab, nach nem Reboot läuft aber alles wie bisher. Ist somit nur nervig, aber nicht direkt tödlich. Wobei man da zwischen den GT2x0 und den HD4k unterscheiden muss, die VRMs der Radeons sind deutlich empfindlicher.war es nicht so sich viele user die spannungswandler geschrottet haben weil die temps zu hoch waren?RefDesign nicht, nur Boardpartner-Karten mit VDDCs, die mit analogen wie die Palit Sonic laufen ohne Murren.

cYa

Mr. Lolman
2009-01-02, 14:20:37
die VRMs der Radeons sind deutlich empfindlicher.

Die mit digitalen, ja. Analoge sind da nicht so empfindlich.

Cpl. Dwayne Hicks
2009-01-02, 14:26:21
Sind auf den GTX2xx karten immer nur analoge VRMs drauf?

Gast
2009-01-02, 14:32:09
Wasn Quark. Nix analog. Da sind Schaltregler druff, wie üblich.

y33H@
2009-01-02, 14:33:47
War auch nie anders *g* Die VRMs des GDDR5 machen Probs ... GPU kaum.

cYa

Gast
2009-01-02, 14:35:41
Oh, ganz viel früher, weiss jetzt ned mehr, wars ne Matrox G100 oder noch älter, da waren tatsächlich lineare (analoge) VRMs drauf... Für 3.3V IMHO.

Mr. Lolman
2009-01-02, 14:45:50
War auch nie anders *g* Die VRMs des GDDR5 machen Probs ... GPU kaum.

cYa


Nur die kleinen digitalen: http://www.pc-experience.de/wbb2/thread.php?threadid=28092

y33H@
2009-01-02, 14:56:21
Argh, wie oft noch? Die digitalen VRMs des GDDR5 sind die Hitzköpfe, die der GPU nicht und die analogen wie bei der Palit machen keine Mukken.

cYa

Mr. Lolman
2009-01-02, 14:58:10
Hm? Sag ich ja.

Chrisch
2009-01-02, 16:02:50
Werden wohl "alte" 65nm Karten abverkauft worden sein. Trotzdem ein guter Preis.
Nein, die im Zack waren / sind alles 55nm Karten ;)

Art.-Nr.: JBXTP3 <- war 65nm (ist nicht mehr gelistet)
Art.-Nr.: JBXTP5 <- ist 55nm

Zudem hats im Zack nen Mitarbeiter bestätigt das es 55nm Karten sind :)

PS: hab eine davon bestellt :D

Gast
2009-01-02, 16:11:22
Na dann sind das Rückläufer oder B-Ware oder Grauimporte denn zu verschenken hat Alternate nix. Oder glaubt ihr die die machen das aus reiner Menschenfreundlichkeit? Kann auch sein dass die Preise in 2 Wochen überall so sind.

Chrisch
2009-01-02, 16:22:42
Kann auch sein dass die Preise in 2 Wochen überall so sind.
Das wirds eher sein...

Denn 55nm + abgespeckter Kühler = günstiger

Kann ja nicht sein das eine Karte die in der Produktion günstiger ist am ende gleich viel kostet ;)

Captain Future
2009-01-03, 10:40:39
Was noch viel wichtiger ist: Eigenes PCB, nicht eines, das von der 280er recyclet wurde. DAS spart richtig.

Gast
2009-01-03, 10:47:35
Die neue 285 hat doch auch dasselbe Spar-PCB bekommen, sollte dann wohl auch billiger werden als die alte 280?

=Floi=
2009-01-03, 10:49:18
das kann man auch anders sehen. 1. wird nicht so viel eingespart und 2. könnte es in der masse wieder günstiger sein, nur 1 design zu fertigen.
So viel wird ja nicht eingespart und die 285er könnte ja auch ein pcb mit 10 schichten haben.

AnarchX
2009-01-03, 10:50:58
Die neue 285 hat doch auch dasselbe Spar-PCB bekommen, sollte dann wohl auch billiger werden als die alte 280?
Nein, das neue GTX 260 PCB hat nur maximal ein 448-Bit SI(14 Speicherchips).

Die GTX 285 wird definitiv ein anderes verwenden, ob hier NV gegenüber den 14-Layer noch eingespart hat oder das alte PCB einfach weiter verwendet, wird sich zeigen müssen.

Update:
Doch ein einseitig bestücktes Spar-PCB bei der GTX 285:
http://www.expreview.com/news/hard/2009-01-03/1230967847d11034.html
:up:

Gast
2009-01-03, 12:50:58
Nein, das neue GTX 260 PCB hat nur maximal ein 448-Bit SI(14 Speicherchips).

Die GTX 285 wird definitiv ein anderes verwenden, ob hier NV gegenüber den 14-Layer noch eingespart hat oder das alte PCB einfach weiter verwendet, wird sich zeigen müssen.

Update:
Doch ein einseitig bestücktes Spar-PCB bei der GTX 285:
http://www.expreview.com/news/hard/2009-01-03/1230967847d11034.html
:up:

Und was heisst jetzt das "Daumen hoch"?

Gast
2009-01-03, 13:36:47
Und was heisst jetzt das "Daumen hoch"?
Na was wohl? preiswert, also billiger und das erfreut Käufer normalerweise ;)

Gast
2009-01-03, 13:41:25
Ist es jetzt das gleiche PCB wie bei der neuen 260? Irgendwie wäre es ziemlich blöd wegen der 2 Speicherchips zwei verschiedene PCBs herstellen zu müssen...

Der Kühler scheint jedenfalls der Gleiche zu sein...

Der_Korken
2009-01-03, 14:23:16
Na was wohl? preiswert, also billiger und das erfreut Käufer normalerweise ;)

Oder auch nicht, wenn die Karte aufgrund billiger Bauteile ständig Probleme macht ;). Gerade bei so ner "Kante" wie die GTX285.

Gast
2009-01-03, 14:26:52
Oder auch nicht, wenn die Karte aufgrund billiger Bauteile ständig Probleme macht ;). Gerade bei so ner "Kante" wie die GTX285.
Kurze "Wege" bieten nur Vorteile, ok, wenn sie funzen!

Coda
2009-01-03, 16:59:49
Update:
Doch ein einseitig bestücktes Spar-PCB bei der GTX 285:
http://www.expreview.com/news/hard/2009-01-03/1230967847d11034.html
:up:
Das will ich sehen wie sie 16 Speicherchips auf eine Seite kleben.

=Floi=
2009-01-03, 17:10:02
http://www.computerbase.de/bildstrecke/23653/1/
Auf der linken Seite ist ja noch ein wenig Platz. Die 285er hat ja nur eine bestückte Seite und 1024 MB. Davon gibt es auch Bilder.

AnarchX
2009-01-03, 17:12:50
Ein Blick auf das GTX280/GTX260 PCB hilft hier auch schon:
http://www.computerbase.de/bildstrecke/23653/6/
... dieses war schon für 16 Chips pro Seite vorbereitet, was bei den 4GiB Quadro/Tesla-Karten benötigt wird.

ZapSchlitzer
2009-01-03, 17:43:54
Meine Zotac GTX260² ist heute auch eingetrudelt.
Vom OC-Verhalten kann ich sagen, dass sie sich im
Vergleich zu meiner alten Gainward GTX260 Limited,
sowohl besser als auch schlechter schlägt.

Hier mal die Ergebnisse:
Gainward: GPU 729Mhz | Shader 1458Mhz | Memory 1260Mhz
Zotac: GPU 756Mhz | Shader 1512Mhz | memory 1188Mhz

Sobald ich den Speicher >1200Mhz takte, bekomme ich Grafikfehler
und bei 1260Mhz steigt der Treiber aus. Bei GPU- und Shadertakt
bin ich noch nicht ans Maximum gegangen.

Die Temperatur habe ich bis jetzt nur mittels 3DMark06 getestet; Canyon Flight im Loop um genau zu sein.
Dabei schlug sich die Zotac im Vergleich zur Gainward gar nicht mal so übel.
Im Durchschnitt lag die Temperatur nach 5 Durchgängen bei ~57°C bei 60% Lüftergeschwindigkeit.
Meine Gainward kam hingegen meist auf knappe 65°C bei 70% Lüftergeschwindigkeit.

PCGH_Carsten
2009-01-03, 18:16:32
Ein Blick auf das GTX280/GTX260 PCB hilft hier auch schon:
http://www.computerbase.de/bildstrecke/23653/6/
... dieses war schon für 16 Chips pro Seite vorbereitet, was bei den 4GiB Quadro/Tesla-Karten benötigt wird.

Ich zähl da nur 14?

AnarchX
2009-01-03, 18:19:35
Besseres Bild:
http://www.computerbase.de/bildstrecke/21818/156/

Bleibt die Frage wieviele Layer man dadurch spart.

Black-Scorpion
2009-01-03, 18:24:58
Deswegen passen auf das andere PCB trotzdem keine 16 auf eine Seite.
Schau mal genau hin, da sind Teile im Weg.

PCGH_Carsten
2009-01-03, 18:27:38
Besseres Bild:
http://www.computerbase.de/bildstrecke/21818/156/

Bleibt die Frage wieviele Layer man dadurch spart.
Ah, das alte PCB meinst du. Nuja, ich bin nicht sicher, ob das wirklich auf allen Plätzen beidseitig bestückbar ist.

AnarchX
2009-01-03, 18:27:56
@Black-Scorpion
Das ist ja auch das 55nm GTX 260 PCB.

Das neue GTX 285 PCB dürfte wohl eine Mischung aus diesem und dem alten PCB sein, wo Kontakte/Plätze für 16 Chips vorgesehen sind.

Nuja, ich bin nicht sicher, ob das wirklich auf allen Plätzen beidseitig bestückbar ist.
Wie schon gesagt, es gibt 4GiB Karten und maximal 1024MBit Speicherchips. Dass man diese SKUs abdecken wollte ist imo auch der Grund, weshalb NV zuerst dieses PCB mit beidseitiger Bestückung und mächtigen 14 Layern entwickelt hat.

PCGH_Carsten
2009-01-03, 18:31:26
Teslas haben schätzungsweise ein anderes PCB, da Sie zum Beispiel den NVIO nicht benötigen.

AnarchX
2009-01-03, 18:40:18
Teslas haben schätzungsweise ein anderes PCB, da Sie zum Beispiel den NVIO nicht benötigen.
AFAIK wurden die Ausgänge und der NVIO einfach nicht bestückt:
http://www.nvidia.com/docs/IO/56483/Tesla_C1060_boardSpec_v03.pdf
(Auf S.8 kann man durch die Schlitze die Löcher sehen, an denen die Ausgänge befestigt werden bei GeForce und Quadro)
Hier gibt es auch die Infos über die 14 Layer, welches das alte PCB auch besitzt.

mike49
2009-01-03, 18:55:57
Meine Zotac GTX260² ist heute auch eingetrudelt.
Vom OC-Verhalten kann ich sagen, dass sie sich im
Vergleich zu meiner alten Gainward GTX260 Limited,
sowohl besser als auch schlechter schlägt.

Hier mal die Ergebnisse:
Gainward: GPU 729Mhz | Shader 1458Mhz | Memory 1260Mhz
Zotac: GPU 756Mhz | Shader 1512Mhz | memory 1088Mhz

Der Speicher hat ja nix mit dem Fertigungsprozeß der GPU zu tun. Außerdem meinst du wahrscheinlich 1188MHz, oder?

Grundsätzlich bestätigt das aber genau meine Erfahrung: Die 55nm GPUs lassen sich etwas höher takten und bleiben dabei - trotz abgespecktem Kühler - etwas kälter.

Gast
2009-01-03, 19:08:25
Der Speicher hat ja nix mit dem Fertigungsprozeß der GPU zu tun.

Aber dem PCB und Vram^^

AnarchX
2009-01-03, 19:12:19
Ob nun 1188 oder 1260MHz bei eigentlich mit 1.0ns spezifizierten Speicher ist nun auch kein großer Unterschied, die anderen 55nm GTX 260 Besitzer scheinen ja auch über 1.2GHz gekommen zu sein.
Also kann man keine wirkliche Aussage treffen, dass der Speicher-OC auf dem neuen PCB schlechter ist.

Bei der GTX 285 fährt man ja auch auf dem neuen PCB schon ziemlich grenzwertige 1242MHz für 0.83ns Speicher.

mike49
2009-01-03, 19:12:52
Aber dem PCB und Vram^^

Der Speicher ist der vram :|

Außerdem sind 1188 durchaus ein ganz üblicher OC-Wert auch für die 65nm Karten.

Bei CB waren es z.B. nur 1152 resp. 1100 mit den 65nm GTX260:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/26/#abschnitt_uebertaktbarkeit

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_zotac_geforce_gtx_260_amp/4/#abschnitt_sonstige_messungen

Ist also alles im grünen Bereich... ;)

y33H@
2009-01-03, 19:29:10
@ AnarchX

0,83ns wären 1.205 MHz (bzw. aufgrund der Taktsprünge die von dir genannten 1.188 bis 1.242 MHz der GTX 285), wenn ich mich nicht verrechnet habe? Das Limit mit Luft bei den meisten 280ern sind 1.296 MHz, obwohl da ja auch "nur" 0,80ns drauf sitzen. Nvidia geht beim RAM also de fakto ans Limit, die GPU dagegen hat sicher noch genug Luft.

cYa

AnarchX
2009-01-03, 19:38:20
So sieht es aus. Aber vielleicht hat da NV für die GTX 285 einfach noch etwas besseren Speicher geordert bzw. gibt etwas mehr Spannung.
0.83ns GDDR3 gibt es ja nun mittlerweile auch fast 2 Jahre, Fortschritte gibt es da sicherlich, wenn auch sie nicht vermarktet werden.
Im Forum gibt es ja auch ein paar GTX 280 die 1.4GHz erreichen.

edit:
Ich sehe gerade, dass Samsung doch schnelleren Speicher als 0.83ns bei GDDR3 listet:
"0.769ns(1300MHz)"
http://www.samsung.com/global/business/semiconductor/productList.do?fmly_id=146
... mit eher moderaten 1.8V.

Das dürfte wohl der GTX 285 Speicher sein, da NV wohl nur spezifizierte Komponeten verwenden will.

y33H@
2009-01-03, 19:48:20
Ich tippe auf Spannung, schließlich ist GDDR3 lange nicht so gierig wie GDDR5. Die Selektion kommt ja von ganz alleine mit der Zeit: Die aktuellen GT200 gehen mit 1,12v auch besser als die ersten mit der gleichen Spannung. Teils packt man sogar die Werte der ersten 260er mit aktuellen 260er - trotz nur 1,06v und mehr ALUs. Denke, dass dies beim VRAM ähnlich ist.

cYa

AnarchX
2009-01-03, 19:52:39
Ich tippe auf Spannung, schließlich ist GDDR3 lange nicht so gierig wie GDDR5.
Wo ist GDDR5 gierig? Der aktuelle dürfte bei ~1.5V liegen und die Hersteller planen schon 2.5-3GHz GDDR5 mit 1.35V.

Der 0.83ns GDDR3 brauchte AFAIK 2.1V, wobei das sich mittlerweile auch etwas gebessert haben könnte.

edit:
Ich sehe gerade, dass Samsung doch schnelleren Speicher als 0.83ns bei GDDR3 listet:
"0.769ns(1300MHz)"
http://www.samsung.com/global/business/semiconductor/productList.do?fmly_id=146
... mit eher moderaten 1.8V.

Das dürfte wohl der GTX 285 Speicher sein, da NV wohl nur spezifizierte Komponeten verwenden will.
Was dann wohl für die Endkunden bedeuten dürfte, dass man die 1.4GHz (~180GB/s :D) doch öfter sieht und wohl auch die AIBs OC-SKUs mit >1.3GHz anbieten dürften.

y33H@
2009-01-03, 20:02:55
Gierig nicht im Sinne der Spannung, sondern im Verbrauch. Klar ist GDDR5 schneller, rechnet man aber die Latenzen und die Leistungsaufnahme mit rein, verstehe ich schon, warum nV bei GDDR3 geblieben ist. Und bei den HD48x0 sieht man ja, dass die HD4870 abzüglich der 20% mehr Coretakt idR nur noch 6-8% vor der HD4850 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/19/#abschnitt_performancerating_qualitaet) liegt - bei rechnerisch 80% mehr Bandbreite. Gibt zwar auch Fälle, wo die Bandbreite mit plus 20-30% durchschlägt, aber mit den Settings werden dann die 512 MiB zum Flaschenhals. Imo eine ziemliche Verschwendung ... allerdings springen die ganzen R600-Derivate (RV670 und RV770) ja nicht wirklich auf Bandbreite an, so wie es etwa ein G92 tut.

cYa

AnarchX
2009-01-03, 20:10:59
Gierig nicht im Sinne der Spannung, sondern im Verbrauch.
Der hohe Idle-Verbrauch der 4870 hat nichts mit dem GDDR5 zu tun.

Laut Samsung und AMD liegt ein GDDR5-Chip @ 1.5V @ 2.5GHz bei 2.5W TDP!, während GDDR3 mit deutlich niedrigerem Takt in gleichen Dimensionen liegt und ohne Last wohl wegen der hohen Spannung eher mehr verbraucht.

Dass die Untertaktung bei der 4870 soviel bringt, wird wohl eher sein Ursache chipintern haben wo der MC mit dem Command-Takt des GDDR5 arbeiten wird und deshalb im Idle weiterhin für einen hohen Verbrauch sorgt.

Megamember
2009-01-03, 20:12:53
Dabei schlug sich die Zotac im Vergleich zur Gainward gar nicht mal so übel.
Im Durchschnitt lag die Temperatur nach 5 Durchgängen bei ~57°C bei 60% Lüftergeschwindigkeit.


Nur 57 Grad bei den Taktraten? Ich komm bei 738MHZ schon auf 70 Grad bei 60% Lüfterspeed. Wie hoch ist denn deine VGPU unter Last?

Coda
2009-01-03, 21:06:47
Teslas haben schätzungsweise ein anderes PCB, da Sie zum Beispiel den NVIO nicht benötigen.
Teslas haben wenn ich mich richtig erinnere nen anderen Chip anstatt dem NVIO. KA wofür.

Was ich an dem 14-Chip-PCB übrigens auch interessant finde: Man kann nicht mehr selektieren nach kaputten ROP-Partitionen, weil immer die gleichen zwei nicht verwendet werden.

y33H@
2009-01-03, 21:10:40
@ AnarchX

50 Watt nur durch den MC? Das wäre ja mal extrem fahrlässig ...

cYa

=Floi=
2009-01-03, 21:23:17
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/

@coda
die werden das problem mit den rops sicherlich gelöst haben

Coda
2009-01-03, 21:38:15
@coda
die werden das problem mit den rops sicherlich gelöst haben
Wie soll NVIDIA das "Problem" der Punktdefekte bei der Chipherstellung gelöst haben? So ein Unsinn.

AnarchX
2009-01-03, 21:47:26
Kann da NV eigentlich nichts auf Package-Ebene machen oder wäre das zu aufwendig?

Im Endeffekt hat man aber ja auch noch Quadro CX/FX4800/FX3800 um ROP-defekte Chips zu verkaufen.

Coda
2009-01-03, 21:49:05
Kann da NV eigentlich nichts auf Package-Ebene machen oder wäre das zu aufwendig?
Das wäre noch eine Möglichkeit. Da bin ich aber echt überfragt.

Eine weitere wäre wirklich unterschiedliche PCBs herzustellen. Wenn die Mengen groß genug sind lohnt sich das vielleicht sogar.

PCGH_Carsten
2009-01-03, 21:58:14
Niedrigere Preise, größere Mengen - dank AMDs starken HD4800ern. :)
Würde mich außerdem wirklich nicht wundern, wenn Nvidia zumindest die 260er für Partner-SKUs freigegeben hätte.

edit:
Jetzt kapier' ich's. Du meintest unterschiedliche GTX260-PCBs für verschiedene ROP-Defekte? OMFG.

reunion
2009-01-03, 22:02:56
Haben sie wohl:

As for GeForce GTX 260, Nvidia has released design kits to the card makers and you should be seeing some self-designed cards in Q1 next year.

http://vr-zone.com/articles/geforce-gtx-295--gtx-285-to-launch--ces-2009/6259.html?doc=6259

PCGH_Carsten
2009-01-03, 22:58:35
AFAIK wurden die Ausgänge und der NVIO einfach nicht bestückt:
http://www.nvidia.com/docs/IO/56483/Tesla_C1060_boardSpec_v03.pdf
(Auf S.8 kann man durch die Schlitze die Löcher sehen, an denen die Ausgänge befestigt werden bei GeForce und Quadro)
Hier gibt es auch die Infos über die 14 Layer, welches das alte PCB auch besitzt.

Mögliche Theorie, ja, aber noch kein echter Beweis.


edit:
Übrigens ergibt sich dasselbe "Problem" bei den GTX-295-PCBs. Dort sind für jede GPU ebenfalls 14 Speicherchips vorgesehen. Interessant.

ZapSchlitzer
2009-01-03, 23:59:40
Nur 57 Grad bei den Taktraten? Ich komm bei 738MHZ schon auf 70 Grad bei 60% Lüfterspeed. Wie hoch ist denn deine VGPU unter Last?

Laut Bios 1,12V. Lässt sich die Spannung eigentlich auch über Rivatuner auslesen?
Habe diesbezüglich kein Plugin gefunden.

Megamember
2009-01-04, 00:18:14
Hab ich auch, komisch. Über den Rivatuner hab ich bis jetzt auch nix gefunden.

Frank1974
2009-01-04, 00:54:09
Hab ich auch, komisch. Über den Rivatuner hab ich bis jetzt auch nix gefunden.

Bei meiner GTX280 wird zwischen Idle und Last unterschieden, Idle zeigt er 1,04 an und Last 1,19.

Hier Idle
http://666kb.com/i/b58tm5nh64u8h2zk9.png

Und Last
http://666kb.com/i/b58tmijb1hoq1f5ah.png

Normal ist ja 1,03 und 1,18 bei einer GTX280, Rivatuner ist fast dran.

mfg
Frank

Cpl. Dwayne Hicks
2009-01-04, 00:57:47
Ist bei mir genauso... 1.04 und 1.19V

AnarchX
2009-01-06, 10:06:05
EVGA GTX 260 Core 216 55nm Superclocked Edition Video Card Review (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/13533-evga-gtx-260-core-216-55nm-superclocked-edition-video-card-review.html)
Auch nur ein B2-Die und ein durchaus gemischtes Bild beim Verbrauch.


In Asien gibt es nun offenbar auch schon erste Eigendesigns:
http://img123.imageshack.us/img123/9720/000957170or7.jpg
http://www.pcpop.com/doc/App/361776/000957170.html
... diese Karte kommt von Galaxy und hat zudem 0.83ns Speicher verbaut.

Iceman346
2009-01-06, 10:08:38
Und momentan sind die GTX260 fast flächendeckend ausverkauft, besonders die übertakteten Varianten. Entweder bestellen so viele Leute, oder die Hersteller haben die Lieferungen eingestellt und produzieren 55nm Karten zum Ausliefern nach ;)

Alternate hat auf jeden Fall momentan keine Zotacs mehr, meine Bestellung vom 30.12. wurd auch noch nicht ausgeliefert. Mal schauen was da passiert in den nächsten Tagen.

SentinelBorg
2009-01-06, 11:21:23
Kann man bei der 55nm Variante auch ohne Probleme die Spannung via Bios-Mod senken und die Lüfter anders regeln?

reunion
2009-01-06, 11:39:01
EVGA GTX 260 Core 216 55nm Superclocked Edition Video Card Review (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/13533-evga-gtx-260-core-216-55nm-superclocked-edition-video-card-review.html)
Auch nur ein B2-Die und ein durchaus gemischtes Bild beim Verbrauch.


Damit scheint sich der sogar leicht höhere Verbrauch der 55nm Chips immer mehr zu bestätigen.

AnarchX
2009-01-06, 11:44:31
Damit scheint sich der sogar leicht höhere Verbrauch der 55nm Chips immer mehr zu bestätigen.
The 65nm GTX260 takes 182 watts on average and the 55nm, 171 watts.
55nm will draw less power on average across apps but in same cases, can draw more.
Zumal es der B2-Die ist, der wohl dann irgendwann auch durch B3 ersetzt werden sollte, welcher 295 und 285 eingesetzt wird.

Wenn man sich die diversen Einsparungen an PCB und Kühler anschaut, dann hat vielleicht NV auch an der Effizienz der Stromversorgung gespart, sodass der 55nm Die vielleicht gar sparsamer ist, als es sich momentan zeigt. ;)

Gast
2009-01-06, 12:11:09
Damit scheint sich der sogar leicht höhere Verbrauch der 55nm Chips immer mehr zu bestätigen.

Bezüglich der Chips sagt das gar nichts aus, sondern nur bezüglich dieser konkreten Grafikkarte.

AnarchX
2009-01-06, 12:30:23
http://pctuning.tyden.cz/ilustrace3/obermaier/Newsky/prosinec_08/Capture9.PNG

My 55nm GTX 260 - stock cooler, AUTO regulation FAN. Rock stable in all agames and resolutions ...

GTX 285 i have too, but ocing with stock cooler is like that GTX 260 ...
http://www.xtremesystems.org/forums/showpost.php?p=3554360&postcount=15

Interessantes BIOS-Datum, wohlmöglich eine B3-GTX 260. ;)

horn 12
2009-01-06, 12:38:12
Wie schnell wäre die dann, ca. GTX 285 Performance wenn nicht gar darüber... Wozu dann noch eine GTX 285 kommt ist fraglich...?
Welche Absicht steckt da dahinter, will man ATI nun loswerden?

Gast
2009-01-06, 12:43:11
Wie schnell wäre die dann, ca. GTX 285 Performance wenn nicht gar darüber... Wozu dann noch eine GTX 285 kommt ist fraglich...?
Anderes Preissegment, die neuen 260er sind ja nach wie vor Resteverwertung und absichtlich deaktivierte GT200b, trotzdem möchte man natürlich möglichst viele GPUs zum vollen Preis verkaufen.


Welche Absicht steckt da dahinter, will man ATI nun loswerden?
:eek:

Vielleicht will man den Weihnachtsmann zwingen,auch an Ostern auszuliefern. ATI wird man jedenfalls erstmal nicht loswerden, im Moment ist Nvidia froh, mithalten zu können (nicht die Hardware an sich, sondern im Markt).

Gast
2009-01-06, 12:44:34
http://www.xtremesystems.org/forums/showpost.php?p=3554360&postcount=15

Interessantes BIOS-Datum, wohlmöglich eine B3-GTX 260. ;)

Jo, die erste Welle 260 55nm diente wohl eher dazu die Versuchs-Schrott-55nm GPUs loszuwerden, immer noch besser als wegschmeissen...

Jetzt kommen dann bald die guten Karten.

Gast
2009-01-07, 21:36:22
Jo, die erste Welle 260 55nm diente wohl eher dazu die Versuchs-Schrott-55nm GPUs loszuwerden, immer noch besser als wegschmeissen...

Jetzt kommen dann bald die guten Karten.

Laber Rhababer. Das der Screenshot Fake ist ist ja wohl offensichtlich. Erstens kann GPU-Z 0.3.0 noch kein 55nm anzeigen, zweitens sind die knapp 1700MHZ Shadertakt einfach nur lächerlich, und dann angeblich noch mit standart-Lüftersteuerung, lol.

Gast
2009-01-07, 21:39:30
Und das du hier Gebetsmühlenartig in jedem Post runterbetest wie schrottig doch die 55nm Chips sind macht es nicht richtiger.

Gast
2009-01-08, 15:28:28
Mehr Leistungsaufnahme, höhere Temperaturen, das ist echter Fortschritt :thumbsup:

aths
2009-01-09, 19:19:19
Mehr Leistungsaufnahme, höhere Temperaturen, das ist echter Fortschritt :thumbsup:Die Leistungsaufnahme wurde gesenkt (nur noch 1x 6-Pin statt 2x 6-Pin.) Dabei leidet nicht mal die OC-Fähigkeit darunter. Von den höheren Temperaturen habe ich bei den 55-ern die ich bisher gesehen habe noch nicht bemerkt -- gemessen bei gleicher Lüfterdrehzahl allerdings. Da sind die 55-er die ich bisher sah, sogar kühler. Alternativ sind die leiser. Durch den kleineren Chip und das neue Board-Layout sind die Karten in der Herstellung günstiger, das dürfte hoffentlich bald an den Kunden durchgereicht werden.

Iceman346
2009-01-09, 19:41:58
Die Leistungsaufnahme wurde gesenkt (nur noch 1x 6-Pin statt 2x 6-Pin.)

Von welcher Karte sprichst du genau? Die GTX 260 in 55nm haben afaik alle noch 2x 6 Pin Anschlüsse.

Gast
2009-01-09, 20:06:06
Und die Leistungsaufnahme/Temperatur ist teilweise wirklich gestiegen, siehe die ersten Reviews zu den Karten.

aths
2009-01-09, 22:38:11
Die Leistungsaufnahme wurde gesenkt (nur noch 1x 6-Pin statt 2x 6-Pin.) Dabei leidet nicht mal die OC-Fähigkeit darunter. Von den höheren Temperaturen habe ich bei den 55-ern die ich bisher gesehen habe noch nicht bemerkt -- gemessen bei gleicher Lüfterdrehzahl allerdings. Da sind die 55-er die ich bisher sah, sogar kühler. Alternativ sind die leiser. Durch den kleineren Chip und das neue Board-Layout sind die Karten in der Herstellung günstiger, das dürfte hoffentlich bald an den Kunden durchgereicht werden.
edit: Irrtum meiner Seite. Die GTX 260 hat auch in der 55-nm-Version zwei 6-Pin-Anschlüsse, die natürlich beide belegt sein müssen.

AnarchX
2009-01-15, 07:34:34
http://img103.imageshack.us/img103/7982/evga260power1228043lw1.png (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx260-216-55nm.html
... trotz B2-Die. ;)

Vielleicht auch die Ursache, warum im Gesamtsystem teilweise ein höherer Verbrauch gemessen wurde:
The load is distributed unequally between the two external power connectors of the new version of the GeForce GTX 260 Core 216 as opposed to the older version that uses the PCB design and power circuit developed for the GeForce GTX 280. The connector that is nearer to the end of the card is loaded by 10-13 watts more. Anyway, this is no reason to worry because the load is far lower than the permissible 75W.

Gast
2009-01-15, 11:05:12
Vielleicht auch die Ursache, warum im Gesamtsystem teilweise ein höherer Verbrauch gemessen wurde:

Ganz bestimmt nicht. Wenn man die System-Gesamtaufnahme misst ist es egal wie die intern verteilt ist.

Gast
2009-01-15, 11:41:41
http://img103.imageshack.us/img103/7982/evga260power1228043lw1.png (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx260-216-55nm.html
... trotz B2-Die. ;)

Vielleicht auch die Ursache, warum im Gesamtsystem teilweise ein höherer Verbrauch gemessen wurde:
Und wie lässt sich die selbe Temperatur dann bei 32W weniger erklären?
http://www.xbitlabs.com/images/video/evga-geforce-gtx260-216-55nm/results/evga260_temp.png
http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx260-216-55nm_5.html#sect0

Gast
2009-01-15, 11:54:16
vielleicht durch ein schlechteres Kühlsystem?

Psychopat
2009-01-15, 11:59:33
Es gab doch hier mal einen Bildvergleich zwischen altem und neuen GTX 260 Kühler. Der Neue ist ein Stück kürzer (sieht man nur bei abmontiertem Kühler).

Gast
2009-01-15, 12:00:46
Durch den kleineren Kühler. Steht doch auch alles im Review.

Gast
2009-01-15, 12:02:40
Gute 100W@stock, das sind ja 9800 GTX+ Regionen, sehr gut :daumen:

Gast
2009-01-15, 12:03:13
Und wie lässt sich die selbe Temperatur dann bei 32W weniger erklären?

- anderer Sensorchip
- Sensoren abweichend kalibriert
- Sensoren leicht anders platziert
- ...

Ich kann leider nichts dazu finden, ob xbitlabs eigenes Messequipement verwendet oder einfach nur die Karteneigenen Sensoren ausliest.

MartinRiggs
2009-01-15, 12:08:32
soll heute nicht auch offiziell die GTX285 in den Handel entlassen werden?

Gast
2009-01-15, 12:26:14
Ab 15:00 oder so.

SentinelBorg
2009-01-15, 15:34:44
Was meint ihr, wann wirds die ersten Gtx260 mit B3 Rev geben?

Gast
2009-01-15, 16:03:49
Gar nicht? Vielleicht steht das "B3" nur für 240SP und "B2" für 216SP?

Coda
2009-01-15, 16:15:29
Die Revision ändert normal nichts am grundlegenden Aufbau des Chips. Dann wäre es ein anderer Codename.

Gast
2009-01-17, 23:41:47
Was meint ihr, wann wirds die ersten Gtx260 mit B3 Rev geben?
evga hat sie schon ausgeliefrt, steht auch auf Karton!

mike49
2009-01-18, 01:55:58
evga hat sie schon ausgeliefrt, steht auch auf Karton!
Glaube kaum, daß die das Stepping mit auf die Verpackung drucken... -> Blödsinn!

Megamember
2009-01-18, 12:13:51
Er meint wohl das 55nm, ja, das steht bei Evga auf der Packung.

Gast
2009-01-18, 13:38:29
Glaube kaum, daß die das Stepping mit auf die Verpackung drucken... -> Blödsinn!
Selber gesehn! :up:

mike49
2009-01-18, 16:17:54
Selber gesehn! :up:

Halluzinationen? :|

Davon abgesehen sind noch gar keine B3-Steppings der GTX260 aufgetaucht.

Die in 55nm haben derzeit das B2-Stepping. B3 ist derzeit für GTX285/295 vorbehalten.

HD-Ronny
2009-01-18, 18:21:14
http://www.evga.com/PRODUCTS/IMAGES/PRODUCT/896-P3-1258-AR_XL_1.jpg

quelle: http://www.evga.com/articles/00454/

Wenn verkaufsfördernd, wird dann da natürlich ein entsprechender Aufkleber draufgepappt.
Ansonsten is da nix von B3 etc zu sehen...

Megamember
2009-01-18, 18:40:09
Komisch, ich bin mir sicher das ich auf dem Karton schon ein 55nm gesehen habe.

Gast
2009-01-18, 18:42:03
Ja natürlich. 55nm steht drauf. Aber nicht ob B2 oder B3.

Angiesan
2009-01-19, 21:23:38
http://img103.imageshack.us/img103/7982/evga260power1228043lw1.png (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx260-216-55nm.html
... trotz B2-Die. ;)

Vielleicht auch die Ursache, warum im Gesamtsystem teilweise ein höherer Verbrauch gemessen wurde:

Ich kann mir vorstellen, dass hier genau das andere Extrem gemessen wurde.
Es gibt auch genug Karten der GTX 260 @65nm die ein Bios mit 1,12V Spannung haben. Wenn ich dann eine neue 55er mit einem 1,06V Bios gegen die 65er mit 1,12V messe könnte ich mir dies vorstellen.
Aber rein aufgrund der Änderung von 65nm auf 55nm Fertigung halte ich diesen Unterschied für nicht möglich.
Leider konnte ich in dem Test keine Biosangaben der getesteten Karten finden.

Grüße

Gast
2009-01-20, 00:08:20
Halluzinationen? :|

Davon abgesehen sind noch gar keine B3-Steppings der GTX260 aufgetaucht.

Die in 55nm haben derzeit das B2-Stepping. B3 ist derzeit für GTX285/295 vorbehalten.
Bei den 285ern steht auch gross 55nm bei evga drauf! :up:

mike49
2009-01-21, 00:28:19
Bei den 285ern steht auch gross 55nm bei evga drauf! :up:
Da Du scheinbar nicht in der Lage bist, den Unterschied zwischen dem Fertigungsprozeß (65 vs. 55nm) und dem dazugehörigen Stepping (B2 vs. B3, beide 55nm) zu verstehen möchte ich dich hiermit bitten, diese unsinnigen Posts zu unterlassen... :|

Zephyroth
2009-01-22, 22:55:32
Weis jemand ob Zotac seine GTX260 AMP² auch schon in 55nm ausliefert?

Ich habe mal diese Fakten zusammengetragen:

1.) GPU-Z zeigt mir Rev. B1 ein, Technologie 65nm
2.) Bei Zotac gibt es 2 Artikelnummern: ZT-X26E3KB-FCP und ZT-X26E3KE-FCP (ich habe letztere, also die neuere)
3.) Bei Alternate wird die Nummer ....KE... als 55nm ausgewiesen
4.) Obwohl die GT200 Karten als Heißläufer gehandelt werden, bleibt meine trotz Furmark bei maximal 85°C, was auch auf 55nm hindeutet

Also was habe ich hier drinnen?
Grundsätzlich ist es mir egal, mich interressiert es nur als Techniker....

Grüße,
Zeph

Gast
2009-01-22, 23:04:50
Hallo werter Grafikkartenbenutzer, schau dir doch einfach deine Grafikkarte an. Wenn sie auf der Rückseite keine Abdeckung hat, also die Platine zu sehen ist, dann ist es die neue Revision mit 55nm GPU.

Zephyroth
2009-01-22, 23:19:01
Danke, dann ist es wohl eine 55nm-Karte. Hätte nie gedacht, das das "Nicht-Vorhandensein" einer Abdeckung auf die GPU-Technologie schließen läßt....

Greetz,
Zeph

AnarchX
2009-01-23, 14:49:59
Palit nun mit einer selbstdesignten GTX 260:
http://img50.imageshack.us/img50/2040/palitgtx260sonic216sp18yl8.jpg (http://imageshack.us)
http://vr-zone.com/articles/palit-gtx260-sonic-216sp-launched/6497.html?doc=6497

Megamember
2009-01-24, 14:31:35
Hier ein neuer test mit Stromverbrauch. Nur knapp über 100W unter Last, widerspricht auch den alten Tests wo der Stromverbrauch sogar höher war. Schade das sie mit Nibitor die Spannung nicht ausgelesen haben:

http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx260-216-55nm_5.html#sect0

AnarchX
2009-02-06, 08:45:01
Noch ein paar Infos zu Galaxys GTX 260 55nm:
http://img15.imageshack.us/img15/295/0009722696253529cx5.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/368/368666.shtml

3 oder gar 4 Slots? :|

Gast
2009-02-06, 09:06:34
3 oder gar 4 Slots? :|
In vielen Fällen kein Problem, dafür mit einfach zu wechselndem, geregeltem (?! -> 3-Pin-Anschluss) Standardlüfter.

Bestes Eigendesign bisher IMHO. :up:

Simon
2009-02-06, 09:18:51
Noch ein paar Infos zu Galaxys GTX 260 55nm:
http://img15.imageshack.us/img15/295/0009722696253529cx5.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/368/368666.shtml

3 oder gar 4 Slots? :|
Passt =)
Soundkarte ist über der Grafikkarte mittlerweile und unter selbiger gar nix mehr ;D
Wobei ein rausblasender Lüfter irgendwie sinnvoller ist :|

Megamember
2009-02-06, 10:49:06
Der Stockkühler ist doch wunderbar. Leise, hält die Karte selbst bei OC unter 80 Grad und bläst die heisse Luft raus. Gibt eigendlich kein Grund auf son hässlichen Monsterkühler zu wechseln.

Gast
2009-02-06, 10:51:28
Der Stockkühler ist doch wunderbar. Leise, hält die Karte selbst bei OC unter 80 Grad und bläst die heisse Luft raus. Gibt eigendlich kein Grund auf son hässlichen Monsterkühler zu wechseln.
Was klasse wäre, aber wohl nicht kommen wird, ist ein Design mit Stockkühler und hochwertigeren Spannungswandlern, damit das Gezwitscher wieder auf Normalmaß kommt. :up:

Klar, da winkt jede Marketingabteilung ab, aber man darf ja träumen...

Zephyroth
2009-02-06, 11:06:20
Das Gezwitscher wird immer mehr zunehmen, es ist leider eine Eigenschaft die Schaltregler haben. Da aber weder der Stromverbrauch runtergehen wird und auch die Spannungen weiter sinken werden, wird's so bleiben...

Ich habe selber genug Schaltregler designt und bei keinem konnte ich vorraussagen, ob er zirpt oder nicht.

Grüße,
Zeph

SentinelBorg
2009-02-06, 11:47:37
Vorgestern ist meine Leadtek GTX260 Extreme+ gekommen. Ist wie erwartet 55nm, schnell (ca. 70%+ im Vergleich zur 8800GTS 640 vorher), leise und Spulenpfeifen gibts nur bei extrem hohen Frameraten.

Hier ein Test von der Karte: http://www.fudzilla.com/index.php?option=com_content&task=view&id=11795&Itemid=40

HD-Ronny
2009-02-06, 14:38:58
Das Gezwitscher wird immer mehr zunehmen, es ist leider eine Eigenschaft die Schaltregler haben. Da aber weder der Stromverbrauch runtergehen wird und auch die Spannungen weiter sinken werden, wird's so bleiben...

Ich habe selber genug Schaltregler designt und bei keinem konnte ich vorraussagen, ob er zirpt oder nicht.

Grüße,
Zeph

Na du machst mir Bange, kann nicht sein das Zwitschern jetzt standard wird !

Zephyroth
2009-02-06, 14:49:00
Also ich würde schon damit rechnen, das das Gezwitschere zum Standard wird. Ich meine was erwartet ihr? Da ist ein Chip drauf, der an die 100W verbrät und das bei kleinen 1.05V, das sind 95A, die hier zwischen Volllast und Leerlauf umgeschaltet werden. Das sich hier magnetische Bauteile leicht verformen (= Gezwitschere) sollte doch klar sein....

Grüße,
Zeph

Gast
2009-02-06, 18:54:13
Ist doch Unsinn, allein dass zum Beispiel die GTX 280 in 65nm bei deutlich höherem Stromverbrauch deutlich weniger zum Zwitschern und Jodeln neigt zeigt doch, dass es sehr wohl auf die Qualität der Bauteile und deren Dimensionierung ankommt.

Gast
2009-02-06, 20:14:07
Ist doch Unsinn, allein dass zum Beispiel die GTX 280 in 65nm bei deutlich höherem Stromverbrauch deutlich weniger zum Zwitschern und Jodeln neigt zeigt doch, dass es sehr wohl auf die Qualität der Bauteile und deren Dimensionierung ankommt.

Falsch, Zephyroth hat da schon recht... der Sekundärstrom wird bei kleineren Strukturbreiten und fast konstant bleibender Leistungsaufnahme des Chips (Dieshrinks werden generell fast immer höher getaktet um damit mehr Rohleistung bei gleicher Leistungsaufnahme wie das Vorgängermodell umzusetzen, siehe GTX280->285) immer größer. I=P/U lässt da grüßen (P=const, U bei kleinerer Strukturbreite geringer). Dazu kommen höhere Taktfrequenzen der Chips kleinerer Strukturbreite und damit einhergehende steilflankigere Beanspruchung der stromversorgenden Schaltkreise --> Piepen mit jeder weiteren Generation ein größer werdendes Problem.

Megamember
2009-02-06, 20:35:25
Und warum fiept die 4870 dann so gut wie nicht obwohl sie unter Last deutlich mehr zieht als ne 260GTX? Das fiepen ist (bei mir jedenfalls) übrigens unabhängig von Lastzustand, zum Glück nicht wirklich störend und hörbar nur wenige Minuten nach einschalten, dann verschwindets komischerweise größtenteils.

Zephyroth
2009-02-06, 20:43:03
Nicht jeder Chip hat das gleiche Profil in der Stromaufnahme, ebenso können die Schaltregler bei HD4870 andere Frequenzen aufweisen. Es gibt viele Gründe für das Spulenfiepen. Das es bei dir nach einer gewissen Zeit aufhört, erklärt sich damit, das die Spulen warm werden und sich ausdehen, dadurch haben die Windungen weniger Platz zu schwingen und werden "festgeklemmt".

Grüße,
Zeph

AnarchX
2009-02-07, 09:47:56
Nvidia wird offenbar die Kosten des GTX 260 PCBs noch weiter reduzieren:
http://en.expreview.com/2009/02/07/geforce-gtx260-coming-with-new-pcb-design-to-cut-cost.html
... bleibt natürlich die Frage wie sich das auf die Qualität und eben Nebeneffekte, wie Spulenpfeifen auswirkt.

Gast
2009-02-07, 09:58:12
... bleibt natürlich die Frage wie sich das auf die Qualität und eben Nebeneffekte, wie Spulenpfeifen auswirkt.
Nach Zephys Ausführungen, die ich mangels Fachwissen zunächst mal glauben muss und die sich für mich erstmal plausibel anhören, unwesentlich. Mich würde aber noch interessieren, wie teuer eine solche Umstellung der Fertigung zu Buche schlägt und ob die Boardpartner Freudensprünge machen, wenn die Karten bald im Wochentakt neu aufgelegt werden.

Umgekehrt, sind ATIs Designs von vorn herein ausoptimierter oder warum kam da während der langen Marktpräsenz der HD4850/70 kein Update um Kosten zu sparen. Irgendwie wirkt das bei Nvidia alles ein wenig hektisch und unausgegoren in letzter Zeit. :(

Gast
2009-02-07, 10:07:05
Umgekehrt, sind ATIs Designs von vorn herein ausoptimierter oder warum kam da während der langen Marktpräsenz der HD4850/70 kein Update um Kosten zu sparen.

Weil ATI bereits maximal gespart hat, was man daran sieht, daß die Karten beim Furmark kaputtgehen wegen zu schwach dimensionierter Spannungsversorgung.

Gast
2009-02-07, 10:24:37
Nach Zephys Ausführungen, die ich mangels Fachwissen zunächst mal glauben muss und die sich für mich erstmal plausibel anhören, unwesentlich.

Das Spulenpfeifen ist nur ein kleiner Aspekt der "Qualität".

Eins ist sicher: Besser werden sie durch Einsparungen auf Teufel komm raus sicher nicht.

James Ryan
2009-02-07, 11:07:34
Nvidia wird offenbar die Kosten des GTX 260 PCBs noch weiter reduzieren:
http://en.expreview.com/2009/02/07/geforce-gtx260-coming-with-new-pcb-design-to-cut-cost.html
... bleibt natürlich die Frage wie sich das auf die Qualität und eben Nebeneffekte, wie Spulenpfeifen auswirkt.

Nur noch 8 Layer und weitere Sparmaßnahmen bei der Spannungsversorgung. :eek:
Naja, NVIDIA muss es ja wissen. Irgendwie bin ich froh, eine nicht fiepende GTX260-216 im "alten" 65 nm Prozess samt "teurem" PCB gekauft zu haben.

MfG :cool:

senator
2009-02-07, 11:22:12
Nur noch 8 Layer und weitere Sparmaßnahmen bei der Spannungsversorgung. :eek:
Naja, NVIDIA muss es ja wissen. Irgendwie bin ich froh, eine nicht fiepende GTX260-216 im "alten" 65 nm Prozess samt "teurem" PCB gekauft zu haben.

MfG :cool:


dem stimme ich zu, meine hat auch kein pfeifen und kein fiepen.

Zephyroth
2009-02-09, 08:45:06
Das mit dem Pfeifen geht mir sowieso nicht ein, warum dies in der Praxis von Relevanz ist. Meine 8800GT hat erst bei aberwitzigen Frameraten begonnen zu pfeifen, die in der Praxis aber nicht vorkommen (ich spiele nicht mit 300fps+).

Das einzige wo bei mir Pfeifen vorkommt (und bei der GTX260 habe ich's bis jetzt noch nicht gehört) ist bei synthetischen Benchmarks (speziell beim ATI Tool mit dem FurCube).

Bei Spielen, wo ich zwischen 40-60fps habe (das sind maximal 60Hz) da ist extrem unwahrscheinlich das eine Spule zum fiepen (Fiepen benötigt Frequenzen von mehr als 500Hz) beginnt. Ergo in der Spiele-Praxis völlig unerheblich ob eine GraKa pfeift oder nicht.

Ich weis das es einige Ego-Shooter-Fans gibt, die ohne Vsync und in kleinen Auflösungen mehr als 300fps zocken, dies ist aber eher die Ausnahme.

Ich frage mich wirklich wieviele von denen die sich über Spulenpfeifen aufregen es einfach nur während eines Benchmarks festgestellt haben und wieviele es wirklich während einem Spiel stört (sprich lauter ist als die Lautsprecher!)....

Meiner Meinung nach hat nVidia richtig entschieden und das Fiepen bewußt in Kauf genommen, weil es einfach für einen Großteil der Spieler irrelevant ist und unverhältnismäßig große Kosten bedeutet, dies wirklich abzustellen.

Grüße,
Zeph

Iceman346
2009-02-09, 10:00:03
Es gibt wohl 55nm GTX260er die durchweg hörbar pfeifen. Haben sich beispielsweise im Computerbase Forum einige drüber beschwert.

Meine Karte pfeifft zum Glück auch nur bei extrem hohen Frameraten. Im normalen Betrieb ist da nichts hörbar.

AnarchX
2009-02-11, 11:24:35
Hier noch etwas zur kostenreduzierten GTX 260 55nm:
http://en.expreview.com/2009/02/11/exclusive-look-at-p897-inno3d-geforce-gtx260.html
Da dürften wohl die meisten kommenden GTX 260 55nm auf den neueren B3-Die setzen.

Interessant wird natürlich, wenn die Hersteller mit dem Design-Kit weiter herumbasteln, da gäbe es ja durchaus noch interessante Möglichkeit:
- GTX 260 mit 1x 6-Pin
- kürzere PCBs als 10.5"
- GTX 260 mit 1024MBit Speicherchips (1792MiB)
....

AnarchX
2009-02-13, 10:45:21
Hier nun die Inno3D mit dem neuesten Spar-PCB mit Kühler:
http://img22.imageshack.us/img22/7789/inno3dgtx260freezerx218is2.jpg (http://imageshack.us)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=12038&Itemid=34

Gast
2009-02-13, 18:47:25
Die Lüfter sehen irgendwie nicht leise aus,und bei so einer ausladenden Kühlerkonstrukt wird das neue 8Layer PCB bestimmt auch ziemlich belastet.
Naja, vielleicht fiept sie wenigstens nicht.

Gast
2009-02-13, 18:51:13
Und die Abwärme wieder schön ins Gehäuse rein verteilen statt nach draussen. DIe Hersteller dieser "eigenen Designs" denken keinen Millimeter über Kosteneinsparung und DAU-Beeindruck-Faktor hinaus. Arm.

AnarchX
2009-02-13, 22:16:24
Hier gibt es einen Test einer Gainward 55nm GTX 260, die offenbar das gleiche Layout wie die Palit von oben nutzt:
http://translate.google.ch/translate?u=http%3A%2F%2Fpublish.it168.com%2F2009%2F0211%2F20090211040001.shtml&sl=zh-CN&tl=en&hl=de&ie=UTF-8

http://img15.imageshack.us/img15/276/132883493207479330614zz2.jpg (http://imageshack.us)
...gleich für eine GTX 285 vorbereitet.

Schon erstaunlich wie weit man da gegenüber der ursprünglichen GTX 260 und der ersten 55nm PCB-Revision einsparen konnte:
http://img370.imageshack.us/img370/6241/260card5940044im8.jpg

Auf das OC-Potential scheint es wohl keine Auswirkungen zu haben, bzw. wird dies durch den B3-Die noch besser:
http://img16.imageshack.us/img16/936/133586696225039626886kk4.jpg (http://imageshack.us)

AnarchX
2009-02-19, 11:18:28
MSI bald mit einer 1792 MiB GTX 260!?

Launch zur CeBit.

http://www.matbe.com/actualites/60171/msi-n260gtx-lightning/
http://img9.imageshack.us/img9/6123/0000000839388646518ro9.jpg (http://imageshack.us)
Nous avons gardé le meilleur, ou en tout ce qui fera le plus parler, pour la fin, elle propose le double de mémoire, soit 1792 Mo de GDDR3 au lieu des 896 Mo habituels !
We kept the best, or anything that will speak to the end, it offers the dual memory is 1792 MB of GDDR3 instead of the usual 896 MB!

Da der AiB hier einfach nur 1024MBit Chips einsetzen und keine weiteren Veränderungen vornehmen muss, war der Schritt doch absehbar. Fragt sich nur wie es preislich aussehen wird.

Skinner
2009-02-19, 12:05:24
MSI bald mit einer 1792 MiB GTX 260!?


Ich seh den Tombman schon GTA IV Benchen ;D

Gast
2009-02-19, 12:17:20
Gäbe es auch 1024MBit Chips, die schnell genug für eine GTX285 2048MB wären?

Auf jeden Fall eine interessante Karte, da wird man wirklich neugierig auf die Preisgestaltung.

beos
2009-02-19, 14:05:36
Ich seh den Tombman schon GTA IV Benchen ;D

Und sein Händler freut sich auf Grafikkartentäusche, bei denen er Gebrauchtkosten verrechnen darf :wink:

AnarchX
2009-02-19, 14:10:29
Gäbe es auch 1024MBit Chips, die schnell genug für eine GTX285 2048MB wären?

AFAIK gibt es 1024MBit Module bisher nur mit 1.0ns, dass ein Hersteller nun gleich 0.77ns Speicher wie auf der GTX 285 verbaut in dieser Kapazität anbietet bezweifele ich.
Entweder eine GTX 285 2GiB mit nur 1GHz Speichertakt oder 32 Speichermodule, was aber wohl auszuschließen ist auf Grund der hohen Kosten.

btw.
Samsung listet mittlerweile übrigens schon 0.71ns GDDR3 (1.4GHz), damit könnten die AiBs mit ihren OC-Versionen wohl schon in Richtung 1.5GHz gehen. :D
http://www.samsung.com/global/business/semiconductor/productList.do?fmly_id=146

tombman
2009-02-19, 15:29:30
Ich seh den Tombman schon GTA IV Benchen ;D
Und führe tombman nicht in Versuchung, sondern erlöse ihn von dem Bösen... :eek:

:)

dargo
2009-02-19, 15:31:34
MSI bald mit einer 1792 MiB GTX 260!?

Launch zur CeBit.

http://www.matbe.com/actualites/60171/msi-n260gtx-lightning/
http://img9.imageshack.us/img9/6123/0000000839388646518ro9.jpg (http://imageshack.us)



Da der AiB hier einfach nur 1024MBit Chips einsetzen und keine weiteren Veränderungen vornehmen muss, war der Schritt doch absehbar. Fragt sich nur wie es preislich aussehen wird.
Die Karte kommt leider zu spät. ;(

Gast
2009-02-19, 15:44:01
Wenn der normal bzw. neue GTX260 Wasserkühler passen sollte könnte ich schwach werden.

Davon zwei @ SLI und GTA4 macht richtig spaß @ FullHD

MartinRiggs
2009-02-19, 15:56:10
Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/februar/msi_gtx_260_1792_mbyte_speicher/)

Bei Computerbase steht die MSI jetzt auch, die GTA-Karte schlechthin:love2:

Die gelbe Eule
2009-02-19, 19:33:39
MSi war leider immer teuer, wenn es um doppelten VRAM ging. 50€ sind da locker drin.

dargo
2009-02-19, 19:39:26
MSi war leider immer teuer, wenn es um doppelten VRAM ging. 50€ sind da locker drin.
50€ Aufschlag sind bei einer GTX 260 für einen doppelten Vram-Ausbau imo nichts. Würde ich sofort zuschlagen wenn ich nicht schon eine GTX 260 hätte.

Nightspider
2009-02-19, 20:54:00
Ich denke mal 280 Euro....

Undertaker
2009-02-19, 21:20:14
Gibt es außer GTA4 denn Spiele, denen die 896MB nicht reichen?

Spasstiger
2009-02-19, 21:47:59
Gibt es außer GTA4 denn Spiele, denen die 896MB nicht reichen?
Race Driver Grid in 1680x1050 mit 32xS-AA:
http://www.pcgameshardware.de/screenshots/original/2009/01/Geforce-GTX-285-Test-Extreme-FSAA-4.PNG

:biggrin:

Wobei die GTX 295 noch damit klar kommt, die GTX 260-216 aber nicht mehr.

y33H@
2009-02-19, 22:41:54
Meine 280 kackt in Stalker - CoS mit HighRes-Textures und POM-Mod sowie 16xS immer ab ... über 1,5 GiB VRAM-Auslastung sind halt doch zuviel des Guten ... VRAM-Bug ahoi ;D

EDIT
*Link zu den Bumps* (http://stalker.filefront.com/file/New_Improved_Bump_Maps_FULL;79375)

cYa

doors4ever1
2009-02-20, 07:56:34
Gerade vor paar Tagen habe ich an eine Karte für GTA gedacht welche 1920x1200 Auflösung schafft und nicht Nextgen ist für ~500-600€. Dieser Gedanke ging doch recht schnell in Erfüllung!

AnarchX
2009-03-01, 21:59:18
http://img8.imageshack.us/img8/4012/msin260gtxlightning0511.jpg (http://img8.imageshack.us/my.php?image=msin260gtxlightning0511.jpg)
http://www.pcgameshardware.de/aid,677516/Geforce-GTX-260-Lightning-mit-1792-MiB-VRAM-und-Geforce-GTS-250-bei-MSI-entdeckt/Grafikkarte/News/

Lustig sind hier auch die LEDs im Lüfter, welche die Temperatur anzeigen, was aber wohl für die meisten Kunden nicht relevant sein wird. X-D

GeneralHanno
2009-03-01, 23:21:11
endlich mal vernünftige spannungswandler. wenn man bedenkt, dass die 4870 bei etwa gleichem verbrauch imo nur 3 phasen hat ... :eek:

Gast
2009-03-01, 23:24:01
endlich mal vernünftige spannungswandler.
Viele - ob es vernünftige sind, wird ein Review weisen. ;)

Byteschlumpf
2009-03-01, 23:28:49
Gerade vor paar Tagen habe ich an eine Karte für GTA gedacht welche 1920x1200 Auflösung schafft und nicht Nextgen ist für ~500-600€. Dieser Gedanke ging doch recht schnell in Erfüllung!
Ein Spiel für 50€ und eine Graka für das Fiffi für 500€ - wir Gamer haben halt einen an der Klatsche! :devil:

=Floi=
2009-03-01, 23:30:25
wie soll man im eingebauten zustand die temp ablesen? BTX?

Byteschlumpf
2009-03-01, 23:31:36
wie soll man im eingebauten zustand die temp ablesen? BTX?
Webcam im Gehäuse?

Mr. Lolman
2009-03-02, 09:34:01
endlich mal vernünftige spannungswandler. wenn man bedenkt, dass die 4870 bei etwa gleichem verbrauch imo nur 3 phasen hat ... :eek:

Die ja vollkommen ausreichen, wenn die Kühlung passt - was beim Standardkühler auch der Fall ist.

Gast
2009-03-02, 10:31:48
Bei der abgespeckten GTX260 mit Spar PCB sind es nur zwei ;)

The_Invisible
2009-03-02, 14:40:04
Gibt es außer GTA4 denn Spiele, denen die 896MB nicht reichen?

mir sind selbst die 768mb meiner alten ultra nie ausgegangen. benutze solche späßchen wie SSAA oder Texturmods allerdings selten bis gar nicht, gta4 hab ich schon auf ps3 durch.

soll natürlich nichts heißen da es ja noch diese grafikfetischisten gibt. :D

mfg

Gast
2009-03-02, 15:51:08
Alberne LEDs und dieses superwichtige controlpanel wären die Gründe die für mich gegen diese MSI spricht. Hoffentlich kommen noch andere Hersteller mit 1792mb GTX260 ohne solch pubertären Spielereien und stattdessen nicht arg teurer wie die 768mb sind.

Coda
2009-03-02, 17:53:12
Dieses superwichtige Controlpanel brauchst du nicht installieren ;)

GeneralHanno
2009-03-02, 17:54:42
naja, aber so ein "schnickschnack" treibt den preis nach oben ...

Gast
2009-03-02, 21:19:20
Statt dem superwichtigen Controlpanel sollte GTA IV dabeisaein :)
Laut computerbase ist die LED Version aber (zum Glück) nur ein Showmuster.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/maerz/msi_geforce_gtx_260_lightning/

Saugbär
2009-03-09, 14:19:39
Bei 219€ hab ich auch zugeschlagen;D
Gainward GTX260 GS im Palit Design
+ Samsung 0.8ns 896MB/448bit memory
+ OC-Potential
+ kein Fiepen oder ähnliche Geräusche
+ Vantage Advanced (zumindest die Seriennummer)
- 40% min Lüftersteuerung (erst bei 30% ist Ruhe, Nibitor hilft)
- bisher keine 2D-Taktabsenkung (Treiberabhangig?)

Byteschlumpf
2009-03-09, 15:42:41
Bei 219€ hab ich auch zugeschlagen;D
Gainward GTX260 GS im Palit Design
+ Samsung 0.8ns 896MB/448bit memory
+ OC-Potential
+ kein Fiepen oder ähnliche Geräusche
+ Vantage Advanced (zumindest die Seriennummer)
- 40% min Lüftersteuerung (erst bei 30% ist Ruhe, Nibitor hilft)
- bisher keine 2D-Taktabsenkung (Treiberabhangig?)
Ist das diese Karte?
http://geizhals.at/deutschland/a403729.html

Welche Karte hattest du zuvor in Verwendung?

denjudge
2009-03-09, 17:12:24
Bei 219€ hab ich auch zugeschlagen;D
Gainward GTX260 GS im Palit Design
+ Samsung 0.8ns 896MB/448bit memory
+ OC-Potential
+ kein Fiepen oder ähnliche Geräusche
+ Vantage Advanced (zumindest die Seriennummer)
- 40% min Lüftersteuerung (erst bei 30% ist Ruhe, Nibitor hilft)
- bisher keine 2D-Taktabsenkung (Treiberabhangig?)


Wenn die Karte wirklich baugleich mit meiner neuen ist, die Taktraten stimmen auf jeden Fall überein, biste 2D mäßig wohl vorerst in den Allerwertesten gekniffen. Genau wie ich...:(

Siehe: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=449395

Saugbär
2009-03-09, 17:34:23
Genau diese, heute nochmal im Shop vorbeigeschaut, jetzt kostet sie 229€:biggrin:
Hatte vorher eine Gainward 8800 GT GS, kein Referenzdesign mit eigener Kühlkonstruktion, da hat man den Lüfter nichtmal bei 60% gehört, aber die Karte reichte mir nicht mehr für 1900*1200
Bei 30% drehen die Lüfter mit 1400 RPM fast unhörbar
Bei 40% drehen die Lüfter mit 2090 RPM im Bios als Minimum angegeben
Bei 60% drehen die Lüfter mit 3200 RPM deutlich hörbar
Bei 100% drehen die Lüfter mit 4050 RPM jetzt wird es richtig laut
Beim 20minütigen Lauf mit dem Furmark kam ich bei 700/1507/1200 auf 85° bei 54% (2940RPM) Lüftergeschwindigkeit
Das PCB scheint auch für die GTX285 geeignet zu sein, 2 nicht bestückte Speicherbänke deuten darauf hin

reunion
2009-03-11, 18:07:10
NV hat den Preis der GT260 auf $179 gesenkt: http://vr-zone.com/articles/amd-radeon-hd-4870-to-receive-another-round-of-price-cut/6720.html?doc=6720

LovesuckZ
2009-03-11, 18:18:33
Die müssen heftig viele Chips auf Lager haben.

Gast
2009-03-11, 18:48:29
Oder Kredite, welche schnell beglichen werden wollen, will man keine höhere Konditionen aufs Auge gedrückt bekommen. Diese Zeiten werden noch sehr spannend. Mal sehen, ob wir in 2 Jahren überhaupt noch dieses Forum in der Diskussionbreite haben werden. Könnte ja sein, dass die Diskussionsgrundlage wegfällt.

Gast
2009-03-11, 20:06:22
NV hat den Preis der GT260 auf $179 gesenkt: http://vr-zone.com/articles/amd-radeon-hd-4870-to-receive-another-round-of-price-cut/6720.html?doc=6720

Ab wann gilt die Preissenkung? :confused:

Gast
2009-03-11, 20:24:01
Ab wann gilt die Preissenkung? :confused:
Absofort, nur dauerst eine Weile bis die im Preis gesenkten Karten bei unseren Händlern ankommen.

reunion
2009-03-12, 14:39:47
Die müssen heftig viele Chips auf Lager haben.

Wo bleibt die Aufregung das nV den Markt kaputt macht?

AnarchX
2009-03-12, 14:43:33
Von Galaxy gibt es nun offenbar auch eine 1792 MiB GTX 260 (http://www.expreview.com/news/hard/2009-03-12/1236851607d11884.html):
http://img106.imageshack.us/img106/7118/ggg15308889.jpg (http://img106.imageshack.us/my.php?image=ggg15308889.jpg)

Bei hohen AA-Einstellungen scheint es durchaus etwas zu bringen:
http://img209.imageshack.us/img209/2069/fff75295861.gif (http://img209.imageshack.us/my.php?image=fff75295861.gif)

Undertaker
2009-03-12, 14:46:06
Ob man da etwas nachgeholfen hat, in dem der Testrechner nur 2GB RAM bekam? :|

Gast
2009-03-12, 16:16:39
Wo bleibt die Aufregung das nV den Markt kaputt macht?
Der Markt ist schon kaputt.

Die Frage ist, wie es mit 40nm weitergeht. Auch von Anfang an mit Verlust oder zur Abwechslung wieder gesund weiter?

reunion
2009-03-12, 22:34:34
Schön langsam kommt die Preissenkung an:
http://geizhals.at/eu/a379488.html

Gast
2009-03-13, 11:04:42
http://www.gamestar.de/hardware/news/grafikkarten/1954514/macht_nvidia_mit_der_geforce_gtx_260_verluste.html

Psychopat
2009-03-13, 15:20:12
Bei 219€ hab ich auch zugeschlagen;D
Gainward GTX260 GS im Palit Design
+ Samsung 0.8ns 896MB/448bit memory
+ OC-Potential
+ kein Fiepen oder ähnliche Geräusche
+ Vantage Advanced (zumindest die Seriennummer)
- 40% min Lüftersteuerung (erst bei 30% ist Ruhe, Nibitor hilft)
- bisher keine 2D-Taktabsenkung (Treiberabhangig?)

Ich hoffe du ärgerst dich jetzt nicht, aber wenn das die gleiche Karte ist dann gibt's die jetzt für 169€:
http://www.arlt.com/aktion+gainward+goldensample+gtx260+core+216+896mb+ddr3.html

Saugbär
2009-03-13, 18:16:09
Steht doch ganz groß AUSVERKAUFT!
Die Karte wird bei denen aber immernoch verkauft für 219,98 €
Anbieten kann ich die Karte als Aktion auch für 130€ aber auch liefern?
Außerdem hab ich die Karte vor Ort gekauft

Zauberer
2009-03-13, 18:43:37
Steht doch ganz groß AUSVERKAUFT!
Die Karte wird bei denen aber immernoch verkauft für 219,98 €
Anbieten kann ich die Karte als Aktion auch für 130€ aber auch liefern?
Außerdem hab ich die Karte vor Ort gekauft
Eine "alte" 260 GTX mit 192 Stream-Prozessoren ist ab ca. 173€ lieferbar, siehe hier:
http://geizhals.at/deutschland/a344442.html

Eine "neue" 260 GTX mit 216 Stream-Prozessoren ist ab ca. 183€ lieferbar, siehe hier:
http://geizhals.at/deutschland/a412935.html
Alles ab Lager lieferbar, plus Versandkosten.

Eine übertaktete "neue" 260 GTX mit 216 Stream-Prozessoren kostet auch nur 186€ ab Lager!
Siehe hier:
http://geizhals.at/deutschland/a399068.html

So aber hier soll es doch um die 1792 MB Version gehen, die habe ich bis jetzt noch bei keinem Händler gefunden.
Wird es noch was?
Die reden von Kriese, sind aber nicht in der Lage mal innovative Produkte auf den Markt zu bringen, am besten sollen mal 2-3 Grafikkartenhersteller Pleite gehen, das würde dem Markt gut tun.

Gast
2009-03-13, 18:51:03
Die reden von Kriese, sind aber nicht in der Lage mal innovative Produkte auf den Markt zu bringen, am besten sollen mal 2-3 Grafikkartenhersteller Pleite gehen, das würde dem Markt gut tun.
Inwiefern würde das die verbleibenden Hersteller motivieren, Karten im von dir gewünschtem Design anzubieten? :confused:

Vielleicht gehen ja genau die 3 Hersteller pleite, die eine GTX 260 1792 MB in der Schublade haben. ;D

Zauberer
2009-03-13, 18:58:21
http://www.gamestar.de/hardware/news/grafikkarten/1954514/macht_nvidia_mit_der_geforce_gtx_260_verluste.html
Da stehen ja eine Menge Spekulationen und Gerüchte.
Wenn es stimmt, ist auch auch Richtig so, wenn Nvidia nicht in der Lage ist eine GTX 260 1792 MB, und eine GTX 295 mit 3584 MB Speicher auf den Markt zu bringen, dann wird Sie auch nicht gekauft.
Gerade jetzt wo Speicher spottbillig geworden ist.

Inwiefern würde das die verbleibenden Hersteller motivieren, Karten im von dir gewünschtem Design anzubieten? :confused:

Vielleicht gehen ja genau die 3 Hersteller pleite, die eine GTX 260 1792 MB in der Schublade haben. ;D
Es gibt viel zu viele Hersteller, so dass sich kaum einer traut ein eigenes Design anzubieten, weil es sich schlicht weg nicht lohnt.
Wenn doch mal was Eigenes kommt, dann zu überteuerten Preisen, um das Geld wegen der Kleinserie wieder rein zu holen.
Besser wäre da, gleich am Anfang für den Massenmarkt Karten mit viel Speicher anzubieten, gerade weil der Speicher so günstig im Vergleich zu einem Jahr vorher geworden ist.

dargo
2009-03-13, 23:00:55
Gerade jetzt wo Speicher spottbillig geworden ist.

Was ist für dich spottbilig? Und vorallem wo kommt diese Information her? Hast du dazu eine Quelle?

Gast
2009-03-13, 23:10:40
endlich mal vernünftige spannungswandler. wenn man bedenkt, dass die 4870 bei etwa gleichem verbrauch imo nur 3 phasen hat ... :eek:
Tja, erst meckern das die bei der GTX 260 so böse an Qualität gespart wird, dann vergleicht mans mal mit der Konkurrenz und wird vor schreck vom Hocker fallen. X-D

AnarchX
2009-03-14, 09:07:44
Von Galaxy gibt es nun offenbar auch eine 1792 MiB GTX 260 (http://www.expreview.com/news/hard/2009-03-12/1236851607d11884.html):
http://img106.imageshack.us/img106/7118/ggg15308889.jpg (http://img106.imageshack.us/my.php?image=ggg15308889.jpg)

Bei hohen AA-Einstellungen scheint es durchaus etwas zu bringen:
http://img209.imageshack.us/img209/2069/fff75295861.gif (http://img209.imageshack.us/my.php?image=fff75295861.gif)
http://img10.imageshack.us/img10/769/g48037148.jpg (http://img10.imageshack.us/my.php?image=g48037148.jpg)

http://en.expreview.com/2009/03/14/exclusive-galaxy-non-reference-gtx260-vga-card-with-1792mb-memory.html

tombman
2009-03-14, 09:20:15
Da haben die die Karte und testen kein GTA4 :uhammer:

beos
2009-03-14, 11:11:17
Da haben die die Karte und testen kein GTA4 :uhammer:

Deswegen mußt Du das ja auch machen - tombman :upara:

Es gibt bestimmt schon Wetten im Forum wann Dein Test der Karte online geht ;)

Gast
2009-03-14, 11:28:32
Tja, erst meckern das die bei der GTX 260 so böse an Qualität gespart wird, dann vergleicht mans mal mit der Konkurrenz und wird vor schreck vom Hocker fallen. X-D

Weil die auch pfeifen wie bei einer Orgel :rolleyes:

beos
2009-03-14, 11:30:49
Weil die auch pfeifen wie bei einer Orgel :rolleyes:

Das Pfeifen tritt aber nur bei den neuen 55 nm Model auf - bei den älteren 65ern mit noch 192 Streamies nicht - oder ?

Gast
2009-03-14, 11:32:24
Das Pfeifen tritt aber nur bei den neuen 55 nm Model auf - bei den älteren 65ern mit noch 192 Streamies nicht - oder ?
Ja bei 55NM am meisten ;)

Undertaker
2009-03-14, 11:45:47
http://img10.imageshack.us/img10/769/g48037148.jpg (http://img10.imageshack.us/my.php?image=g48037148.jpg)

http://en.expreview.com/2009/03/14/exclusive-galaxy-non-reference-gtx260-vga-card-with-1792mb-memory.html

Nochmal, bei einem Testsystem mit 2(!)GiB RAM und Vista kann man das komplett in die Tonne werfen... Natürlich fällt da die Karte mit dem kleineren VRAM extrem zurück.

Gast
2009-03-14, 11:51:52
Wo fällt die extrem zurück ? Alleine bei WiC sehe ich einen unterschied der nennenswert ist. Ansonsten besätigt der Bench eher das der mehrspeicher fast nichts bringt.
Einzig allein für GTA IV wäre das evtl. anders, aber das schnallen die bei exp anscheinend nicht.

HD-Ronny
2009-03-14, 18:32:25
http://img10.imageshack.us/img10/769/g48037148.jpg
Wieso gibt es bei WiC überhaupt eine Diskrepanz ?
Ansonsten ist da eher Gleichstand zwischen der Standard und Doppelspeicher Version zu sehen.

Nochmal, bei einem Testsystem mit 2(!)GiB RAM und Vista kann man das komplett in die Tonne werfen... Natürlich fällt da die Karte mit dem kleineren VRAM extrem zurück.
Klär doch mal bitte auf wo du siehst das die 896mb Version extrem zurückfällt.

AnarchX
2009-03-25, 08:38:55
Galaxys GTX 260 im OC-Test:
http://img187.imageshack.us/img187/4936/galaxy4sm6506516.jpg (http://img187.imageshack.us/my.php?image=galaxy4sm6506516.jpg)http://img168.imageshack.us/img168/8171/galaxy5sm6796238.jpg (http://img168.imageshack.us/my.php?image=galaxy5sm6796238.jpg)
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.expreview.com%2Fnews%2Fhard%2F2009-03-25%2F1237956317d12006.html&sl=zh-CN&tl=de&hl=de&ie=UTF-8

- 54°C @ 800/1651/1200MHz im Furmark
- Vantage stabil waren 835/1671/1296MHz

btw.
Die GTX 260 1792MiB ist nun auch lieferbar ab 199€:
http://many-electronics.shops4ecommerce.de/shop/index.php?artnr=11333&quelle=gh

Andere Shops kann man über die SKU-Nummer finden: NE3X262SFT394.

Undertaker
2009-03-25, 09:22:23
Was für ein Ergebnis :O 40% OC-Potential beim Core bot lange keine Grafikkarte mehr...

Simon
2009-03-25, 09:54:29
Galaxys GTX 260 im OC-Test:
http://img187.imageshack.us/img187/4936/galaxy4sm6506516.jpg (http://img187.imageshack.us/my.php?image=galaxy4sm6506516.jpg)http://img168.imageshack.us/img168/8171/galaxy5sm6796238.jpg (http://img168.imageshack.us/my.php?image=galaxy5sm6796238.jpg)
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.expreview.com%2Fnews%2Fhard%2F2009-03-25%2F1237956317d12006.html&sl=zh-CN&tl=de&hl=de&ie=UTF-8

- 54°C @ 800/1651/1200MHz im Furmark
- Vantage stabil waren 835/1671/1296MHz

Die Galaxy wird in Deutschland überhaupt nicht vertrieben, zumindest die gängigen Preissuchmaschinen kennen die FIrma bzw. Karte überhaupt nicht :|

Byteschlumpf
2009-03-25, 13:02:42
Hat jemand vor, sich das Teil zu bestellen?
Mich würde es bei dem Preis schon sehr reizen! :D

Simon
2009-03-25, 13:37:16
Hat jemand vor, sich das Teil zu bestellen?
Mich würde es bei dem Preis schon sehr reizen! :D
Mich interessieren schon beide, wenn sie wenigstens halbwegs lieferbar wären ;(

AnarchX
2009-03-26, 09:42:35
Galaxy gibt es AFAIK vereinzelt auch in Osteuropa.

Aber der 3 Lüfter Accelero kann sich wirklich sehen lassen:
http://img254.imageshack.us/img254/6594/gpuzoc6787557.gif (http://img254.imageshack.us/my.php?image=gpuzoc6787557.gif)

Inno3D iChill GTX 260 896 MB (216 SP) Review (http://www.techpowerup.com/reviews/Inno3D/iChill_GTX_260/1.html)

Auf Grund der niedrigen Temperaturen erzielt man hier wohl auch schon so gute Ergebnisse, ohne das man exklusive Spannungswandler wie bei der Galaxy hat.
Wobei >800MHz GPU natürlich auch ein nette Sache sind.

Sefegiru
2009-03-26, 17:11:48
Galaxy heisst in Europa nun auch KFA²

http://www.kfa2.com/

Die mussten sich umbenennen, aus rechtlichen Gründen afair.

r@h
2009-03-30, 07:28:50
Andere Shops kann man über die SKU-Nummer finden: NE3X262SFT394.
Auch die 896MB-Variante wird unter dieser SKU verkauft...
Hier ist Vorsicht geboten!

-

Bei allem was ich bis dato zu Thema 1,8 oder 2GB gesehen habe: überflüssig.
Selbst bei sehr hohen Auflösungen mit AA und auch mit 512Bit SI... überflüssig.

Der GT200b (egal, ob mit 216 oder 240 Shadern, erst recht ob mit oder ohne 'b') ist einfach am Ende.
2GB (oder auch 1,8) "lohnen" bei einem GT200 genauso wenig, wie 1GB bei nem G92 mit 256Bit SI...
(bei dem einen limitiert die GPU, bei dem anderen das Speicherinterface)

Razor

Daredevil
2009-03-30, 07:46:33
Was für ein Ergebnis :O 40% OC-Potential beim Core bot lange keine Grafikkarte mehr...
Öhm...

Sapphire Radeon HD 4830
GPU Clock 825 MHz (original: 575 MHz, overclock: 43%)
Real Clock 1050 MHz (DDR) (original: 900 MHz, overclock: 17%)

;)

Aber trotzdem, interessantes Kärtchen.

Gast
2009-03-31, 01:17:10
Bei allem was ich bis dato zu Thema 1,8 oder 2GB gesehen habe: überflüssig.
Selbst bei sehr hohen Auflösungen mit AA und auch mit 512Bit SI... überflüssig.

Der GT200b (egal, ob mit 216 oder 240 Shadern, erst recht ob mit oder ohne 'b') ist einfach am Ende.

Och nee, nicht schon wieder...
Ich glaube du hast vergessen, das die typischen Karten nur mit 896MB daher kommen, nicht einmal ein GB.
Wenn schon stark übertaktete Karten nahe an die Leistung der höheren Karten herankommen machts Sinn, auch die Speichermenge auf über 1GB aufzubohren.
Ob der Speicher nun 2, 1GB oder 1,7GB groß ist, ist dabei völlig egal, hauptsache es entsteht kein Engpass. Anders lässt es sich eben nicht realisieren.
Außerdem stimmt das genannte nicht, selbst nen G92 kann sehr wohl mit 1GB etwas anfangen, ich denke du hast noch nie die richtigen Spiele gehabt...
Wenn schon 0815 Benches leichte Vorteile zeigen, kannst du dir ausmalen wie das in Extremsituation aussieht. Hier spielen nicht wenige Zocker mit Mods, hohen Auflösungen und gleichzeitigem AA.

AnarchX
2009-03-31, 10:02:24
MSI weiß wie sie ihre 1792MiB GTX 260 bewerben müssen:
http://img14.imageshack.us/img14/2738/33998821232b42ab3aeao64.png (http://img14.imageshack.us/my.php?image=33998821232b42ab3aeao64.png)
http://forums.vr-zone.com/news-around-the-web/412254-msi-lightning-official-data-leaked-targeting-asus-martix-series.html
... der Rest kann sich natürlich auch sehen lassen.

Psychopat
2009-04-09, 14:13:23
Custom Design von MSI: Twin Frozr
http://geizhals.at/deutschland/a415082.html

Hat zu der Karte schon jemand einen Testbericht gesehen? Taugt der Lüfter was? Lautstärke etc.?

Scose
2009-04-10, 02:34:57
die MSI-Folie ist ja mal echt der Brüller ;)

Gast
2009-04-10, 03:19:56
Was für ein Schwachsinn das an GTA4 festzumachen. Aber die Daus die GTA4 netmal haben werden im Blödelmarkt zuschlagen.

dargo
2009-04-10, 10:41:22
Was für ein Schwachsinn das an GTA4 festzumachen. Aber die Daus die GTA4 netmal haben werden im Blödelmarkt zuschlagen.
Marketing halt. ;)

Wobei ich mir ehrlich gesagt fürs Marketing auch schönere Games wünschen würde. GTA IV kann man nicht wirklich als schön bezeichnen. Naja, ist halt das einzige Game welches nach so viel Vram schreit, zumindest bei max. Details.

AnarchX
2009-09-27, 10:33:01
Durch 55nm und Vapour Chamber ist zum Ende der Lebenszeit nun auch eine Single-Slot GTX 260 möglich:
http://img268.imageshack.us/img268/7244/galaxysingleslotgtx2600.jpg

http://en.expreview.com/2009/09/26/galaxy-delivers-the-first-single-slot-gtx260-accelerator.html

AnarchX
2009-09-30, 11:50:01
Zotac kürzt nun die GTX 260 von 10.5" auf 9":

http://img25.imageshack.us/img25/9189/zotacgtx26000.jpg

http://img39.imageshack.us/img39/2350/zotacgtx26015.jpg

http://www.expreview.com/?action-viewnews-itemid-8548

Auf der Karte ist übrigens ein 65nm Die. Da hat man wohl noch einige auf Lager.

Ri*g*g*er
2009-10-08, 14:50:21
Hier ist auch noch eine lustige GTX 260´er
bzw. der Kühlerkörper erinnert eher an eine 8800 GT etc.

http://www.asus.com/product.aspx?P_ID=2TcDOosaqrAu2NvC

Mfg
Ri*g*g*er

Gast
2009-10-08, 23:09:50
Und schon bei Alternate für 150 Oiro zu haben :D