PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Erster 8800GT-Batch bereits am Hitzetod gestorben?


Seiten : [1] 2

Die gelbe Eule
2007-11-03, 01:52:51
Scheinbar hat die erste Foxconn Batch nicht viel gebracht, wenn man sich einen Kommentar auf CB durchliest:

http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2007/november/thermalright_hr-03_gt_geforce_8800_gt/

Nummer #35

Bei den wenig gelieferten in Deutschland schon eine starke Quote.

Sterem
2007-11-03, 01:58:18
Komisch das NV nach dem 7900 Debakel nicht dazu gelernt hat.......

grobi
2007-11-03, 02:36:50
Wenn sich das häuft(was ich nicht denke), bekommen die neuen ATI-Grakas zulauf wenn dort nicht so viel Defekte auftreten. Vielleicht liegt es ja auch an den Pcie 1.0a Steckplätzen die die Graka killen. Ich habe natürlich nicht gehört das es so ist. Aber man weiss ja nie. Wäre nicht schlecht zu Wissen was für Mainboards zum Einsatz kamen.

mfg grobi

knallebumm
2007-11-03, 02:47:43
http://www.forumdeluxx.de/forum/showpost.php?p=7393445&postcount=3706

Bei solchen Posts fall ich hier fast vom Stuhl. (was anderes wenn es ironisch gemeint war)

Gertz
2007-11-03, 03:15:49
ich lag hier lachend am boden... Danke.

NV ist mal wieder super. (y)

mictasm
2007-11-03, 05:11:49
http://www.forumdeluxx.de/forum/showpost.php?p=7393445&postcount=3706

Bei solchen Posts fall ich hier fast vom Stuhl. (was anderes wenn es ironisch gemeint war)

Und als nächstes die Garantie beanspruchen oder beim Händler umtauschen wollen... ;)

Esther Mofet
2007-11-03, 06:27:59
Hat man gestern vielleicht doch etwas zu schnell den thread gelöscht,den mit den defekten 8800ern.
Will man sowas nicht sehen hier,oder warum wurde das gemacht?
Mfg Marko

DerKleineCrisu
2007-11-03, 07:15:47
Eine 8800GT kann man nicht kaputt Ocen, die Karten haben entweder eine minderwertige Qualität oder eben einen Produktionsfehler.

:ulol3:

http://www.forumdeluxx.de/forum/showpost.php?p=7406494&postcount=4712


warum nimmt NV nur das nicht in die verkaufsstrategie ihrer karten mit rein.

Spieler und OC´ler kauft euch eine 8800GT die kann man nicht durch OC´len und Überspannung nicht kaputt bekommen ;D .

3DoMan
2007-11-03, 07:21:55
:ulol3:

http://www.forumdeluxx.de/forum/showpost.php?p=7406494&postcount=4712



Selten so eine hirnrissige Argumentation gelesen! Das übertrifft einiges andere, was ich sonst von DAUs gewöhnt bin.

Jetzt bleibt halt doch die Frage offen: gehen sie nun wirklich kaputt oder sind es nur solche Spezies wie dieser forumdeluxx-User.

Aber Argumente gibts, da stellen sich einem die Nackenhaare auf...

Gast
2007-11-03, 08:47:10
@3DoMan&DerKleineCrisu

Kommt ihr aus dem HWLuxx?:uconf2: Die Nivea eurer Posts läßt das nämlich annehmen....

Razor
2007-11-03, 09:05:16
Ganz ehrlich?
Ich mach mir bei der 'Qualität' von luxx aufgrund der dort getroffenen Aussagen ganz sicher keinen Kopf!

Ansonsten:
Bei 50.000 ausgelieferten und auch verkaufeten Karten?
Mal überlegen...

Sind also exakt 0,01%.

Stimmt, man sollte sich hier echt 'Sorgen' machen...
:rolleyes:
.
Da 'dürfen' also international 'gerne' noch ein paar hundert 'Ausfälle' hinzu kommen.

Razor

Schrotti
2007-11-03, 09:09:43
Ich mache mir auch keine sorgen.

Toi toi toi.

BlackBirdSR
2007-11-03, 09:40:04
Ansonsten stirbt sicher nicht der Chip am Hitzetot. Höchst wahrscheinlich sind es dann einige der auf dem PCB verbauten Komponenten, die den Geist aufgeben.

Hier hat man dann am falschen Ende gespart.

Razor
2007-11-03, 09:44:58
Ansonsten stirbt sicher nicht der Chip am Hitzetot. Höchst wahrscheinlich sind es dann einige der auf dem PCB verbauten Komponenten, die den Geist aufgeben.

Hier hat man dann am falschen Ende gespart.
Generell?
Oder fällt das, was da im luxx-forum gefaselt wird, nicht eher unter den Bereich: Fertigungstoleranzen?
:confused:

IMO ist es zu früh, darüber eine Aussage treffen zu können.
Sollte sich das bewahrheiten, dann werden wir ja in der nächsten Wochen hunterte, wenn nicht tausende Ausfälle zu verzeichnen haben.

Ich vermute aber einfach mal, dass es nicht dazu kommt.

Razor

Gast
2007-11-03, 09:49:51
Ansonsten stirbt sicher nicht der Chip am Hitzetot. Höchst wahrscheinlich sind es dann einige der auf dem PCB verbauten Komponenten, die den Geist aufgeben.

Und warum wurde die Umfrage hier gelöscht?

4711
2007-11-03, 09:52:30
Generell?
Oder fällt das, was da im luxx-forum gefaselt wird, nicht eher unter den Bereich: Fertigungstoleranzen?
:confused:

IMO ist es zu früh, darüber eine Aussage treffen zu können.
Sollte sich das bewahrheiten, dann werden wir ja in der nächsten Wochen hunterte, wenn nicht tausende Ausfälle zu verzeichnen haben.

Ich vermute aber einfach mal, dass es nicht dazu kommt.

Razor
man kanns immer schön reden wenns ein nicht selber trifft.....

Gast
2007-11-03, 09:56:07
man kanns immer schön reden wenns ein nicht selber trifft.....
Das ist war.

Vor einer Woche konnte ich mit Razor noch gut diskutieren.
Er hatte auch eine 7900GT, war ziemlich meiner Meinung.

Jetzt hat er eine 8800GT und er verteidigt sie bis aufs Blut.

Gast
2007-11-03, 10:27:54
Na Gelbe Eule, warst du nicht einer derjenigen der in meinem "Hilfe!!! Meine 8800GT ist zu heiss!!!" Thread einen auf "Gibt kein Problem, nVidia weiss schon was sie machen" trötete?

Schau an, jetzt auf einmal machste einen eigenen Panikthread auf?

Na sowas aber auch...

Tsk.. Tsk... Tsk...

Marc-
2007-11-03, 10:28:48
Ganz ehrlich?
Ich mach mir bei der 'Qualität' von luxx aufgrund der dort getroffenen Aussagen ganz sicher keinen Kopf!

Ansonsten:

.
Da 'dürfen' also international 'gerne' noch ein paar hundert 'Ausfälle' hinzu kommen.

Razor


auch wenn du ganz furchtbar von deiner karte begeistert bist und sie wie hier schon mehrfach gesehen verstaendlicherweise pushen moechtest, ist es dennoch nicht von der hand zu weisen, das hier beim layout an einigen stellen gespart wurde, was durchaus eine ueberproportional hohe ausfallwahrscheinlichkeit erwarten laesst. das sind simple fakten und das mag denjenigen, bei dem dies dann nicht passiert kalt lassen, ist aber ein sehr gewichtiges manko einer solchen serie. zumal 250+ eur fuer normalsterbliche nunmal auch kein pappenstiel sind.

Razor
2007-11-03, 10:36:06
man kanns immer schön reden wenns ein nicht selber trifft.....
Hat es Dich 'getroffen', hat es mich getroffen?
Hat es überhaupt jemanden hier im Forum getroffen?
:confused:

Nein?
Über was reden wir hier denn dann?
Was da irgendwelche Lutz in einem Forum unterster coleur faseln, interessiert mich nicht wirklich.
"Vertrauenswürdig" ist da nicht grad' der Begriff, der mir einfällt...

Vor einer Woche konnte ich mit Razor noch gut diskutieren.
Er hatte auch eine 7900GT, war ziemlich meiner Meinung.

Jetzt hat er eine 8800GT und er verteidigt sie bis aufs Blut.
Wus?
Ist das Dein ernst?
:confused:

Wenn Du den Thread meinst, dann will ich dort alles raus haben, was eben keine "echte Usererfahrung" ist, wie es der Thread-Titel ja vermuten läßt. Ich will dieses Hintergrund-Rauschen nicht haben, die Gerüchte und Halbwahrheiten, die immer entstehen, wenn sich Unwissenheit und Desinformation mit Neid und/oder Enttäuschung paaren. Einerseits ist das Internet wirklich nicht schlecht, um an Informationen zu gelangen... andererseits muss man den Inhalt dieser Informationen sehr genau prüfen. 'Glauben' darf man gerade hier wirklich nicht alles... was prinizipiell sogar für alle Lebensbereicht gilt.

Schon komisch, dass ausschließlich aus diesem dümmlichen luxx-Forum gleich 5 Meldungen kommen, dass da irgendwelche Karten abrauchen - Weltweit NICHTS. Warum nicht?

Und wenn man sich die Posts dazu anschaut und dann versucht, sich den geistigen Intellekt dieser Leute vorzustellem und dann auf abstruse Gedanken wie "Ey alda, lass mal 230V auf die Kadde tun... geht dann echt doll ab, wa?"... ist nur ein Beispiel, aber dürfte verdeutlichen, was ich damit meine.

Nein, sorry.

Bevor ich Informationen für voll nehme, müssen sie zumindest aus einer vertrauenswürdigen Quelle kommen.

Leute aus dem Forum hier, bekommen Vorschuss-Loorbeeren, die aus dem luxx-Forum eine klare Absage.

That's it!

Razor

Razor
2007-11-03, 10:42:49
...ist es dennoch nicht von der hand zu weisen, das hier beim layout an einigen stellen gespart wurde, was durchaus eine ueberproportional hohe ausfallwahrscheinlichkeit erwarten laesst.
So ein unfug, sorry...
Schon mal was von "reuse" und "Erweiterungsfähigkeit" gehört?
:confused:

Dazu kommen dann noch ökonomische Gesichtspukte und damit verbunden die extreme Sparwut aller industriellen Unternehmen...

- Was, wenn das Layout auch für andere Chips 'taugt'?
- Was, wenn man dort eine 'Reserve' für die Hersteller gelassen hat, um extreme Übertaktungen ab Werk zu ermöglichen?

Ob hier wirklich auf Kosten der Standard-Betriebsfähigkeit der 8800GT gespart wurde, steht nun weiss gott noch in den Sternen. Da labern 5 Leute im luxx irgendwelchen Dünnfug und schon wird daraus ein riesen Zabalo gemacht... dann bastelt jemand den Kühler runter und findet eine freie Stelle...

SKANDAL!

Sorry, aber diese dümmliche Sensationhascherei geht mir tierisch auf den Sack!

Razor

dargo
2007-11-03, 10:49:51
Komisch das NV nach dem 7900 Debakel nicht dazu gelernt hat.......
Bist du sicher, dass NV dran schuld ist? Wenn es an den Phasen vom PCB liegt würde mich mal interessieren ob das Referenzboard von NV 2 oder 3 Phasen hat.

reunion
2007-11-03, 10:51:20
Bist du sicher, dass NV dran schuld ist? Wenn es an den Phasen vom PCB liegt würde mich mal interessieren ob das Referenzboard von NV 2 oder 3 Phasen hat.

Alle bis jetzt ausgelieferten Karten haben das nV-Referenzdesign. So kurzfristig ist ein eigenes Design auch nicht machbar.

Gast
2007-11-03, 10:53:32
Das PCB ist natürlich Referenz. Ob das dann auch voll bestückt wird oder ob die BWLer 1 Phase weglassen weil man Bauteile im Wert von $1,20 spart hat damit nichts zu tun.

shane~
2007-11-03, 10:53:34
... sehe es wie Razor.

Nur weil 5 Leute schreiben, ihre Karte ist defekt - ohne jedoch genau zu sagen 'was', 'wie' und 'warum' - sich dann ein Urteil darüber zu bilden, ob die Karten alle 'fehlerhaft' wären oder das beim Layout am falschen Ende gespart wurde, ist doch ein Witz. Wer weiß, was die mit den Karten alles angestellt haben?

Hier wird wieder Panik gemacht und jeder läst sich anstecken, Leute reden über die Karte, ohne sie je selbst in den Händen gehalten zu haben. :(

Gruß shane~

dargo
2007-11-03, 10:55:13
Alle bis jetzt ausgelieferten Karten haben das nV-Referenzdesign. So kurzfristig ist ein eigenes Design auch nicht machbar.
Das beantwortet meine Frage nicht. Ich nehme mal an NV verschickt an die Hersteller Testsamples des PCB oder auch Zeichnungen wie dieses aussehen soll bevor das Produkt den Markt erreicht. Sorry, ich kenne mich da aber nicht so aus. Hat NV für das PCB der G8800GT 2 oder 3 Phasen vorgesehen? Schließlich gibts afaik von Palit ein PCB mit 3 Phasen.

Gast
2007-11-03, 10:56:24
Das PCB ist doch das gleiche, auch bei Palit. Nur ist da eine Phase mehr bestückt.

reunion
2007-11-03, 10:59:48
Das beantwortet meine Frage nicht. Ich nehme mal an NV verschickt an die Hersteller Testsamples des PCB oder auch Zeichnungen wie dieses aussehen soll bevor das Produkt den Markt erreicht. Sorry, ich kenne mich da aber nicht so aus. Hat NV für das PCB der G8800GT 2 oder 3 Phasen vorgesehen? Schließlich gibts afaik von Palit ein PCB mit 3 Phasen.

Okay, dann habe ich dich falsch verstanden. Wenn auf dem PCB noch Platz für eine zusätzliche Phase ist, dann besteht natürlich zumindest theoretisch durchaus die Möglichkeit, dass hier die Hersteller am falschen Ende gespart haben. Trotzdem wäre es ziemlich skurril, wenn alle hier am gleichen Ende gespart hätten. Gerade am Anfang hält man sich normalerweise an die Referenzvorgaben des Herstellers. Die Vertreiber hatte ja sicher kaum eine Gelegenheit hier Langzeittests durchzuführen.

dargo
2007-11-03, 11:00:07
Das PCB ist doch das gleiche, auch bei Palit. Nur ist da eine Phase mehr bestückt.
Ist es so schwer zu verstehen was ich meine? :|
Sieht NV für die G8800GT 2 oder 3 Phasen vor?

Gast
2007-11-03, 11:01:43
Hat NV für das PCB der G8800GT 2 oder 3 Phasen vorgesehen?
3 Phasen + die Ram/IO Phase sind für das PCB vorgesehen.

Die Frage ist nur für welche Karten ist das PCB designed?
Auf jeden Fall mal für die 8800GT. Vielleicht auch für eine GS und GTS.

dargo
2007-11-03, 11:01:54
Okay, dann habe ich dich falsch verstanden. Wenn auf dem PCB noch Platz für eine zusätzliche Phase ist, dann besteht natürlich durchaus die Möglichkeit, dass hier die Hersteller am falschen Ende gespart haben.
Das ist ja die Frage. Schließlich besteht die Möglichkeit, dass dieses PCB "vollbestückt" für zb. eine neue GTS verwendet wird.

Gast
2007-11-03, 11:02:18
Es gibt im Moment doch nur einen einzigen Hersteller - Foxconn.

Palit hat bei dem die Bestückung mit 3 Phasen geordert, die meisten anderen von denen wir wissen wollten nur 2 Phasen.

GeneralHanno
2007-11-03, 11:04:36
Das PCB ist natürlich Referenz. Ob das dann auch voll bestückt wird oder ob die BWLer 1 Phase weglassen weil man Bauteile im Wert von $1,20 spart hat damit nichts zu tun.

;D:uup:

reunion
2007-11-03, 11:05:15
Palit hat bei dem die Bestückung mit 3 Phasen geordert, die meisten anderen von denen wir wissen wollten nur 2 Phasen.

Das ist aber kein Wunschkonzert. nV gab mit Sicherheit vor, wieviele Phasen benötigt werden, um eine stabilen Betrieb zu gewährleisten. Und offensichtlich befand nV zwei Phasen als ausreichend, sonst hätten nicht alle Hersteller mit Ausnahme von Palit auf eine dritte Phase verzichtet. Wie sollten die Vertreiber dies auch in so kurzer Zeit bestimmen können? Dieser Platz für eine dritte Phase kann genau so gut auch für eine höherer Ausbaustufe des G92 vorgesehen sein, und Palit will hier eben den OCern ein besonderes Schmankerl bieten.

Razor
2007-11-03, 11:07:06
Danke, reunion.

-

Wenn es technisch möglich ist, eine Phase einfach nicht zu bestücken, dann ist das auch vorgesehen, oder?
Und wenn es vorgesehen ist, dann ist es auch Bestandteil des Referenz-Designs.

Zusätzlich sieht es nicht so aus, als dass die 3. Phase einfach hinein 'gequetscht', sondern von Anfang an bei dem Design so vorgesehen wurde. Und dass zukünftige LowEnder für dieses PCB vorgesehen sind (dessen Platz jetzt sozusagen der G92 eingenommen hat... *grmpf*), ist insofern schon unmöglich, weil das Baord-Layout selber mit 10Layern viel zu komplex... zu aufwändig... zu teuer ist.

Klar könnte es sein, dass initial nur ein sehr viel schwächerer Chip für dieses PCB vorgesehen war und dafür dann auch dieses 2-Phasen-Design ausgelegt wurde und nun - mit dem "Mega-Starken" G92 - vollkommen überlastet ist...

...oh mann, über was wird hier eigentlich diskutiert?
Gehört dieser Unfug nicht eigentlich eher ins Speku-Forum, solange man hier nur wild spekuliert?
:confused:

Razor

Gast
2007-11-03, 11:07:15
Ist es so schwer zu verstehen was ich meine? :|
Sieht NV für die G8800GT 2 oder 3 Phasen vor?

Und wer soll das deiner Meinung nach hier im Forum wissen? Frag mal nVidia...

dropback
2007-11-03, 11:10:24
Naja, selbst wenn man Bilder der Karte sieht, der eine sagt das sind 2 Phasen, der nächste sieht auf dem gleichen Bild 3 Phasen...
So what?
Fakt ist nun mal das es, immer wenn es um die "angeblich" defekten Karten geht immer die gleichen Posts aus dem Luxx Forum auftauchen.
Auch hab ich das Gefühl dass die ganzen Gäste die hier vermehrt auftauchen eben die gleichen sind die im Luxx auch die Panik schieben (natürlich ohne je eine Karte gehabt zu haben).
Es mag ja sein dass das jetztige Layout des PCB`s nicht das optimale ist, jedenfalls wenn man seine Karten übertakten will.
Das würde auch erklären warum die OC Karten (Zotac AMP z.b.) nirgends lieferbar sind.
Eben weil es unter Umständen zu riskant ist die Karte außerhalb ihre Spezifikation zu betreiben.
Aber daraus gleich zu schließen dass alle Karten Mist sind und quasi jeden Moment kaputt gehen ist wohl "etwas" übertrieben.
Naja, im Endeffekt kann man eh nichts machen.
Die, die eine Karte haben können eh nur abwarten, und die die keine haben und besorgt sind warten halt auch, vielleicht kommt ja demnächst ein anderes PCB (was denn besser/stabiler zum OC ist).
Und wenn meine Karte@Standardtakt jetzt wirklich stirbt, dann ist das zwar ärgerlich, aber ich kann es eh nicht ändern.
Dann geht sie halt zurück, ganz einfach.
P.S. Normalerweise ist es im Luxx ganz nett, aber der 8800GT Thread ist echt ein Paradebeispiel was passiert wenn ein Horde halb/ bzw.unwissender loslegt.
Da wurde doch glatt gefragt ob man sich bei Nvidia eigene Karten bestellen kann wo man vorgibt welche Spawas/Phasen da drauf kommen und ob es nicht Firmen gibt die Grakas "massanfertigen":|
Und solche Leute wollen dir dann erklären dass da eine Phase oder was auch immer fehlt...und der Rest (jedenfalls sehr viele) glaubt das dann auch noch und plappert das dann (auch in anderen Foren) nach...

Gast
2007-11-03, 11:13:54
Es mag ja sein dass das jetztige Layout des PCB`s nicht das optimale ist, jedenfalls wenn man seine Karten übertakten will.
Das würde auch erklären warum die OC Karten (Zotac AMP z.b.) nirgends lieferbar sind.
Eben weil es unter Umständen zu riskant ist die Karte außerhalb ihre Spezifikation zu betreiben.
Aber daraus gleich zu schließen dass alle Karten Mist sind und quasi jeden Moment kaputt gehen ist wohl "etwas" übertrieben.

Wenn die Karten bei Übertaktung abrauchen statt abzustürzen dann sind sie Mist.

Gast
2007-11-03, 11:16:05
Auch hab ich das Gefühl dass die ganzen Gäste die hier vermehrt auftauchen eben die gleichen sind die im Luxx auch die Panik schieben (natürlich ohne je eine Karte gehabt zu haben).
1. Du irrst. Dank riesen Sammelthreads gefällt mir das Luxx nicht. -> Ich bin dort nicht unterwegs.

2. Richtig ich habe noch keine Karte, aber ich hätte gerne eine, zumindest wenn sich das Phasenproblem gelöst hat und die Karten für weniger als 260€ verfügbar sind.

Godmode
2007-11-03, 11:18:46
Ich habe mir auch eine 8800 GT bestellt, einfach weil es ein verdammt gutes Angebot ist. Sollte es Probleme geben, geht die Karte wieder zurück, so einfach ist das. Natürlich ist sowas für den Käufer ärgerlich, vor allem wenn bei Shops gekauft wird, wo die RMA schlecht funktioniert.

IMO heerscht momentan etwas zuviel Hysterie, einfach wieder normal durchatmen könnte helfen.

reunion
2007-11-03, 11:23:00
Naja, selbst wenn man Bilder der Karte sieht, der eine sagt das sind 2 Phasen, der nächste sieht auf dem gleichen Bild 3 Phasen...
So what?
Fakt ist nun mal das es, immer wenn es um die "angeblich" defekten Karten geht immer die gleichen Posts aus dem Luxx Forum auftauchen.
Auch hab ich das Gefühl dass die ganzen Gäste die hier vermehrt auftauchen eben die gleichen sind die im Luxx auch die Panik schieben (natürlich ohne je eine Karte gehabt zu haben).
Es mag ja sein dass das jetztige Layout des PCB`s nicht das optimale ist, jedenfalls wenn man seine Karten übertakten will.
Das würde auch erklären warum die OC Karten (Zotac AMP z.b.) nirgends lieferbar sind.
Eben weil es unter Umständen zu riskant ist die Karte außerhalb ihre Spezifikation zu betreiben.
Aber daraus gleich zu schließen dass alle Karten Mist sind und quasi jeden Moment kaputt gehen ist wohl "etwas" übertrieben.
Naja, im Endeffekt kann man eh nichts machen.
Die, die eine Karte haben können eh nur abwarten, und die die keine haben und besorgt sind warten halt auch, vielleicht kommt ja demnächst ein anderes PCB (was denn besser/stabiler zum OC ist).
Und wenn meine Karte@Standardtakt jetzt wirklich stirbt, dann ist das zwar ärgerlich, aber ich kann es eh nicht ändern.
Dann geht sie halt zurück, ganz einfach.
P.S. Normalerweise ist es im Luxx ganz nett, aber der 8800GT Thread ist echt ein Paradebeispiel was passiert wenn ein Horde halb/ bzw.unwissender loslegt.
Da wurde doch glatt gefragt ob man sich bei Nvidia eigene Karten bestellen kann wo man vorgibt welche Spawas/Phasen da drauf kommen und ob es nicht Firmen gibt die Grakas "massanfertigen":|
Und solche Leute wollen dir dann erklären dass da eine Phase oder was auch immer fehlt...und der Rest (jedenfalls sehr viele) glaubt das dann auch noch und plappert das dann (auch in anderen Foren) nach...


Die ganze Diskussion ist völlig lächerlich. Da sitzen doch keine Anfänger in den PCB-Laboren, die nicht wissen, wie man ein PCB zu bestücken hat. Das ganze wird unter extremen Belastungssituationen getestet, Belastungen, die man als normaler Anwender nicht mal annähernd erreichen kann. Zusätzlich sind da noch ausreichend Toleranzen vorgesehen. Da wird alles berücksichtigt, von Spannungsschwankungen direkt am Netzteil, über mögliche Spitzen, bis hin zu etweiige Schwankungen an den Bauteilen. Hier glaubt doch nicht wirklich jemand, dass nV das PCB zu "schwach" bestückt hat, sodass jetzt nach der Reihe die Karten abrauchen? Damit würde man sich ja nur ins eigenen Fleisch schneiden. Schon gar nicht nur weil da jetzt ein paar Kiddies, die offensichtlich selbst mit dem Einbau einer neuen Grafikkarte leicht überfordert sind von Ausfällen berichten.

Gast
2007-11-03, 11:23:05
IMO heerscht momentan etwas zuviel Hysterie, einfach wieder normal durchatmen könnte helfen.
Genau das regt mich auf!

Es wäre nicht das erste Mal das nv Grakas einem Massensterben unterliegen!
Und ja ich will diesmal nicht beim Massensterben dabei sein! Ob jetzt aus deiner Sicht Quatsch oder nicht, ich warte auf Palits 3Phasen.

dargo
2007-11-03, 11:25:59
Die ganze Diskussion ist völlig lächerlich. Da sitzen doch keine Anfänger in den PCB-Laboren, die nicht wissen, wie man ein PCB zu bestücken hat. Das ganze wird unter extremen Belastungssituationen getestet, Belastungen, die man als normaler Anwender nicht mal annähernd erreichen kann. Zusätzlich sind da noch ausreichend Toleranzen vorgesehen.
Vergiss bitte nicht die Veröffentlichung der ersten G8800GTXen.

Gast
2007-11-03, 11:26:59
Die ganze Diskussion ist völlig lächerlich. Da sitzen doch keine Anfänger in den PCB-Laboren, die nicht wissen, wie man ein PCB zu bestücken hat. Das ganze wird unter extremen Belastungssituationen getestet, Belastungen, die man als normaler Anwender nicht mal annähernd erreichen kann. Zusätzlich sind da noch ausreichend Toleranzen vorgesehen. Da wird alles berücksichtigt, von Spannungsschwankungen direkt am Netzteil, über mögliche Spitzen, bis hin zu etweiige Schwankungen an den Bauteilen. Hier glaubt doch nicht wirklich jemand, dass nV das PCB zu "schwach" bestückt hat, sodass jetzt nach der Reihe die Karten abrauchen? Damit würde man sich ja nur ins eigenen Fleisch schneiden.


Genau, darum ist es auch noch nie vorgekommen dass Karten vermehrt ausfallen, darum gibt es auch keinerlei Problem mit der X-Box und darum haben wir zum Glück auch keine Rückrufaktionen bei so gefährlichen Dingen wie Autos...

reunion
2007-11-03, 11:27:06
Vergiss bitte nicht die Veröffentlichung der ersten G8800GTXen.

Was war damit?

dargo
2007-11-03, 11:29:23
Was war damit?
Da war doch auch irgendein Bauteil unterdimensioniert gewählt. Weiß nicht mehr welches genau. So perfekt sind die Hersteller nun auch wieder nicht.

reunion
2007-11-03, 11:31:01
Genau, darum ist es auch noch nie vorgekommen dass Karten vermehrt ausfallen, darum gibt es auch keinerlei Problem mit der X-Box und darum haben wir zum Glück auch keine Rückrufaktionen bei so gefährlichen Dingen wie Autos...

Natürlich kann es unter Umständen mal vorkommen, dass etwas aus welchen Gründen auch immer an der Qualitätskontrolle vorbei kommt, was nicht wie vorgesehen funktioniert. Aber nur weil jetzt ein paar Leute aus einem Forum von Ausfällen berichten, muss man nicht gleich hysterisch werden.

dropback
2007-11-03, 11:32:06
@reunion
Würde ich normalerweise auch so sehen.
Aber bei der 7900er Serie ist Nvidia ja wirklich der eine oder ander Fehler unterlaufen, da war doch irgendwas mit den Spwas/Kondensatoren und die Dinger sind wirklich reihenweise ausgefallen.
Irgendwann kam dann eine neuen Revision mit geänderten Bauteilen...
Ok, man sollte natürlich meinen dass die aus den Fehlern lernen, noch dazu wo das noch nicht sooo lange her ist.
Aber ob das wirklich so ist...k.A.
Aber insgesamt gebe ich dir Recht, das Thema wird momentan künstlich hochgepusht.
Und komischerweise hört man außerhalb des Luxx (und hier von ominösen Gästen:wink:) nichts über Grundlegende PCB Probleme der GT.
Und da die Dinger ja wirklich weg gehen wie warmen Semmeln sollten sich doch inzwischen auch in anderen Foren schon etliche Karten gefunden haben die kaputt sind, jedenfalls wenn die Karten wirklich so labil sind wie einige behaupten...:wink:

Gast
2007-11-03, 11:32:22
Dann stell das auch nicht so hin als ob den "hochqualifizerten Ingineuren in den High-Tech PCB-Laboren" (oder was auch immer) kein Murks passieren könnte. Wäre nicht das erstemal, schongarnicht bei nV.

Gast
2007-11-03, 11:35:08
Da war doch auch irgendein Bauteil unterdimensioniert gewählt. Weiß nicht mehr welches genau. So perfekt sind die Hersteller nun auch wieder nicht.

jo meine GTX Rev1 hat sich auch nach einer Woche verabschiedet.

dargo
2007-11-03, 11:39:44
Aber insgesamt gebe ich dir Recht, das Thema wird momentan künstlich hochgepusht.
Und komischerweise hört man außerhalb des Luxx (und hier von ominösen Gästen:wink:) nichts über Grundlegende PCB Probleme der GT.

Ich vermute hier es liegt einfach daran, dass gewisse "Kiddis" schon Volt-Mods mit den Karten praktiziert haben.

reunion
2007-11-03, 11:41:48
Dann stell das auch nicht so hin als ob den "hochqualifizerten Ingineuren in den High-Tech PCB-Laboren" (oder was auch immer) kein Murks passieren könnte. Wäre nicht das erstemal, schongarnicht bei nV.

Das Problem ist wohl eher, dass weniger hochqualifizierte Techniker meinen eine solche Karte muss ohnehin nur zwei bis drei Jahre halten und nicht für höhere Taktraten/Spannungen ausgelegt sein. Und bei hohen Stückzahlen zählen eben auch Cent-Beträge, die eingespart werden können. Trotzdem sollte eine solche Ausfallwelle nicht vorkommen, und bis jetzt gibt es ja auch kaum Gründe zur Annahme dessen.

Gast
2007-11-03, 12:03:16
Jo, das sind dann die BWLer, die nebenbei auch meinen bissl was von Technik zu verstehen. Leider setzen sich diese Leute oft gegen die Techniker durch.

Gast
2007-11-03, 12:04:53
Ich vermute hier es liegt einfach daran, dass gewisse "Kiddis" schon Volt-Mods mit den Karten praktiziert haben.

Glaub ich nicht, das sind nach den Postings zu urteilen wirklich Kinder, die haben keine Ahnung wie man sowas macht.

Mumins
2007-11-03, 12:22:59
Mir sind damals 3 Galaxy 6800 GT abgeraucht. 1 war out of the box im Eimer, die 2. hielt ungefähr 1 Stunde, dann Blackscreen. Die 3. hielt 3 Monate und im Windows plötzlich nen Blackscreen. Die 4. habe ich direkt verkauft und bin auf X800XT PE umgestiegen.

Spasstiger
2007-11-03, 12:26:16
Gut, dass ich mich nicht in die Riege der Early Adopters eingereiht habe. Erstmal beobachten und wenn erforderlich, eine Karte mit 3-Phasen-Spannungsversorgung kaufen. Mainboards gibts inzwischen sogar mit 8 Phasen.

Super Grobi
2007-11-03, 12:30:02
Sowas kommt dabei raus, wenn man auf solche Dreckskühler zurück geht. Ein echter Rückschritt! GPU auf 65nm :up: und perfekten Kühler gegen billig Schrott tauschen :down: = MIST!

SG

Gast
2007-11-03, 12:37:05
geht doch nur darum ati einen rein zuwürgen rv670 war das glaube sonst nix..ob den leuten die dinger abrauchen ist denen doch wurst,wer sich jetzt ne gt kauft,kauft keine ati sondern ne gts oder größer.

up¦²
2007-11-03, 12:42:59
Da gab's scheinbar wirklich Leute, die nicht hellhörig geworden sind, als GT-User von 90´C aufwärts berichteten... ;D
Ein Witz sowas...

dargo
2007-11-03, 12:52:29
Mir sind damals 3 Galaxy 6800 GT abgeraucht. 1 war out of the box im Eimer, die 2. hielt ungefähr 1 Stunde, dann Blackscreen. Die 3. hielt 3 Monate und im Windows plötzlich nen Blackscreen. Die 4. habe ich direkt verkauft und bin auf X800XT PE umgestiegen.
War das diese G6800GT mit dem AC Kühler drauf? Wenn ja, würde ich diese nicht als Maßstab nehmen. Die ganzen AC Kühler waren nicht gerade unproblematisch. Egal ob auf einer NV oder ATI Graka.

Die gelbe Eule
2007-11-03, 13:20:29
Na Gelbe Eule, warst du nicht einer derjenigen der in meinem "Hilfe!!! Meine 8800GT ist zu heiss!!!" Thread einen auf "Gibt kein Problem, nVidia weiss schon was sie machen" trötete?

Schau an, jetzt auf einmal machste einen eigenen Panikthread auf?

Na sowas aber auch...

Tsk.. Tsk... Tsk...

Das ist eine Bestandsaufnahme, kein Panikthread. Der Thread wurde nicht wie ein Troll eröffnet, sollte ersichtlich sein. Es wird schon seine Gründe haben, warum man auf das neue PCB warten wollte.

Blacksoul
2007-11-03, 13:31:27
Gab es nicht bereits ein ähnliches Problem mit den ersten 6600GT (AGP?), welche unterdimensionierte Kondensatoren hatten?

Ich erinnere mich nicht mehr genau daran, da ich nie eine 6600GT hatte, aber im Forum gab es afaik einen (großen) Thread zu dem Thema.


t.b.d

Gast
2007-11-03, 13:39:19
Das ist eine Bestandsaufnahme, kein Panikthread. Der Thread wurde nicht wie ein Troll eröffnet, sollte ersichtlich sein. Es wird schon seine Gründe haben, warum man auf das neue PCB warten wollte.

Und warum hast dann nochmal einen neuen Thread zum gleichen Thema eröffnet?

Gast
2007-11-03, 13:40:01
Gab es nicht bereits ein ähnliches Problem mit den ersten 6600GT (AGP?), welche unterdimensionierte Kondensatoren hatten?

Ich erinnere mich nicht mehr genau daran, da ich nie eine 6600GT hatte, aber im Forum gab es afaik einen (großen) Thread zu dem Thema.


t.b.d

Jo, die ersten 6600GT sind auch überdurchschnittlich häufig abgeraucht, nVidia hat dann nachgebessert.

Successor
2007-11-03, 13:59:08
Der ganze Thread ist bisher ohne Substanz.
Ich will den Leuten, die in der Vergangenheit schlechte Erfahrungen mit einer GraKa-Serie gemacht haben nix absprechen (bin da bisher selbst z.G. verschont geblieben), aber was von den hier gesposteten Dingen beruht auf eigener Erfahrung? Alles von irgendwem mal irgendwo gehört oder wie schon gesagt, aus einem für eine Kompetenz berühmten Forum. Sobald hier im 3dc drei Leute zusammenkommen, denen eine 8800GT ohne Voltmods oder Übertaktungsspielchen abgeraucht ist, dann dürfen die Leute gerne meckern.
Und die Zahl der Gäste in diesem Thread spricht Bände...

Gast
2007-11-03, 14:00:38
Erster 8800GT Batch bereits am Hitzetod gestorben?

Riecht schon ziemlich stark nach Trollposting...

seahawk
2007-11-03, 14:02:39
Ich sage es mal so. es dürfte im normalens statistischen Schadensbereich liegen, wenn es um die Summe an KArten geht die ohne OC ausgefallen sind. OC technisch ist die GT anfällig, dass war aber eigentlich auch bekannt.

Gast
2007-11-03, 14:06:46
Wo war das "bekannt", die Karte gibt es erst seit ein paar Tagen bei normalen Anwendern...

Successor
2007-11-03, 14:11:46
Wo war das "bekannt", die Karte gibt es erst seit ein paar Tagen bei normalen Anwendern...

Also wenn du halbwegs am Ball bist was die aktuellen GraKas angeht hätte auch dir die SingleSlot-Kühlung ein Hinweis sein können. Des weiteren sind Chip+Speicher 100Mhz und der Shadertakt um 300Mhz angehoben - und du meinst da sollen die dicken Taktreserven drin sein?

Gast
2007-11-03, 14:19:04
In diesem Trollthread gehts nicht um Taktreserven sondern um das (vor)zeitliche Ableben der Karten.

Gast
2007-11-03, 14:53:30
Die ganze Diskussion ist völlig lächerlich. Da sitzen doch keine Anfänger in den PCB-Laboren, die nicht wissen, wie man ein PCB zu bestücken hat. Das ganze wird unter extremen Belastungssituationen getestet, Belastungen, die man als normaler Anwender nicht mal annähernd erreichen kann. Zusätzlich sind da noch ausreichend Toleranzen vorgesehen. Da wird alles berücksichtigt, von Spannungsschwankungen direkt am Netzteil, über mögliche Spitzen, bis hin zu etweiige Schwankungen an den Bauteilen. Hier glaubt doch nicht wirklich jemand, dass nV das PCB zu "schwach" bestückt hat, sodass jetzt nach der Reihe die Karten abrauchen? Damit würde man sich ja nur ins eigenen Fleisch schneiden. Schon gar nicht nur weil da jetzt ein paar Kiddies, die offensichtlich selbst mit dem Einbau einer neuen Grafikkarte leicht überfordert sind von Ausfällen berichten.
Was aber noch passieren kann ist, dass die Bauteile trotz vorgebener Spezifikation stark schwanken können. Könnte beispielsweise aufteten, wenn man günstigeren Zulieferen den Vorzug gibt. Da erfüllen viele Teile die Spezifikation nicht, die sie eigentlich erfüllen sollten. Oder sind so empfindlich, dass sie schon bei der automatischen PCB Bestückung Schaden nehmen.
Habe das selbst schon in der Praxis erlebt, wenn bei Stichproben fast alle Teile einer Billiglieferung die Tests nicht bestanden haben.
Ist natürlich unerklärlich für die BWLer/Controller, die die Scheiße eigentlich mitzuverantworten haben.

Gertz
2007-11-03, 16:08:48
Gut, dass ich mich nicht in die Riege der Early Adopters eingereiht habe. Erstmal beobachten und wenn erforderlich, eine Karte mit 3-Phasen-Spannungsversorgung kaufen. Mainboards gibts inzwischen sogar mit 8 Phasen.
meine Graka auch.. ;)
R600..

Gast
2007-11-03, 16:10:12
Ja gut, die frisst ja auch mehr als ein Mainboard+CPU zusammen :)

Gertz
2007-11-03, 16:19:48
naja.. okay, bei mir schon.. war aber schon laenger so...
immerhin 65nm athlon und nen 690g chipsatz.. zusammen verbrauchts nicht viel...

In der Zeit ohne Graka hab ich 90W last gebraucht.. ;D

Und soviel verbraucht fast jede gute Graka heute.

Razor
2007-11-03, 16:34:48
Und soviel verbraucht fast jede gute Graka heute.
Im Idle nicht, nein.

Razor

Gertz
2007-11-03, 16:40:26
Im Idle nicht, nein.

Razor
wer sagte was von idle?
im idle ist mein R600 auch 200/200 getaktet mit 0,8v oder so auf dem chip und ebenfalls wenig aufm Speicher... Da braucht das system jetzt um die 120W..
Mit der 1900GT brauchte es 110w idle..

Wenn ich zocke sind mir die Verbrauche allerdings egal.

Adam D.
2007-11-03, 16:45:22
Wegen 5 Postings und unbestätigten Gerüchten so ein Aufschrei :usad: Wollen wir nicht erstmal warten, bis die Karten wirklich mal flächendenkend getestet sind, bis solche Aussagen getätigt werden?

PS: Hab mir damals meine 7900GT in der ersten Woche gekauft und sie läuft seither ohne Probleme auf 500/700 ;)

Gast
2007-11-03, 16:47:37
PS: Hab mir damals meine 7900GT in der ersten Woche gekauft und sie läuft seither ohne Probleme auf 500/700 ;)
Afaik trat das Problem erst später bzw bei späteren Karten auf.

Adam D.
2007-11-03, 16:49:54
Afaik trat das Problem erst später bzw bei späteren Karten auf.
Hat man später am bereits erprobten PCB gespart oder was? :confused:

Gast
2007-11-03, 16:55:17
Hat man später am bereits erprobten PCB gespart oder was? :confused:
Hast du bereits in den ersten Wochen davon gehört?

Ich hab das erst mitbekommen, als ich mir eine geholt habe und das war gut 3 Moante später.

Adam D.
2007-11-03, 16:56:35
Vielleicht waren das die Start-Karten, die nach einigen Monaten im Betrieb abgekackt haben :D

Gast
2007-11-03, 17:02:13
Vielleicht waren das die Start-Karten, die nach einigen Monaten im Betrieb abgekackt haben :D
Also hier sind 2 von 2 Karten einige Zeit nach Release gekauft worden und sind prompt abgeraucht.

Die_Allianz
2007-11-03, 17:06:43
Also hier sind 2 von 2 Karten einige Zeit nach Release gekauft worden und sind prompt abgeraucht.

grund?
hat eigentlich irgendjemand die spannungsversorgung der karten als alleinige fehlerquelle ausgemacht?
Also den fehler optisch oder messtechnisch auf die versorgung zurückgeführt?

das ganze wird doch größtenteils nur nachgeplappert!

Gast
2007-11-03, 17:12:18
hat eigentlich irgendjemand die spannungsversorgung der karten als alleinige fehlerquelle ausgemacht?
Nein.
Der RAM hat unter anderem Fehler ausgelöst.
Die Spawas sind afaik sehr heiß geworden und sind entweder abgepruzelt oder haben nicht mehr gut genug funktioniert.

Gast
2007-11-03, 17:48:45
7900GT oder 8800GT?

dropback
2007-11-03, 17:49:39
Gut, dass ich mich nicht in die Riege der Early Adopters eingereiht habe. Erstmal beobachten und wenn erforderlich, eine Karte mit 3-Phasen-Spannungsversorgung kaufen. Mainboards gibts inzwischen sogar mit 8 Phasen.
Gutes Beispiel.
Beim Gigabyte P35 DQ6 wird ja auch z.B. mit den Phasen geworben.
"Quad Triple Phase
An exclusive feature found only on GIGABYTE motherboards, this unique design incorporates Virtual 12 Power Phases to deliver steadier power and immediate current support for the CPU during heavy work loads or over-clocking. Additionally, Quad-Triple Phase helps to improve component lifespan system stability by delivering lower component temperature.
"
Wenn das wirklich so wichtig ist für einen fehlerfreien Betrieb (im Rahmen der Spezifikation), dann müsste ein DS3 ja auch der letzte Schrott sein und schneller kaputt gehen weil es ja weniger Phasen hat, oder nicht?
Für einen Betrieb außerhalb der Spezifikation mag das ja alles hilfreich sein, bedeutet aber halt nicht das die Karte sofort abraucht wenn man sie aus dem Karton holt...
Und das auf den 8800GT effektiv zu wenig Phasen für einen einwandfreien Betrieb sind konnte bisher noch keiner schlüssig beweisen.
Alle plappern was von "Oh Gott, nur 2 Phasen...".
Ok, vielleicht bin ich ne Ausnahme weil ich davon keine Ahnung hab, aber ich weiß nicht wieviele Phasen eine GT braucht. Könnten auch 27 sein und ich würde es glauben wenn ich es irgendwo lese wo ich denke dass die Ahnung haben...
:wink:

seahawk
2007-11-03, 17:55:52
Also hier sind 2 von 2 Karten einige Zeit nach Release gekauft worden und sind prompt abgeraucht.

OC versucht oder nicht ?

dargo
2007-11-03, 17:57:47
Gutes Beispiel.
Beim Gigabyte P35 DQ6 wird ja auch z.B. mit den Phasen geworben.
"Quad Triple Phase
An exclusive feature found only on GIGABYTE motherboards, this unique design incorporates Virtual 12 Power Phases to deliver steadier power and immediate current support for the CPU during heavy work loads or over-clocking. Additionally, Quad-Triple Phase helps to improve component lifespan system stability by delivering lower component temperature.
"
Wenn das wirklich so wichtig ist für einen fehlerfreien Betrieb (im Rahmen der Spezifikation), dann müsste ein DS3 ja auch der letzte Schrott sein und schneller kaputt gehen weil es ja weniger Phasen hat, oder nicht?
Für einen Betrieb außerhalb der Spezifikation mag das ja alles hilfreich sein, bedeutet aber halt nicht das die Karte sofort abraucht wenn man sie aus dem Karton holt...

Jetzt überlege mal was du hier vergleichst. Auf einem Mainboard kannst du zig verschiedene CPUs verbauen. Was kannst du auf dem G8800GT PCB verbauen? ;)
Mal davon abgesehen sind die 12 Phasen des DQ6 nichts anderes als Bauernfängerei.

Gast
2007-11-03, 18:00:45
Bin mal gespannt ob die G92 GTS auf dem gleichen PCB basiert, dann hätte das "2 oder 3 Phasen" Problem evtl. eine ganz schnöde Erklärung gefunden.

Gast
2007-11-03, 18:05:38
OC versucht oder nicht ?
Dazu war keine Zeit.

Gast
2007-11-03, 18:08:15
Mal davon abgesehen sind die 12 Phasen des DQ6 nichts anderes als Bauernfängerei.
Stimmt es effektiv nur 6 ....
Auf jeden Fall läuft auch ein QX auf einem 3 Phasen Brett ordentlich.

7900GT oder 8800GT?
79

Darkchylde24
2007-11-03, 18:53:09
Ich habe meine MSI 8800GT in der OC Version seit gestern und sie heute mal trotz aller Panikmache "gequält".

Bei meinen OC Versuchen sah' man deutlich das die Karte bei 90 Grad erst "loslegt" warm zu werden, da sind locker 107 Grad drin gewesen bei 740/1050Mhz.

Jetzt habe ich sie mir auf 700/1700/1000 eingestellt was der Zotac OC Version entspricht. Das ganze macht unter Last dann ca. 87-91Grad.

Stabil lief sie noch auf 720/1700/1050 zumindest in den üblichen Benchmarks, dem ATI Tool und einer Runde UT03.

Es macht aber spaß zu sehen wieviel Diskussionsstoff und Spekulationen diese Karte in allen Foren verursacht. ;)

mike49
2007-11-03, 19:05:24
Bei meinen OC Versuchen sah' man deutlich das die Karte bei 90 Grad erst "loslegt" warm zu werden, da sind locker 107 Grad drin gewesen bei 740/1050Mhz.

Jetzt habe ich sie mir auf 700/1700/1000 eingestellt was der Zotac OC Version entspricht. Das ganze macht unter Last dann ca. 87-91Grad.

Die paar MHz machen mehr als 15 Grad aus?

Ich bin ja eigentlich auch recht unempfindlich was hohe Temps angeht, meine 8800GTS liegt @650/1500/1000 auch nur knapp unter 90C. Lasttemps von deutlich > 90Grad @default wie man es teils von 8800GT Nutzern hört sind IMHO aber schon recht bedenklich...

reunion
2007-11-03, 19:15:08
Bei meinen OC Versuchen sah' man deutlich das die Karte bei 90 Grad erst "loslegt" warm zu werden, da sind locker 107 Grad drin gewesen bei 740/1050Mhz.


Ab 100°C taktet der Treiber automatisch runter.

Gast
2007-11-03, 19:16:40
Und das sicher nicht ohne Grund.

Gast
2007-11-03, 19:45:18
Ab 100°C taktet der Treiber automatisch runter.
Das ist interessant.
Viele andere Karten machen das erst bei ~125°C

Gast
2007-11-03, 19:45:46
Das ist interessant.
Viele andere Karten machen das erst bei ~125°C
Und werden per Default besser und lauter gekühlt.

Darkchylde24
2007-11-03, 20:46:15
Ab 100°C taktet der Treiber automatisch runter.

Ich muss gestehen ich habe die ersten Male heute den Rivertuner benutzt hatte sonst nur ATI Karten. Da hat jedenfalls nix runtergetaktet, hatte den Hardwaremonitor an und der zeigte mir 107°C bei 740/1050 mehr kann ich dazu auch nicht sagen.

Hvoralek
2007-11-03, 21:07:35
Gibt es eigentlich bisher auch nur einen einzigen Fall, in dem eine Karte ohne OC/ Voltmod den Geist aufgegeben hat?

Rebell
2007-11-03, 21:08:11
wieder ein Opfer.
http://www.computerbase.de/forum/showthread.php?t=339701

Gast
2007-11-03, 21:10:05
Gibt es eigentlich bisher auch nur einen einzigen Fall, in dem eine Karte ohne OC/ Voltmod den Geist aufgegeben hat?

Schau bei Luxx, da gibts einige. Ob Echt oder Fake, darüber streiten sich die Gelehrten :D

AnarchX
2007-11-03, 21:17:48
Also sofort allte Treiber deinstalliert und mit Driver Sweeper die Reste vernichtet.
http://www.computerbase.de/forum/showthread.php?t=339701

ATI-Treiber gestern Abend als letzte Amtshandlung sauber deinstalliert - extra im abgesicherten Modus -, danach mit Driver Cleaner Pro 1.5 drüber.
http://www.computerbase.de/forum/showthread.php?t=339568

:uponder:
PBCAKs?

Hvoralek
2007-11-03, 21:44:29
Schau bei Luxx, da gibts einige. Ob Echt oder Fake, darüber streiten sich die Gelehrten :DKannst Du mal ein oder zwei davon verlinken? Ich habe jetzt kein Lust, die 5000 Beiträge dort zu überfliegen. Zumindest die drei oder vier Leute, die ich gefunden habe, hatten entweder übertaktet oder sich nicht dazu geäußert.

PBCAKs?:confused:

Botcruscher
2007-11-03, 21:47:58
:confused:

Problem zwischen Stuhl und Tastatur.

Nakai
2007-11-03, 22:04:33
PBCAKs?

:naughty:

Ne, es gibt schon ziemlich viele Fälle von (ungeklärten) Ausfällen und (scheinbaren) Problemen.
Ich denke, dass dort schon was dran ist.
(Wobei manche da wohl auch übertreiben...)


mfg Nakai

Gast
2007-11-03, 22:41:46
Wer sich rantraut und den Referenzkühler der 8800GT wechselt wird auch gleich eine weitere "Schlamperei" sehen, welche zu den hohen Temperaturen beiträgt. Und zwar sah die Wärmeleitpaste auf meiner Karte eher aus wie Fensterkitt und war dazu auch noch so dick aufgetragen, daß selbst der Raum zwischen Die und Dieschutzrahmen bis oben vollgekleistert war.

Jeder der schonmal einen CPU-Kühler oder GPU-Kühler montiert hat weiß doch, daß die Wärmeleitpaste zum einen nur hauchdünn aufgetragen werden soll da hier ja nur die winzigsten Oberflächenunebenheiten ausgeglichen werden sollen und die Paste auch nicht zu zäh sein soll, weil sie sich sonst nicht richtig unter dem Kühler verteilt. Ich wette wenn man nur die Paste unter dem Originalkühler tauschen würde hätte man um bis zu 10° niedrigere Temperaturen.

Ansonsten wird mir ebenfalls zuviel über Phasen hier diskutiert. Es gibt noch keinen bestätigten Ausfall, der auf ein Phasenproblem zurückzuführen ist. Die Temperaturen allerdings halte ich schon eher für bedenklich. Es gibt ja immer noch Leute die nicht wissen wie man ein PC-Gehäuse ordentlich belüftet bzw. solche, denen der Silentaspekt über alles geht. Ich habe bei meinem Gehäuse vier 80er Lüfter installiert, 2 die vorn reinsaugen und 2 die hinten die Luft wieder rausblasen. Ist zwar nicht Silent aber dafür habe ich auch im Hochsommer keine Probleme mit den Temperaturen, und im Winter wird halt mit der Mainboardlüftersteuerung runtergeregelt.

Gast
2007-11-03, 23:02:20
Es gibt keine Temperaturprobleme. Die automatische Lüftersteuerung nagelt die Temperatur auf ca. 92° fest. Leute mit schlechtem Durchzug in ihrem Gehäuse werden daher eine lautere Karte haben.

Gast
2007-11-03, 23:22:47
Laber doch net.Wen du mit ein trecker 50fährst willst aber wie ein auto 100fahren drehen die reifen auch nicht schneller.Wen Schluss ist ist Schluss

desert
2007-11-03, 23:36:05
ich finde es so urkomisch, kaum bringt nivida wieder einer neue grafikkarte auf den markt, kommen wieder die tollen gastpostings das die grafikarten reihenweise abfackeln werden. Dazu gesellen sich dann noch kommentare ausgewiesener ati fanboys um das ganze ein bischen anzukurbeln.

Und schon entsteht die massenpanik. Vielleicht sollte man einfach mal nachdenken. Werden die grafikkarten getestet bevor sie auf den markt kommen? nein macht natürlich nvidia nicht, sondern nur ati;)

Und wenn testet nvidia nur in der kältekammer damit der lüfter überhaupt noch mitkommt.

Komisch meine zotac 8800 gt läuft jetzt schon seit 3 tage ohne unterbrechung auf 700/1700/950 mhz. Hilfe ich brauche einen feuerlöscher, oder sollte ich mir lieber gleich 10 karten hinlegen, weil die ja alle reihenweise abfackeln?;D

den gleichen schwachsinn, gab es schon mit 5800 ultra, 6600,6800,7900.8800 gtx und jetzt angeblich auch wieder 8800 gt, und ich wette sogar mit der gf4xxx serie.

Jedesmal sollen die grafikkarten von nvidia alle reihenweise sterben. Ich frage mich nur warum wird sowas zu 98 % von gästen verbreitet, oder von accounts die entweder wenige posts oder neu sind. Warum bringt das nicht ein printmagazin, aber die sind wahrscheinlich alle von nvidia gekauft.

Gut das denn die fanboys noch kommen, und sofort die panik anfeuern, weil sie die andere marke besser finden, ist ja selbstverständlich.

Begreift es endlich die grafikkarten durchlaufen ganze testreihen unter extremen bedindungen, und damit meine ich nicht lächerliche 700 mhz oder 750 mhz.

Die kühlung wird immer für den schlechtesten fall ausgelegt, also computer ohne gehäuselüftung in sagen wir mal afrika mit 40 grad umgebungstemperatur.

Gast
2007-11-03, 23:43:41
Ich finde die Schuldzuweisung an nVidia sowieso etwas dumm, weil nV ja nur den GPU liefert.

Der GPU wird ja sicher intensive getestet bei nV bevor er diese verkauft werden. Geschen diese Tests auch beim Rest der Karte? Zumal nV doch garkeine Komplette Grafikkarten herstellt, sondern diese doch fertigen lässt?!

desert
2007-11-03, 23:48:33
da nvidia auch das referenz pcb entwirft, wird nvidia wohl auch ganze karten testen.

Gast
2007-11-04, 00:43:56
Ich bin ja garkein fanboy aber wen jemand sunn schwachsin verbreitet regt mich das auf ich habe selbs eine 8800Gt bestellt.

LovesuckZ
2007-11-04, 00:49:31
Laber doch net.Wen du mit ein trecker 50fährst willst aber wie ein auto 100fahren drehen die reifen auch nicht schneller.Wen Schluss ist ist Schluss

Äh, du kapierst es nicht, oder? :rolleyes:

Razor
2007-11-04, 00:57:39
PS: Hab mir damals meine 7900GT in der ersten Woche gekauft und sie läuft seither ohne Probleme auf 500/700 ;)
Meine lief mit Soft-Voltmod auf 685/860... bis letzte Woche... und 'vermutlich' würde sie es noch immer tun... wenn ich sie lassen würde.

Bin mal gespannt ob die G92 GTS auf dem gleichen PCB basiert, dann hätte das "2 oder 3 Phasen" Problem evtl. eine ganz schnöde Erklärung gefunden.
Ja... danke.
Oder einfach nur eine Option für die Hersteller, so etwas tolles, wie Gigabyte mit seinen "12 Phasen" oder tatsächlich eine Stabilere 'Note' für extreme Übertaktungen... who knows?

Ich sage es Euch: Niemand!

Viele andere Karten machen das erst bei ~125°C
Nein, runter getaktet wird schon vorher...

wieder ein Opfer.
http://www.computerbase.de/forum/showthread.php?t=339701
Und was soll das bitte mit dem Zeug, was hier 'diskutiert' wird, zu tun haben?
Produktionsstreuung.

By the way, wenn der Memory - trotz eigener "Phase" - den Takt nicht mit macht und das im fabrikneuen Zustand, dann ist das ist das... was?

Razor

Gast
2007-11-04, 09:32:47
Nein, runter getaktet wird schon vorher...

Aha.
Und wozu dann die "Schwelle für Kernverlangsamung"?
Was passiert da?

Gast
2007-11-04, 10:26:32
Da taktet sie runter.

Gast
2007-11-04, 10:36:50
Laber doch net.Wen du mit ein trecker 50fährst willst aber wie ein auto 100fahren drehen die reifen auch nicht schneller.Wen Schluss ist ist Schluss

Erschreckend ist, wie man in drei Sätzen so viele grammatikalische Fehler unterbringen kann. Vom Inhalt wollen wir mal nicht reden.

Rebell
2007-11-04, 17:53:51
http://www.forumdeluxx.de/forum/showpost.php?p=7421800&postcount=5468
langsam nicht mehr lustig.

Adam D.
2007-11-04, 17:58:54
Na da bin ich ja mal auf meine gespannt. Aber erstmal möchte ich hier von 'nen paar glaubhaften Stellen hören, dass ihre 8800GTs abgeraucht sind ;)

Gast
2007-11-04, 18:08:03
Vor allem wundert es mich, daß es weder bei Geizhals noch bei den Bewertungen bei Alternate irgend was steht, daß eine Karte abgeraucht ist...

Adam D.
2007-11-04, 18:16:48
Vielleicht hat ja nur HWLuxx-User die Karten bekommen ;) Sorry, aber 5 User mit 10 Posts, die von kaputten Karten berichten, sind einfach keine adequate Quelle. Ich brauch da schon etwas mehr :usad:

maddawn
2007-11-04, 18:27:48
Im Hardwareluxxforum gibts einige Fanboys denen man durchaus zutrauen kann das sie irgendwelche Gerüchte über kaputte Hardware vom "Feind" verbreiten, ich würde auf diese Defektmeldungen nicht so viel geben.

Wolfram
2007-11-04, 18:38:05
Ich würde auch nicht die Möglichkeit aus dem Auge verlieren, daß "Fanboys", die solche Meldungen verbreiten, dafür bezahlt werden.

Gast
2007-11-04, 18:40:48
Seht es doch einfach ein das die ersten ausgelieferten GT's einfach schrott sind. Leistung TOP Qualität FLOP! Ganz einfach!

Wenn jetzt die neuen revisionen kommen siehts hoffentlich wieder besser aus. Ich wollte mir auch ne GT kaufen, aber garantiert nicht von den jetzigen... da hat man ja nicht so lange was von.


Ich hoffe das die das mit der Qualität in den nächsten 2 Wochen noch gebacken kriegen sonst wirds eng mit crysis.


btw: Ihr braucht jetzt nicht mit solchen üblen Nachreden kommen das die hardwareluxx user unwahrheiten (Defekte GT's) erzählen, dazu gibt es keinen sinnvollen Grund.

Gast
2007-11-04, 18:44:27
Fanboys gibt es auch hier wahrlich mehr als genug.

Gast
2007-11-04, 18:57:10
Da taktet sie runter.
Und warum labert dann Razor so eine Scheisse?
Einer schreibt bei 100°C taktet sich die 88Gt runter (normal läuft sie schon bei 90°C), ich schreibe viele andere Karten takten sich erst bei 125°C runter.
Jetzt kommt Razor und erzählt das:

Nein, runter getaktet wird schon vorher...

darauf antworte ich:
Aha.
Und wozu dann die "Schwelle für Kernverlangsamung"?
Was passiert da?

Super klasse. Um zum Thema zurück zu kommen, eine 8800GT taktet sich schon recht früh runter und wird per default nicht sehr stark runter gekühlt.

LovesuckZ
2007-11-04, 20:06:16
Seht es doch einfach ein das die ersten ausgelieferten GT's einfach schrott sind. Leistung TOP Qualität FLOP! Ganz einfach!

Anscheinend nur die ersten karten, die an user im HWL Forum verkauft wurden...

btw: Ihr braucht jetzt nicht mit solchen üblen Nachreden kommen das die hardwareluxx user unwahrheiten (Defekte GT's) erzählen, dazu gibt es keinen sinnvollen Grund.

Bis jetzt ist es das einzige Forum, wo diese Probleme auftreten. Das sollte schon zu denken geben.


Super klasse. Um zum Thema zurück zu kommen, eine 8800GT taktet sich schon recht früh runter und wird per default nicht sehr stark runter gekühlt.

Checkst du es nicht - ja, glaube du bist immer wieder der selbe Gast - das die THigh Temperatur bei 92° liegt? Ab 93° regelt der Lüfter hoch auf bis zu 100%. Sollte Karte selbst hier über 93° gehen, wird sie bei ca. 100° runtergetaktet.

AnarchX
2007-11-04, 20:10:51
Checkst du es nicht - ja, glaube du bist immer wieder der selbe Gast - das die THigh Temperatur bei 92° liegt? Ab 93° regelt der Lüfter hoch auf bis zu 100%. Sollte Karte selbst hier über 93° gehen, wird sie bei ca. 100° runtergetaktet.
Da wird man ja mit der passiven Sparkle nicht viel Spass haben. :D

Warum sollte sich G92 bei 100°C, die für eine GPU eigentlich noch recht akzeptabel sind, schon heruntertakten bzw. hast du dazu mehr Infos/Bilder?

Gast
2007-11-04, 20:12:21
Warum sollte sich G92 bei 100°C, die für eine GPU eigentlich noch recht akzeptabel sind, schon heruntertakten bzw. hast du dazu mehr Infos/Bilder?

Wüsst ich auch gern. Bei früheren Treibern wurde da meist 125 Grad als Schwelle angezeigt und das bei noch leistungsschwächeren GPUs.

dropback
2007-11-04, 20:59:44
...Warum sollte sich G92 bei 100°C, die für eine GPU eigentlich noch recht akzeptabel sind, schon heruntertakten bzw. hast du dazu mehr Infos/Bilder?
Das kann dir wohl nur Nvidia beantworten:wink:
Im Kartenbios steht auf jedenfall 100 Grad als Throttle Wert.
Und ab 92 Grad dreht der Lüfter dann stetig hoch, sieht man ja auch sehr schön in dem PCGH Video was hier mal verlinkt wurde.
Also scheint eine Temperatur von ca. 90 Grad wohl von Nvidia "gewollt", sonst hätten sie den Lüfter ja auch einfach früher schneller laufen lassen können.
Mir persönlich sind die 90 Grad aber auch ein wenig viel, deshalb stelle ich den Lüfter manuell auf 50%-60% (beim zocken stört mich der Lüfterlautstärke eh nicht), dann hab ich schon ca. 10-15 Grad weniger, schaden tut das der Karte bestimmt nicht:smile:

Hvoralek
2007-11-04, 21:19:57
Warum sollte sich G92 bei 100°C, die für eine GPU eigentlich noch recht akzeptabel sind, schon heruntertakten bzw. hast du dazu mehr Infos/Bilder?Hängt das vlt. mit dem 65- nm- Prozess zusammen? Bis zu welcher Temperatur ist denn RV630 spezifiziert?

dargo
2007-11-04, 21:22:31
Hängt das vlt. mit dem 65- nm- Prozess zusammen?
Würde ich von ausgehen.

Gast
2007-11-04, 23:43:15
http://www.computerbase.de/forum/showthread.php?t=339701

Wahrscheinlich ein Hardwareluxx-Mitglied ;-)

Gast
2007-11-04, 23:45:02
Bissl Schwund is immer :)

seb74
2007-11-05, 01:10:07
Ich würde auch nicht die Möglichkeit aus dem Auge verlieren, daß "Fanboys", die solche Meldungen verbreiten, dafür bezahlt werden. Es gibt doch gar keine Probleme mit der 8800GT. Alles falsche Gegnerpropaganda, so einfach ist es. Einfach die negativen Berichte konsequent ignorieren, muß ja alles erfunden sein, damit das Weltbild intakt bleibt.

Insbesondere die 8800GT Rückrufaktion durch NVIDIA SELBST wg Überhitzung: http://www.hartware.de/news_43216.html, Nvidia muß demnach insgeheim ein echter ATI Fanboy sein, um so eine Aktion kurz vorm Release zu starten. :haha:

Adam D.
2007-11-05, 07:02:46
Dein Sarkasmus ist hier nicht angebracht. Dass die Karten heiß werden, muss wohl nicht nochmal gesagt werden. Dass das aber in einem gut durchlüfteten PC egal ist, auch nicht. Die Dinger sind auf 92°C fixiert und das nicht ohne Grund.

Und es gibt kein Forum, wo mehr Scheiße rumläuft als im HWLuxx. Wenn ich da an die R600-Benches denke ... Meine Güte, wie kann man nur so dreist sein. So lange nicht irgendwo anderes glaubhaft über einen Defekt berichtet wird, glaub ich nix. Hat wohl wieder das gemeine Fanboy-Fieber im HWLuxx um sich geschlagen :usad:

dropback
2007-11-05, 07:46:28
...
Insbesondere die 8800GT Rückrufaktion durch NVIDIA SELBST wg Überhitzung: http://www.hartware.de/news_43216.html, Nvidia muß demnach insgeheim ein echter ATI Fanboy sein, um so eine Aktion kurz vorm Release zu starten. :haha:
Sag mal, es tut mir jetzt auch echt leid wenn ich dich das so direkt fragen muss, aber: Hast du irgendwelche Auffassungsschwierigkeiten?
Seit 3 Tagen postest du den gleichen, alten Link.
Und wenn du den schon postest, dann poste doch bitte den "dazugehörigen", neueren (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/oktober/geforce_8800_gt_endes/) auch noch.
So, und nun?
Ich weiß, jetzt wirst du mir gleich erzählen dass ich ein Fanboy bin.
Bis morgen dann, wenn du den gleichen Link mal wieder in deinem Browser findest und vergessen hast dass du ihn schon 3-4 mal gepostet hast...:rolleyes:

Worf
2007-11-05, 07:47:34
Und wieder einer der basht.

Insbesondere die 8800GT Rückrufaktion durch NVIDIA SELBST wg Überhitzung: http://www.hartware.de/news_43216.html, Nvidia muß demnach insgeheim ein echter ATI Fanboy sein, um so eine Aktion kurz vorm Release zu starten. :haha:

Das ist keine Rückrufaktion, sondern einfach eine Überprüfung. Informiere dich erst mal was überhaupt Rückrufaktion (http://de.wikipedia.org/wiki/R%C3%BCckrufaktion) heißt, bevor du so etwas behauptest.

K4mPFwUr$t
2007-11-05, 08:05:32
hartware.net hatte in den letzten tag viele falschmeldungen. bisher ist auch nichts bekannt das wirklich die karten zurück gehen zu testzwecken. außerdem ist das eh zuviel aufwand um grakas testen zu können.

Wolfram
2007-11-05, 08:17:33
Ich würde allgemein sagen, daß die Nachrichten im Hardwarebereich sehr unzuverlässig sind (3dc leider eingeschlossen). Jede Spekulation wird als Nachricht verkauft. Da sollte man mal deutlicher trennen. Mir fehlt die Online-FAZ/Süddeutsche für Hardware. Eine Seite, die mal etwas zurückhaltender ist und dafür ausschließlich gesicherte Informationen anbietet, oder einfacher gesagt: Journalistischen Mindeststandards genügt.

Insbesondere bei vielverkaufter oder auch nur vielbeachteter Hardware wird aus jedem Pups gleich ein Wirbelsturm.

Und der Umgang mit Informationen hier im Thread spricht auch Bände. Wie Worf schon anmerkte: Computerbase schreiben selbst in ihrer dürftigen Meldung gar nichts von einer Rückrufaktion, dennoch wird das von anderen hier dann so deklariert.

Henroldus
2007-11-05, 08:31:09
Ich würde allgemein sagen, daß die Nachrichten im Hardwarebereich sehr unzuverlässig sind (3dc leider eingeschlossen). Jede Spekulation wird als Nachricht verkauft. Da sollte man mal deutlicher trennen. Mir fehlt die Online-FAZ/Süddeutsche für Hardware. Eine Seite, die mal etwas zurückhaltender ist und dafür ausschließlich gesicherte Informationen anbietet, oder einfacher gesagt: Journalistischen Mindeststandards genügt.

Die News kommen auf den offiziellen Seiten dann wenn sie öffentlich bekannt sind. was hier und woanders spekuliert wird geniesst der geneigte Leser also von vorherein mit Vorsicht.
Dafür findet man hier oft Infos bevor sie von Herstellern etc bestätigt werden.
gesicherte Informationen kannst du dann 3 Tage später bei Heise lesen :wink:

Insbesondere bei vielverkaufter oder auch nur vielbeachteter Hardware wird aus jedem Pups gleich ein Wirbelsturm.

Und der Umgang mit Informationen hier im Thread spricht auch Bände. Wie Worf schon anmerkte: Computerbase schreiben selbst in ihrer dürftigen Meldung gar nichts von einer Rückrufaktion, dennoch wird das von anderen hier dann so deklariert.
Computerbase sind genauso unsicher als quelle wie andere kleine HW Seiten und schreiben news oft(2 Tage später) ab.
Niemand zwingt dich hier zu lesen, wenn du probleme mit einzelnen Usern hast schreib diese direkt an!

seahawk
2007-11-05, 08:35:34
Momentan sehe ich noch kein GT sterben. Nur im Luxx wird das thematisiert, kein seriöses englisch sprachiges Forum oder aus Asien berichtet davon. Evtl, wurde im Luxx zuviel mit der Lüftersteuerung gespielt.

seb74
2007-11-05, 08:44:55
hartware.net hatte in den letzten tag viele falschmeldungen. bisher ist auch nichts bekannt das wirklich die karten zurück gehen zu testzwecken. außerdem ist das eh zuviel aufwand um grakas testen zu können.
Daß einem normalen User&Daddler interne Vorab-Rückrufaktionen/Überprüfungen nicht im TV mitgeteilt werden ist klar, man wills am liebsten geheimhalten.

Man muß diese unbequeme interessante Nachricht leider immer wiederholen, wenn das GT Problem immer weiter schöngeredet wird, bis es als nicht existent von den Fans definiert wird oder am besten gleich als Falschmeldung. :lol: Es zeigt ja, daß NV im Vorfeld von dem unterdimensionierten Kühler mit einem 55mm Lüfterchen wußte und sich unsicher war, ob das überhaupt so releast werden kann. Dann wurde offenbar falsch entschieden nach dem motto "wird schon schiefgehen" weil es sonst zu teuer geworden wäre. Ich werde mir diese Sparversion nun definitiv nicht mehr kaufen.

K4mPFwUr$t
2007-11-05, 08:46:34
das problem ist bei HWL, dass das printed mag viele leute anzieht. zumal man schon genug gestraft ist mit leuten wie hardwarekenner oder hardwareking. sollche leute haben nur dort eine chance zu überleben. das niveau dort geht stück für stück zu grunde.

seahawk
2007-11-05, 08:49:55
Daß einem normalen User&Daddler interne Vorab-Rückrufaktionen/Überprüfungen nicht im TV mitgeteilt werden ist klar, man wills am liebsten geheimhalten.

Man muß diese unbequeme interessante Nachricht leider immer wiederholen, wenn das GT Problem immer weiter schöngeredet wird, bis es als nicht existent von den Fans definiert wird oder am besten gleich als Falschmeldung. :lol: Es zeigt ja, daß NV im Vorfeld von dem unterdimensionierten Kühler mit einem 55mm Lüfterchen wußte und sich unsicher war, ob das überhaupt so releast werden kann. Dann wurde offenbar falsch entschieden nach dem motto "wird schon schiefgehen" weil es sonst zu teuer geworden wäre. Ich werde mir diese Sparversion nun definitiv nicht mehr kaufen.

Der Kühler ist nicht unterdimensioniert - Punkt. Für die Sotckwerte reicht er in den Werkseinstellung in einem üblichen Gehäuse völlig aus.

Eine Prüfung von Fertig-PCs ist bei der Verwendung von High-End_Karten auch keien Neuigkeit mehr, da diese PCs eben ein brauchbares Wärmemanagement brauchen.

Wolfram
2007-11-05, 09:08:37
Die News kommen auf den offiziellen Seiten dann wenn sie öffentlich bekannt sind. was hier und woanders spekuliert wird geniesst der geneigte Leser also von vorherein mit Vorsicht.
Dafür findet man hier oft Infos bevor sie von Herstellern etc bestätigt werden.
gesicherte Informationen kannst du dann 3 Tage später bei Heise lesen :wink:

Heise ist für so etwas wie Grafikhardware nicht speziell genug. News sollte man nicht veröffentlichen, sobald etwas "öffentlich bekannt" ist, sondern nachdem man sie überprüft hat. Und daß der geneigte Leser Spekulationen ganz und gar nicht mit Vorsicht genießt, sondern gerne mal sofort als bare Münze nimmt, kannst Du ja hier im Thread lesen.
Daß einem normalen User&Daddler interne Vorab-Rückrufaktionen/Überprüfungen nicht im TV mitgeteilt werden ist klar, man wills am liebsten geheimhalten.
Wenn es eine Rückrufaktion gäbe, dann würde man sie nicht geheimhalten wollen, wie soll der Kunde denn sonst von der Rückrufaktion erfahren.

Daß nicht jedes Problem gleich öffentlich gemacht wird, ist genauso klar. Nur gibt es hier keine gesicherte Information darüber, daß es überhaupt ein Problem gibt. Forenpostings einzelner User sind für sich genommen nichts wert. Du hast keine Möglichkeit, den Wahrheitsgehalt zu überprüfen. Das relativiert sich, wenn man einzelne User als glaubwürdige Quellen kennt. Um auf eine erhöhte Ausfallquote zu schließen, braucht man aber mehr als fünf oder zehn glaubwürdige User. Objektivierbare Informationen hat sowieso nur der Hersteller selber. So etwas wie eine ADAC-Pannenstatistik für Hardware zusammenzutragen ist schlicht unmöglich.

Man muß diese unbequeme interessante Nachricht leider immer wiederholen, wenn das GT Problem immer weiter schöngeredet wird, bis es als nicht existent von den Fans definiert wird oder am besten gleich als Falschmeldung. :lol:
Hast Du irgendwelche Informationen, die die anderen hier nicht haben? (Das ist eine rhetorische Frage).

Es zeigt ja, daß NV im Vorfeld von dem unterdimensionierten Kühler mit einem 55mm Lüfterchen wußte und sich unsicher war, ob das überhaupt so releast werden kann.
Wo zeigt sich das?

Dann wurde offenbar falsch entschieden nach dem motto "wird schon schiefgehen" weil es sonst zu teuer geworden wäre. Ich werde mir diese Sparversion nun definitiv nicht mehr kaufen.
Du kannst ja gerne weiterspekulieren. Aber verkauf Deine Spekulationen nicht als Fakten.

K4mPFwUr$t
2007-11-05, 09:17:23
der kühler ist nicht unterdimensionert, sondern es gibt eine reihe von fakten die die kühleistung negativ beeinträchtigen. beste beispiel ist die verwendete WLP. :ulol:

Gast
2007-11-05, 09:26:42
Daß einem normalen User&Daddler interne Vorab-Rückrufaktionen/Überprüfungen nicht im TV mitgeteilt werden ist klar, man wills am liebsten geheimhalten.

Man muß diese unbequeme interessante Nachricht leider immer wiederholen, wenn das GT Problem immer weiter schöngeredet wird, bis es als nicht existent von den Fans definiert wird oder am besten gleich als Falschmeldung. :lol: Es zeigt ja, daß NV im Vorfeld von dem unterdimensionierten Kühler mit einem 55mm Lüfterchen wußte und sich unsicher war, ob das überhaupt so releast werden kann. Dann wurde offenbar falsch entschieden nach dem motto "wird schon schiefgehen" weil es sonst zu teuer geworden wäre. Ich werde mir diese Sparversion nun definitiv nicht mehr kaufen.

Interessant das immer die gleichen Leute dabei auftauchen wenn es darum geht die 8800GT Karten schlecht zu reden.:)
Aber es dürften mitlerweile alleine in D mehrere tausend Karten in Benutzung sein, und im HWLuxx sind 4, nicht 5 Karten aus welchen Gründen auch immer defekt. (Bei einem war der Monitor defekt, nicht die Karte - soviel vielleicht
auch mal zum Niveau im HWLuxx). Wieviele sind bisher hier im 3DC defekt ?
Meine Güte, die Karten gibts jetzt gerade mal eine Woche und keiner von euch
'Bashern' hat eine solche in seinem System - kann aber bestens beurteilen wie billig die Karten produziert wurde . . . ^^
Was glaubt ihr denn was für ein Ansturm an frustrierten Usern los wäre, wenn wirklich viele Karten direkt nach Kauf gestorben wären ?. . . gerade im Luxx. Aber bei 4 Leuten ? . . . und daraus zu schließen das die Fertigungsqualität mies ist und Nvidia 'mal wieder Mist gebaut hat' . . . das is einfach nur lächerlich und lässt die Vermutung zu, das da eher der Wunsch Vater des Gedankens ist.

Ebenfalls interessant finde ich die Tatsache das mitlerweile keiner der 8800GT 'basher' mehr die (fehlende?) Phase als das Problem ansieht, weil man wohl doch eingestehen muss das man schlicht zu wenig Ahnung hat sowas zu beurteilen.

Ich bin halt immer wieder überrascht wie eine Karte diesen Preisgefüges, die im Moment doch ein spitzenmäßiges P/L Verhältnis bietet, und das kann eigentlich keiner ernsthaft bestreiten, dermaßen polarisiert.

Gast
2007-11-05, 09:50:31
Verdammt!! Jetzt hats mich auch erwischt!!!

Hab heute nacht geträumt ich hätte eine 8800GT und die ist in einer riesigen Rauchwolke einfach so @default abgeraucht. Beim Zusammenfegen der Reste fiel mir dann auf dass eine Phase fehlte, keine Ahnung wo die geblieben ist! Sie fehlt aber auf jeden Fall! Also passt auf, nicht dass es euch auch so geht!

Muss ich gleich mal bei Luxx posten.

Razor
2007-11-05, 10:36:03
That's it!
:ulol:

Mehr ist dazu einfach nicht zu sagen...
Und gegen Fakten-Resitente User ist halt kein Kraut gewachsen.

Razor

Gast
2007-11-05, 10:51:20
Also wenn man mal rüberschaut zu XS und sich mal die Overvolt sachen zu gemüte führt da wird die Gpu mit 1.5 volt befeuert und mal so eben auf 850 mhz und 2xxx mhz Shader hochgetaktet und bis jetzt ist da auch noch keine durchgebrannt sagt schon mal was über die Qualität des Boards aus und das auch die verbauten Phasen volkommen aussreichend sind.
Viele der Hwluxx user haben 0 plan was sie da eigentlich machen so nach dem Motto "ich muss den neuen Hwluxx overclocking rekord aufstellen, wie geht das ?" (ist jedenfalls mein Eindruck), aber dabei ist noch keine GT den bach runter gegangen (den heutigen schutzmechanismen sei dank).
Und die News mit der Überprufüng ist schon minimum 2 woche her (guten morgen ;D)

dropback
2007-11-05, 11:16:48
...Und die News mit der Überprufüng ist schon minimum 2 woche her (guten morgen ;D)
Es sind sogar 4 Wochen (06.10.07)...
Und das wurde ihm schon bei CB, im Luxx und hier mehrmals gesagt, jedes mal wenn er das gleiche wieder gepostet hat.
Aber da kommt dann halt ein anderer, viel wichtigerer Faktor ins Spiel...

Und gegen Fakten-Resitente User ist halt kein Kraut gewachsen.

Das ist nämlich der Punkt, leider
:wink:

Gast
2007-11-05, 12:10:35
Wieviele Leute hier haben denn überhaupt wirklich eine 8800GT? Scheinen mir nicht allzuviele zu sein, sind immer die gleichen die hier eigene Erfahrungen posten. 4 oder 5?

Gast
2007-11-05, 14:29:53
Möchte nicht wissen wie viele von den Bashern eine HD2900 Pro oder XT haben und sich nun ärgern, daß die 8800GT beide Karten von der Leistung her gegen die Wand drückt.

Und Leute, die jeden Tag dieselbe alte News (hartware) posten obwohl es weniger eine News als viel mehr eine Spekulation war und es dann noch schon längst Gegennews gibt (CB), müssen wohl schon leicht paranoisch sein.

Schrotti
2007-11-05, 16:17:41
Ich habe eine 8800GT und diese funktioniert, trotz Übertaktung, noch immer einwandfrei.

Habe auch diverse Benchdurchläufe gemacht um einen vergleich zu meiner vorherigen 8800GTS 640 zu bekommen.

Müsste das nur noch in die richtige Form bringen aber hab gerade keinen Bock weil erkältet.

Peter - HT4U
2007-11-05, 23:01:56
Leider sind hier wirklich, von Begin an und in Folge zu viele Beiträge gelaufen, die in Richtung "schlecht machen" gedeutet werden. Dieser Kühler - insbesondere der Lüfter - hat durchaus mächtiges Potential - a) zur Kühlung, b) zum Radau.

Sollten die programmierten Schwellwerte tatsächlich erreicht werden, dreht der Lüfter hoch, wenn es sein muss bis zu seinem Maximum. Dann ist das Teil wirklich nur noch scheiße. Fakt bleibt, dass die bisherigen Kühlkonstrukte auf NV 88xx tatsächlich genial leise waren - Fakt ist auch, dass dieser Kühler das nicht kann.

Die von "gast" angesprochenen Sommermonate im Gehäuse werden kommen und der Lüfter wird zeigen, was er "drauf hat". Und er wird das bewältigen, aber schön wird es nicht, wenn er wirklich zur Sache geht. Jeder der hier anwesenden Besitzer einer 8800 GT wird bestätigen, was das Lüfterchen beim direkten Start an Radau-Potential besitzt.

Falsch sind die Anmerkungen hinsichtlich des Pads, zumindest die meisten. Es gab hier ein paar Ansätze die das vernünftig zu erklären versuchten - diese Erklärungen treffen zu. Selbst mit einer AC S5 werden die Temperaturen nicht besser. Der Anpressdruck des Kühlers bleibt der gleiche, man kann die Schrauben eben nur so fest ziehen, wie diese das zulassen.

Schlimmer: zu dünn aufgetragene Paste, gar flüssige Silberpaste oder Siliconpaste verschlechtern das Ergebnis so drastisch, dass der Lüfter erst einmal zeigt, was in ihm steckt.

Empfehlung an alle Besitzer: lasst die Finger vom Entfernen des Pads. Es leistet mindestens so gute Dienste wie AC S5.

Gruß

ein seltener Gast ;)

Gast
2007-11-06, 15:26:13
Wenn der Standardlüfter gegen einen anderen (à la Accelero S1+Lüfter oder Zalman VF1000) gewechselt wird ist es sowieso unerheblich, ob neue Wärmeleitpaste 3 oder 4 Grad schlechter ist als die werksseitig aufgetragene. Denn durch den neuen Kühler vermindert sich die Temperatur im Idle um ~ 10 Grad und unter Last (wenn der Stocklüfter 30-40 % dreht und die Temp. sich 90 Grad nähert) um ~ 35-40 Grad ;)

Gast
2007-11-06, 16:01:53
Warum sollte man den Kühler denn wechseln, ich denke die Temperaturen sind alle sooooooooo normal :)

K4mPFwUr$t
2007-11-06, 16:30:03
@Peter - HT4U
bezieht sich deine erfahrung nur auf die paste die man von den 8800ern kennt oder allgemein?
den letzteres kann ich nicht bestätigen. zumal der sinn einer WLP darin besteht nicht die wärme von DIE zu kühler transportieren zu müssen, sondern ledeglich einen glatten übergang zu ermöglichen. denn wenn man deiner aussage folgt, ist billige 0815 WLP in massen besser als alles andere was man kennt.

die aussage mit dem lüfter kann ich dagegen nur unterschreiben :)

Gast
2007-11-06, 19:00:48
Hier mal die Wärmeleitfähigkeiten von Luft, Wärmeleitpaste, Aluminium und Kupfer:

Spezifische Wärmeleitfähigkeiten verschiedener Materialien
Material Wärmeleitfähigkeit:

Luft 0,025 W/mK
Wärmeleitpaste bis zu 9 W/mK
Aluminium 220 W/mK
Kupfer 384 W/mK

Wie man schön sieht liegt die Wärmeleitfähigkeit der Wärmeleitpaste weit über der von Luft, aber auch weit unter der von Aluminium und Kupfer. Da die Wärmeleitpaste dazu dient, durch Unebenheiten im Die bzw. Kühlerboden entstehende Lufteinschlüße zu verhindern, sollte diese möglichst dünn aufgetragen werden. Wird die Paste sehr dick aufgetragen werden nicht nur die Vertiefungen aufgefüllt, sondern die Paste legt sich komplett zwischen Kühler und Die. Da die Paste aber die Wärme wesentlich schlechter leitet als das Metall des Kühlers, steigt die Temperatur des Dies.

Dieses Faktum konnte ich schon einige Male selbst beobachten, als nachdem Austausch der Original-Wärmeleitpads von boxed Kühlern durch 0815 Wärmeleitpaste die Temperatur um 8-10° zurückging. Wärmeleitpads oder auch diese zähe Paste wie bei der 8800GT werden nur wegen dem besserem Handlings während der Montage verwendet.

Jeder der etwas anderes behauptet hat es noch nicht selbst getestet.

Peter - HT4U
2007-11-06, 20:54:44
@Peter - HT4U
bezieht sich deine erfahrung nur auf die paste die man von den 8800ern kennt oder allgemein?
den letzteres kann ich nicht bestätigen. zumal der sinn einer WLP darin besteht nicht die wärme von DIE zu kühler transportieren zu müssen, sondern ledeglich einen glatten übergang zu ermöglichen. denn wenn man deiner aussage folgt, ist billige 0815 WLP in massen besser als alles andere was man kennt.

die aussage mit dem lüfter kann ich dagegen nur unterschreiben :)

Wie kommst du denn darauf - oder überhaupt irgendeiner hier im Thread, dass NVIDIA (oder ATI/AMD) bei ihren Pads billige Pasten verwendet haben? Einer in diesen 8 Seiten Thread (ja, ich habe mal komplett gelesen ^^) hat die sogar korrekt definiert.

Ich habe lediglich - weil ich die Möglichkeit habe / hatte - mal kurz den Beweis antreten wollen, dass das Pad was taugt. Im übrigen sind die "drei Streifen" Pads auf den derzeitigen Intel boxed Modellen ebenfalls nicht zu verachten. Aber das spielt hier jetzt mal keine Rolle.

Gruß
Peter

Doc Chaos
2007-11-06, 21:25:17
So, hab meine MSI 8800GT OC mal unter Volllast gesetzt: geht nicht über 85°C. Sitzt allerdings auch in einem ordentlich belüfteten Gehäuse, 120er vorne, 120er hinten, 120er in der Seite, dreht sich alles schön silent :) Und sobald die last aufhört ist die GPU in 10 Sekunden wieder bei 70°C, ohne das man den Lüfter je hört.

Gast
2007-11-09, 12:29:00
Doch keine defekten 8800GT:

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1475294/nvidia.html

Gast
2007-11-09, 12:36:02
Doch keine defekten 8800GT:

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1475294/nvidia.html

Na da ist ja HardOCP in die Bresche gesprungen und den Ruf von NV geradegerückt. Thx Hard. :ulol:

maddawn
2007-11-09, 12:39:27
Doch keine defekten 8800GT:

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1475294/nvidia.html

war eh klar

aber bei meinem Kollegen gibts wie ich schon schrieb im Auslieferungszustand Bildfehler (Speicher) er hat die Lüfterdrehzahl erhöht dadurch läuft die Karte fehlerfrei -sowas sollte eigentlich auch nicht vorkommen

Wolfram
2007-11-09, 13:03:02
Doch keine defekten 8800GT:

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1475294/nvidia.html
Interessant finde ich die Anmerkung der Gamestar selbst: "Inzwischen wurde auch klar, das die meisten der entsprechenden Threads in diversen Foren von der gleichen Person in Umlauf gesetzt wurden." Woher auch immer die das so genau wissen wollen...

Gast
2007-11-09, 14:19:35
Können sie garnicht wissen, insofern ist die Aussage der Gamestar genauso manipulativ wie den hypothetischen "einen User", den sie anprangern.

Coda
2007-11-09, 14:23:47
Naja. Man kann die IP-Adresse zumindest einem Provider zuordnen. Und wenn das immer der gleiche ist, dann wäre es zumindest mal sehr verdächtig.

Gast
2007-11-09, 14:25:17
Woher haben sie die IP-Adressen dieses Users aus verschiedenen Foren? Die Aussage könnte sich also höchstens auf ihre eigenes Forum beziehen, sofern sie eins haben, keine Ahnung.

Gast
2007-11-09, 14:52:51
Woher haben sie die IP-Adressen dieses Users aus verschiedenen Foren?


Kontakte zu den Betreibern verschiedener Foren?

Gast
2007-11-09, 14:54:27
Datenschutz?

Razor
2007-11-09, 15:08:20
Doch keine defekten 8800GT:

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1475294/nvidia.html
Hehe... ja.

15 von 50.000 sind exakt 0,03%.
Damit liegt sie sogar noch ausgesprochen gut!

Hoffentlich bringt das dieses "Phasen-Gequatsche" endlich mal zur Ruhe.

aber bei meinem Kollegen gibts wie ich schon schrieb im Auslieferungszustand Bildfehler (Speicher) er hat die Lüfterdrehzahl erhöht dadurch läuft die Karte fehlerfrei -sowas sollte eigentlich auch nicht vorkommen
Produktionsstreuung in der Qualität.
Zurück damit und neue her und schon ist's gut.

Kann immer passieren und liegt ganz sicher nicht an dem Design der 8800GT.
(eher an der QS des Herstellers der Karte, bzw. an der des Retailers)

@all

Das mit dem "Single-User-Theorem" würde ich nicht so ernst nehmen. Wenn dies aber tatsächlich auf Fakten basiert, dann hat das auch nicht wirklich etwas mit "Datenschutz" zu tun, weil zu der IP-Adresse ja wohl kaum die reale Person ermittelt wurde. Und mit "statistischen Daten" kann ich als Betreiber machen, was ich will...

Razor

Gast
2007-11-09, 15:11:30
Bin mir nicht so sicher ob z.B. der Betreiber dieses Forums so einfach IPs an irgendwelche Leute herausgeben dürfte. Oder der Betreiber vom Luxx, um beim Thema zu bleiben, hehe... ;D

Razor
2007-11-09, 15:22:20
Bin mir nicht so sicher ob z.B. der Betreiber dieses Forums so einfach IPs an irgendwelche Leute herausgeben dürfte. Oder der Betreiber vom Luxx, um beim Thema zu bleiben, hehe... ;D
Natürlich 'darf' er es... er muss es aber nicht.
Ist aber echt OT, diese Thematik.

Razor

Gast
2007-11-09, 15:25:30
Beweis durch Behauptung?

Razor
2007-11-09, 15:38:22
Beweis durch Behauptung?
Hast Du irgend etwas Schriftliches von auch nur einem Foren-Betreiber?
Nein? Dann hast Du überhaupt KEINE Privatsphäre!

Du aber hast bei JEDEM Forum, welches eine Registrierung erfordert, einen Katalog an Einverständniserklärungen abgegeben, an die DU Dich halten musst. Der Forenbetreiber muss letztlich nur dem lokalen Gesetzt genüge tun, indem er dafür sorgt, dass nicht zugelassene Inhalte auch nicht propagandiert ("veröffentlicht") werden...

DU, als Foren-Teilnehmer hast lediglich Pflichten, aber keine Rechte.
(OK, ein Recht, denn Du kannst ja Foren fern bleiben ;-)

Nun ist aber schluss, denn es ist wirklich OT hier.
Wenn Dich das Thema interessiert, dann kannst Du dieses bitte im zugehörigen Unterforum diskutieren...
(auch wenn Du Dich dafür anmelden musst ;-)

Razor

syronth
2007-11-09, 15:52:37
Interessant finde ich die Anmerkung der Gamestar selbst: "Inzwischen wurde auch klar, das die meisten der entsprechenden Threads in diversen Foren von der gleichen Person in Umlauf gesetzt wurden." Woher auch immer die das so genau wissen wollen...

Vielleicht war er so clever und hat die Behauptung per Copy&Paste verbreitet, bzw. nur minimal variiert. ;)

Gast
2007-11-09, 16:15:29
Datenschutz?


Gilt nur für personenbezogene Daten und dazu zählt eine IP-Adresse nicht.

Gast
2007-11-09, 17:56:03
Viel Wind um nichts, da war bei Einführung des G80 aber mehr Trouble angesagt. Falsche BIOS Versionen und nen Kondensator der die ganze Graka weggeschossen hat. Da war doch ne ganze Lieferung von ASUS zurück gegangen.

Matrix316
2007-11-09, 20:04:26
Defekt oder net, warum wird eine Karte die zig Watt weniger verbraucht trotzdem so heiß? Wurde das hier schon geklärt? :redface:

Oder ist durch einen kleineren Die die Wärmeabgabe pro Fläche dann größer, obwohl weniger insgesamt verbraucht wird?

LovesuckZ
2007-11-09, 20:09:28
Defekt oder net, warum wird eine Karte die zig Watt weniger verbraucht trotzdem so heiß? Wurde das hier schon geklärt? :redface:

Weil der Kühler und der Lüfter wesentlich kleiner sind? :rolleyes:


Oder ist durch einen kleineren Die die Wärmeabgabe pro Fläche dann größer, obwohl weniger insgesamt verbraucht wird?

So klein ist die Fläche nicht. ca. 320mm² sollten für eine ausreichende Flächen genügen.

seahawk
2007-11-09, 20:19:58
Defekt oder net, warum wird eine Karte die zig Watt weniger verbraucht trotzdem so heiß? Wurde das hier schon geklärt? :redface:



Weil der Kühler so ausgelegt wurde, dass er lesie sein soll und dem Chip es egal ist ob er 83°C warim ist oder 91°C.

Matrix316
2007-11-09, 20:24:15
Wie siehts denn ohne Kühler aus? Der Verbrauch hat doch nichts mit der Art des Kühlers zu tun. Dieser soll ja nur die Wärme abführen, die im Chip entsteht. Und wenn ein Chip weniger Strom verbraucht sollte er doch auch nicht so heiß werden UND auch keinen so großen Kühler brauchen...

Nochmal die Frage: Warum wird der Chip trotz weniger Verbrauch so heiß, dass der Kühler nicht ausreichend ist? Normalerweise ist doch das allgemeine Elektronik Motto: Weniger Strom - weniger Hitze vs mehr Strom - mehr Hitze. Aber weniger Stromverbrauch (als eine GTS) und trotzdem mehr (oder gleich viel) Hitze (als eine 8800GTS) ???

LovesuckZ
2007-11-09, 20:34:38
Wie siehts denn ohne Kühler aus? Der Verbrauch hat doch nichts mit der Art des Kühlers zu tun. Dieser soll ja nur die Wärme abführen, die im Chip entsteht. Und wenn ein Chip weniger Strom verbraucht sollte er doch auch nicht so heiß werden UND auch keinen so großen Kühler brauchen...

Je besser die Kühlung, umso geringer die Temperatur. Der 8800GT Kühler ist wesentlich kleiner als der der 8800 Karten.


Nochmal die Frage: Warum wird der Chip trotz weniger Verbrauch so heiß, dass der Kühler nicht ausreichend ist? Normalerweise ist doch das allgemeine Elektronik Motto: Weniger Strom - weniger Hitze vs mehr Strom - mehr Hitze. Aber weniger Stromverbrauch (als eine GTS) und trotzdem mehr (oder gleich viel) Hitze (als eine 8800GTS) ???

Dafür müsste auf beiden Karten der exakt gleiche Kühler draufsein. Die Coretemperatur sagt überhaupt nichts aus. Nimm doch die IDLE Temperaturen. Die beträgt bei der 8800GT ca. 56° und bei der 8800GTX ca. 70°.

seahawk
2007-11-09, 20:52:41
Wie siehts denn ohne Kühler aus? Der Verbrauch hat doch nichts mit der Art des Kühlers zu tun. Dieser soll ja nur die Wärme abführen, die im Chip entsteht. Und wenn ein Chip weniger Strom verbraucht sollte er doch auch nicht so heiß werden UND auch keinen so großen Kühler brauchen...

Nochmal die Frage: Warum wird der Chip trotz weniger Verbrauch so heiß, dass der Kühler nicht ausreichend ist? Normalerweise ist doch das allgemeine Elektronik Motto: Weniger Strom - weniger Hitze vs mehr Strom - mehr Hitze. Aber weniger Stromverbrauch (als eine GTS) und trotzdem mehr (oder gleich viel) Hitze (als eine 8800GTS) ???

Wenn der Kühler aber mehr Wärme abführen kann, dann wird der Chip auch weniger heiss. Der GT Kühler ist primär aus Alu und hat wenige und kleine Fins. Kein Vergleich bei der nutzbaren Pberfläche zum Kühler einer 8800GTS.

Matrix316
2007-11-09, 21:02:41
Also wäre die Temperatur (Load) bei gleichem Kühler dann doch niedriger als bei der GTS? Bzw. die GTS wäre mit dem GT Kühler noch heißer? Dann wäre ja alles geklärt. ;)

seahawk
2007-11-09, 21:20:51
So siehts aus. :)

Palpatin
2007-11-10, 02:45:30
Defekt oder net, warum wird eine Karte die zig Watt weniger verbraucht trotzdem so heiß? Wurde das hier schon geklärt? :redface:

Oder ist durch einen kleineren Die die Wärmeabgabe pro Fläche dann größer, obwohl weniger insgesamt verbraucht wird?

Ähm 1-Slot Kühler GT vs 2-Slot Kühler GTX/GTS sollte eigentlich klar sein warum sie trotz weniger Watt genau so Warm wird.
Ups wurd schon mehrfach beantwortet sorry.......... Meine GTS wird jedenfalls trotz sehr gut belüftetem Gehäse auch so um die 90 Grad warm im übertakteten Zustand.

Razor
2007-11-10, 11:13:24
Auch wenns hier schon gesagt wurde...

Warum wird der Chip trotz weniger Verbrauch so heiß, dass der Kühler nicht ausreichend ist?
Der Kühler ist sogar ABSOLUT ausreichend!
Woher nimmst Du diesen Trugschluss?
:confused:

HT4U hat es gerade wieder hinreichend dargelegt: der Kühler reicht!
(wird aber unter extremen Bedingungen laut)

Und - was viel wichtiger ist - es ist ein Single-Slot-Design im Vergleich zu den bisherigen G80-Lösungen bei mehr Transistoren und höherem Takt. Dafür ist die erreichte Temepratur (die von nVidia offenbar so erwünscht ist) absolut akzeptabel.

Nimm doch die IDLE Temperaturen. Die beträgt bei der 8800GT ca. 56° und bei der 8800GTX ca. 70°.
Danke.

Und da dieser Phasen-Dünnfug ja nun auch endlich vom Tisch ist, sollte man sich vielleicht anderen Kritikpunkten widmen...
...wenn es denn überhaupt welche gibt.

Razor

Gast
2007-11-10, 11:22:57
Und da dieser Phasen-Dünnfug ja nun auch endlich vom Tisch ist, sollte man sich vielleicht anderen Kritikpunkten widmen...
...wenn es denn überhaupt welche gibt.

Ja zb. eine 1GiB Version für unter 250€ verfügbar. :)

Razor
2007-11-10, 11:58:07
Ja zb. eine 1GiB Version für unter 250€ verfügbar. :)
:up:

Bei mindestens gleicher Taktung und gleichen Latenzen natürlich... ;)

Razor

Matrix316
2007-11-10, 13:53:07
Auch wenns hier schon gesagt wurde...


Der Kühler ist sogar ABSOLUT ausreichend!
Woher nimmst Du diesen Trugschluss?
:confused:

Naja, 90° Last und mehr ist ja nicht unbedingt vertrauenerweckend.

HT4U hat es gerade wieder hinreichend dargelegt: der Kühler reicht!
(wird aber unter extremen Bedingungen laut)

Und - was viel wichtiger ist - es ist ein Single-Slot-Design im Vergleich zu den bisherigen G80-Lösungen bei mehr Transistoren und höherem Takt. Dafür ist die erreichte Temepratur (die von nVidia offenbar so erwünscht ist) absolut akzeptabel.



Single Slot sehe ich nicht unbedingt so als Vorteil, besonders, wenn der Kühler die Abluft nach vorne bläst und so gegen die Slotblende der Karte geht und nicht unbedingt raus aus dem Gehäuse. Da nehm ich lieber zwei Slots in Kauf und die Luft geht wirklich raus. Außerdem sind bei Größeren Kühlern die Lüfter größer und können langsamer drehen und werden nicht so laut. :)

Adam D.
2007-11-10, 14:48:15
Naja, 90° Last und mehr ist ja nicht unbedingt vertrauenerweckend.
Das Ding soll so heiß werden. Wie oft denn noch? Der Kühler ist so gebaut, dass die Karte ständig auf ~90°C gehalten wird. Die Nvidia-Techniker wissen schon, was sie der Karte zutrauen können und was nicht. Und diese 90°C sind wohl als ausreichend angesehen worden. Unter Last alles natürlich. Dafür ist das Ding total leise, quasi nicht wahrnehmbar.

Gast
2007-11-10, 14:56:45
Was heiss da "soll so heiß werden", das hast du aber schön von der nVidia Propagandamaschinerie abgeschrieben, das klingt so schön positiv, als ob die Karte bei 90°C++ sich erst so richtig wohlfühlt und so garnicht danach, als ob bei solchen Temperaturen Bauteile unvermeidlich schneller altern. Aber wozu Physik, wenn man mit simplem Marketingblablubb die Kiddies schön gehirnwaschen kann, nech.

Fakt ist die haben einen absoluten Schrottkühler eingekauft, Hauptsache billig, billig und dann noch billig. Und damit man das Ding überhaupt aushalten kann muss er soweit gedrosselt werden dass die Karte knapp an der Kernschmelze betrieben wird (ab 100°C wird runtergetaktet - kritische Temperatur!). Karte altern schneller? Wen juckts, in einem Jahr ist eh eine andere Karte drin... Hier wird Schrott als Feature verkauft und die Masse mekts nichtmal und verteidigt das auch noch, zum Brüllen komisch.

LovesuckZ
2007-11-10, 15:15:02
Und wo liegt der Unterschied zwischen 92° und 85°? :rolleyes:

Adam D.
2007-11-10, 15:25:16
Ach, ich könnt mich über dieses Schlechtgerede amüsieren :) Jungs, ihr seid klasse. Entert Nvidia und erklärt ihnen, dass sie Schrott verbaut haben. Und in genau einem Jahr explodieren alle unsere 8800GTs. So ein Mist aber auch :ulol:

Spasstiger
2007-11-10, 15:29:00
Und wo liegt der Unterschied zwischen 92° und 85°? :rolleyes:
85°C sind doppelt soweit von der zugelassenen Temperatur entfernt wie 92°C.

Gast
2007-11-10, 15:34:25
Eine bekannte Tatsache (gut, bei Fankiddies vielleicht nicht...) ist auch daß die Lebensdauer von Komponenten (ich denke hier jetzt auch an die Kondensatoren) sich je 10K Temperaturerhöhung halbiert. Auch wenn die Karte bei 95°C gut läuft heisst das noch lange nicht daß diese Temperatur zu begrüssen ist. Macht euch mal bisschen von eurer Fanbrille frei.

Gast
2007-11-10, 15:37:21
Fakt ist die haben einen absoluten Schrottkühler eingekauft, Hauptsache billig, billig und dann noch billig. Und damit man das Ding überhaupt aushalten kann muss er soweit gedrosselt werden dass die Karte knapp an der Kernschmelze betrieben wird (ab 100°C wird runtergetaktet - kritische Temperatur!). Karte altern schneller? Wen juckts, in einem Jahr ist eh eine andere Karte drin... Hier wird Schrott als Feature verkauft und die Masse mekts nichtmal und verteidigt das auch noch, zum Brüllen komisch.
In dem Preissegment wird auch AMD nicht viel anderes übrig bleiben, weil man "für DX10" nunmal ziemlich fette Chips braucht - da muss eben woanders gespart werden. Und das sind in dieser Generation die Kühler.


Q

Gast
2007-11-10, 15:37:49
Und wo liegt der Unterschied zwischen 92° und 85°? :rolleyes:

Spielst Du auf die G80 an? Diese Karten wurden in 90nm gefertigt und haben eine kritische Temperatur von 125°C. Der G92 lässt die Alarmsirenen schon bei 100°C schrillen!

Mit der G80 bist du also bei 85°C noch 40K von der kritischen Temperatur entfernt, beim G92@92°C sind das nur noch 8K!

Gast
2007-11-10, 15:39:11
Eine bekannte Tatsache (gut, bei Fankiddies vielleicht nicht...) ist auch daß die Lebensdauer von Komponenten (ich denke hier jetzt auch an die Kondensatoren) sich je 10K Temperaturerhöhung halbiert. Auch wenn die Karte bei 95°C gut läuft heisst das noch lange nicht daß diese Temperatur zu begrüssen ist. Macht euch mal bisschen von eurer Fanbrille frei.
Da ist aber einer ganz schlau. :)
Dann müsste das ganze Zeug ja bei 0K ziemlich lange halten, oder?

Vielleicht kennst du ja sogar die vollständige Weisheit, die du so gekonnt gekürzt in deinen Worten versteckt hast...?

Gast
2007-11-10, 15:39:13
In dem Preissegment wird auch AMD nicht viel anderes übrig bleiben, weil man "für DX10" nunmal ziemlich fette Chips braucht - da muss eben woanders gespart werden. Und das sind in dieser Generation die Kühler.


Keine Frage.

LovesuckZ
2007-11-10, 17:32:29
85°C sind doppelt soweit von der zugelassenen Temperatur entfernt wie 92°C.

Der Kühler der 8800GTX wird unter Last lauter als der der 8800GT. Aber darum ging es nicht. Warum seien 85° bei der 8800GTX in Ordnung und 92° bei der 8800GT, die mit wesentlich geringeren Mitteln erreicht werden, nicht? :confused:

Eine bekannte Tatsache (gut, bei Fankiddies vielleicht nicht...) ist auch daß die Lebensdauer von Komponenten (ich denke hier jetzt auch an die Kondensatoren) sich je 10K Temperaturerhöhung halbiert. Auch wenn die Karte bei 95°C gut läuft heisst das noch lange nicht daß diese Temperatur zu begrüssen ist. Macht euch mal bisschen von eurer Fanbrille frei.

Die 8800GTX wird im IDLE Modus wesentlich wärmer als die 8800GT. Du kommst mit deiner Kritik also fast ein jahr zu spät.

Mit der G80 bist du also bei 85°C noch 40K von der kritischen Temperatur entfernt, beim G92@92°C sind das nur noch 8K!

Automatische Lüftersteuerung.

-/\-CruNcher-/\-
2007-11-10, 18:43:00
In dem Preissegment wird auch AMD nicht viel anderes übrig bleiben, weil man "für DX10" nunmal ziemlich fette Chips braucht - da muss eben woanders gespart werden. Und das sind in dieser Generation die Kühler.


Q
Sorry aber da liegst du Falsch, oder sieht das für dich nach sparen aus?
http://i9.tinypic.com/82jok1t.jpg

Und das beste 10° C Kühler als die 8800 GT und dadurch leiser, also nix mit sparen bei der Kühlung.

Gast
2007-11-10, 18:44:37
Kühler mag sein, sieht auch besser aus, aber mit leiser wollen wir lieber mal die ersten Erfahrungsberichte abwarten, AMDs 2-slot-Kühler waren bisher für alles mögliche berühmt aber nicht für ihre leise Gangart ;D

Razor
2007-11-10, 19:49:31
Was heiss da "soll so heiß werden", das hast du aber schön von der nVidia Propagandamaschinerie abgeschrieben, das klingt so schön positiv, als ob die Karte bei 90°C++ sich erst so richtig wohlfühlt und so garnicht danach, als ob bei solchen Temperaturen Bauteile unvermeidlich schneller altern. Aber wozu Physik, wenn man mit simplem Marketingblablubb die Kiddies schön gehirnwaschen kann, nech.
Lesen und Lernen... kommt halt davon wenn man immer wieder Unfug wiederholt.

Die Karte hat eine ambient Temp von etwa 67° maximal... DAS ist die Temperatur, die auf die anderen Bauteile 'wirkt'. Und DAS ist auch eine Temperatur, die den anderen Bauteilen NICHTS ausmacht.

Jetzt endlich verstanden?
Mann, mann, mann...

Und wenn Du tatsächlich der Meinung bist, dass da irgendwelche "Alarmsirenen schrillen", wenn 100° erreicht werden, dann tust Du mir leid. Der Kühler und die zugehörige Lüftersteuerung ist so konstruiert, dass diese 100° gar nicht erreicht werden können. Sollte dies doch der Fall sein, ist der Lüfter kaputt (oder die Karte in 'ner Plastiktüte) und dann gibt's 'ne Notabschaltung (des 3D-Modus)... das ist richtig.

In dem Preissegment wird auch AMD nicht viel anderes übrig bleiben, weil man "für DX10" nunmal ziemlich fette Chips braucht - da muss eben woanders gespart werden. Und das sind in dieser Generation die Kühler.
Hi Quasar,

nach Aussage von HT4U ist der Kühler bei weitem nicht schlecht und tut genau das, wofür er konstruiert wurde... er hält die core temp bei maximal 90-92° und das bei sehr guter Abführung der Wärme. Sicher ist er günstiger konstruiert, als die Monster-Kühler der G80, die vermutlich bei dem 90nm-Prozess auch absolut unabdinglich sind. Aber dafür ist die Karte auch 'ne ganze Ecke günstiger, hat bei höherem Transistor-Count eine wesentlich geringere Abwärme und ist zudem noch reicher an Features, als die 'Vorgänger'. Was will man also mehr?

Wer 'ne "vernünftige" Kühlung haben will ('gerne' auch Dual/Triple-Slot ;-) soll halt warten und auf Hersteller-Lösungen setzen, die er dann aber auch bezahlen muss.

Razor

Gast
2007-11-10, 19:51:31
LOL, Razor, nenn dich doch bitte in Fanboy #1 um, dann wissen wenigstens auch die Neulinge was sie von deinen Postings erwarten sollten :D

Gast
2007-11-10, 19:53:22
Sorry aber da liegst du Falsch, oder sieht das für dich nach sparen aus?
http://i9.tinypic.com/82jok1t.jpg

Und das beste 10° C Kühler als die 8800 GT und dadurch leiser, also nix mit sparen bei der Kühlung.
Warte einfach Lasttemperatur der HD3850 mal ab. :)

Und was die HD3870 angeht:
http://www.theinquirer.net/gb/inquirer/news/2007/11/08/amd-tells-partners-focus-3850
Sieht nicht grad nach einem Massenprodukt aus. X700 XT anyone?

Razor
2007-11-10, 19:55:45
LOL, Razor, nenn dich doch bitte in Fanboy #1 um, dann wissen wenigstens auch die Neulinge was sie von deinen Postings erwarten sollten :D
Wenn Du meinst...
Argumente gibt's dann halt keine von Dir - wundert mich auch nicht.
:rolleyes:

Razor

Gast
2007-11-10, 20:03:00
Warte einfach Lasttemperatur der HD3850 mal ab. :)

Und was die HD3870 angeht:
http://www.theinquirer.net/gb/inquirer/news/2007/11/08/amd-tells-partners-focus-3850
Sieht nicht grad nach einem Massenprodukt aus. X700 XT anyone?
^^ auch ich.



Hi Quasar,

nach Aussage von HT4U ist der Kühler bei weitem nicht schlecht und tut genau das, wofür er konstruiert wurde... er hält die core temp bei maximal 90-92° und das bei sehr guter Abführung der Wärme. Sicher ist er günstiger konstruiert, als die Monster-Kühler der G80, die vermutlich bei dem 90nm-Prozess auch absolut unabdinglich sind. Aber dafür ist die Karte auch 'ne ganze Ecke günstiger, hat bei höherem Transistor-Count eine wesentlich geringere Abwärme und ist zudem noch reicher an Features, als die 'Vorgänger'. Was will man also mehr?

Wer 'ne "vernünftige" Kühlung haben will ('gerne' auch Dual/Triple-Slot ;-) soll halt warten und auf Hersteller-Lösungen setzen, die er dann aber auch bezahlen muss.

Razor
Ahoi Razorle,

Ich sage ja nicht, dass der Kühler schlecht ist - denn das ist er genausowenig wie der der HD3850/70 - nur sind die jetzigen "Mid"-Range-Karten eben ein komplett anderes Kaliber als jemals zuvor. Das PCGH-Video (mittlerweile funkioniert sogar die Flash-Version :rolleyes:) hast du ja gesehen - Reserven hat er noch genug, wird dann nur ziemlich laut. Der G80-Kühler bringt mehr Wärme weg und bleibt dabei unter Last leiser und vor allem "angenehmer". Unter Volllast ist das nur ein deutlich wahrnehmbares Rausch, kein schrilles Pfeifen (8800GT, 7900GT, 7600 GT) oder kerniges Dröhnen (Radeon X850/X1800/X1900/HD2900).

Für High-End-Modelle hat man es seit langem mehr oder weniger murrend in Kauf genommen, dass die Dinger trotz ziemlich aufwendiger Kühlkonstruktionen ziemlich warm wurden. Nun haben wir einen Performance-Mainstream, welcher mehr Transisotren aufweist, als die High-End-Karten (bzw. beinahe soviel im Falle von AMD). Deren Wärme muss halt auch weg und das kriegt man eben nicht mehr für den Preis der Kühlung vergangener Generationen.

Darum ist hier ein bißchen Gewöhnung an die neue Situation nötig.

Zur HD3870: Was AMD hier am Chip günstiger fährt, geben sie möglicherweise für die Kühlung wieder aus, zumindest wirkt der Kühler kostenintensiver als die von HD3850 und 8800GT.


Q

Adam D.
2007-11-10, 20:16:32
Habe meine GT nun auf 700/1700/1000 und muss zugeben, dass der Lüfter da unter Last schon mächtig los legt ... Kein Wunder, die Karte wird deutlich heißer und der Lüfter muss mehr arbeiten, um die 92°C zu halten. Im Idle ist sie aber weiterhin fast unhörbar. Und auch unter Last stellt sie kein Vergleich zu meiner Ex-7900GT dar ;)

Razor
2007-11-10, 20:28:11
Ahoi Razorle,

Ich sage ja nicht, dass der Kühler schlecht ist - denn das ist er genausowenig wie der der HD3850/70 - nur sind die jetzigen "Mid"-Range-Karten eben ein komplett anderes Kaliber als jemals zuvor. Das PCGH-Video (mittlerweile funkioniert sogar die Flash-Version :rolleyes:) hast du ja gesehen - Reserven hat er noch genug, wird dann nur ziemlich laut. Der G80-Kühler bringt mehr Wärme weg und bleibt dabei unter Last leiser und vor allem "angenehmer". Unter Volllast ist das nur ein deutlich wahrnehmbares Rausch, kein schrilles Pfeifen (8800GT, 7900GT, 7600 GT) oder kerniges Dröhnen (Radeon X850/X1800/X1900/HD2900).
Wie gesagt... "Mid"-Range meint ja genau das, was es sagt.
Und hier sollte man eigentlich Abstriche machen müssen... eigentlich.

Ich höre den 50mm Quirl der 8800GT lediglich beim Einschalten des Rechners (was nicht allzu oft vor kommt ;-), dann allerdings erinnert er mich an die Turbinen eines unserer DELL-Server (29'er), die beim Einschalten ebenfalls einen Höllenlärm von sich geben (Selbsttest aller Lüfter @100%). Der Unterschied ist aber, dass die GT danach quasi lautlos ist und das auch bleibt. Der "Turbo"-Modus ist offenbar nur für Notfälle gedacht, wenn - für Elektronik sowieso ungünstige - Umgebungsfaktoren dies erfordern...

Ich kann mich noch sehr gut an die Standard-Kühlung der 7900GT erinnern (werde sie vermutlich bald wieder einmal kurz in Akustik nehmen 'dürfen' ;-) und die war unangenehm... und das in JEDER Situation. Insofern finde ich, dass hier nVidia im Midrange einen großen Schritt nach vorne gemacht hat... SO leise waren Midrange-Karten schon lange nicht mehr... und für meine 79GT habe ich damals etwas mehr als 300 bezaht... jetzt gerade mal 200+.

Für High-End-Modelle hat man es seit langem mehr oder weniger murrend in Kauf genommen, dass die Dinger trotz ziemlich aufwendiger Kühlkonstruktionen ziemlich warm wurden. Nun haben wir einen Performance-Mainstream, welcher mehr Transisotren aufweist, als die High-End-Karten (bzw. beinahe soviel im Falle von AMD). Deren Wärme muss halt auch weg und das kriegt man eben nicht mehr für den Preis der Kühlung vergangener Generationen.

Darum ist hier ein bißchen Gewöhnung an die neue Situation nötig.
Klaro.
Aber "Gewöhnung" für wen?

Ich war sehr erstaunt, wie leise diese Karte ist und zudem auch noch mächtig verwundert, dass trotz 90° core temp das Gehäuse-Innere nicht mehr aufgeheizt wurde, als dies mit der alten 'Kleinen' 7900GT der Fall war.

Zur HD3870: Was AMD hier am Chip günstiger fährt, geben sie möglicherweise für die Kühlung wieder aus, zumindest wirkt der Kühler kostenintensiver als die von HD3850 und 8800GT.
Wenn ich das richtig sehe, dann ist das ein "stinknormaler" Arctic-Cooling... vom äusseren Gehäuse Plastik halt.
Und... es ist ein Dual-Slot-Kühler... vermutlich ist dieser sogar erforderlich...
...vor allem, wenn man die zuletzt reduzierten Takte beider Modelle ins Kalkül nimmt.

Das Gehäuse des 8800GT-Kühlers ist aus Metall und - wie von HT4U bestätigt - sowohl der Kupfer-Kern plan poliert und WLPad von höchster Qualität... was nicht gerade 'billig' wirkt... der Mini-Lüfter der 7900GT war 'billig', keine Frage.

Razor

Spasstiger
2007-11-10, 22:39:14
Der Kühler der 8800GTX wird unter Last lauter als der der 8800GT. Aber darum ging es nicht. Warum seien 85° bei der 8800GTX in Ordnung und 92° bei der 8800GT, die mit wesentlich geringeren Mitteln erreicht werden, nicht? :confused:

8800 GTX -> G80 -> 90 nm -> zugelassene Kerntemperatur 125°C, Differenz zu 85°C: 40°C
8800 GT -> G92 -> 65 nm -> zugelassene Kerntemperatur 100°C, Differenz zu 92°C: 8°C

LovesuckZ
2007-11-10, 22:41:17
Und weiter? Wieso sind hier 85° nicht minder schlimm? Warum setzt nVidia die Einsprunggrenze auf 85° fest, wenn man doch bis 125° gehen kann?

laser114
2007-11-10, 22:51:55
Und weiter? Wieso sind hier 85° nicht minder schlimm? Warum setzt nVidia die Einsprunggrenze auf 85° fest, wenn man doch bis 125° gehen kann?

Diese Frage kann dir vielleicht Nvidia beantworten.

Fakt ist jedoch, dass bei der 8800 GT die normale Kerntemperatur sehr nah an die maximale Kerntemperatur kommt. Das ist unschön fürs Übertakten und warme Gehäuse.

Liegt einfach daran, dass man einen Single-Slot-Lüfter genommen hat. Der verrichtet seine Arbeit ja ziemlich gut, aber es gibt eben irgendwo eine Leistungsgrenze. Und der G92 ist halt immer noch ein ziemlich fetter Chip.

LovesuckZ
2007-11-10, 23:28:28
Fakt ist jedoch, dass bei der 8800 GT die normale Kerntemperatur sehr nah an die maximale Kerntemperatur kommt. Das ist unschön fürs Übertakten und warme Gehäuse.


Das eine (maximale Kerntemperatur) hat nichts mit dem anderen zu tun.

DerKleineCrisu
2007-11-10, 23:59:43
...Das ist unschön fürs Übertakten und warme Gehäuse.

Oh mann dann Übertakte halt nicht. DIe Leute die OC machen Tauschen eh zu 99 % jeden Kühler aus. Also Interessiert das diese Leute nicht.

Wenn man das ganze hier lesen tut wegen der Kühlung dürfte ich mit meinem
A4 auch nie im sommer fahren da dort die Wassertemp. min. 50 Grad höher ist als im winter.

Wenn man an der GraKa sonst nichts findet wird halt der Kühler madig gemacht ;D .

Grüße

Grisu

Gast
2007-11-11, 00:02:32
Ja der ist ja auch Scheisse. Darf man das nicht sagen, verletzt das die zarte Fanboyseele?

Gast
2007-11-11, 00:05:35
Ja der ist ja auch Scheisse. Darf man das nicht sagen, verletzt das die zarte Fanboyseele?
Nein darf man nicht.

Der Kühler ist gut:
-er ist relativ leise
-er kühlt die Karte auf ein stabiles Niveau, ob 90°C oder 130°C spielt keine Rolle für den Käufer

laser114
2007-11-11, 00:24:26
-er kühlt die Karte auf ein stabiles Niveau, ob 90°C oder 130°C spielt keine Rolle für den Käufer

Solange die Karte funktioniert. Und ob die Karte an warmen Sommertagen noch so leise ist wie aktuell, steht auf einem anderen Blatt.
Wie gesagt, der Kühler ist eben nur knapp sehr leise. Und das darf man durchaus kritisieren, Konsequenzen kann ja jeder selber ziehen.

Razor
2007-11-11, 00:45:44
Solange die Karte funktioniert. Und ob die Karte an warmen Sommertagen noch so leise ist wie aktuell, steht auf einem anderen Blatt.
Wie gesagt, der Kühler ist eben nur knapp sehr leise. Und das darf man durchaus kritisieren, Konsequenzen kann ja jeder selber ziehen.
Kritisieren 'darf' man aus eigenen Erfahrungen heraus... nicht aber aus Prinzip.
Wie sagte Nuhr doch noch gleich? Ach ja... "In einer Demokratie kann jeder eine eigene Meinung haben... muss aber nicht."

Bei mir wird die Karte auch unter Vollast keinen deut lauter (wahr genommen). Insofern bin ich mir sehr sicher, dass ich auch im Sommer im idle NICHTS hören werde... soweit gehen wir doch konform, oder?

Und wenn sie jetzt im Sommer richtig unter Dampf steht (ich vermutlich ja auch, wenn wir hier von 30° oder mehr Raumtemperatur reden... tun wir doch, oder?), dann wird sie vermutlich lauter... wieviel weiß keiner zu sagen und ob z.Bsp. tatsächlich störend lauter wie z.Bsp. meine alte 'Kleine' 7900GT mit Stock-Kühler (immer, nicht nur im Hochsommer für etwa 1 Monat im Jahr), ebenso wenig.

Also, über was genau reden wir hier eigentlich?
Ich kann Dir zumindest sagen, über was nicht: Fakten.

Insofern wäre diese Form der Diskussion, die jemand führt, ohne eigene Erfahrungen zu haben und ohne auch nur den Hauch einer blassen Ahnung, eben genau das: blanke Spekulation.

Und wo das hin gehört, weiß hier hoffentlich jeder.

Razor

4711
2007-11-11, 01:21:37
booaahh was ein Theater wegen einem Lüfter ,die Karte ist von der Leistung her HighEnd und die wird heiß!
Wer Oc betreibt muß sie belüften oder zuschauen wie sie übern Jordan geht.
Wenn ich meine auf NV Standard laufen lasse kann ich nach 2 Minuten darauf Eier backen! Und mit OC hat es sich dann auch was.

laser114
2007-11-11, 01:33:22
Bei mir wird die Karte auch unter Vollast keinen deut lauter (wahr genommen). Insofern bin ich mir sehr sicher, dass ich auch im Sommer im idle NICHTS hören werde... soweit gehen wir doch konform, oder?

Ist jedenfalls davon auszugehen.

Und wenn sie jetzt im Sommer richtig unter Dampf steht (ich vermutlich ja auch, wenn wir hier von 30° oder mehr Raumtemperatur reden... tun wir doch, oder?), dann wird sie vermutlich lauter... wieviel weiß keiner zu sagen und ob z.Bsp. tatsächlich störend lauter wie z.Bsp. meine alte 'Kleine' 7900GT mit Stock-Kühler (immer, nicht nur im Hochsommer für etwa 1 Monat im Jahr), ebenso wenig.

Ich sag mal: Testen kann man das schon. Was hindert einem denn daran, mal einen Raum richtig aufzuheizen und dann das System zu testen?
Muss ja nicht unbedingt ein Privatanwender sein. Macht aber keiner, scheinbar zu aufwändig. ;)

Aber das Design des Lüfters ist ja bekannt. Und an diesem erkennt man ja auch, dass eine deutliche höhere Wärmeentwicklung nicht mehr mit der Qualität beseitigt werden kann, wie er es aktuell tut. Dies legt sicher auch mit der Entscheidung einen Single-Slot-Lüfter zu nehmen zusammen. Ob das nun für jemanden ein Problem ist, ist ja immer noch eine andere Sache. Und wenn du mit der Lautstärke zufrieden bist, ist doch OK. Braucht ja nicht jeder ein Silent-System. Bei anderen Ansprüchen wechselt man eben den Lüfter. :)

Razor
2007-11-11, 08:20:11
Macht aber keiner, scheinbar zu aufwändig. ;)
Jo, zu aufwändig... und mit dem Hintergrund einer möglichen sinnlosigkeit.
Man wird es doch sehen, wenns soweit ist und bis dahin ist alles reine Spekulation.

Man stelle sich vor: Heizung an, die nebenbei direkt zwischen Schreibtisch und Aussenwand plaziert ist, da ersterer natürlich vor dem Fenster steht und der Rechner natürlich darunter und damit direkt vor der Heizung. Man müsste also nun den Rechner abschalten, die Raumtemperatur auf etwas 35° bringen und die Heizung dann abschalten. Jetzt warten, bis die Raumtemperatur auf etwa 30° runter gekühlt ist und hoffen, dass die Heizung bis dahin kalt ist - mit viel Glück hat man JETZT die Bedingung wie im Sommer (wenn nicht, dann nochmal alles von vorne). DAS geht weit über einen Test hinaus...

Bin mal gespannt, ob sich tatsächlich mal jemand dem Thema "Sommer-Simulation und wie sich 8800GT und 3870 dann verhalten" widmen wird.

Und wenn du mit der Lautstärke zufrieden bist, ist doch OK. Braucht ja nicht jeder ein Silent-System. Bei anderen Ansprüchen wechselt man eben den Lüfter. :)
Ich habe ein Silent-System und bin mit der "Lautstärke" zufrieden, weil sie einfach nicht vorhanden ist.
Was also wolltest Du nun gleich implizieren?
:confused:

Razor

-/\-CruNcher-/\-
2007-11-11, 09:25:48
Versteh ich nicht ganz man weiss doch schon wie die 8800 GT darauf reagiert
siehe PCGH und TomsHardware Test, das wird passieren wenn ihr im Sommer z.b Crysis spielen werdet.

http://www.pcgameshardware.de/?article_id=619598
http://www.tomshardware.com/de/Geforce-8800GT-Dauertest,testberichte-239870-3.html

Bei der HD3870 wird es schwieriger werden das hinzubekommen da sieh durch ihre 55nm ca 10°C mehr buffer hat und zudem über eine DualSlot Kühlung verfügt.

Gast
2007-11-11, 10:38:58
Wenn der nVidia Singleslot Kühler soooo toll ist wie uns Razor hier gehirnwaschen will, warum montiert nV diesen soooo tollen Kühler dann nicht auf die neue GTS? Der müsste dann ja nur bissl schneller drehen und schon wäre die Karte wieder auf 92°C. Genau wie von nV gewünscht... Jaja... Schrott bleibt Schrott, egal ob ihn ein paar hier als Gold verkaufen wollen oder nicht :D

Gast
2007-11-11, 10:41:01
warum montiert nV diesen soooo tollen Kühler dann nicht auf die neue GTS?
Weil die bald erscheinende GTS mit G80 daherkommt?


Was die G92 GTS kühlt werden wir ja sehen. ;)

Gast
2007-11-11, 11:31:19
Versteh ich nicht ganz man weiss doch schon wie die 8800 GT darauf reagiert
siehe PCGH und TomsHardware Test, das wird passieren wenn ihr im Sommer z.b Crysis spielen werdet.

http://www.pcgameshardware.de/?article_id=619598
http://www.tomshardware.com/de/Geforce-8800GT-Dauertest,testberichte-239870-3.html

Bei der HD3870 wird es schwieriger werden das hinzubekommen da sieh durch ihre 55nm ca 10°C mehr buffer hat und zudem über eine DualSlot Kühlung verfügt.
Nein, was passieren wird ist, dass sich der Lüfter langsam und graduell hochregelt, um die 90-92°C zu halten und es nicht, wie bei PCGH künstlich herbeigeführt, plötzlich mit einem überhitzten Chip zu tun hat, sodass die Notfallmaßnahme greift.

Hätten die den Lüfter nämlich nicht angehalten, wäre die Temperatur gar nicht erst auf 100°C gestiegen. Kannst dir ja mal die Schwellwerte im Treiber angucken...

Gast
2007-11-11, 11:32:17
Wenn der nVidia Singleslot Kühler soooo toll ist wie uns Razor hier gehirnwaschen will, warum montiert nV diesen soooo tollen Kühler dann nicht auf die neue GTS? Der müsste dann ja nur bissl schneller drehen und schon wäre die Karte wieder auf 92°C. Genau wie von nV gewünscht... Jaja... Schrott bleibt Schrott, egal ob ihn ein paar hier als Gold verkaufen wollen oder nicht :D
Er ist kein Schrott, er ist nur nicht so aufwendig und überdimensioniert, wie die Kühler von 8800 GTX, GTS und HD2900. :)

Gast
2007-11-11, 11:33:37
Ich sag mal: Testen kann man das schon. Was hindert einem denn daran, mal einen Raum richtig aufzuheizen und dann das System zu testen?
- Die Außentemperatur
- Die Größe des Raumes
- Die Leistung der Heizung

:) Großraumbüros kriegst du nicht mal eben so auf 35°C und mehr und selbst wenn, würden dich die Kollegen erdolchen.

laser114
2007-11-11, 11:50:22
Bin mal gespannt, ob sich tatsächlich mal jemand dem Thema "Sommer-Simulation und wie sich 8800GT und 3870 dann verhalten" widmen wird.

Naja, die sind dann sicher schon wieder aus den Medien heraus. ;)

seahawk
2007-11-11, 11:58:57
Ich kann es euch sagen. Bei ca. 32°C Raumtemp und 2 Studen ATI Tool geht de Karte nicht über 90°C und der Lüfter nicht über 65%.

Praxistest eines Samples von BFG.

Gast
2007-11-11, 12:10:20
Er ist kein Schrott, er ist nur nicht so aufwendig und überdimensioniert, wie die Kühler von 8800 GTX, GTS und HD2900. :)
Naja der HD2900 Kühler ist nicht überdimensioniert.
Oder warum ist die Karte trotz hoher Lautstärke heiß?

laser114
2007-11-11, 12:18:00
Naja der HD2900 Kühler ist nicht überdimensioniert.
Oder warum ist die Karte trotz hoher Lautstärke heiß?

Dreh den Kühler mal auf 100%, dann weißt du was laut ist. :tongue:

~ 85° C gehen für den Prozess denke ich schon noch in Ordnung. Auf was die Karte bei 100% runtergekühlt wird, wäre zwar interessant zu wissen - aber damit will dann sicherlich keiner arbeiten/spielen.
Luft wäre da aber noch.

Gast
2007-11-11, 12:22:17
Naja der HD2900 Kühler ist nicht überdimensioniert.
Oder warum ist die Karte trotz hoher Lautstärke heiß?
Sie wird ja nicht heiß. Bei mir bleibt sie trotz schlechter Gehäusebelüftung stets unter 91°C.

Der Lüfter dreht dabei mit 44%.

Gast
2007-11-11, 12:35:38
Auf was die Karte bei 100% runtergekühlt wird, wäre zwar interessant zu wissen...
71°C bei 820 MHz und 1,225 Volt. (Lastanwendung: Ati-Tool - ja, 3D-Modus war aktiv)

Hvoralek
2007-11-11, 14:06:38
Ich kann es euch sagen. Bei ca. 32°C Raumtemp und 2 Studen ATI Tool geht de Karte nicht über 90°C und der Lüfter nicht über 65%.

Praxistest eines Samples von BFG.Wie laut sind denn bei dem Ding 65%? :ugly:

Razor
2007-11-11, 14:49:04
Versteh ich nicht ganz man weiss doch schon wie die 8800 GT darauf reagiert
siehe PCGH und TomsHardware Test, das wird passieren wenn ihr im Sommer z.b Crysis spielen werdet.

http://www.pcgameshardware.de/?article_id=619598
http://www.tomshardware.com/de/Geforce-8800GT-Dauertest,testberichte-239870-3.html
Danke für die Links... den HT4U kannte ich schon.
Und wo genau schreibt THG oder auch HT4U jetzt, dass es im Sommer "so richitg laut" wird?
:confused:

THG zeigt lediglich die schon fast perfekte Lüftersteuerung, die je nach Last den Lüfter regelt, mehr als die dort angegebenen 92° werden es nicht. Auch schrieben sie dazu, dass die dort angegebenen db-Werte keinesfalls realen Messungen entsprechden, da das Mikrofon nur etwa 15cm von der Karte weg steht... und so nahe komme ich meiner Grafikkarte eigentlich nie ;)

Das Hintergrund-Rauschen ist auch nicht die Grafikkarte, sondern einfach nur das überempfindliche Mikrofon... was besonders deutlich wird, wenn man ganz am Schluss die Lautstärke der Maus-Klicks in 'Ohrenschall' nimmt.

Und wo bei HT4U ein von Dir propagandierter Hinweis auf die "Sommer-Problematik" zu finden ist, musst Du mir mal genau zeigen!

Razor

seahawk
2007-11-11, 15:08:54
Wie laut sind denn bei dem Ding 65%? :ugly:

Das ist im Heizungsraum unseres Bürohauses schwer zu sagen. Frag mal einen der schon zu Hause ne GT hat.

Hvoralek
2007-11-11, 18:53:02
Das ist im Heizungsraum unseres Bürohauses schwer zu sagen. Frag mal einen der schon zu Hause ne GT hat.:ugly:

Nun gut: Gibt es Freiwillige, die den Lüfter probeweise mit 65% betreiben? *razoranguck* :D

Adam D.
2007-11-11, 19:12:17
Also 65% sind übel. Das sag ich dir ;)

Razor
2007-11-13, 16:38:14
:ugly:

Nun gut: Gibt es Freiwillige, die den Lüfter probeweise mit 65% betreiben? *razoranguck* :D
Gaaaaaanz sicher nicht!

Die von nvnews.net als 'erträglich' angegebenen 40-44% waren schon schlimm... aber 65% sind brutal.
Da stimme ich Adam zu 100% zu.

Nein Danke!
:D

Razor

P.S.: jetzt nach Umbau des Kühlers ist das ganze Thema 'eh vom Tisch ;)

Merkor
2007-11-13, 16:42:23
P.S.: jetzt nach Umbau des Kühlers ist das ganze Thema 'eh vom Tisch ;)

Jo, und die Garantie auch. Bin mal gespannt, wo sich die 8800GTs mit anderen Kühllösungen preislich einpendeln werden...

Razor
2007-11-13, 16:47:33
Jo, und die Garantie auch.
Das bleibt abzuwarten...

Bin mal gespannt, wo sich die 8800GTs mit anderen Kühllösungen preislich einpendeln werden...
Damit wäre man auf jeden Fall auf der 'sicheren' Seite.
Allerdings muss man sich auch hier auf die "Qualität" des Herstellers verlassen...

Razor

seahawk
2007-11-13, 18:15:29
Wobei ich anmerken muss, dass im Heizungsraum gute 33-34°c waren, und wir ein altes Metallgehäuse mit. MobO, Scythe Ninja für Core 2 Duo 6600 + 8800GT und nur den CPU Lüfter + Netzteil (irgendein älteres Be-Quite mit etwas über 430W) nutzen. Die 65% kamen nach 3 Stunden 3DMark loop.

maddawn
2007-11-13, 18:21:41
die Asus 8800GT von meinem Kollegen ist wohl hin (jedenfalls bei GOW und Crysis auch @100% Lüfterdrehzahl noch Bildfehler in Form von rotem grieseln, andere Spiele zeigten diese Fehler "noch" nicht (ich erwähnte bereits das er den Lüfter direkt zu Anfang höher drehen musste da sonst Bildfehler zu sehen waren)

er hat den Kauf widerrufen... naja klar

hm also wohl doch der Wurm drin, Hauptsache ein paar Karten (halbgares Layout wohl) auf den Markt schmeissen um vor der Konkurrenz zu sein... wobei mal schaun ob bei den ATI-Karten alles glatt läuft ab Start

arcanum
2007-11-13, 18:36:06
kann man die % auch in umdrehungen/min ausdrücken? darunter kann man sich eher was vorstellen.

Wolfram
2007-11-13, 18:58:48
die Asus 8800GT von meinem Kollegen ist wohl hin (jedenfalls bei GOW und Crysis auch @100% Lüfterdrehzahl noch Bildfehler in Form von rotem grieseln, andere Spiele zeigten diese Fehler "noch" nicht (ich erwähnte bereits das er den Lüfter direkt zu Anfang höher drehen musste da sonst Bildfehler zu sehen waren)

er hat den Kauf widerrufen... naja klar

hm also wohl doch der Wurm drin, Hauptsache ein paar Karten (halbgares Layout wohl) auf den Markt schmeissen um vor der Konkurrenz zu sein... wobei mal schaun ob bei den ATI-Karten alles glatt läuft ab Start
Dein Kollege hat also eine kaputte Karte erhalten. Was kann man daraus schließen? Gar nichts.

Adam D.
2007-11-13, 19:06:19
Hatte heute derbe Bildfehler, komischerweise nach 1h UT3. Ich kann stundenlang Crysis oder 3DMark06 durchlaufen lassen, nix. Aber bei UT3 komischerweise schon. Hab den Speichertakt gesenkt und hab bis jetzt nix gemerkt. Das hat mich aber schon irgendwie gewundert.

maddawn
2007-11-13, 19:39:31
Dein Kollege hat also eine kaputte Karte erhalten. Was kann man daraus schließen? Gar nichts.

das es nicht nur ein Einzelfall oder gar ein in die Welt gesetztes Gerücht eines ATI-Fanboys ist das die Karten (wohlgemerkt mein Kollege betreibt kein OC) verhältnismäßig oft nach ein paar Tagen die Hufe hoch machen