PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Strom für die Radeon 9700 (Split aus der fatalen Lücke)


Naomi
2002-07-26, 01:37:17
Originally posted by Stefan Payne

Zumindest das mit der 40W Heizung und dem Stromanschluß ist kompletter schwachsinn!!

So einen Stromstekcer mit Jumper daneben würde ich gerne auf JEDER Karte sehen...

Da gibt es nichts schönzureden, und das ist bei diesem 0.15µ-Monster schon gar kein Luxus, sondern notwendig.

Sogar ATI selber hat inzwischen zugegeben, dass der externe Stromanschluß erforderlich ist. Das kann man auch in ATI's offizieller FAQ (http://www.ati.com/products/pc/radeon9700/faq.html#2) nachlesen. In der PR-Sprache von ATI's Marketingabteilung hört sich das dann so an:


Q2:
Does the RADEON™ 9700 graphics card require an additional power connection and why?

A2:
Yes. RADEON™ 9700 has so many advanced features that it requires an additional power connection to attain maximum performance from the graphics card. In addition to installing a RADEON™ 9700 graphics card you are also required to plug a power cable into the graphics card and to the power supply. Connect the 4-pin cable of the Power Extension to the connector provided at the corner of the RADEON™ 9700 graphics card.

Iceman346
2002-07-26, 03:25:15
Originally posted by Naomi


Da gibt es nichts schönzureden, und das ist bei diesem 0.15µ-Monster schon gar kein Luxus, sondern notwendig.

Sogar ATI selber hat inzwischen zugegeben, dass der externe Stromanschluß erforderlich ist. Das kann man auch in ATI's offizieller FAQ (http://www.ati.com/products/pc/radeon9700/faq.html#2) nachlesen. In der PR-Sprache von ATI's Marketingabteilung hört sich das dann so an:



Na und? Was ist schlimm daran? Das ist immer noch besser als wenn die Karte nur auf manchen Mainboards laufen würde (wie z.B. damals bei der GF1 DDR).

Razor
2002-07-26, 06:12:25
Das steht required und nicht optional, Iceman !

Das bedeutet im Umkehrschluss:

"Nix Strom, nix funzen !"
(du verstehst ?)
;D

Nun ist es also Fakt, dass der R300 mit den AGP-Specs NICHT auskommt...
Und wieder ein 'Verdacht' mehr, der sich bestätigt !
:D

Schaun wir mal, aber was ATI da momentan mit den 9000/9700 treibt, lässt nicht gerade auf 'technologische Führerschaft' schliessen, eher auf... na ja...

In diesem Sinne

Razor

zeckensack
2002-07-26, 06:58:13
Originally posted by Razor
Das steht required und nicht optional, Iceman !

Das bedeutet im Umkehrschluss:

"Nix Strom, nix funzen !"
(du verstehst ?)
;D

Yes. RADEON™ 9700 has so many advanced features that it requires an additional power connection to attain maximum performance from the graphics card. In addition to installing a RADEON™ 9700 graphics card you are also required to plug a power cable into the graphics card and to the power supply. Connect the 4-pin cable of the Power Extension to the connector provided at the corner of the RADEON™ 9700 graphics card.Und jetzt sag mir, wo das so steht, wie von dir ausgelegt.

Außerdem hat mich noch keiner darüber aufgeklärt, ob jetzt der P4 ein scheiß Produkt ist, oder nicht. Der braucht schließlich auch einen extra Stecker, um auf der sicheren Seite zu sein.

Ist zwar OT, aber was vernünftiges kommt hier ja eh nicht mehr.

Andre
2002-07-26, 09:41:57
zeckensack,

rein von der Formulierung her, hat Razor Recht.

"that it requires an additional power connection"

"you are also required to plug"

2 ganz klare "Muss"-Forumlierungen, keine "Kann"-Varianten.
Aber jetzt bitte nicht auf mich einschlagen. *duck*

Exxtreme
2002-07-26, 09:58:02
Mädelz, ihr überseht anscheinend eine Sache:
"Yes. RADEON™ 9700 has so many advanced features that it requires an additional power connection to attain maximum performance from the graphics card. "

Es könnte bedeuten, daß diese GraKa mit reduzierten Takt läuft wenn man da nix anschliesst. Nur eine Vermutung.

Gruß
Alex

zeckensack
2002-07-26, 10:09:45
Originally posted by Exxtreme
Mädelz, ihr überseht anscheinend eine Sache:
"Yes. RADEON™ 9700 has so many advanced features that it requires an additional power connection to attain maximum performance from the graphics card. "

Es könnte bedeuten, daß diese GraKa mit reduzierten Takt läuft wenn man da nix anschliesst. Nur eine Vermutung.

Gruß
Alex Darauf wollte ich hinaus ;)

Andre
2002-07-26, 10:22:00
Originally posted by zeckensack
Darauf wollte ich hinaus ;)

Das hätte ich jetzt auch gesagt ;)

zeckensack
2002-07-26, 10:35:10
Originally posted by Andre


Das hätte ich jetzt auch gesagt ;) Siehste ;)

Der "Umkehrschluß" war mir doch etwas übertrieben.

PS: *shplit*

thomasius
2002-07-26, 10:54:42
eigentlich isses egal, was das ding braucht, hauptsache kein starkstromanschluss:)

Thowe
2002-07-26, 11:13:10
Ich glaube nicht das die GF4TI4600 bei gleicher Speichermenge und Takt sparsamer als die R9700 ist.

Unregistered
2002-07-26, 11:20:10
KA was ihr für ein Problem damit hab, ich verstehs ned...

StefanV
2002-07-26, 11:26:38
Originally posted by Thowe
Ich glaube nicht das die GF4TI4600 bei gleicher Speichermenge und Takt sparsamer als die R9700 ist.

Richtig, sowas vermute ich auch...


Allerdings glaub ich auch, daß ATI eine maximalgröße fürs PCB festgelegt haben könnte, woran sie sich vermutlich am G4 Cube orientiert haben...

Wobei ATI den 'Saft' der 9700 auch aus dem AGP hätte ziehen können, was sie aber nicht wollten, da es das PCB unnötig vergrößtert hat (siehe GF4 TI4k4/4k6), auch bei den beiden GF4 Modellen hätte man PCB fläche Sparen können, wenn man den Saft direkt ausm NT zieht...

zeckensack
2002-07-26, 11:32:45
Originally posted by Stefan Payne
Richtig, sowas vermute ich auch...


Allerdings glaub ich auch, daß ATI eine maximalgröße fürs PCB festgelegt haben könnte, woran sie sich vermutlich am G4 Cube orientiert haben...

Wobei ATI den 'Saft' der 9700 auch aus dem AGP hätte ziehen können, was sie aber nicht wollten, da es das PCB unnötig vergrößtert hat (siehe GF4 TI4k4/4k6), auch bei den beiden GF4 Modellen hätte man PCB fläche Sparen können, wenn man den Saft direkt ausm NT zieht... Da ist was dran. Aber das Argument für den extra Stecker wird das wohl kaum gewesen sein.
Mach wir uns nichts vor, die Karte wird den Saft schon brauchen. Selbst wenn's 'nur' 45 Watt sind, das gibt der AGP (zumindest offiziell) nicht her.

Unregistered
2002-07-26, 11:44:18
Hi

Ah Panikmache weil ein Stromanschluss benötigt wird.
Bitte was ist daran schlecht. ?
Lieber per Floppy Adapter ans NT ranhängen als Systemhänger in Kauf nehmen.
Komisch bei der V5 hat es keinen gestört.
Hier wird es als technlogischer Rückschritt betrachtet.
Warum ???
ATi zieht einfach diese Variante vor.
Fertig und wenn die Karte läuft juckt das keinen Endkunden.
Die Ti braucht 40W und die R9700 max. 50W(vermutlich) da fallen die 10Watt Mehrleistung nicht ins Gewicht.
Und wenn sich jemand um 10Watt Gedanken machen muss dann sollte derjenige mal schnell sein 230W Netzteil in die Tonne hauen.
User die den PC bis zum Anschlag belegt haben, haben in der Regel schon ein NT das bei 350W oder mehr liegt.
Also warum soll ATi instabilitäten in Kauf nehmen wenn die Lösung per Floppy Adapter einfach behoben werden kann.




Alles nur ein Flame Versuch um die ATi Karte gleich im schlechten Licht stehen zu lassen.
Ganz nach den Motto, Nein nichts darf besser sein als nVIDIA.



Gruss Labberlippe

StefanV
2002-07-26, 11:52:24
Originally posted by zeckensack
Da ist was dran. Aber das Argument für den extra Stecker wird das wohl kaum gewesen sein.
Mach wir uns nichts vor, die Karte wird den Saft schon brauchen. Selbst wenn's 'nur' 45 Watt sind, das gibt der AGP (zumindest offiziell) nicht her.

Naja, kommt auch drauf an, was ATI/NV sich bei der Entwicklung gedacht haben...

Je nach dem, was für ATI/NV sinniger ist.

ATI hat sich deutlich gegen die NV Methode vom Monster Single Brett entschieden dafür für einen NT Anschluß...

Wahrscheinlich hatten sie noch die Probleme mit der Radeon 8500 im Hinterkopf und haben sich deshalb für eine NT Versorgung entschlossen...

Sowas hätte ich (mit Jumper) an jeder GraKa (jaja, ich wiederhole mich :))

Korak
2002-07-26, 11:53:04
Rein theoretisch hätte ATi ja auch den AGP-Pro nehmen können. Schließlich existiert das Ding nicht ohne Grund. Aber da ein 'paar' Mobo-Hersteller es nicht für notwendig hielten das Teil zu nutzen fehlt natürlich die Basis. Schade eigentlich.

Unregistered
2002-07-26, 11:54:23
Originally posted by Korak
Rein theoretisch hätte ATi ja auch den AGP-Pro nehmen können. Schließlich existiert das Ding nicht ohne Grund. Aber da ein 'paar' Mobo-Hersteller es nicht für notwendig hielten das Teil zu nutzen fehlt natürlich die Basis. Schade eigentlich.

Eben und da wichtiger ist das die Karte auf allen Systemen funzt, ist diese Variante auf alle Fälle besser.

Gruss Labberlippe

AlfredENeumann
2002-07-26, 12:08:07
Originally posted by Exxtreme


Es könnte bedeuten, daß diese GraKa mit reduzierten Takt läuft wenn man da nix anschliesst. Nur eine Vermutung.

Gruß
Alex


Das habe ich im Vorfeld irgendwo in einem Statement von ATI auch gelesen das die Karte auch ohne zusätzlichen Strom läuft, aber dann langsamer.

Unregistered
2002-07-26, 12:09:41
Originally posted by AlfredENeumann



Das habe ich im Vorfeld irgendwo in einem Statement von ATI auch gelesen das die Karte auch ohne zusätzlichen Strom läuft, aber dann langsamer.

R9500 :D

Gruss Labberlippe

AlfredENeumann
2002-07-26, 12:10:22
Originally posted by Unregistered


R9500 :D

Gruss Labberlippe

Nein. Speziell zur 9700.

Unregistered
2002-07-26, 12:12:47
Originally posted by Stefan Payne


Naja, kommt auch drauf an, was ATI/NV sich bei der Entwicklung gedacht haben...

Je nach dem, was für ATI/NV sinniger ist.

ATI hat sich deutlich gegen die NV Methode vom Monster Single Brett entschieden dafür für einen NT Anschluß...

Wahrscheinlich hatten sie noch die Probleme mit der Radeon 8500 im Hinterkopf und haben sich deshalb für eine NT Versorgung entschlossen...

Sowas hätte ich (mit Jumper) an jeder GraKa (jaja, ich wiederhole mich :))

Wieso Jumper ???
Ich glaube eher das die Karte automatisch erkennt woher die Stromversorgung kommt.
Jumper wird kaum einer noch machen.

Gruss Labberlippe

Unregistered
2002-07-26, 12:17:19
Originally posted by AlfredENeumann


Nein. Speziell zur 9700.

Angenommen die Karte wäre so ohne Floppy Anschluss ca. 10-15% langsamer.
Dann lassen die einfach den Stecker weg und fertig ist die R9500 *eg*
Keine 2te GPU basteln sondern einfach schnipp und der Stecker ist weg.
(Läster Mode Ende)

Gruss Labberlippe

Unregistered
2002-07-26, 12:17:25
Originally posted by Thowe
Ich glaube nicht das die GF4TI4600 bei gleicher Speichermenge und Takt sparsamer als die R9700 ist.
Das glaub ich hingegen weniger. ne ti 4600 läuft mit 300/300 und hat 128MB Ram, also ich sehe dabei keinen wirklichen unterschied zu den takten/speichergrössen einer r9700.

Daher hat die neue ATi imho einen deutlich höheren stromverbrauch als ne ti4600....das muss hier niemand schönreden.

ow
2002-07-26, 12:30:26
Originally posted by Unregistered


Daher hat die neue ATi imho einen deutlich höheren stromverbrauch als ne ti4600....das muss hier niemand schönreden.

Dem schliesse ich mich an.
Aber bei 107 zu 60Mio Transis darf die R9700 auch mehr brauchen.

Thowe
2002-07-26, 12:39:20
Hmm, ich weiss nicht was die R9700 hat, ist mir auch egal.

Die GF4TI4600-Karte mit 128MB liegt lt. Canopus bei Standardtakt bei 40W

mezzo
2002-07-26, 12:40:57
Originally posted by Unregistered

Daher hat die neue ATi imho einen deutlich höheren stromverbrauch als ne ti4600....das muss hier niemand schönreden.

Natürlich braucht dieses Monster mehr Strom als eine Ti4600. Die Radeon 9700 braucht ZWINGEND einen externen Stromanschluß, weil sie unter Belastung nicht mehr mit den 40 W aus dem AGP auskommt. Der Ti4600 braucht ihn nicht. So klar ist das.

StefanV
2002-07-26, 12:45:50
Originally posted by Unregistered
Daher hat die neue ATi imho einen deutlich höheren stromverbrauch als ne ti4600....das muss hier niemand schönreden.

Wie kommst du darauf??

Daß die Radeon 9700 mehr Transistoren hat, heißt noch lange nicht, daß sie bei gleichem Takt mehr verbrät als eine GF4 TI!!

Wäre auch möglich, daß ATI es hinbekommen hat, daß die R300 bei gleichem Takt in etwa genausoviel wie eine GF4 TI schluckt...

Eine R200 schluckt bei 250MHz ja auch weniger als eine GF3 TI200...

mezzo
2002-07-26, 12:46:02
Originally posted by Unregistered


Angenommen die Karte wäre so ohne Floppy Anschluss ca. 10-15% langsamer.
Dann lassen die einfach den Stecker weg und fertig ist die R9500 *eg*


:lol: :lol: :lol:

Super. Die nVidia-User kaufen sich eine preiswerte Ti4200 und können sie locker auf das Niveau einer teureren 4400/4600 übertakten. Und freuen sich. Danke, nVidia.

Die FanATIker kaufen sich eine überteuerte 0.15µ-R9700 und damit sie ohne Floppyanschluss auskommen, untertakten sie diesen Stromfresser auf das Niveau einer langsameren 9500. Danke, ATI. ;)

askibo
2002-07-26, 12:47:35
Originally posted by ow


Dem schliesse ich mich an.
Aber bei 107 zu 60Mio Transis darf die R9700 auch mehr brauchen.

Dem schliesse ich mich auch an.

IMO werden die ersten DX9 Karten alle Stromfresser werden. Bei mehr als 100 Mio. Transistoren, hohen Taktraten und bis zu 256 MB Ram erwarte ich keine Stromsparwunder.

StefanV
2002-07-26, 12:48:17
Originally posted by mezzo

Natürlich braucht dieses Monster mehr Strom als eine Ti4600. Die Radeon 9700 braucht ZWINGEND einen externen Stromanschluß, weil sie unter Belastung nicht mehr mit den 40 W aus dem AGP auskommt. Der Ti4600 braucht ihn nicht. So klar ist das.

Naja, wenn man bedenkt, daß die R300 eine DX9 Karte ist und 'geringfügig' schneller als eine GF4 ist...

Also im großen und ganzen kann man das bei 'ner 9700 verzeihen, bei 'ner GF4 TI nicht, da ATI ja bei der 8500 bei gleichem Takt auch nur winzige Müll Lüfter braucht...

zum Vergleich:

Die gleichen Kühler sitzen bei NV Karten auf GF2 MX und TNT2 Karten...

Tarkin
2002-07-26, 12:50:49
"ATI has been quiet about the external power connector that is present on this card, since AGP has not enough power to make this large chip run as it should, but still we don’t see any problem with this decision. We learned at the presentation that the card does work even without external power but you will need state-of-the-art power supply and state-of-the-art motherboard, and you could have problems with most of the power supplies and motherboards on the market. To remove possible problems, ATI simply provided more power to this chip."

Quelle: http://www.theinquirer.net/?article=4547

wo ist das Problem?

StefanV
2002-07-26, 12:50:54
Originally posted by Korak
Rein theoretisch hätte ATi ja auch den AGP-Pro nehmen können. Schließlich existiert das Ding nicht ohne Grund. Aber da ein 'paar' Mobo-Hersteller es nicht für notwendig hielten das Teil zu nutzen fehlt natürlich die Basis. Schade eigentlich.

Hm, nee, das ist nicht soo einfach, wie du es dir vorstellst :)

bei AGP PRO-50 wäre auch der 1. PCI Slot für die Karte weg...

Vergiss auch nicht, daß nur ASUS, Soyo und Gigabyte den AGP PRO verbaut haben, wovon Gigabyte wieder abgerückt ist...

mezzo
2002-07-26, 12:53:35
Originally posted by Exxtreme
Mädelz, ihr überseht anscheinend eine Sache:
"Yes. RADEON™ 9700 has so many advanced features that it requires an additional power connection to attain maximum performance from the graphics card. "


Ja, da steht, dass sie unter Vollast, also z.B. bei 3D-Spielen, mehr Strom zwingend BRAUCHT (und damit mehr Hitze erzeugt), als der AGP-Port liefern kann.

Damit meint die Marketingabteilung sicher, dass die Karte etwas weniger Strom brauchen würde, wenn man sie nur unter 2D auf dem Windows-Desktop betreibe würde.

Korak
2002-07-26, 12:56:27
Originally posted by Stefan Payne


Hm, nee, das ist nicht soo einfach, wie du es dir vorstellst :)

bei AGP PRO-50 wäre auch der 1. PCI Slot für die Karte weg...

Vergiss auch nicht, daß nur ASUS, Soyo und Gigabyte den AGP PRO verbaut haben, wovon Gigabyte wieder abgerückt ist...


Wieso ist dann der 1. PCI-Slot weg?

Das mit der fehlenden Basis hab ich doch geschrieben :D

nagus
2002-07-26, 13:06:49
Originally posted by Razor
Das steht required und nicht optional, Iceman !

Das bedeutet im Umkehrschluss:

"Nix Strom, nix funzen !"
(du verstehst ?)
;D

Nun ist es also Fakt, dass der R300 mit den AGP-Specs NICHT auskommt...
Und wieder ein 'Verdacht' mehr, der sich bestätigt !
:D

Schaun wir mal, aber was ATI da momentan mit den 9000/9700 treibt, lässt nicht gerade auf 'technologische Führerschaft' schliessen, eher auf... na ja...

In diesem Sinne

Razor


:bonk::bonk::bonk:


welche nachteile hat ein externer stromanschluss? KEINEN!

Tarkin
2002-07-26, 13:11:27
Originally posted by Razor
Das steht required und nicht optional, Iceman !

Das bedeutet im Umkehrschluss:

"Nix Strom, nix funzen !"
(du verstehst ?)
;D

Nun ist es also Fakt, dass der R300 mit den AGP-Specs NICHT auskommt...
Und wieder ein 'Verdacht' mehr, der sich bestätigt !
:D

Schaun wir mal, aber was ATI da momentan mit den 9000/9700 treibt, lässt nicht gerade auf 'technologische Führerschaft' schliessen, eher auf... na ja...

In diesem Sinne

Razor


:lol:

Exxtreme
2002-07-26, 13:12:58
Originally posted by mezzo


Ja, da steht, dass sie unter Vollast, also z.B. bei 3D-Spielen, mehr Strom zwingend BRAUCHT (und damit mehr Hitze erzeugt), als der AGP-Port liefern kann.

Nö, das steht nicht drin. Da steht drin, daß die GraKa den Anschluss braucht um mit voller Leistung zu laufen. Was ATi mit "Leistung" meint, steht in dieser Aussage nicht drin.

Gruß
Alex

StefanV
2002-07-26, 13:12:59
Originally posted by nagus
welche nachteile hat ein externer stromanschluss? KEINEN!

Ähm, nunja, man muß ein Kabel vom NT zur GraKa legen, man verliert einen Stecker am NT??

Exxtreme
2002-07-26, 13:15:52
Originally posted by Stefan Payne
Ähm, nunja, man muß ein Kabel vom NT zur GraKa legen, man verliert einen Stecker am NT??
Einen Floppy-Anschluss wirst du wohl übrig haben, oder hast du 5 Diskettenlaufwerke im Rechner?

Gruß
Alex

askibo
2002-07-26, 13:17:34
Originally posted by Stefan Payne


Ähm, nunja, man muß ein Kabel vom NT zur GraKa legen, man verliert einen Stecker am NT??

Der R9700 liegt sicher ein Y-Kabel bei.

Legolas
2002-07-26, 13:18:47
Außerdem ist doch laut ATI ein Durchschleifkabel vom 12V Stecker auf den Floppy Connector bei der Karte dabei. Man baucht also nichtmal einen freien Stecker, weil man den Anschluß für die Graka einfach durchschleifen kann.

mezzo
2002-07-26, 13:22:58
Originally posted by nagus

welche nachteile hat ein externer stromanschluss? KEINEN


Energieerhaltungssatz:

Mehr Strom als 40 Watt -> Mehr Hitze als 40 Watt.

Würde sich jemand freiwillig eine Glühbirne mit mehr als 40 Watt in den Rechner stecken?

Jetzt wissen wir endlich, warum ATI einer seiner R9700-Karten FireGL nennt... *eg*

http://www.ptp.com/images/burnt.jpg

Demirug
2002-07-26, 13:23:11
Ich verstehe ehrlich die Aufregung wegen dem Stromkabel nicht. Bei dem Verkabelungschaos das in heutigen Consumer PCs herscht kommt es darauf nun wirklich nicht mehr an.

Wenn ihr euch über die aufgrund der zusätzlichen Stromaufnahme entstehenden Wärme sorgen machen würdet könnte ich das ja noch nachvollziehen, aber wegen einem Kabel? Bei meinen P-Pros musste ich die CPU Lüfter auch noch mit einem Floppyanschluss speisen.

Exxtreme
2002-07-26, 13:27:25
Originally posted by mezzo
Energieerhaltungssatz:

Mehr Strom als 40 Watt -> Mehr Hitze als 40 Watt.

Würde sich jemand freiwillig eine Glühbirne mit mehr als 40 Watt in den Rechner stecken?

Jetzt wissen wir endlich, warum ATI einer seiner R9700-Karten FireGL nennt... *eg*

http://www.ptp.com/images/burnt.jpg
Dann schau mal was deine CPU verbrät. Also wenn schimpfen dann eher auf Intel & AMD. Und auch eine GF4Ti4600 zieht auch nicht gerade wenig. Ausserdem sind Glühbirnen im Rechner bei Case-Moddern sehr beliebt.
;)

Gruß
Alex

askibo
2002-07-26, 13:28:11
Originally posted by mezzo
Würde sich jemand freiwillig eine Glühbirne mit mehr als 40 Watt in den Rechner stecken?


Ich kenn ein paar Leute die hätte kein Problem damit sich eine NV30 Karte in den Rechner zustecken auch wenn sie 100W Leistung verbraten würde.

StefanV
2002-07-26, 13:29:31
*spam geloescht* (ow)

Unregistered
2002-07-26, 13:32:40
Originally posted by mezzo



Energieerhaltungssatz:

Mehr Strom als 40 Watt -> Mehr Hitze als 40 Watt.

Würde sich jemand freiwillig eine Glühbirne mit mehr als 40 Watt in den Rechner stecken?

Jetzt wissen wir endlich, warum ATI einer seiner R9700-Karten FireGL nennt... *eg*



Gehen die Nvnews-Foren eigentlich wieder ?
Wenn ja, war es schön dich hiergehabt zu haben, mezzo *eg*

ow
2002-07-26, 13:33:09
Originally posted by Demirug
Ich verstehe ehrlich die Aufregung wegen dem Stromkabel nicht. Bei dem Verkabelungschaos das in heutigen Consumer PCs herscht kommt es darauf nun wirklich nicht mehr an.

Wenn ihr euch über die aufgrund der zusätzlichen Stromaufnahme entstehenden Wärme sorgen machen würdet könnte ich das ja noch nachvollziehen, aber wegen einem Kabel? Bei meinen P-Pros musste ich die CPU Lüfter auch noch mit einem Floppyanschluss speisen.


Kann ich nur zustimmen. Verstehe das auch nicht.
Hauptsache ist doch, dass die Karte funzt.

Korak
2002-07-26, 13:34:32
@ Stafan

Nochmal, warum ist dann der 1. PCI futsch?

ow
2002-07-26, 13:39:32
Weil AGP Pro50 Karten 1 PCI Slot und AGP Pro110 Karten sogar 2 PCI Slots zusaetzlich zum AGP Slot mitbenutzen duerfen.

Meistens fuer Luefter wohl. 100W mit ner Graka zu verbraten ist schon enorm.

nggalai
2002-07-26, 13:43:14
Hi mezzo,Originally posted by mezzo


:lol: :lol: :lol:

Super. Die nVidia-User kaufen sich eine preiswerte Ti4200 und können sie locker auf das Niveau einer teureren 4400/4600 übertakten. Und freuen sich. Danke, nVidia.

Die FanATIker kaufen sich eine überteuerte 0.15µ-R9700 und damit sie ohne Floppyanschluss auskommen, untertakten sie diesen Stromfresser auf das Niveau einer langsameren 9500. Danke, ATI. ;) Bitte lass unsachliches Flamen hier im Forum, ok? Wenn Du zum Thema nichts neues zu sagen hast, würde es sich lohnen, vielleicht mal die Argumente deiner "Gegner" anzuschaun und darauf was zu erwidern, und nicht einfach nur immer dasselbe zu wiederholen.

ta,
-Sascha.rb

nggalai
2002-07-26, 13:43:46
Hi Demiurg,Originally posted by Demirug
Ich verstehe ehrlich die Aufregung wegen dem Stromkabel nicht. Bei dem Verkabelungschaos das in heutigen Consumer PCs herscht kommt es darauf nun wirklich nicht mehr an.

Wenn ihr euch über die aufgrund der zusätzlichen Stromaufnahme entstehenden Wärme sorgen machen würdet könnte ich das ja noch nachvollziehen, aber wegen einem Kabel? Bei meinen P-Pros musste ich die CPU Lüfter auch noch mit einem Floppyanschluss speisen. Full ACK.

Mehr braucht man zum Thema wohl echt nicht zu sagen.

ta,
-Sascha.rb

Korak
2002-07-26, 13:58:07
Originally posted by ow
Weil AGP Pro50 Karten 1 PCI Slot und AGP Pro110 Karten sogar 2 PCI Slots zusaetzlich zum AGP Slot mitbenutzen duerfen.

Meistens fuer Luefter wohl. 100W mit ner Graka zu verbraten ist schon enorm.


Aaaaach so :D thx

HOT
2002-07-26, 14:15:30
Der R300 lief als Demoboard ohne diesen externen Stromanschluss -> siehe die Pics bei Anand.
Desweiteren: Wenn der NV30 kommt mit seinen 120Mio Transistoren wird auch dieser, trotz 130nm, ähnliche Lösungen erfordern, vor allem wenn NV den Richtung 350MHz gehen sollte.

Thowe
2002-07-26, 14:58:13
Originally posted by Demirug
Ich verstehe ehrlich die Aufregung wegen dem Stromkabel nicht. Bei dem Verkabelungschaos das in heutigen Consumer PCs herscht kommt es darauf nun wirklich nicht mehr an.

Wenn ihr euch über die aufgrund der zusätzlichen Stromaufnahme entstehenden Wärme sorgen machen würdet könnte ich das ja noch nachvollziehen, aber wegen einem Kabel? Bei meinen P-Pros musste ich die CPU Lüfter auch noch mit einem Floppyanschluss speisen.

Da gibt es auch nichts zu verstehen, weil niemand wirklich was dagegen hat, aber einige "insert cuss" meinen sie hätten jetzt einen Hebel gefunden was gegen ATI zu sagen. Das beste daran, ich glaube nicht das die NV30 ohne Stromanschluss kommen wird. Jedenfalls würden es die Boardhersteller dankbar annehmen.

ow
2002-07-26, 16:03:08
Originally posted by Thowe


Da gibt es auch nichts zu verstehen, weil niemand wirklich was dagegen hat, aber einige "insert cuss" meinen sie hätten jetzt einen Hebel gefunden was gegen ATI zu sagen. Das beste daran, ich glaube nicht das die NV30 ohne Stromanschluss kommen wird. Jedenfalls würden es die Boardhersteller dankbar annehmen.


Aehm..... das ist allein Sache der Boardhersteller, ob sie nen Stromanschluss verbauen oder nicht.
Dem Chip ist das voellig wurscht, wo er seinen Saft herkriegt.;)

Matrix316
2002-07-26, 16:07:22
Originally posted by Exxtreme

Einen Floppy-Anschluss wirst du wohl übrig haben, oder hast du 5 Diskettenlaufwerke im Rechner?

Gruß
Alex

Hmmm, mein Netzteil hat nur einen Floppy-Stecker...=)

Thowe
2002-07-26, 16:19:09
Originally posted by ow



Aehm..... das ist allein Sache der Boardhersteller, ob sie nen Stromanschluss verbauen oder nicht.
Dem Chip ist das voellig wurscht, wo er seinen Saft herkriegt.;)

Klar, aber ich denke doch das sich 99,9% aller Hersteller sich an das Referenzdesign halten werden und ich denke das dies (hoffentlich) einen Stromanschluss haben wird.

Quasar
2002-07-26, 16:29:49
Originally posted by Thowe
Da gibt es auch nichts zu verstehen, weil niemand wirklich was dagegen hat, aber einige "insert cuss" meinen sie hätten jetzt einen Hebel gefunden was gegen ATI zu sagen.

Im Moment gibt es doch gar keinen Grund, etwas gegen ATi zu sagen. Es hat eine Technologie-Präsentation gegeben mit beeindruckenden Resultaten, die nVidia sicherlich auch durchgezogen hätte, wenn sie entsprechend lauffähige Hardware hätten.

Zum Floppy-Connector:
1) Anscheinend wird ein Durchschleifkabel gereicht, so what?

2) Strom ist Strom, wenn ATi nicht mit den AGP-Specs auskommt und mit diesem Weg einen stabilen Betrieb garantieren kann, warum denn nicht?

Korak
2002-07-26, 16:33:22
Das einzige an was man rumnörgeln könnte ist imho die recht hohe Leistungsaufnahme an sich. Aber da gibt momentan wohl keine Lösung.

bambo
2002-07-26, 17:42:03
Doch, auf 0.13µm-Chips warten. ;)

hot
2002-07-26, 17:47:30
Versprich dir von 130nm nicht allzuviel. wir sind immerhin schon auf 150nm, es sind also nur 20nm Strukturbreitenunterschied.

Ikon
2002-07-26, 18:20:27
Full Ack. @ Demirug, ow, Thowe, nggalai. Den Nvidiots fällt wohl kein besseres Argument mehr ein.

Korak
2002-07-26, 18:27:34
Originally posted by bambo
Doch, auf 0.13µm-Chips warten. ;)

Ich glaub auch nicht, dass das viel bringt.

StefanV
2002-07-26, 18:28:42
Originally posted by bambo
Doch, auf 0.13µm-Chips warten. ;)

Dann sag mal, was das mehr bringt??

Vermutlich garnix außer höherem Takt...

Exxtreme
2002-07-26, 18:30:36
Originally posted by bambo
Doch, auf 0.13µm-Chips warten. ;)
Hmm, du solltest bedenken, daß der 0,13µm-Prozess, welcher noch relativ frisch ist, einem ausgereiften und optimierten 0,15µm-Fertigungsprozess gegenübersteht. Mag sein, daß der Chip an sich kleiner wird. Nur ob dieser weniger Saft zieht und wie hoch er sich takten lässt steht noch in den Sternen. Von der Ausbeute ganz zu schweigen.

Gruß
Alex

Quasar
2002-07-26, 18:53:07
Originally posted by Exxtreme
Nur ob dieser weniger Saft zieht und wie hoch er sich takten lässt steht noch in den Sternen.

Die Ausbeute lass' mal Sorge der Hersteller sein, wenn sich's nicht lohnt, kommt der Chip eben noch nicht auf den Markt.

"Weniger Strom" würde ich definitiv bejahen, allerdings nur bei gleichem Takt. Und diese Ersparnis wird wohl gleich wieder in höheren Takt investiert, also unterm wohl wieder maximale Ausreizung der AGP-Specs....

Frank
2002-07-26, 18:54:30
Originally posted by Stefan Payne


Dann sag mal, was das mehr bringt??

Vermutlich garnix außer (...)...
na was bringt das wohl mehr?

warum gehen denn sonst alle mit dem Fortschritt und machen da nach und nach alles kleiner ?-)

thomasius
2002-07-26, 19:00:26
ês bringt die herrsteller aber nur dazu karten zu produzieren, die noch mehr strom verbrauchen,
vor 8 jahren, als noch nicht mal an 15nm zu denken war, brauchten wir schließlich auch keinen externen stromanschluß.

alle vorteile der .13 nm technik werden rein in die leistung fließen und nicht zum stromsparen verwendet werden (reine spekulation, war bisher aber so)

Ikon
2002-07-26, 19:05:57
Originally posted by thomasius
alle vorteile der .13 nm technik werden rein in die leistung fließen und nicht zum stromsparen verwendet werden (reine spekulation, war bisher aber so)

Was wollen wir denn nun? Mehr Leistung oder Stromsparen?

Demirug
2002-07-26, 19:06:17
Wenn die Strukturen kleiner werden kann man auch die Corespannung senken was ja nach den Gesetzten der Elektrophysik zu Leistungseinsparungen (Elektrisch) führt. Es müssen ja weniger Elektronen bewegt werden um die Transitoren zum durchschalten oder sperren zu bewegen.

Birdman
2002-07-26, 19:10:33
ich mach mir ned um den zusätzlichen stecker sorgen, wie S.P. find ich den sogar empfehlenswert...auch wenn ich ned ganz so weit gehen würde die unser Masterspammer, denn auf ALLEN karten brauchts den wirklich ned ;)

Mich stört aber die hohe stromaufnahme an sich, denn diese hitze will erst mal abtransportiert werden...und bei 40W ist das ned grad wenig.
vor allem karten die auch im idle mode extrem viel strom saugern (matrox parphelia lässt grüssen) sind bei mir schnell mal auf der abschussliste.
mal kukken wie die r300 daherkommt...aber viele mehr Watt als ne ti4600 darf das ding nimmer haben, sonst isses aus mit leiser kühlung....jedenfalls wenn man ned grad mit wasser rumspielen will.

ob 0.13 etwas bringt, hängt auch von der angelegten spannung ab. wenn die chips wie bei den AMD käfern, mit fast soviel V betrieben werden die die "grossen" brüdern, bringts natürlich nix, aber wenn man da 0.3 - 0.5V einspart, bringts doch schon sehr viel, trotz deutlich höherem takt. (siehe P4 NW und Willamette)

thomasius
2002-07-26, 19:16:58
Originally posted by Ikon


Was wollen wir denn nun? Mehr Leistung oder Stromsparen?
eine passive gekühlte grafikkarte mit einem passiv gekühltem prozzi
auf dem board, mit einer ordentlichen leistung

bambo
2002-07-26, 19:24:13
Originally posted by thomasius

alle vorteile der .13 nm technik werden rein in die leistung fließen und nicht zum stromsparen verwendet werden (reine spekulation, war bisher aber so)

Nicht unbedingt. Ein Beispiel aus der Vergangenheit beim Übergang zu einer kleineren Bauweise:
Der TNT2 war nicht nur schneller als der TNT1, sondern verbrauchte auch weniger Strom.

Jedenfalls kann der Umstieg auf 0.13 µm nur von Vorteil sein, egal ob man es mehr in die Performance oder in Stromverbrauch/Hitzeentwicklung leitet.

Unregistered
2002-07-27, 11:45:33
Originally posted by bambo


Nicht unbedingt. Ein Beispiel aus der Vergangenheit beim Übergang zu einer kleineren Bauweise:
Der TNT2 war nicht nur schneller als der TNT1, sondern verbrauchte auch weniger Strom.

Jedenfalls kann der Umstieg auf 0.13 µm nur von Vorteil sein, egal ob man es mehr in die Performance oder in Stromverbrauch/Hitzeentwicklung leitet.

Du vergleichst also den Umstieg von 0.35µ auf 0.25µ (TNT1 zu TNT2)
mit dem von 0.15µ auf 0.13µ ?? Selbst dir sollte die erhebliche prozentuale Divergenz offenbar werden!

HOT
2002-07-27, 13:08:14
jo, hehe. Auch mit Intel ists nicht vergleichbar, hier wurde von 180 auf 130nm geschrumpft. Bei AMD hats nix gebracht, weil sie die DIE Fläche gleichzeitig drastisch zusammengekürzt haben.
20nm Unterschied machen nicht sehr viel aus, ein Schritt von 150 auf 100 oder 90nm, das würde wirklich was bringen.

Quasar
2002-07-27, 13:19:21
Vergleicht doch lieber mal den Umstieg von 0,18µ auf 0,15µ......das hat imo einiges gebracht, sowohl..als auch.

ernesto.che
2002-07-27, 18:44:29
Originally posted by ow



Kann ich nur zustimmen. Verstehe das auch nicht.
Hauptsache ist doch, dass die Karte funzt.

Na Na Na! Hü oder Hot ow! Ich denke da nur an deine Meinung zu Glide!

Thowe
2002-07-27, 18:48:29
Originally posted by ernesto.che


Na Na Na! Hü oder Hot ow! Ich denke da nur an deine Meinung zu Glide!

Hmmm, das ist aber doch noch was anderes. Strom entspricht wenigstens den Standard, ob er über Leiterbahnen vom Board kommt (und somit die Regler aus selbigen belastet) oder über das Netzteil ändert letztendlich nichts, blos das der Umweg übers Board wegfällt.

ernesto.che
2002-07-27, 18:53:28
Originally posted by Thowe


Hmmm, das ist aber doch noch was anderes. Strom entspricht wenigstens den Standard, ob er über Leiterbahnen vom Board kommt (und somit die Regler aus selbigen belastet) oder über das Netzteil ändert letztendlich nichts, blos das der Umweg übers Board wegfällt.

Da hast du natürlich recht, ich bin Voodoo 5 5500 Nutzer und sehe absoult keinen Nachteil an einem zusätzlichen Kabel. ow bei der ATi auch nicht, ihm ist nur wichtig, das es funzt, oder wie unsere Birne sagen würde "entscheidend ist was hinten raus kommt". Sehe ich konsequent auch so. ow jedoch nicht ;)

ow
2002-07-27, 20:07:50
:lol:

Woher willst du denn wissen, wie ich was sehe?
Geträumt?

ernesto.che
2002-07-27, 20:15:56
Originally posted by ow
:lol:

Woher willst du denn wissen, wie ich was sehe?
Geträumt?


Also wenn ich keine Fake 3D Center Forum besucht habe, habe ich die Erkenntniß im 3D Center Forum gewonnen.

ow
2002-07-27, 20:19:59
Dann solltest du deine Erkenntnisgewinnungsmethoden mal korrigieren.

ernesto.che
2002-07-27, 20:39:10
Originally posted by ow
Dann solltest du deine Erkenntnisgewinnungsmethoden mal korrigieren.


:chainsaw: Arrogant und ignorant. :chainsaw:

ow
2002-07-27, 20:43:36
Schön, dass du deine Wesenszüge so offen hier zugibst.

ernesto.che
2002-07-27, 20:46:28
Originally posted by ow
Schön, dass du deine Wesenszüge so offen hier zugibst.


Ach Gott, kommst du wieder mit der Vorschulkindergarten Nummer? Selber:P

Peinlicher Auftritt, lass uns (soweit möglich) wieder sachlich werden.

ow
2002-07-27, 20:51:45
Ja, ich finde auch, dass dein Auftreten hier peinlich ist.
Wieso versuchst du eigentlich mich zu provozieren?

Ikon
2002-07-27, 20:53:29
Offensichtlich.

ernesto.che
2002-07-27, 21:04:37
Originally posted by ow

Wieso versuchst du eigentlich mich zu provozieren?



Weil deine Äußerungen nicht schlüssig sind und du dir gerne widersprichts es hinterher aber abstreitest oder - wie hier jetz - versuchst durch lächerliches labern abzulenken.



Originally posted by ow
Ja, ich finde auch, dass dein Auftreten hier peinlich ist.


Meine Güte, ist das infantil. Geh doch mal auf www.tigerentenclub.de

nggalai
2002-07-27, 23:10:04
ow, ernesto,

könnt ihr euer Liebesgeflüster bitte unter vier Augen belassen? Da wird man ja schon vom Lesen neidisch.

Dank schön. :)

ta,
-Sascha.rb

zeckensack
2002-07-28, 02:05:36
Originally posted by ernesto.che
www.tigerentenclub.de Geiler Link, Danke! =)

ernesto.che
2002-07-28, 02:14:24
Originally posted by zeckensack
Geiler Link, Danke! =)


*gg* Aber vergiss nicht, Janosch´s Sachen sind alle depressiv angehaucht ;)

Blackhand
2002-07-28, 04:00:31
Also ich weiß auch nicht was es wegen dem Stromstecker zu diskutieren gibt.

@ernesto.che

Es gibt halt Menschen, die von Moment zu Moment ihre Meinung gerade nach ihrer Laune ändern. Im normalen Leben "kann" man damit ganz gut zurecht kommen. Wenn diese Leute dann das Medium Internet kennen lernen, dann vergessen sie gerne mal, dass alles schriftlich dargelegt ist.

Hättest in solchen Belangen mal Richthofen zu GTS vs. V5 Zeiten erleben sollen.

ernesto.che
2002-07-28, 04:06:32
Originally posted by Blackhand
Also ich weiß auch nicht was es wegen dem Stromstecker zu diskutieren gibt.

@ernesto.che

Es gibt halt Menschen, die von Moment zu Moment ihre Meinung gerade nach ihrer Laune ändern. Im normalen Leben "kann" man damit ganz gut zurecht kommen. Wenn diese Leute dann das Medium Internet kennen lernen, dann vergessen sie gerne mal, dass alles schriftlich dargelegt ist.

Hättest in solchen Belangen mal Richthofen zu GTS vs. V5 Zeiten erleben sollen.

Das ist mir wohl zum Glück erspart geblieben. Gibts davon noch was zu Lesen?


Ich finde es aber zum Brechen, wenn einige ständig mit dieser "was interessiert mich mein Geschwätz von gestern" Mentalität aufkreuzen.

Blackhand
2002-07-28, 08:22:35
Das war damals bei 3dconcept in den Newsdiskussionen, die scheinen nicht mehr online zu sein. Kannst ja mal rumsuchen, falls es dich wirklich interessieren sollte.

Allerdings hat 3DC was neues anzubieten: Ne technische Vergleichstabelle von hochaktuellen Chips.

bambo
2002-07-29, 01:34:45
Originally posted by ernesto.che

oder wie unsere Birne sagen würde "entscheidend ist was hinten raus kommt"

Jepp, und das dürfte ziemlich viel Hitze sein. ;)

zeckensack
2002-07-29, 05:03:13
Originally posted by bambo


Jepp, und das dürfte ziemlich viel Hitze sein. ;) Genau. Mindestens zwei Watt mehr, als eine Geforce4Ti4600 bei Standardtakt. Schlimm sowas :bonk:

skampi
2002-07-29, 11:40:14
Lächerlich, wie hier argumentiert wird. Mind. 2/3 derer die sich aufregen haben einen (overclocked) Athlon + 5 Lüfter im Rechner und und geilen sich an ca. 10 Watt mehr auf. Viel Spaß noch.

Quasar
2002-07-29, 11:58:16
Du weißt Dinge, Skampi, da würde die jeder Hellseher drum beneiden. Ich z.B. weiß nur von ow, Z-Bag, nggalai und mir, was für CPUs drin sind....

skampi
2002-07-29, 12:04:06
Originally posted by Quasar
Du weißt Dinge, Skampi, da würde die jeder Hellseher drum beneiden. Ich z.B. weiß nur von ow, Z-Bag, nggalai und mir, was für CPUs drin sind....

Was tut's zur Sache?!

Quasar
2002-07-29, 12:05:29
Genausoviel wie dein "oraler Erguss"...

skampi
2002-07-29, 12:16:48
Originally posted by Quasar
Genausoviel wie dein "oraler Erguss"...

Wird langsam etwas "privat"... . Laß Dich nicht so gehen.

Quasar
2002-07-29, 12:20:39
Nein, Skampi, privat wird's sicher nicht, zumindest nicht mit dir. :)

Und deine kleinen Provokationsversuche fruchten nicht. Ich werde mich nicht auf dein Niveau begeben.

skampi
2002-07-29, 12:33:35
Originally posted by Quasar
Nein, Skampi, privat wird's sicher nicht, zumindest nicht mit dir. :)

Und deine kleinen Provokationsversuche fruchten nicht. Ich werde mich nicht auf dein Niveau begeben.


OT

Wie dem auch sei, fahre jetzt mit'm Radl ins Bad, werde also Deine Antwort erst heute Abend lesen.

Vielleicht liest Du Dir die letzten paar Posts nochmal durch, wenn es etwas kühler geworden ist.

Thowe
2002-07-29, 22:58:08
<- übertaktet seinen Athlon XP1800+ (Spielekiste) nicht, ist schnell genug.

Frank
2002-07-30, 00:42:16
Originally posted by Thowe
<- übertaktet seinen Athlon XP1800+ (Spielekiste) nicht, ist schnell genug.
?-)

<- braucht neue Bremsgummis für den Shimanoscheiss am Fahrrad

?-)

zeckensack
2002-07-30, 07:18:01
<- hat einen Brenner, der 10W verbraucht + das, was die SCSI-Karte zieht

Ikon
2002-07-30, 07:23:10
Originally posted by Thowe
<- übertaktet seinen Athlon XP1800+ (Spielekiste) nicht, ist schnell genug.

<- kennt die Formulierung "schnell genug" nicht
<- bewundert die Selbstbeherrschung Thowes, etwas nicht zu übertakten (geht das überhaupt ??? )

<- bastelt gerade einen Kühler auf seine Soundkarte

aths
2002-07-30, 13:13:48
Wieso, hast du die übertaktet? (Kommt der Sound dann schneller?)

Unregistered
2002-07-30, 14:32:17
<- hat den Eindruck, dass der Thread hier etwas OT geworden ist.

Bei den Tests der R9700 sollten nicht ausschließlich dann gerade erst erhältliche High-End-Rechner getestet werden, sondern auch das Zeug, was bei Erscheinen der R9700 vermutlich überwiegend zum Zocken benutzt wird, also CPUs mit 1-2GHz und den entsprechenden etwas betagten Mobos. Wenn es da Probleme geben sollte, kann man ja noch immer gegen der ATi-Glühbirne schimpfen.

Exxtreme
2002-07-30, 14:35:16
Originally posted by Unregistered
Wenn es da Probleme geben sollte, kann man ja noch immer gegen der ATi-Glühbirne schimpfen.
Wenn man ein gutes Netzteil hat, sollte es IMHO keine Probleme geben. Bei einem High-End-System sollte es aber dann doch ein 350W oder noch besser 400W Netzteil sein.

Gruß
Alex

Anárion
2002-07-30, 14:38:14
Originally posted by Thowe
<- übertaktet seinen Athlon XP1800+ (Spielekiste) nicht, ist schnell genug.

<------ Geht mit seinem AthlonXP ebenso lieb um! Von wem hat er das bloß gelernt? ???

Ikon
2002-07-30, 14:46:34
Originally posted by aths
Wieso, hast du die übertaktet? (Kommt der Sound dann schneller?)

Nein ... naja möglicherweise über den PCI-Bus, aber das ist weniger das Prob. Wer schon mal eine SB-Live beim zocken berührt hat, weiß wovon ich rede. Nur wird der Thunderbird Avenger DSP noch wesentlich heißer, ich hab in einem Review mal was von 90Grad unter Last gelesen. Und das möchte ich dem guten Stück wirklich nicht antun -> das arme Ding rechnet sich ja zu Tode *umsorg* *liebhab* *umarm*

bambo
2002-07-30, 17:11:35
Originally posted by Exxtreme

Wenn es da Probleme geben sollte, kann man ja noch immer gegen der ATi-Glühbirne schimpfen.

Wenn man ein gutes Netzteil hat, sollte es IMHO keine Probleme geben. Bei einem High-End-System sollte es aber dann doch ein 350W oder noch besser 400W Netzteil sein.


Was hat das Netzteil mit der Glühbirne zu tun? Die hohe Hitzeentwicklung ist unabhängig vom Netzteil.

zeckensack
2002-07-30, 17:24:05
Originally posted by bambo
Was hat das Netzteil mit der Glühbirne zu tun? Die hohe Hitzeentwicklung ist unabhängig vom Netzteil. ...und liegt mindestens zwei Watt über der Leistungsaufnahme einer Geforce4Ti4600 bei Standardtakt.

Unregistered
2002-07-30, 17:32:45
Originally posted by Exxtreme

Wenn man ein gutes Netzteil hat, sollte es IMHO keine Probleme geben. Bei einem High-End-System sollte es aber dann doch ein 350W oder noch besser 400W Netzteil sein.

Gruß
Alex Ich habe mir vor etwa einem Jahr einen Compaq-PC gekauft (keine Flames bitte).
Wie finde ich raus, welches NT ich habe? Rechner aufschrauben?

Ikon
2002-07-30, 17:49:06
Originally posted by Unregistered
Ich habe mir vor etwa einem Jahr einen Compaq-PC gekauft (keine Flames bitte).
Wie finde ich raus, welches NT ich habe? Rechner aufschrauben?

Grünau, auf dem Teil ist ein großer Aufkleber drauf, der dir alles nötige verraten sollte.

Unregistered
2002-07-30, 17:49:25
Gerätemanager...

Ikon
2002-07-30, 17:51:18
Originally posted by Unregistered
Gerätemanager...

Das Netzteil im Gerätemanager ?!

Salvee
2002-07-30, 17:52:23
Originally posted by Unregistered
Ich habe mir vor etwa einem Jahr einen Compaq-PC gekauft (keine Flames bitte).
Wie finde ich raus, welches NT ich habe? Rechner aufschrauben?

Die Frage finde ich süss :wink:
Ja, schätze du musst ihn aufschrauben.
Klebt Compaq auf die Rückseite zufällig so ein 'Garantiesiegel' ?
Das Erlöschen der Garantieansprüche wäre im Falle des Siegelbruchs nämlich nicht rechtens, glaube ich.

bambo
2002-07-30, 18:19:01
Originally posted by zeckensack
...und liegt mindestens zwei Watt über der Leistungsaufnahme einer Geforce4Ti4600

Geschickt. Das Wort "mindestens" ist ein sehr dehnbarer Begriff. ;)

Genau so könntest Du behaupten:

"Die Hitze eines Waldbrands liegt mindestens zwei Watt über der Hitze einer Kerze"

:lol:

Ikon
2002-07-30, 18:22:05
@bambo
Wie kommst du überhaupt auf die Idee die R300 mit einer GF4-Ti4600 zu vergleichen? Wenn überhaupt, dann ist dieser Vergleich nur mit dem NV30 sinnvoll, denn die R300 spielt schließlich in einer etwas anderen Klasse als die GF4-Ti4600.

zeckensack
2002-07-30, 19:13:58
Originally posted by bambo


Geschickt. Das Wort "mindestens" ist ein sehr dehnbarer Begriff. ;)

Genau so könntest Du behaupten:

"Die Hitze eines Waldbrands liegt mindestens zwei Watt über der Hitze einer Kerze"

:lol: Jawohl, Sir, das könnte ich. Mache ich aber nicht, da ein Waldbrand und eine Kerze in völlig anderen Regionen liegen. Ein Vergleich dieser Art wäre (im Gegensatz zu unserem Fall hier) völliger Unsinn.

Mich nervt, daß du dir für den R300 das neue Schlagwort 'Glühbirne' zu eigen machst, gleichzeitig aber verschweigst, daß eine Geforce4Ti4600 mit glatt 40 Watt diese Bezeichnung ebenso verdient hat.

Wieviel mehr verbraucht denn eine Radeon9700? Kannst du mir das beantworten, werter Herr bambo?

Quasar
2002-07-30, 19:30:23
Originally posted by Ikon
Wie kommst du überhaupt auf die Idee die R300 mit einer GF4-Ti4600 zu vergleichen? Wenn überhaupt, dann ist dieser Vergleich nur mit dem NV30 sinnvoll, denn die R300 spielt schließlich in einer etwas anderen Klasse als die GF4-Ti4600.

IMO muss sich das Spitzenprodukt jedes Herstellers den Vergleich mit anderen, zeitgleich erhältlichen Spitzenprodukten der Konkurrenz gefallen lassen.

Schließlich ist es nicht ATis Schuld, wenn nV nicht mit dem nV30 in die Puschen kommt, genausowenig, wie es nVs Schuld war, daß ATi den R8500 ein Jahr nicht refreshed hat und so auch gegen die GF4Ti-Serie antreten musste.

Ikon
2002-07-30, 19:35:14
Originally posted by Quasar


IMO muss sich das Spitzenprodukt jedes Herstellers den Vergleich mit anderen, zeitgleich erhältlichen Spitzenprodukten der Konkurrenz gefallen lassen.

Schließlich ist es nicht ATis Schuld, wenn nV nicht mit dem nV30 in die Puschen kommt, genausowenig, wie es nVs Schuld war, daß ATi den R8500 ein Jahr nicht refreshed hat und so auch gegen die GF4Ti-Serie antreten musste.

IYO schon, IMO nicht. So betrachtet ist der erhöhte Stormbedarf des R300 offensichtlich der letzte Grashalm der Nvidiots ein offensichtlich rundum gelungenes Produkt trotzdem niederzumachen.

bambo
2002-07-30, 19:42:15
Originally posted by Quasar

IMO muss sich das Spitzenprodukt jedes Herstellers den Vergleich mit anderen, zeitgleich erhältlichen Spitzenprodukten der Konkurrenz gefallen lassen.

Schließlich ist es nicht ATis Schuld, wenn nV nicht mit dem nV30 in die Puschen kommt, genausowenig, wie es nVs Schuld war, daß ATi den R8500 ein Jahr nicht refreshed hat und so auch gegen die GF4Ti-Serie antreten musste.

Das erhältliche "Spitzenprodukt" von ATI ist die Radeon 8500, so traurig das auch klingt.

Und es ist auch nicht nVidia's schuld, dass es vom 9700 keine käuflichen Exemplare und noch nicht mal unabhängige fps-Benchmarks gibt. ;)

Quasar
2002-07-30, 19:51:24
Originally posted by Ikon


IYO schon, IMO nicht. So betrachtet ist der erhöhte Stormbedarf des R300 offensichtlich der letzte Grashalm der Nvidiots ein offensichtlich rundum gelungenes Produkt trotzdem niederzumachen.

Jedem seine Meinung. :)

Und wer macht denn hier was nieder? Lass' doch einfach ein bißchen Kritik zu. AGP-Spec ist doch völlig wurscht. Hauptsache das Ding läuft, und wenn's dafür drei Floppy-Stecker bräuchte wär's mir auch egal, solange die genug Y-Adapter mitliefern.


Und Hitze?
Pah! Wer 'nen leisen, passiv gekühlten Bürorechner will, konnte seit Ewigkeiten keine Top-Performer im 3D-Bereich mehr im Rechner haben, so ist das nunmal. Egal ob ATi oder nV, Leistung braucht Lüftung ;)

Quasar
2002-07-30, 19:53:00
Originally posted by bambo


Das erhältliche "Spitzenprodukt" von ATI ist die Radeon 8500, so traurig das auch klingt.

Und es ist auch nicht nVidia's schuld, dass es vom 9700 keine käuflichen Exemplare und noch nicht mal unabhängige fps-Benchmarks gibt. ;)

Geh' doch einfach mal davon aus, daß es ATi diesmal einfach geschafft hat, schneller zu sein, was ist daran schlimm?

So werden deine geliebten nVidia-Chips billiger.

askibo
2002-07-30, 19:55:14
Originally posted by zeckensack
Mich nervt, daß du dir für den R300 das neue Schlagwort 'Glühbirne' zu eigen machst, gleichzeitig aber verschweigst, daß eine Geforce4Ti4600 mit glatt 40 Watt diese Bezeichnung ebenso verdient hat


+++
Das nervt mich auch.

Mir konnte noch kein Nvidiot erklären warum ein NV30 Chip[-set) weniger Strom verbrauchen sollte als ein R300. Und solange mir das keiner erklärt sollten sie besser die Klappe halten. Einen Notebook-tauglichen DX9 Chip wird es so schnell nicht geben. PUNKT

Naomi
2002-07-30, 20:04:09
Originally posted by askibo

Mir konnte noch kein Nvidiot erklären warum ein NV30 Chip[-set) weniger Strom verbrauchen sollte als ein R300

NV30 hat 0.13 µm, R300 hat 0.15 µm.

Selbst ATI hat natürlich das Problem erkannt und will später auf 0.13 µm umsteigen.

Quasar
2002-07-30, 20:05:24
ATi will später umsteigen, weil sie dann mehr Chips pro Wafer kriegen, ergo mehr Kohle verdienen.

Birdman
2002-07-30, 20:08:20
Originally posted by askibo
+++
Das nervt mich auch.
Mir konnte noch kein Nvidiot erklären warum ein NV30 Chip[-set) weniger Strom verbrauchen sollte als ein R300. Und solange mir das keiner erklärt sollten sie besser die Klappe halten. Einen Notebook-tauglichen DX9 Chip wird es so schnell nicht geben. PUNKT
eigentlich vergleichen hier alle den r300 mit dem nv25 in bezug auf den strom (aber das scheint einigen auch ned zu passen ;) ) und zum andern kann man davon ausgehen dass der Nv30 weniger strom zieht, weil er in 0.13<wie man man dieses verfickte zeichen> gefertigt wird.
Bewiesen iss nix, aber die chance ist nun mal höher dass er eher weniger denn mehr strom braucht.


aber anyway, wieso darf man hier nicht sagen, dass die verlustwärme der r9700 absolut scheisse ist ? Nur weil Nv auch fast soviel hat bei ihren spitzenprodukten? paah, seit wann ist esabhängig von der konkurenz ob etwas gut oder schlecht ist? es können ja auch beide gut, oder schlecht sein, muss nicht immer entweder-oder sein.

na ja, aber jedem das seine, und für mich am liebsten keine so krasse glühbirne.

bambo
2002-07-30, 20:18:13
Originally posted by Birdman

0.13<wie man man dieses verfickte zeichen>

Auf einer PC-Tastatur [Alt Gr]-Taste und "M" drücken -> µ

(steht meistens sogar auf der M-Taste drauf. ;)

HiddenGhost
2002-07-30, 20:21:32
Originally posted by Birdman

eigentlich vergleichen hier alle den r300 mit dem nv25 in bezug auf den strom (aber das scheint einigen auch ned zu passen ;) ) und zum andern kann man davon ausgehen dass der Nv30 weniger strom zieht, weil er in 0.13<wie man man dieses verfickte zeichen> gefertigt wird.
Bewiesen iss nix, aber die chance ist nun mal höher dass er eher weniger denn mehr strom braucht.

ich glaube nicht, dass 0,2µm (strg+alt+m), ergo grobgeschätzt 15-20 %, so viel bringen werden. Besonders da das verfahren noch nicht optimal einsetzbar ist und bestimmt noch viele verfeinerungen erleben wird.

aber anyway, wieso darf man hier nicht sagen, dass die verlustwärme der r9700 absolut scheisse ist ? Nur weil Nv auch fast soviel hat bei ihren Spitzenprodukten? paah, seit wann ist es abhängig von der konkurenz ob etwas gut oder schlecht ist? es können ja auch beide gut, oder schlecht sein, muss nicht immer entweder-oder sein.

Sagen darf man alles, solange man diplomatisch bleibt, aber verlustwärme mit ner Glühbirne zu vergleichen zeugt aber eher davon,dass man von nix ne Ahnung hat !

na ja, aber jedem das seine, und für mich am liebsten keine so krasse glühbirne.

Wie gesagt, zeigst du so nur eine verbohrte , sture Einstellung zu allem was dir nicht passt. Bleib objektiv.
Du weisst noch nichtmal wieviel die R300er genau saugen werden , auch wenn ATI selbst erklärte, dass die R300 nur mit voller Geschwindigkeit liefe wenn sie an den Floppy geht.

askibo
2002-07-30, 20:25:10
Originally posted by Birdman

eigentlich vergleichen hier alle den r300 mit dem nv25 in bezug auf den strom (aber das scheint einigen auch ned zu passen ;) ) und zum andern kann man davon ausgehen dass der Nv30 weniger strom zieht, weil er in 0.13<wie man man dieses verfickte zeichen> gefertigt wird.
Bewiesen iss nix, aber die chance ist nun mal höher dass er eher weniger denn mehr strom braucht.


aber anyway, wieso darf man hier nicht sagen, dass die verlustwärme der r9700 absolut scheisse ist ? Nur weil Nv auch fast soviel hat bei ihren spitzenprodukten? paah, seit wann ist esabhängig von der konkurenz ob etwas gut oder schlecht ist? es können ja auch beide gut, oder schlecht sein, muss nicht immer entweder-oder sein.

na ja, aber jedem das seine, und für mich am liebsten keine so krasse glühbirne.

Der NV30 wird in 0,13µ (schau dir mal deine "m" Taste genauer an, oder schreib einfach 130nm ;)) gefertigt, aber da er mehr Transitoren hat und höher getaktet werden soll bringt das wenig bis gar nichts.


Mir ist die Abwärme des R300 auch zu hoch (absolut Scheiße ist übertrieben), mir sind passiv kühlbare Chips am liebsten. Aber das diese Argument ausgerecht immer wieder von Nvidiot-Seite kommt ist lächerlich, und das genau nervt mich.

Edit: sollte in Zukunft schneller schreiben :D

Birdman
2002-07-30, 20:27:21
Originally posted by HiddenGhost
Wie gesagt, zeigst du so nur eine verbohrte , sture Einstellung zu allem was dir nicht passt. Bleib objektiv.
Du weisst noch nichtmal wieviel die R300er genau saugen werden , auch wenn ATI selbst erklärte, dass die R300 nur mit voller Geschwindigkeit liefe wenn sie an den Floppy geht.
tja, das ist meine Meinung, und wenn andre die in frage stellen geht mir das ziemlich am arsch vorbei.
Ich zwinge sie ja ned andern auf, und darüberhinaus find ich es immer wieder lustig, dass sich nur leute aus der einen "fraktion" über sowas aufregen ;)
btw. ich finde die ti4600 auch ned das topprodukt ohne mängel, und gerade bei der hitzeentwicklung bin ich wirklich nicht begeistert.
meine alte 8500er ging passiv und nun brauch ich (beim selben kühler...zalman cu dingsbums) 2 80er aktivbrumsler @5V um dat ding kühl (aber nicht wirklich leise) zu halten.

btw. wieso ist meine Meinung verbohrt? nur weil ich keine delta EHE turbinen ich rechner mag, die es braucht um die hardware kühl zu halten? mag ja sein dass einige hier NUR auf performance achten, aber ab einem punkt beginne ICH auch auf anderes zu kukken, denn brutale bruteforce.
und solange die grakas mit nur so ollen 1HE kühlgedösels gebaut werden (um sie specs einzuhalten) ist nun mal der einzige gangbare weg, derjenige der lautstärke.

StefanV
2002-07-30, 20:29:47
Originally posted by Naomi
NV30 hat 0.13 µm, R300 hat 0.15 µm.

Selbst ATI hat natürlich das Problem erkannt und will später auf 0.13 µm umsteigen.

Dafür verbrauchen NV Chip im Vergleich zu ATI Chips bei gleicher Leistung auch mehr Abwärme.

Siehe Radeon 8500 vs GF3 TI200, die Radeon ist bei 250MHz deutlich kühler als die GF3.

Auch wird der NV30 wohl mit 350-400MHz getaktet sein.

ergo:

Der wird mehr verbraten als die R300...

StefanV
2002-07-30, 20:31:18
Originally posted by Quasar
Und Hitze?
Pah! Wer 'nen leisen, passiv gekühlten Bürorechner will, konnte seit Ewigkeiten keine Top-Performer im 3D-Bereich mehr im Rechner haben, so ist das nunmal. Egal ob ATi oder nV, Leistung braucht Lüftung ;)

Hm, Kyro 2 und Radeon 8500 sag ich da nur *eg*

Auf meiner Radeon 8500LE thront eine tolle Voodoo3 Bratpfanne, völlig ausreichend für die 8500LE :)

Aber hast recht, der R200 Chips ist nur der 2. schnellste, in sofern hast du nicht ganz unrecht :naughty:

StefanV
2002-07-30, 20:41:16
Leute, haltet mal die Luft an!!

NOCH wissen wir nicht, wieveil die R300 zieht.

Wir wissen nur, daß sie einen Floppy Stecker auf der Platine hat, wir wissen aber nicht _warum_...

Wäre ja auch möglich, daß die neue ATI gerademal 30W verbrät, ATI aber die sichere Variante gewählt hat und auf eine 'externe' Spannungsversorgung setzt...
Oder aber für manche Boards, die eine schwache Spannungsversorgung haben (gruß an Epox und Soyo)...

Allerdings ist noch unklar, ob man den Floppy Stecker braucht und wenn, warum!!!

Und zu guter letzt:

NOCH wissen wir nicht, wieviel der NV30 verbrät.
Vermutlich wird es mindestens genausoviel sein, möglicherweise mehr...

Birdman
2002-07-30, 20:42:16
Originally posted by Stefan Payne
Dafür verbrauchen NV Chip im Vergleich zu ATI Chips bei gleicher Leistung auch mehr Abwärme.
Siehe Radeon 8500 vs GF3 TI200, die Radeon ist bei 250MHz deutlich kühler als die GF3.
Auch wird der NV30 wohl mit 350-400MHz getaktet sein.
ergo:
Der wird mehr verbraten als die R300...
Laut Tecchannel sieht das aber ein wenig anders aus....

GF3TI200: 19W/27W (desktop/game)
R8500: 21W/33W (desktop/game)

Ok, das war nun eine retail mit höhrem takt und höhrer (speicher)spannung, aber wirklich unter das niveau einer ti200 wird sie wohl nicht fallen.
Also nix mit deutlich kühler, sondern eher heisser. (dafür taktet die r8500 auch schneller, aber nixdestotrotz ist deine aussage falsch)

btw. dein "Der wird mehr verbraten als die R300..." ist stark spekulationsforumwürdig, denn ncoh weiss man weder die leistungsaufnahme/taktfrequenz des r200, geschweige denn nv30

Salvee
2002-07-30, 21:27:35
Meinst du die Tecchannel-Zeitschrift?
Hab' mal kurz den Test überflogen, da kamen solche 'Ergebnisse' bei rum wie etwa:
- Kühler auf der GF4Ti von Asus reicht nicht aus, da der Rechner ständig abstürzt
- Radeon8500 stellt AdvancedPixelshaderTest im 3DMark fehlerhaft dar
Nach den beiden Zitaten habe ich das Heft erstmal liegenlassen...

StefanV
2002-07-30, 22:08:02
Originally posted by Birdman

Laut Tecchannel sieht das aber ein wenig anders aus....

GF3TI200: 19W/27W (desktop/game)
R8500: 21W/33W (desktop/game)

Nunja, das ist 'ne Differenz Messung...
Wenn der Treiber ein ganz kleines bißchen mehr CPU Last erzeugt, dann ist der Test völlig fürn Hintern...
Desktop geht noch gerade eben so, aber Game ist völlig für die Tonne, da die CPU bei einer schnelleren GraKa auch mehr Arbeiten muß...

Dieser Test ist zwar löblich, aber auch nicht das Gelbe vom Ei...
Sinniger wäre ein AGP Extender, wie ihn ram genutzt hat.
Nachteil:
nicht alle Karten/Chips laufen...


Originally posted by Birdman

Ok, das war nun eine retail mit höhrem takt und höhrer (speicher)spannung, aber wirklich unter das niveau einer ti200 wird sie wohl nicht fallen.
Also nix mit deutlich kühler, sondern eher heisser. (dafür taktet die r8500 auch schneller, aber nixdestotrotz ist deine aussage falsch)

tja, siehst du :)
Die LE hat AFAIK 1,6V Core, die 'normale' 8500 1,8V Core...
Zum ausrechnen der Verlustleistung bei 275Mhz bei 1,6V Core und bei 250MHz hab ich jetzt gerade keine Lust...
(1 Formel->ohmscher Widerstand->P=UxI, U=RxI, übern Widerstand kann man die Verlustleistung ausrechnen.
2. Formel für Kondensator, war glaub ich 1/Xc*F*T)

Originally posted by Birdman
btw. dein "Der wird mehr verbraten als die R300..." ist stark spekulationsforumwürdig, denn ncoh weiss man weder die leistungsaufnahme/taktfrequenz des r200, geschweige denn nv30

na eben...
Was sicher ist, daß ATI meist die Stromsparenderen Chips hinbekommt (war schon immer so :)), NV dagegen heizöfen (verglichen mit anderen)...

BTW: ich meine schon Athlon gegen Pentium 3, besser gesagt P6 Architektur und nicht den Pentium4 :)
Athlon und P3 haben ein recht ähnliches Design, die Verlustleistung unterscheidet sich bei gleicher Spannung und Frequenz aber deutlich...

(hab ich das eigentlich in diesem Thread gesagt oder war das in einem anderen??)

Thowe
2002-07-30, 22:56:23
Mal ganz ab davon das man wenn dann die GF3TI500 gegen dei R8500 messen müsste, aber was solls.


Letztendlich ist das alles völlig egal, und ich würde es immer noch gut finden, wenn nVidia auch einen Stromanschluss auf die Karten packen würde. Nicht zuletzt immer noch wegen den nVidiots die die Karten noch übertakten und mal locker von 40W auf über 50W und mehr gehen. Frei nach den Motto: "Ob Karte kaputt oder Board krepiert, den Shit, ja den reklamieren wir." Also Jungs, bleibt euch treu und schreit euren Leitsatz mit aller Kraft "grill´em kill´em"

nocturne
2002-07-31, 00:56:17
Originally posted by Stefan Payne

NOCH wissen wir nicht, wieveil die R300 zieht.

Wir wissen nur, daß sie einen Floppy Stecker auf der Platine hat, wir wissen aber nicht _warum_...

Wäre ja auch möglich, daß die neue ATI gerademal 30W verbrät, ATI aber die sichere Variante gewählt hat und auf eine 'externe' Spannungsversorgung setzt...


Nein. Du solltest weniger labern und mehr die anderen Postings lesen. Vor allem das erste Posting in diesem Thread. Da kannst Du nachlesen, dass ATI selber offiziell zugegeben hat, dass die Radeon9700 den externen Stromanschluss zwingend erfordert.

Salvee
2002-07-31, 00:58:13
Originally posted by nocturne
Da kannst Du nachlesen, dass ATI selber offiziell zugegeben hat, dass die Radeon9700 den externen Stromanschluss zwingend erfordert.

Zugegeben? Standen die vor Gericht, oder was?
Edit: Eigentlich geht es ja auf Naomi's Kappe.

Xmas
2002-07-31, 02:17:59
Mir scheint hier befürchten einige unerwartet hohe Folgekosten oder planen vielleicht ihre Heizung einzusparen, oder wie erklärt sich sonst das plötzlich aufkommende Interesse an der Verlustleistung von nichtexistenten 400$-Grafikkarten?

nocturne
2002-07-31, 02:41:37
Originally posted by Xmas
wie erklärt sich sonst das plötzlich aufkommende Interesse an der Verlustleistung von nichtexistenten 400$-Grafikkarten?

:lol: ;)

ow
2002-07-31, 09:39:17
Originally posted by bambo


Auf einer PC-Tastatur [Alt Gr]-Taste und "M" drücken -> µ

(steht meistens sogar auf der M-Taste drauf. ;)



Jein.
Geht weder auf englischen Tastaturen allgemein noch auf deutschen mit Opera als Browser. Betriift das Euro-Symbol ebenso.

Blackhand
2002-07-31, 09:49:09
Hä? Ich surf zwar momentan mit Mozilla(Opera hatte ich mal, ist jetzt aber nach ner Formatierung nicht mehr drauf), aber so weit ich mich erinnern kann ging das mit dem Opera, da hab ich mit sehr hoher wahrscheinlichkeit mal hin und wieder das µ und möglicherweise das € benutzt. War die englische Opera Version.

Muss mir mal die neuste Version ziehen und drauf machen.

ow
2002-07-31, 09:51:46
Ich nutze den 'alten' Opera 5.12. Und da geht weder Euro- noch Mikron-Zeichen. Die Tastenkombis sind bei Opera fuer irgendwelche Menues belegt.

Quasar
2002-07-31, 09:58:37
OT (evtl. Split?):

Oder mach dir eine Textdatei mit den Symbolen drin und C&P die da draus, wenn's d'se brauchst.

StefanV
2002-07-31, 10:41:35
Originally posted by nocturne

Nein. Du solltest weniger labern und mehr die anderen Postings lesen. Vor allem das erste Posting in diesem Thread. Da kannst Du nachlesen, dass ATI selber offiziell zugegeben hat, dass die Radeon9700 den externen Stromanschluss zwingend erfordert.

Wo steht das??

Von 'zwingend erfordert' weiß ich nix!!

Bisher ist es nicht bekannt, wozu der Stecker dient, auch ist nicht bekannt, ob man ihn nutzen muss!

Ebensowenig ist die Leistungsaufnahme vom R300 nicht bekannt.
Ebensowenig ist bekannt, aus welchen Leitungen ATI den 'Saft' zieht...

Also in der aktuellen PCGH steht nix von 'zwingend erfordern', da steht nur was von Optional, so hab ichs jedenfalls verstanden...

zeckensack
2002-07-31, 11:06:21
Originally posted by nocturne


Nein. Du solltest weniger labern und mehr die anderen Postings lesen. Vor allem das erste Posting in diesem Thread. Da kannst Du nachlesen, dass ATI selber offiziell zugegeben hat, dass die Radeon9700 den externen Stromanschluss zwingend erfordert. Für den Fall, daß du es tatsächlich immer noch nicht gesehen hast, solltest vielleicht du nochmal das erste Posting lesen.

Aber bitte nicht nur die ersten 14 Worte von A2, sondern mindestens die ersten 22. Nicht daß du es schon wieder falsch machst ...

Quasar
2002-07-31, 11:56:12
Wie sieht das eigentlich mit AGPx8 aus? Wurde da nicht gleich auch erlaubt, ein bißchen mehr Schotorom durch den Port zu jagen?

Nur so am Rande, da die Radeon9700 ja eigentlich eine AGPx8-Karte ist, die den Floppy-Stecker evtl. nur für die Funktion in AGPx2 und kleiner braucht.

Xmas
2002-07-31, 20:00:37
Originally posted by zeckensack
Für den Fall, daß du es tatsächlich immer noch nicht gesehen hast, solltest vielleicht du nochmal das erste Posting lesen.

Aber bitte nicht nur die ersten 14 Worte von A2, sondern mindestens die ersten 22. Nicht daß du es schon wieder falsch machst ...
Sorry, aber die ca. zwei Dutzend Wörter die danach kommen sind IMHO eindeutig.

(Stört mich aber nicht die Bohne, hatte ja auch schon ne V5...)

zeckensack
2002-07-31, 20:05:22
... to attain maximum performance ... ;)

Quasar
2002-07-31, 20:13:08
Ja, zecki, is ja gut.

Was aber wenn das "attain maximum performance" auf das Design der Karte bezogen war. Und mit dem aktuellen Design ist man eben required to plug in den Floppystecker.

Ohne ihn wäre vielleicht eine R9700 mit 220MHz möglich geworden....

Matrix316
2002-07-31, 20:20:00
Originally posted by Quasar
Ja, zecki, is ja gut.

Was aber wenn das "attain maximum performance" auf das Design der Karte bezogen war. Und mit dem aktuellen Design ist man eben required to plug in den Floppystecker.

Ohne ihn wäre vielleicht eine R9700 mit 220MHz möglich geworden....

Vielleicht sollte Matrox auch mal einen Stromstecker draufmachen. ;)

StefanV
2002-07-31, 21:20:24
Originally posted by Matrix316

Vielleicht sollte Matrox auch mal einen Stromstecker draufmachen. ;)

und NV (TI4600)...

Quasar
2002-07-31, 21:20:49
Wieso? Die läuft auf 300MHz und mehr SP....

Börk
2002-07-31, 21:47:27
Ja aber in gewissen Sinne ist es doch optional, weil der 2D modus funzt auch ohne anschluss ans Netzteil, so hab ichs zumindest irgedwo gelesen, also ist der Anschluss dann doch nur für die extraordinary features gedacht.


Originally posted by Razor
Das steht required und nicht optional, Iceman !

Das bedeutet im Umkehrschluss:

"Nix Strom, nix funzen !"
(du verstehst ?)
;D

Nun ist es also Fakt, dass der R300 mit den AGP-Specs NICHT auskommt...
Und wieder ein 'Verdacht' mehr, der sich bestätigt !
:D

StefanV
2002-07-31, 22:31:06
Originally posted by Quasar
Wieso? Die läuft auf 300MHz und mehr SP....

Deshalb:

Originally posted by Thowe
Letztendlich ist das alles völlig egal, und ich würde es immer noch gut finden, wenn nVidia auch einen Stromanschluss auf die Karten packen würde. Nicht zuletzt immer noch wegen den nVidiots die die Karten noch übertakten und mal locker von 40W auf über 50W und mehr gehen. Frei nach den Motto: "Ob Karte kaputt oder Board krepiert, den Shit, ja den reklamieren wir." Also Jungs, bleibt euch treu und schreit euren Leitsatz mit aller Kraft "grill´em kill´em"

Quasar
2002-07-31, 23:47:57
Nur für Übertakter? Och nö, Payne, lass' mal stecken.

Die sollen schon sehen, was sie davon haben werden

zeckensack
2002-08-01, 01:48:44
Andererseits wär's doch ein geiles Kaufargument, mir der sich eine Firma aus dem Einheitsbrei abheben kann:
Mehr Strom für bessere Übertaktbarkeit!!

Immer noch besser als die Revolverblattmethoden der Firma Gainward.

Hier im Forum habe ich schon ein paar Leute gesehen, die auf sowas meiner Einschätzung nach total abfahren würden ;)

aths
2002-08-01, 06:23:41
Originally posted by zeckensack
Andererseits wär's doch ein geiles Kaufargument, mir der sich eine Firma aus dem Einheitsbrei abheben kann:
Mehr Strom für bessere Übertaktbarkeit!!Auch ich kann nicht verstehen, wie man aus dem Stecker ein Argument gegen die Karte basteln will.

StefanV
2002-08-01, 10:12:51
Originally posted by Quasar
Nur für Übertakter? Och nö, Payne, lass' mal stecken.
Nö, für alle :)
Am besten noch mit Jumper/Umschaltelektronik, um zwischen intern (AGP) und extern (Stecker) umzuschalten :)

Dann das ganze auch noch für etwas ältere Boards und für zickige Boards :)
Für jeden also was dabei :D

Originally posted by Quasar
Die sollen schon sehen, was sie davon haben werden

Tja, schon den DAU oc'ler gesehen?? :D

'Warum startet mein Athlon 1000B AJFA nicht mit 1300MHz??'
Oder solche Dinge wie 'sind 75°C noch in Ordnung??'
bitte nicht allzuernst nehmen, diese 2 Sätze.

Jaja, war leicht übertrieben, aber wer keine Ahnung hat, der sollte halt nicht übertakten.

Naja, aber wer rechnet schon damit, daß, wenn er seine TI4600 bis zum geht nicht mehr prügelt, daß das Board abraucht?? :)

ow
2002-08-01, 10:17:28
Originally posted by Stefan Payne

Naja, aber wer rechnet schon damit, daß, wenn er seine TI4600 bis zum geht nicht mehr prügelt, daß das Board abraucht?? :)



Bist du wieder Schauermaerchen am Erfinden, SP??
Wem ist das Board abgeraucht beim OC der GF4??

Oli_Immerschoen
2002-08-01, 11:16:07
Originally posted by ow




Bist du wieder Schauermaerchen am Erfinden, SP??
Wem ist das Board abgeraucht beim OC der GF4??

He OW, ganze 5 Minuten haste gebraucht um wieder eines von diesen NVidia-feidlichen postings zu finden...5 Minuten ist zwar nicht schlecht aber ich finde das sollte noch schneller gehen, bitte streng Dich an!

Ansonsten aber vielen Dank daß Du diese blasphemischen Anti-NVidia Posts sofort aufdeckst..weiter so!!!

MfG Olli

zeckensack
2002-08-01, 11:22:31
Originally posted by Oli_Immerschoen


He OW, ganze 5 Minuten haste gebraucht um wieder eines von diesen NVidia-feidlichen postings zu finden...5 Minuten ist zwar nicht schlecht aber ich finde das sollte noch schneller gehen, bitte streng Dich an!

Ansonsten aber vielen Dank daß Du diese blasphemischen Anti-NVidia Posts sofort aufdeckst..weiter so!!!

MfG Olli :bad1:

Ich hätte auch gerne mal Belege für Stefans Theorie.

edit: Instabilität kommt beim OC ganz von selbst, aber Abrauchen?
edit2: Abrauchen des Boards?
edit3: Wegen Graka-OC?
edit4: Hey, das macht Spaß und geht auf dem neuen Server so schön schnell =)

Oli_Immerschoen
2002-08-01, 11:55:42
Originally posted by zeckensack
:bad1:

Ich hätte auch gerne mal Belege für Stefans Theorie.


Hmm..ich glaub Stefans Theorie ist Quark, demnäxt wird er vielleicht noch erzählen daß die alljährlichen Waldbrände in den USA auf freilaufende Laptops zurückzuführen sind in denen überhitzte NVidia Grafikchips arbeiten..

Amüsant finde ich aber auch wie schnell und sicher OW solche Posts findet, man könnte fast denken er ist auf einer Mission die Lehre NVidias in die Welt zu tragen :D

Jedenfalls hat er augenscheinlich eine Alarmglocke an seinem PC installiert und überwacht so ständig das Forum auf der suche nach Gotteslästerung...da sollte man ihm viel Glück für wünschen *daumendrück*

MfG Olli

zeckensack
2002-08-01, 12:16:29
Originally posted by Oli_Immerschoen
Hmm..ich glaub Stefans Theorie ist Quark, demnäxt wird er vielleicht noch erzählen daß die alljährlichen Waldbrände in den USA auf freilaufende Laptops zurückzuführen sind in denen überhitzte NVidia Grafikchips arbeiten..So schlimm ist der Stefan garnicht. Er denkt nur desöfteren in 'ungewöhnliche' Richtungen und findet dadurch hin und wieder so manches spannende Detail, das bisher übersehen wurde. :)

In diesem speziellen Fall ... äh ja, ich kann's auch nicht wirklich glauben, aber das sollten wir schon Stefan überlassen, vielleicht kann er uns ja noch überzeugen :D

Amüsant finde ich aber auch wie schnell und sicher OW solche Posts findet, man könnte fast denken er ist auf einer Mission die Lehre NVidias in die Welt zu tragen :D Und das verstehe ich jetzt irgendwie auch nicht so ganz ... :|
ow hält eine Aussage für Quatsch, die du selber für Quatsch hältst, so weit bin ich. Was hat das denn jetzt mit heiliger Mission zu tun? Vielleicht bist du da etwas übersensibilisiert und interpretierst da Sachen hinein, die garnicht da sind. Ich kann in diesem speziellen Fall nichts böses erkennen und andere Fällen (ob positiv oder negativ) werden daran auch nichts ändern.
Jedenfalls hat er augenscheinlich eine Alarmglocke an seinem PC installiert und überwacht so ständig das Forum auf der suche nach Gotteslästerung...da sollte man ihm viel Glück für wünschen *daumendrück*

MfG Olli Das ist deine Meinung. Mit diesem Beispiel wirst du sie jedenfalls nicht begründen können.

Nix für ung00t ;)

Oli_Immerschoen
2002-08-01, 12:39:13
Originally posted by zeckensack
So schlimm ist der Stefan garnicht.

Das habe ich auch nicht gesagt und/oder gemeint.

Originally posted by zeckensack In diesem speziellen Fall ... äh ja, ich kann's auch nicht wirklich glauben, aber das sollten wir schon Stefan überlassen, vielleicht kann er uns ja noch überzeugen :D

Nun, da haben wir ja wenigstens EINE Übereinstimmung, wir zwei beiden :)

Originally posted by zeckensack
Und das verstehe ich jetzt irgendwie auch nicht so ganz ... :|
ow hält eine Aussage für Quatsch, die du selber für Quatsch hältst, so weit bin ich. Was hat das denn jetzt mit heiliger Mission zu tun? Vielleicht bist du da etwas übersensibilisiert und interpretierst da Sachen hinein, die garnicht da sind. Ich kann in diesem speziellen Fall nichts böses erkennen und andere Fällen (ob positiv oder negativ) werden daran auch nichts ändern.
Das ist deine Meinung. Mit diesem Beispiel wirst du sie jedenfalls nicht begründen können.

Nix für ung00t ;)

1. Es geht nicht um die Aussage an sich sondern um die blitzartige Reaktionszeit, mir ist klar daß das wahrscheinlich Zufall war aber ich fands einfach amüsant und weiß nicht so recht was daran so schwer zu verstehen ist.

2. Ich habe auch nichts "böses" erkennen können.

3. Mich "übersensibilisiert" zu nennen ist - mit Verlaub - im Zusammenhang mit Deinem Post auf den ich mich gerade hier beziehe "etwas" schwer nachvollziehbar, reagierst doch DU hier gerade sehr sensibel und verteidigst jemanden den ich garnicht angreifen wollte, nämlich OW.

4. Ja, daß OW jemand ist der NVidia sowohl mit objektiven als auch subjektiven Argumenten unterstützt ist tatsächlich meine Meinung. Und dieses Beispiel ist tatsächlich kein Beleg dafür, den einen oder anderen KÖNNTE man aber in diesem Forum finden....

Bis denne...

Olli

zeckensack
2002-08-01, 12:55:32
Originally posted by Oli_Immerschoen
3. Mich "übersensibilisiert" zu nennen ist - mit Verlaub - im Zusammenhang mit Deinem Post auf den ich mich gerade hier beziehe "etwas" schwer nachvollziehbar, reagierst doch DU hier gerade sehr sensibel und verteidigst jemanden den ich garnicht angreifen wollte, nämlich OW.Hmmm ... gehört wahrscheinlich zum Geschäft, Kollegen hin und wieder zu unterstützen. Ich hatte das als 'kleine Verarsche' verstanden, aber wahrscheinlich hast du Recht und ich habe das falsch aufgefasst :)

Ich hatte ja extra geschrieben, nix für ungut, und so war's auch gemeint :)

Oli_Immerschoen
2002-08-01, 13:08:29
Originally posted by zeckensack

Ich hatte ja extra geschrieben, nix für ungut, und so war's auch gemeint :)

Schön daß wir uns einigen konnten, passiert mir derzeit in diesem Forum nicht sooo oft :)

StefanV
2002-08-01, 13:31:28
Originally posted by Oli_Immerschoen

Hmm..ich glaub Stefans Theorie ist Quark, demnäxt wird er vielleicht noch erzählen daß die alljährlichen Waldbrände in den USA auf freilaufende Laptops zurückzuführen sind in denen überhitzte NVidia Grafikchips arbeiten..

kommt darauf an, was der Boardhersteller vorgesehen hat...

Auf 'nem ASUS Board ist es wohl unwahrscheinlich, daß da was durchbrennt, genau wie bei allen anderen Boards, die 'nen AGP PRO haben...

Nur was ist, wenn ein Hersteller bei einem Board an den Spannungsleitungen gespart hat??

Kurz/mittelfristig mag das funktionieren, wenn dadrin aber 24/7 eine bis zum Anschlag übertaktete GF4 TI4600 drin steckt, dann könnte das durchaus problematisch sein...

Und wenn das passieren sollte, dann kann man hoffen, daß man 'nen Eimer Wasser/Feuerlöscher in der Nähe stehen hat (oder das Board 'ne Sicherung) :)

Am 'besten' z.B. bei einer LAN Party nach 72h Dauerzocken...

ow
2002-08-01, 13:42:39
Voellig unsinnige Argumentation, SP.

Ein AGP Pro verhaelt sich exakt wie ein normaler AGP, wenn eine normale AGP Karte drinsteckt und das sind die GF4 AFAIK.

An den Spannungsleitungen gespart??
Stefan, fuer sowas gibt's ne Spec wie drinsteht, wieviel Ampere auf welcher Leistung fliessen duerfen.

Und wieso die Zeitdauer des Betriebs hier eine Rolle dabei spielen soll ist sicher nicht nur mir absolut schleierhaft.


Also denk dir mal was besseres aus, dies hier war wohl nix.

Oli_Immerschoen
2002-08-01, 13:53:14
Originally posted by Stefan Payne



Nur was ist, wenn ein Hersteller bei einem Board an den Spannungsleitungen gespart hat??



Nun ja, bei dieser Denkweise solltest Du Deinen PC inklusive aller anderen Geräte die zum Betrieb Strom brauchen aus Deiner Wohnung verbannen: die Hersteller könnten an der Isolierung der Kabel gespart haben und ein feuer könnte ausbrechen...

Kommt mir jetzt irgendwie an den Haaren herbeigezogen vor, Dein Post.

MfG olli

Ikon
2002-08-01, 14:17:43
Originally posted by ow
An den Spannungsleitungen gespart??
Stefan, fuer sowas gibt's ne Spec wie drinsteht, wieviel Ampere auf welcher Leistung fliessen duerfen.
Und wieso die Zeitdauer des Betriebs hier eine Rolle dabei spielen soll ist sicher nicht nur mir absolut schleierhaft.

Vieleicht meint SP "an den Layern gespaart", da könnte ich mir sowas schon eher vorstellen ...

Originally posted by ow
Also denk dir mal was besseres aus, dies hier war wohl nix.

Das erinnert mich schwer an "heilige Mission" ...

Schnitzl
2002-08-01, 14:25:55
hi,

ganz so abwegig bzw. an den Haaren herbeigezogen find ich das gar nicht.
Zugegeben, es ist worst case und relativ unwahrscheinlich, aber
man muss sich nur mal anschauen, welche Boardhersteller z.B. bei Sockel A die Keepout-Area einhalten.
Oder der Fall mit Epox und GF4-Karten:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1015428572
der Lösungsvorschlag von Epox ist auch nicht so ganz astrein...

Also ich würde nicht darauf vertrauen, dass alle spec immer und überall genau eingehalten werden.
Ich würde eher sagen, wo es geht wird gespart und getrickst.

MfG

skampi
2002-08-01, 14:33:53
Originally posted by ow

...
Und wieso die Zeitdauer des Betriebs hier eine Rolle dabei spielen soll ist sicher nicht nur mir absolut schleierhaft.



Z.B. Qualität der Elkos u. Spannungswandler.

StefanV
2002-08-01, 16:29:12
Originally posted by Schnitzl
hi,

ganz so abwegig bzw. an den Haaren herbeigezogen find ich das gar nicht.

Ah, danke, der erste, der versucht es zu verstehen :)

Originally posted by Schnitzl
Zugegeben, es ist worst case und relativ unwahrscheinlich(...)


Jep, ist es.
Es kann passieren, muß es aber nicht, die Wahrscheinlichkeit, daß ein Board wegen einer übertakteten GF4 abbrennt ist recht gering.
Es sei denn man hat 'ne GF4 mit Voltage MOD drin, dann schauts wohl anders aus...

PS: ich denke immer Worst Case :)
Originally posted by Schnitzl
(...)aber
man muss sich nur mal anschauen, welche Boardhersteller z.B. bei Sockel A die Keepout-Area einhalten.


Stimmt, sind nicht allzuviele...
Das neuste Beispiel könnte das 8KHAL sein (zumindest passt da kein MC462 drauf)...
Allerdings sollten die Löcher schon geerdet sein, bzw 'etwas' frei gelassen werden und nicht gleich da neben die ganzen Leiterbahnen gelegt werden...

Originally posted by Schnitzl

Oder der Fall mit Epox und GF4-Karten:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1015428572
der Lösungsvorschlag von Epox ist auch nicht so ganz astrein...

Hehe, richtig :)

Als ich den 'Lösungsvorschlag' von Epox gelesen hab, da hab ich mich erstmal an den Kopf gefasst...
Weitere schilderung meiner Reaktionen erspar ich euch hier mal :)

Originally posted by Schnitzl
Also ich würde nicht darauf vertrauen, dass alle spec immer und überall genau eingehalten werden.
Ich würde eher sagen, wo es geht wird gespart und getrickst.


Eben, das ist es ja...

Wo wir gerade bei den Specs sind, war da nicht mal was mit den PCI Specs, den einige Hersteller (z.B. Creative) nicht eingehalten haben :rolleyes:

Also auf die Specs dürften die meißten sch***en, solange es keine Probleme gibt...

Originally posted by skampi

Originally posted by ow

...
Und wieso die Zeitdauer des Betriebs hier eine Rolle dabei spielen soll ist sicher nicht nur mir absolut schleierhaft.


Z.B. Qualität der Elkos u. Spannungswandler.


Na allgemeines Verhalten bei überlast :)

'ne Zeit lang gehts gut, irgendwann is vorbei...
Die Betriebsdauer ist auch ein Faktor...

Achja, das beste Beispiel dürfte wohl Codegen sein:

Bis zu einer gewissen Grenze recht stabil, darüber und es fliegt irgendwann in die Luft...

ow
2002-08-01, 18:58:32
Originally posted by Ikon


Vieleicht meint SP "an den Layern gespaart", da könnte ich mir sowas schon eher vorstellen ...




Nein, hat mit den Layern nichts zu tun.

ow
2002-08-01, 19:02:08
Originally posted by Schnitzl

Also ich würde nicht darauf vertrauen, dass alle spec immer und überall genau eingehalten werden.
Ich würde eher sagen, wo es geht wird gespart und getrickst.

MfG


Das ist richtig.
Die Gf4 Boards entsprechen aber den Specs.
Wenn ein Board das nicht aushält, ist das nicht der GF4 anzulasten.
Und wer irgendwelche HW weit ausserhalb ihrer Specs betreibt, braucht sich sowieso über nichts zu wundern.

ow
2002-08-01, 19:03:36
Originally posted by skampi


Z.B. Qualität der Elkos u. Spannungswandler.


Die Lebensdauer dieser Bauteile beträgt normal viele Jahre.
Wer´s nicht übertreibt beim OC braucht da nicht zu befürchten. Da geht nichts kaputt.

StefanV
2002-08-01, 19:14:29
Originally posted by ow



Die Lebensdauer dieser Bauteile beträgt normal viele Jahre.
Wer´s nicht übertreibt beim OC braucht da nicht zu befürchten. Da geht nichts kaputt.

*hüstel*

Erzähl das mal den Codegenusern, denen schonmal eins um die Ohren geflogen ist...

zeckensack
2002-08-01, 19:21:05
Originally posted by Stefan Payne


*hüstel*

Erzähl das mal den Codegenusern, denen schonmal eins um die Ohren geflogen ist... Das bezieht sich aber auch bei Elkos auf definierte Umgebungsbedingungen (cooles Wort :| ).

Die Elkos, die ich so kenne, sind spezifiziert bis 85°C ('preiswerte' Modelle gehen auch schonmal nur bis 45°C) und haben ein Überdruckventil, bei dem im Zweifelsfall Zeuch abgelassen wird. Daß dadurch die Kapazität absinkt, dürfte klar sein. Daß das in Hochfrequenzschaltungen mit hohen Strömen 'interessante' Konsequenzen haben kann, dürfte auch einleuchten. Wenn Codegen das nicht schnallt und die Teile mit zuviel Strom oder Frequenz oder wasauchimmer anbläst, oder keine verträgliche Temperatur sicherstellen kann, dann ist auch der arme Elko nicht schuld daran.

ow
2002-08-01, 19:29:32
richtig.

Um´s kurz zu sagen:

Man kann mit minderwertigen Bauteilen haltbare Schaltungen zusammenbauen bei geeigneter Dimensionierung, und man kann auch aus hochwertigen teuren Bauteilen Schrott zusammenbrutzeln.


Aber was hat das mit dem OC einer GF4 zu tun, SP (dies ist ja Ausgangspunkt dieser Diskussion)??

Thowe
2002-08-01, 21:02:31
Originally posted by ow
richtig.

Um´s kurz zu sagen:

Man kann mit minderwertigen Bauteilen haltbare Schaltungen zusammenbauen bei geeigneter Dimensionierung, und man kann auch aus hochwertigen teuren Bauteilen Schrott zusammenbrutzeln.


Aber was hat das mit dem OC einer GF4 zu tun, SP (dies ist ja Ausgangspunkt dieser Diskussion)??

Ich denke er spielt auf meine Aussage an, das es nicht gerade wenige Super-OCler gibt die meinen alles mit erhöhter Spannung und Frequenz betreiben zu müssen. Der Ansicht sind das wenn es 5 Minuten läuft auch monatelang so bleibt und langsam aber sicher ihre Hardware grillen.

StefanV
2002-08-01, 21:10:47
Originally posted by Thowe

Ich denke er spielt auf meine Aussage an, das es nicht gerade wenige Super-OCler gibt die meinen alles mit erhöhter Spannung und Frequenz betreiben zu müssen. Der Ansicht sind das wenn es 5 Minuten läuft auch monatelang so bleibt und langsam aber sicher ihre Hardware grillen.

Jep, das hab ich getan :)

ow
2002-08-01, 22:10:15
Originally posted by Thowe


Ich denke er spielt auf meine Aussage an, das es nicht gerade wenige Super-OCler gibt die meinen alles mit erhöhter Spannung und Frequenz betreiben zu müssen. Der Ansicht sind das wenn es 5 Minuten läuft auch monatelang so bleibt und langsam aber sicher ihre Hardware grillen.


Jep. Stimme ich zu. Da wird es genug geben. Aber ich sagte ja schon:


Die Lebensdauer dieser Bauteile beträgt normal viele Jahre.
Wer´s nicht übertreibt beim OC braucht da nicht zu befürchten. Da geht nichts kaputt.

und


Und wer irgendwelche HW weit ausserhalb ihrer Specs betreibt, braucht sich sowieso über nichts zu wundern.


Und kaputt gehen kann jede HW, die auf Dauer übertaktet wird.

skampi
2002-08-01, 22:14:19
Originally posted by zeckensack
Das bezieht sich aber auch bei Elkos auf definierte Umgebungsbedingungen (cooles Wort :| ).

Die Elkos, die ich so kenne, sind spezifiziert bis 85°C ('preiswerte' Modelle gehen auch schonmal nur bis 45°C) und haben ein Überdruckventil, bei dem im Zweifelsfall Zeuch abgelassen wird. Daß dadurch die Kapazität absinkt, dürfte klar sein. Daß das in Hochfrequenzschaltungen mit hohen Strömen 'interessante' Konsequenzen haben kann, dürfte auch einleuchten. Wenn Codegen das nicht schnallt und die Teile mit zuviel Strom oder Frequenz oder wasauchimmer anbläst, oder keine verträgliche Temperatur sicherstellen kann, dann ist auch der arme Elko nicht schuld daran.

Jepp, mir ist vor kurzem das Netzteil von meinem Fernseher abgemickert (scheint wohl ne Loewe-Krankheit zu sein), habe also einen Elko mit 100µFarad ausgeloetet und durch zwei 47'er parallel ersetzt. Der Fernseher lief danach eine Woche, dann wars wieder vorbei. der org Kond. war für 105°C spezifiziert, die neuen nur für 85°C.

Was ich damit sagen will, kleine Unterschiede können folgenschwer sein, deswegen würde ich mich nicht an den angeblich 42Watt Grenze für den AGP festkrallen.

PS: Ein 'Ventil' konnte ich noch nicht entdecken, oder meinst Du die Sollbruchstellen im Deckel:).

Thowe
2002-08-01, 22:17:43
Originally posted by ow


Und kaputt gehen kann jede HW, die auf Dauer übertaktet wird.

Mir klar das du das weisst. =)

Blos es geht mir in der letzten Zeit einfach auf den Senkel das überall von overclocking geredet wird und in Wirklichkeit ist es "Extremeroasting" was getan wird. Selbst Zeitschriften wo ich erwarten würde das diese zumindestens zur Vorsicht ermahnen würden, raten geradezu bis zum extremen zu gehen.

ow
2002-08-01, 22:32:06
Hast recht.

Es sollte darüber mal jemand ein paar Langzeitstudien durchführen. Alles max. overclocked und dann Dauerstresstest aller Komponeneten. Mal schauen, was zuerst platt ist.;):D

Thowe
2002-08-01, 22:36:15
Originally posted by ow
Hast recht.

Es sollte darüber mal jemand ein paar Langzeitstudien durchführen. Alles max. overclocked und dann Dauerstresstest aller Komponeneten. Mal schauen, was zuerst platt ist.;):D

Kein Problem,

Stefan, leihst du mir mal deine Hardware :D


Nee, nee, möchte aber schon mal wissen, wie lange ein Duron mit 2.1V lebt. Oder eine GF4 um 20% übertaktet und 30% mehr Voltage

zeckensack
2002-08-01, 23:44:57
Originally posted by skampi
PS: Ein 'Ventil' konnte ich noch nicht entdecken, oder meinst Du die Sollbruchstellen im Deckel:). Oy, das ist schon etwas länger her, daß ich mich damit wirklich beschäftigt habe, aber bei mir sind die immer 'seitlich ausgewachsen' :D

Ich fänd's auch garnicht lustig, wenn der Deckel zuerst fliegen geht, der wird ja nichtmal von diesem Plastikkrempel (Schlumpschrauch oder sowas) festgehalten *ocl*

OT:
Am coolsten sind aber Tantal-Elkos in Tropfenform. Ich hatte da mal so ein kleines symmetrisches Netzteil aufgebaut und da wußte ich noch nicht, daß diese schrottigen kleinen Printtrafos im Leerlauf schonmal 40~50% mehr Spannung liefern als sie eigentlich sollen ...

Zwei Kerzen, die die Dunkelheit erleuchten
Ein lodernder Todeskampf, verzweifeltes Aufbäumen
Dann das Unausweichliche
Zwei verkohlte Stumpen zeugen auch heute noch von ihren Taten

*eg*

StefanV
2002-08-01, 23:52:08
@Zecke

Ich leih mir mal den untersten Teil deines letzten Postings für meine neue Signatur :)

Bist einverstanden??

zeckensack
2002-08-01, 23:55:27
Originally posted by Stefan Payne
@Zecke

Ich leih mir mal den untersten Teil deines letzten Postings für meine neue Signatur :)

Bist einverstanden?? Klar =)

skampi
2002-08-02, 00:55:46
Originally posted by zeckensack

....
Zwei Kerzen, die die Dunkelheit erleuchten
Ein lodernder Todeskampf, verzweifeltes Aufbäumen
Dann das Unasweichliche
Zwei verkohlte Stumpen zeugen auch heute noch von ihren Taten

*eg*


Wäre ich gern dabeigewesen.*eg* Bin für sowas auch immer zu haben.

ow
2002-08-02, 09:09:13
Originally posted by Stefan Payne
@Zecke

Ich leih mir mal den untersten Teil deines letzten Postings für meine neue Signatur :)

Bist einverstanden??


Haettest wenigstens den Schreibfehler korrigieren koennen.;)

zeckensack
2002-08-02, 10:36:14
Originally posted by ow



Haettest wenigstens den Schreibfehler korrigieren koennen.;) Oooops :o
Wird umgehend behoben ;)

bambo
2002-08-05, 17:32:18
Originally posted by Xmas

Mir scheint hier befürchten einige unerwartet hohe Folgekosten oder planen vielleicht ihre Heizung einzusparen, oder wie erklärt sich sonst das plötzlich aufkommende Interesse an der Verlustleistung von nichtexistenten 400$-Grafikkarten?
Eigentlich kann ATI's Marketingabteilung von 3dfx noch viel lernen. Die waren immerhin dreist genug, aus einer eindeutigen Schwäche (zu viel Strom und Hitze beim Voodoo5-6000) noch eine PR-Aktion zu machen und diese Krücke auch noch zu hypen. Anders ist eigentlich nicht zu erklären, warum ein paar Fanboys das lächerliche externe Trafonetzteil ("VoodooVolt") auch noch cool fanden.

Salvee
2002-08-05, 17:45:42
Originally posted by bambo

Eigentlich kann ATI's Marketingabteilung von 3dfx noch viel lernen. Die waren immerhin dreist genug, aus einer eindeutigen Schwäche (zu viel Strom und Hitze beim Voodoo5-6000) noch eine PR-Aktion zu machen und diese Krücke auch noch zu hypen. Anders ist eigentlich nicht zu erklären, warum ein paar Fanboys das lächerliche externe Trafonetzteil ("VoodooVolt") auch noch cool fanden.

Die gelungenen PR-Aktionen sind auch sicherlich der Grund für das überaus erfolgreiche Bestehen von TDFX am Markt ;).

Exxtreme
2002-08-05, 17:46:44
Originally posted by bambo

Eigentlich kann ATI's Marketingabteilung von 3dfx noch viel lernen. Die waren immerhin dreist genug, aus einer eindeutigen Schwäche (zu viel Strom und Hitze beim Voodoo5-6000) noch eine PR-Aktion zu machen und diese Krücke auch noch zu hypen. Anders ist eigentlich nicht zu erklären, warum ein paar Fanboys das lächerliche externe Trafonetzteil ("VoodooVolt") auch noch cool fanden.
:zzz:

Mal wieder die alte Leier. Da man sonst nix gegen die R300 zur Hand hat, werden vernachlässigbare Dinge, die die R300 mit sich bringt zum Himmel gehypt. Hauptsache was gegen ATi.

Gruß
Alex

StefanV
2002-08-05, 17:52:04
@Bambi


hast du eigentlich schon die riesigen Lüfter der Radeon 9700 Karten gesehen??

Also die haben mich glatt umgehauen...

Eine GF4 mit den Teilen würd wühl abrauchen...

Exxtreme
2002-08-05, 17:53:26
Originally posted by Stefan Payne
@Bimbo äh bambo

Eine GF4 mit den Teilen würd wühl abrauchen...
:lol: Der ist gut. :lol:

Gruß
Alex

bambo
2002-08-05, 18:37:55
Originally posted by Exxtreme

Originally posted by Stefan Payne

@Bimbo äh bambo
:lol: Der ist gut. :lol:


Schon lustig, hier als Mod über die permanenten rassistischen Sprüche von Payne zu lachen, oder Exxtreme? :nono:

StefanV
2002-08-05, 18:43:01
Originally posted by bambo

:lol: Der ist gut. :lol:


Schon lustig, hier als Mod über die permanenten rassistischen Sprüche von Payne zu lachen, oder Exxtreme? :nono: [/SIZE][/QUOTE]

Er wird wohl darüber lachen:



Eine GF4 mit den Teilen würd wühl abrauchen...

nggalai
2002-08-05, 19:10:49
"Bimbo" ist zwar unhöflich (sogar höchst), aber nicht rassistisch. Im heutigen Sprachgebrauch heisst "Bimbo" einfach nur "Person ohne Hirn."

Dennoch eine Beleidigung, die in dieser Form nicht hier reingehört, SP. Bitte editiere doch noch deine Posting dementsprechend, ok?

ta,
-Sascha.rb

StefanV
2002-08-05, 19:22:54
Originally posted by nggalai
Bitte editiere doch noch deine Posting dementsprechend, ok?

ta,
-Sascha.rb

Ähm, warum??

Besser gesagt weshalb??
Und welches?

?-)

Thowe
2002-08-05, 20:41:03
Dachte immer das Bimbo die Kurzform von Bambino ist :) (Stimmt sogar)

Aber im allgemeinen, also Slang, steht Bimbo für eine aktraktive Frau die ein airhead ist, also Kopf ab und Faden dran, fertig ist der Luftballon.

Also Steffi :D Bitte beschreibe hier niemanden als Bimbo, ansonsten überlege ich mir Kosenamen für dich (darin Thowe ein Meister wohl ist).

Andre
2002-08-05, 21:31:08
Stefan Pimpoline,

Bimbo kann und wird als beleidigend aufgefasst - und tu nicht so doof, als wüsstest du nicht, was nggalai meinte.
Also Stoffel Pimper denk nochmal nach.

zeckensack
2002-08-05, 21:32:32
In keinem von Stefan's Postings steht der gesuchte Begriff. ;)
Das war auch bei der ersten Ermahnung schon längst korrigiert.

Andre
2002-08-05, 21:34:38
Originally posted by zeckensack
In keinem von Stefan's Postings steht der gesuchte Begriff. ;)
Das war auch bei der ersten Ermahnung schon längst korrigiert.

Oh stimmt, hab nur den Quote gesehen =)
Trotzdem. Bambi kann auch beleidigend sein :D

Naja, ich bleibe jetzt bei Stoffel Pimpoline ;D

StefanV
2002-08-05, 22:45:35
Originally posted by zeckensack
In keinem von Stefan's Postings steht der gesuchte Begriff. ;)
Das war auch bei der ersten Ermahnung schon längst korrigiert.

Hehe, hast es schon richtig gesehen :)

Habs schon ein 'paar Minuten' vor ngglais Posting korrigiert :)

@Thowe

Bei 'Bimbo' denke ich immer an Lambretta :)

mezzo
2002-08-18, 21:11:17
Originally posted by zeckensack

Wieviel mehr verbraucht denn eine Radeon9700?

Einen ersten Hinweis gibt der Review bei http://www.chip.de/produkte_tests/unterseite_produkte_tests_8788223.html :

"Stromhungrig, noch kein Super-Sampling und kleinere Treibermängel

Da die Karte mittels eines zweiten Steckers eine zusätzliche Strominfusion benötigt, wird schnell klar, dass der Chip alles andere als ein Stromspar-Wunder ist. Die Leistungsaufnahme des Grafikcontrollers liegt bei etwa 50 Watt - auch das ist ein neuer Rekord. Da der Strom direkt vom Netzteil abgezwackt wird, sollte man sich versichern, das das vorhandene Netzteil mindestens 350 Watt verkraftet - sonst könnte der Bildschirm schwarz bleiben."

Und bei den "50 Watt" ist noch nicht mal klar, ob es sich um Strom/Hitze bei Vollast oder nur auf dem Desktop handelt.

zeckensack
2002-08-18, 21:13:32
Originally posted by mezzo


Einen ersten Hinweis gibt der Review bei http://www.chip.de/produkte_tests/unterseite_produkte_tests_8788223.html :

"Stromhungrig, noch kein Super-Sampling und kleinere Treibermängel

Da die Karte mittels eines zweiten Steckers eine zusätzliche Strominfusion benötigt, wird schnell klar, dass der Chip alles andere als ein Stromspar-Wunder ist. Die Leistungsaufnahme des Grafikcontrollers liegt bei etwa 50 Watt - auch das ist ein neuer Rekord. Da der Strom direkt vom Netzteil abgezwackt wird, sollte man sich versichern, das das vorhandene Netzteil mindestens 350 Watt verkraftet - sonst könnte der Bildschirm schwarz bleiben."

Und bei den "50 Watt" ist noch nicht mal klar, ob es sich um Strom/Hitze bei Vollast oder nur auf dem Desktop handelt. Danke für die (späte) Antwort.

Na das ist doch schonmal was.
Acht Watt mehr als eine Geforce4Ti4600 mit ihren 42 Watt (bei Standartakt).

Das müsste mein Netzteil eigentlich locker schaffen :)

Thowe
2002-08-18, 21:16:12
Bequem, jedes nicht gerade NoName 300W Netzteil wird sie locker versorgen. Man sollte nicht vergessen das der "Umweg" übers Board wegfällt.