PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : könnte die 6800 ultra noch gewinnen?


cl55amg
2004-05-05, 12:00:02
das pre sample vom nv 40 war ja mit 400\550 Mhz getaktet.

aber die vorführkarte auf der cebit war mit 475Mhz getaktet.
wenn die finale revision der karte auch mit 475 oder mehr taktet,plus einem finalem treiber...dann könnte sie vielleicht wieder den absoluten performance thron besteigen.

aber von der thermischen perspektive ist natürlich die x800 unschlagbar!

was mein ihr?

Fatality
2004-05-05, 12:02:00
ich glaube das sie vielleicht performancemäßig fast ran kommt, aber dann hat sie immer noch ne schlechte bildquali, braucht 2 slots, ist laut und braucht ein 480w netzteil *looooool*

meiner meinung nach solte nv nachhause gehen und weinen ^^

Lustiger Troll
2004-05-05, 12:08:16
Lest ihr euch auch die Threads hier, wohl nicht, es soll eine 6800 Ultra Extreme mit 450/550 Mhz geben. Zum rest von Fatality äussere ich mich mal nicht, es ist ja noch keine fütterung der Trolljungen ;D.

DrumDub
2004-05-05, 12:09:18
dieser therad gehört imho in spekuforum. flamewar ahoi... ;D

cl55amg
2004-05-05, 12:10:47
bitte kein spam oder unsachliche aussagen!ich möchte eine produktive conversation!

in open gl ist der nv40 vorerst unschlagbar.das heißt auch in doom3...
in dx9 anwendungen ziehen die karten gleich mit kleinem vorteil für ATI.

na klar ist ati thermisch unschlagbar!aber mir gehts erstmal um performance...;-)

Lustiger Troll
2004-05-05, 12:19:28
Original geschrieben von cl55amg
bitte kein spam oder unsachliche aussagen!ich möchte eine produktive conversation!

in open gl ist der nv40 vorerst unschlagbar.das heißt auch in doom3...
in dx9 anwendungen ziehen die karten gleich mit kleinem vorteil für ATI.

na klar ist ati thermisch unschlagbar!aber mir gehts erstmal um performance...;-)

Ich seh das so von der Performance her, ATI musste nicht soviel machen für Ihre Treiber, ist ja dieselbe Technology, NV hat da aber einen Neue Technology und muss die Treiber noch n bischen aufpolieren, solange es Keine Off. Treiber und Retailkarten gibt kann man da nur Spekulieren, deshalb gehört der Thread IMO auch ins Spekuforum.

Basta Reims
2004-05-05, 16:15:41
Original geschrieben von cl55amg
bitte kein spam oder unsachliche aussagen!ich möchte eine produktive conversation!

in open gl ist der nv40 vorerst unschlagbar.das heißt auch in doom3...
in dx9 anwendungen ziehen die karten gleich mit kleinem vorteil für ATI.

na klar ist ati thermisch unschlagbar!aber mir gehts erstmal um performance...;-)

in open gl ist der nv40 vorerst unschlagbar

Komisch nur das ATI fast alle OpenGL Tests für sich entscheidet noch dazu mit besserer Bildqualität. Und Doom3 das wird dieses Jahr eh nicht mehr kommen das ist doch wie Halflife2 letztes Jahr nur Gerüchte sonst nix.

fuck
2004-05-05, 16:40:21
Leistungsmäßig fast ein Gleichstand, technisch gesehen ist der nv40 dem R420 deutlich vorraus, aber der Leistungsverbrauch ist ein GAU. Mit einem 2.4 und einer 9700 hatte ich schon 33% mehr Stromkosten, angesichts der steigenden Preise einfach eine Fehlentwicklung aud meiner Sicht. Es sei denn, man ist Sohn vom Beruf ;D

Tigerchen
2004-05-05, 18:08:35
Presscott + nV40 = 500W Netzteile

Das ist der falsche Weg. Auch wenn Shader 3.0 noch so toll sein mögen.

LovesuckZ
2004-05-05, 18:15:12
Original geschrieben von Tigerchen

Presscott + nV40 = 500W Netzteile
Das ist der falsche Weg. Auch wenn Shader 3.0 noch so toll sein mögen.


R420 = doppelter r360 -> der falsche Weg.

BK-Morpheus
2004-05-05, 18:18:45
Original geschrieben von LovesuckZ
R420 = doppelter r360 -> der falsche Weg.

ich weiss nicht, ob man dazu überhaupt noch was sagen muss....naja LS halt.

54tzgrefd64gg56
2004-05-05, 18:26:31
Nun, dann hilft nichtmal ein Kopfschütteln.
Wenn das eigene Lben nicht genug Aufregung bittet, dann müssen halt Grafikchips für den notwendigen Kick sorgen.

LovesuckZ
2004-05-05, 18:29:23
Original geschrieben von BK-Morpheus
ich weiss nicht, ob man dazu überhaupt noch was sagen muss....naja LS halt.

Warum kritisiert du Tigerchen nicht?
Es ist interessant, dass das, was Nvidia macht, falsch ist. Kritisiert man diese einseitige Sichtweise, ist es auch falsch.
Nunja, scheint wohl so, dass ich in einem jahr meinen Spass haben werde.

[dzp]Viper
2004-05-05, 18:31:56
Der weg zu immer höheren stromverbrauch und immer höheren Temperaturen IST falsch LS...

Niemals sagt, dass kein PS2.0 richtig sein..

Gut dann sage ich halt - kein PS2.0 ist auch falsch....

nun glücklich? :no:


P.S. R420 = 2x R360 ist NICHT falsch.. nur fehlt da halt PS3.0...

LS wenn du weiter rumtrollen willst, dann geh bitte wieder in einen anderen thread... thx

BK-Morpheus
2004-05-05, 18:33:46
Original geschrieben von LovesuckZ
Warum kritisiert du Tigerchen nicht?
Es ist interessant, dass das, was Nvidia macht, falsch ist. Kritisiert man diese einseitige Sichtweise, ist es auch falsch.
Nunja, scheint wohl so, dass ich in einem jahr meinen Spass haben werde.
Weil ich in dem angesprochenen Punkt (Prescott und NV40 verlustleistung und Kühlung) ganz seiner Meinung bin...fortschritt sollte nicht unbedingt in diese Richtung gehen....klar muss ich ebenfalls sagen, dass ich SM3.0 im R420 auch gerne sehen würde.

ow
2004-05-05, 18:39:21
Original geschrieben von Tigerchen

Presscott + nV40 = 500W Netzteile



Sehr realistische Einschätzung. :bonk:

Aber selbst wenn es so wäre bräuchtest du bei einer ATi dann auch noch 480W. Also auch der falsche Weg.

ow
2004-05-05, 18:43:11
Original geschrieben von [dzp]Viper
Der weg zu immer höheren stromverbrauch und immer höheren Temperaturen IST falsch LS...



Falsch? Was heisst hier falsch?
Es ist technisch ganz unvermeidbar, dass sich das so entwickelt. Höhere Takte, mehr Transistoren etc....

ow
2004-05-05, 18:45:41
Original geschrieben von BK-Morpheus
Weil ich in dem angesprochenen Punkt (Prescott und NV40 verlustleistung und Kühlung) ganz seiner Meinung bin...fortschritt sollte nicht unbedingt in diese Richtung gehen....klar muss ich ebenfalls sagen, dass ich SM3.0 im R420 auch gerne sehen würde.


Tja, man kann eben nicht alles haben. Die gewaltige Transistorzahl es NV40 fordert halt ihren Tribut.
Ich halte den Leistungsverbrauch des NV40 für angemessen.

LovesuckZ
2004-05-05, 18:47:11
Original geschrieben von [dzp]Viper
Der weg zu immer höheren stromverbrauch und immer höheren Temperaturen IST falsch LS...

Ich sehe, du verstehst nicht, warum der NV40 mehr Strom benoetigt. Er hat einfach deutlich mehr Features und damit 60 Millionen Transistoren (einen ganzen rv360 Core) mehr. ATi bietet bis auf eine halbherzige 3Dc Implantierung nichts neues. Dadurch konnten sie wie gesagt die transistoren sparen, was zu einer besseren Übertaktbarkeit führt und durch Low-K die Stromaufnahme nochmal reduzieren.

P.S. R420 = 2x R360 ist NICHT falsch.. nur fehlt da halt PS3.0...


Beim r360 fehlt nicht nur PS3.0, sondern gleich das fast gesamte SM3.0...

bill
2004-05-05, 18:48:15
Original geschrieben von [dzp]Viper
Der weg zu immer höheren stromverbrauch und immer höheren Temperaturen IST falsch LS...
Das sehen wir wohl alle so, spätestens wenn wir die Stromabrechnung auf dem Tisch liegen haben. Nur sehe ich da momentan keine Revolution am Hardwarehimmel. Ich finde schon den Stromhunger z.B. einer 9800pro unglaublich hoch. Die neuen ATI Karten zu loben weil sie relativ genügsamer sind find ich deshalb falsch zumal ATI diese relative Genügsamkeit mit weniger Transistoren und damit weniger Features erkauft. Zukünftige ATi Chips werden ganz bestimmt ähnliche Heizer sein wie die neuen NV Chips.

bill

billi
2004-05-05, 19:01:14
Original geschrieben von bill
Das sehen wir wohl alle so, spätestens wenn wir die Stromabrechnung auf dem Tisch liegen haben. Nur sehe ich da momentan keine Revolution am Hardwarehimmel. Ich finde schon den Stromhunger z.B. einer 9800pro unglaublich hoch. Die neuen ATI Karten zu loben weil sie relativ genügsamer sind find ich deshalb falsch zumal ATI diese relative Genügsamkeit mit weniger Transistoren und damit weniger Features erkauft. Zukünftige ATi Chips werden ganz bestimmt ähnliche Heizer sein wie die neuen NV Chips.

bill

Glaskugel?
Im Europa heißt der Trend leiser, kühler, genügsamer. Nicht nur bei Autos wird auf den Verbrauch geachtet.

bill
2004-05-05, 19:18:13
Original geschrieben von billi
Glaskugel?
Im Europa heißt der Trend leiser, kühler, genügsamer. Nicht nur bei Autos wird auf den Verbrauch geachtet. Bisher verbrauchten leistungsfähige Grafikkarten von Jahr zu Jahr mehr Strom. Wieso sollte dieser Trend unterbrochen werden? Leiser und Kühler ist relativ. Meine Voodoo 3 anno 1999, damals top aktuell, wurde lautlos passiv gekühlt. Der Lüfter meines p166 ist ein Winzling gegenüber den modernen CPU lüftern. Trotzdem ist er recht laut im Vergleich zu neueren CPU Lüftern weil man sich damals noch keine Gedanken um leise PCs gemacht hatte.

bill

Edit: Achja
Glaskugel?
Na wir sind doch im Speku Forum. ;)

Tigerchen
2004-05-05, 19:45:25
Original geschrieben von LovesuckZ
Warum kritisiert du Tigerchen nicht?
Es ist interessant, dass das, was Nvidia macht, falsch ist. Kritisiert man diese einseitige Sichtweise, ist es auch falsch.
Nunja, scheint wohl so, dass ich in einem jahr meinen Spass haben werde.

Wozu soll er mich kritisieren. Das machst du doch so gerne.:)

Ich finde den Trend zu 500W Netzteilen eben nicht so dolle.

Mancko
2004-05-05, 20:05:50
Original geschrieben von Tigerchen

Wozu soll er mich kritisieren. Das machst du doch so gerne.:)

Ich finde den Trend zu 500W Netzteilen eben nicht so dolle.


Gut da gebe ich dir Recht. Den Trend finde ich auch nicht toll aber mal ganz ehrlich. ATI liegt vielleicht über die Gesamtlaufzeit betrachtet vielleicht 20 Watt drunter.
Nicht wirklich eine Welt. Ob nun 500 oder 470 spielt doch gar keine Rolle. Ist beides ziemlich viel.

Und nun muss ich mich auch fragen wie erreicht ATI das. Und das geht eindeutig auf die Kappe weggelassener Features und damit Einsparen von Transistoren.
Ich halte sicherlich immer mehr Power auch nicht für den tollen weg aber ich werde keinen Hersteller für weniger Energieverbrauch loben, wenn dieser ganz bewusst neue Technik weglässt.
Das wäre ja schlimm. Dann könnten das alle in Zukunft so machen und wir sitzen dann noch ein paar Jahre länger auf alter Technik.
Wenn die Stromeinsparung durch cleveres Design etc. ermöglicht worden wäre wie zum Beispiel bei AMD, dann würde ich der Argumentation zu 100% folgen. Aber in ATIs Fall ist das nunmal nicht annähernd der Fall.

AMD bietet niedrigeren Stromverbrauch und trozdem tolle Performance und absolute state of the art Technik.
ATI bietet weniger Stromverbrauch, tolle Performance aber eben nicht besser als die Konkurenz in der Summe und hat zudem bei der Technik ziemlich geschlafen.

Wie ich finde ist das bei den meissten Reviews überhaupt nicht deutlich genug zur Sprache gekommen. Ich finde es ziemlich beschämend dass man so eine Entwicklung honoriert in dem man sich auf den niedrigeren(!=niedrigen das ist er nämlich auch nicht) Stromverbrauch zurückzieht.

Hinzu kommt noch diese Stage Optimierung bei den Filtern. Auch hier haben bis auf 3DCenter so gut wie alle geschlafen. Ich kann mich daran erinnern, dass bei Nvidia auch nur der kleinste Ansatz ähnlicher Optimierungen sofort als Cheat deklariert wird. Da wird schon wie ich finde mit zweierlei Maß gemessen. NIcht nur bei Forumusern sondern auch bei Testern ist hier irgendwie ein Trend zu erkennen.

Ich finde von der Performance neben die sich nicht wirklich viel aber ich muss sagen der NV40 reizt mich deutlich mehr. Einfach eine klasse technische Meisterleistung das Teil und ich bin gewillt diesen Mut auch mit einem Kauf zu belohnen. Man muss eben auch mal Visionen unterstützen. Die vermisse ich bei ATI leider auf der ganzen Linie. Sie sind ihrem Minimalistenprinzip auch diesmal irgendwie wieder treu geblieben und ich finde es erschreckend, dass so etwas nicht stärker zur Sprache kommt.

Just my 2 cent.

Tigerchen
2004-05-05, 20:12:47
Original geschrieben von bill
Bisher verbrauchten leistungsfähige Grafikkarten von Jahr zu Jahr mehr Strom. Wieso sollte dieser Trend unterbrochen werden? Leiser und Kühler ist relativ. Meine Voodoo 3 anno 1999, damals top aktuell, wurde lautlos passiv gekühlt. Der Lüfter meines p166 ist ein Winzling gegenüber den modernen CPU lüftern. Trotzdem ist er recht laut im Vergleich zu neueren CPU Lüftern weil man sich damals noch keine Gedanken um leise PCs gemacht hatte.

bill

Edit: Achja

Na wir sind doch im Speku Forum. ;)

Dieser Trend wird unterbrochen werden müßen. ATI bemüht sich zumindest. Bei nV scheint noch nicht mal ein Problembewußtsein vorhanden zu sein.
Ich habe übrigens schon die 2 Stromanschlüße der XGI Volari Duo verteufelt. Gibt keinen Grund für mich von dieser Meinung abzurücken.

INTEL hat übrigens unlängst das Ende der Netburst Archtitektur angekündigt. Ich denke die Leistungsaufnahme der neuen P4's dürfte bei dieser Entscheidung nicht ganz unwichtig gewesen sein.

LovesuckZ
2004-05-05, 20:17:04
Original geschrieben von Tigerchen

Dieser Trend wird unterbrochen werden müßen. ATI bemüht sich zumindest. Bei nV scheint noch nicht mal ein Problembewußtsein vorhanden zu sein.


Problemlösung durch weglassen von Features? Wenn das für dich der richtige Weg ist, dann druecke das bitte auch aus :)

Tigerchen
2004-05-05, 20:17:45
Original geschrieben von Mancko
Gut da gebe ich dir Recht. Den Trend finde ich auch nicht toll aber mal ganz ehrlich. ATI liegt vielleicht über die Gesamtlaufzeit betrachtet vielleicht 20 Watt drunter.
Nicht wirklich eine Welt. Ob nun 500 oder 470 spielt doch gar keine Rolle. Ist beides ziemlich viel.

Und nun muss ich mich auch fragen wie erreicht ATI das. Und das geht eindeutig auf die Kappe weggelassener Features und damit Einsparen von Transistoren.
Ich halte sicherlich immer mehr Power auch nicht für den tollen weg aber ich werde keinen Hersteller für weniger Energieverbrauch loben, wenn dieser ganz bewusst neue Technik weglässt.
Das wäre ja schlimm. Dann könnten das alle in Zukunft so machen und wir sitzen dann noch ein paar Jahre länger auf alter Technik.
Wenn die Stromeinsparung durch cleveres Design etc. ermöglicht worden wäre wie zum Beispiel bei AMD, dann würde ich der Argumentation zu 100% folgen. Aber in ATIs Fall ist das nunmal nicht annähernd der Fall.

AMD bietet niedrigeren Stromverbrauch und trozdem tolle Performance und absolute state of the art Technik.
ATI bietet weniger Stromverbrauch, tolle Performance aber eben nicht besser als die Konkurenz in der Summe und hat zudem bei der Technik ziemlich geschlafen.

Wie ich finde ist das bei den meissten Reviews überhaupt nicht deutlich genug zur Sprache gekommen. Ich finde es ziemlich beschämend dass man so eine Entwicklung honoriert in dem man sich auf den niedrigeren(!=niedrigen das ist er nämlich auch nicht) Stromverbrauch zurückzieht.

Hinzu kommt noch diese Stage Optimierung bei den Filtern. Auch hier haben bis auf 3DCenter so gut wie alle geschlafen. Ich kann mich daran erinnern, dass bei Nvidia auch nur der kleinste Ansatz ähnlicher Optimierungen sofort als Cheat deklariert wird. Da wird schon wie ich finde mit zweierlei Maß gemessen. NIcht nur bei Forumusern sondern auch bei Testern ist hier irgendwie ein Trend zu erkennen.

Ich finde von der Performance neben die sich nicht wirklich viel aber ich muss sagen der NV40 reizt mich deutlich mehr. Einfach eine klasse technische Meisterleistung das Teil und ich bin gewillt diesen Mut auch mit einem Kauf zu belohnen. Man muss eben auch mal Visionen unterstützen. Die vermisse ich bei ATI leider auf der ganzen Linie. Sie sind ihrem Minimalistenprinzip auch diesmal irgendwie wieder treu geblieben und ich finde es erschreckend, dass so etwas nicht stärker zur Sprache kommt.

Just my 2 cent.

ATI hat natürlich ein Problem damit den R300 nicht auf Shader 3.0 aufbohren zu können. Innovativ sind sie trotzdem. Aber das R500 Projekt braucht halt seine Zeit. Bis dahin dürfte der R420 aber seine Fans finden. Ist natürlich ganz klar ein Lückenfüller. Hab auch nie was anderes behauptet.

Tigerchen
2004-05-05, 20:20:48
Original geschrieben von LovesuckZ
Problemlösung durch weglassen von Features? Wenn das für dich der richtige Weg ist, dann druecke das bitte auch aus :)

Low-k-dielectric!
Der R420 ist schnell. Das war das Ziel. Das wurde erreicht. Wer mehr Features braucht sollte ganz klar zum nV40 greifen. Hab ich kein Problem mit.

bill
2004-05-05, 20:25:04
@Mancko
So sehe ich das auch, schön geschrieben.

Original geschrieben von Tigerchen
[COLOR="#000088"]
Dieser Trend wird unterbrochen werden müßen.Ja. Nur wie gesagt sehe ich da noch keine Lösung des Problems innerhalb der nächsten 2 Jahre.

ATI bemüht sich zumindest. Bei nV scheint noch nicht mal ein Problembewußtsein vorhanden zu sein.
Ich habe übrigens schon die 2 Stromanschlüße der XGI Volari Duo verteufelt. Gibt keinen Grund für mich von dieser Meinung abzurücken.Sage mir wo sich ATI bemüht, den Strombedarf relativ gering zu halten? Durch fehlende Features tun sie das doch nur. So wie ich dich kenne kannst du das nicht Gutheißen und mit Innovation oder Bemühung hat das nichts zu tun.

bill

LovesuckZ
2004-05-05, 20:25:40
Original geschrieben von Tigerchen

Der R420 ist schnell. Das war das Ziel. Das wurde erreicht. Wer mehr Features braucht sollte ganz klar zum nV40 greifen. Hab ich kein Problem mit.


Deswegen ist es falsch, über die Stromaufnahme des NV40 zu laestern, da er auch schnell ist und eben die Features bietet.

Tigerchen
2004-05-05, 20:38:22
Original geschrieben von LovesuckZ
Deswegen ist es falsch, über die Stromaufnahme des NV40 zu laestern, da er auch schnell ist und eben die Features bietet.

Denk dran Low-k-dielectric ist auch hilfreich! Diese kleine Information streichst du immer gerne wenn du quotest.Kann ich gut verstehen.:)

Der nV40 bietet Features die ich nicht brauche und die Leistungsaufnahme in ungeahnte Höhen schnellen läßt.

Wenn du die Features nutzen kannst und dir die Leistungsaufnahme deshalb egal ist soll es mir Recht sein. Ist wohl eine Frage des Standpunkts. Kann man verschiedener Meinung drüber sein.

LovesuckZ
2004-05-05, 20:43:10
Original geschrieben von Tigerchen
[COLOR="#000088"]
Der nV40 bietet Features die ich nicht brauche und die Leistungsaufnahme in ungeahnte Höhen schnellen läßt.

Ich hoffe, diese Meinung vertrittst du auch weiterhin in Zukunft :)

1234567890
2004-05-05, 20:45:32
Original geschrieben von LovesuckZ
Deswegen ist es falsch, über die Stromaufnahme des NV40 zu laestern, da er auch schnell ist und eben die Features bietet.

Wach doch auf!
Es ist kein lästern oder bist du eine Kaffeklatschtante, die sich über die Farbe der Socken ihres Nachbarn den Kopf zerbricht?
Hier geht es um Merkmale sowie die eigenen Präferenzen:
- toller Featureset seitens NV aber Leistungsverbrauch-GAU
- aufgebohrter R300 mit wenig Neuerungen aber genügsamen Verbrauch
- Leistungsmäßig (Balken ;) ) etwa Gleichstand

Jetzt liegt es an jedem selbst, wo er die Schwerpunkte setzt. Du solltest lernen, andere Meinungen und Sichtweise zu tolerieren, sprich - sie als gegeben und anders zu sehen, akzeptieren brauchst du sie ja nicht und schon gar nicht zu eigenen machen. Das würde allen gut tun.

Ich habe kein Problem mit, daß du eine 6800 kaufen willst, weil das vielleicht deine Lieblingsmarke ist oder ein Gamedesigner sie wegen ps3 als notwendig erachtet.
Dann solltest du auch kein Problem mit haben, daß Tigerchen den Verbrauch als zu hoch ansieht und das aus seiner Sicht moniert.

Tigerchen
2004-05-05, 20:52:04
Original geschrieben von LovesuckZ
Ich hoffe, diese Meinung vertrittst du auch weiterhin in Zukunft :)

Wenn ich im Herbst vor meiner neuen R420 mit Cool&Quit Pc sitze und wieder erwarten Spiele echt schlecht aussehen während es bei deiner nV40 nur so leuchtet und funkelt werde ich meine Meinung bestimmt ändern.

LovesuckZ
2004-05-05, 20:53:13
Lieber Gast,
Tigerchen meint, dass der Weg von nvidia der falsche waere. Unterschlaegt aber, dass die Karte deutlich mehr Features biete. Dass diese für ihn nicht bedeuten und kaufentscheidend sind, ist doch okay. Jedoch die Aeußerung, dass es der falsche Weg waere schnell und featurereich zu sein, sollte er sich dann sparen.

bill
2004-05-05, 21:00:02
Original geschrieben von Tigerchen

Wenn ich im Herbst vor meiner neuen R420 mit Cool&Quit Pc sitze und wieder erwarten Spiele echt schlecht aussehen während es bei deiner nV40 nur so leuchtet und funkelt werde ich meine Meinung bestimmt ändern. Du wirst es zu schätzen wissen, daß Spiele immer besser aussehen werden. Das läßt sich aber nicht mit technologischen Stillstand erreichen. Denk nur an 3dfx: Schnelle Karten, haben mir sehr gefallen aber wenn es nach 3dfx gegangen wäre würdest du ein Spiel wie Farcry vielleicht erst in 2 Jahren spielen können. Die Features, die dir jetzt nicht wichtig erscheinen wirst du in einem oder zwei Jahren bestimmt für wichtiger halten. Wieso bloß werden sie dann wichtiger sein? Weil es eine breite Hardwarebasis dafür gibt. In diesem Fall dank Nvidia.

bill

5432112345
2004-05-05, 21:16:05
Original geschrieben von bill
Du wirst es zu schätzen wissen, daß Spiele immer besser aussehen werden. Das läßt sich aber nicht mit technologischen Stillstand erreichen. Denk nur an 3dfx: Schnelle Karten, haben mir sehr gefallen aber wenn es nach 3dfx gegangen wäre würdest du ein Spiel wie Farcry vielleicht erst in 2 Jahren spielen können. Die Features, die dir jetzt nicht wichtig erscheinen wirst du in einem oder zwei Jahren bestimmt für wichtiger halten. Wieso bloß werden sie dann wichtiger sein? Weil es eine breite Hardwarebasis dafür gibt. In diesem Fall dank Nvidia.

bill

Du hast null Ahnung. Lese mal die Artikel hier auf 3DCenter richtig durch, dann wirst du vielleicht mal verstehen, wie es so mit der Technologieentwicklung seitens nv bestellt war. :no:

garst
2004-05-05, 21:21:44
Original geschrieben von bill
Du wirst es zu schätzen wissen, daß Spiele immer besser aussehen werden. Das läßt sich aber nicht mit technologischen Stillstand erreichen. Denk nur an 3dfx: Schnelle Karten, haben mir sehr gefallen aber wenn es nach 3dfx gegangen wäre würdest du ein Spiel wie Farcry vielleicht erst in 2 Jahren spielen können. Die Features, die dir jetzt nicht wichtig erscheinen wirst du in einem oder zwei Jahren bestimmt für wichtiger halten. Wieso bloß werden sie dann wichtiger sein? Weil es eine breite Hardwarebasis dafür gibt. In diesem Fall dank Nvidia.

bill

Genau meine Meinung. Dank nVidia und all denen, die sich deren Produkte wegen der Features gekauft haben. Was man unmittelbar davon hat sieht man sehr gut in Reviews:

http://www.xbitlabs.com/articles/video/display/r420-2_16.html


Vor allem im Vergleich zur GeForce 6800 Ultra sollte man sich als Nvidia Fan mit seiner neuen Fx5950 doch verarscht vorkommen, oder?

garst
2004-05-05, 21:23:50
Eigentlich woll ich von den Link posten. Herumblättern hilft allerdings auch

garst
2004-05-05, 21:24:28
Link: http://www.xbitlabs.com/articles/video/display/r420-2_11.html

bill
2004-05-05, 21:30:13
Original geschrieben von 5432112345
Du hast null Ahnung. Lese mal die Artikel hier auf 3DCenter richtig durch, dann wirst du vielleicht mal verstehen, wie es so mit der Technologieentwicklung seitens nv bestellt war. :no: Registrier dich wenn du flamen möchtest.

bill

bill
2004-05-05, 21:32:00
Original geschrieben von garst
Vor allem im Vergleich zur GeForce 6800 Ultra sollte man sich als Nvidia Fan mit seiner neuen Fx5950 doch verarscht vorkommen, oder? Oh garst hier geht es um die Karten der neuen Generation und zu 3dfx Zeiten gab es noch keine FX Karten. Daß die FXer recht unglücklich waren ist bekannt.

bill

Godmode
2004-05-06, 00:29:45
Einmal führt die XT dann wieder die Ultra ist ja sowiso ein Gleichstand!

Tigerchen
2004-05-06, 16:06:57
Original geschrieben von bill
Du wirst es zu schätzen wissen, daß Spiele immer besser aussehen werden. Das läßt sich aber nicht mit technologischen Stillstand erreichen. Denk nur an 3dfx: Schnelle Karten, haben mir sehr gefallen aber wenn es nach 3dfx gegangen wäre würdest du ein Spiel wie Farcry vielleicht erst in 2 Jahren spielen können. Die Features, die dir jetzt nicht wichtig erscheinen wirst du in einem oder zwei Jahren bestimmt für wichtiger halten. Wieso bloß werden sie dann wichtiger sein? Weil es eine breite Hardwarebasis dafür gibt. In diesem Fall dank Nvidia.

bill


Ich möchte nochmal darauf hinweisen daß ATI mit dem R500 den nächsten Technologiesprung schon seit 2 Jahren vorbereitet. Also den Stillstand will ATI auch nicht. Es geht eher um die Frage zur jeweils passenden Zeit das passende Produkt rauszubringen. Wenn in ein paar Monaten ATI so am Boden liegt wie einst 3dfx haben sie was falsch gemacht. Beachte aber Folgendes:
Der nV40 ist anerkanntermaßen der jetzigen ATI Lösung meilenweit vorraus. Es ist natürlich ein enormes Risiko immer so am Rand des technisch möglichen zu operieren. Das mußte 3dfx bitter erfahren als sie versuchten sowas wie den Rampage "zu Fuß" zu designen. Und nVIDIA hat jetzt auch ein großes Problem weil sie so einen fortschrittlichen Chip kreiert haben. Das Ding ist mit den derzeitigen Fertigungsmethoden kaum herzustellen. Wir werden sehen ob das gut geht.

Tigerchen
2004-05-06, 16:10:22
Original geschrieben von 5432112345
Du hast null Ahnung. Lese mal die Artikel hier auf 3DCenter richtig durch, dann wirst du vielleicht mal verstehen, wie es so mit der Technologieentwicklung seitens nv bestellt war. :no:

Das versteh ich jetzt nicht so ganz. ATI hat mal ne kurze Zeit technisch mehr geboten. Aber ansonsten hat nVIDIA seit der RIVA TNT immer featuremäßig geführt.

tokugawa
2004-05-06, 16:53:29
Original geschrieben von Tigerchen

Presscott + nV40 = 500W Netzteile

Das ist der falsche Weg. Auch wenn Shader 3.0 noch so toll sein mögen.


Oder ein gutes 300W Netzteil (wenn man mal den Prescott rausnimmt :D).

Die 480 W Empfehlung von NVIDIA ist ja nur, um auch die miesesten Netzteile abzudecken, es ist definitiv ein seltenes Worst Case Szenario und kein Durchschnittsszenario.

Soll ja keiner, der ein Billignetzteil hat, behaupten können, NVIDIA lügt, nur weil eben das Billignetzteil nicht mehr mitkommt. NVIDIA muß sich da schon absichern.

tokugawa
2004-05-06, 17:00:18
Zur Zeit finde ich, ist es eh optimal:

- Keine der beiden Chips wäre eine "schlechte Wahl" (wenn man sich High-End leisten kann).

- Keine der beiden Chips hat eine "gravierende" Schwäche (naja, wenn man pingelig ist, schon, aber ich sag das mal so pauschal dass es eher "Kleinigkeiten" sind ohne darauf näher einzugehen).

Die kleinen Details, was der eine kann und der andere nicht, oder wo der eine schneller ist und wo der andere, sind IMO nicht so weltbewegend.

Da können Informierte nach Studieren der Details entscheiden, was einem wichtiger ist, und dann entscheiden - ohne die Befürchtung einen "Fehlgriff" zu tätigen.

Da können dann Fanboys auch beruhigt zu deren Lieblingshersteller greifen - und vielleicht endlich mal das Maul halten. Das ständige Cheerleaden geht IMO schon ziemlich auf die Nerven (da fällt mir ein, wieso sind in letzter Zeit so viel Trolle unterwegs? Kann man da nicht was dagegen machen?).

Wieso es so wichtig wäre dass der Lieblingshersteller (wer auch immer das sein soll) "haushoch gewinnt", versteh ich sowieso nicht.

Die Optimalsituation ist IMO, wenn sich die Firmen so ein Kopf-an-Kopf-Rennen liefern - wie eben jetzt.

DrumDub
2004-05-06, 17:40:12
im verhältnis zur gebotenen leistung ist die 6800u (last: 112w) gegenüber 5950u (last: 105w) ein echtes stromsparwunder. dazu kommt noch, dass die 6800u 95mio transistoren mehr hat.

3D-betrieb
6800UE ~127w
6800U ~112w
6800GT ~102w
5950U ~105w
X800XT ~92w
X800Pro ~77w
9800XT ~83w


berechnungsgrundlagen bei 6800u=112w:
http://www.hardware.fr/articles/494/page7.html
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=27

die werte in leos tabelle (http://www.3dcenter.de/artikel/2004/05-05.php) bei den x800ern und der 6800ue sind meiner meinung nach zu niedrig angesetzt.

MikBach
2004-05-06, 17:57:01
Original geschrieben von Tigerchen

Es geht eher um die Frage zur jeweils passenden Zeit das passende Produkt rauszubringen.
Das ist DER PUNKT.

Thomas_B
2004-05-06, 18:09:06
Original geschrieben von ow
Tja, man kann eben nicht alles haben. Die gewaltige Transistorzahl es NV40 fordert halt ihren Tribut.
Ich halte den Leistungsverbrauch des NV40 für angemessen.

Das ich nicht lache, ich kann eine X800Pro oder XT im Shuttle Standart System betreiben und ein Y-Stecker (d.H. ein Stecker) reicht völlig aus!

Jeder 2'te PC hat nicht diese Netzteilanforderungen die nv verlangt!

Morgan2004
2004-05-06, 18:09:32
-------------
Ich möchte nochmal darauf hinweisen daß ATI mit dem R500 den nächsten Technologiesprung schon seit 2 Jahren vorbereitet.
-------------

ATI hat ja auch keine ander Wahl, da Microsoft bei Ihnen einen SM4 Chip bestellt hat :D

bill
2004-05-06, 19:47:14
Original geschrieben von Tigerchen


Ich möchte nochmal darauf hinweisen daß ATI mit dem R500 den nächsten Technologiesprung schon seit 2 Jahren vorbereitet. Also den Stillstand will ATI auch nicht. Es geht eher um die Frage zur jeweils passenden Zeit das passende Produkt rauszubringen. Wenn in ein paar Monaten ATI so am Boden liegt wie einst 3dfx haben sie was falsch gemacht. Beachte aber Folgendes:
Der nV40 ist anerkanntermaßen der jetzigen ATI Lösung meilenweit vorraus. Es ist natürlich ein enormes Risiko immer so am Rand des technisch möglichen zu operieren. Das mußte 3dfx bitter erfahren als sie versuchten sowas wie den Rampage "zu Fuß" zu designen. Und nVIDIA hat jetzt auch ein großes Problem weil sie so einen fortschrittlichen Chip kreiert haben. Das Ding ist mit den derzeitigen Fertigungsmethoden kaum herzustellen. Wir werden sehen ob das gut geht.
Gut argumentiert . Kann dir nur zustimmen.

bill

fewragt
2004-05-06, 20:26:53
Original geschrieben von Fatality
ich glaube das sie vielleicht performancemäßig fast ran kommt, aber dann hat sie immer noch ne schlechte bildquali, braucht 2 slots, ist laut und braucht ein 480w netzteil *looooool*

meiner meinung nach solte nv nachhause gehen und weinen ^^

neeeeeeeee, die X800 kannste auch locker übertackten!

terersfdbsdf
2004-05-06, 20:27:38
Original geschrieben von bill
Gut argumentiert . Kann dir nur zustimmen.

bill

Ich nicht!

ast
2004-05-06, 20:54:07
Original geschrieben von Tigerchen

Das versteh ich jetzt nicht so ganz. ATI hat mal ne kurze Zeit technisch mehr geboten. Aber ansonsten hat nVIDIA seit der RIVA TNT immer featuremäßig geführt.

Geht nicht um Ati! Das Geforce 4 MX Debakel (tm) zum Beispiel.

Funkyman
2004-05-06, 22:06:38
Original geschrieben von ast
Geht nicht um Ati! Das Geforce 4 MX Debakel (tm) zum Beispiel.

was war den so verkehrt an den Karten?
für den normalen Office Betrieb haben/reichen die doch locker aus und wer mehr haben will, hat sich einfach ne richtige g4 ti gekauft.

Hotel
2004-05-06, 23:27:50
Wenn ich mir rein sachlich diesen Link betrachte:

http://www.nvidia.de/page/gf6800_awards.html

-> Bitte auf

Desktop
GeForce 6800 Serie

klicken.......


.... und mir das Datum des Launches in Erinnerung rufe sind da quasi 1,5 Monate vergangen.

So what, kann gut sein oder auch schlecht sein....

Hotel
2004-05-06, 23:31:01
Eine NEUE MArketingstrategie könnte das auch sein, zeig was vor was keiner hat und wirtschaftlich auch keinen Sinn macht ! 220 Mio Transis sprechen für sich! Das ist ist bestimmt nen "Schnäppchen quasi für IBM und TMC!"

So what, kann gut sein oder auch schlecht sein!

tokugawa
2004-05-07, 00:33:01
Original geschrieben von Thomas_B
Das ich nicht lache, ich kann eine X800Pro oder XT im Shuttle Standart System betreiben und ein Y-Stecker (d.H. ein Stecker) reicht völlig aus!

Jeder 2'te PC hat nicht diese Netzteilanforderungen die nv verlangt!


NV "verlangt" keine 480W.

480W ist die obere Schranke wenn man selbst die miesesten Netzteile in Betracht zieht.

Ein gutes 300W Netzteil reicht für die NV40.

Möglicherweise ein exzellentes 250W Netzteil auch (je nach Resthardware).

Wenn du sagst "jeder 2. PC hat nicht diese Netzteilanforderungen", dann heißt das ja wohl: jeder 2. PC hat ein miserables Netzteil (ist wohl wahrscheinlich wenn irgendwelche Billignetzteile kauft oder die im Aldi-Komplettrechner schon drinsteckten...).

Bevor man die "Anforderungen" von NV, die keine Anforderungen sind (eben nur das Worst Case Szenario - wann begreifen Menschen endlich, dass zwischen Worst Case und Average doch ein großer Unterschied ist?), verurteilt, sollte man erst mal verurteilen, wieso jeder ein Billignetzteil hat.

r@h
2004-05-07, 02:56:30
Original geschrieben von Tigerchen

Das versteh ich jetzt nicht so ganz. ATI hat mal ne kurze Zeit technisch mehr geboten. Aber ansonsten hat nVIDIA seit der RIVA TNT immer featuremäßig geführt. Mit dem R200 und PS1.4 ?
;D

Dazu dann das üble AA und das noch viel üblere AF. Klare Meisterleistung und DIE technologische Weiterentwicklung schlechthin. Von den Treibern mal ganz zu schweigen.

Sorry für den leichten Sarkasmus hinter dieser Zeile...

Razor

r@h
2004-05-07, 03:01:33
Original geschrieben von Morgan2004
-------------
Ich möchte nochmal darauf hinweisen daß ATI mit dem R500 den nächsten Technologiesprung schon seit 2 Jahren vorbereitet.
-------------

ATI hat ja auch keine ander Wahl, da Microsoft bei Ihnen einen SM4 Chip bestellt hat :D Und dem sollte man noch hinzu fügen, dass von ATI seit 2 Jahren ja auch nix Neues gekommen ist !
:D

Razor

r@h
2004-05-07, 03:02:53
Original geschrieben von ast
Geht nicht um Ati! Das Geforce 4 MX Debakel (tm) zum Beispiel. Wie jetzt das ATI 9200 'Debakel' oder was ?
:???:

Razor

AlfredENeumann
2004-05-07, 12:40:02
Original geschrieben von r@h
Und dem sollte man noch hinzu fügen, dass von ATI seit 2 Jahren ja auch nix Neues gekommen ist !
:D

Razor


Warum denn auch.

ow
2004-05-07, 13:29:55
Original geschrieben von AlfredENeumann
Warum denn auch.

:???:

BK-Morpheus
2004-05-07, 13:31:10
Original geschrieben von ow
:???:
er meint bestimmt, dass ATI es eh nicht nötig hatte was neues zu bringen, da sie eh besser sind.

Also ist nicht meine Meinung, aber dass hat Alfred vielleicht gemeint.

ow
2004-05-07, 13:35:06
Original geschrieben von BK-Morpheus
er meint bestimmt, dass ATI es eh nicht nötig hatte was neues zu bringen, da sie eh besser sind.

Also ist nicht meine Meinung, aber dass hat Alfred vielleicht gemeint.

Ja kann sein dass er das meinte.

Meine Meinung ist das aber auch nicht, weil sonst ja jeder technische Fortschritt zum Erliegen kaeme.
btw. sehe ich ATi aus diesem Grunde nicht als besser an.

re@per
2004-05-07, 13:40:30
Original geschrieben von r@h
Wie jetzt das ATI 9200 'Debakel' oder was ?
:???:

Razor

Vergleiche mal einfach die Verkaufszahlen der beiden, ok.

LovesuckZ
2004-05-07, 13:42:22
Original geschrieben von re@per
Vergleiche mal einfach die Verkaufszahlen der beiden, ok.

Kannst du welche geben? Die interessieren mich naemlich auch mal.

Tigerchen
2004-05-07, 15:17:55
Original geschrieben von r@h
Mit dem R200 und PS1.4 ?
;D

Dazu dann das üble AA und das noch viel üblere AF. Klare Meisterleistung und DIE technologische Weiterentwicklung schlechthin. Von den Treibern mal ganz zu schweigen.

Sorry für den leichten Sarkasmus hinter dieser Zeile...

Razor

Da hast du Recht. Ist auch meine Meinung. Eine Radeon 8500 hätte ich mir nie gekauft. Hier gings aber nur um die Features wie eben PS 1.4 oder auch Trueform. Übrigens ein schönes Beispiel dafür daß Features nicht alles sind. Das Gesamtpaket muß stimmen.

Tigerchen
2004-05-07, 15:24:49
quote by Tigerchen
-------------
Ich möchte nochmal darauf hinweisen daß ATI mit dem R500 den nächsten Technologiesprung schon seit 2 Jahren vorbereitet.

-------------
Morgans Antwort:
ATI hat ja auch keine ander Wahl, da Microsoft bei Ihnen einen SM4 Chip bestellt hat


Razors Antwort:
Und dem sollte man noch hinzu fügen, dass von ATI seit 2 Jahren ja auch nix Neues gekommen ist !
Razor
_______________________________________

Findest du es nicht ein wenig dümmlich meine Aussage mit einer inhaltlich gleichen Antwort hämisch zu kommentieren?

Sphinx
2004-05-09, 20:53:52
Och Leute ,)

Ati hat die Weichen gestellt... vorbereitet.

Ein VÖLLIG_URALT_TECHNOLOGISCHER R420 bietet beste Paroli gegen einen HIGH_TECH_FEATURE_REICHSTEN_CHIP_DER_WELT NV40.

Ich würd sagen das Nvidia Geschwindigkeitsmäßig mit allen möglichen Mittel nachgezogen hat...

MS Deal (X-BOX2-Technologie) - XNA - X-Box2 Spiele - auf PC´s leicht zu konvertierende Spiele...

kami
2004-05-09, 20:58:16
Original geschrieben von Sphinx
Och Leute ,)

Ati hat die Weichen gestellt... vorbereitet.

Ein VÖLLIG_URALT_TECHNOLOGISCHER R420 bietet beste Paroli gegen einen HIGH_TECH_FEATURE_REICHSTEN_CHIP_DER_WELT NV40.

Ich würd sagen das Nvidia Geschwindigkeitsmäßig mit allen möglichen Mittel nachgezogen hat...

MS Deal (X-BOX2-Technologie) - XNA - X-Box2 Spiele - auf PC´s leicht zu konvertierende Spiele...

Natürlich bietet er Paroli, gerade weil er "nur aus alter Technologie" besteht und damit die Ressourcen für die Takterhöhung und Pipelinemehrung verbraucht werden konnten.

Demirug
2004-05-09, 20:58:24
Original geschrieben von Sphinx
Och Leute ,)

Ati hat die Weichen gestellt... vorbereitet.

Ein VÖLLIG_URALT_TECHNOLOGISCHER R420 bietet beste Paroli gegen einen HIGH_TECH_FEATURE_REICHSTEN_CHIP_DER_WELT NV40.

Ich würd sagen das Nvidia Geschwindigkeitsmäßig mit allen möglichen Mittel nachgezogen hat...

MS Deal (X-BOX2-Technologie) - XNA - X-Box2 Spiele - auf PC´s leicht zu konvertierende Spiele...

Das setzt aber vorraus das doe XBox II keinen SM3 Chip bekommt. Sonst wird das mit den konvertieren nicht ganz so einfach.

reunion
2004-05-09, 22:41:17
Original geschrieben von bill
Das sehen wir wohl alle so, spätestens wenn wir die Stromabrechnung auf dem Tisch liegen haben.

Die Stromrechnung ist mir ehrlich gesagt ziemlich wurst, viel schlimmen finde ich die folgeerscheinungen, nämlich den lauten und 2 PCI Slots schluckenden Kühler...

LovesuckZ
2004-05-09, 22:46:53
Original geschrieben von reunion
Die Stromrechnung ist mir ehrlich gesagt ziemlich wurst, viel schlimmen finde ich die folgeerscheinungen, nämlich den lauten und 2 PCI Slots schluckenden Kühler...

Dann kauft man sich die Karten, die nur über einen Single-Slot Kühler verfügen.

reunion
2004-05-09, 22:48:36
Original geschrieben von LovesuckZ
Dann kauft man sich die Karten, die nur über einen Single-Slot Kühler verfügen.

Sofern das machbar ist...

LovesuckZ
2004-05-09, 22:50:35
Original geschrieben von reunion
Sofern das machbar ist...

Natuerlich, sonst würden einige Partner solch eine Loesung nicht vorstellen...

reunion
2004-05-09, 22:57:04
Original geschrieben von LovesuckZ
Natuerlich, sonst würden einige Partner solch eine Loesung nicht vorstellen...

Wer?
Bis jetzt hab ich nur den Kühlturm von Leadtek gesehn.

ironMonkey
2004-05-10, 00:09:06
Original geschrieben von kami
Natürlich bietet er Paroli, gerade weil er "nur aus alter Technologie" besteht und damit die Ressourcen für die Takterhöhung und Pipelinemehrung verbraucht werden konnten.



Mal was anderes, für was braucht man den neue Technologie bei einer Graka?????

Richtig zum Großteil für Spiele also Endverbaucher die dies auch nutzen könnnen, jetzt soll das nix gegen den NV40 der ist schön und gut sondern die Spiele die in letzter Zeit rauskommen bieten neben toller Grafik so gut wie nichts:( und für sowas soll ich mir dann ne Karte einbauen die über 110 Watt frisst??????Nein Danke.

Wie sieht das nächstets Jahr aus, hängen wir dann bei 130Watt?????

Gruß

kami
2004-05-10, 10:20:33
Original geschrieben von ironMonkey
Mal was anderes, für was braucht man den neue Technologie bei einer Graka?????

Richtig zum Großteil für Spiele also Endverbaucher die dies auch nutzen könnnen, jetzt soll das nix gegen den NV40 der ist schön und gut sondern die Spiele die in letzter Zeit rauskommen bieten neben toller Grafik so gut wie nichts:( und für sowas soll ich mir dann ne Karte einbauen die über 110 Watt frisst??????Nein Danke.

Wie sieht das nächstets Jahr aus, hängen wir dann bei 130Watt?????

Gruß

Kann mich nicht dran erinnern meiner Aussage eine persönliche Wertung mitgegeben zu haben. Von daher verstehe ich nicht warum du dich auf mein Posting beziehst.

€dit:
Das 'nur aus alter Technologie' habe ich extra in Anführungszeichen gesetzt, weil mir der Ausdruck zu überzogen erscheint und somit gleich einen negativen Beigeschmack haben würde. Man muss aber auch sehen, dass zwischen der GeForce und der Radeon technologich doch Welten sind. Was ich jetzt davon besser finde habe ich mit keiner Silbe erwähnt.

Aber damit man mir nicht vorwirft mich rauswinden zu wollen - ich finde die GeForce wesentlich interessanter von ihren Möglichkeiten und der Technik die dahinter steht, andererseits begrüße ich natürlich auch den Ansatz von ATi in Sachen Stromverbrauch. Beides zusammen lässt sich aber im Moment leider nicht vereinen und bei mir überwiegt eher die Neugier an der Technik. Vor diesem Hintergrund würde ich mir momentan eher eine GeForce kaufen.

klaus
2004-05-10, 14:17:56
Original geschrieben von [dzp]Viper
Der weg zu immer höheren stromverbrauch und immer höheren Temperaturen IST falsch LS...
Original geschrieben von ow
Falsch? Was heisst hier falsch?
Es ist technisch ganz unvermeidbar, dass sich das so entwickelt. Höhere Takte, mehr Transistoren etc....


Ow, kommt es Dir eventuell in den Sinn, dass seine Aussage nicht auf den physikalisch-mathematischen, sondern ökologischen und ökonomischen Aspekt bezogen war?

Ich frage mich ernsthaft, wie jemand mit einer dermaßen eingeschränkten Sichtweise in einem Forum Moderator wird, welches für sich den Anspuch erhebt, kompetent und objektiv zu sein? Und dieses ist bei weitem nicht das erste Deiner postings, bei dem sich mir diese Frage stellt.


[dzp]Viper ist einer der (leider) wenigen Nutzer dieses Forums, welche die Zeichen der Zeit erkannt haben und deren Ansichten auf Vernunft basieren. Deshalb ist seiner oben geäußerten Meinung nur beizupflichten!

ow
2004-05-10, 14:32:43
Original geschrieben von klaus
Ow, kommt es Dir eventuell in den Sinn, dass seine Aussage nicht auf den physikalisch-mathematischen, sondern ökologischen und ökonomischen Aspekt bezogen war?


Interessiert das wen?
Es braucht sich keiner irgendeinen Chip zu kaufen, wenn er meint, dass er ihm zuviel Strom verbraucht.
Analog fuer sonstiges wie Autos etc...


Ich frage mich ernsthaft, wie jemand mit einer dermaßen eingeschränkten Sichtweise in einem Forum Moderator wird, welches für sich den Anspuch erhebt, kompetent und objektiv zu sein? Und dieses ist bei weitem nicht das erste Deiner postings, bei dem sich mir diese Frage stellt.


???


[dzp]Viper ist einer der (leider) wenigen Nutzer dieses Forums, welche die Zeichen der Zeit erkannt haben und deren Ansichten auf Vernunft basieren. Deshalb ist seiner oben geäußerten Meinung nur beizupflichten!


Das ist vielleicht eure Meinung, die lange nicht jeder teilen muss (wie war das noch mit eingeschraenkter Sichtweise??).

Gaestle
2004-05-10, 15:44:37
Original geschrieben von klaus
Ow, kommt es Dir eventuell in den Sinn, dass seine Aussage nicht auf den physikalisch-mathematischen, sondern ökologischen und ökonomischen Aspekt bezogen war?

Ich frage mich ernsthaft, wie jemand mit einer dermaßen eingeschränkten Sichtweise in einem Forum Moderator wird, welches für sich den Anspuch erhebt, kompetent und objektiv zu sein? Und dieses ist bei weitem nicht das erste Deiner postings, bei dem sich mir diese Frage stellt.


[dzp]Viper ist einer der (leider) wenigen Nutzer dieses Forums, welche die Zeichen der Zeit erkannt haben und deren Ansichten auf Vernunft basieren. Deshalb ist seiner oben geäußerten Meinung nur beizupflichten!

Also ich sehe das ähnlich wie ow.

Natürlich sehe ich auch, dass es nicht gut für die Umwelt ist, aber wer Leistung über Öko stellt (und das tun diejenigen, die High-End-Leistung wollen nunmal implizit - zumindest beim heutigen Stand der Dinge) darf sich nicht über den Stromverbrauch erregen, es sei denn derjenige, der sich aufregt, ist kosequent und verzichtet auf die Leistung.

Ist im übrigen beispielsweise bei Handys nicht anders: wer niedriege Strahlungsniveaus will, darf z.B. kein Farbdisplay wollen, und muss sich auch sonst mit Basics begnügen.
Beim Auto ist es auch ähnlich: wer auf der Bahn 300km/h fahren will, braucht halt heuzutage einen Ferrari oder so, der eben 25l/100km konsumiert.

Für mich läuft es schließlich auf einen Trade-Off hinaus: Leistung oder Okö. Wer für Okö ist, muss sich selbst beschränken. Oder er bringt die Technologie, daran etwas zu ändern, aber die existiert derzeit wohl noch nicht.

Jetzt kann man natürlich auf einen TBDR hoffen, aber ein neuer Hoch-Leistungs-TBDR wird sicher auch mehr Strom verbrauchen, als ein älterer TBDR.

Grüße

PS: Kühlschränke oder Waschmaschinen etc. sind im übrigen ein schlechter Vergleich (falls das jetzt als Einwand geplant war), weil hier alle Maschinen den gleichen Output bringen. Bei GraKa ist das anders.

Tigerchen
2004-05-10, 16:09:57
Original geschrieben von ow
Interessiert das wen?
Es braucht sich keiner irgendeinen Chip zu kaufen, wenn er meint, dass er ihm zuviel Strom verbraucht.
Analog fuer sonstiges wie Autos etc...
???
Das ist vielleicht eure Meinung, die lange nicht jeder teilen muss (wie war das noch mit eingeschraenkter Sichtweise??).

Es sollte dir aber zu denken geben daß auch INTEL deine Sichtweise aufgegeben hat. INTEL's Notebookprozessoren zeigen nämlich daß man den Stromverbrauch sehr wohl im Griff haben kann ohne auf mehr Transistoren zu verzichten. Und man kann in einem Forum wie dissem nicht laut genug nach niedrigem Stromverbrauch schreien damit die Hersteller ihren Hintern in Bewegung setzen. Angesichts der brutal ansteigenden Ölpreise und der AKW-Problematik kann man einen möglichst niedrigen Stromverbrauch bei Massengütern wie PC's nur unterstützen. Deinen Unwillen diese Problematik überhaupt als solche zu erkennen finde ich auch recht befremdlich.

ow
2004-05-10, 16:24:58
Wieso wird hier eigentlich immer von "meiner Sichtweise" geredet?

Ich habe hier ein Faktum dargelegt welches heisst, dass technischer Fortschritt im Bereich integrierter Halbleiter nun einmal mit immer hoeherem Energiebedarf verbunden ist:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1781704#post1781704

Dieses Posting enthaelt weder eine Sichtweise noch eine Wertung.

Und ich finde es sehr befremdlich, was mir hier immer wieder unterstellt wird (um es mal mit Tigerchens Worten zu sagen)!!

Tigerchen
2004-05-10, 16:39:00
Orginalzitat ow:

Interessiert das wen?
Es braucht sich keiner irgendeinen Chip zu kaufen, wenn er meint, dass er ihm zuviel Strom verbraucht.
Analog fuer sonstiges wie Autos etc...


Das ist kein Darlegen eines Faktums sondern die Darstellung deiner Sichtweise. Oder sind dies nicht deine Worte?

BK-Morpheus
2004-05-10, 16:40:29
auch wenn mir klar ist, dass ein schneller PC auch viel Strom verbaucht, würde ich dennoch gerne einen guten Kompromiss aus bestmöglichster Leitung für einen möglichst geringen Stromverbrauch erhalten.

So wie man halt auch beim PC kauf (und allem anderen im Leben *g*) Kompromisse ein geht um nicht DEN SCHNELLSTEN PC zu haben, aber dennoch so schnell wie möglich für ein bestimmtes Budget.

Also ich begrüße jedenfalls jegliche neue Techniken um weniger Strom zu verbrauchen.

Wenn ich 2 Grafikkarten kaufen könnte für den gleichen Preis und eine ist noch ein gutes Stück schneller, hat aber eine enorm größere Leistungsaufnahme, dann würde ich auch abstriche in der Performance machen, es muss halt ein guter kompromiss sein...also ne uralt Karte auf der nix läuft, die dafür aber auch fast nix an Strom verbraucht bringt mir ja auch nix, wenn ich mal was zocken will.

strickjackenscheitel
2004-05-10, 16:46:36
wer hat bitte nicht min. den slot unter der graka frei? denn wer hat verdammtnochmal noch mehr als eine soundkarte oder ne mininetzwerkkarte im rechner?
WAS ALSO DAS GESCHWAETZ MIT DER "DUALSLOTPROBLEMATIK?"

wer bitte hat heute nicht min ein 300watt nt in seinem rechner? und wer kauft sich zu seinem 230watt nt-duron 800mhz- 128mb ram-system schon eine GF 6???

wer denkt mal daran, dass die netten features die noch in der gf 6 schlummern durch die außergewoehnlich gute treiberarbeit von nv geweckt werden koennen?

die gf 6 ist ein supergeraet! dualslot iss egal und strom hat jeder der sich auch einen athlon fx leisten kann!

SO WHAT?

StefanV
2004-05-10, 16:49:01
Original geschrieben von ow
Wieso wird hier eigentlich immer von "meiner Sichtweise" geredet?

Ich habe hier ein Faktum dargelegt welches heisst, dass technischer Fortschritt im Bereich integrierter Halbleiter nun einmal mit immer hoeherem Energiebedarf verbunden ist:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1781704#post1781704

Dieses Posting enthaelt weder eine Sichtweise noch eine Wertung.

Und ich finde es sehr befremdlich, was mir hier immer wieder unterstellt wird (um es mal mit Tigerchens Worten zu sagen)!!

Hm, Intel scheint das irgendwie anders zu sehen als du, siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=141981) und da (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=141413) .

Es dürften wohl auch einige OEMs einigen Herstellern solangsam aufs Dach steigen :eyes:

BTW:
Es war BISHER so, daß eine neue Generation meist mehr verbraten hat (P3 Katmai -> P3 Cumine -> Cumine war kühler), das heißt aber mitnichten, daß das immer so sein kann, denn irgendwann würde so eine GraKa mehrere Kilowatt verbraten, wenn man die aktuelle Entwicklung beibehält und das kann wohl kaum im Sinne von irgendwem sein, oder?

Wenn nV das nicht rechtzeitig mitbekommt, dann sind sie eben weg vom Fenster, so einfach ist das.
Wenn Intel den Presscott nicht gecancelt hätte, wer hätte garantiert, daß Intel weg vom Fenster ist?? (zumindest zeitweise).
Die OEMs hätten ja auch alle die Intel Bratöfen draußen lassen können und die sparsamen Athlon 64 einsetzen können...

ironMonkey
2004-05-10, 17:00:39
@Kami, naja, ist etwas schlecht von mir formuliert, ich hab ja an sich nix gegen die Karte von NV und bei der Leistung ist der Stromverbrauch an sich mehr als gut nur wenn das jedes Jahr so weiter geht hängt man ruck zuck bei 150+ Watt, dann halt besser die Leistung wo man hat komplett ausreitzen.

Sicher ich will auch ne schnelle Karte aber nicht um jeden Preis.


@Gaestle, grad bei Sport/Rennwagen ist Verbrauch ein sehr wichtiges Thema, es bringt nix wenn die Karre schnell ist aber im Tank nach 200km kein Tropfen Sprit mehr drin ist.




Gruß

kami
2004-05-10, 17:05:53
Beides vereint wäre mir sicherlich auch am liebsten. :)

Ich hatte einfach nur Verständnisprobleme warum du dich auf mein Posting bezogen hattest, weil ich dem wie gesagt gar keine Wertung mitgegeben hatte. Aber ist auch egal. :) :bier:

klaus
2004-05-10, 18:06:01
Beinahe original geschrieben von Tigerchen

Und man kann in einem Forum wie diesem nicht laut genug nach niedrigem Stromverbrauch schreien, damit die Hersteller ihren Hintern in Bewegung setzen. Angesichts der brutal ansteigenden Ölpreise und der AKW-Problematik kann man einen möglichst niedrigen Stromverbrauch bei Massengütern wie PCs nur unterstützen.


Darum und um nichts anderes geht es mir doch, Leute!

Und wenn ich mich hier manchmal äußere wie ein radikaler Öko-Fuzzi, dann doch nur weil ich die Ignoranz satt habe, mit der viele meiner Mitmenschen dem vordringlichsten Thema unserer Zeit - dem Umweltschutz - begegnen.

Es ist fatal, als gegeben hinzunehmen, dass z.B. leistungsfähige hardware quasi zwangsläufig einen hohen Energieverbrauch verursachen muss. Bisher haben sich insbesondere die Hersteller von Computer-hardware und Unterhaltungselektronik kaum darum geschert, welchen Stromverbrauch ihre Geräte verursachen. Und der schlichte Grund hierfür ist, dass es den Käufern auch egal war. Denn nur das, was am Markt nachgefragt wird, wird auch angeboten.

Deshalb hoffe ich, dass immer mehr von uns von dieser heillosen "das war schon immer so - darum muss das auch so bleiben"-Mentalität abrücken und nicht sogenannten "Fortschritt", der nur blindes Leistungsstreben bedeutet, belohnen.
Ich verlange doch nicht nach einem perpetuum mobile, aber Leistungsfähigkeit und Komfort dürfen und müssen nicht durch die Vergeudung von Energie erkauft werden. Deshalb freue ich mich auch über Funktionen wie AMDs Cool'n'Quiet sowie über den im Vergleich zur Vorgängergeneration - bei drastisch gesteigerter Leistung - fast gleich gebliebenen Strombedarf des ATi X800 - und das werde ich bei meinen zukünftigen Kaufentscheidungen auch honorieren.

PS: Ich lese mir gerade die anderen threads zum Thema durch und stelle mit Freude fest, dass es Hoffnungsschimmer gibt, die sehr ähnliche Ansichten haben: ironMonkey, [dzp]Viper, Tigerchen und RaumKraehe zum Beispiel - was für ein Zufall: Die ganze "Tierwelt" hier ist mir freundlich gesonnen und versteht mich... ;)

PS für ow: Meinst Du, Kommentare wie "Interessiert das wen?" sind angemessen für einen Moderator in einem öffentlichen Forum?

Aquaschaf
2004-05-10, 19:42:35
Highend-Grafikkarten sind immerhin die Massengüter schlechthin :grübel:

Man kann auch nicht oft wiederholen: Wen der Stromverbrauch stört, der verzichtet doch bitte auf solchen Luxus.

Gast
2004-05-10, 20:05:21
Original geschrieben von Aquaschaf
Highend-Grafikkarten sind immerhin die Massengüter schlechthin :grübel:

Man kann auch nicht oft wiederholen: Wen der Stromverbrauch stört, der verzichtet doch bitte auf solchen Luxus.

Du hast nichts verstanden: Wenn sich nicht jemand mit einem Schild irgndwo hinstellt und etwas fordert, dann geschieht gar nichts.
Dann hätten wir wahrscheinlich Leibeigentum, die Erde wäre flach wie eine Flunder usw.
Darum geht es uns, auf den Mißstand hinweisen und Besserun fordern - Intel hat es gehört :)

strickjackenscheitel
2004-05-10, 20:29:53
Original geschrieben von Gast
Du hast nichts verstanden: Wenn sich nicht jemand mit einem Schild irgndwo hinstellt und etwas fordert, dann geschieht gar nichts.
Dann hätten wir wahrscheinlich Leibeigentum, die Erde wäre flach wie eine Flunder usw.
Darum geht es uns, auf den Mißstand hinweisen und Besserun fordern - Intel hat es gehört :)


intel hat gemerkt das es fuer sie zu teuer oder gar unmoeglich wird den thermischen wiederstand zu ueberwinden. der aus israel stammende "mobile-weg" war da einfach willkommen. daher der umschwenk. da hat kein protest was gebracht!

bill
2004-05-10, 23:16:37
Ihr hättet euch schon 2002 über den Strombedarf der GF4 und 9700pro aufregen können. Die hatten mich damals recht erstaunt. Oder 2000 (2001?) über die Athlon-Heizkraftwerke. Wieso ist erst jetzt angeblich Aufklärungsbedarf vorhanden?

Wer sich damals eine 9700pro in den Rechner steckte oder sich heute eine X800 kaufen möchte sollte lieber nicht stromsparende Produkte predigen. Wasser predigen und Wein saufen nennt man das.

:bier:

Klaus, wenn du aus meiner beschränkten Sicht glaubwürdig erscheinen möchtest, kauf dir eine Via-Cpu und eine FX5200 (oder so ähnlich).

bill

StefanV
2004-05-10, 23:46:22
Original geschrieben von bill
Ihr hättet euch schon 2002 über den Strombedarf der GF4 und 9700pro aufregen können. Die hatten mich damals recht erstaunt. Oder 2000 (2001?) über die Athlon-Heizkraftwerke. Wieso ist erst jetzt angeblich Aufklärungsbedarf vorhanden?

Wer sich damals eine 9700pro in den Rechner steckte oder sich heute eine X800 kaufen möchte sollte lieber nicht stromsparende Produkte predigen. Wasser predigen und Wein saufen nennt man das.

:bier:

Klaus, wenn du aus meiner beschränkten Sicht glaubwürdig erscheinen möchtest, kauf dir eine Via-Cpu und eine FX5200 (oder so ähnlich).

bill

Vermutlich weil man jetzt erst so richtig sensibiliseiert wurde...

Der Presscott fängt ja schon bei 100W An, früher endeten die P4s bei 100W (2GHz Willy)...

Gegenüber dem P4 sind Athlons allerdings recht harmlos, die größten Heizer verbraten ~70W...

Showtime
2004-05-11, 00:29:51
Ich hatte mit dem lieben klaus auch schon einmal eine Unterhaltung über Energieverbrauch und Umwelt, die er allerdings plötzlich abgebrochen hatte, ohne auf meine Fragen einzugehen.
Dinge wie
Original geschrieben von klaus
Ich frage mich ernsthaft, wie jemand mit einer dermaßen eingeschränkten Sichtweise in einem Forum Moderator wird, welches für sich den Anspuch erhebt, kompetent und objektiv zu sein?
grenzen auch schon an Beleidigungen, für die du in unserer Unterhaltung auch schon von einem der Mods verwarnt worden bist klaus.

strickjackenscheitel
2004-05-11, 01:41:32
ok aber es stimmt schon, dass es nicht gerade schoen ist so viel energie zu verbrauchen. warum haben die hersteller nicht auch wegen dem overclocking fuer uns user, ein paar stromsparvarianten angeboten? ok overclocking wollen hersteller nicht, aber umsatz. ich bin mir sicher das es mehr leute wie klaus gibt! warum auch nicht?!

also: warum keine breitgefaecherten lowvoltage-cpus zb?

Gas9t
2004-05-11, 07:46:10
Original geschrieben von ow
Wieso wird hier eigentlich immer von "meiner Sichtweise" geredet?

Ich habe hier ein Faktum dargelegt welches heisst, dass technischer Fortschritt im Bereich integrierter Halbleiter nun einmal mit immer hoeherem Energiebedarf verbunden ist:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1781704#post1781704

Dieses Posting enthaelt weder eine Sichtweise noch eine Wertung.

Und ich finde es sehr befremdlich, was mir hier immer wieder unterstellt wird (um es mal mit Tigerchens Worten zu sagen)!!

Mach ma nen Praktikum bei Intel, dann kannst du was dazu lernen, das ist doch "HAHNEBÜCHE".

Intel, ATI, Motorolo erhöhen seit Jahren kontinuierlich Ihr Leistung und senken Ihren Stromverbrauch, nur das kleine grüne Monster aus Californien benötigt kontinuierlich mehr Strom.

Wo soll das hinführen???

Der User will einen Silent-PC mit minimalen Verlustwerten und kein kleines E-Werk neben sich am Schreibtisch stehen haben!

Wird der NEXT-GENCHIP von nvidia mit Trockeneis gebundelt??? oder kommt gleich ein NEUES Netzteil mit dazu ???

Quasar
2004-05-11, 08:29:44
Original geschrieben von Gas9t
Intel, ATI, Motorolo erhöhen seit Jahren kontinuierlich Ihr Leistung und senken Ihren Stromverbrauch, nur das kleine grüne Monster aus Californien benötigt kontinuierlich mehr Strom.

Motorolo (auch Motorola) kenne ich nicht im Detail, aber i Bezug auf Intel und ATi ist deine Aussage leider falsch.
Zwar steigt die "Performance" stetig an, aber leider auch dir dafür benötigte Leistung.

Ich erinnere mich noch an passiv kühlbare CPUs, oder an solche, die selbst für aktuelle Games noch ganz gut mitkommen und trotzdem per Spec unter 33W Leistungsaufnahme bleiben. Solche CPUs brauchen dann auch keine aktiv gekühlten Spannungswandler auf dem Mainboard und keine 350W-Netzteile.
Ebenso kann ich mich an Grafikkarten aller Hersteller erinnern, die keine Lüfter benötigten - einige brauchten nicht einmal einen Kühlkörper und erst recht keinen separaten Anschluß ans PC-Netzteil.
Du hast recht, daß dies bei ATi (momentan?) weniger stark ausgeprägt ist, als bei nVidia, aber unter den Blinden ist der Einäugige bekanntlich König.

Wenn ich mir als Beispiel mal die Radeon ab dem R300 anschaue und zwar die primär vorgestellten Modelle zzgl. ihrer jeweiligen Refreshes, dann sehe ich einen stetig wachsenden Leistungsbedarf. Jetzt kommt die X800 XT als Vorreitermodell - und nimmt schon mind. soviel Leistung auf, wie die R9800XT. Was werden dann die taktgesteigerten Refreshes erst brauchen?

ow
2004-05-11, 10:41:57
Original geschrieben von Tigerchen

Orginalzitat ow:

Interessiert das wen?
Es braucht sich keiner irgendeinen Chip zu kaufen, wenn er meint, dass er ihm zuviel Strom verbraucht.
Analog fuer sonstiges wie Autos etc...


Das ist kein Darlegen eines Faktums sondern die Darstellung deiner Sichtweise. Oder sind dies nicht deine Worte?



Ist dir auch in den Sinn gekommen, auf welches meiner Postings ich mich hier beziehen könnte? :eyes:
Ich hab´s sogar extra noch verlinkt.

ow
2004-05-11, 10:46:04
Original geschrieben von Stefan Payne
Vermutlich weil man jetzt erst so richtig sensibiliseiert wurde...

Der Presscott fängt ja schon bei 100W An, früher endeten die P4s bei 100W (2GHz Willy)...

Gegenüber dem P4 sind Athlons allerdings recht harmlos, die größten Heizer verbraten ~70W...


Wieso das? Meinst du da gäbe es irgendeine Schwelle?

Die Chiphersteller sind sich übrigens des Problem durchaus bewusst, IIRC ist der Stromverbrauch/thermische Probleme regelmässig Thema auf irgendwelchen Konferenzen.

ow
2004-05-11, 10:54:06
Original geschrieben von Showtime
Ich hatte mit dem lieben klaus auch schon einmal eine Unterhaltung über Energieverbrauch und Umwelt, die er allerdings plötzlich abgebrochen hatte, ohne auf meine Fragen einzugehen.
Dinge wie

grenzen auch schon an Beleidigungen, für die du in unserer Unterhaltung auch schon von einem der Mods verwarnt worden bist klaus.


Da steh ich ehrlich gesagt drüber weil ich in besagtem Posting gar nicht meine Sichtweise darlege sondern einen Fakt nenne.

Mein Sichtweise (um die hier auch einmal dazulegen) unterscheidet sich nicht von der vieler anderer:
Jede Möglichkeit des Stromsparens ist wünschenswert und sehr willkommen.

AYAlf
2004-05-11, 11:35:30
nun was fuer den normal user fest stehen sollte!

1. ati hat nvidia wieder mal richtig den arsch versohlt
beleg: (alle seiten und zeitschriften berichten darueber)


2. einige nvidia fanboy (will hier keine namen nennen, weil es zu offensichtlich ist) bezeichnen normale user und ati fans als trolle. da sie leider keine argumente mehr besitzen, muessen sie dies mit verbalen ausfaellen kompensieren.

3. weder 3dc noch sm3 koennen von keinem user hier im forum als gut oder schlecht bezeichnet werden. da es einfach keine praxisrelevanten anwendungen dafuer gibt.

4. was mir noch auffaelt! nachdem nvidia ein wenig naeher an die ueberragende quali der ati karten herangekommen ist (fast gleich zieht) gibt es hier in diesem forum vermehrt nvidia fanboys die aus ihren loechern gekrochen kommen um den graka king nvidia zu preisen.

5. ow verstehe diesen thread als spam oder offtopic. und damit bin ich kein deut besser wie du. schau dir deine posts an und gehe in dich! jaja ich weiss wieder ein minus punkt!

Quasar
2004-05-11, 11:40:05
Original geschrieben von AYAlf
nun was fuer den normal user fest stehen sollte!

1. ati hat nvidia wieder mal richtig den arsch versohlt
beleg: (alle seiten und zeitschriften berichten darueber)


2. einige nvidia fanboy (will hier keine namen nennen, weil es zu offensichtlich ist) bezeichnen normale user und ati fans als trolle. da sie leider keine argumente mehr besitzen, muessen sie dies mit verbalen ausfaellen kompensieren.

3. weder 3dc noch sm3 koennen von keinem user hier im forum als gut oder schlecht bezeichnet werden. da es einfach keine praxisrelevanten anwendungen dafuer gibt.

4. was mir noch auffaelt! nachdem nvidia ein wenig naeher an die ueberragende quali der ati karten herangekommen ist (fast gleich zieht) gibt es hier in diesem forum vermehrt nvidia fanboys die aus ihren loechern gekrochen kommen um den graka king nvidia zu preisen.

5. ow verstehe diesen thread als spam oder offtopic. und damit bin ich kein deut besser wie du. schau dir deine posts an und gehe in dich! jaja ich weiss wieder ein minus punkt!

Schade, daß die Sig hier so begrenzt ist und dein Posting da nicht mehr reinpasst.... :rofl:

AYAlf
2004-05-11, 11:42:58
Original geschrieben von Quasar
Schade, daß die Sig hier so begrenzt ist und dein Posting da nicht mehr reinpasst.... :rofl:


^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

das ist uebrigens einer dieser nvidia fanboys!

Gast
2004-05-11, 11:51:24
Original geschrieben von strickjackenscheitel
intel hat gemerkt das es fuer sie zu teuer oder gar unmoeglich wird den thermischen wiederstand zu ueberwinden. der aus israel stammende "mobile-weg" war da einfach willkommen. daher der umschwenk. da hat kein protest was gebracht!

Glaubst das wirklich oder willst hier nur rumtrollen?!
Schon was von BTX gehört? Sagt dir das Wort OEM etwas?
Ich empfehle dir zumindest die 3DCenter News regelmäßig zu lesen, dann wirst du solche Posts nicht mehr verfassen

Aquaschaf
2004-05-11, 11:52:00
Original geschrieben von Gast
Du hast nichts verstanden: Wenn sich nicht jemand mit einem Schild irgndwo hinstellt und etwas fordert, dann geschieht gar nichts.
Dann hätten wir wahrscheinlich Leibeigentum, die Erde wäre flach wie eine Flunder usw.
Darum geht es uns, auf den Mißstand hinweisen und Besserun fordern - Intel hat es gehört :)

Tolle Analogie - Leibeigentum, Mittelalterliches Weltbild und der Stromverbrauch von Grafikkarten: alles elementare Mißstände, die dem Fortschritt der Menschheit im Wege stehen :D

Gast
2004-05-11, 11:55:31
Original geschrieben von Quasar
Schade, daß die Sig hier so begrenzt ist und dein Posting da nicht mehr reinpasst.... :rofl:

Da hast deinen Avatar einen Bärendienst erwiesen :(
Schade, das manche, die Ihr Wissen für Besseres einsetzten könnten, sich auf die allerniedrigste Stufe herabsetzten.

Quasar
2004-05-11, 11:55:34
Original geschrieben von AYAlf
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

das ist uebrigens einer dieser nvidia fanboys!

Juhuuu! Ich bin ein Fanboy!!!
(Wahrscheinlich eine Mangel-Kompensationserscheinung - man will immer das, was man nicht hat. Und momentan habe ich nur ATi-Karten am Laufen.)

Gast
2004-05-11, 11:58:32
Original geschrieben von Aquaschaf
Tolle Analogie - Leibeigentum, Mittelalterliches Weltbild und der Stromverbrauch von Grafikkarten: alles elementare Mißstände, die dem Fortschritt der Menschheit im Wege stehen :D

Ich wette, dir sagt das Wort Energie gar nichts. Die daraus resultierende Probleme (Das schwaze Gold - Ölreserven - Naher Osten - China) sind dann auch ein Buch mit sieben Siegeln.

Gast
2004-05-11, 12:00:09
Original geschrieben von Quasar
Juhuuu! Ich bin ein Fanboy!!!
(Wahrscheinlich eine Mangel-Kompensationserscheinung - man will immer das, was man nicht hat. Und momentan habe ich nur ATi-Karten am Laufen.)

Hast du es nötig? Du bist doch alt genug, ich kann das nicht verstehn - oder brauchst du paar Punkte?

Aquaschaf
2004-05-11, 12:13:29
Original geschrieben von Gast
Ich wette, dir sagt das Wort Energie gar nichts. Die daraus resultierende Probleme (Das schwaze Gold - Ölreserven - Naher Osten - China) sind dann auch ein Buch mit sieben Siegeln.

Soll ich noch einen Schritt weiter gehen? Wenn unsere Grafikkarten weniger Strom verbrauchen würden, müsste man weniger Kriege des Öls wegen führen :D

Ich kenne die Problematik, die wird sich auch in Zukunft verstärken. Aber ich kann auch rechnen, und auch wenn es von Heute auf Morgen keine Grafikkarten die viel Strom verbrauchen mehr gäbe - das würde nichts daran ändern. Ich weiß auch, dass du mit deinen Postings nichts daran ändern kannst. Seine ökologische Kraft kann man auf viele anderen Weisen unschätzbar effektiver verwenden.

strickjackenscheitel
2004-05-11, 12:14:52
wenn du damit nv meinst, erinnere ich nur an die gf fx 5200 usw. ausserdem braucht die 5600er auch nicht viel! ok die highend-modelle ziehen derb! aber die machen ja auch nahezu kaum den umsatz aus, richtig?!

dann kommt noch dazu, warum intel es erst kuerzlich geschafft hat ueber die 100w grenze zu stuerzen, wenn sie doch den stromverbrauch reduzieren??
SO EIN SCHMARRN!
nun bleib mal bitte bei den fakten! sonst muessten die kuehler ja auch nicht immer groesser werden und verax haette sein 1kg nicht vorstellen muessen! also!

ERGO: alle nehmen immer mehr strom! nv wie auch intel!
selbst amd nimmt trotz cq noch mehr strom bei max auslastung, was bei spielen, beim rippen, oder selbst beim kopieren von dicken datein ja sowieso immer der fall ist!


ps: hier wird definitiv zu schnell geposted! =) das ist jetzt nicht zwangslaeufig auf den letzten post zu beziehen

StefanV
2004-05-11, 13:00:29
Original geschrieben von Gas9t
Intel, ATI, Motorolo erhöhen seit Jahren kontinuierlich Ihr Leistung und senken Ihren Stromverbrauch, nur das kleine grüne Monster aus Californien benötigt kontinuierlich mehr Strom.

Stimmt, bis zum Presscott...

Da scheint man wohl solangsam an die Grenzen der CMOS Technik zu stoßen, was enorme Probleme verursacht, welche momentan nicht behoben sind...

Winter[Raven]
2004-05-11, 13:02:55
nur das kleine grüne Monster aus Californien benötigt kontinuierlich mehr Strom.

Geil, 160 Mil. Transistoren vs 222 Million ... schöner Vergleich ala Äpfel vs Birnen.

Gast
2004-05-11, 13:10:41
Original geschrieben von Winter[Raven]
Geil, 160 Mil. Transistoren vs 222 Million ... schöner Vergleich ala Äpfel vs Birnen.

:lol: Ati stellt die Transitoren aus Äpfeln (rot), Nvidia dagegen aus Birnen (grün) :rofl:
:lolaway:

Hint: Schau mal in die heutigen News von Leo rein, da findest du etwas über Transistorzahl und Leistungsaufnahme ;)

strickjackenscheitel
2004-05-11, 13:16:20
ausserdem waren es doch 181mill trans. beim r420, richtig?

Winter[Raven]
2004-05-11, 13:48:50
ausserdem waren es doch 181mill trans. beim r420, richtig?

Nein, schau in Leo's Test, es sind 160 Millionen Transistoren.

Ati stellt die Transitoren aus Äpfeln (rot), Nvidia dagegen aus Birnen (grün

Hör auf zu spemmen, THX.

Hint: Schau mal in die heutigen News von Leo rein, da findest du etwas über Transistorzahl und Leistungsaufnahme

?? Vielleicht bin ich blind, aber ich sehe nichts.

Ailuros
2004-05-11, 14:14:52
Ich hab mir jetzt nicht die ganzen 7 Seiten durchgelesen, aber wenn manchen die Stromrechnung so viel Gedanken macht und man auch sehr empfindlich mit dem Oeko Zeug ist, koennte eventuell ein kleiner Generator der mit einem Fahrrad verbunden ist helfen.

a) Stromverbrauch macht keine Sorgen, denn der Strom kommt umsonst.

b) Man achtet auch noch auf seine Linie und bleibt fit.

*schaut sich um....* :weg:

strickjackenscheitel
2004-05-11, 15:31:02
http://www.3dcenter.de/artikel/2004/05-05.php

und es sind doch 180 mill trans!

mal ganz abgesehen davon das der r420 weniger strom verbraucht als der nv40, ist es doch trotzdem noch enorm viel, richtig?!

Gast
2004-05-11, 15:44:04
Original geschrieben von strickjackenscheitel
mal ganz abgesehen davon das der r420 weniger strom verbraucht als der nv40, ist es doch trotzdem noch enorm viel, richtig?!

Selbstverständlich. Der zusätzliche Stromstecker seit R300 ist mir ein Dorn im Auge. Aber der R420 braucht fast genauso viel Strom für eine Verdopplung der Leistung, während der NV40 für die Verdopplung locker 33% mehr schlucken will und einen weiteren Stromstecker benötigt. Jetzt deutlich?

strickjackenscheitel
2004-05-11, 15:55:23
gast, ich werde aus deinem bespiel nicht klar!
die verdopplung von was?

die leistung und den stromverbrauch kann man doch nicht einfach so linear gleichsetzen mit den alten modellen.
da gibts doch 2d und 3d-modus.
ausserdem gibts die unterschiedlichsten leistungsgefaelle.

schon klar das der r420 fuer trotz einem "mehr" an leistung nicht viel mehr schluckt,
der nv40 jedoch schon.
doch was will man erwarten fuer ein 222-millionen-transitoren-monstrum?! irgendeinen sinn muessen die 41 millionen transitoren mehr beim nv 40 ja auch haben, richtig?

Black-Scorpion
2004-05-11, 16:00:21
Original geschrieben von Winter[Raven]
Nein, schau in Leo's Test, es sind 160 Millionen Transistoren.
Doch, schau in den Artikel (http://www.3dcenter.org/artikel/2004/05-05.php) (von Leo) und es sind 180 Millionen Transistoren. ;)

Gast
2004-05-11, 16:05:33
Original geschrieben von strickjackenscheitel
gast, ich werde aus deinem bespiel nicht klar!
die verdopplung von was?

die leistung und den stromverbrauch kann man doch nicht einfach so linear gleichsetzen mit den alten modellen.
da gibts doch 2d und 3d-modus.
ausserdem gibts die unterschiedlichsten leistungsgefaelle.

schon klar das der r420 fuer trotz einem "mehr" an leistung nicht viel mehr schluckt,
der nv40 jedoch schon.
doch was will man erwarten fuer ein 222-millionen-transitoren-monstrum?! irgendeinen sinn muessen die 41 millionen transitoren mehr beim nv 40 ja auch haben, richtig?

Ich als Spieler bin zuerst an fps interessiert, dann nehme ich Bildqualitätsverbesserndemaßnahmen gerne mit.
Da sich die Grakas hier so ziemlich die Waage halten, auch was den zweiten Punkt angeht, entscheide ich nach für mich relevanten Kriterien wie Preis und Verbrauch, Lautstärke. Preise werden ähnlich sein, so kriegt Ati den Zuschlag.
Das ein Entwickler hier andere Präferenzen hat ist mir klar, ich will aber zocken und das ist alles. Vorallem in MP-Bereich entscheiden die fps über "Leben oder Tod".

strickjackenscheitel
2004-05-11, 16:14:01
Original geschrieben von Gast
Ich als Spieler bin zuerst an fps interessiert, dann nehme ich Bildqualitätsverbesserndemaßnahmen gerne mit.
Da sich die Grakas hier so ziemlich die Waage halten, auch was den zweiten Punkt angeht, entscheide ich nach für mich relevanten Kriterien wie Preis und Verbrauch, Lautstärke. Preise werden ähnlich sein, so kriegt Ati den Zuschlag.
Das ein Entwickler hier andere Präferenzen hat ist mir klar, ich will aber zocken und das ist alles. Vorallem in MP-Bereich entscheiden die fps über "Leben oder Tod".


trotzdem hab ich das unbestimmte gefuehl, dass der nv40 den x800xt noch einholen wird. ok dazu muss ich sagen das mich aa und af so garnicht interessieren! ich bin nur darauf aus, so lange wie nur irgendmoeglich, mit meiner graka spielen zu koennen. da sehe ich den nv40 vorne. ausserdem spiele ich nicht in 2048

Winter[Raven]
2004-05-11, 16:42:33
Also hat 3DCenter ne Fehler reingebaut ... ;)

Leo, umänder musst du mal.

Den guckt mal her, die sagen alle 160 :P

http://www.tomshardware.com/graphic/20040504/ati-x800-03.html

http://www.anandtech.com/video/showdoc.html?i=2044&p=2

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=2

http://www.bjorn3d.com/_preview.phparticleID=457&pageID=722

http://www.firingsquad.com/hardware/ati_radeon_x800/page2.asp

Sphinx
2004-05-11, 16:55:53
Original geschrieben von strickjackenscheitel
trotzdem hab ich das unbestimmte gefuehl, dass der nv40 den x800xt noch einholen wird. ok dazu muss ich sagen das mich aa und af so garnicht interessieren! ich bin nur darauf aus, so lange wie nur irgendmoeglich, mit meiner graka spielen zu koennen. da sehe ich den nv40 vorne. ausserdem spiele ich nicht in 2048

Also rein dafür das ich mir eine Übergangslösung suche bis die erste PCI-Express Generation avaible ist. Finde ich die X800Pro als eine gute Lösung vor. Sowohl Preislich (~380 Euro* Das ist echt ein schnäppchen) als auch von der Geschwindigkeit her gegenüber der Nvidia.

Aber dieses "unbestimmte gefühl"...aussagen wirklich... Es könnte ja und müste ja und darf einfach nicht sein... komisch das diese gefühle mir Ati nie vermittelt hat mit ihrer aktuellen und jetzigen Produklinie...

reunion
2004-05-11, 17:03:55
Original geschrieben von Winter[Raven]
Geil, 160 Mil. Transistoren vs 222 Million ... schöner Vergleich ala Äpfel vs Birnen.

Es zählt das was am Ende dabei rauskommt...

LovesuckZ
2004-05-11, 17:07:02
Original geschrieben von reunion
Es zählt das was am Ende dabei rauskommt...

Das sind mehr features beim NV40.
Aber ich habe schon immer gewusst, das er deswegen deutlich besser ist...

Gast2k4
2004-05-11, 17:12:16
Ich persönlich glaube dass die X800 das Rennen machen wird, egal in welchen Punkten! Nicht nur die besseren allgemeinen Spieleergebnisse, auch der leise Lüfter und der geringere Stromverbrauch sprechen für sich und das bei einer High End Grafikkarte!
Ich war relativ optimistisch dass die Geforce 6800 Ultra das Rennen machen wird. So wie es jetzt ausschaut wird nichtmal die 6900 Ultra es schaffen! Schade Nvidia, das erinnert mich an 3dfx, egal wie viel es verbraucht, hauptsache viel Technik und starker Preis, was daraus geworden ist, sieht man ja ;D !

Xmas
2004-05-11, 17:33:01
Bei diesem ständigen Wechsel zwischen völligem OT und fehlender Diskussionskultur bleibt eigentlich nur noch, den Thread erst mal zu schließen...