PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Daseinsberechtigung 6800LE


Zweiblum
2005-02-08, 09:58:50
OH NEIN!
Mal wieder einer der 6600GT / 6800LE Threads...

Diesmal aber ein wenig anders: auch ich stehe vor der Entscheidung zwischen den beiden obigen Chipsätzen. Im UNMODIFIZIERTEN Zustand unterscheiden die sich ja weder in der Leistung noch im Preis besonders voneinander.
Daher drängt sich mir die Frage auf: was kann die 6800LE was die 6600GT nicht kann? Sie hat ein langsameres RAM und einen langsameren GPU-Takt; läuft aber genauso schnell. Was ist dann der Vorteil? Welchen Zweck aus Herstellersicht aus bedient der 6800LE-Chip?

Und die unvermeidliche Frage: soll ich mit eine 6800LE zulegen und hoffen, sie aufbohren zu können, oder lieber auf das sichere Pferd 6600GT setzen? Falls es nicht funktioniert, habe ich dann mit einer unmodifizierten 6800LE eine bessere Karte als mit einer unmodifizierten 6600GT?

*Zweiblum - verwirrt

Jochen v1.0
2005-02-08, 10:03:56
Hi

also ich hab hier schon sehr viel gelesen darüber und denke das die 6600gt einer ungemoddeten 6800le überlegen ist......

Ursprünglich waren die LEs nur für den OEM Markt bestimmt aus welchem Grund diese nun doch erhältlich sind kann ich dir leider nicht sagen....

Zudem sagt man sich das die LE besser für AA sein soll und die 6600GT besser für AF......

Tjell
2005-02-08, 10:12:16
Der Sinn der 6800 LE ist leicht erklärt:
Anstatt die Chips mit nur 2 funktionierenden Quads als Schrott wegzuwerfen werden sie billig verkauft, um dann als "Sparvarianten der großen Brüder" in hauptsächlich OEM-Kanäle des Namens zu gelangen.

Die Retailvarianten entstehen meist dann, wenn der OEM-Markt weniger Nachfrage generiert als geplant und gleichzeitig Endkunden relativ preiswerte aber dennoch performante neue Grafikkarten erwartet.

Die Herstellungskosten sind dennoch höher als bei den Mittelklasse-Karten a la 6600 GT, weshalb kein Hersteller länger als nötig die abgespeckte High-End-Variante unters Volk wirft.

üöä
2005-02-08, 12:06:08
Der Vorteil der 6800LE sollte dir doch eigentlicgh ins Gesicht springen, wenn du dir die Süpecs nochmal anschaust:
6600GT 128b Speicheranbindung
6800LE 256b Speicheranbindung

Die 6600GT hat 900 MHz bei 128b, also rund 13,4 GibiB/s, das sind de facto deutlich wenigher als 700 MHz bei 256b, also rund 20,9 GibiB/s.

Damit ist die 6800LE in sehr ramlastigen Anwendungen wie etwa in hohen Auflösungen mit hohen AA- oder AF-Berechnungen und großen Texturen der 6600GT überlegen, in niedrigeren Auflösungen, mit weniger AA/AF ist die 6600GT GT hingegen wegen ihrem deutlich höheren Chiptakt von 450 MHz gegenüber 300 MHz bei der 6800LE überlegen. ;)

StefanV
2005-02-08, 12:09:59
Die 6600GT hat 900 MHz bei 128b, also rund 13,4 GibiB/s, das sind de facto deutlich wenigher als 700 MHz bei 256b, also rund 20,9 GibiB/s.

Nein, hat sie nicht, da die 6600GT keine 900MHz SPeichertakt hat, ebenso wie die 6800LE keine 700MHz Speichertakt hat!!

Gäbe es 700MHz Speicher, dann gäbe es auch 'ne 6800 ULTRA EXTREME EDITION und x850XT Extreme mit 700MHz/1,4ns RAM...

Cougar
2005-02-08, 12:14:34
Nein, hat sie nicht, da die 6600GT keine 900MHz SPeichertakt hat, ebenso wie die 6800LE keine 700MHz Speichertakt hat!!

Gäbe es 700MHz Speicher, dann gäbe es auch 'ne 6800 ULTRA EXTREME EDITION und x850XT Extreme mit 700MHz/1,4ns RAM...
Er wird wohl 450 bzw 350 Mhz DDR gemeint haben, was effektiv 900 und 700 sind.

Freakazoid
2005-02-08, 12:15:33
Er wird wohl 450 bzw 350 Mhz DDR gemeint haben, was effektiv 900 und 700 sind.

Ich glaube das weiss auch Stefan ;)

StefanV
2005-02-08, 12:20:59
Er wird wohl 450 bzw 350 Mhz DDR gemeint haben, was effektiv 900 und 700 sind.
Ich glaube, das das nichts daran ändert, das seine Aussage falsch (http://www.3dcenter.org/artikel/2003/03-23_a.php) war :rolleyes:

@[3K]

Richtig, natürlich weiß ichs, wollt darauf hinaus, das diese deppenverdoppelung einfach nur falsch ist...

Gaestle
2005-02-08, 12:28:56
Wobei diese Grafik HIER:
http://www.3dcenter.org/images/2003/03-23_bild4.gif

aber zeigt, dass die Annahme der Verdoppelung näherungsweise zutreffend ist.

Egal wie man's dreht und wendet, die Grundaussage bleibt trotzdem bestehen. Eine Karte mit 6800LE hat mehr Bandbreite zur Verfügung.

Grüße

Radeonator
2005-02-08, 12:39:34
Ich glaube, das das nichts daran ändert, das seine Aussage falsch (http://www.3dcenter.org/artikel/2003/03-23_a.php) war :rolleyes:

@[3K]

Richtig, natürlich weiß ichs, wollt darauf hinaus, das diese deppenverdoppelung einfach nur falsch ist...

Stimmt so nun auch wieder nicht! Defakto ist Sie theroretisch fast richtig. Unter optimalen Bedingungen mit gleicher Latenz...;)

Auf jedenfall ist festzuhalten, das ein 256bittiger Bus keine reale Verdoppelung, jedoch eine deutliche Erhöhung der Bandbreite bringt. Zudem ist im allgemeinen DDR in MHz aufgerechnet worden, um Otto normal das Prinzip "doppelte Datenrate" konsumgerecht zu verpacken, ich denke da sind wir uns mal einig.

Somit ist eine 6800LE vs 6600GT in Bandbreite, logisch also in FSAA/AF und/oder Hohen Auflösungen überlegen. Hierbei würde ich aber zu bedenken geben, das die angedachte Käuferschicht solcher Karten, eigentlich nicht unbedingt highend BQler sind ;)

Ich hatte Glück mit meiner 6800LE, hab ihr nen neues Bios verpasst mit 12/6@350/800 -> Die ist definitiv einer 6600GT vorzuziehen :)

üöä
2005-02-08, 13:31:25
Ich glaube, das das nichts daran ändert, das seine Aussage falsch (http://www.3dcenter.org/artikel/2003/03-23_a.php) war :rolleyes:

@[3K]

Richtig, natürlich weiß ichs, wollt darauf hinaus, das diese deppenverdoppelung einfach nur falsch ist...
Man kann kleinlich sein oder man erkennt, dass theoretische Bandbreite sowieso nie erreicht wird. Sagst du zu DDR2-533-Speicher auch 133 MHz Speicher? Sagst du bei intel Prozessoren der Prescott hat einen FSB vopn 200 MHz?

Was bedeutet denn Hz? Hertz bedeutet nichts weiter als pro Sekunde und es ist nicht im geringsten gesagt was nun pro Sekunde stattfinden soll. Eine Datenübertragung findet bei DDR zwei Mal pro Takt statt, eben einmal auf dem setigenden und einmal auf dem fallenden Signalast, es ist auch unumstritten, dass das Signal erst abfällt, nachdem der Anstieg vollständig abgeschlossen ist, also finden Dtanübertragung am, steigenden und Datenübertragung am fallenden Signalast nacheinander statt, man kann sie also durchaus einzeln zählen, rechnet man das auf die Sekunde auf kommt man in etwa auf 900.000.000 Datenübertragungen bei der Geforce 6600 GT, also 900.000.000 pro Sekunde = 900.000.000 Hz = 900 MHz. Dass das Signal eine Frequenz von 450 MHz aufweist, weil ein Takt nur ein abgeschlossenes Signal und nicht eine abgeschlossene Datenübertragung ist, ist eine andere Sache.

StefanV
2005-02-08, 13:37:49
Man kann kleinlich sein oder man erkennt, dass theoretische Bandbreite sowieso nie erreicht wird. Sagst du zu DDR2-533-Speicher auch 133 MHz Speicher? Sagst du bei intel Prozessoren der Prescott hat einen FSB vopn 200 MHz?

Was bedeutet denn Hz? Hertz bedeutet nichts weiter als pro Sekunde und es ist nicht im geringsten gesagt was nun pro Sekunde stattfinden soll. Eine Datenübertragung findet bei DDR zwei Mal pro Takt statt, eben einmal auf dem setigenden und einmal auf dem fallenden Signalast, es ist auch unumstritten, dass das Signal erst abfällt, nachdem der Anstieg vollständig abgeschlossen ist, also finden Dtanübertragung am, steigenden und Datenübertragung am fallenden Signalast nacheinander statt, man kann sie also durchaus einzeln zählen, rechnet man das auf die Sekunde auf kommt man in etwa auf 900.000.000 Datenübertragungen bei der Geforce 6600 GT, also 900.000.000 pro Sekunde = 900.000.000 Hz = 900 MHz. Dass das Signal eine Frequenz von 450 MHz aufweist, weil ein Takt nur ein abgeschlossenes Signal und nicht eine abgeschlossene Datenübertragung ist, ist eine andere Sache.

1. kann ich die 133MHz mit 'nem Osziloskop sichtbar machen?!
Vermutlich nicht, ergo irrelevant.


2. kann ich deine 900MHz mit 'nem Osziloskop sichtbar machen?!
Ergo irrelevant.

Piffan
2005-02-08, 13:46:13
Und wieder ein Thread durch Mr. Payne zerlegt.......

Wen zum Teufel interessiert diese Klugmeierei?! :(

MechWOLLIer
2005-02-08, 14:40:05
Die Daseinsberechtigung ist imo nur für nVidia vorhanden,. So können sie, wie bereits erwähnt, defekte Chips günstig verkaufen ohne maximale Verluste zu Machen.

Für den Endkunden sehe ich die Karte dagegen, falls ungemoddet, für realtiv sinnlos an. Selbst bei Einsatz von AA fliegt sie der 6600GT nicht davon, immerhin verwendet man ja auch noch AA.

g-a-s-t
2005-02-08, 20:17:53
Ich glaube, das das nichts daran ändert, das seine Aussage falsch (http://www.3dcenter.org/artikel/2003/03-23_a.php) war :rolleyes:

@[3K]

Richtig, natürlich weiß ichs, wollt darauf hinaus, das diese deppenverdoppelung einfach nur falsch ist...
Und du machst das/dass Fehler....
TOLL, intressierts wen?

Zweiblum
2005-02-08, 23:31:27
Hm,

ich bin für mich sowieso schon auf den Trichter gekommen, daß es eine 6600GT werden soll.

Speicheranbindung hin oder her, die 6800LE ist nicht schneller und das Risiko des Aufbohrens will ich icht auf mich nehmen, so viel zoxke ich nu auch wieder nicht, schon garnicht bi 1600x1200.

Außerdem wird wahrscheinlich schon die 6600GT mein Mainboard zerblasen, immerhin habe ich ein recht altes ASUS mit nem PIV 1800 MHz drauf, das ich aber wegen der 2Gb RAMBUS nicht hergeben will).

*Zweiblum

aths
2005-02-09, 01:16:42
1. kann ich die 133MHz mit 'nem Osziloskop sichtbar machen?!
Vermutlich nicht, ergo irrelevant.Vermutlich doch, wenn es denn diese Frequenz überhaupt noch abtasten kann.

Ga
2005-02-09, 01:23:53
Was hat Paynes Wortklauberei eigentlich damit zu schaffen?
Das wird ja langsam lächerlich...

mustafa
2005-02-14, 04:39:43
Hertz bedeutet nichts weiter als pro Sekunde und es ist nicht im geringsten gesagt was nun pro Sekunde stattfinden soll.

denke mal hertz bedeutet "schwingung pro sekunde". sonst könnte ich 50 mhz falsch deuten und denken du fährst 50 meter pro sekunde. ;D

oder irre ich mich?

:confused:

StefanV
2005-02-14, 10:30:57
denke mal hertz bedeutet "schwingung pro sekunde". sonst könnte ich 50 mhz falsch deuten und denken du fährst 50 meter pro sekunde. ;D

oder irre ich mich?

:confused:
Nein, da irrst du dich nicht, mustafa :)


Wir sollten uns solangsam drauf einigen, das wir immer und überall die Taktfrerquenz in MHz angeben und bei der Deppenverdoppelung bei DDR einfach das MHz weglassen und das durch was anderes ersetzen und schon garnicht Takt dazu schreiben!!!

(Datenrate und ähnliches würd passen, Takt aber nicht).

StefanV
2005-02-14, 10:33:22
Vermutlich doch, wenn es denn diese Frequenz überhaupt noch abtasten kann.
Nein, kann man nicht, da die 133MHz, die der Core von PC2-4200 taktet nicht nach außen ausgeführt sind, es somit völlig unmöglich ist, diese 133MHz zu messen...

Ebenso ists unmöglich irgendwo 533MHz zu messen, nur 266MHz bekommt man auf 'nem Oszi zu Gesicht.

Spasstiger
2005-02-14, 11:25:22
Und wieder ein Thread durch Mr. Payne zerlegt.......

Wen zum Teufel interessiert diese Klugmeierei?! :(

Find ich auch schade, zumal die Rechnung von üöä richtig war (Speichertakt * 2 * Speicherbusbreite = theoretische maximale Bandbreite).

Mike
2005-02-14, 13:17:38
Und wieder ein Thread durch Mr. Payne zerlegt.......

Wen zum Teufel interessiert diese Klugmeierei?! :(

Mich zB, und einige andere, die diesen Marketingfirlefanz von wegen DDR Verdopplung etc nicht gut finden...

Mich wunderts, dass noch keiner auf die Idee gekommen ist, bei 256Bit Speicherinterfaces einfach mal, anstatt die Breite des Interfaces überhaupt zu nennen, einfach mal die Taktfrequenz verdoppelt angibt.. ;)
wäre natürlich der Gipfel der Verarschung, gut das es soweit anscheinend doch nicht geht..

Trap
2005-02-14, 14:05:02
Wie wärs mit einfach die Datenrate angeben? Wie man die erreicht ist doch eigentlich unwichtig.

aths
2005-02-14, 14:13:34
Nein, kann man nicht, da die 133MHz, die der Core von PC2-4200 taktet nicht nach außen ausgeführt sind, es somit völlig unmöglich ist, diese 133MHz zu messen...

Ebenso ists unmöglich irgendwo 533MHz zu messen, nur 266MHz bekommt man auf 'nem Oszi zu Gesicht.Wenn ich über einen DDR-Grakabus, der mit 500/"1000" MHz läuft, Daten-Bits übertrage, müssen pro Sekunde und Leitung 1000000000 Bits durchfließen. Wenn die voneinander unterscheidbar sein sollen, ohne dass man Dinge wie QAM verwendet, müsste man 1000 MHz messen können, so man einen entsprechend hochwertigen Ossi hätte.

Gasst
2005-02-14, 18:42:57
1. kann ich die 133MHz mit 'nem Osziloskop sichtbar machen?!
Vermutlich nicht, ergo irrelevant.


2. kann ich deine 900MHz mit 'nem Osziloskop sichtbar machen?!
Ergo irrelevant.


Klar kann man die sich auf nem Oszi anschauen.
Ergo: das einzige was hier irrelevant ist sind deine falschen Aussagen.

Gasst
2005-02-14, 18:45:26
Wenn ich über einen DDR-Grakabus, der mit 500/"1000" MHz läuft, Daten-Bits übertrage, müssen pro Sekunde und Leitung 1000000000 Bits durchfließen. Wenn die voneinander unterscheidbar sein sollen, ohne dass man Dinge wie QAM verwendet, müsste man 1000 MHz messen können, so man einen entsprechend hochwertigen Ossi hätte.


Gaynau.:) An den Datenpins lassen sich die 1000MHz aus deinem Beispiel messen.

MadManniMan
2005-02-14, 19:50:52
Leute, es ist hier SOWAS von egal, was ihr grad ausdiskutiert.

Und SP, wenn du schon sowas anfangen mußt, mach ein ... hm ... mit mehr "Charme" - also schreib nich nur, dat is so und so - verpack es adäquat, sodaß die Kritik positiv wirken kann.


So wie hier säst du nur böses Blut.

mustafa
2005-02-14, 20:47:46
ich messe mit dem oszi die schwingungen 500 mio/sec
ich dreh am der anzeige auf ddrdaten/sec, 1000mio/sec. boah das gerät kann schon zahlen mit 2 multiplizieren. echt nicht schlecht.