PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15

Gast12
2005-06-20, 08:58:09
Oh man ist das so schwer das eine ist im idle das andere unter lasst was auch gut hinkommt wenn man bedenkt das mit C n Q der FX relativ wenig verbraucht und die karte sich im 2D auch runtertaktet.Und 291watt last sind gar nix in der PCGH haben sie schon 320watt für ein FX55 mit einem 6800U SLI gemessen.

der FX zieht 40W, die karte gute 80W, bleiben noch gute 50W für speicher, mobo und laufwerke... =)

Gast
2005-06-20, 10:33:17
Wer jegliche Komponente uebertakten will, sollte auch ein staerkeres Netzteil besorgen, egal ob es sich jetzt um die CPU oder die GPU handelt.

Auf jeden Fall wuerde ich nicht erwarten dass ein IHV jegliche Uebertaktungen bei den minimalen Vorraussetzungen mitberechnen wuerde.

Sowieso eine irrsinnige Debatte; wer =/>500 euros fuer eine GPU ausgeben wird, wird wohl jetzt nicht zu geizig sein noch 100-150 euros fuer eine PSU hinzulegen falls man diese auch wirklich braucht. Die Mehrzahl der NV40-User haben schon seit einiger Zeit PSUs die selbst eine G70 unterbringen koennten.

Ganz OT: frueher uebertaktete ich regelmaessig alle CPUs; so langsam ist mir das Ganze aber zu bunt geworden; ueberhaupt seit ich die Aufloesungen in Spielen und AA/AF settings weiterhin durch die Jahre nach oben skalierte. Etwas ueber ein Jahr und dann kommt eine neue CPU.
Das hat mit dem Thema eigentlich nichts zu tun.
Es geht nicht darum, ob jemand, der für eine Graka 500EUR abdrückt, auch noch bereit / reich genug ist, nochmals 150EUR für eine PSU draufzulegen. Es ist wohl eher "irrsinnig" anzunehmen, dass alle G70-Interessenten auch diese zusätzliche Hürde noch nehmen.
Es geht darum, dass manche sich in trügerischer Sicherheit wiegen, weil bis vor kurzem noch behauptet würde, 350W-NTs würden ausreichen, oder meinen, weil sie ein 400W-NT haben, müsste auch eine G7800 problemlos bei ihnen funktionieren.

Winter[Raven]
2005-06-20, 10:49:57
Ich sag nur NV40Ultra @200 bzw. 250 Watt NT!

stickedy
2005-06-20, 11:00:19
Es geht darum, dass manche sich in trügerischer Sicherheit wiegen, weil bis vor kurzem noch behauptet würde, 350W-NTs würden ausreichen, oder meinen, weil sie ein 400W-NT haben, müsste auch eine G7800 problemlos bei ihnen funktionieren.
Und es gibt keinen Anlass, dies anzuzweifeln. Auch 350W werden reichen - für eine Standard-Config natürlich.

Xmas
2005-06-20, 11:43:45
Könnte eben die übertaktete Version sein, welche die messen...

Core Normal 430 MHz, sie übertakten sie auf 508 MHz, macht ca. 18% mehr, ebenso der Speichertakt...1.200 zu 1.370 MHz... die wird garantiert deutlich mehr saufen, vielleicht über der Spezifikation, hat das OC je interessiert?
Selbst dann wäre man im Normalbetrieb so nahe an den Maximum-Spezifikationen dass man so nie bauen würde. Dann müsste man nämlich die Spannungswandler auf der Karte nochmal deutlich verkomplizieren. Stattdessen würde man viel eher noch einen zusätzliche Stecker verbauen, wie man es beispielsweise bei dem Dual-NV40-Board von Asus sieht.


Im übrigen sieht man auf den Bildern sehr deutlich, dass hier der Netzstecker am Messgerät hängt, also die Leistungsaufnahme des Netzteils insgesamt gemessen wird.

SKYNET
2005-06-20, 12:20:26
Oh man ist das so schwer das eine ist im idle das andere unter lasst was auch gut hinkommt wenn man bedenkt das mit C n Q der FX relativ wenig verbraucht und die karte sich im 2D auch runtertaktet.Und 291watt last sind gar nix in der PCGH haben sie schon 320watt für ein FX55 mit einem 6800U SLI gemessen.


Volles system keine LAST
http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-Watt.jpg

Volles system vollast
http://pic.digital-info.net/autumn/7800GTX/Preview/018.jpg

der FX57(0.09µ) zieht grade mal die hälfte von nem FX55(o.13µ). =)


http://pic.digital-info.net/autumn/7800GTX/Preview/018.jpg

Ich sehe nur eine...

Ich gehe davon aus, dass das mit den übertakteten Karten gemessen wurde...


nur durchs übertakten ohne volt mod kann der stromhunger nicht so steigen.


Ja.


ich komm dich mal besuchen... das letzte mal war ich mit 11-12 da. ;(

q@w
2005-06-20, 12:28:35
der FX57(0.09µ) zieht grade mal die hälfte von nem FX55(o.13µ). =)

nur durchs übertakten ohne volt mod kann der stromhunger nicht so steigen.


a. Das wäre noch zu beweisen.

b. Natürlich kann er das. Dort wird das Gesamtsystem gemessen. Faktoren:
- Mainboard
- Chipsatz
- RAM
- CPU
- Grafikkarten
- Netzteilwirkungsgrade (und div. andere Wirkungsgrade)

Für einen C'n'Q-AMD finde ich die Steigerung von nur 122W von Idle auf Last für das Gesamtsystem extrem gering.
Die Graka dürfte netto davon nicht mehr als 80W zus. saufen.

Leonidas
2005-06-20, 12:34:39
Und es gibt keinen Anlass, dies anzuzweifeln. Auch 350W werden reichen - für eine Standard-Config natürlich.


Macht Euch doch net ins Hemd. Ich plaudere mal ausm Nähkästchen, da hier zu viele Falschinfos rumschwirren, die leider ernst genommen werden.

Offizielle Empfehlung ist: For a SINGLE GeForce 7800 GTX graphics card, NVIDIA recommends a power supply with at least 350W, 22amps on 12V

Godmode
2005-06-20, 12:35:21
Für einen C'n'Q-AMD finde ich die Steigerung von nur 122W von Idle auf Last für das Gesamtsystem extrem gering.
Die Graka dürfte netto davon nicht mehr als 80W zus. saufen.

Ja das dürfte so ca. hinkommen, wobei dann für die CPU und den Rest Systems nur mehr 40 W übrigt wären. Könnte auch sein das die GPU nur 70 W verbraucht (darum auch nur Singleslot Kühler)

deekey777
2005-06-20, 12:44:33
Macht Euch doch net ins Hemd. Ich plaudere mal ausm Nähkästchen, da hier zu viele Falschinfos rumschwirren, die leider ernst genommen werden.

Offizielle Empfehlung ist: For a SINGLE GeForce 7800 GTX graphics card, NVIDIA recommends a power supply with at least 350W, 22amps on 12V

Auch sollte man nicht vergessen, daß die Grafikkarte nicht der einzige Verbraucher ist, der an 12V hängt, da gibt es noch bestimmte Prozessoren... Die Angabe ist ja für das gesamte System, oder hat jemand zwei NTs im PC?

Hauwech
2005-06-20, 12:45:19
Macht Euch doch net ins Hemd. Ich plaudere mal ausm Nähkästchen, da hier zu viele Falschinfos rumschwirren, die leider ernst genommen werden.

Offizielle Empfehlung ist: For a SINGLE GeForce 7800 GTX graphics card, NVIDIA recommends a power supply with at least 350W, 22amps on 12V

Da es ja so gesehen nicht um die Leistungsdaten selbst sondern um die technischen Spezifikationen geht, woher kommen solche Falschinformationen? Sind das auch gezielt gestreute oder 'logische Schlussfolgerungen von intelligenten Leuten'?

Ailuros
2005-06-20, 12:45:52
Das hat mit dem Thema eigentlich nichts zu tun.
Es geht nicht darum, ob jemand, der für eine Graka 500EUR abdrückt, auch noch bereit / reich genug ist, nochmals 150EUR für eine PSU draufzulegen. Es ist wohl eher "irrsinnig" anzunehmen, dass alle G70-Interessenten auch diese zusätzliche Hürde noch nehmen.
Es geht darum, dass manche sich in trügerischer Sicherheit wiegen, weil bis vor kurzem noch behauptet würde, 350W-NTs würden ausreichen, oder meinen, weil sie ein 400W-NT haben, müsste auch eine G7800 problemlos bei ihnen funktionieren.

Ist zwar alles schon bekannt, aber nochmal:

1. Watt=! Watt unter allen Situationen. 500W Q-tec =! 500W Antec und gleiches gilt natuerlich auch fuer 200, 300 oder mehr Watt. Was man bezahlt bekommt man auch.

2. Abgesehen von diesem ist erstmal die Zusammensetzung des Systems wichtig und wieviel Ampere dem +12V rail zur Verfuegung stehen (wie bekannt).

Ailuros
2005-06-20, 12:56:33
Macht Euch doch net ins Hemd. Ich plaudere mal ausm Nähkästchen, da hier zu viele Falschinfos rumschwirren, die leider ernst genommen werden.

Offizielle Empfehlung ist: For a SINGLE GeForce 7800 GTX graphics card, NVIDIA recommends a power supply with at least 350W, 22amps on 12V

Ich hab schon seit einiger Zeit nicht mit den neuesten <450W PSUs beschaeftigt, aber die 22A@+12V werden wohl schwer zu finden sein auf 350W PSUs.

Mein fast zwei Jahre altes Heroichi 450W liefert gerade noch 17A@+12V.

Obwohl ich noch gar nichts bis jetzt fuer eine GPU Aufruestung geplant habe, schaue ich mich momentan nach PSUs mit zumindest 34A um.

Knapp um die 100 Euronen:

http://www.hipergroup.com/products/hpu-4b580.html

Ich uebertreibe meistens mit dem Zeug weil ich stets auf Nummer sicher gehen will; der Tower wird von einem gigantischen 1600VA UPS unterstuetzt und der CRT von einem 620VA *hust*.

Leonidas
2005-06-20, 12:56:48
Da es ja so gesehen nicht um die Leistungsdaten selbst sondern um die technischen Spezifikationen geht, woher kommen solche Falschinformationen? Sind das auch gezielt gestreute oder 'logische Schlussfolgerungen von intelligenten Leuten'?


Das mit den 400W / 24A war tatasächlich eine offizielle Spec - nur eben eine alte.

Leonidas
2005-06-20, 12:57:37
Ich hab schon seit einiger Zeit nicht mit den neuesten <450W PSUs beschaeftigt, aber die 22A@+12V werden wohl schwer zu finden sein auf 350W PSUs.



Stimmt. Bei den Wald- und Wiesen-Netzteilen ist das wohl eher 450-Watt-Klasse.

Godmode
2005-06-20, 13:02:04
Obwohl ich noch gar nichts bis jetzt fuer eine GPU Aufruestung geplant habe, schaue ich mich momentan nach PSUs mit zumindest 34A um.


Mein OZC 470 macht genau 34A auf der +12V Schiene

SKYNET
2005-06-20, 13:14:12
Stimmt. Bei den Wald- und Wiesen-Netzteilen ist das wohl eher 450-Watt-Klasse.


30A @ 12V @350W =)
http://www.geizhals.at/deutschland/a153258.html

meine persönliche empfehlung ist aber das:
http://www.geizhals.at/deutschland/a149469.html

oder das:
http://www.geizhals.at/deutschland/a144250.html

Ailuros
2005-06-20, 13:27:58
30A @ 12V @350W =)
http://www.geizhals.at/deutschland/a153258.html

meine persönliche empfehlung ist aber das:
http://www.geizhals.at/deutschland/a149469.html

oder das:
http://www.geizhals.at/deutschland/a144250.html

Das sind uebrigens neue PSUs; greif mal auf die Spezifikationen aelterer 350-400W PSUs zurueck dann wirst Du sehen was ich meinte.

Mein OZC 470 macht genau 34A auf der +12V Schiene

OZC sind zweifellos hoch qualitative PSUs, aber wie auch in so vielen anderen Maerkten gibt man eben oefter als noetig auch theoretische peak Nummern an; gilt genauso fuer Amper als auch fuer Watt. Ich musste selber lachen als Heroichi nach etwa einem halben Jahr die gleiche vorerwaehnte PSU mit 22A vermarktete.

Also bitte vorsichtig mit dem "genau" Zeug; es ist alles relativ. Am ehrlichsten von den Herstellern sind u.a. PC Power & Cooling; die sind hier leider etwas schwer zu finden und auch vergleichsmaessig etwas teurer.

Gast
2005-06-20, 13:42:21
@skynet
du hast doch jetzt net wirklich die stromstärke beider schienen addiert oder?
das ist die max. belastung der einzelnen schiene
insgesamt kann das bestimmt mx. 25A auf beiden zusammen
bei vielen guten netzteilen steht das extra dabei

sth
2005-06-20, 13:48:20
Dann werfe ich mal eben
http://www.geizhals.at/deutschland/a141627.html
und
http://www.geizhals.at/deutschland/a149058.html
in die Runde :)

SKYNET
2005-06-20, 13:55:31
@skynet
du hast doch jetzt net wirklich die stromstärke beider schienen addiert oder?
das ist die max. belastung der einzelnen schiene
insgesamt kann das bestimmt mx. 25A auf beiden zusammen
bei vielen guten netzteilen steht das extra dabei


i know, aber das ist bei fast allen NT's so. =)

Coda
2005-06-20, 13:56:19
Ich gehe wirklich stark davon aus, dass das Ding nicht viel mehr Strom als eine 6800 Ultra braucht. Maximal +10W, und das ist kein Problem.

mapel110
2005-06-20, 14:19:38
Ich gehe wirklich stark davon aus, dass das Ding nicht viel mehr Strom als eine 6800 Ultra braucht. Maximal +10W, und das ist kein Problem.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3168515#post3168515
Das hört sich für mich nach 25-30 Watt mehr an. :(

Godmode
2005-06-20, 14:27:05
OZC sind zweifellos hoch qualitative PSUs, aber wie auch in so vielen anderen Maerkten gibt man eben oefter als noetig auch theoretische peak Nummern an; gilt genauso fuer Amper als auch fuer Watt. Ich musste selber lachen als Heroichi nach etwa einem halben Jahr die gleiche vorerwaehnte PSU mit 22A vermarktete.


Also Peak Nummern stehen nochmals extra drauf, für mein 470 sind das 570 die anscheinend 60 sec gehalten werden können

Ailuros
2005-06-20, 14:30:12
Ich gehe wirklich stark davon aus, dass das Ding nicht viel mehr Strom als eine 6800 Ultra braucht. Maximal +10W, und das ist kein Problem.

So oder so wuerde ich um absolut auf Nummer Sicher zu gehen fuer ein vollgeladenes high end System mit einer G70 eine qualitative PSU mit zumindest 25A@+12V rail empfehlen. Wer noch mehr als eine Komponente uebertakten will, dann sogar mehr.

Ailuros
2005-06-20, 14:31:06
OZC sind zweifellos hoch qualitative PSUs, aber wie auch in so vielen anderen Maerkten gibt man eben oefter als noetig auch theoretische peak Nummern an; gilt genauso fuer Amper als auch fuer Watt. Ich musste selber lachen als Heroichi nach etwa einem halben Jahr die gleiche vorerwaehnte PSU mit 22A vermarktete.


Also Peak Nummern stehen nochmals extra drauf, für mein 470 sind das 570 die anscheinend 60 sec gehalten werden können

Ich hab mich auf Amper bezogen.

Godmode
2005-06-20, 14:33:37
Ich hab mich auf Ampere bezogen.

Ok, also du meinst diese Ampere Werte die da bei mir draufstehn sind also auch alles Peak Werte?

Es gibt bei mir 2 Spalten: Max output current und Maxcombined wattage

Coda
2005-06-20, 14:37:16
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3168515#post3168515
Das hört sich für mich nach 25-30 Watt mehr an. :(100-110W ist aber nicht "etwas mehr" als eine 6800 Ultra, sondern deutlich mehr.

Ich meine 110W ist ja schon Prescott Niveau (!), ich kann mir nicht vorstellen dass das der 1 Slot Kühler schafft.

Gast
2005-06-20, 14:39:29
Ich gehe wirklich stark davon aus, dass das Ding nicht viel mehr Strom als eine 6800 Ultra braucht. Maximal +10W, und das ist kein Problem.
even less....

reunion
2005-06-20, 14:44:30
Ich meine 110W ist ja schon Prescott Niveau (!), ich kann mir nicht vorstellen dass das der 1 Slot Kühler schafft.


Wenn er schnell genug dreht. :naughty:
Der 110nm Prozess ist eben nicht gerade stromsparend, eine 6600GT verbraucht auch schon >50Watt.

Coda
2005-06-20, 14:46:55
Die schlechte Presse bezüglich Lüfterlautstärke kann sich nVIDIA nicht nochmal leisten.

Wer sagt, dass das der gleiche 110nm Prozess ist wie bei NV34?

Gast
2005-06-20, 14:47:24
100-110W ist aber nicht "etwas mehr" als eine 6800 Ultra, sondern deutlich mehr.

Ich meine 110W ist ja schon Prescott Niveau (!), ich kann mir nicht vorstellen dass das der 1 Slot Kühler schafft.
110W wäre die komplette Leistungsaufnahme der Karte.

- GPU
- RAM
- sonstige Bauteile
- Verluste

Coda
2005-06-20, 14:47:46
Und? Alle Verluste müssen weggekühlt werden. 110W ist total unrealistisch.

Demirug
2005-06-20, 14:49:18
Wenn er schnell genug dreht. :naughty:
Der 110nm Prozess ist eben nicht gerade stromsparend, eine 6600GT verbraucht auch schon >50Watt.

Und mit welchem Takt, Corespannung laufen die 6600 GTs?

Die Leckströme welche ja scheinbar das große 110nm problem zu sein scheinen steigen nicht linear zu diesen beiden größen.

Gast
2005-06-20, 14:49:34
Aber nicht alle Verluste werden von dem Kühler "weggekühlt". :)

Coda
2005-06-20, 14:51:42
Was wird denn nicht von dem 1 Slot kühler gekühlt? Diesmal sind sogar die Spannungswandler noch drunter.

robbitop
2005-06-20, 14:53:13
Und mit welchem Takt, Corespannung laufen die 6600 GTs?

Die Leckströme welche ja scheinbar das große 110nm problem zu sein scheinen steigen nicht linear zu diesen beiden größen.
NV43 GT: 500MHz bei 1,4V.
Die NV43 Vannilla hingegen mit 325MHz und 1,2V.

SKYNET
2005-06-20, 14:53:48
Nur werden die Spannungswandler nicht >15W Verluste haben wenn ein passiver Kühlkörper drauf ist :rolleyes:

Und der Rest wird von dem 1 Slot Kühler beseitigt.


naja, passiv ist da nix... das ding wurde ja so gebaut das es im windzug vom lüfter hängt. =)

Coda
2005-06-20, 14:54:41
Siehe Edit... Sorry.

Wie auch immer für 110W reicht der Kühler nicht.

Gast
2005-06-20, 14:55:35
Was wird denn nicht von dem 1 Slot kühler gekühlt? Diesmal sind sogar die Spannungswandler noch drunter.

Ich sehe da noch genügend Zeugs (ja, u.a. auch spannungsregulierende Bauteile und so Krams), welches unbedeckt auf der Vorderseite rumliegt und auch auf der Rückseite wird RAM verbaut. =)

Aber bitte, glaub, was du willst.

Coda
2005-06-20, 14:56:17
Klar, ungekühlte Bauteile verbrauchen bestimmt 50W. Denk mal nach...

reunion
2005-06-20, 14:59:31
Und mit welchem Takt, Corespannung laufen die 6600 GTs?



Und mit welcher Corespannung läuft ein G70? :naughty:

Coda
2005-06-20, 15:01:15
Weniger als eine 6600GT, da weniger Takt. Wenn man dann noch die Optimierungen an kritischen Pfaden, die vielleicht gemacht wurden einrechnet...

Ailuros
2005-06-20, 15:06:34
Ok, also du meinst diese Ampere Werte die da bei mir draufstehn sind also auch alles Peak Werte?

Es gibt bei mir 2 Spalten: Max output current und Maxcombined wattage

Ich sag's Dir mal anders; Dein motherboard kann bestimmt verschiedene Werte von den jeweiligen rails ablesen. Falls Du bei der extremsten Last immer noch >12.xxV auf +12V liegst, dann gibt es noch Platz fuer mehr Komponenten oder Uebertaktungs-Uebungen der zeitigen Komponenten. Falls niedriger als sagen wir mal ~11.6 oder so, ist es schon waghalsig.

Vielleicht hilft Dir das zu bestimmen ob Deine zeitige PSU fuer kommende GPUs aushaelt (normalerweise muesste es schon reichen).

Ailuros
2005-06-20, 15:09:03
Weniger als eine 6600GT, da weniger Takt. Wenn man dann noch die Optimierungen an kritischen Pfaden, die vielleicht gemacht wurden einrechnet...

6600GTs werden aber auch verdammt heiss unter voller Last. Ich bin schon locker ueber die 70C gekommen mit solchen Dingern.

reunion
2005-06-20, 15:10:00
Und? Alle Verluste müssen weggekühlt werden. 110W ist total unrealistisch.


nV wird schon Gründe haben, diesen Wert anzugeben.

Coda
2005-06-20, 15:20:36
6600GTs werden aber auch verdammt heiss unter voller Last. Ich bin schon locker ueber die 70C gekommen mit solchen Dingern.Hab ich wo genau bestritten?

nV wird schon Gründe haben, diesen Wert anzugeben.Ja, man will auf der sicheren Seite sein. Genauso wie mit dem TDP Wert von AMD.

Godmode
2005-06-20, 15:21:28
Vielleicht hilft Dir das zu bestimmen ob Deine zeitige PSU fuer kommende GPUs aushaelt (normalerweise muesste es schon reichen).

Jap dass hilft mir sehr, danke! Werd mich gleich mal ans testen machen!

reunion
2005-06-20, 15:28:38
Ja, man will auf der sicheren Seite sein. Genauso wie mit dem TDP Wert von AMD.

Wenn man explizit 100 - 110W Leistungsaufnahme angibt, wird man diese auch erreichen können.

Bei AMD macht man das ja, da man die TDP für eine ganze Serie angibt, d.h. dass man immer von höchstgetakteten Chip einer Serie ausgehen muss und für höher getaktete Version ev. noch Luft braucht - wodurch die niedrig getakteten Chips natürlich weit unterhalb der TDP liegen.

Coda
2005-06-20, 15:30:00
Ich kann mich noch erinnern dass nVIDIA beim NV40 schon 100W angegeben hat - wurde laut XBit Labs auch nicht erreicht.

SKYNET
2005-06-20, 15:30:26
Weniger als eine 6600GT, da weniger Takt. Wenn man dann noch die Optimierungen an kritischen Pfaden, die vielleicht gemacht wurden einrechnet...


das ist aber egal, selbst bei weniger kernspannung als der 6600GT wird der G70 mehr saft ziehn.

[edit] hier stand etwas, was hier nicht stehn sollte. X-D


bleistift:
chip A: 1.3VGPU und zieht 20A = 26W aufnahme
chip B: 0.9VGPU und zieht 40A = 36W aufnahme

=)

Gast
2005-06-20, 15:31:23
Heute ist Montag , wo bleiben die ersten Tests?

SKYNET
2005-06-20, 15:32:57
Ich kann mich noch erinnern dass nVIDIA beim NV40 schon 100W angegeben hat - wurde laut XBit Labs auch nicht erreicht.

genau so ist es!

@ gast, morgen ist erst der 21.6.

Gast
2005-06-20, 15:33:22
Aber auf Leadtek stand gestern 1 Tag!

Coda
2005-06-20, 15:34:06
das ist aber egal, selbst bei weniger kernspannung als der 6600GT wird der G70 mehr saft ziehn.Natürlich. Ich wollte nur sagen, dass G70 wohl weniger Kernspannung als NV43 hat in Bezug auf:

Und mit welcher Corespannung läuft ein G70?

Ailuros
2005-06-20, 15:36:37
Hab ich wo genau bestritten?

Manchmal gibt es auch Posts die als Ergaenzungen dienen; G70 darf IMHO auf keinen Fall so heiss werden und es wird auch nicht der Fall sein.

das ist aber egal, selbst bei weniger kernspannung als der 6600GT wird der G70 mehr saft ziehn.

volt = unwichtig
ampere = das was zählt

bleistift:
chip A: 1.3VGPU und zieht 20A = 26W aufnahme
chip B: 0.9VGPU und zieht 40A = 36W aufnahme

ROFL ;D (no comment)

Heute ist Montag , wo bleiben die ersten Tests?

NDAs entfallen erst am 22.

Ailuros
2005-06-20, 15:37:42
Aber auf Leadtek stand gestern 1 Tag!

Du wirst wohl 1 oder 2 Tage noch ueberleben koennen oder?

ShadowXX
2005-06-20, 15:38:21
genau so ist es!

@ gast, morgen ist erst der 21.6.

In good old Germany wird wohl auch eher der 22.06. werden....

Coda
2005-06-20, 15:38:30
volt = unwichtig
ampere = das was zählt

bleistift:
chip A: 1.3VGPU und zieht 20A = 26W aufnahme
chip B: 0.9VGPU und zieht 40A = 36W aufnahmeSorry, aber das ist wirklich Bullshit. Gerade erst aufgefallen *uarks*

reunion
2005-06-20, 15:39:40
6600GTs werden aber auch verdammt heiss unter voller Last. Ich bin schon locker ueber die 70C gekommen mit solchen Dingern.


ACK, bei heißen Temperaturen wie heute, wird meine Karte selbst in 2D (=300Mhz Coretakt) über 55°C heiß.
Aber die Teile halten auch einiges aus, der nV-Treiber wird erst bei 127°C aktiv. :D

Ailuros
2005-06-20, 15:40:57
Sorry, aber das ist wirklich Bullshit. Gerade erst aufgefallen *uarks*

*waelzt sich auf dem Boden* hahahahaha....jemand ist extrem langsam wieder heute :P

drdope
2005-06-20, 15:41:45
Sorry, aber das ist wirklich Bullshit. Gerade erst aufgefallen *uarks*

du willst doch nicht etwa behaupten zwischen Spannung, Stromstärke und Leistungsaufnahme gäbe es einen Zusammenhang, oder?

Coda
2005-06-20, 15:42:19
*waelzt sich auf dem Boden* hahahahaha....jemand ist extrem langsam wieder heute :P :confused: :| :confused:

Ailuros
2005-06-20, 15:43:42
:confused: :| :confused:

Ich hab es extra nochmal gequotet, um sicher zu sein dass Du es auch siehst.

SKYNET
2005-06-20, 15:45:38
Sorry, aber das ist wirklich Bullshit. Gerade erst aufgefallen *uarks*


ja, mir auch grade selber aufgefallen... X-D

Coda
2005-06-20, 15:45:53
Was sehen? Häääää?

Bullshit = volt = unwichtig
ampere = das was zählt

Was darunter steht ist natürlich richtig.

Dunkeltier
2005-06-20, 15:46:19
Sorry, aber das ist wirklich Bullshit. Gerade erst aufgefallen *uarks*


Was spricht gegen PUI? :confused:

Dunkeltier
2005-06-20, 15:46:52
Was sehen? Häääää?

Bullshit =


Zählt beides.

Coda
2005-06-20, 15:48:17
Eben.

Hallo, ich hatte 14P in Elektrotechnik im Abitur, was gehtn X-D

Stefan20032004
2005-06-20, 16:28:52
http://www.leadtek.com/

scheint in Arbeit zu sein ;D :D =) :biggrin:

da steht:


NIVIDIA

its here................





da kommt sicher bald en Bild + Specs

BlackArchon
2005-06-20, 16:45:44
Mit Firefox siehste gar nix.

Godmode
2005-06-20, 16:47:11
Mit dem super IE schon ;D

Gast
2005-06-20, 16:57:53
http://www.hardspell.com/news/showcont.asp?news_id=14305

falls noch nicht gepostet wurde

Gast
2005-06-20, 17:18:54
http://www.hardspell.com/news/showcont.asp?news_id=14305

falls noch nicht gepostet wurde


Die 3D Marks werden ja immer weniger?

Quasar
2005-06-20, 17:21:51
Klar, ungekühlte Bauteile verbrauchen bestimmt 50W. Denk mal nach...
*denkdenk*
Woher kommen die 50W?

Ich kann mich noch erinnern dass nVIDIA beim NV40 schon 100W angegeben hat - wurde laut XBit Labs auch nicht erreicht.
130W - vielleicht ein Indiz dafür, wie "toll" die Methoden zur Auslastung der GPU bei manchen gewählt werden.

r3ptil3
2005-06-20, 17:34:36
Ab Mittwoch sollen angeblich Geforce 7800 Karten verfügbar sein.

http://www.gamestar.de/news/hardware/26250/

mapel110
2005-06-20, 17:45:21
Ab Mittwoch sollen angeblich Geforce 7800 Karten verfügbar sein.

http://www.gamestar.de/news/hardware/26250/
Ich teile da Leonidas Meinung. Wenn Karten schon wirklich leiferbar wären, dann gäbs jetzt schon Benchmarks. Kann mir keiner erzählen, dass da kein Mitarbeiter auf die Idee kommt, mal solch ein Kärtchen mit nach Hause zu nehmen und zu testen. Und da fast jeder Mitarbeiter einer solchen Firma Internetzugang hat ...

Hellfire-Torrod
2005-06-20, 17:51:35
Ich teile da Leonidas Meinung. Wenn Karten schon wirklich leiferbar wären, dann gäbs jetzt schon Benchmarks. Kann mir keiner erzählen, dass da kein Mitarbeiter auf die Idee kommt, mal solch ein Kärtchen mit nach Hause zu nehmen und zu testen. Und da fast jeder Mitarbeiter einer solchen Firma Internetzugang hat ...

Vieleicht halten die Händler die dinger unter anweisung von Nvidia unter verschluss.

Iwan
2005-06-20, 17:55:57
Vieleicht halten die Händler die dinger unter anweisung von Nvidia unter verschluss.

"die händler" bestehen aber auch aus mitarbeitern mit internet-anschluss :wink:

Hellfire-Torrod
2005-06-20, 18:10:24
"die händler" bestehen aber auch aus mitarbeitern mit internet-anschluss :wink:

Wenn die cheffetage sagt, verschließt die dinger...wenn da was rauskommt, gibts dicke haue. Wer weiß was für HARTE NDAs die Händler unterschreiben mussten. Ich denke es ist NVidia sehr wichtig die karten so früh wie möglich an den mann(oder die frau) zu bringen, sodass man bestimmt harte verträge abschließt. Oder die mitarbeiter habens einfach verpennt.

Coda
2005-06-20, 18:10:27
*denkdenk*
Woher kommen die 50W?War etwas zugespitzt.

130W - vielleicht ein Indiz dafür, wie "toll" die Methoden zur Auslastung der GPU bei manchen gewählt werden.XBit hat sowohl den Steckplatz als auch die Stromanschlüsse durchgemessen, ich denke nicht das da noch Strom aus der Luft kommt...

Quasar
2005-06-20, 18:16:16
War etwas zugespitzt.

XBit hat sowohl den Steckplatz als auch die Stromanschlüsse durchgemessen, ich denke nicht das da noch Strom aus der Luft kommt...
Zur Auslastung, nicht Ausmessung.

Quasar
2005-06-20, 18:18:49
Auch ungekühlte Bauteile können einiges an Abwärme erzeugen. Was mag so ein GDDR3-Baustein bei 600 MHz wohl umsetzen? Wie heiß wurden bsw. die spannungsregulierenden Bauteile bei der Radeon 9700 Pro?

Und zuletzt wird manches mal auch das PCB zur Wärmeableitung genutzt - das wird ja selbst auch ganz schön warm. Nicht alles, was Passivkühler ist, muss aus Alu sein und Rippen haben.

r3ptil3
2005-06-20, 19:15:44
Ich teile da Leonidas Meinung. Wenn Karten schon wirklich leiferbar wären, dann gäbs jetzt schon Benchmarks. Kann mir keiner erzählen, dass da kein Mitarbeiter auf die Idee kommt, mal solch ein Kärtchen mit nach Hause zu nehmen und zu testen. Und da fast jeder Mitarbeiter einer solchen Firma Internetzugang hat ...

Das dürfen sie nicht seitens Nvidia, erst nach der Vorstellung des G70.

mapel110
2005-06-20, 19:17:50
Das dürfen sie nicht seitens Nvidia, erst nach der Vorstellung des G70.
Man kann solche Infos sehr anonym im Internet verbreiten.

(del676)
2005-06-20, 19:21:58
aber man könnte die karten nur bis zu den Großhändlern schicken, da arbeiten keine graka geilen kiddies :)

seahawk
2005-06-20, 19:25:20
"die händler" bestehen aber auch aus mitarbeitern mit internet-anschluss :wink:

Och den Zugang kann man da relativ leicht regulieren. Und wenn man als Händler beim Launch mitverdienen will, läst man sich evtl. auf einiges ein ....

Ronny145
2005-06-20, 19:42:49
Die Vorstellung ist doch glaube am 21. Juni. Gibt es da eine genaue Uhrzeit?

Hellfire-Torrod
2005-06-20, 20:19:34
Och den Zugang kann man da relativ leicht regulieren. Und wenn man als Händler beim Launch mitverdienen will, läst man sich evtl. auf einiges ein ....

Vieleicht sind die Karten schon bei den Dierektverkäufern (alternate z.b) angekommen und die, die sich schon ne karte mitgenommen haben,. zocken jetzt tag und nacht BF2 demo o.ä und kommen nicht zum Posten. Wer weiß, wir werden es morgen erfahren wie es ausschaut

Godmode
2005-06-20, 20:38:48
Es wurde hier mal über OnDie SLI gesprochen, ist da was wahres dran? War dieses WE leider nicht da und hab keine Lust 250 Postings durchzulesen.

Gast
2005-06-20, 20:40:27
Ich glaube, nur die wenigsten haben ein Netzteil, dass solchen Anforderungen genügt.
Vor gar nicht allzulanger Zeit gab es in der ct (das sind die vermeintlichen Computer-Profis) einen Artikel, man sollte maximal ein 350W-NT nehmen, weil damit selbst ein High-End-Rechner mit P4-3GHz und GF6U auskäme, der angeblich nur wenig über 200W benötigt.
Die Realität ist: Selbst ein 350W-NT von Fortron gibt auf der 12V-Schiene nur 15A.
Das Manko besteht auch bei einem 400W-Fortron
http://www.fsusa.com/Product/FSP400-60GN(12V).pdf

Wenn die Angaben von Digital-info (http://www.hardtecs4u.com/images/news/Nvidia_GeForce7800-lange.jpg)stimmen, dass eine einzelne GF7 169W verbrät, dann ist selbst für nahezu alle Extrem-Zocker auch eine Aufrüstung der PSU nötig.
Übrigens glaube ich nicht, dass der R520 (merklich) weniger zieht als der G70. Die bevorstehende Graka-Generation ist nun einmal stromhungrig.Medion verbaut schon seit einiger Zeit in die Aldi- (Hofer-) PCs immer das FSP350-60MDN. Das ist zwar eine Spezialanfertigung für Medion, gibt es aber auch hier zu kaufen:
http://www.neuhold-elektronik.at/catshop/product_info.php?Neuhold=ATX-Schaltnetzteil_350W_mit_12cm_L%C3%BCfter&products_id=1537
Jedenfalls liefert es 19,5A auf der 12V. Somit ist es für die G70 NICHT ausreichend, da dafür ganz offiziell 22A benötigt werden.

Hellfire-Torrod
2005-06-20, 20:42:36
Medion verbaut schon seit einiger Zeit in die Aldi- (Hofer-) PCs immer das FSP350-60MDN. Das ist zwar eine Spezialanfertigung für Medion, gibt es aber auch hier zu kaufen:
http://www.neuhold-elektronik.at/catshop/product_info.php?Neuhold=ATX-Schaltnetzteil_350W_mit_12cm_L%C3%BCfter&products_id=1537
Jedenfalls liefert es 19,5A auf der 12V. Somit ist es für die G70 NICHT ausreichend, da dafür ganz offiziell 22A benötigt werden.

Mein levicom NT bringt 17A auf der 12V schiene und eine 68U lief hervorragend auch oc. 22A halte ich für irrsinn, warscheinlich für SLI o. ä.

Gast
2005-06-20, 20:44:05
22A halte ich für irrsinn, warscheinlich für SLI o. ä.
Kein Irrsinn, officielle Vorgabe von Nvidia...

Hellfire-Torrod
2005-06-20, 20:46:05
Kein Irrsinn, officielle Vorgabe von Nvidia...

Der G70 wird wohl kaum SO viel mehr im gegensatz zu einem NV45 verbrauchen...

Gast
2005-06-20, 20:47:06
Der G70 wird wohl kaum SO viel mehr im gegensatz zu einem NV45 verbrauchen...
Das weiß man noch nicht.
Die Vorgabe kommt direkt von Nvidia...:)

Hellfire-Torrod
2005-06-20, 20:48:51
Das weiß man noch nicht.
Die Vorgabe kommt direkt von Nvidia...:)

Der G70 hat nicht ohne grund eine einslot kühlung. Zudem sind 22 A für eine Karte garnicht realisierbar über slot und stecker.(k, wobei hier eine gesamtangabe vorliegt. Trotzdem!)
Link?

Gast
2005-06-20, 20:50:54
Ich teile da Leonidas Meinung. Wenn Karten schon wirklich leiferbar wären, dann gäbs jetzt schon Benchmarks. Kann mir keiner erzählen, dass da kein Mitarbeiter auf die Idee kommt, mal solch ein Kärtchen mit nach Hause zu nehmen und zu testen. Und da fast jeder Mitarbeiter einer solchen Firma Internetzugang hat ...

ich kann mir auch kaum vorstellen dass händler bereits lieferbare karten haben, aber es wäre zumindest möglich dass zumindest einige bevorzugte kartenhersteller schon ausreichende stückzahlen lieferbarer karten haben und damit diese wirklich wenige tage nach der vorstellung verfügbar sind.

Gast
2005-06-20, 20:52:07
Es wurde hier mal über OnDie SLI gesprochen, ist da was wahres dran? War dieses WE leider nicht da und hab keine Lust 250 Postings durchzulesen.

ziemlich unwahrscheinlich, da prinzipiell sinnlos.

Ronny145
2005-06-20, 20:52:33
Das weiß man noch nicht.
Die Vorgabe kommt direkt von Nvidia...:)


Trotzdem müssen es keine 22A sein.

Gast
2005-06-20, 20:55:21
Trotzdem müssen es keine 22A sein.
Natürlich nicht.
Das gibt Nvidia aber so vor.
Ist halt wie beim TÜV...;)

stickedy
2005-06-20, 20:58:45
Das ist aber nur ne Vorsichtsmaßnahme, damit die Karte auch in einem PC läuft, wo alles soweit übertaktet ist, wie es nur geht, x Festplatten und Laufwerke drin sind und dazu noch 1000 Lüfter etc.

reunion
2005-06-20, 21:32:41
Mal wieder was von FUAD:

Nvidia made a great thing of moving the production to TSMC as we confirmed. And many people will have those cards in retail starting this Wednesday.

Yields are good; it was about the time for Nvidia to get some nice yields and to stop experimenting with IBM's Fishkill. G70,

Geforce 7800 GXT chip is running cool and power consumption of the card is very good. It's not power greedy even though it's built on 110 nano marchitecture and has 302 million transistors.

Just to give you an idea about performance but you have to wait almost two more days to see the storm of NDA reviews on the net


http://www.the-inquirer.net/?article=24068
http://www.the-inquirer.net/?article=24076

Gast
2005-06-20, 21:47:18
Mal wieder was von FUAD:

Just to give you an idea about performance but you have to wait almost two more days to see the storm of NDA reviews on the net


http://www.the-inquirer.net/?article=24068
http://www.the-inquirer.net/?article=24076Na, ob sich besonders viele für diese Grafikkarte interessieren werden, dass man gleich von einem "storm of NDA reviews" reden kann? Ein paar Reviews von Fanseiten wird es wohl geben, aber sonst?

Godmode
2005-06-20, 21:57:35
Na, ob sich besonders viele für diese Grafikkarte interessieren werden, dass man gleich von einem "storm of NDA reviews" reden kann? Ein paar Reviews von Fanseiten wird es wohl geben, aber sonst?

Es müssen sich ein paar Leute dafür interessieren, sonst würde es hier alleine nicht schon mal fast 3K Posts geben. :rolleyes:

SKYNET
2005-06-20, 22:00:19
Na, ob sich besonders viele für diese Grafikkarte interessieren werden, dass man gleich von einem "storm of NDA reviews" reden kann? Ein paar Reviews von Fanseiten wird es wohl geben, aber sonst?


wetten das wieder etliche server zusammenklappen? so wie beim NV40 preview/review. X-D

robbitop
2005-06-20, 22:06:32
http://www.theinq.net/?article=24076
Sieht so aus, als wäre 3DM05 ab ~7000-8000 Punkten CPU limitiert.
Mit nem 2,8GHz FX57 gibts plötzlich deutlich mehr Punkte. Das würde auch das "schlechte" SLI Ergebnis von "nur" 13000 Punkten erklären. Selbst mit 500/1400 kam man im SLI nicht deutlich über 13000 hinaus. Man wird also auf vernünftige Benches ohne CPU Limitierung warten müssen.

r3ptil3
2005-06-20, 22:09:17
Hat man schon eine 7800 GTX mit einem AMD X2 4800+ getestet? Das wäre in 3D Mark 05 interessant da man mit einem Dual-Core auf über 6000 Punkte im CPU Bench kommt.

Demirug
2005-06-20, 22:09:59
http://www.theinq.net/?article=24076
Sieht so aus, als wäre 3DM05 ab ~7000-8000 Punkten CPU limitiert.
Mit nem 2,8GHz FX57 gibts plötzlich deutlich mehr Punkte. Das würde auch das "schlechte" SLI Ergebnis von "nur" 13000 Punkten erklären. Selbst mit 500/1400 kam man im SLI nicht deutlich über 13000 hinaus. Man wird also auf vernünftige Benches ohne CPU Limitierung warten müssen.

Wie sollen die CPU limitiert sein wenn SLI noch etwas bringt?

SKYNET
2005-06-20, 22:10:19
http://www.theinq.net/?article=24076
Sieht so aus, als wäre 3DM05 ab ~7000-8000 Punkten CPU limitiert.
Mit nem 2,8GHz FX57 gibts plötzlich deutlich mehr Punkte. Das würde auch das "schlechte" SLI Ergebnis von "nur" 13000 Punkten erklären. Selbst mit 500/1400 kam man im SLI nicht deutlich über 13000 hinaus. Man wird also auf vernünftige Benches ohne CPU Limitierung warten müssen.


1600*1200 4xAA/16xAF =)

dann ist die karte auch doppelt so schnell wie ne 6800ultra.

Gast
2005-06-20, 22:10:53
Wie sollen die CPU limitiert sein wenn SLI noch etwas bringt?
Das habe ich mich auch gerade gefragt...
:confused:

Gast
2005-06-20, 22:11:55
1600*1200 4xAA/16xAF =)

dann ist die karte auch doppelt so schnell wie ne 6800ultra.
Das 3dmark2005 shaderlimitiert ist (auch Vertex), sagt es gar nichts über die Spieleperformance aus.

r3ptil3
2005-06-20, 22:17:52
sagt es gar nichts über die Spieleperformance aus.

Soll das ein Witz sein?
Mit Sicherheit sagt 3D Mark etwas über die Spieleperformance aus!

Gast
2005-06-20, 22:19:28
Na, ob sich besonders viele für diese Grafikkarte interessieren werden, dass man gleich von einem "storm of NDA reviews" reden kann? Ein paar Reviews von Fanseiten wird es wohl geben, aber sonst?
Von Fanseiten???

So ziemlich jede große Webseite wird dabei sein - hier mal ein paar Beispiele:
Anandtech
beyond3d
HardOCP
Tech-Report
nvnews
hexus
firingsquad
pcgh usw...

Demirug
2005-06-20, 22:20:32
Soll das ein Witz sein?
Mit Sicherheit sagt 3D Mark etwas über die Spieleperformance aus!

Seine Leistungsanforderung ist aber eher atypisch für aktuelle Spiele.

robbitop
2005-06-20, 22:20:58
1600*1200 4xAA/16xAF =)

dann ist die karte auch doppelt so schnell wie ne 6800ultra.
Richtig. Die Ergebnisse sehen allesamt sehr seltsam aus. Mit AFR müsste das fast 1:1 skallieren. Und selbst mit 500MHz Core kommt man nicht darüber hinaus. Irgendworan muss es ja liegen.

Quasar
2005-06-20, 22:22:31
Soll das ein Witz sein?
Mit Sicherheit sagt 3D Mark etwas über die Spieleperformance aus!
Was denn?

Demirug
2005-06-20, 22:24:19
Richtig. Die Ergebnisse sehen allesamt sehr seltsam aus. Mit AFR müsste das fast 1:1 skallieren. Und selbst mit 500MHz Core kommt man nicht darüber hinaus. Irgendworan muss es ja liegen.

Das würde für CPU limitiert bei SLI sprechen aber nicht für ein CPU limit bei einer einzelnen Karte.

Hellfire-Torrod
2005-06-20, 22:26:43
Wann läuft morgen eigendlich das NDA aus? wie immer um 15:oo Uhr?

Ich bin auch bereit die Information üner PN an mich zu nehmen und darüber zu schweigen !

r3ptil3
2005-06-20, 22:28:07
Was denn?

Was sagt wohl ein Benchmark aus der für aktuelle Grafikkarten gedacht ist :rolleyes:

ShadowXX
2005-06-20, 22:30:16
Was sagt wohl ein Benchmark aus der für aktuelle Grafikkarten gedacht ist :rolleyes:

Wie schnell die jeweilige GraKa bei diesem Bench ist??

r3ptil3
2005-06-20, 22:32:00
Wie schnell die jeweilige GraKa bei diesem Bench ist??

JA! Wiso vergleichen wohl fast alle Seiten Grafikkarten mit 3D Mark 05?

Gast
2005-06-20, 22:32:05
Was sagt wohl ein Benchmark aus der für aktuelle Grafikkarten gedacht ist :rolleyes:
Der 3dMark hat noch nie die Spieleperformance wiedergegeben...

Obwogl die meisten Daus eh darauf schauen...
Sollte der R520 in 3dMark2005 deutlich schneller sein, hat Nvidia verloren, weil die Meisten eben auf Schwanzmark gucken.
Und ich kann mir sehr gut vorstellen, dass der R520 hier dominiert...

ShadowXX
2005-06-20, 22:34:01
JA! Wiso vergleichen wohl fast alle Seiten Grafikkarten mit 3D Mark 05?

Du hast meinen Satz nicht richtig verstanden....liess ihn dir nochmal langsam durch und beachte das "Fettgedruckte"....

r3ptil3
2005-06-20, 22:38:43
Du hast meinen Satz nicht richtig verstanden....liess ihn dir nochmal langsam durch und beachte das "Fettgedruckte"....

Ich habe es verstanden. Du sagtest nicht "um zu messen wie die jeweiligen Grafikkarten nur in diesem Benchmark sind". Die X850 XT PE ist ja im 3D Mark 05 schneller als eine 6800 Ultra (ist wohl jedem klar) und so auch in den meisten Spielen (als Beispiel).

ShadowXX
2005-06-20, 22:47:42
Ich habe es verstanden. Du sagtest nicht "um zu messen wie die jeweiligen Grafikkarten nur in diesem Benchmark sind". Die X850 XT PE ist ja im 3D Mark 05 schneller als eine 6800 Ultra (ist wohl jedem klar) und so auch in den meisten Spielen (als Beispiel).

Trotzdem hat das eine nichts mit dem anderen zu tun....du mist beim 3D05 nur wie schnell eine Graka im 3D05 ist. Nichts anderes.

Nur weil das Benchmarkergebnis der 3D05 öfter mit irgendwelchen Gamevergleichen hinkommt (und bei weiten nicht bei allen), ist er trotzdem kein Gradmesser für die Leistungsfähigkeit in Games.

Hier nochmal das Post von Demi zum 3d05:

Seine Leistungsanforderung ist aber eher atypisch für aktuelle Spiele.


Das alleine sollte schon reichen.........

deekey777
2005-06-20, 22:50:01
Ich habe es verstanden. Du sagtest nicht "um zu messen wie die jeweiligen Grafikkarten nur in diesem Benchmark sind". Die X850 XT PE ist ja im 3D Mark 05 schneller als eine 6800 Ultra (ist wohl jedem klar) und so auch in den meisten Spielen (als Beispiel).

Zufall. ;)

robbitop
2005-06-20, 22:51:54
Das würde für CPU limitiert bei SLI sprechen aber nicht für ein CPU limit bei einer einzelnen Karte.
Ok, so meinte ich das.

Quasar
2005-06-20, 22:52:22
Was sagt wohl ein Benchmark aus der für aktuelle Grafikkarten gedacht ist :rolleyes:
Keine Gegenfrage. Du sollst sagen, was der 3DMark05 über die Spieleperformance aussagt.

Gast
2005-06-20, 22:53:16
Zufall. ;)
Nö, dass die letzte Generation von ATI schneller war, steht ausser Frage.
Nur Fanboys wollen das nicht einsehen.
Nicht wirklich verwunderlich bei den Taktraten.

r3ptil3
2005-06-20, 22:55:23
Keine Gegenfrage. Du sollst sagen, was der 3DMark05 über die Spieleperformance aussagt.

Erreicht man im 3D Mark (etwa) über 5000 Punkte, ist es fast schon sicher das man aktuelle Games in guter Qualität flüssig Spielen kann.

dildo4u
2005-06-20, 22:57:52
Erreicht man im 3D Mark (etwa) über 5000 Punkte, ist es fast schon sicher das man aktuelle Games in guter Qualität flüssig Spielen kann.
Spielt keine rolle oder zockst du in 1024 ohne AA und AF?

Quasar
2005-06-20, 22:58:23
Erreicht man im 3D Mark (etwa) über 5000 Punkte, ist es fast schon sicher das man aktuelle Games in guter Qualität flüssig Spielen kann.
Welch' einschneidende Erkenntnis. Aber ein guter Gedankenanstoß - ich werde mich dafür einsetzen, daß man 3DMark-Scores ab 5000 einfach capped. Das würde viel mehr Frieden bringen. =)

Spielt keine rolle oder zockst du in 1024 ohne AA und AF?
Und welche Games mit teils über 1,5 Millionen Polys/Frame zockt man denn so?

r3ptil3
2005-06-20, 23:02:50
Spielt keine rolle oder zockst du in 1024 ohne AA und AF?

Das spielt ein Rolle. Grundsätzlich dient ja 3D Mark 05 um miteinander zu Vergleichen, z.B. wenn jemand mit einer 6800 GT 4900 Punkte erreicht und ein anderer mit der gleichen Grafikkarte nur 3000 dann kann der jenige sicher sein das ein Problem mit Software oder mit Hardware besteht (z.B. abgebremst durch einer zu schwachen CPU).

Quasar
2005-06-20, 23:04:42
Das spielt ein Rolle. Grundsätzlich dient ja 3D Mark 05 um miteinander zu Vergleichen, z.B. wenn jemand mit einer 6800 GT 4900 Punkte erreicht und ein anderer mit der gleichen Grafikkarte nur 3000 dann kann der jenige sicher sein das ein Problem mit Software oder mit Hardware besteht (z.B. abgebremst durch einer zu schwachen CPU).
Ich bin mir sicher, mit der Mehrzahl der aktuellen Games mit einer FX5800ultra mehr Freude haben zu können, als mit einer X300SE Hypermemory. :P

edit:
Das schließt alle Optionen, die sich daraus ergeben mit ein!

Gast
2005-06-20, 23:08:33
Ich bin mir sicher, mit der Mehrzahl der aktuellen Games mit einer FX5800ultra mehr Freude haben zu können, als mit einer X300SE Hypermemory. :P

edit:
Das schließt alle Optionen, die sich daraus ergeben mit ein!
In HL2 im DX9-Pfad sicherlich nicht. :P

Hauwech
2005-06-20, 23:11:55
Nö, dass die letzte Generation von ATI schneller war, steht ausser Frage.
Nur Fanboys wollen das nicht einsehen.
Nicht wirklich verwunderlich bei den Taktraten.

Wenn ich nur nach MHz gehe, dann habe ich bei 2x 68U ja phänomenale 800/850MHz... Tja, schlecht für ATI das sie da 'nur' mit 540 MHz gegen anstinken wollen, oder? Alter Schwede, wie dumm müssen doch die Leute sein, die auf ATI statt SLI setzen...

Auch Intel muss ja so dämlich wie Nvidia sein, anstatt 'echten' MHz so langsam auf Effiziens zu setzen, nicht wahr? Müssen alles Idioten sein, die auf AMD setzen...

:hammer:



Wer die Ironie nicht findet, braucht sie auch nicht zu behalten...

Gast
2005-06-20, 23:13:18
Wenn ich nur nach MHz gehe, dann habe ich bei 2x 68U ja phänomenale 800/850MHz... Tja, schlecht für ATI das sie da 'nur' mit 540 MHz gegen anstinken wollen, oder? Alter Schwede, wie dumm müssen doch die Leute sein, die auf ATI statt SLI setzen...

Auch Intel muss ja so dämlich wie Nvidia sein, anstatt 'echten' MHz so langsam auf Effiziens zu setzen, nicht wahr? Müssen alles Idioten sein, die auf AMD setzen...

:hammer:



Wer die Ironie nicht findet, braucht sie auch nicht zu behalten...
Schon mal was von Crossfire gehört?
hehe

Gast
2005-06-20, 23:14:33
Gibts Crossfire Karten schon zu kaufen, gibts welche die SM3 können?

Quasar
2005-06-20, 23:14:50
In HL2 im DX9-Pfad sicherlich nicht. :P
Nö, aber im DX8-Pfad. :P Und da bekomme ich mit der 5800u sicherlich ein geileres Bild flüssig, als eine X300 SE HM im DX9-Pfad.

"Das schließt alle Optionen, die sich daraus ergeben mit ein!" ;)

Gast
2005-06-20, 23:16:43
Nö, aber im DX8-Pfad. :P Und da bekomme ich mit der 5800u sicherlich ein geileres Bild flüssig, als eine X300 SE HM im DX9-Pfad.

"Das schließt alle Optionen, die sich daraus ergeben mit ein!" ;)
Wenn ich mit eingeschränkten Detail spielen will, reicht auch eine FX5900XT. :P
Die ist dann aber langsamer als eine x300. :P

SKYNET
2005-06-20, 23:17:17
Spielt keine rolle oder zockst du in 1024 ohne AA und AF?


3Dmurks 03/05 hat meines wissens nach AF aktiv @ default. ;)

Gast
2005-06-20, 23:18:24
Wenn ich mit eingeschränkten Detail spielen will, reicht auch eine FX5900XT. :P
Die ist dann aber langsamer als eine x300. :P
Sorry falsch.:)
Wenn ich mit Full Deatails spielen will ist eine FX5900XT langsamer als eine x300:)

Gast
2005-06-20, 23:18:50
3Dmurks 03/05 hat meines wissens nach AF aktiv @ default. ;)
Richtig, 4xAF

Quasar
2005-06-20, 23:20:21
Wenn ich mit eingeschränkten Detail spielen will, reicht auch eine FX5900XT. :P
Die ist dann aber langsamer als eine x300. :P
Details? Meinst du sowas wie Auflösung? :P

Gast
2005-06-20, 23:21:03
Details? Meinst du sowas wie Auflösung? :P
Nö :P

Coda
2005-06-20, 23:23:02
Ich glaube selbst mit DX9 Shadern müsste die FX 5900 schneller sein als eine X300SE. SO übel lahm sind die FX nun auch wieder nicht mit SM 2.0.

Gast
2005-06-20, 23:23:50
Ich glaube selbst mit DX9 Shadern müsste die FX 5900 schneller sein als eine X300SE. SO übel lahm sind die FX nun auch wieder nicht mit SM 2.0.
Dann hast du aber die Benches nicht gesehen...

Gast
2005-06-20, 23:25:34
Bin mir aber nicht sicher, obe es eine SE war...
Wenn aber eine normale X300 eine FX5900XT schlägt, die das Mehrfache kostet, dann ist das schon bedenklich...

Coda
2005-06-20, 23:26:30
Dann hast du aber die Benches nicht gesehen...Öh doch - habe ich. Wir reden hier von ner X300 mit 64bit Interface :rolleyes:

Quasar
2005-06-20, 23:28:42
Nö :P
Ach so - du bist also auch so ein 320x240 FULL DETAILS Gaymer? :P

BTW, 4xAA ist natürlich Pflicht. :P

Gast
2005-06-20, 23:28:44
Öh doch - habe ich. Wir reden hier von ner X300 mit 64bit Interface :rolleyes:
Und der genau hat die FX5900XT geschlagen.
Such mal bisschen im Forum.
Ich glaube Reunion hat das gepostet..

Hauwech
2005-06-20, 23:29:21
Schon mal was von Crossfire gehört?
hehe

Richtig, habe ich vergessen. Da müssen wir ja richtig gepennt haben, dass es CF Karten und Boards schon seit mindestens 6 Monaten zu kaufen gibt... Wir werden im Moment ja richtig mit CF überschwemmt, diese wahnsinnig vielen Angebote. Und dann alles noch mit richtigem HDR und SM3 und und und.

Coda
2005-06-20, 23:29:46
Na gut. Aber geht es hier nicht schon um eine Grafikkarte die 2 Generationen weiter ist?

Das Shaderperformance-Problem war einmal bei nVIDIA :rolleyes:

Ach übrigens: Wenn es wirklich nur die Taktrate wäre würde ATi noch viel mehr im Vorteil sein als sie es z.Z. sind (was wirklich nicht viel ist)

Quasar
2005-06-20, 23:31:59
Und der genau hat die FX5900XT geschlagen.
Such mal bisschen im Forum.
Ich glaube Reunion hat das gepostet..
Hab jetzt nur 'ne X600XT gefunden, die ein bissel schneller ist, als eine X300 SE HM: http://www.computerbase.de/artikel/hardware/grafikkarten/2004/nvidia_geforce_6600_gt_agp/13/#abschnitt_half_life_2
Mit 4xAA/8xAF ist sogar die nicht schneller als eine 5900PCX... :|

Da will uns doch wohl jemand einen Bären aufbinden =)

Gast
2005-06-20, 23:32:24
Na gut. Aber geht es hier nicht schon um eine Grafikkarte die 2 Generationen weiter ist?

Das Shaderperformance-Problem war einmal bei nVIDIA :rolleyes:
Das bestreite ich auch nicht. :)
Dass die FX-Serie für den Arsch war sollte man aber nicht abstreiten:)
Einen grosseres Klogriff gab es in derGeschichte der Grakas kaum.

Gast
2005-06-20, 23:33:13
Hab jetzt nur 'ne X600XT gefunden, die ein bissel schneller ist, als eine X300 SE HM: http://www.computerbase.de/artikel/hardware/grafikkarten/2004/nvidia_geforce_6600_gt_agp/13/#abschnitt_half_life_2
Mit 4xAA/8xAF ist sogar die nicht schneller als eine 5900PCX... :|

Da will uns doch wohl jemand einen Bären aufbinden =)
nö, morgen suche ich es, damit du deinen Frieden hast.
War glaube ich bei Anand.

Coda
2005-06-20, 23:33:25
Da war aber auch Microsoft dank der DX9 Spec mit dran schuld - aber das ist eine andere Geschichte.

Gast
2005-06-20, 23:35:38
Da war aber auch Microsoft dank der DX9 Spec mit dran schuld - aber das ist eine andere Geschichte.
Nö, Nvidia hat die Zeit verpasst.
Die wollten noch auf FX setzen, obwohl FP schon im Anmarsch war.
Totalle Fehlkontruktion würde ich sagen...

Quasar
2005-06-20, 23:39:28
nö, morgen suche ich es, damit du deinen Frieden hast.
War glaube ich bei Anand.
Lies' den Test, den ich verlinkt habe, oder schau dir alternativ die Balken nur stumpf an. :)

Oder ist eine X300SE HM nun schon schneller als eine X600 XT?

Gast
2005-06-20, 23:44:08
Oder ist eine X300SE HM nun schon schneller als eine X600 XT?
Nö, aber schneller als eine FX5900XT =)

Coda
2005-06-20, 23:45:13
Nö, Nvidia hat die Zeit verpasst.
Die wollten noch auf FX setzen, obwohl FP schon im Anmarsch war.
Totalle Fehlkontruktion würde ich sagen...FX hätte bis heute noch gereicht. Ich kenne kein Spiel das wirklich FP braucht.

Gast
2005-06-20, 23:50:56
FX hätte bis heute noch gereicht. Ich kenne kein Spiel das wirklich FP braucht.
Die Spielehersteller sagen, dass mittlerweile FP16 knapp wird...
Einige behaupten sogar, dass FP24 nicht mehr ausreicht...

Quasar
2005-06-20, 23:51:15
Nö, aber schneller als eine FX5900XT =)
Schau in den Link. Daraus würde folgen, daß sie auch schneller als eine X600XT sein muss. :P

edit:
So, ich gehe jetzt schlafen. Lieber Gast, du musst nun leider mit dir selbst weiterspielen. Viel Spaß noch :)

Coda
2005-06-20, 23:52:06
Das ist aber auf Next-Gen bezogen. Das die UE3 FP Shader braucht steht wohl nicht zur Debatte. Splinter Cell 3 würde wohl auch nicht mehr mit FX auskommen.

Aber alles davor, inkl. HL², Doom 3 und Far Cry hätten wirklich keine Probleme damit gehabt.

Quasar
2005-06-20, 23:53:31
Splinter Cell 3 würde wohl auch nicht mehr mit FX auskommen.

Wieso? SM1.1 kann die doch noch sehr gut. ;)

Gast
2005-06-20, 23:53:48
So, ich gehe jetzt schlafen. Lieber Gast, du musst nun leider mit dir selbst weiterspielen. Viel Spaß noch :) [/i]
Gute Nacht. :)

Gast
2005-06-20, 23:54:34
Aber alles davor, inkl. HL², Doom 3 und Far Cry hätten wirklich keine Probleme damit gehabt.
Wenn man keine Ahnung hat...
FC ist das beste Beispiel...

Coda
2005-06-21, 00:08:39
Die FP16 Artefakte in FC kamen von einem komischen Bug seitens Crytek. Wenn man die R300 Shader auf FP16 forciert hat war er nicht vorhanden.

Falls du nicht darauf angespielt hast sei dir gesagt, dass FC vor allem specular bumpmapping einsetzt - da reicht FX12 dick. In Doom 3 sieht man ja selbst auf nem NV20 keinen wesentlichen Unterschied zu NV40, und die haben noch weniger Präzision.

Hellfire-Torrod
2005-06-21, 00:12:17
Was mich persönlich am meisten am morgigen tag interessiert (releasetechnisch) ist Nvidias spec-mäßige begründung, warum der G70 eine Generation darstellt.
Bei einem Generationswechsel ist man bei Nvidia ja eigendlich eine neue Shadermodel-version gewohnt. Das ist diesmal wohl nicht der fall. Nvidias X800 sozusagen ^^.

deekey777
2005-06-21, 00:13:37
Wenn man keine Ahnung hat...
FC ist das beste Beispiel...

Genau, Coda ist ein Newbe, ein 3D Dau...
Und Far Cry sieht auch mit SM 1.1 verdammt gut aus.

Ich glaube selbst mit DX9 Shadern müsste die FX 5900 schneller sein als eine X300SE. SO übel lahm sind die FX nun auch wieder nicht mit SM 2.0.

Zur Not kann man in Far Cry auf SM2.X ausweichen. :D

Coda
2005-06-21, 00:14:09
Mich wundert die Bezeichnung auch. GeForce 6900 wäre definitiv passender gewesen, weil es ist eigentlich nur ein Refresh.

deekey777
2005-06-21, 00:22:34
Mich wundert die Bezeichnung auch. GeForce 6900 wäre definitiv passender gewesen, weil es ist eigentlich nur ein Refresh.

Wie willst du das einem Otto-Norma-Aldi-Lidl-PC Käufer erklären? Dazu kommt noch das nette Marketing.

Gast
2005-06-21, 00:33:03
Der 3dMark hat noch nie die Spieleperformance wiedergegeben...

Obwogl die meisten Daus eh darauf schauen...
Sollte der R520 in 3dMark2005 deutlich schneller sein, hat Nvidia verloren, weil die Meisten eben auf Schwanzmark gucken.
Und ich kann mir sehr gut vorstellen, dass der R520 hier dominiert...
Wenn es so wäre, hätte Nvidia schon bei der aktuellen Generation verloren, da auch hier die X850Xt-PE den 3DMurks dominiert.
Offensichtlich war die Mehrheit aber wohl anderer Meinung, denn ATI hat Federn lassen müssen - nicht Nvidia.

Gast
2005-06-21, 00:34:42
Wie willst du das einem Otto-Norma-Aldi-Lidl-PC Käufer erklären? Dazu kommt noch das nette Marketing.
Welcher Otto-Norma-Aldi-Lidl-PC Käufer interessiert sich für eine G70 oder würde sogar eine kaufen?

dildo4u
2005-06-21, 00:34:57
Mich wundert die Bezeichnung auch. GeForce 6900 wäre definitiv passender gewesen, weil es ist eigentlich nur ein Refresh.
Refresh war immer nur mher takt nie mher pipes siehe R300- 350,R420-R 480 und NV30-NV35.

Gast
2005-06-21, 00:36:00
Nö, dass die letzte Generation von ATI schneller war, steht ausser Frage.
Nur Fanboys wollen das nicht einsehen.
Nicht wirklich verwunderlich bei den Taktraten.
Naja den Spitzenplatz mussten sie aber leider Nvidia überlassen dank SLI.
Und irgendwie hat die "tolle" Performance ATI nicht retten können. Die meissten Kunden haben trozdem eine Nvidia gekauft und keine ATI.
Diese beschränkte Sichtweise auf den Murks und immer nur das Top Produkt nervt. Wenn alles so toll wäre, würde ATI auf der Sonnenseite stehen und nicht nur 1/3 des DX9 Performance Markts besetzen, während Nvidia 2/3 davon besetzt.

reunion
2005-06-21, 00:38:34
Die FP16 Artefakte in FC kamen von einem komischen Bug seitens Crytek. Wenn man die R300 Shader auf FP16 forciert hat war er nicht vorhanden.



Seit wann ist R300 in der lage, etwas anderes als FP24 zu benutzten?

//Edit: Falsch gelesen :hammer:

der coole Gast
2005-06-21, 00:38:38
wird es eigentlich einen livestream geben?

Coda
2005-06-21, 00:39:11
Refresh war immer nur mher takt nie mher pipes siehe R300- 350,R420-R 480 und NV30-NV35.NV35 hatte auch mehr Funktionseinheiten als NV30. Das ist vom Engineering sicher schwieriger als einfach noch 2 Quads ranzupappen.

Aber bitte, darüber müssen wir wirklich nicht streiten.

Seit wann ist R300 in der lage, etwas anderes als FP24 zu benutzten?Noch nie. Hint: NV30 kann R300 Shader ausführen.

deekey777
2005-06-21, 00:40:27
Seit wann ist R300 in der lage, etwas anderes als FP24 zu benutzten?

Öhm:
"Wenn man (bei einer FX) die R300-Shader auf FP16 forciert hat, war er nicht vorhanden."

Ich sollte schneller schreiben und noch weniger denken.

-error-
2005-06-21, 00:42:20
Heute um 15.00 Uhr, wie immer?

Gast
2005-06-21, 00:42:34
Das bestreite ich auch nicht. :)
Dass die FX-Serie für den Arsch war sollte man aber nicht abstreiten:)
Einen grosseres Klogriff gab es in derGeschichte der Grakas kaum.
Doch ATIs Rage3D.

Gast
2005-06-21, 00:43:39
Doch ATIs Rage3D.
Korrektur hiess glaub ich Rage128. Is schon ne weile her :)

Coda
2005-06-21, 00:48:23
Ich dachte immer XGIs Volari wäre der schlimmste Klogriff gewesen ;)

Xmas
2005-06-21, 00:48:52
NV35 hatte auch mehr Funktionseinheiten als NV30. Das ist vom Engineering sicher schwieriger als einfach noch 2 Quads ranzupappen.
Beim G70 hat man ja auch nicht nur 2 Quads rangepappt.

Bei G70 = GeForce 6900 hätte die Zahlendifferenz einfach nicht die richtige Marketingwirkung gehabt. Und vor allem, wo hätte man den G7x-Rest eingeordnet? 7x00 lässt da wieder viel mehr Platz.

BesenWesen
2005-06-21, 00:51:23
Nö, aber schneller als eine FX5900XT =)

Aha, das wüsste ich aber :)
In diesem (http://www.planet3dnow.de/artikel/hardware/x300se_6200tc/) Test sieht die X300 ja schon gegen eine olle GF4Ti4200 kein Land. Nun diese GF4 hatte ich vorher und meine jetzige 5900XT ist schon deutlich schneller, besonders wenn man AA und AF hinzunimmt.
Was die vielgescholtene (und ohne Zweifel vorhandene) Shaderschwäche angeht, hat mir das bislang noch gar nicht mal so sehr zugesetzt. Einzig HL2 und Riddick sind nicht mit 2.0 Shadern genießbar... zwar läuft HL2 wie auch Far Cry mit verminderter Shaderpräzision flüssig, produziert dann aber im Gegensatz zu diesem Grafikfehler.
Und dann die schöne Möglichkeit, ältere Spiele wie Gothic1 mit 8xS-AA und 8xAF flüssig spielen zu können... ob das die x300 auch kann?

Sorry, daß ich hier den NV-Fanboy spiele, der NV30/35 war in seiner Generation dem Konkurrenten sicher klar unterlegen, aber dieses ewige Bemühen, diese Karten als nutzlosen Schrott hinzustellen, kann ich einfach nicht unkommentiert lassen :) Im alltäglichen Einsatz sind die Dinger immernoch brauchbar, ganz im Gegensatz zu diesen verkrüppelten Low-Budged-Angeboten a la x300SE HM oder GF6200 TC.

Ailuros
2005-06-21, 00:54:11
Ich konnte den letzten paar Seiten bei bestem Willen nicht folgen, aber wenn es zu "Klogriffen" kommt gibt es keinen einzigen IHV der Vergangenheit und heute der nicht zu so einem kam.

Jetzt muesste man natuerlich auch die Bezeichnung "Klogriff" definieren; wenn sich aber ein solcher gut verkauft verhaeltnismaessig dann muesste man die Definierung schon zweimal ueberdenken.

Ein definitiver Klogriff fuer mich von NVIDIA war der NV1.

deekey777
2005-06-21, 00:56:45
Es war ein Klogriff von nVidia, aber nicht für nVidia? Waren die Teile nicht in irgendeiner Sega-Konsole verbaut worden, was nVidia rettete?

Ailuros
2005-06-21, 01:08:14
Es war ein Klogriff von nVidia, aber nicht für nVidia? Waren die Teile nicht in irgendeiner Sega-Konsole verbaut worden, was nVidia rettete?

NVIDIA war damals verdammt nahe am Untergang, falls das helfen sollte.

deekey777
2005-06-21, 01:09:05
NVIDIA war damals verdammt nahe am Untergang, falls das helfen sollte.

Nur die Titanic liegt tiefer. ;D

-error-
2005-06-21, 01:13:25
Ja wann kann man denn morgen mit der Release rechnen?

Xmas
2005-06-21, 01:15:34
Es war ein Klogriff von nVidia, aber nicht für nVidia? Waren die Teile nicht in irgendeiner Sega-Konsole verbaut worden, was nVidia rettete?
Nein, das wäre theoretisch der Nachfolger NV2 geworden, nur war das ein richtiger Klogriff, denn er wurde AFAIK nie gebaut.

BesenWesen
2005-06-21, 01:17:23
Es war ein Klohgriff von nVidia, aber nicht für nVidia? Waren die Teile nicht in irgendeiner Sega-Konsole verbaut worden, was nVidia rettete?

Nein, im Sega Saturn war kein NV1 verbaut, die beiden Videoprozessoren waren Custom-Chips (von NEC? erinnere mich nicht mehr) aber es gab eine starke Zusammenarbeit zwischen beiden Firmen, die sich unter anderem darin manifestierte, daß die NV1-Karten über Anschlüsse für Saturn-Pads verfügten und Sega Geld für die Entwicklung des NV2 locker machte. Sega war offenbar für den Saturn-nachfolger an Nvidias Technik interessiert... letztlich landete aber ein Grafikchip von PowerVR im Dreamcast.

Daß diese Zusammenarbeit Nvidia in der schwierigen Anfangszeit sehr geholfen hat steht außer Frage... man könnte vielleicht sogar munkeln, daß wir heute ohne Sega keine Geforces kaufen könnten :)

Ailuros
2005-06-21, 01:19:11
Nur die Titanic liegt tiefer. ;D

Je kleiner ein IHV desto mehr besteht die Moeglichkeit groessere Risikos einzugehen; ganz im Gegensatz bei sehr grossen IHVs wo man konstant versucht so stark wie moeglich die Risikos zu minimalisieren. Das sollte man auch mehr oder weniger im Hinterkopf behalten, bei Fragen warum ATI oder NVIDIA nicht Methode X,Y,Z usw. benutzen.

BesenWesen
2005-06-21, 01:26:24
Je kleiner ein IHV desto mehr besteht die Moeglichkeit groessere Risikos einzugehen; ganz im Gegensatz bei sehr grossen IHVs wo man konstant versucht so stark wie moeglich die Risikos zu minimalisieren. Das sollte man auch mehr oder weniger im Hinterkopf behalten, bei Fragen warum ATI oder NVIDIA nicht Methode X,Y,Z usw. benutzen.

Jo, die Pionierzeiten der 3D-Grafik sind vorbei... soetwas wie 3DFX, die ja das Feld quasi von hinten aufgerollt haben, wird es so schnell nicht wieder geben, wenn überhaupt.

deekey777
2005-06-21, 01:27:38
Danke an die Aufklärer. :up:

SKYNET
2005-06-21, 01:30:30
Jo, die Pionierzeiten der 3D-Grafik sind vorbei... soetwas wie 3DFX, die ja das Feld quasi von hinten aufgerollt haben, wird es so schnell nicht wieder geben, wenn überhaupt.


XGI... *hust* :rolleyes: :lol:


sry für den schlechten scherz. ;(

Ailuros
2005-06-21, 01:44:56
Jo, die Pionierzeiten der 3D-Grafik sind vorbei... soetwas wie 3DFX, die ja das Feld quasi von hinten aufgerollt haben, wird es so schnell nicht wieder geben, wenn überhaupt.

Welche grosse Risikos ist denn 3dfx eigentlich eingegangen die ich verpasst habe? Am Anfang war 3dfx's groesster Konkurrent sowieso Videologic.

***edit: self correction....STB war ein verdammt grosses Risiko aber ich meinte natuerlich ganz was anderes.

stickedy
2005-06-21, 01:51:39
Welche grosse Risikos...
Korrekt (zum lernen): "Welche grosse Risiken..." :wink:

Sorry für OT!

deekey777
2005-06-21, 02:02:50
Korrekt (zum lernen): "Welche grosse Risiken..." :wink:

Sorry für OT!

Wenn, dann schon: "Welche großen Risiken..."

;)

BesenWesen
2005-06-21, 02:06:11
Welche grosse Risikos ist denn 3dfx eigentlich eingegangen die ich verpasst habe? Am Anfang war 3dfx's groesster Konkurrent sowieso Videologic.


Naja, es ist immer ein Risiko, ein Unternehmen zu gründen, besonders wenn man mit seiner Firmenidee quasi Neuland betritt. Es war seinerzeit sicher noch nicht abzusehen, daß 3DFX mit dem Voodoo1 einen solchen Erfolg ernten würde... die Lösung mittels einer zusätzlichen Grafikkarte stand durchaus in der Kritik und es war noch nicht abzusehen, ob diese wirklich vom Kunden angenommen würde.

BesenWesen
2005-06-21, 02:08:10
XGI... *hust* :rolleyes: :lol:


sry für den schlechten scherz. ;(

Hehe, tja die Volaris kommen einem "Griff ins Klo" allerdings schon ziemlich nahe...

Volari Duo: Teuer, laut, heiß, schlechte Treiber, langsam, teilweise inkompatibel... wer soll denn sowas kaufen?

Leonidas
2005-06-21, 02:14:40
Vieleicht halten die Händler die dinger unter anweisung von Nvidia unter verschluss.



Ach was, und bei den bisherigen Launches gab es keine solchen Anweisungen?

Sorry, wenn es Retail-Karten gibt, haben hunderte Leute dazu Zugang, die man unmöglich alle kontrollieren kann. Und es reicht ja aus, wenn nur einer sich nicht an die "Anweisung" hält, die es im übrigen schon immer gegeben hat.

deekey777
2005-06-21, 02:15:43
Hehe, tja die Volaris kommen einem "Griff ins Klo" allerdings schon ziemlich nahe...

Volari Duo: Teuer, laut, heiß, schlechte Treiber, langsam, teilweise inkompatibel... wer soll denn sowas kaufen?

Die Volaris vielleicht, aber die kommende Generation könnte interessant werden, wenn die Treiber stimmen.

Leonidas
2005-06-21, 02:20:33
Heute um 15.00 Uhr, wie immer?


Nein. Ein was von Tag/Uhrzeit stimmt nicht ;)

SKYNET
2005-06-21, 02:27:10
Die Volaris vielleicht, aber die kommende Generation könnte interessant werden, wenn die Treiber stimmen.


naja, ich bin skeptisch... besonders wegen dem 192bit interface... ich mein entweder 128bit oder 256bit, aber sone unkonsequenten sachen... nene. :frown:

Ailuros
2005-06-21, 03:49:55
Naja, es ist immer ein Risiko, ein Unternehmen zu gründen, besonders wenn man mit seiner Firmenidee quasi Neuland betritt. Es war seinerzeit sicher noch nicht abzusehen, daß 3DFX mit dem Voodoo1 einen solchen Erfolg ernten würde... die Lösung mittels einer zusätzlichen Grafikkarte stand durchaus in der Kritik und es war noch nicht abzusehen, ob diese wirklich vom Kunden angenommen würde.

http://www.accelenation.com/graphics/content/tom.history.02.gif

http://www.accelenation.com/?ac.id.123.1

ShadowXX
2005-06-21, 09:19:35
Ach was, und bei den bisherigen Launches gab es keine solchen Anweisungen?

Sorry, wenn es Retail-Karten gibt, haben hunderte Leute dazu Zugang, die man unmöglich alle kontrollieren kann. Und es reicht ja aus, wenn nur einer sich nicht an die "Anweisung" hält, die es im übrigen schon immer gegeben hat.

Und wie wirst du es dir erklären, wenn sagen wir 1 Woche nach dem Launch doch schon Karten zu kaufen sind (oder sogar früher).

Ich glaube schon, das es fertige Karten gibt.....und zwar in den Lagern der Kartenproduzenten (BFG, Gainward etc. etc) selbst.

Diese müssen nur noch an die Händler rausgegeben werden....völlig abwegig ist das nicht.

Gast
2005-06-21, 09:24:00
Nein. Ein was von Tag/Uhrzeit stimmt nicht ;)


Also 1 Tag später dann?

Demirug
2005-06-21, 09:25:12
Und wie wirst du es dir erklären, wenn sagen wir 1 Woche nach dem Launch doch schon Karten zu kaufen sind (oder sogar früher).

Ich glaube schon, das es fertige Karten gibt.....und zwar in den Lagern der Kartenproduzenten (BFG, Gainward etc. etc) selbst.

Diese müssen nur noch an die Händler rausgegeben werden....völlig abwegig ist das nicht.

Die Karten könnten sogar schon in Zwischenlagern der Speditionen liegen. Als Terminware. Damit kommt bei den Händlern keiner ran und die Spedition wird sich hüten die Packete zu öffnen.

drmaniac
2005-06-21, 09:37:19
boah Leute....was ich hier Beiträge überspringen und querlesen musste...man findet in den Monster threads (+100Seiten) eh sehr schwer Infos, aber wenn dann mehr als 50% Offtopic ist und nichts mit dem eigentlichen Tread Titel (G70) zu tun hat wirds abartig...

-error-
2005-06-21, 12:48:57
Also 1 Tag später dann?

Muss schon heute sein ;)

G70: Finale Specs und Verfügbarkeit

Von Wenzula (84.59.145.251) geschrieben am 6/16/05 um 23:15:58:

In fünf Tagen ist es endlich soweit, dann wird NVIDIA seinen neusten Spross, in Form der GeForce 7800 GTX, der Weltöffentlichkeit präsentieren. Passend dazu sind bei den Kollegen von the Inquirer die letzten noch fehlenden Details zum Chip aufgetaucht, die das Bild vervollständigen:

ShadowXX
2005-06-21, 12:52:32
Muss schon heute sein ;)

Das NDA läuft AFAIK am 22.06. aus, nicht heute.

Super Grobi
2005-06-21, 12:54:32
Hallo!

Wird die Karte als AGP auch sofort verfügbar sein? Wenn das keiner weiss: Wird man sowas auch morgen erfahren, oder muss man einfach abwarten und Tee trinken?

Gruss
SG

-error-
2005-06-21, 13:17:45
Das NDA läuft AFAIK am 22.06. aus, nicht heute.

Wieso denn das? Überall ist etwas vom 21.06 zu lesen.

ShadowXX
2005-06-21, 13:21:23
Wieso denn das? Überall ist etwas vom 21.06 zu lesen.



Anmerkung in eigener Sache: Wir werden die News des Dienstags und wahrscheinlich auch des Mittwochs ausfallen lassen. Der Grund hierfür ist die intensive Arbeit an einem Artikel zum nVidia G70-Chip, welcher pünklich zum Launchtermin in der Mitte der Woche;) online gehen soll.


Das ist wohl Mittwoch.....davon abgesehen hab ich von mehreren Quellen den 22.06. gehört.

DrumDub
2005-06-21, 13:27:37
Wieso denn das? Überall ist etwas vom 21.06 zu lesen. noe. da verwechselst du was: Nvidia will unveil the G70 on June 21 at a launch event in San Francisco. NDA for reviews will be lifted on Jun 22 (depending on time zone) and G70 cards will be in stock and ready to ship from various online vendors starting at 6:01a.m. on the very same day (users in countries with earlier time zones will be able to get the cards accordingly). http://64.233.161.104/search?q=cache:VZAJuSly1TwJ:www.elitebastards.com/forum/viewtopic.php%3Fp%3D152507+nda+g70++june&hl=de&ie=UTF-8

also: vorstellung in sf am 21.06 abends, nda läuft am 22.06. 0:00 aus.

ShadowXX
2005-06-21, 13:32:24
noe. da verwechselst du was: http://64.233.161.104/search?q=cache:VZAJuSly1TwJ:www.elitebastards.com/forum/viewtopic.php%3Fp%3D152507+nda+g70++june&hl=de&ie=UTF-8

also: vorstellung in sf am 21.06 abends, nda läuft am 22.06. 0:00 aus.

Nach der SF-Zeitzone?? Das wäre dann ja 8 oder 9 Uhr Morgens bei uns....

Gast
2005-06-21, 13:32:26
also: vorstellung in sf am 21.06 abends, nda läuft am 22.06. 0:00 aus.

Also ist 0:00 Uhr deutscher Zeit mit ersten reviews zu rechnen?

Super Grobi
2005-06-21, 13:33:50
Also ist 0:00 Uhr deutscher Zeit mit ersten reviews zu rechnen?

Und da fragt sich welche 0 Uhr? USA oder MEZ?

SG

ShadowXX
2005-06-21, 13:36:43
Und da fragt sich welche 0 Uhr? USA oder MEZ?

SG

Wohl eher USA-Zeit, sonst dürften wir in einer halben Stunde die ersten Reviews aus Australien haben......

reunion
2005-06-21, 13:58:06
Erstes Review: :naughty:

http://www.hardspell.com/hard/showcont.asp?news_id=14372

deekey777
2005-06-21, 14:00:32
Und da fragt sich welche 0 Uhr? USA oder MEZ?

SG

USA, wobei auch die USA mehrere Zeitzonen haben und nVidia in Kalifornien ihren Hauptsitzt hat... Ich tippe auf 15.00 MEZ.

dildo4u
2005-06-21, 14:06:14
Mal die interresanten Sachen gefiltert.

http://www.hardspell.com/newsimage/2005-6-19-21-41-34-643510699.gifSelbst bei 1600*1200 4XAA CPU Limit.

http://www.hardspell.com/newsimage/2005-6-19-22-42-35-643510699.gif

http://www.hardspell.com/newsimage/2005-6-19-22-42-42-499020209.gifSchneller als 6800U SLI!

http://www.hardspell.com/newsimage/2005-6-21-19-9-45-499020209.gif

http://www.hardspell.com/newsimage/2005-6-19-22-11-50-462031136.gif Schneller als 6800U SLI!

http://www.hardspell.com/newsimage/2005-6-19-22-12-0-988452935.gif Erstaunlich wenig

Gast
2005-06-21, 14:06:25
wtf warum ist die so langsam

http://www.hardspell.com/newsimage/2005-6-19-21-41-34-570294601.gif

deekey777
2005-06-21, 14:08:06
CPU-Limitierung?

TheGood
2005-06-21, 14:08:13
scheint dort limiterit zu sein, anders kann ich das nicht deuten.
die seite ist auch schon down :)

bei tombraider noch viel extremer, vor allem wenn 4aa und 8 af eingsechaltet wird. da ist kaum eine leistungssteigerung zu sehen. liegt das an der limitierenden bandbreite?

Marbleearth
2005-06-21, 14:09:40
60 Prozent HDR Verbesserung (http://www.3dchips.net/story.php?id=4146)

Gast
2005-06-21, 14:11:43
diese generation kann man sich getrost schencken,dafür über 500 euro bezahlen ? nein danke

http://www.hardspell.com/newsimage/2005-6-19-22-42-35-570294601.gif

nichtmal reine " nv games "laufen schnell genug um zu wechseln

reunion
2005-06-21, 14:14:02
Muss eigendlich bei jeder neuen Generation diese sinnlose Diskussion über CPU-limitierten Szenen aufkommen?
Nochmal für alle zum mitschreiben: Wenn die CPU limitiert kann keine Karte der Welt schneller sein/werden.

dildo4u
2005-06-21, 14:14:04
Mit OC ist sie auch bei Doom3 am 6800U SLI Dran

http://www.hardspell.com/newsimage/2005-6-20-10-54-32-499020209.gif

seahawk
2005-06-21, 14:15:04
CPU limitiert.@ 1024x768

reunion
2005-06-21, 14:15:09
Mit OC ist sie auch bei Doom3 am 6800U SLI Dran

http://www.hardspell.com/newsimage/2005-6-20-10-54-32-499020209.gif


Kein Wunder, mit 500Mhz Chiptakt hat sich auch annähernd die doppelte Füllrate einer 6800U.

TheGood
2005-06-21, 14:15:15
man sieht halt: extrem bandbreitenlimitiert bei af und aa
wurde das nicht schon mehr als einmal angedeuteT?

Winter[Raven]
2005-06-21, 14:15:28
diese generation kann man sich getrost schencken,dafür über 500 euro bezahlen ? nein danke

http://www.hardspell.com/newsimage/2005-6-19-22-42-35-570294601.gif

nichtmal reine " nv games "laufen schnell genug um zu wechseln

Farcry ist kein NVspiel ... löl!

dildo4u
2005-06-21, 14:16:55
Was guckt ihr auch auf 1024 Benches immer diese lieben Gäste.

Gast
2005-06-21, 14:18:35
http://www.3dchips.net/test/hard/grafik/G70/PO_GEF_7800_07.pdf

(del676)
2005-06-21, 14:22:17
sieht für mich ned so überragend aus :(

Gast
2005-06-21, 14:23:01
Was guckt ihr auch auf 1024 Benches immer diese lieben Gäste.

das spielt man halt oder max 1280,1600 ist in shootern z.b nicht gut zum spielen

reunion
2005-06-21, 14:23:42
sieht für mich ned so überragend aus :(


Mehr war nicht zu erwarten.

Gast
2005-06-21, 14:24:34
diese generation kann man sich getrost schencken,dafür über 500 euro bezahlen ? nein danke

http://www.hardspell.com/newsimage/2005-6-19-22-42-35-570294601.gif

nichtmal reine " nv games "laufen schnell genug um zu wechseln

farcry cpu lastig ? warum war dann eine x800 mit aa/af fast doppelt so schnell wie eine 9800pro ?

reunion
2005-06-21, 14:25:26
farcry cpu lastig ? warum war dann eine x800 mit aa/af fast doppelt so schnell wie eine 9800pro ?

Eine schnellere Garfikkarte erfordert eine schnellere CPU. Denk mal drüber nach.

mapel110
2005-06-21, 14:26:19
Mehr war nicht zu erwarten.
Naja, ATI holt irgendwie mehr aus aus ihrer Füllrate. Offenbar ists einfacher die Leistung über den Takt zu skalieren als über zusätzliche Pipes. So siehts für mich zumindest aus.

Godmode
2005-06-21, 14:26:24
bekommen wir vielleicht unser schönes altes AF zurück, oder reicht da die Bandbreite nicht? Ich kann den Winkelabhängigen Scheissdreck nicht mehr sehn!

mapel110
2005-06-21, 14:27:40
bekommen wir vielleicht unser schönes altes AF zurück, oder reicht da die Bandbreite nicht? Ich kann den Winkelabhängigen Scheissdreck nicht mehr sehn!
Da hat sich wohl nichts geändert. AF geht in erster Linie auf die Füllrate.

reunion
2005-06-21, 14:28:04
Naja, ATI holt irgendwie mehr aus aus ihrer Füllrate. Offenbar ists einfacher die Leistung über den Takt zu skalieren als über zusätzliche Pipes. So siehts für mich zumindest aus.


Richtig, mehr Takt ist natürlich effizienter.

Godmode
2005-06-21, 14:28:53
Auf dem Bild sieht der Fettsack nicht mal so blöd aus ;D
http://www.hardspell.com/hard/showcont.asp?news_id=14372

Gast
2005-06-21, 14:29:07
Was guckt ihr auch auf 1024 Benches immer diese lieben Gäste.

also in 1600 10 bilder mehr sind auch nicht überzeugend oder

http://www.hardspell.com/newsimage/2005-6-21-19-9-45-499020209.gif

Winter[Raven]
2005-06-21, 14:29:26
bekommen wir vielleicht unser schönes altes AF zurück, oder reicht da die Bandbreite nicht? Ich kann den Winkelabhängigen Scheissdreck nicht mehr sehn!

Bis zum möglichen NV50 sollte man sich den Gedanken aus dem Kopf schlagen! ;(

Demirug
2005-06-21, 14:29:58
Richtig, mehr Takt ist natürlich effizienter.

Da bin ich mal auf die Begründung gespannt.