PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8800er gelistet!!!!


Seiten : [1] 2 3 4 5

baka
2006-11-03, 23:37:39
Die neuen DX10 Karte sind geliset, einige sogar schon mit pries!!!

http://www.geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=8800&filter=+Angebote+anzeigen+

Leadtek
http://www.geizhals.at/deutschland/a224912.html
http://www.geizhals.at/deutschland/a224911.html

ASUS
http://www.geizhals.at/deutschland/a224910.html
http://www.geizhals.at/deutschland/a224909.html

Gigabyte
http://www.geizhals.at/deutschland/a224908.html

einige Termine sind auch bekannt, zB Sparkle laut Mindfactory webseite 7.11.2006!!!

vorbestellung?!?

lg
baka

Super Grobi
2006-11-03, 23:39:57
Asus GTS für 430 hört sich sehr fein an, allerdings kenne ich die Shops nicht!

SG

p.s.
wenn der GTS Preis stimmt, kommt wohl wirklich hier die Tage eine 7950GX2 von Mindfactory für 258 Euro an. Bestellt ist sie... (brauch keiner suchen! Angebot gibts NICHT mehr)

baka
2006-11-03, 23:45:53
p.s.
wenn der GTS Preis stimmt, kommt wohl wirklich hier die Tage eine 7950GX2 von Mindfactory für 258 Euro an. Bestellt ist sie... (brauch keiner suchen! Angebot gibts NICHT mehr)

wo? was? wann?!?

HellFire
2006-11-03, 23:46:23
Hab ich wegen der 7950 GX2 was verpasst ?

Bubba2k3
2006-11-03, 23:46:29
Schön und gut, aber solange man da kein 'Verfügbar' oder 'Auf Lager' lesen kann, ist das doch uninteressant, oder nicht?

Hab ich wegen der 7950 GX2 was verpasst ?

Es soll eine 7950GX2 für unter 300,-€ gegeben haben. Siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4943457#post4943457), aber der Beweis fehlt nich. ;)

Super Grobi
2006-11-04, 00:15:57
Es soll eine 7950GX2 für unter 300,-€ gegeben haben. Siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4943457#post4943457), aber der Beweis fehlt nich. ;)

Letzte Posting zur GX2, ok? Der Thread geht um die neue NV.

Hier noch das Posting mit dem Sceen von www.hardwareschotte.de wo ich die Karte gesehen hab. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4943476&postcount=56

Gruss und gute N8 und bleibt bitte beim Thema! (ich mach einen Thread auf, falls ich die Karte überhaupt mal bekommen (ist angeblich sofort Lieferbar von Mindfactory gewesen))

SG

Bubba2k3
2006-11-04, 00:20:15
Sorry für OT.

Gibt es denn jetzt definitiv einen Termin, wo die 8800er verfügbar sind oder muß man halt täglich mal schauen?

baka
2006-11-04, 01:03:23
@bubba wähl doch einfach deinen lieblingsladen und mal sehen ob was dort steht.

ansonsten genauer lesen!
#1 einige Termine sind auch bekannt, zB Sparkle laut Mindfactory webseite 7.11.2006!!!

Ferengie
2006-11-04, 02:26:33
Erste Benchs (http://dailytech.com/article.aspx?newsid=4812)

Gast
2006-11-04, 02:34:32
Was für ein Heizer... jetzt übertrumpft die GeForce Karte sogar die X1950 XTX, was auch bedeutet, das die neue von nVidia jetzt einer der stromfressendsten Karten überhaupt ist.
Im Vergleich zur anfänglichen GeForce 7 Serie dürfte sich der verbrauch also fast verdoppelt haben. :eek:

Das sie schnell ist, ist klar, dafür sorgt allein schon das dickere Speicherinterface...

dildo4u
2006-11-04, 02:38:32
Was für ein Heizer... jetzt übertrumpft die GeForce Karte sogar die X1950 XTX, was auch bedeutet, das die neue von nVidia jetzt einer der stromfressendsten Karten überhaupt ist.

Eine Karte die 60-90% schneller ist als eine 1950XTX und nur 5% mher Strom verbraucht ist geradezu spektakulär Stromsparend.Man muss die Verlustleistung immer in Relation zur erbrachten Renderingleistung setzen.

Gast
2006-11-04, 02:41:37
Eine Karte die 60-90% schneller ist als eine 1950XTX und nur 5% mher Strom verbraucht ist geradezu spektakulär Stromsparend.Man muss die Verlustleistung immer in Relation zur erbrachten Renderingleistung setzen.

Nein, bitte nicht dieser Vergleich, denn der ist ziemlich sinnbefreit.

Denn GeForce 8 = neue Generation, Radeon 1950XTX = alte Generation.

Vergleich aber mal was anderes:
GeForce 7 = sagen wir mal 60 bis 80 W
GeForce 8 = da sie jetzt mehr als die R1950 XTX braucht, muss sie irgendwo im Bereich von 120 bis 150 W liegen.

Und dann sieht die Sache schon anders aus. 80 bis 90 % mehr Leistung, bei 100% mehr Stromverbrauch.

dildo4u
2006-11-04, 02:47:12
Nein, bitte nicht dieser Vergleich, denn der ist ziemlich sinnbefreit.

Denn GeForce 8 = neue Generation, Radeon 1950XTX = alte Generation.

Vergleich aber mal was anderes:
GeForce 7 = sagen wir mal 60 bis 80 W
GeForce 8 = da sie jetzt mehr als die R1950 XTX braucht, muss sie irgendwo im Bereich von 120 bis 150 W liegen.

Und dann sieht die Sache schon anders aus. 80 bis 90 % mehr Leistung, bei 100% mehr Stromverbrauch.Wenn man den G80 wie z.B bei der GTS um ein Virtel kürz braucht er 25% weniger Strom und wär immer noch schneller als eine 1950XTX.Nicht vergessen der G80 wird noch in der selben Fertigungsgröße wie die "alte" Generation gebaut!Sonst gab es immer eine Verkleinerung bei der neuen Gen was natürlich geholfen hat die Karten schneller und stromsparender zu machen.Deshalb ist die Leistung des G80 um so erstaunlicher auch der geringe Stromverbrauch im Verhältniss zur Leistung ist sennsationell.

Gast
2006-11-04, 02:48:55
Wenn man den G80 wie z.B bei der GTS um ein Virtel kürz braucht er 25% Weniger Strom und wär immer noch schneller als eine 1950XTX.

Eben drum, das interessiert aber nicht. Der Gegner zur GTS wird nicht die Radeon 1950XTX sein, sondern das Nachfolgeprodukt.

Erstmal sehen, wie schnell das sein wird.


Traurig ist es allemal. Die Karte ist schnell, klar, aber die bricht auch alle Stromverbrauchsrekorde.
Allein die Sache mit über 200 W im idle-Modus finde ich heftig... so viel verbraucht mein aktueller Rechner nicht mal unter Last :-)

dildo4u
2006-11-04, 02:59:12
Eben drum, das interessiert aber nicht. Der Gegner zur GTS wird nicht die Radeon 1950XTX sein, sondern das Nachfolgeprodukt.

Wann in 3 Monaten? Fakt ist der G80 kommt in 4 Tagen und wird dann eine ganze Weile die 1900 Karten als Gegener haben.Bis ATI aus dem Pott kommt bringt Nvidia schon ihren Refresh in 80nM aber ati is hier OT. ;)

Gast
2006-11-04, 03:16:32
Was für ein sinnfreies Fanboygequatsche!

Auch wenn die X1950XTX der momentane Gegner ist, vergleichst du trotz allem Äpfel mit Birnen!
Wenn du schon so eine Quatsch schreibst, dann vergleiche auch bitte die Taktraten!

Und wie schon gesagt wurde, der Vergelich MUSS auch bei den NV-Modellen stattfinden und da hast du dann ein Mehr an Leistungsverlust von 100%.

Also bitte alles in Betracht ziehen, dann klappt das auch bin dem "Non-Fanboy" Status!

Timewarp82
2006-11-04, 03:17:39
Erste Benchs (http://dailytech.com/article.aspx?newsid=4812)


11,000 Punkte im 06er mit 1ner KArte :eek:

dildo4u
2006-11-04, 03:21:47
Und wie schon gesagt wurde, der Vergelich MUSS auch bei den NV-Modellen stattfinden und da hast du dann ein Mehr an Leistungsverlust von 100%.

Was totaler Quark ist weil der G70 kein WU/HQAF kann also ist jeglicher Vergleich sinnlos weil der G80 schon mal so aus dem Stand eine viel bessere Optik bietet und zwar bei jedem Game.Und der Vergleich mit dem was es aktuell wirklich zu kaufen gibt bei der Konkurrenz ist Absolut gerechtfertig.Wie sich dann der G80 im 80nm Refresh macht gegen den R600 steht auf einem ganz anderen Blatt und beschäftigt uns whol Frühstens im März 2007.

11,000 Punkte im 06er mit 1ner KArte :eek:

Mit OC und Quad Core CPU sinds schon 13 fast 14000.

http://vic.expreview.com/attachment/1161849814.jpg

ursprünglicher Gast
2006-11-04, 03:39:19
Ein Vergleich zwischen neuer und alter Generation zu ziehen, ist dennoch wenig sinnvoll. Man vergleicht heute auch keine Radeon X1950 mit einer GeForce 6...

mag sein, das die Radeon erst später kommt, aber das war schon immer so, das die Karten nicht zeitgleich erschienen.

Ich würde eher nach dem Featureset vergleichen: D3D10 gegen D3D10 und da gibts halt noch nix.

Ich finde die Ergebnisse gut, keine Frage, aber das sollte man von einer neuen Generation auch erwarten können. Das Speicherinterface ist ein Punkt, der die Leistung stark erhöht hat.
Dann der höher getaktete Speicher ...

Allerdings ist wie jede neue Generation mit einigen Nachteilen verbunden: Hoher Stromverbrauch. Für einen User, der nicht 80% seiner Zeit beim zocken verbringt, verbraucht die Karte im idle einfach zuviel.

Anti Aliasing wird in Zukunft sicherlich zum Standard werden, wenn die Karten weiterhin so viel an Performance zulegen. Dann sollte auch 1920x1200 bei 6x AA drin sein, bei fast jeder Anwendung. Ist doch nett.
Allerdings frage ich mich eines: Warum sollte ich den Chip kaufen, wenn ich damit rechnen kann, das der Chip durch einen Shrink sparsamer wird und bis dahin die neuen Features gar nicht zum tragen kommen? Also das mit den D3D10 Anwendungen dauert sicher lang..

Huhn
2006-11-04, 04:34:26
ist eh kein Rennen was hier abläuft und selbst wenn..... in 6 Monaten ist die Karte wieder nicht die schnellste und es gibt viel tollere Sachen. ATI wird mit Sicherheit nachziehen und dann werden wir alles sehen wer das tollste für die nächsten 3 Monate liefern kann.

tokugawa
2006-11-04, 07:34:09
Ein Vergleich zwischen neuer und alter Generation zu ziehen, ist dennoch wenig sinnvoll. Man vergleicht heute auch keine Radeon X1950 mit einer GeForce 6...

mag sein, das die Radeon erst später kommt, aber das war schon immer so, das die Karten nicht zeitgleich erschienen.

Ich würde eher nach dem Featureset vergleichen: D3D10 gegen D3D10 und da gibts halt noch nix.

Ich finde die Ergebnisse gut, keine Frage, aber das sollte man von einer neuen Generation auch erwarten können. Das Speicherinterface ist ein Punkt, der die Leistung stark erhöht hat.
Dann der höher getaktete Speicher ...

Allerdings ist wie jede neue Generation mit einigen Nachteilen verbunden: Hoher Stromverbrauch. Für einen User, der nicht 80% seiner Zeit beim zocken verbringt, verbraucht die Karte im idle einfach zuviel.

Anti Aliasing wird in Zukunft sicherlich zum Standard werden, wenn die Karten weiterhin so viel an Performance zulegen. Dann sollte auch 1920x1200 bei 6x AA drin sein, bei fast jeder Anwendung. Ist doch nett.
Allerdings frage ich mich eines: Warum sollte ich den Chip kaufen, wenn ich damit rechnen kann, das der Chip durch einen Shrink sparsamer wird und bis dahin die neuen Features gar nicht zum tragen kommen? Also das mit den D3D10 Anwendungen dauert sicher lang..


Andererseits ist früher bei der Vorstellung der 9700er diese ebenfalls mit der damals aktuellen GeForce 4 Ti verglichen wollen. Das ist also was anderes als "GeForce 6 gegen Radeon 1950". Es geht um "aktuell" gegen "aktuell" (auch per Preissegment).

Es mag rein technisch nicht fair sein, markttechnisch geht allerdings ein Vergleich "aktuell" gegen "aktuell" schon, natürlich immer unter dem Vorbehalt dass da noch was nachgelegt wird von demjenigen der in diesem Vergleich unterliegt - ist immer so, und das ist auch gut so.

Ronny G.
2006-11-04, 08:05:53
Gut, aus einen Artikel/bench vorallem nur einer relevanten Anwendung Schlüsse zu ziehen wäre bestimmt falsch.
Aber trotzdem kann anhand des Tests sagen, nix besonderes, die Steigerung ist von Generation zu Generation normal geworden, und wenn man davon ausgeht das dies das neue Topmodell ist und die Normalo Karten wieder 10-20% langsamer sein werden kann man als G71 User getrost die erste Generation überspringen.

gnomi
2006-11-04, 08:09:17
Die Karte hat es wirklich in sich. =)
Leider fehlen dem PC momentan bombastisch aussehende und technisch saubere Spiele.

aths
2006-11-04, 08:21:31
Sorry für OT.

Gibt es denn jetzt definitiv einen Termin, wo die 8800er verfügbar sind oder muß man halt täglich mal schauen?Solange die Karten noch nicht mal offiziell vorgestellt wurden, dürften sie kaum verfügbar sein.

l@mer
2006-11-04, 08:47:02
Meint ihr ich komme mit meiner karte ncoh bis zum launch der R600 über die runden?

Blackpitty
2006-11-04, 08:59:39
Meint ihr ich komme mit meiner karte ncoh bis zum launch der R600 über die runden?

Tolle Frage, das kann dir keiner beantworten, das musst du doch selber wissen:|

l@mer
2006-11-04, 09:01:24
Ich meine von der leistung her, in spielen und so. Ich spiele imemr auf 1280 und AA/AF voll an.

Ronin2k
2006-11-04, 09:02:51
FULL ACK!!! wenn man sich mal bei den konsolen umschaut was es da so gibt und was noch kommt und dann die leistung von manch pcs hier sieht und die Pc spiele :frown: in meinen augen is der pc scho lange net mehr nr.1 gameplattform ist leider so ;(


Die Karte hat es wirklich in sich. =)
Leider fehlen dem PC momentan bombastisch aussehende und technisch saubere Spiele.

tokugawa
2006-11-04, 09:49:21
Die Karte hat es wirklich in sich. =)
Leider fehlen dem PC momentan bombastisch aussehende und technisch saubere Spiele.

Wie definierst du "technisch sauber"?

FULL ACK!!! wenn man sich mal bei den konsolen umschaut was es da so gibt und was noch kommt und dann die leistung von manch pcs hier sieht und die Pc spiele :frown: in meinen augen is der pc scho lange net mehr nr.1 gameplattform ist leider so ;(

Das liegt aber nicht an der Technik, sondern am Content... also, Gameplay und Artwork.

Technisch liegt der PC und die Spiele für PC immer noch sehr gut.

Ist sowieso ein unwahrer Mythos dass Konsolenspiele ach so viel performanter wären - wenn man weiß wie da entwickelt wird, weiß man, dass in Konsolenspielen tendenziell deutlich weniger Arbeit verrichtet wird, also es deutlich mehr "Low-Tech" ist im Vergleich.

Dass es auf Konsolen trotzdem "besser aussieht", ist halt wohl deswegen weil im Gegensatz zu PC-Spielen der letzten Jahre auf Konsolen auf das Design - also die künstlerische Seite - deutlich mehr Gewicht gelegt wird als es bei PC-Spielen der Fall ist.

PC-Spiele tendieren, gerade bei technisch hochstehenden Titeln, zu Techno-Wüsten zu werden, wo gerade das Art und Game Design zu kurz kommt.

Die gelbe Eule
2006-11-04, 09:59:33
Die magische 3XX€ Marke muss erreicht werden, bin gespannt ob Leadtek hier günstiger sein kann.

robbitop
2006-11-04, 10:03:15
Wann in 3 Monaten? Fakt ist der G80 kommt in 4 Tagen und wird dann eine ganze Weile die 1900 Karten als Gegener haben.Bis ATI aus dem Pott kommt bringt Nvidia schon ihren Refresh in 80nM aber ati is hier OT. ;)
IMO kommt ein Refresh mit 65 nm. Das wird mit Sicherheit allerdings noch dauern (ich vermute ~1 Jahr). 80 nm brächte soo viel nicht. Normalerweise dauert es auch immer ein wenig bis ein Refresh kommt. NV40 -> G70 war mehr als 1 Jahr. G70 -> G71 fast ein Jahr.
R580 war die große Ausnahme, da R520 sich so stark verspätete.

Gast
2006-11-04, 10:04:39
Hoher Stromverbrauch. Für einen User, der nicht 80% seiner Zeit beim zocken verbringt, verbraucht die Karte im idle einfach zuviel.Warte doch erstmal ab bis es Stromverbrauchsmessungen aus seriösen Quellen und vor allem mit offiziellen Treibern gibt. Auch beim R520 war der Idle-Stromverbrauch mit den ersten Treibern verdammt hoch. Erst in späteren Treibern wurden dann die Stromsparfunktionen aktiviert. So wird es beim G80 wohl auch sein.

Wenn dir ein niedriger Stromverbrauch so wichtig ist, dann kauf eben Midrange-Karten oder eine Geforce 7. Es zwingt dich ja niemand einen stromfressenden R580 oder G80 zu kaufen.

Mich stört ein hoher Stromverbrauch überhaupt nicht. Das sind ein paar Cent im Monat. Wenn man die Leistung und das Featureset des G80 betrachtet, ist der Stromverbrauch auch gar nicht mal so hoch. Klar, der Verbrauch im Idle muss gesenkt werden, aber da mach ich mir eigentlich keine Sorgen. Mit späteren Treibern wird das schon passieren. Warten wir einfach mal ein paar Reviews aus vertrauenswürdigen Quellen ab.

aths
2006-11-04, 10:20:17
Wie definierst du "technisch sauber"?

Das liegt aber nicht an der Technik, sondern am Content... also, Gameplay und Artwork.Was das Artwork angeht: Man könnte noch viele Spiele besser machen, ohne irgendwo einen Shader zu nutzen. Das soll jetzt nix gegen Shader sein – die vieles einfacher machen – aber ich will kein Overbright-Blurring sehen, sondern durchgehend glaubwürdige Grafik aus einem Guss. Grafik "in der man sich wohlfühlt". 8x sparse AA mit 16x gutem AF sind ja ein Faktor. Gutes Artwork kommt damit leider nicht automatisch.

The_Invisible
2006-11-04, 10:24:27
bin auch für weniger shader dafür bessere texturen -> nfs-carbon zeigt wie es schlecht aussieht, da hat ja max payne viel bessere texturen

mfg

Sonyfreak
2006-11-04, 10:30:32
Kann man eigentlich davon ausgehen, dass eine 8800GTS schneller ist, als zwei 7900GT im SLI? Ich bin nämlich momentan am überlegen, ob ich mir noch eine zweite 7900GT hole, oder noch ein bisschen warte, und mir dann gleich eine GTS hole.

mfg.

Sonyfreak

Die gelbe Eule
2006-11-04, 10:33:02
Zwei 7900GT im SLi wäre eine 7950GX2, Deine Antwort kannst Dir damit selbst ausdenken ;)

Sonyfreak
2006-11-04, 10:41:35
Leider nicht, da ich keine Ahnung habe, wie schnell eine GTS sein wird. Über die 8800GTX habe ich schon Fakten gelesen und Benchmarks gesehen, für die GTS eben nicht. Wenn ich aber davon ausgehe, dass sie etwa 30% langsamer ist als die GTX, bin ich wohl mit dem SLI Gespann besser dran.

mfg.

Sonyfreak

Die gelbe Eule
2006-11-04, 10:48:16
Sie sollte mit besserer BQ genauso schnell sein als ein SLi System, preislich gesehen würde sich eine extra 7900GT nicht lohnen.

rm-zocker
2006-11-04, 10:54:52
die neue 8800er reihe ist ja wirklich sehr strom hungrig, die bisherigen angaben beziehen sich immer auf die gtx.
wie hoch wird denn der verbrauch der gts sein?

Undertaker
2006-11-04, 10:57:46
Asus GTS für 430 hört sich sehr fein an, allerdings kenne ich die Shops nicht!

SG

p.s.
wenn der GTS Preis stimmt, kommt wohl wirklich hier die Tage eine 7950GX2 von Mindfactory für 258 Euro an. Bestellt ist sie... (brauch keiner suchen! Angebot gibts NICHT mehr)

sry, aber für den preis kommt die nie ;) 350€ hätte ich noch geglaubt und auch für angemessen gehalten angesichts der preise für die gts, aber 250€ sind ein shopfehler und werden wohl in einer stornierung der bestellung enden

Die gelbe Eule
2006-11-04, 10:59:54
die neue 8800er reihe ist ja wirklich sehr strom hungrig, die bisherigen angaben beziehen sich immer auf die gtx.
wie hoch wird denn der verbrauch der gts sein?

50-100 cent mehr im Monat. Kann man aushalten oder?

Gast
2006-11-04, 11:07:45
Wohl eine ungenaue Aussage. Man muss schon berücksichtigen, wie lange jemand durchschnittlich im Monat zockt. Dann kann man es sich ausrechnen, was auch zu wesentlich größeren Werten führen kann. Vor allem der hohe Leerlaufverbrauch wird die Stromrechnung deutlich nach oben treiben. Im Winter hat man allerdings Heizkostenersparnis :D.

Gast
2006-11-04, 11:26:05
50-100 cent mehr im Monat. Kann man aushalten oder?

Ach bei der X1900 Serie hast immer gesagt das die zuviel Strom frisst.

schidddy
2006-11-04, 11:40:54
Ach bei der X1900 Serie hast immer gesagt das die zuviel Strom frisst.

ja wenn halt der lieblingshersteller eine Karte rausbringt die einfach mal doppelt so viel Strom frisst wie die vorherige Generation, kann man ja leicht drüber hinwegsehen gell? Wenns aber ATi macht wird sich drüber aufgeregt.
Fanboystatus=grün

Gast
2006-11-04, 11:42:27
Ach bei der X1900 Serie hast immer gesagt das die zuviel Strom frisst.Tut sie doch auch, wenn man die Leistung betrachtet. G80 ist sehr viel schneller als die x1900 und bietet dazu noch das bessere Featureset. Dabei verbraucht er nur minimal mehr Strom als eine x1900xtx. Das Strom-/Leistungsverhältnis ist bei G80 bedeutend besser.

Super Grobi
2006-11-04, 11:44:38
ja wenn halt der lieblingshersteller eine Karte rausbringt die einfach mal doppelt so viel Strom frisst wie die vorherige Generation, kann man ja leicht drüber hinwegsehen gell? Wenns aber ATi macht wird sich drüber aufgeregt.
Fanboystatus=grün

Das ist doch nichts neues. Bei der X1900XT(X) wird über die Core-Temp genörgelt. Bei der 7950gx2 sagt keiner was dazu, das 85°C nichts ungewöhnliches ist.

Aber den Stromverbrauch interessiert denoch kein Mensch bei einer solchen High-End Karte. Wer sich sowas kauft, hat auch noch andere Stromfresser im PC verbaut und will einfach nur max. Performence. Also wayne?

Gruss
SG

schidddy
2006-11-04, 11:51:44
Das ist doch nichts neues. Bei der X1900XT(X) wird über die Core-Temp genörgelt. Bei der 7950gx2 sagt keiner was dazu, das 85°C nichts ungewöhnliches ist.

Aber den Stromverbrauch interessiert denoch kein Mensch bei einer solchen High-End Karte. Wer sich sowas kauft, hat auch noch andere Stromfresser im PC verbaut und will einfach nur max. Performence. Also wayne?

Gruss
SG

Mir geht es ja nicht um den Stromverbrauch. Der ist mir im High-End Segment auch ziemlich egal ;)
Es ging darum dass sich Gelbe Eule zum x19xx release mehrmals über den hohe Stromverbrauch der Karte aufregte und dann immer die 7900gtx als paradebeispiel hinzufügte. Jetzt wo die 8800gtx da ist, die um 60-90% schneller ist, interessiert ihn das plötzlich nimmer ;)

Die gelbe Eule
2006-11-04, 11:51:53
Ach bei der X1900 Serie hast immer gesagt das die zuviel Strom frisst.

Tut sie ja auch, doch sagte ich nie das mich das finanziell tangiert. Meine Stromrechnung liegt bei 64€ im Monat, Einzelhaushalt(!), dafür sauf und rauch ich nicht ;) Btw, Solarium kommt auch noch in Keller ;)

Hatte X850XT, X1800XT und X1900XT und habe nun 7300GT und 7900GTO, bald 8800GTS, wer weniger vebraucht sollte kalr sein ...

Fatality
2006-11-04, 11:53:28
also wer wegen einer neuen graka auf die stromrechnung schaut kann sich sowieso nichts leisten, geschweige denn das hobby highend pc *lol*

WEGA
2006-11-04, 13:09:53
also wer wegen einer neuen graka auf die stromrechnung schaut kann sich sowieso nichts leisten, geschweige denn das hobby highend pc *lol*
wer was zu verschenken hat ...

dargo
2006-11-04, 13:16:55
die neue 8800er reihe ist ja wirklich sehr strom hungrig, die bisherigen angaben beziehen sich immer auf die gtx.
wie hoch wird denn der verbrauch der gts sein?
Würde von 100-110W ausgehen, also in etwa X1800XT 512MB Niveau.

Dimon
2006-11-04, 13:27:25
Das ist doch nichts neues. Bei der X1900XT(X) wird über die Core-Temp genörgelt. Bei der 7950gx2 sagt keiner was dazu, das 85°C nichts ungewöhnliches ist.

Die Geforce 7950GX² is ne Doppeldeckerkarte,
natürlich hat sie da erhöhte temps ;)


mfg

tokugawa
2006-11-04, 13:27:25
Das ist doch nichts neues. Bei der X1900XT(X) wird über die Core-Temp genörgelt. Bei der 7950gx2 sagt keiner was dazu, das 85°C nichts ungewöhnliches ist.

Aber den Stromverbrauch interessiert denoch kein Mensch bei einer solchen High-End Karte. Wer sich sowas kauft, hat auch noch andere Stromfresser im PC verbaut und will einfach nur max. Performence. Also wayne?

Gruss
SG

Naja, es gibt schon Leut, die so eine Karte auch aus vernünftigen Gründen wollen, und ebenso vernünftig auf den Stromverbrauch achten (etwa Entwickler). Ich hätt so ein Teil schon gern, und der Stromverbrauch ist halt wirklich ein Wermutstropfen.

Aber für Leute wie mich gibt's ja dann irgendwann die Midrange-Abwandlungen oder den Refresh. Die GeForce 6 war ja beim Launch auch durchaus ein Monstrum für damalige Verhältnisse, die redesignte Variante GeForce 7 dann eben um einiges energieeffizienter.

Dimon
2006-11-04, 13:27:36
Das ist doch nichts neues. Bei der X1900XT(X) wird über die Core-Temp genörgelt. Bei der 7950gx2 sagt keiner was dazu, das 85°C nichts ungewöhnliches ist.

Die Geforce 7950GX² is ne Doppeldeckerkarte ;)


mfg

Majestic
2006-11-04, 13:32:04
also wer wegen einer neuen graka auf die stromrechnung schaut kann sich sowieso nichts leisten, geschweige denn das hobby highend pc *lol*

Wer so denkt ist oft einfach nur arrogant/großspurig...;)Es ist einfach vernüftig den Stromkonzernen nichts zu schenken.... Würde ATI von der BQ nicht besser sein hätte ich mir wahrscheinlich auch eher ne GF7900GT/GTO geholt.....;(

Diese Entwicklung hin zu solchen Stromfressern mag technisch nicht zu umgehen sein (auch wenn feinere Herstellungsstrukturen dem vielleicht etwas entgegenwirken können) aber angesichts stetig steigender Energiepreise finde ich es schon ziemlich ärgerlich.

LovesuckZ
2006-11-04, 13:36:25
Diese Entwicklung hin zu solchen Stromfressern mag technisch nicht zu umgehen sein (auch wenn feinere Herstellungsstrukturen dem vielleicht etwas entgegenwirken können) aber angesicht stetig steigender Energiepreise finde ich es schon ziemlich ärgerlich.

Dann kaufe es nicht. :rolleyes:

Gast
2006-11-04, 13:37:24
Die Geforce 7950GX² is ne Doppeldeckerkarte ;)


mfg

ja und der fakt bleibt ja das sie an die 85+ grad wird;)

Ich verstehe eh nicht warum sich die leute über den stromverbrauch aufregen! Wer sich eine x1900/x1950 xtx leisten kann, kann auch mit dem stromverbrauch leben.
Das geheule kommt eh nur daher da keine single slot lösung halt besser war als die ati und man sich halt an einen strohhalm geklammert hat, um die karte zu rechtfertigen:P. Den stromverbrauch!!

Aber lassen wir das, keinen der 400+ eur für eine karte ausgibt sollte der stromverbrauch an erster stelle sein, sondern die performance. Ausser der stromverbrauch ist so hoch das es wirklich ins bedenkliche geht...

Aber die leistung ist schon recht nett der neuen generation, warten wa mal ab was ati abliefert und dann werden wir es schon sehen.

tokugawa
2006-11-04, 13:38:33
Wer so denkt ist oft einfach nur arrogant/großspurig...;)Es ist einfach vernüftig den Stromkonzernen nichts zu schenken.... Würde ATI von der BQ nicht besser sein hätte ich mir wahrscheinlich auch eher ne GF7900GT/GTO geholt.....;(

Diese Entwicklung hin zu solchen Stromfressern mag technisch nicht zu umgehen sein (auch wenn feinere Herstellungsstrukturen dem vielleicht etwas entgegenwirken können) aber angesicht stetig steigender Energiepreise finde ich es schon ziemlich ärgerlich.

Kann ich nur zustimmen. Spätestens wenn du eine Firma am laufen hast und jeder Arbeitsplatz mit einer High-End-Grafikkarte bestückt sein muß, schaust schon sehr auf den Stromverbrauch.

Die gelbe Eule
2006-11-04, 13:44:05
Für 100% mehr Performance, also 50% weniger Rechenzeit, wird man kaum mehr Strom bezahlen, eher weniger.

Majestic
2006-11-04, 13:53:56
Für 100% mehr Performance, also 50% weniger Rechenzeit, wird man kaum mehr Strom bezahlen, eher weniger.

Hmmm also wenn das Spiel doppelt so schnell läuft würde man 50% Stromsparen weil nur 50% der Zeit zum durchspielen braucht... Oder wie meinst du das?:biggrin:

Benedikt
2006-11-04, 14:09:51
Für 100% mehr Performance, also 50% weniger Rechenzeit, wird man kaum mehr Strom bezahlen, eher weniger.
Brainfart: Sowas kommt nur bei klassischen Rechenaufgaben zum Tragen. Bei kontinuierlichen Berechnungen wie z. B. PC-Gaming eben nicht. Oder spielst du deshalb nur halb so lange wie sonst? ;)

Gast
2006-11-04, 14:32:19
Für 100% mehr Performance, also 50% weniger Rechenzeit, wird man kaum mehr Strom bezahlen, eher weniger.

Zu früh aufgestanden? Stimmt natürlich nicht.
Bei LIVE Sequenzen gilt das nicht. Ein Video z.B. läuft auch nicht schneller, nur weil die Grafikkarte schneller ist. Die Zeit bleibt die gleiche, nur wirds halt hier und da weniger Ruckler oder mehr Performance in Form von Frames geben!

L.ED
2006-11-04, 14:55:00
Ich finde das auch zu wenig durchdacht und Vorschnell geäußert, ^^

von wegen wer das Geld hat für HighEnd Hardware xyz der hat auch das Geld für. ^^ :|

Prinzipiell mag das sogar stimmen aber es soll auch Leute geben, denen das dennoch ein enormer Dorn im Auge (und wenn es vielleicht nur aus vermehrten Ökologischen Verständnis heraus?)!

Nehmen wir mich z.b. ich stelle mir für Privat gerne Allrounder zu Hause dann auf bzw. zusammen. Das heißt das Ding wird zu (schätzungsweise) 80% für alles andere genutzt (wo Grafisch zumeist noch ne TNT2 reichen täte). Und zu 20% dann mal zum daddeln, aber wenn dann eben richtig, nach Möglichkeit immer AAx4 bis AAx8S & AFx16 bei ab 1280x1024!

Und deshalb darf, soll und muss es dann schon zum kauf Zeitpunkt, mindestes oberes Mittelkassen Feld an GFX Technologie sein (eher aber Tendenz zu HighEnd)

Nein! und ich möchte eben nicht Spiel PC & für alles andere ein extra System, Trennen! Soll ein System für alles sein (hat auch Praktische Vorzüge).

Und spätestens da wird es dann aber Interessant was so eine GFX im normale Office Betrieb so weck schluckt und ab gewissen Punkt ist es selbst dem der die Kohle hat (für so ein HighEnd Schlucker), vor aufgeführten Hintergrund, dann nicht mehr so Egal. :nono:

Auch nur deshalb nun am überlegen ob nicht gleich bissel im sauren Apfel beiße (noch teuren), und jetzt ne GF8 (8800GTS) hole. Wegen dem AF Verhalt könnte es anderenfalls dann jetzt, dann nur eine der jetzigen noch HighEnds von ATI sein (mit dessen Stromverbrauch so oder so anfreunden muss / müsste). Und in der Beziehung der GF8 derzeit dann vorne, obgleich langsam nun wirklich mal Schluss sein sollte und zumindest für Office Betriebliche Modies vernünftige Stromsparfunktionen eingebaut gehören! (auf mindestens 100w runter und weniger!)

yardi
2006-11-04, 15:08:04
Ich frage mich warum nvidia den genialen Heatpipe-Kühler der 7900GTX nicht übernommen hat.

Was meint ihr was das für einen Grund hat?

Wenn ich mir den popligen Lüfter (60mm?) im Zusammenhang mit dem Stromverbrauch und der wahrscheinlich daraus resultierenden hohen Wärmeentwicklung ankucke kommt mir nur eins in den Sinn: LAUT!!!

Die gelbe Eule
2006-11-04, 15:10:34
Zu früh aufgestanden? Stimmt natürlich nicht.
Bei LIVE Sequenzen gilt das nicht. Ein Video z.B. läuft auch nicht schneller, nur weil die Grafikkarte schneller ist. Die Zeit bleibt die gleiche, nur wirds halt hier und da weniger Ruckler oder mehr Performance in Form von Frames geben!

Kontext beachten. Wenn ich etwas direkt unter einem Post schreibe, so bezieht sich das auf diesen. Dort ging es um Firmen die mit solchen Karten arbeiten, spricht Renderleistung brauchen, nicht Filmegucker oder Spieler.

rpm8200
2006-11-04, 15:25:41
... ... ... Und in der Beziehung der GF8 derzeit dann vorne, obgleich langsam nun wirklich mal Schluss sein sollte und zumindest für Office Betriebliche Modies vernünftige Stromsparfunktionen eingebaut gehören! (auf mindestens 100w runter und weniger!)
Also ehrlich... ich finde selbst "nur" 100W für Office Use noch um den Faktor 4(mindestens) zu hoch. Ich würde mal denken, dass man unter 2D einfach auch eine Teilabschaltung der Karte vornehmen sollte, ein Quad reicht doch für alles in 2D mehrfach aus und 128MB Ram reichen dafür auch. Ich denke solche Massnahmen müssen bei immer weiter steigender Spitzenleistung integriert werden, weil es einfach keinen Sinn macht, dass man idle mal eben 100W Leistung raus ballert ohne daraus nutzen zu ziehen.

Bei uns läuft im Radio derzeit eine Werbekampagne von EON (glaub ich). Da quatschen 2 kleine Kinder abwechselnd, dass sie ja so lange in der Badewanne bleiben können, wie sie wollen, immer wieder warmes Wasser nach laufen lassen, weil "der warme Wasserhahn geht nie aus", das würde EON dann garantieren. Wenn ich solche shice höre könnt ich kotzen.

Etwas mehr ökologischer Weitblick (und das sollte man eben auch im Zusammenhang mit dem PC sehen) wäre schon wünschenswert.

Dimon
2006-11-04, 15:28:59
Finde den Stromverbrauch der 8800GTX eig. ganz ok, wenn man dann mit der X1950XTX vergleicht, frisst sie kaum mehr, hat aber dafür 100% mehr leistung, wer schon sowas kauft achtet auf seine Stromkosten garnicht.....


mfg

L.ED
2006-11-04, 15:40:43
Ja das stimmt, wenn man so bedenkt (also ich mir) das man ab und an auch Render (Raytracing) arbeit bei sich mitberechnen lässt. Und das Ding dann schon auch mal paar Wochen und mehr für sich beschäftigt, man selbst auf Wanderschaft (Urlaub etc).

Und dann ne GFX drin die obgleich se nur nen schwarzen Bildschirm darzustellen hat (der Monitor eh aus / davon ab), dennoch ihre 200w und mehr durch zieht, na dann “Hut ab“.

Spätestens dann (jetzt/heute), wird der Wahnwitz offensichtlich und die Notwendigkeit für Effizientes Energie Management, auch und gerade in HighEnd GFX Hardware.

Alles andere ist doch Ökologischer Overkill, mit Vernunft vor einem selbst auch kaum noch zu vereinbaren (ich ringe doch schon sehr). Und nicht zu letzt, das dessen eben Strom mehr kosten die für NIX rausgeballert … einfach ma so.

Nur weil man Technologisch gesehen noch immer auf der “gut“ und oder vor allem anderen billig schiene! ^^ Und für normalo Haushalte, für aber teuer Geld nach der friss oder stirb Maxime (hüben wie drüben) nur anbietet. (es ginge mit Sicherheit diesbezüglich schon anders, währe eben noch etwas mehr Entwicklungs- Aufwand aber warum, wenn es doch anders (wie bis dato gesehen) auch geht? :mad: ^^)

nino
2006-11-04, 17:36:39
Kontext beachten. Wenn ich etwas direkt unter einem Post schreibe, so bezieht sich das auf diesen. Dort ging es um Firmen die mit solchen Karten arbeiten, spricht Renderleistung brauchen, nicht Filmegucker oder Spieler.

trotzdem stimmt die aussage von ihm immernoch, da man beim cad zeichnen ja nich eben doppelt so schnell ist nur weil die karte schneller rendert.

cgi-filme werden nicht auf solchen grafikkarten gerendert...

Razor
2006-11-04, 18:09:20
cgi-filme werden nicht auf solchen grafikkarten gerendert...

Doch... werden sie.
http://www.nvidia.com/page/quadroplex.html

Razor

tokugawa
2006-11-04, 20:08:38
Für 100% mehr Performance, also 50% weniger Rechenzeit, wird man kaum mehr Strom bezahlen, eher weniger.

Die Rechenzeit ändert sich nicht, sondern die Arbeit die pro Zeiteinheit erledigbar ist.

Wenn du Spieleentwickler bist, dann wird ja durch eine schnellere Karte deswegen auch nicht schneller entwickelt.

Der Stromverbrauch steigt also in der Praxis.


Womit du natürlich recht hast ist dass das Verhältnis Leistung zu Stromverbrauch schon besser ist. Und ob das einem wert ist, muß jeder selbst beurteilen.

Kontext beachten. Wenn ich etwas direkt unter einem Post schreibe, so bezieht sich das auf diesen. Dort ging es um Firmen die mit solchen Karten arbeiten, spricht Renderleistung brauchen, nicht Filmegucker oder Spieler.

Nein, was ich meinte waren Firmen, die Echtzeitrendering betreiben, also z.B. Spieleentwickler. Da gilt wiederum der Einwurf von oben dass da die Zeit nicht halbiert wird, da es wieder "live" ist.

Firmen die Echtzeitgrafikkarten für Offline-Rendering verwenden, zähle ich eher zu den Nischenfirmen.

cgi-filme werden nicht auf solchen grafikkarten gerendert...

Doch... werden sie.
http://www.nvidia.com/page/quadroplex.html


So formuliert habt ihr beide unrecht :)

Also: es werden schon. Aber es ist eher ein kleiner Anteil. Von NVIDIA direkt (etwa von der Eurographics 2006 im September, wo die in einer Session einen Vortrag über Gelato gehalten haben) wird hinter vorgehaltener Hand gemunkelt dass sie Gelato keinen besonders hohen Marktwert mehr zuschreiben. Es ist einfach ein interessantes Konzept, aber 32-bit-Float ist einfach nicht genug für viele Offline-Rendering-Aufgaben (da muß schon Double, also 64-bit Float her, teilweise).

Dieser Quadroplex ist ja auch nicht primär für "Filmrendering", bzw Offline-Rendering, sondern für diverse Visualisierungsaufgaben etwa in der medizinischen Visualisierung oder Scientific Vis, Virtual Reality (etwa Systeme wie das CAVE), und ähnliches. Dies sind Anwendungsgebiete der Echtzeitgrafik und haben mit CGI-Filmen gar nichts zu tun.

l@mer
2006-11-04, 20:11:23
Ich werde mich hüten die Geforce8 vor dem launch des R600 zu kaufen. Wer weiss, vllt wird der viel geielr, da warte ich lieber noch 6 monate, ausserdem reicht meine karte noch locker bis 2008.

Gast
2006-11-04, 20:45:40
Fanboymode on:

Boah eh jetzt ist das ja auch voll klar warum Nvidia es so gut fand, daß AMD neulich Ati geschluckt hat !

Die Nvidia is so oberhammermegageil - die werden total viel Kohle damit machen und brauchen dann nur AMD zu kaufen.

Ist viel einfacher und weniger Aufwand, als AMD UND Ati einzeln einzusacken !!!

Hab schon gehört die von Ati haben die 600er gestrichen - weil keine Chance......

Fanboymode off.

l@mer
2006-11-04, 20:46:33
Du solltest eher sagen: Gespamme an.......gespamme off.. selten sowas dummes gelesen.

Android
2006-11-04, 20:54:59
Immer dieses Stromkostengelaber.....*kotz*
Ich bin selber jemand, der gerne Strom spart. Aber was hier Leute für Argumente bringen ist echt der Brüller. Wenn sich jemand ein High-End System kauft, meint ihr dann die 16.88Cent pro kW/h jucken den dann?
Selbst bei nem utopischen 500W/h Verbrauch hat man dann nach 4 Stunden zocken am Tag 33.76Cent ausgegeben.....gehts noch?
Bei mir verbraucht ne X1800XT mit nem Opteron 144@2.8GHz und dem Hiper Type-R Modular 580W Netzteil (Wirkungsgrad nicht gerade erste Sahne) unter Last gerademal 220W inkl. TFT. Nach fünf Stunden Zocken habe ich dann gerademal ca. 16.88Cent bezahlt......wow. Ein gutes Kaugummi kostet mehr.

Nehmen wir also ne 8800GTX un nen Quad-Core --> 310W. Jetzt noch den restlichen Dreck und wir sind bei ca. 400W unter Last.
Wer von euch hat nen Deckenfluter? Verbrauchsmessgerät ran, Dimmer auf vollen Saftdurchlass drehen und staunen :eek: --> 300W-400W.

Welchen High-End Besitzer interessiert das? Genau. Keinen. ;)

Und jetzt bitte wieder zurück zum Thema:
Es gibt keinen ausführlichen Test, keine BQ-Vergleiche, keine kaufbare Karte und ihr spamt den Laden hier wieder mit eurem Nonsens zu. Wer von euch hat die Karte schon in Aktion gesehen? Wer hat sie zu Hause und kann uns tolles darüber berichten?
Ihr seid echt nicht besser als diese Geizhals-Hirnis, die schon Bewertungen abgeben, bevor ein Produkt auf dem Markt ist.

P.S.: Damit sind nur die Leute gemeint, die sich angesprochen fühlen. :D

tokugawa
2006-11-04, 20:57:36
Immer dieses Stromkostengelaber.....*kotz*
Ich bin selber jemand, der gerne Strom spart. Aber was hier Leute für Argumente bringen ist echt der Brüller. Wenn sich jemand ein High-End System kauft, meint ihr dann die 16.88Cent pro kW/h jucken den dann?
Selbst bei nem utopischen 500W/h Verbrauch hat man dann nach 4 Stunden zocken am Tag 33.76Cent ausgegeben.....gehts noch?
Bei mir verbraucht ne X1800XT mit nem Opteron 144@2.8GHz und dem Hiper Type-R Modular 580W Netzteil (Wirkungsgrad nicht gerade erste Sahne) unter Last gerademal 220W inkl. TFT. Nach fünf Stunden Zocken habe ich dann gerademal ca. 16.88Cent bezahlt......wow. Ein gutes Kaugummi kostet mehr.

Nehmen wir also ne 8800GTX un nen Quad-Core --> 310W. Jetzt noch den restlichen Dreck und wir sind bei ca. 400W unter Last.
Wer von euch hat nen Deckenfluter? Verbrauchsmessgerät ran, Dimmer auf vollen Saftdurchlass drehen und staunen :eek: --> 300W-400W.

Welchen High-End Besitzer interessiert das? Genau. Niemanden. ;)

Kannst du auch lesen?

Ich brachte das Beispiel einer Firma, die jeden Mitarbeiter mit so einem Teil ausstatten muß. Da akkumuliert sich das.

Und das sind auch "High-End-User", und zwar vernünftige.

Also proll hier nicht rum, sondern sieh die Sache mal auch so, dass halt nicht jeder deiner Meinung sein muß.

Android
2006-11-04, 21:04:49
Kannst du auch lesen?

Ich brachte das Beispiel einer Firma, die jeden Mitarbeiter mit so einem Teil ausstatten muß. Da akkumuliert sich das.

Und das sind auch "High-End-User", und zwar vernünftige.

Also proll hier nicht rum, sondern sieh die Sache mal auch so, dass halt nicht jeder deiner Meinung sein muß.

Welche Firma soll das denn sein?
Ich hoffe du kommst jetzt nicht mit Spielefirmen oder Entwicklern, ansonsten krieg ich nen Lachflash.
Wusste noch gar nicht das die Damen und Herren vom Bezirksamt neuerdings in der Pause ne Runde Quake4 im LAN spielen; und das mit High-End Karten. ;D

Gast
2006-11-04, 21:08:41
Immer dieses Stromkostengelaber.....*kotz*
Ich bin selber jemand, der gerne Strom spart. Aber was hier Leute für Argumente bringen ist echt der Brüller. Wenn sich jemand ein High-End System kauft, meint ihr dann die 16.88Cent pro kW/h jucken den dann?
Selbst bei nem utopischen 500W/h Verbrauch hat man dann nach 4 Stunden zocken am Tag 33.76Cent ausgegeben.....gehts noch?
Bei mir verbraucht ne X1800XT mit nem Opteron 144@2.8GHz und dem Hiper Type-R Modular 580W Netzteil (Wirkungsgrad nicht gerade erste Sahne) unter Last gerademal 220W inkl. TFT. Nach fünf Stunden Zocken habe ich dann gerademal ca. 16.88Cent bezahlt......wow. Ein gutes Kaugummi kostet mehr.

Nehmen wir also ne 8800GTX un nen Quad-Core --> 310W. Jetzt noch den restlichen Dreck und wir sind bei ca. 400W unter Last.
Wer von euch hat nen Deckenfluter? Verbrauchsmessgerät ran, Dimmer auf vollen Saftdurchlass drehen und staunen :eek: --> 300W-400W.

Welchen High-End Besitzer interessiert das? Genau. Niemanden. ;)

Schlechte Rechnung.
Erstmal muss du die anderen Sys-Komponenten außen vor lassen, weil man die auch schon jetzt bezahlen muss...

Zum anderen: Vorherige nV Gamerkarten kamen locker mit 60-80W unter Volllast aus. Die neuen brauchen aber 120-180.

Rechnen wir nun mal etwas praxisgerechter:
70 W vorher, 140 W jetzt, sind 70 W Unterschied.

Bei 5h Gaming am Tag: 280 W * 30 Tage = 8,4 KWh

ZUSÄTZLICHEN kommen dazu, ein Mehrverbrauch im IDLE Modus, der auch mal locker 30+ W mehr Beträgt (bei Nvidia)

15h idlen (also keine Grafikintensiven Anwendungen): 450 W * 30 Tage = 13,5 KWh

Was sehen wir hier? Oh wunder, der Verbrauch im Idle übersteigt sogar den Verbrauch, den man beim Zocken hat!

Sind 21,9 KWH die bei 17 Cent bereits [b]3,723 Euro pro Monat[/url] oder [b]fast 45 Euro im Jahr[/url] ausmachen.

Dabei habe ich sogar noch Werte genommen, die etwas untertrieben sind.
Denn der G80 braucht momentan sogar mehr Strom als die X1950 im Idle und alle GeForce 7 Karten liegen um WELTEN darunter.

Gast
2006-11-04, 21:09:57
Da sollte eigentlich 4h Gaming stehen... naja, dürfte euch schon aufgefallen sein.

Jedenfalls: Bei vielen Usern rennt der Rechner sogar noch länger, als die hier berechneten 19h pro tag...

Die gelbe Eule
2006-11-04, 21:13:15
Die Firma würde sich dann Quadros reinpacken, die mal eben das 5-6 fache kosten, Strom ist deren letztes Problem.

L.ED
2006-11-04, 21:22:32
Wenn eine GFX nichts weiter als nen Schwarzen Bildschirm Darzustellen hat und dafür dann noch immer 200w und mehr noch durchbrennt, wie es Aktuell u.a. mit dem Gf8 wohl sein wird?

Dann Interessiert das schon und zwar vor dem Hintergrund, des Ökologischen Un/Wahnsinns halt. :hammer: Und das man es durchaus ja besser bauen könnte (so ist ja nicht ^^)!

So und jetzt ma am Rande :| aber (wird Zeit!), hier brauch sich gar keiner Einbilden was besseres (ein höher gestellter Mensch) zu sein oder Darzustellen. Nur weil er eben ma schnippisch von sich behaupten kann, ,,na mir doch egal wat es braucht, ich hab’s’ ja pö!, ihr anderen seit einfach Looser, ich kann es mir leisten (Status Symbolik gehabe)’’. X-(

Das ist im höchsten Grade Unvernünftig und lässt an allgemeiner geistiger Reife Zweifeln, für die Zukunft bedarf es (allgemein gesellschaftlich) ein anderes Denken! Sonst ist über kurz oder lang Aus, für die Menschheit. man, man … (mögen sich die an dieser Stelle die Schuhe anziehen welche ihnen passen)

dargo
2006-11-04, 21:24:10
Dabei habe ich sogar noch Werte genommen, die etwas untertrieben sind.
Denn der G80 braucht momentan sogar mehr Strom als die X1950 im Idle und alle GeForce 7 Karten liegen um WELTEN darunter.
Oh man, wenn ich das wieder lese. Du glaubst doch nicht ernsthaft, dass die G8800GTX in Idle 70W verbraucht. :|
Warte doch erstmal die ausgereiften Treiber ab.

Gast
2006-11-04, 21:31:10
Oh man, wenn ich das wieder lese. Du glaubst doch nicht ernsthaft, dass die G8800GTX in Idle 70W verbraucht. :|
Warte doch erstmal die ausgereiften Treiber ab.

Lerne lesen, das habe ich niemals erwähnt!!!
Ich bin davon ausgegangen, das die G8800 GTX 140 W braucht, davon 70 W Unterschied zu einer 7900 GTX.
Und der idle Verbrauch letztgenannter Karte liegt noch deutlich unter einer vergleichbaren von ATI...

Gast
2006-11-04, 21:33:51
Immer dieses Stromkostengelaber.....*kotz*
Ich bin selber jemand, der gerne Strom spart. Aber was hier Leute für Argumente bringen ist echt der Brüller. Wenn sich jemand ein High-End System kauft, meint ihr dann die 16.88Cent pro kW/h jucken den dann?
Selbst bei nem utopischen 500W/h Verbrauch hat man dann nach 4 Stunden zocken am Tag 33.76Cent ausgegeben.....gehts noch?
Bei mir verbraucht ne X1800XT mit nem Opteron 144@2.8GHz und dem Hiper Type-R Modular 580W Netzteil (Wirkungsgrad nicht gerade erste Sahne) unter Last gerademal 220W inkl. TFT. Nach fünf Stunden Zocken habe ich dann gerademal ca. 16.88Cent bezahlt......wow. Ein gutes Kaugummi kostet mehr.

Nehmen wir also ne 8800GTX un nen Quad-Core --> 310W. Jetzt noch den restlichen Dreck und wir sind bei ca. 400W unter Last.
Wer von euch hat nen Deckenfluter? Verbrauchsmessgerät ran, Dimmer auf vollen Saftdurchlass drehen und staunen :eek: --> 300W-400W.

Welchen High-End Besitzer interessiert das? Genau. Keinen. ;)

Und jetzt bitte wieder zurück zum Thema:
Es gibt keinen ausführlichen Test, keine BQ-Vergleiche, keine kaufbare Karte und ihr spamt den Laden hier wieder mit eurem Nonsens zu. Wer von euch hat die Karte schon in Aktion gesehen? Wer hat sie zu Hause und kann uns tolles darüber berichten?
Ihr seid echt nicht besser als diese Geizhals-Hirnis, die schon Bewertungen abgeben, bevor ein Produkt auf dem Markt ist.

P.S.: Damit sind nur die Leute gemeint, die sich angesprochen fühlen. :D


Du solltest dich vielleicht lieber an den 2. Satz aus deiner Signatur halten. ;-)
Später lernt er dann, still zu sitzen und den Mund zu halten.

Vorallem wenn man so ein diskussionsunfähiger Klugscheisser ist wie du.
Es gibt genug gute Gründe sich über die ständig steigenden Stromverbrauch von Geräten (nicht nur Grafikkarten)zu ärgern. Und scheinbar haben beide großen Hersteller ja schon alle Hemmungen verloren und setzten uns solche "Verschwendungsmonster" vor. Und wenn man die Sache mal weiterspinnt betrifft das in Zukunft ja auch immer mehr die Midrange Karten die ja oftmals auch nur Ableger der Highendkarten sind....
Ich weiß ja nicht in welchem Elfenbeinschloß du wohnst, aber vernunftgesteuerte Leuten versuchen zumindestens ein bissel drauf zu achten das der Stromverbrauch übers Jahr gesehen in rationalen Grenzen bleibt. Es gibt auch Leute die nicht unbedingt einen monatlichen Abschlag von mehr als 70€ oder eine saftige Nachzahlung am Ende des Jahres haben möchten. Nein das Geld kann auch für sinnvolleres Ausgeben.

Android
2006-11-04, 21:34:11
Da sollte eigentlich 4h Gaming stehen... naja, dürfte euch schon aufgefallen sein.

Jedenfalls: Bei vielen Usern rennt der Rechner sogar noch länger, als die hier berechneten 19h pro tag...

Ähh......mehr als 19h am Tag? :| Das musst du mir mal erklären.
Also ich finde deine Rechnung ehrlich gesagt für die Tonne. Was vergleichst du denn alte Hardware mit neuer Hardware? Du bekommst ja schliesslich auch mehr Leistung dafür, und nicht nur höhere Stromkosten. Oder meinste en Hummer schluckt nur zum Spass 20-30Liter?

Und ja sorry, ich gehe von Menschen aus, die auch noch ein Leben ausserhalb ihrer virtuellen Welt führen -> Job, Studium, Freizeit, Sport etc..
Und alle anderen interessiert der Stromverbrauch doch dann erst Recht nicht.
Merkst du wie du dich im Kreis drehst? ;)

Beispieltag für meinen Rechner:
fünf Stunden Office --> 600W
zwei Stunden Spielen --> 440W
Summe: 1040W am Tag ergo 17.5552 Cent am Tag und 5.25€ im Monat. Ist das in Anbetracht der Leistung viel? Ich glaube nicht.

Android
2006-11-04, 21:38:31
Die Firma würde sich dann Quadros reinpacken, die mal eben das 5-6 fache kosten, Strom ist deren letztes Problem.

So siehts aus. ;)

@Gast:
Du glaubst doch nicht etwa, dass ich mich von so nem Kind wie dir provozieren lasse.
Hast ja noch nichtmal die Eier dich zu registrieren und musst dich hinter dem "Gast" verstecken damit du einmal am Tag auch was zu sagen hast. Du erbärmlicher Looser. :lol:

BTW: Deine Argumente sind so dämlich schlecht. Lass mich raten: Du rauchst, kiffst, säufst und bezahlst für jeden anderen Spass mit viel Geld. Aber der PC muss alles bringen und nichts kosten. Zeig allen Technikern wie das gehen soll und du wirst der zweite Zuse. Du bist in keinem Elfenbeinschloss gefangen, sondern in deiner eigenen Traumwelt, du Träumer.

Gast
2006-11-04, 21:40:40
Ähh......mehr als 19h am Tag? :|

Was ist daran besonders?
Ich arbeite z.B. 9h am Tag am PC und zusätzlich noch ein paar als Hobby und in der restlichen Zeit, wird z.B. defragmentiert, viren gescannt, heruntergeladen.

Also ich finde deine Rechnung ehrlich gesagt für die Tonne.

Deine noch viel mehr, denn ich wüsste nicht, was ein Quad Core mit dem Stromverbrauch einer Grafikkarte zu tun hat. :rolleyes:

Was vergleichst du denn alte Hardware mit neuer Hardware?

Ganz einfach: Weil die momentan zur Verfügung stehende Leistung solcher Karten für 95% aller Gamer noch völlig ausreichend ist und dabei trotzdem grad mal die Hälfte an Strom geschluckt wird.

Strom wird auch dann verbraucht, wenn die Karte nicht zum Einsatz kommt, selbst da ist die neue GeForce 8 um welten schlechter, als alles bisher dagewesene.

Du bekommst ja schliesslich auch mehr Leistung dafür, und nicht nur höhere Stromkosten.

Und was bringt mir das? Eine Zeitersparniss? Nö.
Lediglich hier und da mehr Frames, wenn ein Game auf aktuellen Karten mal nicht schnell genug läuft, was momentan eher die Ausnahme ist. AA ist noch lange kein Pflicht, kenne kein Game, das man nicht vernünftig mit einer 7900 GTX zocken kann...

tombman
2006-11-04, 21:40:58
Firma,...
Und das sind auch "High-End-User", und zwar vernünftige.
.
Sorry, aber Firmenkunden und @ home Enthusiasten sind doch ne gänzlich andere Zielgruppe. In der Firma hast QUADROS (für €€€€€€), homeuser hat Geforce. Glaub kaum, daß gute Spieleperformance in der Firma so wichtig ist, da gehts eher um Profiprogramme, ergo Quadro...

dargo
2006-11-04, 21:50:19
Lerne lesen, das habe ich niemals erwähnt!!!

Dann erkläre mir mal deinen Satz genauer.
Denn der G80 braucht momentan sogar mehr Strom als die X1950 im Idle ...

Android
2006-11-04, 21:51:56
Was ist daran besonders?
Ich arbeite z.B. 9h am Tag am PC und zusätzlich noch ein paar als Hobby und in der restlichen Zeit, wird z.B. defragmentiert, viren gescannt, heruntergeladen.



Deine noch viel mehr, denn ich wüsste nicht, was ein Quad Core mit dem Stromverbrauch einer Grafikkarte zu tun hat. :rolleyes:



Ganz einfach: Weil die momentan zur Verfügung stehende Leistung solcher Karten für 95% aller Gamer noch völlig ausreichend ist und dabei trotzdem grad mal die Hälfte an Strom geschluckt wird.

Strom wird auch dann verbraucht, wenn die Karte nicht zum Einsatz kommt, selbst da ist die neue GeForce 8 um welten schlechter, als alles bisher dagewesene.



Und was bringt mir das? Eine Zeitersparniss? Nö.
Lediglich hier und da mehr Frames, wenn ein Game auf aktuellen Karten mal nicht schnell genug läuft, was momentan eher die Ausnahme ist. AA ist noch lange kein Pflicht, kenne kein Game, das man nicht vernünftig mit einer 7900 GTX zocken kann...

Aso und weil du so spielst müssen alle anderen dann auch wie du, oder was? Und AA ist keine Pflicht....und jetzt? Was willst du uns damit sagen? Vielleicht das AA überflüssig ist? :| Angefangen bei 1600x1200 bei vollem AA und AF und höchsten Details. Schraub die Auflösung noch weiter hoch und ich will deine 7900GTX sehen.
Zwingt dich irgendeiner die Karte zu kaufen? Wenn du der Meinung bist, deine jetzige Karte reicht dir aus, dann behalte sie doch. Aber schreibe bitte den Leuten nicht vor, wie sie zu Spielen hätten. ;D

Gast
2006-11-04, 21:56:32
@Gast:
Du glaubst doch nicht etwa, dass ich mich von so nem Kind wie dir provozieren lasse.
.

Ist doch längst geschehen. Merkt man doch an deiner erbärmlichen Reaktion. *lol* Was soll sich denn ändern wenn ich mich registriere? Richtig, dann frühstückst du mich so richtig rhetorisch und intellektuell! Mit deiner charmant eleganten Ausdrucksweise wie in allen Threads, nicht wahr?.
Sag doch einfach alles was dir so auf dem Herzen liegt. Darin hast du doch schon Erfahrung, oder? Ich meine von der Couch auf der du zahlender Weise mehrmals wöchentlicht liegst...:)

Gast
2006-11-04, 21:57:11
Dann erkläre mir mal deinen Satz genauer.

Kann ich dir leicht erklären.

Dailytech hat die neue kurz angetestet, da verbrauchte sie im idle 45 W mehr als die Radeon X1950XTX.

Jetzt kennen wir ja bisherige Stromverbrauchsmessungen zwischen ATI und nVidia, da hat nvidia teilweise ein "paar" W besser abgeschnitten als Atis R1950...

Jetzt kann man also locker flockig den Unterschied berechnen. Der wäre selbst bei nur 5 W Unterschied zwischen R1950 und 7900 GTX bereits bei 50 W, was hieße, das die GeForce 8 auch mal locker flockige 50 W mehr als eine 7900 GTX im idle frisst.

Ich hoffe, das es vielleicht noch an den Treiber liegt, ansonsten wird das auch in der Realität so bleiben zum Release und das ist dann nicht mehr schön.

50 W Mehrbrauch, dauerhaft, egal ob ich die Karte nun nutze oder nicht ...

Ursprünglicher Gast
2006-11-04, 22:02:02
Aso und weil du so spielst müssen alle anderen dann auch wie du, oder was?

Hat das jemand behauptet? Nein.

Nur für mich und auch andere, ist es sehr ärgerlich. Ich zocke gerne, habe aber dennoch kein 500 W System hier stehen. Wozu auch? Es gibt auch sparsame Zockrechner, ala Core 2 Duo + 7950 GT.
Der würde beim aufrüsten auf eine GeForce 8 auch mal eben 50+ W mehr saugen, egal wann. Nicht schön.

Schraub die Auflösung noch weiter hoch und ich will deine 7900GTX sehen.

Nein, Du hast nicht verstanden worauf ich hinaus wollte. Ich kann mit einer 7900 GTX noch alles zocken. Wenn nicht auf höchster Stufe in 2048x1536, dann mache ich zuerst AA aus oder fahre es runter bzw, stell die auflösung auf 1600x1200.

Das ist mir dann immer noch lieber, als wenn ich nur, damit ich ein paar stunden in der Woche ein paar Ecken und Kanten weniger habe, jede Stunde 50 W mehr Strom bezahlen muss.

Wie ein anderer Member schon sagte: Es gibt auch High-End Käufer, die auf den Stromverbrauch achten. Zu einem Gamer-PC gehört noch lange kein Quad Core, das ist vollkommener Unsinn.

Außerdem kann sich das kaufen einer High End Karte selbst für Normaluser lohnen: Erste D3D10 Karte kaufen und 2 Jahre behalten - geht locker, aber sinnvoll ist es diesmal wegen dem hohen Stromverbrauch nicht.

dargo
2006-11-04, 22:03:12
Kann ich dir leicht erklären.
Dailytech hat die neue kurz angetestet, da verbrauchte sie im idle 45 W mehr als die Radeon X1950XTX.

Tja, woher wusste ich nur, dass das kommt. :biggrin:

Genau das ist das Problem. Was meinst du wie ich auf die ~70W Idle für die G8800GTX gekommen bin? ;)

Hättest du den G80 Thread in den letzten Tagen gelesen wüsstest du davon. Ich würde zu 99% auf einen fehlerhaften Treiber tippen. Denn ~70W in Idle wäre Blödsinn³ für eine Grafikkarte.

Gast
2006-11-04, 22:05:24
Tja, woher wusste ich nur das das kommt. :biggrin:

Scheinbar nicht, sonst hättest du nicht folgendes Posting gebracht:

Genau das ist das Problem. Was meinst du wie ich auf die ~70W Idle für die G8800GTX gekommen bin? ;)

Ich habe nie den Idleverbrauch berechnet, denn der ist bis dato unbekannt, sondern den Unterschied zwischen 7900 GTX und 8800 im Idle, denn der ist sehr wohl bekannt, aufgrund der von dailytest getesteten werten.

Gast
2006-11-04, 22:15:54
Vielleicht sollten einige Leute hier sich nochmal an ihre Manieren erinnern bevor sie posten.

Ich bin auch der Meinung das es der Zielgruppe, für die die Highendkarten des G80 bestimmt sind, sich nicht um den Stromverbrauch kümmern. Wem es zuviel Kosten verursacht kann sich die Karte so oder so nicht leisten und sollte sie nicht kaufen.

Vor allem sollte man einmal bedenken: G71 278 Mio Transistoren, G80 ca. 681 Mio. Das bei der Erhöhung der Transitorenanzahl im selben Fertigungsprozess der Stromverbrauch nicht geringer wird, ist ein physikalisches Gesetz und lässt sich nicht vermeiden. Vielleicht hat ja einer von Euch Stromverbrauchkritiker hier eine revolutionäre Idee, mit der man den Halbleitertransitor durch ein Bauteil ersetzen kann, was weniger Strom verbraucht. Ich denke nurmal daran was wir heute hätten, wenn wir noch mit Röhrendioden bauen würden - ^^.

Ansonsten bin ich sehr begeistert von den ersten Daten, die zum G80 erhältlich sind und hoffe, die Karten halten was sie versprechen.

dargo
2006-11-04, 22:20:25
Ich habe nie den Idleverbrauch berechnet, denn der ist bis dato unbekannt, sondern den Unterschied zwischen 7900 GTX und 8800 im Idle, denn der ist sehr wohl bekannt, aufgrund der von dailytest getesteten werten.
OMG. :uhammer:

Du wirst doch wohl 1 und 1 zusammen zählen können.
Hier sind nochmal die Werte von dailytech:

Radeon X1950 XTX GeForce 8800GTX
Idle
184 229

Load
308 321

So, und jetzt lese dir das mal hier durch:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4945746&postcount=1238

Wenn der Idle-Verbrauch einer X1950XTX bekannt ist (was der Fall ist) ist es doch nicht so schwer auf den Idle-Verbrauch der G8800GTX zu kommen. ;)

Gast
2006-11-04, 22:27:36
OMG. :uhammer:

:crazy: :crazy:
Ja, das habe ich mich beim Lesen deines Postings ebenfalls gedacht.

Du wirst doch wohl 1 und 1 zusammen zählen können

Wenn der Idle-Verbrauch einer X1950XTX bekannt ist (was der Fall ist) ist es doch nicht so schwer auf den Idle-Verbrauch der G8800GTX zu kommen. ;)

Das ist echt peinlich, das ich sowas noch lesen muss.

Mein Gott, zum Teufel nochmal.... wovon rede ich denn die ganze Zeit.

Das was dailytech und computerbase und und und gemessen haben, sind die Verbrauchswerte des >>>>KOMPLETTSYSTEMS>>>>>. Ich rechnete daher den BEKANNTEN Unterschied zwischen R1950 und 8800 GTX aus und schaute dann nach, wieviel eine R1950 mehr verbrauchte als eine 7900 GTX.
Dadurch habe ich den >>>Unterschied<<< NUR DER GRAFIKKARTE herausbekommen und BERECHNTE.

Und jetzt willst du mir weiß machen, das ich das nicht kann, obwohl ich es längst getan habe und Du sogar auf dem Holzweg bist? Ohje.

Tut mir leid, aber denke nochmal darüber nach. Ich werde nichts mehr dazu schreiben, das ist mir einfach zu dumm hier. Sowas lernt man in der Schule und bekanntlich gibt der Klügere nach.

dargo
2006-11-04, 22:41:36
@Gast

Hmm, anscheinend habe ich mich zu undeutlich ausgedrückt. Also nochmal zum mitschreiben (ich gehe mal davon aus, dass du verstanden hast wie ich auf die ~70W Idle-Verbrauch der G8800GTX gekommen bin).

Ich glaube einfach nicht an diese 70W. Dieses Problem hatte schon ATI mit seinem R520 beim Launch und den ersten Treibern. Die Stromsparfunktionen haben einfach nicht funktioniert, was mit späteren Treibern behoben wurde. Und genau das gleiche Problem sehe ich bei dem G80.

Deswegen finde ich jede Diskussion über den Idle-Verbrauch des G80 momentan sinnlos.

Heimatloser
2006-11-04, 22:52:32
Warum muß man sich eigentlich um so ein Thema wie Stromverbrauch gleich streiten ?
In meiner Firma sehe ich leider bei den meisten Mitarbeitern, daß nach der Arbeit nicht mal der Montior ausgeschaltet wird und sogar das Radio manchmal nur leise gedreht wurde und nicht aus ist.

In meiner Umgebung sehe ich leider viele Menschen denen die Umwelt nur dann wichtig ist, wenn es sie keinen Einsatz kostet.

Ich hoffe die "Stromsparer" handeln auch sonst so wie sie es hier darstellen.

Wenn ja wäre das natürlich gut.

DerHeimatlose

Android
2006-11-04, 23:30:25
Ist doch längst geschehen. Merkt man doch an deiner erbärmlichen Reaktion. *lol* Was soll sich denn ändern wenn ich mich registriere? Richtig, dann frühstückst du mich so richtig rhetorisch und intellektuell! Mit deiner charmant eleganten Ausdrucksweise wie in allen Threads, nicht wahr?.
Sag doch einfach alles was dir so auf dem Herzen liegt. Darin hast du doch schon Erfahrung, oder? Ich meine von der Couch auf der du zahlender Weise mehrmals wöchentlicht liegst...:)

Jetzt nich nur ein Dauergast, sondern auch noch ein Psycho. Woher kennst du meine Couch? Welche Farbe hat sie denn?
Zahlender Weise --> :confused:

Du Freak.

HotSalsa
2006-11-05, 01:49:58
Jetzt nich nur ein Dauergast, sondern auch noch ein Psycho. Woher kennst du meine Couch? Welche Farbe hat sie denn?
Zahlender Weise --> :confused:

Du Freak.

Glaube er meint den Psychiater :wink:

=Floi=
2006-11-05, 02:06:29
bin gespannt was die karte alles kann und wie es mit dem physikprozessor aussieht

tokugawa
2006-11-05, 05:09:15
Welche Firma soll das denn sein?
Ich hoffe du kommst jetzt nicht mit Spielefirmen oder Entwicklern, ansonsten krieg ich nen Lachflash.


Diese Beispiele wären gute Beispiele... aber auch Computergrafik-Forschungsinstitute wären nennenswert.

Warum du da einen Lachflash kriegst, ist mir schleierhaft, sind doch perfekte Beispiele.

Die Firma würde sich dann Quadros reinpacken, die mal eben das 5-6 fache kosten, Strom ist deren letztes Problem.

Hmm. Nein. Manche schon ja, aber nicht jene Arten von Firmen und Einrichtungen, an die ich denke.

Sorry, aber Firmenkunden und @ home Enthusiasten sind doch ne gänzlich andere Zielgruppe. In der Firma hast QUADROS (für €€€€€€), homeuser hat Geforce. Glaub kaum, daß gute Spieleperformance in der Firma so wichtig ist, da gehts eher um Profiprogramme, ergo Quadro...

Das ist so nicht ganz richtig. Quadros sind verbreitet bei Digital Content-Creation (CAD, 3D-Modelling), aber es gibt auch andere professionelle Anwendungsgebiete, wo eher GeForces bevorzugt werden.

Einerseits etwa Spieleentwickler (nona - die müssen ja genau für die Consumer-Hardware entwickeln, da ist Spieleperformance also wichtig), aber auch in der Echtzeitgrafikforschung werden eher GeForces präferiert. Wenn du dir etwa die GPU Gems-Bücher durchliest, sind Performance-Tests neuer Effekte immer mit Radeons oder GeForces durchgeführt worden.

Der Grund ist logisch: genau diese professionellen Anwendungsgebiete decken sich genau mit der Anforderung nach "Spieleperformance".


Zum Thema:
Bei dieser Diskussion um Stromverbrauch vermisse übrigens die Beachtung dass wir hier relativ international unterwegs sind. Ich trau mich durchaus zu behaupten dass hier in Wien die Strom- und Energiepreise recht hoch sind.

Und keine Sorge, ich spar woanders auch. Ich kann verstehen dass es absurd ist, wenn man bei der Graka sich Sorgen macht und dann überall die Lichter brennen lässt. Aber um solche Leute geht es hier ja nicht.

Dunkeltier
2006-11-05, 06:30:30
Findet ihr die ganze Strom-Diskussion nicht ein wenig überflüssig? Wieviel ein Motorrad bei 320km/h mit Vollgas auf der Autobahn verbraucht, interessiert doch auch kein Schwein. Wieso also über eine High-End Grafikkarte und dessen Stromverbrauch diskutieren? Solange sich die Geschichte im Rahmen hält, was bei mir 100-150W pro CPU oder GPU ist, gehts noch. Natürlich nur auf den High-End Bereich bezogen.

Und keine Angst, Mainstream-Produkte werden wohl mit einem Drittel der Leistung und des Safts auskommen.

tokugawa
2006-11-05, 07:05:14
Findet ihr die ganze Strom-Diskussion nicht ein wenig überflüssig? Wieviel ein Motorrad bei 320km/h mit Vollgas auf der Autobahn verbraucht, interessiert doch auch kein Schwein. Wieso also über eine High-End Grafikkarte und dessen Stromverbrauch diskutieren? Solange sich die Geschichte im Rahmen hält, was bei mir 100-150W pro CPU oder GPU ist, gehts noch. Natürlich nur auf den High-End Bereich bezogen.

Und keine Angst, Mainstream-Produkte werden wohl mit einem Drittel der Leistung und des Safts auskommen.

Überflüssig find ich es nicht, aber übertreiben sollte man auch nicht - für den Einzelanwender ist es wohl sowieso im geringen Bereich, und für die Kiddies, die zuhause leben und deren Eltern den Strom bezahlen kann es auch egal sein.

Trotzdem muß man ja nicht alles mitmachen. Strom und Energie wird immer teurer, gleichzeitig verbrauchen Hardwareprodukte (tendenziell) immer mehr - die Tendenz ist nicht gut, auch wenn sie derzeit einem noch nicht gravierend (vor allem nicht in Monatsraten bemerkbar) vorkommt.

Dunkeltier
2006-11-05, 07:12:02
Überflüssig find ich es nicht, aber übertreiben sollte man auch nicht - für den Einzelanwender ist es wohl sowieso im geringen Bereich, und für die Kiddies, die zuhause leben und deren Eltern den Strom bezahlen kann es auch egal sein.

Trotzdem muß man ja nicht alles mitmachen. Strom und Energie wird immer teurer, gleichzeitig verbrauchen Hardwareprodukte (tendenziell) immer mehr - die Tendenz ist nicht gut, auch wenn sie derzeit einem noch nicht gravierend (vor allem nicht in Monatsraten bemerkbar) vorkommt.


Mit den ca. 120-130W ist aber auch die "Höchstgrenze" erreicht. Zwar würde man noch dickere Kochplatten bauen können, allerdings würden dann die Netzteilanforderungen und die Kühllösungen ins Unermeßliche steigen. Ich denke, langfristig wird es sich ähnlich wie bei den CPUs entwickeln. Kommt also langsam wieder runter, bevor es durch Dual- oder Quad-Chip Konfigurationen nochmals nach oben hinauf zu Single-Chip Spitzenwerte geht.

yardi
2006-11-05, 09:52:14
Ich frage mich warum nvidia den genialen Heatpipe-Kühler der 7900GTX nicht übernommen hat.

Was meint ihr was das für einen Grund hat?

Wenn ich mir den popligen Lüfter (60mm?) im Zusammenhang mit dem Stromverbrauch und der wahrscheinlich daraus resultierenden hohen Wärmeentwicklung ankucke kommt mir nur eins in den Sinn: LAUT!!!

Könnte ich dazu noch ne Meinung von euch haben? Interessiert mich wirklich...

Undertaker
2006-11-05, 10:23:47
Könnte ich dazu noch ne Meinung von euch haben? Interessiert mich wirklich...

möglich, dass die konstruktion der 7900gtx auf sehr niedrige lüfterdrehzahlen und einen geringen luftdurchsatz ausgelegt war (u.a. über die lamellenabstände usw.) und dadurch bei relativ kühlen grafikchips bei sehr geringen drehzahlen sehr gut kühlen kann, jedoch nicht für heißere chips zu gebrauchen ist...

Gast
2006-11-05, 11:40:56
Ich glaube einfach nicht an diese 70W. Dieses Problem hatte schon ATI mit seinem R520 beim Launch und den ersten Treibern. Die Stromsparfunktionen haben einfach nicht funktioniert, was mit späteren Treibern behoben wurde. Und genau das gleiche Problem sehe ich bei dem G80.

Deswegen finde ich jede Diskussion über den Idle-Verbrauch des G80 momentan sinnlos.Genau so ist es. Es gibt keinen Grund warum ein G80 im Idle-Betrieb 70 Watt verbrauchen sollte. Es ist mit sehr hoher Wahrscheinlichkeit so, dass die Stromsparfunktionen im Treiber noch nicht aktiv sind. Wäre ja nicht das erste Mal, dass sowas vorkommt. Mit späteren Treibern wird ein G80 im Idle absolut gesehen nicht nennenswert mehr Strom verbauchen als ein R580 oder sogar ein G70.

Hoffentlich versteht das jetzt auch mal mein Gastkollege und alle anderen, die hier den Weltuntergang aufgrund des G80-Stromverbrauchs predigen. Unter Last mag der G80 ein wenig mehr Strom verbrauchen als ein R580, dafür bringt er auch deutlich mehr Leistung. Und außerdem: Wann läuft die Grafikkarte denn schon mal unter Volllast? Habt ihr ernsthaft die Zeit um 5 Stunden am Tag Computerspiele zu zocken? Unter Idle wird sich der Stromverbrauch des G80 kaum von bisherigen Karten unterscheiden.

Wartet doch einfach ein paar seriöse Tests mit offiziellen Treibern ab, dann wird sich schon herausstellen was Sache ist.

ertappt
2006-11-05, 11:47:23
sag mir Gründe warum der g80 nicht so viel verbrauchen wird

Gast
2006-11-05, 13:24:04
sag mir Gründe warum der g80 nicht so viel verbrauchen wirdIm Idle? Sag mir einen Grund warum er ohne Last 70 Watt (!) verbrauchen sollte. Ich sehe keinen. Er wird eventuell ein bisschen mehr verbrauchen als die jetzigen Karten, aber das wird nicht viel sein. Warum auch?

dargo
2006-11-05, 13:34:53
sag mir Gründe warum der g80 nicht so viel verbrauchen wird
Weil es ökonomisch Schwachsinn wäre. Es gibt keinen Grund mal eben 70W in Idle zu verbraten.

dildo4u
2006-11-05, 13:44:32
Wird bei Vista durch die Aero oberfläche nicht sowie so immer mit voller Taktrate gefahren?Dann wärs ja egal was die Karte im idle verbraucht.

Sonyfreak
2006-11-05, 13:49:35
Soweit ich weiß, gibt es für Aero einen "Low-Power" 3D Modus, bei dem die Karten immer noch Strom sparen können.

mfg.

Sonyfreak

dildo4u
2006-11-05, 13:52:11
Soweit ich weiß, gibt es für Aero einen "Low-Power" 3D Modus, bei dem die Karten immer noch Strom sparen können.

mfg.

SonyfreakMöglich aber da Vista noch nich Final ist wird das sicher noch nicht im Treiber enthalten sein.Also abwarten und dann testen dann kann man immer noch meckern ich meine eine 8800GTX will man ja wegen 3D10 sowieso so schnell wie möglich mit Vista betreiben.Also ist der Idle Verbrauch unter XP eigentlich Unbedeutend.

rpm8200
2006-11-05, 14:08:01
Weil es ökonomisch Schwachsinn wäre. Es gibt keinen Grund mal eben 70W in Idle zu verbraten.
Das hoffe ich sehr. Was ich mit meinem Ausgangsposting meinte war die generelle Akzeptanz von höheren Verbräuchen, wobei es technisch wohl problemlos machbar sein sollte, große Teile der GraKa einfach auch abzuschalten, wenn die Leistung nicht gebraucht wird und eben das wird ja immer noch nicht gemacht. Denkt mal nicht immer nur an Euer Wohnzimmer und Euer Arbeitszimmer und Euer Büro. Denkt mal an die Summe aller Rechner weltweit. Würden Teilabschaltungen von einigen Quads z.B. mal endlich realisiert während die Karte in 2D läuft, würde wohl weltweit gesehen ein Kernkraftwerk weniger benötigt. Und die Tendenz des Energiehungers ist steigend, nicht fallend.

Auch ich freue mich über mehr Grafikleistung, so ist es ja nun wieder nicht. Ich zocke gerne mit AA und AF und will auch künftig nen Fortschritt der Technik sehen. Ich gestehe der Karte auch eine Mehrleistung (in Watt relativ zu ihren Vorgängern) zu, wenn sie Ihrer Bestimmung gemäß (3D) genutzt wird. Ob sie nun während ich zocke 30 oder 50W mehr benötigt als meine alte ist mir dann in dem Moment auch weitgehend egal (es ist nicht so, dass ich mir das nicht leisten kann). Ich sehe nur absolut keine Bestrebungen, solche Technik auch mal sparsamer zu gestalten (was sicher keine Hexerei wäre) und vor allem zur Idle Zeit eben auch wirklich sparsam zu machen (10-20W). Denn den überwiegenden Teil des Einsatzes einer GraKa befindet sich diese sicher nicht im 3D Mode.

Kommentare wie die von Android z.B. zum Thema Spritverbrauch des Hummer lassen mich aber schon daran zweifeln, dass ein ökologisches Gesamtbewusstsein besteht. Ich finde, der Hummer als solches ist das beste Beispiel für die "scheißegal-Mentalität". Die Hummers die mit 160 über die Autobahn brettern sind nur eines: hochgradig unvernünftig. Ich habe selber etwas, das man als "Sportwagen" bezeichnen könnte, jedoch liegt der Verbrauch meines Wagens bei dem Tempo bei etwa 1/3 von dem was ein Hummer da weg pumpt. Es stört mich, dass solche Dinge überhaupt zum Verkauf angeboten werden und von Menschen ohne ökologisches Gesamtbewusstsein Ihrer Bestimmung entsprechend falsch und ökologisch nicht sinnvoll benutzt werden. Und ebenso stört es mich, dass die Grafikmonster künftiger Generationen augenscheinlich keinen Cent für Energiesparmechanismen "verschwenden".

Daher stimme ich mit der Meinung von L.ED und einigen anderen hier in vielen Punkten überein. Ich hoffe allerdings, dass der Verbrauch der 8800er (und auch der ATI Alernative) mit einem endgültigen Treiber auch ökologisch vertretbar sein wird (und gleichzeitig bin ich sicher, dass das resultat der Stromsparbemühungen noch mindestens um den Faktor 2 verbessert werden könnte unter idle).

Gast
2006-11-05, 14:48:11
Also ist der Idle Verbrauch unter XP eigentlich Unbedeutend.

Was für Vorstellungen manche Leute hier haben, einfach krank! :mad:

Der ist nicht unbedeutend. So lang keine nativen D3D10 Anwendungen da sind, was sicher mehr als nur 2 Jahre dauern wird, bevor mehr als die hälfte aller Anwendungen davon gebrauch macht, ist ein Einsatz unter Windows XP genauso wichtig wie unter Vista!

Warum auch nicht, die Karte ist in D3D9 sehr fix...

dargo
2006-11-05, 14:59:26
Also ist der Idle Verbrauch unter XP eigentlich Unbedeutend.
Hä?
Wer zwingt mich überhaupt die Aero-Oberfläche zu nutzen?
Je nachdem wieviel dieses Aero Strom frisst kann ich locker darauf verzichten. Ich brauche kein "buntes" Betreibssystem was zusätzliche Kosten verursacht.

Mmmmmh
2006-11-05, 16:51:24
Warum muß man sich eigentlich um so ein Thema wie Stromverbrauch gleich streiten ?
In meiner Firma sehe ich leider bei den meisten Mitarbeitern, daß nach der Arbeit nicht mal der Montior ausgeschaltet wird und sogar das Radio manchmal nur leise gedreht wurde und nicht aus ist.

In meiner Umgebung sehe ich leider viele Menschen denen die Umwelt nur dann wichtig ist, wenn es sie keinen Einsatz kostet.

Ich hoffe die "Stromsparer" handeln auch sonst so wie sie es hier darstellen.

Wenn ja wäre das natürlich gut.

DerHeimatlose

Hundertprozentige Zustimmung. Genau dasselbe ging mir beim Lesen der ganzen Strom-Diskussion auch durch den Kopf.

Gast
2006-11-05, 17:02:06
apropo stromverbrauch!

http://www.xtremesystems.org/forums/showthread.php?t=121980

http://www.iamxtreme.net/coolaler/8800GTX/12.JPG

is wohl doch nich so hoch wie einige hier wollen....

aber sonst is das hier wohl offtopic...

Gast
2006-11-05, 17:09:46
-Geforce 8800GTX-

Idle
127Watts

vga card running
243Watts

Freakazoid
2006-11-05, 17:10:33
Ich glaub die Ökonomie interessiert hier wirklich die wenigsten. Ich halte eher Ableiten der Wärme für ein größeres Problem. Karten werden immer größer und Kühler ebenso. Kann sich noch jemand an Aufschrei erinnern als die FX5800 Ultra mit Fön präsentiert wurde? Gegen heutige Karten ist das Teil richtig kompakt und kaum einen interessierts noch...

WEGA
2006-11-05, 17:17:48
Ich glaub die Ökonomie interessiert hier wirklich die wenigsten. Ich halte eher Ableiten der Wärme für ein größeres Problem. Karten werden immer größer und Kühler ebenso. Kann sich noch jemand an Aufschrei erinnern als die FX5800 Ultra mit Fön präsentiert wurde? Gegen heutige Karten ist das Teil richtig kompakt und kaum einen interessierts noch...
aber heutige sind relativ leise und die 5800U war das nicht.

Fetza
2006-11-05, 19:11:44
Was totaler Quark ist weil der G70 kein WU/HQAF kann also ist jeglicher Vergleich sinnlos weil der G80 schon mal so aus dem Stand eine viel bessere Optik bietet und zwar bei jedem Game.Und der Vergleich mit dem was es aktuell wirklich zu kaufen gibt bei der Konkurrenz ist Absolut gerechtfertig.Wie sich dann der G80 im 80nm Refresh macht gegen den R600 steht auf einem ganz anderen Blatt und beschäftigt uns whol Frühstens im März 2007.



Mit OC und Quad Core CPU sinds schon 13 fast 14000.

http://vic.expreview.com/attachment/1161849814.jpg

hmm, naja aber da wird ja auch eine quad cpu benutzt. Guck dir mal den cpu mark an. Das es dann insgesamt 11k werden is kein wunder.

greetz

Fetza

Gast
2006-11-05, 19:35:11
Hallo zusammen.

Ich will jetzt auch mal meinen Senf zum Thema Stromverbrauch und D3D10 Grafikkarten
(ist ja egal ob nVidia oder ATI) abgeben. Erstmal stimme ich RMP8200 in seinem
Posting (#118) vollkommen zu.

Zu sagen "Der Energieverbrauch ist mir egal, Hauptsache Leistung" ist an sich nur dumm!
Mit derselben Begründung könnte ich im Winter bei offener Heizung die Fenster aufreissen,
auf sämtliche Wärmedämmung verzichten, etc.pp.
Tatsache ist, daß die Stromkosten erheblich gestiegen sind und weiter steigen, dank
Privatisierung!

Ich empfehle jedem Mal ins Fitnesstudio zu gehen und auf einem Rad
40Watt Energie, soviel wie eine schwache Glühbirne verbraucht, zu
erzeugen.
Ihr glaubt gar nicht wie schnell ihr platt seid!

Ein Vergleich mit dem Auto ist sinnvoll. Ich selbst fahre täglich 43km zur Arbeit.
Ich behaupte mal, das sich der eine oder andere meine jährliche Spritrechnung nichtmal
leisten könnte. Die Bahn ist leider keine Alternative (trotz Ballungsraum Rhein-Main!),
da ich mit der Bahn 90 Minuten unterwegs bin, für eine Strecke von 30min im Auto.
Da mir die Kohle auch nicht egal ist, fahre ich so energiesparend wie möglich!

Genauso sehe ich das auch beim PC.
Mein derzeitiger Rechner hat einen Verbrauch von ca. 230 Watt im Desktop-Modus,
ca. 250Watt bei Spielen. Davon gehen ca. 90 Watt beim 19" Röhrenmonitor weg.
MIR ist dieser Verbrauch viel zu hoch! Leider gab es früher kaum Alternativen.
Mit einem TFT-Display (Anschaffung geplant) kann ich den Verbrauch bereits um
60 Watt mindern!
Die Aufrüstung des Rechners ist für die nächsten Wochen geplant.
Da wird garantiert eine energiesparende CPU (z.B. AthlonXP 4200+ X2 EE)
und eine möglichst energiesparende und trotzdem leistungsfähige Grafikkarte
(vermutlich ATI 1950Pro) eingesetzt.

So, nun könnt Ihr ja mal rechnen:
20 Watt bei der CPU gespart
20 Watt beim Chipsatz gespart (ATI/Uli/Via anstatt nVidia)
60 Watt beim Display gespart
20 Watt bei der Grafikkarte gespart

Das macht in Summe ca. 120Watt/Stunde. D.h. in knapp 9 Stunden 1KW weniger
Verbrauch. Und das macht sich durchaus in der Stromrechnung bemerkbar.

Es gibt aber auch noch andere Gründe:
- Silent-PC : da ist hoher Energieverbrauch = hohe Kühlleistung = Lautstärke
- unabhängige Stromversorgung
Wenn ich beispielsweise ein Haus mit Solarstrom betreibe, muß ich auf
niedrigen Energieverbrauch achten
- steigende Energiekosten
- Klimawandel
- "schlechte Zeiten"

Warum ich immer mehr Energie ausgeben soll für eine Grafikkartenleistung,
die ich zu 90% nicht benötige, das sehe ich nicht ein. Und ja - ich spiele
auch gerne am Computer.

Ein Vergleich des Rechners mit Elektrogeräten wie Waschmaschinen ist nicht
sinnvoll. Eine Waschmaschine läuft im Vergleich zum Rechner nur eine kurze
Zeit lang. Außerdem wurde bei Waschmaschinen, Kühlschränken, etc. in den
letzten Jahren viel getan um den Energieverbrauch zu reduzieren.

Klar, die Energieversorger freuen sich wenn wir Energie nur so zum Fenster
rausschiessen. Vielleicht gibt es deshalb auch so viele Standby-Stromverbraucher.
Auch das ist ein Punkt wo man viel Geld sparen kann.
Allein ein Rechnernetzteil schluckt bei ausgeschaltetem Rechner bereits
um die 20Watt für nichts!

Kleine Lektüre:
http://www.baumarkt.de/b_markt/fr_info/leerl.htm
http://www.pfalzwerke.de/welt_der_energie/energie_sparen/241.php

Mein Fazit:
Die erste D3D10 Grafikkartengeneration, vielleicht auch noch die 2.,
wird von mir komplett übersprungen. Ich kaufe JETZT eine Grafikkarte,
deren Energieverbrauch vertretbar ist.

Grüße,
Robin

Gast
2006-11-05, 19:51:04
und eine möglichst energiesparende und trotzdem leistungsfähige Grafikkarte
(vermutlich ATI 1950Pro) eingesetzt.
Naja, die x1950pro ist auch nicht gerade das Energiesparwunder. ;)

Gast
2006-11-05, 19:59:36
Naja, die x1950pro ist auch nicht gerade das Energiesparwunder. ;)

wie schauts mit der 7900GTO aus ist die sparsamer? Hat jemand genaue Werte?

tombman
2006-11-05, 20:06:05
Das macht in Summe ca. 120Watt/Stunde. D.h. in knapp 9 Stunden 1KW weniger
Verbrauch. Und das macht sich durchaus in der Stromrechnung bemerkbar.

Ach ja, wieviel CENT sinds denn genau? ;D;D

Total scheinheilig von dir: zuerst wegen 2 Stunden Lebenszeitverlust pro Tag mit dem Auto die Umwelt verpesten, aber dann beim PC die CENT zählen :rolleyes:

Gast
2006-11-05, 20:13:11
wie schauts mit der 7900GTO aus ist die sparsamer? Hat jemand genaue Werte?Die verbraucht praktisch genausoviel wie eine 7900GTX. In Anbetracht der Leistung ist der Stromverbrauch absolut in Ordnung. Absolut gesehen liegt sie wohl auf einem Niveau mit der x1950pro, wahrscheinlich sogar darüber.

Sehr sparsam ist z.b. die 7900GS. Allerdings liegt die von der Leistung auch unter der x1950pro.

boxleitnerb
2006-11-05, 20:15:40
Wie schon in einem anderen Thread gesagt: Die allermeisten, die Energieverbrauch bemängeln, spielen nicht unbedingt auf die Stromrechnung an, sondern auf die zunehmende Schwierigkeit, das Ding leise, billig und anständig zu kühlen.
Zumindest sehe ich das so. Ob die Karte in 3D nun 100W oder 200W frisst ist mir vom Kostenstandpunkt herzlich egal - da ess ich halt im Jahr 3 Kugeln Eis weniger :)

anderer Gast
2006-11-05, 20:19:39
Ach ja, wieviel CENT sinds denn genau? ;D;D

macht ca +/- 50€ im Jahr aus und das ist recht viel

puntarenas
2006-11-05, 20:34:07
Verzeihung wenn ich die Energieverbrauchdiskussion torpediere, aber kann mir mal jemand zu Verbesserungen bezüglich der Bildqualität der neuen Nvidia-Generation etwas flüstern, ich bin da leider nicht auf dem Laufenden?

dargo
2006-11-05, 20:36:32
Verzeihung wenn ich die Energieverbrauchdiskussion torpediere, aber kann mir mal jemand zu Verbesserungen bezüglich der Bildqualität der neuen Nvidia-Generation etwas flüstern, ich bin da leider nicht auf dem Laufenden?
Schau doch einfach in den G80 Thread rein.

Gast
2006-11-05, 20:38:42
Verzeihung wenn ich die Energieverbrauchdiskussion torpediere, aber kann mir mal jemand zu Verbesserungen bezüglich der Bildqualität der neuen Nvidia-Generation etwas flüstern, ich bin da leider nicht auf dem Laufenden?Winkelunabhängiges AF ohne Zwangsoptimierungen gilt als gesicherte Information. Dürfte also letztenendes besser als R580-AF sein. Beim AA gibt es Multisampling bis 8x und noch "VCAA"-Modi mit bis zu 16 Samples. Weiterhin natürlich die Hybridmodi, evtl. sogar ein paar neue. Reines OGSSAA ist jetzt in höheren Auflösungen möglich, da D3D10 ein 8192er-Rendertarget vorschreibt. 4x4 OGSSAA geht also bis 2048x2048.

Undertaker
2006-11-05, 20:43:26
macht ca +/- 50€ im Jahr aus und das ist recht viel

mit wieviel stunden volllast am tag rechnest du denn hier? ich würde von etwa 1-2h am tag für den schnitt der nutzer ausgehen...

r00t
2006-11-05, 20:44:34
-Geforce 8800GTX-

Idle
127Watts

vga card running
243Watts


nur graka oder komplettes sys?

AnarchX
2006-11-05, 20:46:28
nur graka oder komplettes sys?
Natürlich das komplette Sys, 243W gehen schlecht bei 2x 6-Pol-PCIe-Stromsteckern(a 75W) + einem PCIe-Slot mit 75W.;)

Gast
2006-11-05, 20:47:40
nur graka oder komplettes sys?
243 Watt für eine Graka wäre ein bisschen zuviel :ugly:

Ein Idle zu Last Unterschied von 116 Watt wäre auch zuviel für eine Graka.

Gast
2006-11-05, 20:49:33
mit wieviel stunden volllast am tag rechnest du denn hier? ich würde von etwa 1-2h am tag für den schnitt der nutzer ausgehen...

Nein, der Gast hat Recht, ich habs schon vorgerechnet.
Schon bei 4h Last pro Tag (+15h idle) erreicht man die 45-50 Euro Mehrkosten im Jahr.

Gast
2006-11-05, 20:51:00
Das bezieht sich natürlich auf "Poweruser" bzw. Powergame (nicht Quad Core XE-Käufer). Denn ein "Normaluser" kauft sich selten eine 500€ Karte...

Und bei so einem Typen wird der rechner sicherlich nicht nur 1-2h am Tag an sein...

=Floi=
2006-11-05, 21:23:20
bei uns in der firma laufen die comps die ganze woche und manche im büro auch übers wochenende obwohl niemand da ist
bei den discountern ist auch festbeleuchtung in der nacht etc.
und da redet ihr von einer kw std pro tag :rolleyes:
lächerlich

und im übrigen geht es hier um die 8800er serie von NV
wartet mal ab was ATI bringt ;D

Gast
2006-11-05, 21:26:52
Was haben Firmen jetzt bitte mit Privathaushalten zu tun? :rolleyes:

Low Rider
2006-11-05, 21:58:43
Leute, findet ihr die ganze Stromverbrauchsdiskussion nicht langsam lächerlich? Irgendwann kann man auch übers Ziel hinausschießen. Nichts gegen einen verantwortungsvollen Umgang mit Geld und Umwelt, aber was manche hier betreiben ist Erbsenzählerei. Wenn man in jeder Hinsicht so konsequent jedes Watt zählen würde, wäre das Leben ein einziger Krampf.
Wie viele Leute, die ihre ach so stromsparende Hardware lobpreisen, sitzen vor einem CRT und haben und im Hause etliche Standardglühbirnen im Einsatz...
Ich finde den (bisher bekannten) Verbrauch der GeForce 8 auch nicht löblich, aber wer so eine Zockerkarte haben will - bitte schön. Es ist lächerlich, wenn die verschwindend kleine Zahl an Computer-Enthusiasten sich jetzt für den Klimawandel verantworten soll. Bitte mal die Kirche im Dorf lassen!
Was müßte man nicht alles verpönen wenn man so denkt.
Wie gesagt - die Tendenz sollte zu erhöhter Energieeffizienz führen. Aber deshalb muß man doch nicht gleich in einen Öko-Terrorismus verfallen, wenn mal irgendwas aus der Reihe tanzt.

Übrigens, mit der GeForce 7900 Serie wurde doch bewiesen, daß eine neue leistungsstarke Grafikkarte kein großer Stromschlucker sein muss und bei den CPUs hat sich in der Hinsicht auch etwas getan.

Ich empfehle jedem Mal ins Fitnesstudio zu gehen und auf einem Rad
40Watt Energie, soviel wie eine schwache Glühbirne verbraucht, zu
erzeugen.
Ihr glaubt gar nicht wie schnell ihr platt seid!

Hm... also ich kann stundenlang @100W fahren :P

LovesuckZ
2006-11-05, 22:00:41
Übrigens, mit der GeForce 7900 Serie wurde doch bewiesen, daß eine neue leistungsstarke Grafikkarte kein großer Stromschlucker sein muss


Dies könnte jedoch nur bewerkstelligt werden, indem einige technische Aspekte nicht umgesetzt wurden sind. Nur kann diese Entwicklung nicht ewig betrieben werden.

Stebs
2006-11-05, 23:24:47
Möglich aber da Vista noch nich Final ist wird das sicher noch nicht im Treiber enthalten sein.Also abwarten und dann testen dann kann man immer noch meckern ich meine eine 8800GTX will man ja wegen 3D10 sowieso so schnell wie möglich mit Vista betreiben.Also ist der Idle Verbrauch unter XP eigentlich Unbedeutend.Es gab schon einen Test der den Stromverbrauch unter Vista zwichen Aero-Oberfläche und der klassischen Oberfläche verglichen hat. (Hab leider keinen Link parat)
Ergebnis: Sowohl bei Nvidia als auch Ati ist ein Mehrverbrauch wegen Aero-Benutzung fast nicht festzustellen, bzw. lag AFAIR immer unter 1W.
Also zumindest von der Seite her Entwarnung.

Android
2006-11-06, 01:21:12
Nein, der Gast hat Recht, ich habs schon vorgerechnet.
Schon bei 4h Last pro Tag (+15h idle) erreicht man die 45-50 Euro Mehrkosten im Jahr.

Warum machst du es so schwierig?

Hier mal ein Beispiel:
Opteron 144@2.8GHz Prozessor
ATI X1800XT 512MiB@Standard Grafikkarte
DFI NF4 Ultra-D Mainboard
Audigy Soundkarte
eine Festplatte
einen DVD-Brenner
drei 120mm Lüfter
ein Diskettenlaufwerk
eine optische Maus mit Kabel
eine beleuchtete Tastatur mit Kabel
580W Netzteil mit beschissenem Wirkungsgrad
19 Zoll TFT
2.1 Lautsprechersystem

Last: ca. 240W
Idle: ca. 150W

Bei 4h zocken am Tag:
240W*4=960W --> 0,17€/1000W=0,017€ pro Watt
0,017€*960W=16,32Cent pro Tag

16,32Cent*30=4,896€ pro Monat

Bei 15h (lächerlich...aber egal) Idle am Tag:
150W*15=2250W
0,017€*2250W=38,25Cent pro Tag

38,25Cent*30=11,47€ pro Monat


4,896€+11,47€=16,366€ pro Monat
16,366€*12=196,392€ im Jahr

54Cent pro Tag bei 360Tagen.

Und jetzt die wichtigste Frage: Wer lässt seinen Rechner konstant 19h am Tag das ganze Jahr laufen? Die Rechnung ist derart utopisch....omg.

Eher mit realistischem Durchschnittswert (also externe Faktoren wie Urlaub etc. berücksichtigt):

Beispielprofil:
2h zocken pro Tag
4h Idle pro Tag

Damit konstant 6h/Tag in Betrieb.

Zur Erinnerung:
Last: ca. 240W
Idle: ca. 150W

Das macht 67,014€ im Jahr. Das wären dann 18,36Cent pro Tag.



So, und mit diesen Zahlen verabschiede ich mich von dieser "Stromsinnlosdiskussion" und beschäftige mich wieder mit wichtigeren Dingen, da ich ja jede Sekunde Strom verbrauche.
Nur mal zum Verständnis: Stromsparen ist vorbildlich. Man sollte, wo man kann und will, dies auch umsetzen. Aber man sollte dabei realistisch bleiben und nicht den Freakstatus erreichen. Ich hätte auch nichts dagegen, wenn man möglichst stromsparende Techniken verwendet. Viele Technologien aus der Mobile-Technologie könnte man in Betracht ziehen. Aber die 8800er ist im Vergleich zur Leistung und Transistorzahl ein wahres Stromsparwunder. Vergleiche mit einer ATI wurden doch schon verlinkt.
Also hört bitte auf den Teufel an die Wand zu malen und jedesmal den Entwicklern an den Karren zu pissen. Wenn ihr euch beschweren wollt, dann tut das bei den gierigen Stromanbietern und dem Staat. Denn die sind dafür verantwortlich, dass wir alle zu viel zahlen.

Mfg
Android

Gast
2006-11-06, 01:37:02
Und jetzt die wichtigste Frage: Wer lässt seinen Rechner konstant 19h am Tag das ganze Jahr laufen? Die Rechnung ist derart utopisch....omg.

Ich! Da bin ich nicht der einzige, in meinem Bekanntenkreis mindestens zwei Leute ebenfalls.
Was ist daran ungewöhnlich? Das musst Du mir mal erzählen.

Außerdem wüsst ich nicht, was DEIN System mit der hier besprochenen Grafikkarte zu tun hat. Hast du die im Rechner? Nein? Warum posten du dann deine Ergebnisse, die nichts über das sagen, worüber hier diskutiert wurde!?

Low Rider
2006-11-06, 01:51:07
Warum läßt jemand, der piepslich beim Stromverbrauch ist, seinen Rechner den ganzen Tag laufen?

rpm8200
2006-11-06, 05:58:20
Ich muss mal eben zum Stat von LowRider Stellung nehmen, weil es so gut passt (soll kein persönlicher Angriff sein).

Es ist lächerlich, wenn die verschwindend kleine Zahl an Computer-Enthusiasten sich jetzt für den Klimawandel verantworten soll.Genau falsch verstanden bzw. hat das niemand so gesagt (ich auf keinen Fall). Der Energieverbrauch insgesamt, global, weltweit gesehen steigt rasant an. Für den Klimawandel ist vielleicht auch nicht einmal der Mensch allein verantwortlich, denn es gibt schon immer Tendenzen der Natur, sich im Verlaufe von Jahrtausenden klimatisch zu verändern. Wenn man aber ein wenig die verschlafenen Äuglein auf macht sieht man, dass sich Naturkatastrophen in letzter Zeit aufgrund allgemein steigender Energieumsetzung extrem stark häufen. Wenn jeder denkt "ist mir doch egal" (=egoistisch) oder "mein Nachbar verbraucht ja noch mehr als ich" (=zu klein gedacht) oder "ich kann es mir leisten" (der kleine Haufen Dreck auf dem wir Leben und der sich Erde nennt leider in der Summe aller Bewohner nicht!), so wird sich auch nix ändern. Dass ich beim Thema GraKas hier eine Energiediskussion unterstütze mache ich nur, weil gerade die GraKas in den letzten Jahren absolut gesehen ungeheuer viel Energie im Bereich PC killen. Zudem wäre es sehr leicht machbar global gesehen sehr sehr viel Energie einzusparen, wenn Energiesparmechanismen mehr Gewicht hätten.

Dabei geht es mir eigentlich am allerwenigsten um den eigenen Geldbeutel. Denn ob ich nun 60 Euro mehr oder weniger für Strom ausgebe ist mir eigentlich egal. Ich sehe es nur nicht ein, dass sinnlos Leistung angeboten wird, die dann im nichts verpufft, da sie nicht genutzt wird.

Die Tendenz dazu ist ebenfalls in allen Lebensbereichen steigend. Immer sinnlosere Autos werden auch immer größer, werden zweckentfremdet (siehe Hummer (oder auch die bescheuerten SUVs generell) auf der Autobahn = 40 Liter Sprit auf 100km und dann sitzt am Ende nur ein einzelner Mensch drin!) und in diesem Ausmass nicht benötigt. Und bei GraKas ist es das selbe. Solange eine GraKa nicht auf 20-30W im idle (2D) Mode beim Verbrauch liegt, ist das einfach nur traurig. Bei einem Auto das im Stand läuft wünscht man sich auch, dass es nicht soviel Sprit verbraucht als würde man gerade Vollgas auf der Bahn heizen.


Was müßte man nicht alles verpönen wenn man so denkt.
Wie gesagt - die Tendenz sollte zu erhöhter Energieeffizienz führen.

Siehe mein obiges Statement. Es gibt viel zu verpönen (soweit stimme ich Dir vollkommen zu), traurig ist, dass es in der breiten Masse nicht so gemacht wird und eben keinerlei ökologisches Bewusstsein besteht.

Aber deshalb muß man doch nicht gleich in einen Öko-Terrorismus verfallen, wenn mal irgendwas aus der Reihe tanzt.
Das habe ich nicht vor. Ich habe selbst ein Auto (sagte das bereits), ich fahre selber auch gern mal schnell und würde wie der Gast auch nicht 90 Minuten Zug fahren, wenn ich mit dem Auto in 30 Minuten da sein kann. Das hat auch was mit Effizienz zu tun. Ich will meine kostbare Freizeit nämlich mit Dingen verbringen, die mir Spass machen (und 2 Stunden pro Tag weniger sind im allgemeinen 25% weniger Freizeit, wenn man mal von 8 Stunden Arbeit, Schlaf und Freizeit ausgeht). Dass der Gast mit dem Auto in die Arbeit fährt statt mit dem Zug kann man ihm auch nicht ernsthaft vorwerfen (@tombman), solange er es nicht mit nem Hummer (aka 40Liter/100km) tut.

... und bei den CPUs hat sich in der Hinsicht auch etwas getan.
Stimmt. Leider noch lange nicht genug. Wenn ein Rechner idle dahin dümpelt ohne viel zu tun sollte er unter 30Watt pro Stunde liegen (IMO, darf auch gern weniger sein). Bei Notebooks klappt das ja auch. Einem Desktop gestehe ich aufgrund dem Mehranteil von elektronischen Bauteilen auch mehr zu. Und das ist derzeit noch nicht der Fall. Generell sollte es schon nen deutlichen Unterschied machen ob ich Zocke (=Volllast), ein bisschen in Word herum pfusche (=Teillast) oder gerade leer im Desktop laufe (=Nulllast). Wenn der Rechner unter Volllast 250 Watt braucht -> nicht optimal, aber gut, dann soll es so sein. Unter Teillast sollte der selbe Rechner dann aber schon deutlich unter 100W liegen und Nulllast eben bei 30W oder weniger. Unter Teillast könnte man jede gänge Multicore CPU auf einen Core stutzen und zudem noch auf 800MHz drosseln, das reicht für alle gängigen Anwendungen und vor allem Anwendungsprofile locker. Die meisten User machen eben nicht hochtrabende Dinge mit dem C2D oder dem FX60... Surfen... mp3 hören, CDs/DVDs brennen, Brief in Word tippen, eMails schauen... ... belanglosen Kram, den jeder PIII-500 schafft.

Nochmal @LowRider: Das sollte kein Angriff auf Dich oder Deine Person sein, ich habe nur Deine Quotes als Aufhänger genommen, da die Diskussion in Erbsenzählerei abdriftet (s. Posting von Android, der irgendwelche Verbräuche ausrechnet, worum es mir gar nicht geht) und ich nochmals heraus stellen wollte worum es mir dabei geht.

Mein Kritikpunkt an der neuen GraKa Kartengeneration ist, dass Energie- Effizienz wieder mal vollkommen egal ist (Hauptsache Leistung) und eben, dass das niemanden stört (=nichtvorhandensein eines breiten ökologischen Bewusstseins).

Wir selbst können leider nicht viel machen in der Beziehung (auch das ist mir klar), ich hätte nur gern dass jeder die Fähigkeit entwickelt etwas globaler zu denken und angebotene Produkte auch mal unter einem anderen Aspekt zu betrachten als deren Leistung (die natürlich ohne Zweifel ausschlaggebend bleibt). Denn dann gehen Hersteller vielleicht auch mal irgendwann darauf ein und verbessern die Produkte in diesem wichtigen Punkt.

Ich habe die Hoffnung, dass die Zahl der Menschen steigt, die auf mehr als ihre eigene Stromrechnung schauen. Das hat nichts mit Ökoterrorismus zu tun. Ich will mich auch möglichst wenig einschränken lassen und auch nicht auf Leistung verzichten, ich möchte nur, dass Energie/Leistung nicht sinnlos verbraucht wird, denn die Energiebilanz global gesehen ist nicht okay und dass wir damit ein generelles Problem haben sollte irgendwie doch jeder mitbekommen haben.

puntarenas
2006-11-06, 08:19:01
Ich will mich auch möglichst wenig einschränken lassen und auch nicht auf Leistung verzichten, ich möchte nur, dass Energie/Leistung nicht sinnlos verbraucht wird, denn die Energiebilanz global gesehen ist nicht okay und dass wir damit ein generelles Problem haben sollte irgendwie doch jeder mitbekommen haben.

Ironischerweise ist ja bereits breiter wissenschaftlicher Konsens (die UN-Berichte und Stellungnahmen deutscher Klimaforschungsinstitute liefert Google sicher gern, ansonsten einfach mal in den Medien verfolgen), dass binnen 10 Jahren der Energieverbrauchs durch Verwendung von Energiespartechnologien und die Hälfte reduziert werden könnte, ohne auch nur im Geringsten auf Annehmlichkeiten zu verzichten.

Voraussetzung für ein Umschwenken wären aber verbindliche, internationale Richtlinien, denn solange ein Konzern billigen "nach-uns-die-Sintflut"-Schweinkram produzieren kann, ziehen die Konkurrenten natürlich nach um nicht im fehlgeleiteten Wettbewerb den Anschluss zu verlieren und die Legende vom "mündigen Bürger, der mit den Füßen abstimmt" wird doch immer dann gern erzäht, wenn Konzerne sich lieber einer Selbstverpflichtung unterwerfen möchten.

Noch nicht einmal die Fanboykriege zwischen ATI und Nvidia-Anhängern würden übrigens beeinträchtigt, beide müssten ja intelligentere Produkte entwickeln.

MikBach
2006-11-06, 09:24:17
Kurze Zwischenfrage. :)

Wie ist die Verlustleistung unter 2D?
Bei 3D mag die Verlustleistung noch angemessen sein, aber um ein 2D-Bild zu realisieren reichen auch 10 Watt...:wink:

Gruß M_B

L.ED
2006-11-06, 09:42:48
Nun es währe doch mal eine Maßnahme (ein kleine aber sicher wirksame in diesen Zeiten), das bei Gerätschaften neben den Anschaffungspreis auch die Laufenden Kosten im Laden, darunter per Gesetzt angegeben werden müssen! :eek:

Und zwar so das jeweils noch zusätzlich eine Beispielhafte, auf dem Durchschnittshaushalt zurecht gestutzte Rechnung anbei, jeweils Bezug nehmend auf aktuelle Stromkosten Lage. :|

Oh ich glaube so schnell könnte man gar nicht kucken wie die Industrie springen täte und wir Beispielsweise auf Computer Bezogen, ganz fix Technologien im Desktop hätten wie se in den Tragbaren gang und gäbe. (ne 30w Idle HighEnd Hardware ist eben beileibe nicht Fiktion!)

Ein weiterer Nebenbeieffekt währe, dass sich ne breitere Masse kollektiver öffentlich fragen täte, wieso wir am Strommarkt eigentlich kein wirklichen Wettbewerb haben?, naja aber das nur am Rande. :wink:

Und um u.a. diese Punkte geht es, das hat @rpm8200 hier noch einmal sehr schön herausgekreidet. Das um einiges Einsparren durchaus möglich und man trotzdem nichts, aber auch gar nichts an Leistung (wenn sie mal gebraucht), deshalb einbüßt.

Man bricht sich also kein Zacken aus der Krone oder müsste sich wirklich in Verzicht üben.

Wichtig ist, dass DIESES Denken allgemein sich etabliert, ein Globaleres Bewusstsein welches in Zukunft noch sehr viel weiter um sich greifen wird müssen. (wenn die Menschheit als solche noch einwenig länger dem Universum erhalten bleiben soll/will?)

MikBach
2006-11-06, 09:46:36
Kurze Zwischenfrage. :)

Wie ist die Verlustleistung unter 2D?
Bei 3D mag die Verlustleistung noch angemessen sein, aber um ein 2D-Bild zu realisieren reichen auch 10 Watt...:wink:

Gruß M_B
Hat sich geklärt:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4954767&postcount=1761

Nvidia tickt doch nicht mehr ganz sauber.

So können die sich die Karten dahinschieben, wo die Sonne nicht mehr scheint...:P

Gast
2006-11-06, 09:55:52
Warum machst du es so schwierig?

Hier mal ein Beispiel:
Opteron 144@2.8GHz Prozessor
ATI X1800XT 512MiB@Standard Grafikkarte
DFI NF4 Ultra-D Mainboard
Audigy Soundkarte
eine Festplatte
einen DVD-Brenner
drei 120mm Lüfter
ein Diskettenlaufwerk
eine optische Maus mit Kabel
eine beleuchtete Tastatur mit Kabel
580W Netzteil mit beschissenem Wirkungsgrad
19 Zoll TFT
2.1 Lautsprechersystem

Last: ca. 240W
Idle: ca. 150W

Bei 4h zocken am Tag:
240W*4=960W --> 0,17€/1000W=0,017€ pro Watt
0,017€*960W=16,32Cent pro Tag

16,32Cent*30=4,896€ pro Monat

Bei 15h (lächerlich...aber egal) Idle am Tag:
150W*15=2250W
0,017€*2250W=38,25Cent pro Tag

38,25Cent*30=11,47€ pro Monat


4,896€+11,47€=16,366€ pro Monat
16,366€*12=196,392€ im Jahr

54Cent pro Tag bei 360Tagen.

Und jetzt die wichtigste Frage: Wer lässt seinen Rechner konstant 19h am Tag das ganze Jahr laufen? Die Rechnung ist derart utopisch....omg.

Eher mit realistischem Durchschnittswert (also externe Faktoren wie Urlaub etc. berücksichtigt):

Beispielprofil:
2h zocken pro Tag
4h Idle pro Tag

Damit konstant 6h/Tag in Betrieb.

Zur Erinnerung:
Last: ca. 240W
Idle: ca. 150W

Das macht 67,014€ im Jahr. Das wären dann 18,36Cent pro Tag.



So, und mit diesen Zahlen verabschiede ich mich von dieser "Stromsinnlosdiskussion" und beschäftige mich wieder mit wichtigeren Dingen, da ich ja jede Sekunde Strom verbrauche.
Nur mal zum Verständnis: Stromsparen ist vorbildlich. Man sollte, wo man kann und will, dies auch umsetzen. Aber man sollte dabei realistisch bleiben und nicht den Freakstatus erreichen. Ich hätte auch nichts dagegen, wenn man möglichst stromsparende Techniken verwendet. Viele Technologien aus der Mobile-Technologie könnte man in Betracht ziehen. Aber die 8800er ist im Vergleich zur Leistung und Transistorzahl ein wahres Stromsparwunder. Vergleiche mit einer ATI wurden doch schon verlinkt.
Also hört bitte auf den Teufel an die Wand zu malen und jedesmal den Entwicklern an den Karren zu pissen. Wenn ihr euch beschweren wollt, dann tut das bei den gierigen Stromanbietern und dem Staat. Denn die sind dafür verantwortlich, dass wir alle zu viel zahlen.

Mfg
Android

Ich bezweifle jetzt hier mal ganz stark das dein System nur 150 Watt im Idle und 240 Watt bei Last verbraucht. Du solltest lieber mal nachmessen.

Mein System:
Conroe 6400 (normal Takt)
x1600pro AGP (normal Takt)
1 GB Speicher
400 Watt Netzteil
1xFestplatte
1x Diskette
1x Maus
1x Tastatur

Idle: 160 Watt
Last: 220 Watt

Ferengie
2006-11-06, 10:59:24
Also ich wäre sofort bereit eine neue Graka zukaufen, wenn die Stromsparfeature wie ein Cool'n'Quiet von AMD hätte.

Genialer wäre es aber, die Karte im 2D komplett abzuschalten und mittels Bus/Kabelweiche auf Onboard zurückzugreifen. Einsparung +100W

AMD/ATI haben angekündigt, dass die übernexte Chipversion auf jeden Fall sparsamer sein werden. Wenn ATI sowas raus bringt, muss Nvidia auch nachziehen, aber solang keiner den ersten Schritt macht oder die Käufer sowas verlangen....

Gast
2006-11-06, 11:14:33
http://www.mindfactory.de/cgi-bin/MindStore.storefront/DE/Product/0024017?pid=geizhals

11UHR zwei stück auf Lager

up¦²
2006-11-06, 11:28:56
+++EILMELDUNG+++
We have received news that all the 8800GTX cards out in the channel are being recalled due to manufacturing defect. We heard it is probably due to a resistor controlling 2D/3D switching and that leads to 3D corruption. However, the defect doesn't affect the 8800GTS cards. This issue probably could delay the launch, if not, there could be no availability of 8800GTX cards at launch but just GTS.

Update #1 : No affect on launch date as yet
Update #2 : NVIDIA will handle the necessary hardware changes (changing of resistors)
Update #3 : Only some 8800GTX cards are affected due to wrong resistor value by a contract manufacturer but to be safe, all the card makers are recalling their cards
Quelle: http://www.vr-zone.com/?i=4253

Coda
2006-11-06, 11:32:39
Du bist mal wieder viel zu spät (Eilmeldung :rolleyes:). Das wissen wir schon ein paar Stunden...

up¦²
2006-11-06, 11:36:16
Du bist mal wieder viel zu spät (Eilmeldung :rolleyes:). Das wissen wir schon ein paar Stunden...
Sorry, seh da kein prob, lieber 1x zu viel als garnicht :wink:

Marodeur
2006-11-06, 12:01:12
Mal ne allgemeine Frage.

Der Kühler auf der Karte vom ersten verlinkten Test hier ist wohl der Standardkühler oder? Schaut mir nach typischen, kaum erträglichen, Raudaubruder aus oder täusch ich mich da?

Gast
2006-11-06, 12:26:21
Bei Mindfactory sind noch 2x8800GTS von Sparkle auf Lager gelistet. Allerdings finde ich 529€ überteuert, soviel werden die GTX in einer Woche kosten...

SentinelBorg
2006-11-06, 12:30:22
Ah, endlich kommt die Diskussion mal aufs Thema zurück. Nämlich wo es welche für welchen Preis gibt.

Dazu stelle ich auch gleich mal noch die Frage in den Raum, wer welche Spiele mitliefert?

Bisher bekannt:
Leadtek: Spellforce 2, Trackmania
Asus: Ghost Recon AW

Sentinel

Gast
2006-11-06, 12:41:19
Hab soeben von Arlt folgende Infomail bekommen:

"Die Karten werden ca. 1 Woche nach Auslieferung in unseren Filialen zum Kauf zur
Verfügung stehen.
Eine Reservierung ist erst nach Auslieferung möglich."

D.h. sie bekommen erst nächste Woche Karten zugeteilt.
Bei IngramMicro sind sie immer noch nicht gelistet...

dargo
2006-11-06, 12:56:09
Hat sich geklärt:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4954767&postcount=1761

Nvidia tickt doch nicht mehr ganz sauber.

So können die sich die Karten dahinschieben, wo die Sonne nicht mehr scheint...:P
Auch für dich MikBach (wenn ich mich ständig wiederholen muss :rolleyes:). Diese ~70W Idle-Verbrauch der G8800GTX können niemals stimmen. Jetzt warte doch erstmal die nächsten ~2 finalen Treiber ab.

http://www.mindfactory.de/cgi-bin/MindStore.storefront/DE/Product/0024017?pid=geizhals

11UHR zwei stück auf Lager
530€ für eine GTS? :ucrazy:

Die wird bei ~400€ bei guter Verfügbarkeit liegen.

Mr.Soapdown
2006-11-06, 13:06:20
Wenn ein Mod alles rauslöschen würde was off-topic ist hätt ich nicht 45 Minuten gelesen für NIX und unnötig Strom verballert.

Stromparen ??? LOL, jetzt 5,5 euro für´n PC und nach dem Aufrüsten 7 Euro.

Ich verzichte nur auf 2 Eiskugeln..... war ein nettes Beispiel.

Frank1974
2006-11-06, 13:08:02
530€ für eine GTS? :ucrazy:

Die wird bei ~400€ bei guter Verfügbarkeit liegen.

Sie sind aber schon weg, also irgendeiner war auch mit dem Preis einverstanden :|, aber 400€ Glaube ich nicht, die 7950GX2 liegt jetzt seid July bei 480-520€ und die GTS hat auch keine Konkurenz von ATI zu fürchten, also was hält NV davon ab höhere Preise zunehmen?

mfg
Frank

SentinelBorg
2006-11-06, 13:08:04
Hab soeben von Arlt folgende Infomail bekommen:

"Die Karten werden ca. 1 Woche nach Auslieferung in unseren Filialen zum Kauf zur
Verfügung stehen.
Eine Reservierung ist erst nach Auslieferung möglich."

D.h. sie bekommen erst nächste Woche Karten zugeteilt.
Bei IngramMicro sind sie immer noch nicht gelistet...
Der Moment ab dem die Karten bei IngramMicro gelistet sind würde mich auch interessieren. Falls sie jemand dort entdeckt, bitte gleich hier posten. Danke! :)

Sentinel

dargo
2006-11-06, 13:15:51
Sie sind aber schon weg, also irgendeiner war auch mit dem Preis einverstanden :| ...

Ein paar Freaks gibts immer.


, aber 400€ Glaube ich nicht, die 7950GX2 liegt jetzt seid July bei 480-520€ und die GTS hat auch keine Konkurenz von ATI zu fürchten, also was hält NV davon ab höhere Preise zunehmen?

http://www.geizhals.at/deutschland/a224910.html

Weit ist es bis 400€ nicht mehr. Ich weiß, ist momentan ein schlechtes Beispiel da noch keine verfügbar sind. Trotzdem würde ich von ~400€ (wenn die Verfügbarkeit stimmt) in ca. 3-4 Wochen ausgehen. Wobei man auch bedenken muss, dass wir dann Weihnachtszeit haben. Die Preise könnten also "künstlich" hochgehalten werden.

Die GX2 würde ich nicht als Konkurenz sehen. Die bietet noch lange nicht das was ein G80 zu bieten hat und die Karte wird wohl schnell vom Markt verschwinden. Die Konkurenz hat zwar momentan nichts zu bieten. Man kann aber auch die Konkurenz dazu zwingen die Preise zu senken.

SentinelBorg
2006-11-06, 13:20:15
Ein paar Freaks gibts immer.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4955186&postcount=1812
^^

Gast
2006-11-06, 13:31:35
Ich! Da bin ich nicht der einzige, in meinem Bekanntenkreis mindestens zwei Leute ebenfalls.
Was ist daran ungewöhnlich? Das musst Du mir mal erzählen.

Außerdem wüsst ich nicht, was DEIN System mit der hier besprochenen Grafikkarte zu tun hat. Hast du die im Rechner? Nein? Warum posten du dann deine Ergebnisse, die nichts über das sagen, worüber hier diskutiert wurde!?

Einfach nur noch anstrengend sowas :(

Ich habe einen Gateway/Proxy/Firewall-Rechner, der mit unter Last nicht mal 90 W komplett braucht und wenn ich große Downloads machen, ist das Display (ein 15" TFT) aus!
Zum Zocken nimmt man einen anderen Rechner!!! Da kommen die Strommonster rein wie Quadcore/G80/Raptorplatten usw.
Ich zocke 4h bis 5h am Tag. Mein Gateway Rechner ist 24h online.

Wenn ihr Öko-Terror-Typen mit einer G80 Graka surft oder anstatt zu spielen und dann euch über Stromverbrauch aufregt, dann ist das unveranwortlich. Denn genau ihr seit es, die mit dem Hummer auf der Autobahn fahrt, anstatt im Gelände, für das das Fahrzeug vorgesehn ist.
Wenn ihr Aero-Glass-Oberfläche bestaunen wollt ohne was am Rechner zu machen, ist genauso hirnrissig. Schaltet die Oberfläche aus und gut. Was schaltet ihr diese erst ein und regt euch über Idle-Verbrauch auf?

Wer wirklich umweltbewusst ist, der hat einen Hybridauto als Stadtauto zum täglichen Einkauf und vll ein großes Auto für die Fernreisen. Und gebnau so handhabe ich das eben auch.
Eine Powermaschine zum Zocken und der die anderen Rechner sind funtkionell, taugen aber nicht zum Spielen neuerer Spiele ab 2003.

Und die Leute die an einen Rechner mit G80-Karte arbeiten, setzen das Teil zum einen Steuerlich ab und zum anderen wenn sie dran auch zocken, selber schuld.

baka
2006-11-06, 14:14:18
MAN... MAN.... muss ich das titel ändern auf "8800xxx stromberechnung"?!?

bitte zurück zum thema

hier wäre intressant:
Ah, endlich kommt die Diskussion mal aufs Thema zurück. Nämlich wo es welche für welchen Preis gibt.

Dazu stelle ich auch gleich mal noch die Frage in den Raum, wer welche Spiele mitliefert?

Bisher bekannt:
Leadtek: Spellforce 2, Trackmania
Asus: Ghost Recon AW

Sentinel

hat jemand irgendwelche info?

master_blaster
2006-11-06, 14:16:38
Ein paar Freaks gibts immer.
Was soll 'n das?! Nur, weil du keine hast, oder was? Lass den Leuten ihren Spaß...
hat jemand irgendwelche info?
Bei Sparkles GTS liegt aktuell nix bei :(

dargo
2006-11-06, 14:20:01
Was soll 'n das?! Nur, weil du keine hast, oder was? Lass den Leuten ihren Spaß...

Das heißt aber noch lange nicht, dass ich nicht plane sie mir zu kaufen. ;)
Ich bin aber nicht so bescheuert und bezahle für die GTS 530€. Ich kann 1-2 Monate warten. ;)

l@mer
2006-11-06, 14:21:33
Ich glaube, ich habt alle zu viel Geld. Ich habt teilweise schon ne 7900gtx oder x1900xt und wollt schon wieder aufrüsten. Könnt ihr denn net wenigstens auf den R600 warten?

LovesuckZ
2006-11-06, 14:32:32
Ich glaube, ich habt alle zu viel Geld. Ich habt teilweise schon ne 7900gtx oder x1900xt und wollt schon wieder aufrüsten. Könnt ihr denn net wenigstens auf den R600 warten?

Wir bekommen alle mehr Taschengeld als du.:biggrin:

The_Invisible
2006-11-06, 14:47:12
Ich glaube, ich habt alle zu viel Geld. Ich habt teilweise schon ne 7900gtx oder x1900xt und wollt schon wieder aufrüsten. Könnt ihr denn net wenigstens auf den R600 warten?

freaks warten nie, vor allem nicht 3monate, das ist im it bereich ja schon ne ewigkeit

mfg

Android
2006-11-06, 15:02:22
Ich glaube, ich habt alle zu viel Geld. Ich habt teilweise schon ne 7900gtx oder x1900xt und wollt schon wieder aufrüsten. Könnt ihr denn net wenigstens auf den R600 warten?

Das Problem liegt wohl eher darin, dass der R600 wohl noch etwas auf sich warten lässt. Dazu kommen noch die wilden Spekulationen über das Speicherinterface von 512Bit. Denn wenn das stimmen sollte, dann dürfen wir uns auf übelste Preise a la >700€ einrichten, sofern ATI da nicht noch ein Ass im Ärmel hat. Die 8800er ist mit Sicherheit nichts anderes als eine schnelle Lösung für das Weihnachtsgeschäft. Das sieht man mehr als deutlich am verbauten GDDR3-Speicher, welcher schneller und in höheren Stückzahlen lieferbar ist als GDDR4. Dazu kommen noch die seltsamen "krummen" Zahlen wie 384Bit und 768MiB. Das deutet daraufhin, dass die 8800 anscheinend eine Zwischenlösung ist und Nvidia beim Launch des R600 einen grossen Refresh der 8800 mit ebenfalls 512Bit und 512MiB/1GiB GDDR4 anbieten wird.

Ob man nun ne neue Graka braucht, obwohl man schon ne "aktuelle" Grafikkarte hat, war und wird wohl immer "im Auge des Betrachters liegen".
Eines ist jedoch klar: ATI hat kein Konkurrenzprodukt, weder zeitlich noch technisch. Und das könnte die 8800 zum Überflieger machen. Ich glaube die meisten haben noch gar nicht begriffen, welch genialer Schachzug hinter der 8800 steckt. ;)
ATI hat verschlafen und ist jetzt unter deutlichem Zugzwang. Ich hoffe die haben gut geplant, denn ich begrüsse jeden Wettbewerb.

MikBach
2006-11-06, 15:07:44
Ob man nun ne neue Graka braucht, obwohl man schon ne "aktuelle" Grafikkarte hat, war und wird wohl immer "im Auge des Betrachters liegen".
Eines ist jedoch klar: ATI hat kein Konkurrenzprodukt, weder zeitlich noch technisch.
Was die Technik angeht, ist dies bis zum Erscheinen von Vista eh irrelevant.

Und das könnte die 8800 zum Überflieger machen. Ich glaube die meisten haben noch gar nicht begriffen, welch genialer Schachzug hinter der 8800 steckt. ;)
ATI hat verschlafen und ist jetzt unter deutlichem Zugzwang. Ich hoffe die haben gut geplant, denn ich begrüsse jeden Wettbewerb.
Ich würde nicht sagen, dass dies ein kluger Schachzug ist. ATI ist einfach zu spät.

Der G80 ist auf jeden Fall sehr interessant. Nur die extreme Verlustleistung hält mich vor einem Kauf ab. ;(

Gruß M_B

Gouvernator
2006-11-06, 15:08:21
MAN... MAN.... muss ich das titel ändern auf "8800xxx stromberechnung"?!?
Naja, damit erhöhen wir Aufmerksamkeit zum umweltbewusstsein. Ich z.B. mache mir seit kurzem Arbeit meine 1900XTX immer per Hand untertakten. Die läuft dann wenn ich net spiele 250mhz@1.0V Bei der 8800 wäre die Frage ob man die genauso leicht untertakten kann ?

tombman
2006-11-06, 15:14:54
Also es sieht so aus, als ob ich zwei Stück noch diese Woche bekomme ;) (zumindest wurde mir das am Telefon versprochen)

Und meine Quelle hat die ersten SLI Werte geliefert, und, was soll ich sagen: die Werte sprengen jede Skala :cool:

MikBach
2006-11-06, 15:23:26
Naja, damit erhöhen wir Aufmerksamkeit zum umweltbewusstsein.
Genau.

Ich z.B. mache mir seit kurzem Arbeit meine 1900XTX immer per Hand untertakten.
Womit untertaktest du?
Ist eigentlich eine sehr gute Idee, ich habe mir wegen der hohen Verlustleistung einer X1900XT "nur" die X1950PRO geholt.

Die läuft dann wenn ich net spiele 250mhz@1.0V Bei der 8800 wäre die Frage ob man die genauso leicht untertakten kann ?
Das wäre natürlich gut zu wissen, dann würde vielleicht eine GTS für mich in Frage kommen.

Gruß M_B

LovesuckZ
2006-11-06, 15:24:31
Also es sieht so aus, als ob ich zwei Stück noch diese Woche bekomme ;) (zumindest wurde mir das am Telefon versprochen)


Jeder der will, wird diese Woche zwei Stück bekommen. :wink:


Was die Technik angeht, ist dies bis zum Erscheinen von Vista eh irrelevant.


Welche "Technik" liege den bis zum Erscheinen von Vista brach?
Die überlegende Shaderleistung? Die hohe Fillrate? Die neuen AA - Modien? Das neue AF? Die hohe Verlustleistung?


Der G80 ist auf jeden Fall sehr interessant. Nur die extreme Verlustleistung hält mich vor einem Kauf ab.

Jemand der sich eine X1950pro statt einer 7900gs bzw. 7600GT kauft, sollte diese Argumentation nicht führen.

MikBach
2006-11-06, 15:25:28
Also es sieht so aus, als ob ich zwei Stück noch diese Woche bekomme ;) (zumindest wurde mir das am Telefon versprochen)

Und meine Quelle hat die ersten SLI Werte geliefert, und, was soll ich sagen: die Werte sprengen jede Skala :cool:
Hallo Tombman,

könntest Du das mit dem Untertakten ausprobieren? :)

Danke und Gruß M_B

Android
2006-11-06, 15:26:52
Was die Technik angeht, ist dies bis zum Erscheinen von Vista eh irrelevant.

Wieso? Die Spezifikationen stehen schon länger fest.

Ich würde nicht sagen, dass dies ein kluger Schachzug ist. ATI ist einfach zu spät.

Nöö. ATI hat keine Karten im Sortiment mit 384Bit und 768MiB und der R600 wird das wohl nicht ändern. Die Zeit spielt hier keine Rolle. Nvidia hingegen macht das Weihnachtsgeschäft und kann später immernoch rechtzeitig mit dem R600 gleichziehen. Das ist mehr als klug.

MikBach
2006-11-06, 15:27:23
Jemand der sich eine X1950pro statt einer 7900gs bzw. 7600GT kauft, sollte diese Argumentation nicht führen.
Hä?
Wie meinen?
Warum sollte ich mir eine 7900GS oder 7600GT holen?

Stehe zur Zeit ein wenig auf dem Schlauch...:redface:

Gruß M_B

LovesuckZ
2006-11-06, 15:29:04
Hä?
Wie meinen?
Warum sollte ich mir eine 7900GS oder 7600GT holen?
Stehe zur Zeit ein wenig auf dem Schlauch...:redface:
Gruß M_B

Na, zum Stromsparen.

Gouvernator
2006-11-06, 15:30:07
Womit untertaktest du?
Ist eigentlich eine sehr gute Idee, ich habe mir wegen der hohen Verlustleistung einer X1900XT "nur" die X1950PRO geholt.
Ich benutze ausschliesslich overklocker-x1k . ATITool hängt mir die Karte meistens auf, vor allem wenn so grosse Takt Sprünge gemacht werden. Nicht vergessen mit AtiTrayTools Ati Poller auschalten.

tombman
2006-11-06, 15:33:15
Jeder der will, wird diese Woche zwei Stück bekommen. :wink:
Das bezweifle ich mal SEHR. War doch noch nie so bei einem neuen launch, und diesmal ist die Nachfrage gigantisch...

MikBach
2006-11-06, 15:33:49
Wieso? Die Spezifikationen stehen schon länger fest.
Ja, nur hat man nichts von einer Direct3D10-Karte, wenn die Schnittstelle noch nicht verfügbar ist...:wink:

Die bessere Rohleistung ist schon ok, die Frage ist nur ob´s man aucht braucht.
Das bessere AF und die neuen AA-Modi sind natürlich sehr wichtig.

Nöö. ATI hat keine Karten im Sortiment mit 384Bit und 768MiB und der R600 wird das wohl nicht ändern.
Woher weisst du das?
Ich habe was von gar 512Bit gelesen...

Die Zeit spielt hier keine Rolle. Nvidia hingegen macht das Weihnachtsgeschäft und kann später immernoch rechtzeitig mit dem R600 gleichziehen. Das ist mehr als klug.
Die Hersteller (IHVs) verdienen nicht viel mit High-End-Karten.
Das Geld wird ganz woanders gemacht.
High-End ist eher etwas fürs Prestige.

Woher weisst du, dass Nvidia mit dem R600 gleichziehen wird, wenn es überhaupt kaum Infos zum R600 gibt? :confused:

Gruß M_B

tombman
2006-11-06, 15:34:47
Hallo Tombman,

könntest Du das mit dem Untertakten ausprobieren? :)

Danke und Gruß M_B
Weiß zwar nicht worums jetzt geht, aber da kann ich jetzt schon sagen: NEIN

tombi untertaktet nicht, auch nicht zu Testzwecken ;)

Aber es bekommen ja einige hier ihre Karten, also wird sich da 100% wer finden...

Gast
2006-11-06, 15:38:03
könntest Du das mit dem Untertakten ausprobieren? :)

Das bringt so gut wie nichts ohne zusätzliche Spannungsreduktion.

MikBach
2006-11-06, 15:39:29
Na, zum Stromsparen.
Kommt wegen der bescheidenen BQ nicht in Frage!

BQ hat immernoch erste Priorität.

Ausserdem verbraucht die X1950PRO noch im Rahmen.
http://www.xbitlabs.com/articles/video/display/x1950pro-gf7900gs_6.html

65 Watt kann ich bei einer Graka akzeptieren.
Meine Schmerzgrenze liegt so bei ca. 100 Watt.

Gruß M_B

Gast
2006-11-06, 15:41:17
Woher weisst du das?
Ich habe was von gar 512Bit gelesen...

Schau dir mal das PCB von der G80 an und dann frag dich warum man wohl kein 512-Bit-SI sehen wird bei R600...

Gast
2006-11-06, 15:41:43
Kommt wegen der bescheidenen BQ nicht in Frage!

So bescheiden wie du tust ist die lange nicht.

MartinRiggs
2006-11-06, 15:44:04
wer kann von tombman schon underclocking/volting verlangen, er braucht doch den Längsten(Balken):ulol2:

dargo
2006-11-06, 15:50:48
Der G80 ist auf jeden Fall sehr interessant. Nur die extreme Verlustleistung hält mich vor einem Kauf ab. ;(

Meine Güte, geh doch nicht immer von der GTX ab. Die GTS sollte bei 100-110W liegen, was ja schon eine X1800XT 512MB erreicht. Und jetzt sag mir nicht, die GTS wäre dir zu langsam. X-D


Nvidia hingegen macht das Weihnachtsgeschäft und kann später immernoch rechtzeitig mit dem R600 gleichziehen. Das ist mehr als klug.
Das mit dem Weihnachtsgeschäft stimmt so nicht ganz. Die für die Masse interessanten Grafikkarten erscheinen erst 2007. ;)

tombman
2006-11-06, 15:54:30
wer kann von tombman schon underclocking/volting verlangen, er braucht doch den Längsten(Balken):ulol2:
Nein, aber das wirst DU nie verstehen, denn brauchst die Illusion, daß alle highend Käufer kleine Penisse haben um dich nicht schlecht zu fühlen...
Mir gehts um hohe Auflösungen (1920x1200 und mehr) + AA + HDR in den neuesten games, DAFÜR brauche ich G80 SLI, Balken sind mir egal.

MikBach
2006-11-06, 15:55:33
Ich benutze ausschliesslich overklocker-x1k . ATITool hängt mir die Karte meistens auf, vor allem wenn so grosse Takt Sprünge gemacht werden. Nicht vergessen mit AtiTrayTools Ati Poller auschalten.
Alles klar.

Du hast nicht zufällig ein Strommessgerät?

Würde mich interessieren, was es denn so bringt.

Sorry für OT

Gruß M_B

MartinRiggs
2006-11-06, 15:57:32
Doch verstehe das schon, aber das Geld ist mir zu schade, spiele dann lieber in kleineren Auflösungen.:biggrin:

Android
2006-11-06, 15:59:18
Ja, nur hat man nichts von einer Direct3D10-Karte, wenn die Schnittstelle noch nicht verfügbar ist...:wink:

Die bessere Rohleistung ist schon ok, die Frage ist nur ob´s man aucht braucht.
Das bessere AF und die neuen AA-Modi sind natürlich sehr wichtig.

Du nimmst dir hier gerade selbst den Wind aus den Segeln. Du bringst eine eigene Gegenargumentation zu deinem vorigen Argument. Und wenn dir nichts mehr einfällt sagst du "Die bessere Rohleistung ist schon ok, die Frage ist nur ob´s man auch braucht". Das ist kein Argument, sondern ein Hilfeschrei. :D

Woher weisst du das?
Ich habe was von gar 512Bit gelesen...

Du hast mich nicht verstanden. Es werden sehr wahrscheinlich sogar 512Bit. Leistungsmässig ist das ein Vorteil, aber preislich gesehen ein massiver Nachteil. Ein 512bittiges Speicherinterface kostet richtig Geld. Und logischerweise mehr als ein 384bittiges oder 256bittiges. Nvidia hat mit 384Bit also noch eine gewisse Preiskontrolle im Vergleich zu 256Bit. ATI hingegen muss schon was zaubern um die Preise für die R600 Karten im Rahmen und vorallem konkurrenzfähig zu halten.

Die Hersteller (IHVs) verdienen nicht viel mit High-End-Karten.
Das Geld wird ganz woanders gemacht.
High-End ist eher etwas fürs Prestige.

Das ist richtig. Aber technische Vorreiterrollen und das daraus resultierende Image erlangt man nicht mit OnBoard-Lösungen und Low-End Karten. Das ist in jedem grossen Konzern so (siehe Quad bei Intel, siehe Formel1 usw.). Kurz: Hier geht es nicht ums Geld, sondern um die Schaffung und Erhaltung von Fundamenten auf denen die ganze Unternehmensstrategie aufbaut.

Woher weisst du, dass Nvidia mit dem R600 gleichziehen wird, wenn es überhaupt kaum Infos zum R600 gibt? :confused:

Also es gibt schon einige Infos zum R600, musst du einfach mal googeln. Natürlich ist deren Richtigkeit nicht bestätigt, wie auch? Von daher spekuliere ich auch nur. Das Nvidia mit ATI gleichziehen wird ist ebenfalls nur eine Spekulation. Meiner Meinung nach aber eine sehr realistische, wenn man marktstrategisch denkt. Aber das selbst hier alles anders kommen kann wissen wir natürlich alle. Von daher bitte nur als Spekulation verstehen; dachte das wäre offensichtlich. :)

Mfg
Android

MikBach
2006-11-06, 15:59:39
Schau dir mal das PCB von der G80 an und dann frag dich warum man wohl kein 512-Bit-SI sehen wird bei R600...
Abwarten.
256bit beim R300 hielten viele auch für verfrüht oder gar nicht machbar. :wink:

So bescheiden wie du tust ist die lange nicht.
Doch, ist sie.
Bei einer entsprechenden Grösse des Ausgabegerätes manchmal ungeniessbar.

Gruß M_B

Gast
2006-11-06, 16:04:54
Abwarten.
256bit beim R300 hielten viele auch für verfrüht oder gar nicht machbar. :wink:

Tolle Wurst. Und wo willst du die Speicherchips genau unterbringen? 16 an der Zahl, die aktive Kühlung brauchen?

Moralelastix
2006-11-06, 16:05:31
Jupp so irgendwie gehts mir auch so....

Crysis is auf unbestimmt verschoben...

Soll ich vielleicht wegen Grottig³, Spyfield 2141 oder NFS x aufrüsten?:biggrin:


Oder hab ich irgend ein geiles Game verpasst?

Gast
2006-11-06, 16:08:50
Bei einer entsprechenden Grösse des Ausgabegerätes manchmal ungeniessbar.

Das hat mit der Auflösung nichts zu tun. Die Polygone können auf dem Bildschirm immer gleich groß sein. Das Flimmern ist entweder da oder nicht. Das einzige was entscheidend sein kann ist die Pixelgröße auf dem Ausgabegerät, aber nicht dessen Fläche.

dargo
2006-11-06, 16:08:53
Ein 512bittiges Speicherinterface kostet richtig Geld.
Bist du bei der Entwicklung beteiliegt oder woher weißt du das?

Das 384Bit SI der G8800GTX soll auch angeblich so teuer gewesen sein. Dann frage ich mich wieso die Karte nicht >700€ kostet? Ich erinnere da gerne an die GF2 Ultra für 1400DM damals.

Und wo willst du die Speicherchips genau unterbringen? 16 an der Zahl, die aktive Kühlung brauchen?
Wie wärs mit der Rückseite. :wink:
Und seit wann muss GDDR4 aktiv gekühlt werden?

MikBach
2006-11-06, 16:12:34
Du nimmst dir hier gerade selbst den Wind aus den Segeln. Du bringst eine eigene Gegenargumentation zu deinem vorigen Argument. Und wenn dir nichts mehr einfällt sagst du "Die bessere Rohleistung ist schon ok, die Frage ist nur ob´s man auch braucht". Das ist kein Argument, sondern ein Hilfeschrei. :D
Warum Hilfeschrei?
Ich habe nach dem Posting von Lovesuckz eingelenkt.
Jeder macht mal Fehler und ich stehe zu meinen.

Du hast mich nicht verstanden. Es werden sehr wahrscheinlich sogar 512Bit. Leistungsmässig ist das ein Vorteil, aber preislich gesehen ein massiver Nachteil. Ein 512bittiges Speicherinterface kostet richtig Geld. Und logischerweise mehr als ein 384bittiges oder 256bittiges. Nvidia hat mit 384Bit also noch eine gewisse Preiskontrolle im Vergleich zu 256Bit. ATI hingegen muss schon was zaubern um die Preise für die R600 Karten im Rahmen und vorallem konkurrenzfähig zu halten.
Ja, Missverständnis.

Das ist richtig. Aber technische Vorreiterrollen und das daraus resultierende Image erlangt man nicht mit OnBoard-Lösungen und Low-End Karten. Das ist in jedem grossen Konzern so (siehe Quad bei Intel, siehe Formel1 usw.). Kurz: Hier geht es nicht ums Geld, sondern um die Schaffung und Erhaltung von Fundamenten auf denen die ganze Unternehmensstrategie aufbaut.
Das ist durchaus korrekt.
Wenn der R600 raus ist, spätestens dann ist es mit der Vorreiterrolle dahin.

Also es gibt schon einige Infos zum R600, musst du einfach mal googeln. Natürlich ist deren Richtigkeit nicht bestätigt, wie auch? Von daher spekuliere ich auch nur. Das Nvidia mit ATI gleichziehen wird ist ebenfalls nur eine Spekulation. Meiner Meinung nach aber eine sehr realistische, wenn man marktstrategisch denkt. Aber das selbst hier alles anders kommen kann wissen wir natürlich alle. Von daher bitte nur als Spekulation verstehen; dachte das wäre offensichtlich. :)

Also doch nur Spekulationen.

Hat sich aber nicht danach angehört...:wink:

Gruß M_B

Gast
2006-11-06, 16:14:39
Bist du bei der Entwicklung beteiliegt oder woher weißt du das?

Das sagt einem der Menschenverstand. Das PCB der 8800 sieht schon verdammt teuer aus mit seinen 12 Layern, außerdem muss der Chip erstmal groß genug sein (ja wirklich) um so viele Pads haben zu können.

Das 384Bit SI der G8800GTX soll auch angeblich so teuer gewesen sein. Dann frage ich mich wieso die Karte nicht >700€ kostet? Ich erinnere da gerne an die GF2 Ultra für 1400DM damals.

Absatzmenge und natürlich wurde die PCB-Produktion durch Konkurenz und technischen Fortschritt auch billiger mittlerweile.

Wie wärs mit der Rückseite. :wink:
Und seit wann muss GDDR4 aktiv gekühlt werden?

Das Problem ist dass wenn man es an der selben Stelle auf der Rückseite unterbringt das PCB wohl >20 Layer haben müsste um es noch verdrahten zu können.

Vergesst es. Ich verwette meinen Hut dafür dass R600 mit GDDR4 >1.5Ghz und nem 256-Bit-SI kommt.

Gouvernator
2006-11-06, 16:26:02
Und ich verwette meinen Hut dafür das R600 mit GDDR4 >1.5Ghz und nem 512-Bit-SI kommt. Er soll ja nicht langsamer als Konkurrenz werden.

Zapat
2006-11-06, 16:28:35
Und ich verwette meinen Hut dafür das R600 mit GDDR4 >1.5Ghz und nem 512-Bit-SI kommt. Er soll ja nicht langsamer als Konkurrenz werden.

Auf deine wetten setzt ich nichtmall ein pfefferling!Du pralst immer mit Atis AA modi weisst aber nichtmall wie die zusätzlichen AA modi Arbeiten.

dildo4u
2006-11-06, 16:29:03
Und ich verwette meinen Hut dafür das R600 mit GDDR4 >1.5Ghz und nem 512-Bit-SI kommt. Er soll ja nicht langsamer als Konkurrenz werden.Wozu damit die Karte unendlich Teuer wird?Schon 384Bit mit GDDR4 würden für ein brauchbaren Vorsprung reichen oder hast du bock 900€ für ein R600 aus zugeben?

AnarchX
2006-11-06, 16:29:53
Speku - R600 schon im dritten Quartal 2006? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=273969&page=63)
:wink:

Undertaker
2006-11-06, 16:30:34
evntl überascht ati uns alle ja auch und kommt ebenfalls mit 384bit und gddr4? sollte von der bandbreite her auch mehr als genug sein...

dargo
2006-11-06, 16:32:00
Ich verwette meinen Hut dafür dass R600 mit GDDR4 >1.5Ghz und nem 256-Bit-SI kommt.
Wieviel Speicherbandbreite wäre das dann?

AnarchX
2006-11-06, 16:32:54
Wieviel Speicherbandbreite wäre das dann?
:edit:
96GB/s

Hatte erst gedacht du hättest Gouvernators Post(512bit) gequotet.

dildo4u
2006-11-06, 16:35:21
Wieviel Speicherbandbreite wäre das dann?96GB/sec also mher als genug und ca 10GB mher als die 8800GTX.

dargo
2006-11-06, 16:36:24
Hehe, ja was denn nun :confused:

1,5Ghz GDDR4 mit 256Bit SI?

Gast
2006-11-06, 16:37:44
Wieviel Speicherbandbreite wäre das dann?1500 MHz x 256 bit x 2 (DDR) / 8 (bit/byte) = 96.000 MB/s

dildo4u
2006-11-06, 16:38:40
Hehe, ja was denn nun :confused:

1,5Ghz GDDR4 mit 256Bit SI?96GB/sec ganz einfache Rechnung die 1950XTX hat 64GBSec bei 1GHZ also bei 1.5Ghz sinds 32 GB mher.

MikBach
2006-11-06, 16:41:10
Das hat mit der Auflösung nichts zu tun. Die Polygone können auf dem Bildschirm immer gleich groß sein. Das Flimmern ist entweder da oder nicht. Das einzige was entscheidend sein kann ist die Pixelgröße auf dem Ausgabegerät, aber nicht dessen Fläche.
Nene, bei einer grösseren Ausgabefläche sieht man die Fehler besser.

Zock mal an einem 42"LCD-TV...:wink:

Gruß M_B

dargo
2006-11-06, 16:54:46
1500 MHz x 256 bit x 2 (DDR) / 8 (bit/byte) = 96.000 MB/s
Ok, danke.

In diesem Fall würde ich ganz schnell ein 512Bit SI beim R600 vergessen. Das einzigste was ich mir vorstellen könnte wäre ein 384Bit SI mit ~1,2Ghz GDDR4.
Oder halt die angesprochenen 256Bit SI mit einem möglichst hohen GDDR4 Takt.

deekey777
2006-11-06, 17:02:54
Wäre es möglich, diesen Thread nur mit einem OT-Thema zu verseuchen und nicht gleich mit zwei? Der R600 hat seinen eigenen Thread im Speku-Bereich, in dem auch was zum SI steht.

StefanV
2006-11-06, 17:12:11
Na, zum Stromsparen.
Zum Strom sparen hab ich 'nen 2. Rechner, ist auch am einfachsten, einen auf Verlustleistung/Lautstärke zu optimieren und einen auf Leistung, ist bei aktuellen High End Lösungen am sinnigsten (zumal die 'alte Hardware' nach einiger Zeit zwangsweise 'über' ist.)

Naja, erstmal abwarten und Tee rauchen, bis beide aufm Mart sind, um dann zu urteilen, welcher besser ist, jetz darüber zu orakeln ist irgendwie reichlich sinnfrei, da les ich lieber in meinem (nicht vorhandenem) Kaffeesatz, hab ich mehr von...

Zum G80:
Da ist ja soweit eigentlich alles wichtige bekannt, lang dauerts auch nicht, bis das Teil erscheint und wir wirklich alles wichtige wissen inkl dem Umstand wie schnell das Teil nun wirklich ist...

Gast
2006-11-06, 19:42:00
Ich habe mal paar Händler in Rhein-Main abgeklabert und die sprechen vom 15.-17.11 für Asus Karten als Liefertermin und bei Gigabyte noch ne Woche drauf.
Es gibt also diese Woche nur Karten in geringer Menge bei ich sag mal "exklusiv Partnern".

Gast
2006-11-06, 21:04:50
Hallo, ich hätte da mal eine Frage zu der ich nicht extra einen neuen Thread eröffnen möchte. Weiß jemand, ob der G80 auch schon für Notebooks geplant ist und wenn ja, ob das überhaupt realisierbar ist?

AnarchX
2006-11-06, 21:06:23
Hallo, ich hätte da mal eine Frage zu der ich nicht extra einen neuen Thread eröffnen möchte. Weiß jemand, ob der G80 auch schon für Notebooks geplant ist und wenn ja, ob das überhaupt realisierbar ist?
Notebookvarianten werden wohl erst mit dem 65nm Refresh kommen, also im Frühling 2007.

Gast
2006-11-06, 21:16:38
Ok Danke :)

Toolman
2006-11-06, 22:59:00
Ich sags mal so , kann jetzt en bissl dauern bis ihr eure 8800 bekommt !
Mehr dazu hier (http://www.vr-zone.com/index.php?i=4253) !
Der gelungene Start und immense Vorsprung zu ATI dürfte somit nun fasst hinfällig sein !

dildo4u
2006-11-06, 23:00:02
Ich sags mal so , kann jetzt en bissl dauern bis ihr eure 8800 bekommt !
Mehr dazu hier (http://www.vr-zone.com/index.php?i=4253) !
Der gelungene Start und immense Vorsprung zu ATI dürfte somit nun fasst hinfällig sein !http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/november/kein_rueckruf_geforce_8800_gtx/

=Floi=
2006-11-07, 08:55:39
wäre nett wenn man wüsste wann das NDA fällt
und dann wären natürlich links zu tests nicht schlecht sobald das nda gefallen ist
hoffe auf 0.00uhr

r@w.
2006-11-07, 09:17:29
Ich sags mal so , kann jetzt en bissl dauern bis ihr eure 8800 bekommt !
Mehr dazu hier (http://www.vr-zone.com/index.php?i=4253) !
Der gelungene Start und immense Vorsprung zu ATI dürfte somit nun fasst hinfällig sein !

Hast Du Dir die Meldung überhaupt angeschaut?
:confused:

Update #4 : For those cards that are already shipped out, card makers will send the correct resistors to the distributors and they will be handling the soldering work themselves. There should be no delay or minor delay in the sale of the 8800GTX cards.

Razor

maximus_hertus
2006-11-07, 11:49:58
wäre nett wenn man wüsste wann das NDA fällt
und dann wären natürlich links zu tests nicht schlecht sobald das nda gefallen ist
hoffe auf 0.00uhr

Wahrscheinlich wie immer bei NV -> 15 Uhr ;)

Also noch rund 27 Stunden ;)

SentinelBorg
2006-11-07, 13:57:01
Bei Sparkle ist wohl Call of Duty 2 dabei.

Sentinel

dargo
2006-11-07, 14:02:07
http://62.75.219.46/shop2/index.php?user=Origin&hkat=69&proid=565&skat=239

Man könnte schon sagen, fast bei mir um die Ecke. Bis Schwerte habe ich ca. 20km.

Edit:
Hehe, um 14:00 noch viele auf Lager, jetzt 14:10 nur noch wenige da. Ich könnte wetten bis heute Abend sind alles ausverkauft. :D

Gast
2006-11-07, 14:38:37
http://62.75.219.46/shop2/index.php?user=Origin&hkat=69&proid=565&skat=239

Man könnte schon sagen, fast bei mir um die Ecke. Bis Schwerte habe ich ca. 20km.

Edit:
Hehe, um 14:00 noch viele auf Lager, jetzt 14:10 nur noch wenige da. Ich könnte wetten bis heute Abend sind alles ausverkauft. :D

Total überteuert der Laden, wers hat der kaufts aber 1Tag wird man noch warten können oder ;)

dargo
2006-11-07, 14:44:51
Total überteuert der Laden, wers hat der kaufts aber 1Tag wird man noch warten können oder ;)
Klar ist es teuer. Ich würde doch keine 620€ für ne Graka bezahlen. Aber für die paar Freaks hier wäre sie schon zum greifen nah. :D

knallebumm
2006-11-07, 15:26:41
http://www.forumdeluxx.de/forum/showthread.php?t=287250

die ersten haben schon eine 8800gtx, also noch bevor die nda abgelaufen ist :)

dargo
2006-11-07, 15:36:45
http://www.forumdeluxx.de/forum/showthread.php?t=287250

die ersten haben schon eine 8800gtx, also noch bevor die nda abgelaufen ist :)
Ja, nur leider sind es immer die die keine Ahnung vom Benchen haben. :usad:

knallebumm
2006-11-07, 15:41:42
Ja, nur leider sind es immer die die keine Ahnung vom Benchen haben. :usad:

Dachte, daß gerade die Benchmarkfraktion sowas immer zuerst haben muß. :)
Die Karte ist übrigens von mindfactory für ca 680€ laut einem anderen Thread.

Cubitus
2006-11-07, 16:02:58
Boah 680:eek: Die "echten" Freaks blättern jetzt für SLI 1360 Euro hin.:eek:
Einfach nur Wahnsinn!!

PHuV
2006-11-07, 16:09:36
Warum hat bisher eigentlich Alternate keine angeboten? Sonst ist Alternate doch immer einer der ersten?

Gast
2006-11-07, 16:12:01
Vieleicht gehören sie nicht zu den exklusiven Release Anbietern oder sie halten sich ans NDA. Frag doch mal an per Telefon/Mail.

Krustovsky
2006-11-07, 16:12:29
Warum hat bisher eigentlich Alternate keine angeboten? Sonst ist Alternate doch immer einer der ersten?

Hallo??? NDA, Präsentation am 8.11., seriöse Händler sollten sich tunlichst an die Absprachen halten:)

dildo4u
2006-11-07, 16:12:35
Vieleicht wurde Alternate beim letzen NV Karten Start ja abgemahnt wegen NDA Bruch der Shop ist ja recht groß NV hat da sicher ein Auge drauf.

Grestorn
2006-11-07, 16:17:23
Warum hat bisher eigentlich Alternate keine angeboten? Sonst ist Alternate doch immer einer der ersten?

Weil sie sich wohl an den NDA halten.

PHuV
2006-11-07, 16:18:29
Ok, d.h. morgen werden die Karten in Massen von allen angeboten ;) ?

Cubitus
2006-11-07, 16:19:08
habe gerade mit Alternate gesprochen.
Wenn du am Laden vorbei kommst kriegste eine:wink:

Krustovsky
2006-11-07, 16:21:26
Was die GTX betrifft sind Massen wohl übertrieben, selbst einer der nicht ganz so kleinen bekommt gerade mal 40 Stück mit dieser Lieferung....

LovesuckZ
2006-11-07, 16:30:37
Was die GTX betrifft sind Massen wohl übertrieben, selbst einer der nicht ganz so kleinen bekommt gerade mal 40 Stück mit dieser Lieferung....

40 Stück?
Finde ich eigentlich sehr viel. Immerhin handelt es sich hier um ein Gut, welches mit ca. 600€ eine sehr kleine Gruppe von usern anspricht.

Krustovsky
2006-11-07, 16:38:43
Mag sein, ist aber wie gesagt kein kleiner lokal operierender Laden, sondern einer der Größeren;)

€: Und so geil wie alle auf das Teil sind...