PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum takten sich Nvidia-Grakas im 2D-Betrieb nicht runter?


Nasenbaer
2008-01-07, 20:26:13
Hi,
habe soebend in der aktuellen PCGH bemerkt, dass die Taktenraten von nVidia Geforce 8800 GT und GTS/512 im 2D-Betrieb nicht gesenkt werden - AMD Karten tun dies dagegen schon. Warum nutzt man bei nVidia nicht auch die Möglichkeit zum Strom sparen?


P.S.: Soll um Gottes Willen kein Flamewar der Marke "AMD toll und nVidia doof" werden, zumal ich selbst ne nvidia habe.

CodeRed
2008-01-07, 20:30:43
das einzige was man als nvidia-user machen kann, ist den takt per rivatuner manuell runterzutakten!

das funktioniert recht gut, bringt aber leider nicht so viel stromersparnis..

aber recht hast du! diese funktion vermisse ich bei nvida.. dennoch bleib ich denen treu.. ;)

mfg CodeRed

Wishnu
2008-01-07, 20:33:23
Hm, ich erinnere mich dunkel, dass das vor längerem schon einmal angekündigt wurde... scheint für Nvidia aber kein wirklich wichtig Thema zu sein. *seineG80strafendanblick*

AnarchX
2008-01-07, 20:36:56
Weil es technisch wohl nicht so einfach möglich ist(Shaderdomain) und NV entsprechend Geld/Gewinn kosten würde.

Ab GeForce 9 wird man über diesen Umstand versuchen die eigenen Chipsätz an den Kunden zu bringen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=398653

master_blaster
2008-01-07, 20:44:45
nVidia hatte es für die GeForce 8 per Treiberupdate angkündigt, keinen Termin genannt und dann darauf gehofft, dass es wieder vergessen wird ... Schon ein Drecksladen, :rolleyes:.

Wie heißt eigentlich nVidias Pendant zu Hybridcrossfire? Da solls doch auch was mit Onboardgrafik geben, wo im 3D-Modus die Maingrafikkarte rendert und im 2D-Modus die Onboardgrafik?!
Gibt's da schon Threads zu?
Brauche dringend so ein Board, meine Ultra saugt nämlich ganz schön heftig, :mad:.

AnarchX
2008-01-07, 20:49:59
Ab GeForce 9 wird man über diesen Umstand versuchen die eigenen Chipsätz an den Kunden zu bringen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=398653



Wie heißt eigentlich nVidias Pendant zu Hybridcrossfire? Da solls doch auch was mit Onboardgrafik geben, wo im 3D-Modus die Maingrafikkarte rendert und im 2D-Modus die Onboardgrafik?!
Gibt's da schon Threads zu?
Brauche dringend so ein Board, meine Ultra saugt nämlich ganz schön heftig, :mad:.

Ähmm... ;)

Aber Hybrid-Power soll nun nicht mehr bei GeForce8 unterstützt werden, wie ursprünglich geplant, weil es wohl als exklusiver Kaufanreiz für die GeForce9-Serie genutzt wird.

sei laut
2008-01-07, 21:14:32
Für Geforce 8 Besitzer:
http://www.forum-3dcenter.de/vbulletin/showthread.php?t=363264

Funktioniert aber vielleicht auch mit älteren.. eine Rivatuner Anleitung für 2D/3D automatische Taktänderung.

master_blaster
2008-01-07, 22:04:47
Ähmm... ;)

Aber Hybrid-Power soll nun nicht mehr bei GeForce8 unterstützt werden, wie ursprünglich geplant, weil es wohl als exklusiver Kaufanreiz für die GeForce9-Serie genutzt wird.
Das ist ja echt 'ne Unverschämtheit! Die sollen froh sei, ihre Boards loszuwerden und jett koppeln die das noch an 'ne neue Grafikkarte, :mad:.
Ok, spiele zwar mit dem Gedanken, mal wieder zu updaten (:D), aber wenn man mich dazu zwingen will, sollen die sich das mal ganz tief in den Arsch shcieben, dann hole ich mir lieber wieder 'ne ATI, da soll Hybridcrossfire sogar noch mit der X1XX0-Serie funktionieren.

rotanat
2008-01-07, 22:31:05
Also das mit der Taktratensenkung ist prinzipiell eine feine Sache (hatte bis zur Geforce 3(!) zurück lang ATI-Karten) allerdings gabs auch hin und wieder Probleme dadurch, z.B. das Spiele im Fenstermodus nicht die Taktrate nach oben schrauben usw. Liest man die div. ATI-Foren gibts wohl auch im Zusammenhang mit Powerplay noch das ein oder andere Ärgernis.
Mit Rivatuner kann man das ganze "nachbauen", meiner Ansicht nach bringt das aber nicht sehr viel Stromersparnis da dadurch die Spannung nicht abgesenkt wird.

Nasenbaer
2008-01-07, 23:02:30
Mit Rivatuner kann man das ganze "nachbauen", meiner Ansicht nach bringt das aber nicht sehr viel Stromersparnis da dadurch die Spannung nicht abgesenkt wird.
Aber wenigstens würde dadurch der Lüfter etwas geschont werden, falls man die Graka, z.B. im Zweit-PC, noch länger als normal nutzen will.

Jester
2008-01-08, 10:48:51
Ich habe mal mit Nibitor mein Grafikkarten-Bios ausgelesen. Da stehen im 3D+Thrl+2D gar keine Taktraten drinnen nur unter Extra.

Angeblich nützt es nichts wenn man unter 3d+2D Taktraten hinzufügen tut. Sie läuft immer mit vollem Takt. Zu testen ob es was bringt wenn man Extra leer lässt und nur den Rest ausfüllt (3D+Thrl+2D) ob es dann geht steht noch aus. Nicht das das Extra-Feld bedeutet "Ignoriere alles andere, benutze immer Extra". Evtl. findet sich einer der mit dem Flashen erfahrung hat und es mal testet. Meine 8800GTS (G92) taktet auch immer voll egal 2D oder 3D, das ist schade denn dann läuft sie immer übertaktet und das will ich nicht. Soll ja lange lange laufen die Grafikkarte ;).

nobex
2008-01-08, 11:57:07
Gedanken zum Hintergrund:
Könnte das Ganze nicht im Hinblick auf die Vista-Oberfläche und dem dort genutzten 3D-Modus weggefallen sein?

sei laut
2008-01-08, 12:04:53
Meine 8800GTS (G92) taktet auch immer voll egal 2D oder 3D, das ist schade denn dann läuft sie immer übertaktet und das will ich nicht. Soll ja lange lange laufen die Grafikkarte ;).
Ich hab oben einen Link zu einem How To gepostet.
Geforce 8 können es nicht von Haus aus, auch wenn man 2D und 3D Taktraten angeben kann.

master_blaster
2008-01-08, 13:49:09
Gedanken zum Hintergrund:
Könnte das Ganze nicht im Hinblick auf die Vista-Oberfläche und dem dort genutzten 3D-Modus weggefallen sein?
Hmm, XP ist immernoch Marktfürer und sobal ändert sich das auch nicht. Außerdem kann man bei Vista auch 2D-Oberflächen nutzen. Und eine 8800Ultra braucht wohl kaum volle Rechenleistung für die Aero-Benutzeroberfläche.

BurnIn
2008-01-08, 19:47:22
Ich muß es immer wieder erwähnen, weiß nicht warum das hier nicht hängen bleibt?

Sie takten runter, zumindest wenn man ein modifiziertes Bios benutzt.

http://img90.imageshack.us/img90/2368/auqwqwqqwqwqwqwfnahme1pz4.jpg http://img186.imageshack.us/img186/6939/auqwqwqqwqfr34rfffqwqwfuv0.jpg

Unter Vista und XP gleichermaßen, dauert nur bis zu 10 min bis es passiert.

master_blaster
2008-01-08, 19:49:38
Das rechtfertigt och nicht die Hatung von nVidia. Ich flashe doch kein gemoddetes Bios, um dann die Garantie zu verlieren. Die sollten diese Funktion einfach von Anfang an zur Verfügung stellen.
Außrdem (muss das immerwieder erwähnt werden!?): das funktioniert recht gut, bringt aber leider nicht so viel stromersparnis..

BurnIn
2008-01-08, 19:57:51
Das nur einige Watt und ein paar Grad eingespart werden ist richtig.
Aber es sind nunmal die schnellsten Karten, kauft jemand ATI weil die sich runtertakten? Gut einer von 100.
Und benutzt doch Riva Tuner etc, wenn der Treiber es alleine nicht kann.
Ich versteh die ganze Discussion hier eh nicht, entweder man kauft sich High End und hat das Dilemma im Griff oder mann kauft sich ATI End.

Jester
2008-01-08, 20:12:46
Ich muß es immer wieder erwähnen, weiß nicht warum das hier nicht hängen bleibt?

Sie takten runter, zumindest wenn man ein modifiziertes Bios benutzt.

http://img90.imageshack.us/img90/2368/auqwqwqqwqwqwqwfnahme1pz4.jpg http://img186.imageshack.us/img186/6939/auqwqwqqwqfr34rfffqwqwfuv0.jpg

Unter Vista und XP gleichermaßen, dauert nur bis zu 10 min bis es passiert.

Es bleibt hängen keine Sorge. Es geht also doch, gut man muss das Bios modden aber ok das ist verschmerzlich. So läuft die Karte nicht immer mit Übertaktung, das ist mir wichtig.

Nasenbaer
2008-01-08, 20:23:33
Das nur einige Watt und ein paar Grad eingespart werden ist richtig.
Aber es sind nunmal die schnellsten Karten, kauft jemand ATI weil die sich runtertakten? Gut einer von 100.
Und benutzt doch Riva Tuner etc, wenn der Treiber es alleine nicht kann.
Ich versteh die ganze Discussion hier eh nicht, entweder man kauft sich High End und hat das Dilemma im Griff oder mann kauft sich ATI End.
Erstens ist das ein dämlicher Kommentar bzgl. ATi (irgendeiner muss ja wieder anfanden mit sowas) und 2. bringt es bzgl. des Stromverbrauchs nichts.
Es wäre technisch wohl kaum das Problem, da die Mobile Chipsätze das auch können. Es ist und bleibt doof. :/

BurnIn
2008-01-08, 21:31:01
Doof nur das nVidia keinen Kommentar abgibt.
Ich glaube kaum das sie es extra machen oder unfähig sind die Stromsparfunktionen zu erkennen.
Wie tun es auf eigenes Risiko, doch warum wird das nicht mit neuen Biosen seitens der Hersteller gefixt.

Das ist die Frage, genauso wie warum ATI nur noch Esel statt Rennpferde zum Start bringt, das was jetzt auf dem Markt von denen ist hat eindeutig den Start verpasst.
Also lieber 15€ mehr für Strom im Jahr wie ne heulende Suse im Rechner.

master_blaster
2008-01-08, 21:35:51
Mal ganz objetktiv: Es kann doch nicht angehen, dass das gesamte System mit einer High-End Karte beim Viedeogucken doppeltsoviel verbraucht, wie bei einem Midrange-System.

Gast
2008-01-08, 21:42:27
Aber es sind nunmal die schnellsten Karten, kauft jemand ATI weil die sich runtertakten? Gut einer von 100.
Vergleiche mal die Lowend Karten, Performance ist auf beiden Seiten grottig, AMDs VP ist minimal besser, außerdem ist der Verbrauch niedriger, also wozu nv?



Und benutzt doch Riva Tuner etc, wenn der Treiber es alleine nicht kann.
Und dann?
Runtertakten bringt fast nichts! An die Spannungen kommt niemand so leicht per Software ran, hier ist AMD Meilen vorraus!



Ich versteh die ganze Discussion hier eh nicht, entweder man kauft sich High End und hat das Dilemma im Griff oder mann kauft sich ATI End.
Quatsch.
Ich erwarte von einer neuen Karte die selben/bessere Features wie von einer älteren.
Der Verbrauch gehört dazu. Den Last Verbrauch kann man sich mit 1000 Argumenten noch schönen, aber fast der selbe Verbrauch auch im Idle? Nein das geht zuweit!

Gast
2008-01-08, 21:44:05
Mal ganz objetktiv: Es kann doch nicht angehen, dass das gesamte System mit einer High-End Karte beim Viedeogucken doppeltsoviel verbraucht, wie bei einem Midrange-System.
Yep.


Hinzu kommt, das eine High-End Karte (zb 8800GTX) noch nicht mal ein Däumchen dreht, die gesamte Arbeit hat die CPU, die jetzt @ Volllast läuft.

BurnIn
2008-01-08, 23:49:57
HaHa,

Schön wäre ein geringerer Verbrauch, aber lebt die Erde deswegen länger oder seit Ihr durch den Kauf so hoch verschuldet?

Mich stört der Verbrauch nicht, und hätte er das wäre die Karte längst weg.
Also hört auf zu meckern, nehmt sie und beschwert euch anständig bei den richtigen stellen, oder verkauft sie bzw kauft sie doch erst gar nicht.

blackbox
2008-01-09, 00:05:51
Zum Thema Hybrid Power:
Hybrid Power funktioniert nur mit einer Grafikkarte, die so stark ist wie die integrierte Grafiklösung des Boards. Also im besten Fall eine 8400GT. :rolleyes:

Das macht Hybrid Power total absurd und sinnlos.

Zum Thema Stromverbrauch: Man wird sicherlich immer ein paar Watt sparen können durch das Heruntertakten, noch mehr Watt sparen kann man mit einer Spannungsabsenkung, aber wirklich sparsam wird so eine Grafikkarte nie.

Wenn das Chipdesign nicht dafür ausgelegt ist, insgesamt sparsam zu sein, dann macht es nicht so großen Sinn.

Es ist wie mit Silence-Thematik: Ist das Gerät laut, kann man sicher Maßnahmen treffen, die Lautstärke zu senken, aber leise wird es nie werden.

Ein Austausch ist in beiden Fällen das Sinnvollste.

Gast
2008-01-09, 01:19:45
Wenn das Chipdesign nicht dafür ausgelegt ist, insgesamt sparsam zu sein, dann macht es nicht so großen Sinn.

Fragt sich warum?

Wozu wurde vor wenigen Jahren ein 2D Sparmodus und später ein Lowpower 3D eingeführt?

Damit jetzt alles verloren geht?

CPUs kann man heute im Idle passiv kühlen, GPUs nicht wirklich. Wozu diese Abwärme für nichts?
Ist heute die kleinste Kritik daran verboten?



Mich stört der Verbrauch nicht, und hätte er das wäre die Karte längst weg.
Also hört auf zu meckern, nehmt sie und beschwert euch anständig bei den richtigen stellen, oder verkauft sie bzw kauft sie doch erst gar nicht.
Mich stört es. Viele andere auch.
Darum führt nv Hybrid SLi ein, damit jeder nv lobpreisen kann, dafür das er ein selbstverständliches Merkmal teuer nachkaufen darf.

Gast
2008-01-09, 01:21:36
Ein Austausch ist in beiden Fällen das Sinnvollste.
Jup, eine (Dual) RV670 ist eigentlich das Ideale, nur das fehlende SSAA schmerzt zu sehr.

Nasenbaer
2008-01-09, 12:47:31
HaHa,

Schön wäre ein geringerer Verbrauch, aber lebt die Erde deswegen länger oder seit Ihr durch den Kauf so hoch verschuldet?

Mich stört der Verbrauch nicht, und hätte er das wäre die Karte längst weg.
Also hört auf zu meckern, nehmt sie und beschwert euch anständig bei den richtigen stellen, oder verkauft sie bzw kauft sie doch erst gar nicht.
Würdest du mal aufhören deine Ansichten allen anderen aufzudrücken. Nur weil es dich nicht stört ist es anderen vielleicht weit weniger egal. Du musst dich auch nicht an der Diskussion beteiligen, wenn es dich nicht interessiert. Aber den Thread immer dazu zu nutzen deine Abneigung gegenüber AMD zu präsentieren hilft hier keineswegs.

BurnIn
2008-01-09, 17:38:58
Nochmal HaHa

Lese mal den Threadtitel...Warum takten sie sich nicht runter....

Und ich sage es Dir nochmal groß und breitbeinig:

Sie takten sich runter HiHi


Ich habe keine Abeigun gegen ATI oder AMD, aber wenn sie verpennen dann haben sie halt die Pappnase auf

Gast
2008-01-09, 17:48:26
Ich habe keine Abeigun gegen ATI oder AMD, aber wenn sie verpennen dann haben sie halt die Pappnase auf
Ich habe / hatte etwas gegen AMD, aber es spricht vieles für AMD:

-Geringerer Lastverbrauch
-Viel geringerer Idleverbrauch
-besserer VP, es sei den man vergleicht mit dem G80 der bekanntlich dank fehlendem nur für den Müll gut ist
-Spannungen sind per Software leicht anzuheben, oder zu senken

master_blaster
2008-01-09, 18:11:23
Nochmal HaHa
Sie takten sich runter HiHi

Ich will nicht mehr, ich wünsche mir, Postal 2 wäre Realität und man müsste nur "K" drücken und alles wäre vorbei, ;D.

Jajaja, sie takten sich runter, aber bitte hör auf, :ubash2:.

Erwähnte ich, das sie sich nur per Modbios oder Rivatuner runtertaktet, :ugly:!?

Ansonsten: :uban:.

BurnIn
2008-01-09, 20:00:20
Erwähnte ich schon das die Bios verschiedener Hersteller alle nur den 3D Betrieb anwenden und das Ihr hier rummault und andere bittet anstatt wirklich selbst herauszufinden warum das so ist!
Wenn es Euch doch sooo interessiert.
Und Dein Geballer diegina ist was für sowas in finger in den po massieren schrecklich :)

Gast
2008-01-09, 20:10:19
Klar jetzt soll der User das Bios flashen und dadurch oder durch manuelles rumtakten seine Garantie verlieren. Tolle Wurst.


btw bei AMD geht das von Haus aus, raus aus aus der Packung, rein ins Gehäuse und die Sorgen sind vorbei.


Du willst doch nur schönreden, das man durch manuelles rumtakten 10W sparen kann, dann ist die nv Karte aber immer noch ein abartiges Monster.
Sei doch ehrlich, gib es zu nv hat all die Features weggelassen, damit jeder ihr Hybrid SLi loben kann.
Wozu ein gute Produkt verkaufen, wenn man auch ein weiteres noch loswerden kann, das der Kunde eigentlich nicht wollte.

master_blaster
2008-01-09, 20:40:14
Ich habe keine Abeigun gegen ATI oder AMD, aber wenn sie verpennen dann haben sie halt die Pappnase auf

Und Dein Geballer diegina ist was für sowas in finger in den po massieren schrecklich :)
:ududen:

Also diese Logik ist ein unergründlicher Fundus an unbeschreiblicher Überlegenheit, ;D. Ich soll selber was dafür tun, damit ein Produkt, das ich für viel Geld erworben habe, besser (konkurrenzfähig stromsparend) läuft, als die preislich niedrigere Konkurrenz. Daumen hoch!

Nasenbaer
2008-01-09, 21:01:39
:ududen:

Also diese Logik ist ein unergründlicher Fundus an unbeschreiblicher Überlegenheit, ;D. Ich soll selber was dafür tun, damit ein Produkt, das ich für viel Geld erworben habe, besser (konkurrenzfähig stromsparend) läuft, als die preislich niedrigere Konkurrenz. Daumen hoch!
Am besten BurnIn ignorieren und sich nicht auf einen solchen Kram einlassen. Manche wollen es nicht kapieren, das manche andere Meinungen haben. Manche nennen sowas ignorant - ich schweig einfach zu der Sache. ;D

BurnIn
2008-01-09, 23:22:22
Hallooo Ihr,

Warum gibt es keine Stromsparfunktion?
Wisst Ihr nicht!
Vermutet viel!

Kann sein das die es geplant haben um H-SLI zu krönen, kann aber auch sein das dann die Karte halbes Jahr später gekommen wäre.
Aber Motzer wie Ihr die nur krumme Lampen anmachen wo es keinem bringt, wird es zum Glück immer geben :))
Und die Wahrheit, nämlich das ATI/AMD nur 2. Wahl sind wenn es um Leistung geht, auch.
Und Leistung ist das A heutzutage, warum und das da manche Features auf der Strecke bleiben ist ärgerlich. Doch dafür habt ja ATI, wo alles so schön ausgereift ist, nach all den Monaten in denen sich nVidia mit einem unausgereiftem G80 vollgefressen hat.

Wer ist da wohl das bessere Unternehmen?
Denkt mal über Euren Desktop hinaus und nicht nur bis zur Küche

Gast
2008-01-09, 23:45:12
Und Leistung ist das A heutzutage
Falsch.

Wichtig ist ein gutes Featureset und eine gute Bildqualität.
Bei letzteren scheitert nv genauso wie an ersterem, siehe neue und alte Crysis Cheats.

Weiterhin ist Preis/Leistung wichtig.
Im Performance Segment sind da nv und AMD gleichauf (3850/3870/8800GT)
Im Midrange und Lowend Bereich dominiert AMD in allen Belangen, von HDMI über VP über Preis über Leistung, alles stimmt.
Im Highend Bereich ist nv alleine und somit besser, klar, aber die Features des G80 sind schrott im Vergleich zum Performance Segment.



Denkt mal über Euren Desktop hinaus und nicht nur bis zur Küche
Das solltest vor allem du mal tun.

BurnIn
2008-01-10, 00:20:35
laut Gast

wer verdient mehr Geld mit Karten, nVidia.
Und nur weil alle die schlechten Karten kaufen anstatt die Guten billigen...wie ATI
Weil alle doof sind und nur die Handvoll 3Dler hier alles Schirmreif haben

Streitthema beendet,

Gast
2008-01-10, 00:33:52
Streitthema beendet,
Ja dir fehlen die Argumente, bzw du hast Schwierigkeiten dich klar auszudrücken, um die Diskussion sinnvoll voranzutreiben.



wer verdient mehr Geld mit Karten, nVidia.
Und das heißt? Nv hat das bessere Marketing: "The way it's meant to be played."

Gast
2008-01-10, 03:02:30
Vielleicht sollten die Ati-Fanboys sich ihre Kommentare jetzt mal verkneifen. Der Threadsteller wollte nichts über das Featureset der Ati-Karten wissen, sondern wie er seine NV-Karte in 2D runtertakten kann. Wenn ihr ihm dazu Tips geben könnt dann tut das, ansonsten belasst es beim Lesen der Postings.

Gast
2008-01-10, 09:54:31
Nein der Fredstarter wollte wissen warum nv Karten das Feature des Strom sparen verlernt haben. Ein Feature, das zu Gf7 Zeiten noch dar war.

master_blaster
2008-01-10, 14:32:47
Und das heißt? Nv hat das bessere Marketing: "The way it's meant to be played."
Guck mal, was auf der HL²-DVD für 'n Logo prangt, ;). ATI ist genauso im Marketingbereich aktiv.

Aber ich halte mich jetzt auch zurück, denn hier wird eh alles wieder nur immer neu durchgekaut, ganz unabhängig vom Thread.
BurnIn kapiert nicht, um was es geht; lassen wir ihn in seiner Welt ...

BurnIn
2008-01-10, 15:05:40
Ich kapiere genau worum es geht...
Aber Fakt ist und bleibt das die Karten seit 9 Monaten so sind und immer noch keiner weiß wieso das so ist, bzw selbst die Unternehmen bei den eigenen Biosen keine Mehrtakte anbieten, auch wenn es nur bis 30W und einigen Grad bringt.
Warum wird das nicht gemacht?
Und genau das wird schon ewig und überall diskutiert, da kann ich sowas hier schon lange nicht mehr Ernst nehmen.

Gast
2008-01-10, 16:06:15
Guck mal, was auf der HL²-DVD für 'n Logo prangt, ;). ATI ist genauso im Marketingbereich aktiv.

Gut HL2 ist eine Ausnahme, aber auch hier will nv jetzt sich breit machen http://www.computerbase.de/news/software/spiele/actionspiele/2008/januar/valve_geforce-besitzer_portal/

Gast
2008-01-10, 16:13:09
Aber Fakt ist und bleibt das die Karten seit 9 Monaten so sind
Der Release war am 8. November 2006.
Also vor 15 Monaten, das mit dem Rechnen üben wir nochmal.

Fakt ist, das die Karten einen perversen Verbrauch, besonders beim Däumchen drehen haben, noch nicht mal einen VP haben.
Warum ist scheissegal, bei AMD sieht es heute besser aus, alls bei nv heute, beim Vergleich RV670 vs G92, also warum darf man dann nicht auf AMD zeigen?

Ich hatte bisher keine Probleme mit nv, aber seit dem G80 bin ich entäuscht, keine Mittelklasse kein VP, hohe Preise, ...

master_blaster
2008-01-10, 19:20:20
Gut HL2 ist eine Ausnahme, aber auch hier will nv jetzt sich breit machen http://www.computerbase.de/news/software/spiele/actionspiele/2008/januar/valve_geforce-besitzer_portal/

Hben sie schon (http://www.gamestar.de/news/pc/spiele/action/portal/1476791/portal.html), ;). Wollte nur einen Blockbuster nennen, der von ATI "gesponsort" wurde. Ist jetzt schon ziemlich OT, aber HL² ist ja nicht das einzige Game.