PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geht das so weiter?


urbi
2006-01-26, 13:56:24
Spätestens seit Mitte 2004 wird ja der Unterschied zwischen neuester Generation und vorheriger Generation immer krasser: Am Anfang (X800, 6800) sprachen viele Tester noch von einem noch nie dagewesenen und einmaligen "Boost". Doch letzten endes hat sich das sicher nicht bewahrheitet: 7800GTX ließ die 6800 Ultra alt aussehen und die jetzt aktuelle X1900 ist bei shaderintensiven Spielen (im Moment teilweise nur Demos) teilweise annähernd so schnell wie 2 7800GTX 512. Da stellt sich unweigerlich die Frage: Werden derartig starke Performancezuwächse weiterhin auftreten, oder endet diese Phase bald?
Um es deutlich zu machen:
Letztendlich kann man schon guten Gewissens davon sprechen, dass die "Next Gen" Konsolen, ich meine die Xbox360 und die PS3, technologisch auf dem Papier schon garnicht mehr so interessant aussehen wie noch vor einigen Monaten. Wenn das so weitergeht sind wir nämlich in einem Jahr schon wieder 2-3 Generationen (oder Refreshs) weiter.
Doch auch wenn wir im PC Sektor bleiben wird die Übermächtigkeit aktueller Grafikkarten schnell deutlich: Heutige CPUs sind einfach überfordert. Ich habe selbst einsehen müssen, dass selbst der neueste Athlon FX Prozessor in Verbindung mit einer "kleinen" High End Karte a la 7800GT je nach Anwendung das schwächste Glied in der Kette darstellt.
Die Prozessorhersteller scheinen nur einen Ausweg zu sehen: Mehrkern Prozessoren - aber die werden anscheinend bisher wenig unterstützt. Wenn sich daran nicht bald etwas ändert wird Flaschenhals CPU immer dünner.
Um also auf das eigentliche Thema zurückzukommen: Was vermutet ihr? Peilen ATi und Nvidia jetzt durchschnittlich alle 4 Monate einen Refresh an, oder werden bald wieder ruhigere Zeiten Einzug halten?

Faster
2006-01-26, 14:24:23
imho werden auch wieder ruhigere zeiten kommen, denn man will die aktuellen karten ja auch immer an den man bringen, und wer kauft schon das aktuelle high-endmodell wenn er weiss das in wenigen tagen ein neuer rauskommt...

Gast
2006-01-26, 15:53:40
Da stellt sich unweigerlich die Frage: Werden derartig starke Performancezuwächse weiterhin auftreten, oder endet diese Phase bald? Ich denke schon, dass uns die D3D10-GPUs nochmal einen anständigen Performancezuwachs bringen, trotz der vielen Features die es umzusetzen gilt.

Coda
2006-01-26, 16:38:48
Ich nicht.

wollev45
2006-01-26, 18:05:45
Ich auch nicht.

Weniger Absatz = höhere Preise.

Schaut euch die Preisentwicklung der Grafikkarten an.
Zu Dm Zeiten hätte kein normaler Mensch 2200 .- Dm für 2 Grafikkarten hingeblättert. :ucrazy:

Ich kann mich noch an den Preis der Gforce 2Ultra erinnern... 980.- Dm.
Und schon damals sagte man das dies zu Teuer für ne Grafikkarte wäre.
Wo sind wir Heute ?
€400.- werden stellenweise schon als Schnäppchen angepriesen.

Hauptsache der Aktienkurs stimmt.
Letztendlich ist es das was zählt.

Omnicron
2006-01-26, 18:18:22
Hauptsache der Aktienkurs stimmt.
Letztendlich ist es das was zählt.

Es ist nicht Aufgabe der Firmen die User mit Top Hardware zu supergünstigen Preisen zu versorgen. Es ist die Schuld der User, die soviel zahlen.

Gast
2006-01-26, 19:49:35
in letzter zeit gab es kaum neue features, die IHVs konnten sich praktisch vollständig auf den speed konzentrieren.

ich denke mit den D3D10-karten wird das ganze (speedmäßig) wieder etwas gebremst um dann wieder mit großen leistungssprüngen weitergehen.

Bauer
2006-01-26, 20:21:46
Ich nicht.
beziehst du dich auf:

"Ich denke schon, dass uns die D3D10-GPUs nochmal einen anständigen Performancezuwachs bringen, trotz der vielen Features die es umzusetzen gilt."

oder auf:

"imho werden auch wieder ruhigere zeiten kommen, denn man will die aktuellen karten ja auch immer an den man bringen, und wer kauft schon das aktuelle high-endmodell wenn er weiss das in wenigen tagen ein neuer rauskommt..."

?

Coda
2006-01-26, 20:28:06
Ersteres :)

Außer die Chips sind 80nm und es gibt schon GDDR4...

Gummikuh
2006-01-26, 20:33:54
Also ich denke mal das geht alles schön so weiter... :biggrin:

Aber der Lebenszyklus der X1800 sollte sich nicht als Standard durchsetzen :upara:

Im Grunde genommen war es zumindest bei NV in der letzten Zeit bzw. eher der letzten Generation etwas ruhiger...bei der GeForce 6 gabs ja keinen richtigen Refresh Chip (eigentlich nen Wunder)...eben wegen SLI...

Achso der krempel mit nie dagewesen und schneller und blabla...sind immer diesselben Sätze, nur die Namen der Grafikchips werden getauscht...:ulol:

Gast
2006-01-26, 20:39:58
Ich nicht.
Ack. Bin auch am zweifeln.
Eine CPU könnte die Arbeit einer Graka auch erledigen, aber elend langsam.
Unifizierte Einheiten werden langsam sein...
Der R580 sollte noch lange Zeit up to date sein.

Johnny
2006-01-26, 20:42:11
Ausserdem sind die Performancesprünge seit 6800/X800 nicht sooo groß...

Coda
2006-01-26, 20:43:13
Unifizierte Einheiten werden langsam sein...Also die Aussage teile ich überhaupt nicht. Vertex- und Pixelshader haben sehr ähnliche Performancecharakteristiken.

Ich habe nur Bedenken dass die Die-Fläche bei DX10-GPUs für eine deutliche Performancesteigerung durch Skalierung von Einheiten UND den Features (die ziemlich umfangreich ausfallen) reicht. Ich rechne bestenfalls mit 25-50% Plus.

RLZ
2006-01-26, 20:48:11
Ersteres :)

Außer die Chips sind 80nm und es gibt schon GDDR4...
Was sollen sie denn mit den ganzen GDDR4 Speicherchips denn machen, die demnächst aus der Massenproduktion kommen?
2. Halbjahr sollen schon die 1.8GHz Speicherchips kommen. ;)

Edit: Hier noch ne Quelle (http://www.xbitlabs.com/news/memory/display/20051207213422.html)

mapel110
2006-01-26, 20:52:44
Dann stellst sich ohnehin langsam mal die Frage, welchen CRT Monitor man noch dadran hängt. Da brauchts dann ja 2048x1536 um noch was von der Performance bei den meisten Games zu haben.
TFT User brauchen dann nurnoch aufrüsten, wenn sie einen neuen Effekt sehen wollen, den die alte Generation nicht mehr darstellen kann. :ugly:

Gast
2006-01-26, 20:56:39
Also die Aussage teile ich überhaupt nicht. Vertex- und Pixelshader haben sehr ähnliche Performancecharakteristiken.
Magst recht haben.
Wird Load Balancing dann nicht mehr nötig sein?

Ich habe nur Bedenken dass die Die-Fläche bei DX10-GPUs für eine deutliche Performancesteigerung durch Skalierung von Einheiten UND den Features (die ziemlich umfangreich ausfallen) reicht. Ich rechne bestenfalls mit 25-50% Plus.
Meinst du wirklich, daß die ersten US-Architekturen schon ausgereift sein werden?
Von den Features mal abgesehen...
Ich stelle mir das eher wie die FX vor, die vor lauter (theoretischer) Kraft kaum laufen konnte. ;)

Gummikuh
2006-01-26, 20:57:40
Ich glaube da versalzen uns die Spielhersteller die Suppe...

Leistung im Überfluß, dann müssen wir ja nicht so auf Performance der Engine Wert legen... :rolleyes:

Zoroaster
2006-01-26, 21:01:20
Ich kann mich noch an den Preis der Gforce 2Ultra erinnern... 980.- Dm.
Und schon damals sagte man das dies zu Teuer für ne Grafikkarte wäre.
Wo sind wir Heute ?
€400.- werden stellenweise schon als Schnäppchen angepriesen.980,-?
Wohl eher nach ein bis 2 Monaten. Am Anfang warens 1200 - 1400 DM. Da wurde natürlich auch laut gestöhnt...:wink:

Demirug
2006-01-26, 21:09:20
So viele neue Features müssen gar nicht für einen D3D10 Chip eingebaut werden und wir haben ja gesehen das man trotz des Übergangs von SM2 auf SM3 die Performances noch steigern konnte.

Gast
2006-01-26, 21:24:06
Also mir scheinen diese G71/R580 Generation irgendwie überflüssig.

Ende des Jahres kommt Vista und damit dann DX10 und somit wieder ein featuremäßiger Grund aufzurüsten.

Spielemäßig wirds dann wohl endlich wieder was neues geben(Wow Effekt!): CryEngine2, UnrealEngine3 usw.

Was ich so gehört habe wird DX10 effizienter mit den Resourcen umgehen wie DX9!

Gast
2006-01-26, 21:31:27
Also mir scheinen diese G71/R580 Generation irgendwie überflüssig.
Aha, was veranlasst dich zu dieser Annahme?

Ende des Jahres kommt Vista und damit dann DX10 und somit wieder ein featuremäßiger Grund aufzurüsten.
Wenn nichts davon auf dem Monitor ankommt, dann kann man sich das auch sparen...;)
Vista?
Wayne...


Spielemäßig wirds dann wohl endlich wieder was neues geben(Wow Effekt!): CryEngine2, UnrealEngine3 usw.
Nicht wirklich.
Was soll da kommen? Tranluszenz?
Wow, falle gleich vom Hocker, weil dies auch mit SM3 möglich ist.


Was ich so gehört habe wird DX10 effizienter mit den Resourcen umgehen wie DX9!
Das hat nichts mit D3D10 zu tun.

Gast
2006-01-26, 21:32:54
Wann werden eigendlich mal neue Beleuchtungsmodelle kommen(Schlick)

Gast
2006-01-26, 21:34:26
Sowohl die UE3, als auch Crysis basieren noch auf DX9...

Demirug
2006-01-26, 21:37:42
Ende des Jahres kommt Vista und damit dann DX10 und somit wieder ein featuremäßiger Grund aufzurüsten.

D3D10 bitte. Ein komplettes DX10 ist derzeit nicht in Sicht.

Spielemäßig wirds dann wohl endlich wieder was neues geben(Wow Effekt!): CryEngine2, UnrealEngine3 usw.

Beides primär SM3 Engines. Wobei D3D10 wohl erst bei der UnrealEnige4 benutzt wird. Die CryEngine soll immerhin D3D10 enabled sein. Wenn das aber so abläuft wie beim FSX wird es höchstens weniger CPU lastig bei gleichen Effekten.

Was ich so gehört habe wird DX10 effizienter mit den Resourcen umgehen wie DX9!

Jaein. D3D10 kann weniger CPU lastig programmiert werden. Das bessere Videospeichermodel hat man immer unter Vista.

RLZ
2006-01-26, 21:45:44
Jaein. D3D10 kann weniger CPU lastig programmiert werden. Das bessere Videospeichermodel hat man immer unter Vista.
Wobei man ja die gesparte CPU-Leistung wieder investieren kann um die Grafikleistung allgemein zu erhöhen. Ein Z-First Pass wird imo damit wieder interessanter.

M2-Master
2006-01-26, 21:48:08
Sind die Geometry-Shader denn eine völlig neue Sache von D3D10 oder gab es die in irgendeiner Form schon vorher ?

Demirug
2006-01-26, 22:00:48
Wobei man ja die gesparte CPU-Leistung wieder investieren kann um die Grafikleistung allgemein zu erhöhen. Ein Z-First Pass wird imo damit wieder interessanter.

In Verbindnung mit der neuen Predication Funktion lohnt er sich sogar doppelt.

Demirug
2006-01-26, 22:02:10
Sind die Geometry-Shader denn eine völlig neue Sache von D3D10 oder gab es die in irgendeiner Form schon vorher ?

Der Geometry Shader ist neu.

Crafty
2006-01-26, 22:02:43
Ob das so weitergeht ?
Keine Ahnung,solange alles auf meiner x800pro relativ ruckelfrei rennt wozu sollte ich dann eine neue Graka kaufen ??

Zudem ist bei mir Quake 3 seit den letzten 2 Grakagenerationen net mehr zum laufen zu bewegen,bzw. freezt,trotz 3 fachen NT Wechsel,mehrfacher Neuinstallation,und jeweils ein P4 System und ein AMD System unmöglich stabil zum laufen zu bewegen während alles was auf dieser Engine aufbaut und neuer ist problemlos rennt.

Ausserdem wenn ich mir die aktuell explodierenden Stromkosten anschaue :eek: :eek: ,wer will sich dann noch so einen Hochofen in den PC setzen der zuviel Power verbraucht ??

Also seit meiner letzten Nachzahlung ans RWE(die damit scheinbar ihre umgeknickten Masten im Münsterland damit neufinanziert)bin ich net scharft auf nen grösseren Stromfresser.

Dann lieber nen M Pentium zusammenbauen und bei nem humanen System bleiben.

RLZ
2006-01-26, 22:04:27
Sind die Geometry-Shader denn eine völlig neue Sache von D3D10 oder gab es die in irgendeiner Form schon vorher ?
Als Geometrieerzeugung auf der Grafikkarte nein. Natürlich kann die CPU die Aufgabe momentan erledigen.
Ich rechne am Anfang aber nicht mit vielen Effekten, die auf dem Geometrieshader aufbauen. Wahrscheinlich wird er vorerst vorallem zur Beschleunigung benutzt (zB für Cubemaps).

RLZ
2006-01-26, 22:09:43
In Verbindnung mit der neuen Predication Funktion lohnt er sich sogar doppelt.
Kommt jetzt drauf an, wieviel Zeit zwischen den drawCalls liegen muss, damit die Prediction wirklich greift. Da ich pessimistisch bin, rechne ich da vorerst mal mit dem Worst-Case = nicht wirklich effektiv.

Palpatin
2006-01-27, 13:38:21
Nein es geht nicht ewig so weiter da die Leistungsaufnahme der Karten bis jetzt mit jeder Generation gestiegen ist man wird schon sehr bald an thermische grenzen stoßen ..... ausserdem würd mich intressieren in welchem spiel ein a64 fx zu langsam ist ? selbst wenn man 2 7800 gtx 512 sli im system hat und diese mit nem 3200er (der schon fast 2,5 jahre auf dem buckel hat) betreibt kann man die Grafkisettings bei allen aktuellen spielen so hoch ansetzten das 100% das sli system und nicht die cpu limitiert .... und mir fällt jetzt auch spontan kein game ein welches mit nem a64 3200 schlecht läuft.

Ri*g*g*er
2006-01-30, 11:56:05
Mhm,

Neue Hardware ist ja schön und gut aber wo bitte ist die Software um die ganzen Spielerein endlich mal sinnvoll zu nutzen ?

Wo sind denn die ganzen Shader 3 Spiele ?

Die Software hinkt der Hardware ca. immer 1-2 Jahren hinterher so wird das leider immer sein.

Außerdem kommt noch der grosse Punkt der 1000 Konsolenumsetzungen dazu.
Es werden ja heute nur noch sehr wenige reine PC Spiele programmiert, weil es sich einfach nicht lohnt und somit sehen wir X Portierungen.
Dafür brauch man kaum dicke Hardware.

Jetzt kommt mir nicht mit jetzt schau Dir mal Fear etc.
Solche Spiele sind einfach nur schlecht programmiert.

Ein tadeloses Beispiel für gute Umsetzung ist z.b. Call of Duty 2 das hat einen Fallbackmodus bis zu DX7 und sieht damit kaum schlechter aus als auf DX9.

Mfg
Ri*g*g*er

JaDz
2006-01-30, 12:16:43
D3D10 bitte. Ein komplettes DX10 ist derzeit nicht in Sicht.

Und was war dann hier (http://www.winhelpline.info/news/index.php?show=send&n_id=14486) in Sicht?

Omega2
2006-01-30, 12:43:50
Jupp imho geht es solange so weiter, wie die beiden großen Hersteller, die Performancekrone haben wollen. Da gibt es keine Alternative.

Der einzig limitierende Faktor bei der Entwicklung der GPUs sind die Kosten. So lange man die Kosten der Neuentwicklungen gedeckt bekommt, müssen beide Entwickeln was das Zeug hält, da im Grafik Bereich der am meisten Geld verdient, der die Performancekrone inne hat.

Ich könnte mir allerdings vorstellen, daß in naher Zukunft das Dualcore-Prinzip auch bein den GPUs Einzug hält.
Also kein SLI, sondern wirklich mehrere Cores, die so zusammengeschaltet werden, daß es nach Außen hin, wie eine einzige GPU aussieht.

Imho finde ich es sehr verwunderlich, daß wir das heute noch nicht haben. Vielleicht können mir die Cracks hier im Forum eine Erklärung dafür liefern.

Da GPUs ja so wunderschön parallel aufgebaut sind, würde doch ein multicore System entsprechend gut skalieren und es dürfte doch billiger sein 4 Kerne mit je 200Mio Transistoren zusammenzuschalten als ein Monster mit 400 oder mehr herzustellen.

Das Einzige was solche GPU Kerne bräuchten, wäre ein extrem schneller Systembus, der die Kommunikation untereinander und mit dem Ram sicherstellt. Vielleicht ist aber auch Letzteres das Prob.

Gruß

Omega

Gast
2006-01-30, 13:01:42
Ich könnte mir allerdings vorstellen, daß in naher Zukunft das Dualcore-Prinzip auch bein den GPUs Einzug hält.
Also kein SLI, sondern wirklich mehrere Cores, die so zusammengeschaltet werden, daß es nach Außen hin, wie eine einzige GPU aussieht.

Imho finde ich es sehr verwunderlich, daß wir das heute noch nicht haben. Vielleicht können mir die Cracks hier im Forum eine Erklärung dafür liefern.So lange man noch in der Breite skalieren kann, machen mehrere Cores kaum Sinn (mal abgesehen von den Leuten, denen eine High-End-Karte nicht reicht). Es ist einfach effizienter einen Chip mit 32 Pipelienes zu haben als zwei mit je 16.

Jetzt kommt mir nicht mit jetzt schau Dir mal Fear etc.
Solche Spiele sind einfach nur schlecht programmiert.Ich denke nicht, dass du das beurteilen kannst.

SynchroM
2006-01-30, 13:19:52
Ich hab' keine Ahnung wie's in Zukunft weitergeht aber ich finde die Sprüche wie
-"erstmal die aktuelle Technik voll ausnutzen" oder
-"Die Leistung ist eh nur noch CPU limitiert"
werden mit den Jahren auch nicht richtiger.

Ich kann auf meinem TFT mit 24" Beliebig viel 3D Power gebrauchen. Und wenn ich mal FEAR mit 1920 x 1200 flüssig spielen kann(mit irgend so einem Quad 7800 GTX Ultra2 plus Extreme edition teil), dann kann ich immer noch die Qualität hochschrauben bis es ruckelt (oft reicht schon 4xSSAA).
Fazit: 3D-Leistung kann man NIE genug haben.

Und wenn man "Die Aktuelle Technik voll ausnutzt"? Dann werden die Spiele halt noch langsamer. Nur weil die Shaderprogramme klein sind werden sie ja nicht ineffizient.

Shakti
2006-01-30, 13:40:41
Kann mich meinem Vorredner nur anschliessen. Und preislich gesehen haben mich damals die Matrox Millenium mit 8 MB Speicher und 2x Voodoo 2 12 MB auch mal eben 1800 DM gekostet.

Gast
2006-01-30, 15:14:54
Die Software hinkt der Hardware ca. immer 1-2 Jahren hinterher so wird das leider immer sein....
Warum leider? 1-2 Jahre alte Games sind günstig zu haben. Die Hardware für diese Spiele ist auch noch relativ günstig und der Spielspass hat mit dem Alter auch nicht sonderlich viel zu tun. Eher konzentrieren sich ältere Games noch mehr auf den Inhalt als auf die Grafikpracht.

alpha-centauri
2006-01-30, 20:05:00
ich würd mir wünschen, bei cpus wäre es so ! mit dualcore kam es ja schon fast.

bie grafikkarten kann man ja grob sagen: doppelt so viele frames, doppelt so teuer, mal mehr mal weniger.

bei cpus kannste das nicht wirklich, bei dualcores gehts ja schon annäherend. dennoch verpufft die DC leistung bei spielen fast zusehenst.

c0re
2006-01-30, 20:22:22
Am Anfang (X800, 6800) sprachen viele Tester noch von einem noch nie dagewesenen und einmaligen "Boost". Doch letzten endes hat sich das sicher nicht bewahrheitet:

Doch es hat sich bewahrheitet! Sogar direkt und nicht "nur" letzen endes. Denn der Performance Sprung der 6800er Karten im direkten Vergleich zu den 5900er Karten ist sehr groß!

Die CPU ist afaik schon seit GeForce Zeiten der Flaschenhals. Ausnahme waren die 3Dfx Voodoo Karten. Die überließen der CPU nämlich kaum Arbeit und machten fast alles selber (mehr als heutige Karten). OT: Sowieso Krass, was ich letztens erfahren habe. Diese (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3893923&postcount=334) Voodoo 5 6000 (Quad SLI) wäre wohl auf dem Leistungsniveau einer GeForce 6800!

Die Entwicklung wird so weiter gehen. Vermutlich gar noch schneller. Zumindest in der nahen Zukunft (die nächsten 5 Jahre). Das ist ähnlich wie mit den Bandbreiten im Internet. Erst 768 Kbit, dann 1 Mbit, 2, 3, 6, 16 Mbit ...

Gast
2006-01-30, 20:29:59
Ich könnte mir allerdings vorstellen, daß in naher Zukunft das Dualcore-Prinzip auch bein den GPUs Einzug hält.
Also kein SLI, sondern wirklich mehrere Cores, die so zusammengeschaltet werden, daß es nach Außen hin, wie eine einzige GPU aussieht.



grafikkarten sind im prinzip schon multicore. im prinzip kannst du jedes quad als einen "core" sehen und zusätzliche jeden VS als einen core und noch ein paar zusätzliche "cores". es ist absolut sinnlos 2 GPUs direkt gemeinsam zu fertigen, du hast eine verdopplung der transistoren verlustleistung etc, während du garnicht alle teile wirklich doppelt brauchst.

grafikkarten können praktisch beliebig in die breite skaliert werden (solange die transistoren ausreichen, aber die transistorenverdopplung hast du ja bei dualcore auch), deshalb wird es nie "echte" multicores bei grafikkarten geben.
das höchste der gefühle sind mehrere GPUs auf einem board, aber auch nur für den absoluten enthusiast-bereich.

Gast
2006-01-30, 20:41:04
Was ist eingentlich aus dem Schlick-Beleuchtungsmodell geworden es hieß als das es Phong ablösen sollte?

Und wie siehts aus mit einer Raytracer-GPU(Saar-Core)?
Geht die Entwicklung langfristig so oder so dahin oder gibts da andere Ansätze?

Piffan
2006-01-30, 21:15:05
Die Entwicklung wird so weiter gehen. Vermutlich gar noch schneller. Zumindest in der nahen Zukunft (die nächsten 5 Jahre). Das ist ähnlich wie mit den Bandbreiten im Internet. Erst 768 Kbit, dann 1 Mbit, 2, 3, 6, 16 Mbit ...

Unsinn! Gerade das Beispiel mit dem Internet ist daneben. Da kommt man ruckzuck an Bandbreitengrenzen......

Auch wenns unbeliebt ist: Irgendwann stößt man immer an Grenzen. Bei den CPUs ist es die Taktgrenze, an der jetzt geknabbert wird(früher als geglaubt), bei den GPUs wirds irgendwann mal der Geldbeutel der Konsumenten sein, der dem Treiben ein abruptes Ende setzt.

Und letzten Endes ist es die Contentindustrie, der irgendwann mal der Aufwand über den Kopf wachsen könnte. Oder die haben die Schnauze voll, von Fachleuten abgewatsch zu werden. Von wegen einfach nur schlecht programmiert und so. Und überhaupt sind alte Spiele ja eh besser, wie wir doch alle wissen. :tongue:

Egal: Wenigstens für Oblivion werde ich noch mal aufrüsten. Aber zum letzten Mal. :wink:

sloth9
2006-01-30, 22:14:40
Unsinn! Gerade das Beispiel mit dem Internet ist daneben. Da kommt man ruckzuck an Bandbreitengrenzen......

Auch wenns unbeliebt ist: Irgendwann stößt man immer an Grenzen. Bei den CPUs ist es die Taktgrenze, an der jetzt geknabbert wird(früher als geglaubt), bei den GPUs wirds irgendwann mal der Geldbeutel der Konsumenten sein, der dem Treiben ein abruptes Ende setzt.

Und letzten Endes ist es die Contentindustrie, der irgendwann mal der Aufwand über den Kopf wachsen könnte. Oder die haben die Schnauze voll, von Fachleuten abgewatsch zu werden. Von wegen einfach nur schlecht programmiert und so. Und überhaupt sind alte Spiele ja eh besser, wie wir doch alle wissen. :tongue:

Egal: Wenigstens für Oblivion werde ich noch mal aufrüsten. Aber zum letzten Mal. :wink:

Und für No one lives forever 3, die supergute PS2-Emulatoren-Multiplattform-Version...

Gast
2006-01-30, 23:11:45
Oder die haben die Schnauze voll, von Fachleuten abgewatsch zu werden. Von wegen einfach nur schlecht programmiert und so. Joar, da krieg ich auch die Krise wenn ich sowas hör. Da integriert man die neusten Effekte in sein Produkt, damit man nicht zu hören kriegt, dass die Grafik total veraltet ist und dann kommen die angeblichen "Fachleute" mit den Schrottrechnern an und sagen "ist doch scheiße programmiert und überhaupt, total unoptmiert unzo"

SynchroM
2006-01-31, 09:57:34
Die CPU ist afaik schon seit GeForce Zeiten der Flaschenhals. Ausnahme waren die 3Dfx Voodoo Karten. Die überließen der CPU nämlich kaum Arbeit und machten fast alles selber (mehr als heutige Karten). OT: Sowieso Krass, was ich letztens erfahren habe. Diese (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3893923&postcount=334) Voodoo 5 6000 (Quad SLI) wäre wohl auf dem Leistungsniveau einer GeForce 6800!...

Klaar haben die heiligen Voodoos alles selber gerechnet. Nicht nur die Position der Vertices sogar Physik, Sound und BWL-Aufgaben ;)
Meine konnte sogar Jogurt machen.

und wegen der Karte von Quantum3D:
Jetzt mal nicht Füllrate mit Gesamtleistung verwechseln. So hart es ist: Das Ding ist uralt und kann NIX!

svenw
2006-01-31, 11:14:32
Mehrere Chips auf einer Karte werden über kurz oder lang kommen. Ein vergrößern der Chips wird es immer weniger geben, denn damit steigt die Rate von Ausschuß in der Produktion. Ich glaube auch, das die Entwicklung noch etwas so weiter geht, aber in 1-2 Jahren endet, weil die Ksoten allen beteiligten davonlaufen.

Ich frag mich allerdings ob das was wir momentan auf dem Spielesektor sehen wirklich gesund ist. Es wird immer mehr auf die Grafik abgehoben dafür verkürzen sich die Spielzeiten immer mehr. 10-12 stunden sind heute Standard. Mehr und bessere Grafik fordert auch mehr Zeit für ihre Programmierung. Da die Spielepreise mehr oder weniger bei 40-50 Euro festliegen muß das GEld irgendwo gespart werden und das passiert bei der Story. Ob das wirklich der Weisheit letzter Schluß ist? Grafik sit schön, aber zumindestens für mich kein Selbstzweck sondern Mittel zum Zweck aka um eine spannende Geschichte zu erzählen. Wenn ich die Wahl zwischen Story und Grafik habe würde ich mich immer für die Story entscheiden. Ich glaube das die momentane Grafikentwicklung die Softwareproduzenten überfordert weil sie noch nciht die Werkzeuge haben um effektiv die geforderten Grafiken zu erzeugen.

Gast
2006-01-31, 14:13:30
Die CPU ist afaik schon seit GeForce Zeiten der Flaschenhals. Ausnahme waren die 3Dfx Voodoo Karten. Die überließen der CPU nämlich kaum Arbeit und machten fast alles selber (mehr als heutige Karten).


Eine Voodoo 1 wurde ja auch schon von einem Pentium 100 bei den meisten Spielen mit ausreichend Daten versorgt. Mehr Arbeit als neuere Karten hat sie der CPU aber trotzdem nicht abgenommen. Als dann der Sprung zur Voodoo 2 kam wunderte sich aber auf einmal jeder, dass der Voodoo 1 effekt ausblieb und man der Karte plötzlich eine schnelle CPU zur Seite stellen musste um das Potential auszunutzen, was ja bei einer Voodoo 1 nicht wirklich schwer war (50 Megapixel Füllrate \o/).

Bumsfalara
2006-01-31, 14:23:44
Die CPU ist afaik schon seit GeForce Zeiten der Flaschenhals. Ausnahme waren die 3Dfx Voodoo Karten. Die überließen der CPU nämlich kaum Arbeit und machten fast alles selber (mehr als heutige Karten)


Ich stimme 100% nicht mit dir überein.

Mit der Geforce 3 waren auch die XP Prozessoren im kommen, die von der Architektur her ein neues Zeitalter eingeläutet haben. Die waren schon abartig schnell. Vor 3 Jahren gab es bereits Prozessoren auf 3GHZ Niveau, da war noch jede Geforce4 oder Geforce3 hoffnungslos überfordert.

Meiner Meinung nach gab es vor etwa 3-4Jahren den größten Sprung in der Prozessorentwicklung, neue MHZ Zahlen wurden ratzfatz erreicht.

Einen neuen Sprung können wir zurZeit beobachten, mit neuen Geräten von Intel als auch von AMD.

Coda
2006-01-31, 15:00:57
Äh, der Athlon XP war bis auf einige sehr kleine Details identisch mit dem Athlon.

Gast
2006-01-31, 18:54:09
Bums liegt schon richtig!
Vorallem die Taktraten der CPU und des FSB(DDR400)!