PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel vs. Nvidia - Kampf der Giganten um den Vorherrschaft im Personal Computer


reunion
2008-05-12, 09:20:10
Nachdem es dazu nach wie vor keinen Thread gibt und das Ganze einfach zu ulkig (:D), aber auch wichtig ist, eröffne ich hiermit die Schlacht um die Vorherrschaft im zukünftigen Personal Computer. Kurz zusammengefasst behaupten beide Parteien dass das jeweilige Konkurrenzprodukt größtenteils überflüssig ist und sich ein Upgrade nicht lohnt.

Nachdem NV kürzlich mächtig ausgeteilt hatte und nicht nur Larabee als Powerpoint-Projekt bezeichnete, sondern auch klar stellte, dass einzig ein Upgrade der GPU Sinn machen würde...

http://en.expreview.com/img/2008/05/12/cpu3.jpg
http://en.expreview.com/2008/05/12/intel-upgrade-gpu-have-no-benefit-to-users/

http://www.dvhardware.net/news/nvidia_analyst_day_08_slide_3.jpg
http://www.dvhardware.net/article26483.html

...kommt nun mal wieder von Intel die entsprechende Gegenattacke:

http://en.expreview.com/img/2008/05/12/cpu1.jpg

http://en.expreview.com/img/2008/05/12/cpu2.jpg
http://en.expreview.com/2008/05/12/intel-upgrade-gpu-have-no-benefit-to-users/

Wer noch andere Kommentare, Slides oder dgl. findet darf diese hier gerne posten. Vorallem möchte ich diesen Thread aber dazu nutzen um über die zukünftige Entwicklung zu spekulieren: Was wird sich durchsetzen? Entwickelt Intel oder nV in eine Sackgasse? Wird es weiter eine Co-Existenz beider Technologien geben?

Avalox
2008-05-12, 11:34:26
nVidia muss einfach den Sprung machen und die GPU Processing Eigenschaften dem gesamt System zur Verfügung stellen. Sonst sieht es doch sehr düster für nVidia aus.

Mit zunehmender Verbreitung von Konsolen verringert sich die Attraktivität des PCs als Spieleplattform. Der Domaine für nVidia Grafikkarten. Diesen Trend hat natürlich nVidia vor Jahren auch mit gestartet, als man für MS mehr oder weniger das XBox drumherum gestalltet und damit Maßstäbe für Konsolen gesetzt hat.

nVidia ist dort stark, wo die Bedeutung grade gewaltig abnimmt. Das muss man mal so einfach feststellen. nVidia müsste jetzt auftrumpfen und versuchen MS mit ins Boot zu ziehen, für ordentlichen Spielenachschub und dort für die Umsetzung technischer Vorteile der PC Plattform sorgen.
Obwohl man MS eigentlich unterstellen müsste, eigentlich kein zweites Processing Element im PC haben zu wollen, da es die Sache nur unnötig kompliziert macht und davon MS in der Vergangenheit viel zu viel schlechte Erfahrung gemacht hat. Dabei sind Spiele absolut überlebenswichtig für MS Windows, weil diese letztendlich den Unterschied zum Linux@Home definieren. Darin sollten nVidia und MS eigentlich dort das selbe Ziel haben.

Intel muss sich nun also bemühen nVidia einfach den Zugang zum allgemeinen Processing im PC zu verwähren, dafür ihre Marktmacht nutzen und das Problem Processing Konkurrent nVidia dürfte sich von alleine lösen und nVidias Bedeutung sukzessiv abnehmen.

Der Weg CPU mit GPU Hersteller zu vereinen ist absolut der richtige Weg, auch wenn AMD momentan doch ganz schön dran knappert.

nVidia ist viel zu handzahm vorgegangen. Grade jetzt müsste nVidia ganz aggressiv versuchen Standards auf dem PC für alle möglichen Processing Fälle zu setzen. Ob es nun Audio Recodierung, Fotofilter oder Videoencoder sind. Alles muss nVidia über einfache Schnittstellen bedienen. Sonst lacht sich Intel einen Ast und gibt nVidia auch noch sich über die grundlegenden Versäumnisse nVidias auch noch in Folien lustig. So wie oben.

Botcruscher
2008-05-12, 11:58:16
NV wäre gut bedient erstmal für offene Standards zu sorgen. PhysX oder Cuda kann man nicht alleine gegen AMD in den Grafikmarkt drücken. Ohne breite Unterstützung werden sich aber maximal Insellösungen durchsetzen.

Nakai
2008-05-12, 12:38:12
nVidia ist viel zu handzahm vorgegangen. Grade jetzt müsste nVidia ganz aggressiv versuchen Standards auf dem PC für alle möglichen Processing Fälle zu setzen. Ob es nun Audio Recodierung, Fotofilter oder Videoencoder sind. Alles muss nVidia über einfache Schnittstellen bedienen. Sonst lacht sich Intel einen Ast und gibt nVidia auch noch sich über die grundlegenden Versäumnisse nVidias auch noch in Folien lustig. So wie oben.

Wenn Intel in den Grafikchipmarkt richtig einsteigt, dann muss NV was dagegen bieten.
Larrabee wird sehr interessant, so wie es aussieht.

CUDA und PhysiX bringt es im Mainstream-Segment nicht wirklich(außer PhysiX). Im Professionellen Bereich könnte es an Bedeutung gewinnen. Einen Standart wird man wohl nicht setzen.


mfg Nakai

Gast
2008-05-12, 13:06:30
Wieso sollten Intel in den Grakamarkt wenn die ihre CPUs anstelle von NV GPUs verticken wollen?

Oder hab ich was verpasst?
Was ist Larrabee

deekey777
2008-05-12, 13:11:38
Wenn Intel in den Grafikchipmarkt richtig einsteigt, dann muss NV was dagegen bieten.
Larrabee wird sehr interessant, so wie es aussieht.

CUDA und PhysiX bringt es im Mainstream-Segment nicht wirklich(außer PhysiX). Im Professionellen Bereich könnte es an Bedeutung gewinnen. Einen Standard wird man wohl nicht setzen.


mfg Nakai
Ich habe so ein Gefühl, dass Larrabee Gift für CUDA und CAL/Brook+ ist.
CUDA wird seine Stärken in einigen Monaten zeigen, wenn jeder Besitzer einer G80 seine H.264-Videos in Echtzeit transkodieren wird. Mit CAL/Brook+ kann man schon heute mit AMDs HD-Serie Eiweiße falten.

_DrillSarge]I[
2008-05-12, 13:33:21
oh mann, dieses dumme marketinggeblubber erinnert mich irgendwie an nvidia vs. kyro2 :biggrin:

amd kann sich in der hinsicht zurücklehnen, da es ihnen ja prinzipiell "egal" ist, ob nun gpu oder cpu

Sunrise
2008-05-12, 14:20:19
@Reunion:
Ist absolut der richtige Zeitpunkt für diesen Thread. Danke.

@Avalox:
Sehr guter Beitrag. Gibt eigentlich keinen Satz, dem ich nicht direkt zustimme.

Da ich ungern den kompletten Text neu abtippen und auch übersetzen möchte, hier mal der Link ins B3D-Forum, ich hatte mich zufälligerweise heute dort in die Diskussion eingeklingt, geht in die gleiche Richtung:
http://forum.beyond3d.com/showpost.php?p=1160617&postcount=26

Mein vorheriger Beitrag bezog sich im Übrigen auf dieses Interview mit Jen-Hsun Huang (lesenwert, da er sehr emotional rüberkommt):
http://www.cnet.com/8301-13924_1-9939430-64.html

tombman
2008-05-12, 14:35:35
Natürlich hat Intel Recht, wenn sie sagen, daß eine cpu überall Vorteile bringt, nicht nur in games.
Da ist es FÜR DIE MASSE dann auch egal, ob ein nv Grafikchip 10x oder 1 Million mal schneller bei games ist ;) Es bleiben einfach "nur games" ;)

Nvidia muß daher schleunigst zeigen, daß eine GPU weit mehr kann als schöne fps bei den neuesten games generieren.
Das muß einfach ein universeller Koprozessor werden, wenn man nicht nur gamer als Kundschaft haben will. Sprich, es muß einfach PLUGINS in den wichtigsten Anwendungen der Masse geben, aber ob da die Macht von Nvidia ausreicht wage ich mal zu bezweifeln...:(

Ich bezweifle aber auch, daß Intel kurz- und mittelfristig etwas auf die Beine stellen kann, was schneller als der jeweils aktuelle highend Nvidia Grafikchip ist, ganz abgesehen von den Treibern.

Nvidia kann also nur hoffen, daß Intel nie einen schnellen und vorallem kompatiblen Grafikchip herausbringt, weil dann haben sie ein großes Problem- was man auch an der Nervosität von Nvidia sehen kann.

Intel braucht die Gpu nicht um erfolgreich zu sein, ohne Intel Cpus geht in der Masse nun mal gar nix. Und nvidia wird sicher keine CPU designen...

Nvidia braucht aber dringend die Gpu, die haben ja sonst nix ;D Es reicht auch nicht in ein paar techdemos theoretisch zu zeigen, daß ne Gpu 10x schneller rechnet als ne Cpu, wenn diese Funktion nicht GRATIS in Standardprogrammen vorkommt.
Und da wird Intel sicher seine ganze Macht einwerfen um genau diese plugins zu verhindern, weil sie ja dann verdammt blöd dastehen würden ;)

Ich fürchte langfristig um Nvidia :(

tombman
2008-05-12, 14:47:37
Habe ich noch vergessen:

Klar, man braucht keine schnellere Cpu um ganz normales Office zu betreiben, was ein gutes Argument pro Nvidia ist, aber da gibts ein psychologisches Problem: "Wir wollen was wir sehen, jeden Tag" (Schweigen der Lämmer).
Wenn also Intel die dumme Masse pausenlos mit falscher Werbung bewirft, man bräuchte zb unbedingt Hyperthreading für schnelleres Internet (das kam ja schon vor, wie sich ältere Semester erinnern ;)), dann wird es ein großer Teil der dummen Masse irgendwann glauben, Motto: "Irgendwas wirds schon bringen". Und ne neue Cpu kostet vielleicht 150$ und nicht 500$ wie eine Highend Graka.
Und eine Cpu MUSS man kaufen, weil sonst gibts keinen PC. Da "nehm ich doch gleich den neuen und besseren" ;) Ein PC rennt auch mit intergrierter Grafik, dh, zu einer Highend GPU muß mich WER ÜBERREDEN!
Das wird aber nicht gelingen, wenn man nicht zufällig highend gamer ist. "Ich spiele eh nicht so oft, und dann macht das Larabee auch gut" -> Ohoh ;)

Fazit: die GPU muß aus der Spieleecke raus, sonst ist Nvidia auf lange Sicht verloren.

Der richtige Weg wäre natürlich FUSION, aber das kann ich mir bei Intel/Nvidia nicht vorstellen.

Scose
2008-05-12, 15:12:22
Dabei sind Spiele absolut überlebenswichtig für MS Windows, weil diese letztendlich den Unterschied zum Linux@Home definieren. Darin sollten nVidia und MS eigentlich dort das selbe Ziel haben.


Meinst du das wirklich ernst? Ich kann das absolut nicht nachvollziehen...
Den Vorteil (oder sagen wir das Pro-Argument) von Windows ggü. Linux auf den Spielemarkt zu reduzieren ist imho doch etwas realitätsfern.

tombman
2008-05-12, 15:14:58
Windows ist in der Augen der Masse einfach DAUTAUGLICH. Das ist einfach der wahre Schatz von Windows. Und das muß ja nicht mal wahr sein, allein aufgrund des Verbreitungsgrades "muß" es das einfach sein :rolleyes:
Alle haben Windows, deshalb wollen es alle. Weil es alle wollen, haben es alle -> welcome to hell :D

reunion
2008-05-12, 16:00:05
Der richtige Weg wäre natürlich FUSION, aber das kann ich mir bei Intel/Nvidia nicht vorstellen.

Ich denke, dass das der einzig richtige Weg ist, den auch alle Hersteller verfolgen. Auch wenn CPU und GPU sich immer ähnlicher werden, haben beide doch sehr spezifische Vor- und Nachteile. Auch Intel geht ja mit Nehalem den Weg die GPU auf das CPU-Package zu pflanzen. Klar wird das zur beginn nur eine kleine IPG sein um sich die Northbridge zu sparen, doch in Zukunft kann ich mir da weitaus mehr vorstellen. Wäre Intel der Meinung man könnte die GPU völlig aus dem Markt verdrängen, da diese in Zukunft nicht an Bedeutung gewinnen würde, würde man wohl kaum an Larabee arbeiten. Und zumindest von AMD gibt es schon Konzeptfolien, in welchen GPU und CPU im letzten Schritt vollends auf einem Die verschmelzen. Die große Frage wird sein was macht nV?

tombman
2008-05-12, 16:02:48
Die große Frage wird sein was macht nV?
Der Fluch der Mumie des 3DFx schlägt zurück? :eek:

:devil:

Nakai
2008-05-12, 16:07:59
Wieso bleibt NV nicht im GPU-Segment?
Solange sie GPUs liefern die gute Performance haben, dann sollte man kein Problem haben.
Das heißt auch, dass NV dann ein Hersteller von spezialisierten Chips wird, ergo viel Leistung für Spiele und professionellen Anwendungen.
Das es NV schafft ihre GPUs für alle Sachen zu öffnen halte ich für nahezu unmöglich.


mfg Nakai

reunion
2008-05-12, 16:15:49
Wieso bleibt NV nicht im GPU-Segment?
Solange sie GPUs liefern die gute Performance haben, dann sollte man kein Problem haben.
Das heißt auch, dass NV dann ein Hersteller von spezialisierten Chips wird, ergo viel Leistung für Spiele und professionellen Anwendungen.
Das es NV schafft ihre GPUs für alle Sachen zu öffnen halte ich für nahezu unmöglich.


mfg Nakai

Wer braucht noch eine diskrete GPU wenn ich von AMD und Intel irgendwann ein All-in-One-Paket bekomme und die Entwickler darauf aufspringen? Selbst wenn es auch dann noch einen Nischenmarkt für diskrete GPUs geben könnte, wird dieser deutlich kleiner sein als heute.

tombman
2008-05-12, 16:17:10
Wieso bleibt NV nicht im GPU-Segment?
Solange sie GPUs liefern die gute Performance haben, dann sollte man kein Problem haben.
Das heißt auch, dass NV dann ein Hersteller von spezialisierten Chips wird, ergo viel Leistung für Spiele und professionellen Anwendungen.
Das es NV schafft ihre GPUs für alle Sachen zu öffnen halte ich für nahezu unmöglich.

Weil man für HD-Gaming keinen PC mehr braucht (Konsolen FTW?), und weil PC-Gaming-Enthusiasten zu wenige sind...

Nakai
2008-05-12, 16:19:42
Weil man für HD-Gaming keinen PC mehr braucht (Konsolen FTW?), und weil PC-Gaming-Enthusiasten zu wenige sind...

Und vorauf werden Spiele programmiert. Ja ich weiß, der professionelle Markt wäre der einzigste Ort, wo man noch NV-Karten dann bräuchte.


mfg Nakai

Gast
2008-05-12, 16:34:36
Intel vs. Nvidia - Kampf der Giganten um den Vorherrschaft im Personal Computer

da stimmt was nicht

tombman
2008-05-12, 16:42:12
Und vorauf werden Spiele programmiert. Ja ich weiß, der professionelle Markt wäre der einzigste Ort, wo man noch NV-Karten dann bräuchte.


mfg Nakai
einzigst = gibts nicht.

EINZIG :)

Naja, und so Spezialmärkte bedienen wird Nvidia immer machen können, siehe Matrox. Aber warum sich so dermaßen verkleinern wenn man die Masse haben will?

Unyu
2008-05-12, 16:42:33
Weil man für HD-Gaming keinen PC mehr braucht (Konsolen FTW?)
Nur das eben für Konsolen IGPs auch nicht ausreichen.
Ist NV doch egal ob Mainstream GPUs in den PC wandern oder in die Konsole.

tombman
2008-05-12, 16:44:05
Nur das eben für Konsolen IGPs auch nicht ausreichen.
Ist NV doch egal ob Mainstream GPUs in den PC wandern oder in die Konsole.
Und wohin wandern die HighEnd Gpus, aus denen die Konsolenchips ja generiert werden? In den Mülleimer?
Oder meinst die sollten nur noch für Konsolen ENTWICKELN? Hmm, DAS würde zur Not Intel auch noch schaffen.
Probleme hat Intel ja mit HIGHEND, was ja nicht in Konsolen vorkommt.

mictasm
2008-05-12, 16:50:09
Intel vs. Nvidia - Kampf der Giganten um den Vorherrschaft im Personal Computer

da stimmt was nicht


und das "den" fällt nicht auf?


Ich denke, jeder PC könnte Stromprobleme bekommen, wenn die Leistung der GPU außerhalb von Spielen benutzt wird...

Gast
2008-05-12, 16:52:42
Sicher nicht auf GPUs:)

NV hat ein großes Problem. Intel ein weitaus kleineres, da man sich über die Jahre mehrere Märkte erobert hat bzw. sich einschleichen.

@Nakai
Wieso sollte NV auf einem aussterbenden Ast bleiben? Firmen wollen nicht kleiner werden und auch nicht gleich bleiben, egal welcher Philosophie eine Firma entspricht, vorrangig ist das Wachstum, Kapitalismus! Das ist IMMER die eine große Firmenpolitik der folge geleistet wird, und daran wird sich nichts ändern.

Wo viele bei AMD/ATi kein Problem sehen, seh ich ein deutliches. Schließlich haben auch diese nichts zu evrschenken und wenn der Markt umbricht, gehen mio/mrd €uros auf lange Sicht verloren. Auch wenn AMD/ATi den Tod nicht zu befürchten haben, wird man versuchen den Koeffizienten Markt weiterhin solange auszubeuten, bis die Nähten platzen.

Auf lange Sicht habens aber alle schwer, auch IBM und Konsorten.
Was feststeht, ist die Frage, wie und woran sich jetzt die verschiedenen Konzerne orientieren werden ohne möglichst viel von laufenden, geheimeren Projekten preiszugeben. (zB wie bei AMD/ATi)
Jetzt heißt es so schnell wie möglich auszubreiten auf andere Märkte oder aber endlich mit neuen innovationen in der Branche aufzutrumpfen und 1-2 Konkurrenten "unfreiwillig" wegzupusten. Nur kostet das wieder jede Menge und ob es sich wirklich bezahlt macht, ist wieder eine ganz andere Sache:)

Gast
2008-05-12, 16:56:11
Und wohin wandern die HighEnd Gpus, aus denen die Konsolenchips ja generiert werden? In den Mülleimer?
Oder meinst die sollten nur noch für Konsolen ENTWICKELN? Hmm, DAS würde zur Not Intel auch noch schaffen.
Probleme hat Intel ja mit HIGHEND, was ja nicht in Konsolen vorkommt.Da vertauscht du was.
High End ists, nur gewesen;)
Natürlich ist eine Graka nach 1-2 Jahren kein High End Produkt mehr.
GKäme jetzt eine Konsole raus, würde die sicher auf einer 8800 GT/GTS oder sonst was basieren wo schon Ende des Jahres die GT200 erhältlich sein wird.

Aber einige müssen ja wieder rummäkelnX-D
Ich wette du selbst bist schon halber Konsolero und merkst es nichtmal:)

Don Vito
2008-05-12, 17:34:26
ich denke bei Tombi ist es wie bei mir...
Was Konsole only ist wird auf Konsole gezockt.
Was auch auf PC kommt, wird nur auf PC gezockt (schon alleine wegen AA und AF;))

Avalox
2008-05-12, 17:49:32
Meinst du das wirklich ernst? Ich kann das absolut nicht nachvollziehen...
Den Vorteil (oder sagen wir das Pro-Argument) von Windows ggü. Linux auf den Spielemarkt zu reduzieren ist imho doch etwas realitätsfern.


Ich sehe tatsächlich die Verfügbarkeit von Spielesoftware als den Markt entscheidenden Vorteil von Windows, gegenüber von Linux.

Es gibt sicherlich weitere Vorteile von Windows, aber auch eine unübersehbare Menge an Nachteilen gegenüber von Linux in diesem Einsatzfeld.

Spiele sind die letzten Heimanwendungen, indem mit Vollpreis Produkten und althergebrachten Lizenzmodellen gearbeitet wird. Der Rest an Anwendungssoftware@Home hat sich in den letzten Jahren grundlegend gewandelt.

Gast
2008-05-12, 23:34:41
Meine Meinung: da Spiele unübersehbar zunehmend unwichtiger werden auf PCs, sehe ich auf NVidia ein Schicksal zukommen, vergleichbar mit Creative. Und die große Masse wird es kaum jucken, fürs Spielen sind eben Konsolen da.
Die meisten HighEnd PC Gamer spielen doch genau genommen ohnehin kaum noch anderes als irgendwelche 3dmarks ;)
Und für MMORPGs, die letzte große Domäne der PCs, werden nie High End Karten notwendig sein ..
Allerdings kann ich mir nicht vorstellen, das Linux dadurch groß an Bedeutung gewinnt, da sehe ich mehr Wunschdenken. Pinguine sind einfach uncool ;)

K4mPFwUr$t
2008-05-12, 23:55:53
das creative so stark "eingebrochen" ist liegt aber nur an vista, vista ist ein rückschritt für leute mit guten soundkarten, statt diesen onboard dreck.

und jetzt jetzt jeden gamer der sich ab und zu mal ne neue graka oder cpu gönnt, als 3d murks spieler abzustempeln zeigt doch das du kein blick für die realität hast.

außerdem wer soll die ganzen konsolen beliefer wenn nicht nV und ATI bzw. AMD?
glaubst du das sie sich zufrieden geben mit aller 7 jahre eine neue GPU für konsolen zu entwickeln? und dann ein paar millionen davon absetzen wenn die konsole als endprodukt was taugt?

außerdem gibt es leute die kein intresse an einem ich zitiere "zugenagelten dau pc" haben.

Gast
2008-05-13, 13:07:05
das creative so stark "eingebrochen" ist liegt aber nur an vista, vista ist ein rückschritt für leute mit guten soundkarten, statt diesen onboard dreck..

da hat creative auch SEHR viel selbst schuld (ich hab eine)....


außerdem wer soll die ganzen konsolen beliefer wenn nicht nV und ATI bzw. AMD?


tsmc

K4mPFwUr$t
2008-05-13, 13:12:41
@gast
klar hat creative eine gewisse mitschuld, nur wäre der verfall ohne vista sehr viel langsamer getätigt. und richtige alternativen gibt es ja auch nicht großartig.

TSMC ...
ist dir schon klar das AMD/ATI und nV nur die "baupläne" hinschicken zu TSMC?
und wenn du ernsthaft meinst das die beiden GPU schmieden sich einfach mal ihr größtes stück kuchen nehmen lassen, irrst du. mit konsolen GPUs kann man kein geld verdienen.
und das die highend sparta wegbricht im PC bereich, liegt nur an deinen verkurksten konsolen denken ;D

Gast
2008-05-13, 13:44:55
das creative so stark "eingebrochen" ist liegt aber nur an vista, vista ist ein rückschritt für leute mit guten soundkarten, statt diesen onboard dreck.
Wow, mal nicht der übliche Vista Bash das Vista zu viel Arbeitsspeicher schluckt, da weiß ich ja gar nicht, was ich da sagen soll. Hmm .. vielleicht, das ich selbst Creative Soundkarten regelmäßig seit den guten alten Isa Zeiten verwendet habe? Trotzdem nutze ich inzwischen Vista, und bin ausgesprochen zufrieden damit. Übrigens ist niemand gezwungen, Vista zu nutzen.
Unabhängig davon: Creative hatte mehr als genügend Zeit, sich auf Vista ein zu stellen.
Aber statt dessen hat man sich, nach Jahren aggressivster Verdrängungspolitik auf den Lorbeeren der Vergangenheit ausgeruht, und nun die Quittung dafür erhalten. Und genau in dem Punkt sehe ich die Parallele bei NVidia. Seit Jahren konzentriert man sich dort, eine möglichst monopolartige Stellung im Gaming Bereich zu erlangen, und je näher NVidia dieser Position kommt, um so fauler wird man dort. Wenn man dort nicht bald versucht, neue Bereiche zu erschließen, wird NVidia mittelfristig genau so vergessen werden wie einst Voodoo, Creative, und wie sie alle heißen. Die Erde dreht sich weiter, keine große Sache.

außerdem gibt es leute die kein intresse an einem ich zitiere "zugenagelten dau pc" haben.
Die große Ironie an dieser Aussage ist, das es eben jene daufeindliche Arroganz ist, die den Durchbruch von Linux schon seit Jahren erfolgreich verhindert. Noch amüsanter wird es dadurch, das ausgerechnet die daukompatibelste Linux Variante (Ubuntu und Ableger) sich überproportional zunehmender Beliebtheit erfreut. :)

Gast
2008-05-13, 14:29:22
....
Und für MMORPGs, die letzte große Domäne der PCs, werden nie High End Karten notwendig sein ....


Du hast schon mal ein MMORPG gespielt?
In 1920x1200 und 4xS AA geht meinen 88GTXen im SLI die Puste aus. Schalte ich die Schatten aus, sinds 10FPS und das ganze in einen namhaften MMORPG (natürlich nicht WOW oder Guildwars)

Vista und Arbeitsspeicher ist ein Thema, das viel zu heiß gekocht wird. WIN3.11 kam mit 16mb sehr gut zurecht. Auch da konnte ich schon CDs hören, MP3 kodieren und AVI anschauen. 4GB RAM ist eine Lächerlichkeit und nur wegen den kack 32bit limitiert. Sobald diese Schallmauer mal durch weite Verbeitung von 64bit OS fällt, werden bald 16GB oder 32 GB RAM in den Rechner sein und irgendwann auch mal 128GB. Kein Mensch juckt es dann noch ob Vista 0,8GB oder 1,2GB verbraucht.

Gast
2008-05-13, 14:34:18
hehe die überschrift"kampf der giganten"intel ist microsoft in hardware und nv ein kleiner pickel dagegen.

[fu]121Ah
2008-05-13, 16:04:32
kein mensch der was auf quali gibt, wird sich jemals ne konsole kaufen (ausser für console-only games --> grund wieso ich mir im herbst ne PS3 mit GT ziehe!).

Gast
2008-05-13, 16:13:32
Nur das eben für Konsolen IGPs auch nicht ausreichen.
Ist NV doch egal ob Mainstream GPUs in den PC wandern oder in die Konsole.

Sehe ich ähnlich. Die werden mit Konsolen wahrscheinlich eh am meisten Chips umsetzen als die Nullkommanochwas Prozent im PC Highend Markt.
Das wird aber wohl auf den Preis hinauslaufen. Wenn integrierte Lösungen von CPU/GPU billiger herzustellen sind als separate CPU+GPU auf die Boards zu löten, dann werden die Konsolenbauer natürlich die günstigere Lösung anbieten.

HOT
2008-05-13, 16:58:31
Welche GPU für eine Konsole ausgesucht wird, hängt davon ab, welche Technik im PC-Markt erfolgreich ist. Bei der CPU ist das was anderes. Man darf einfach nicht vergessen, dass es nur 2 Hersteller für Grafikchips auch im Konsolenbreich gibt: ATI (AMD und damit sogar ein Prozessorhersteller) und NV.

Richtig: Konsolenmarkt und PC-Markt wachsen zusammen. Multiplattform ist Trumpf. Die technisch sehr versierten Hersteller von PC-Engines drängen auf den Konsolenmarkt und bringen eben auch viele hochqualitative Konsolentitel auf den PC.
Falsch: PC-Markt wird durch Konsolenmarkt übernommen, denn es gibt einfach immer weniger Hersteller, der PC-Produkte ausschließen.

Neue Technik kommt zuallererst auf dem PC, danach in die Konsole als abgeschwächte, billig zu produzierende Variante.

Zum Thema: Intel hat nur CPUs, NV nur GPUs. Beide müssen zusehen, welche Apps wie gut auf deren Produkten laufen, wobei NV hier Performancevorteile in vielen Beriechen hat und Intel einen Heimvorteil. Und genau da schwelt auch der Konflikt.
NV wird sich sicherlich langfristig die Centaur-CPUs über VIA sichern und da auch eine grosse Menge Geld reinpumpen müssen und Intel muss in einen Grafikmarkt eindringen, der von genau 2 Unternehmen 100% dominiert wird. Beide haben einen schwierigen, steinigen Weg vor sich. AMD könnte der lachende 3. bei der Sache sein...

Gast
2008-05-13, 17:35:51
Neue Technik kommt zuallererst auf dem PC, danach in die Konsole als abgeschwächte, billig zu produzierende Variante.

Ist das so? Wenn es um konkrete Spiele geht, sehe ich den Trend genau anders herum. Mehr und mehr Firmen gehen dazu über, erst auf Konsole zu entwickeln, und im Falle des Erfolges später eine PC Version nach zu liefern (Mass Effect, Assassins Creed, GTA IV, SW: Force Unleashed, ...).
Macht ja auch viel mehr Sinn. PC only ist viel zu riskant, kann sich eigentlich gar keiner mehr erlauben (von Ausnahmeschmieden wie ID vielleicht mal abgesehen).

Gast
2008-05-13, 17:48:25
Vor allem weil AMD gerade (und in nächster Zeit) selbst keine Probleme hat.
NVIDIAs "kampfansage" an Intel ist ein Witz und jeder der schonmal auf die CUDA-Seite gesehen hat weiß das. Da wird ein Hype aufgebaut wo noch garnichts ist. Beschleunigung von video encoding und PS-filtern schön und gut, nur was bringt mir das wenn es nur angekündigt wird und es noch ewigkeiten geht bis entsprechendes verfügbar ist. (Und dann evtl. kostenpflichtig siehe die ersten Tage der Videobeschleunigung@GPU).

Den Endkunden will ich erstmal sehen der sich davon überzeugen lässt wenn der verkäufer ihm sagt "Ja später dann können sie mit ihrer Grafikkarte auch ...". AMDs Ansatz ist da genau das gleiche, nur kennen den halt noch weniger mangels marketing.

Gast
2008-05-13, 18:28:03
Eins verstehe ich nicht, wie viele befürchten geht der GPU Markt unter und wir sitzen bald mit billigheimer onboard Grafik zuhause und fragen und, wo ist die Photorealität und wo die Shader geblieben?

Gut, GPUs werden irgendwan out sein, nV und die Grafiksparte AMD wird pleite sein, aber dann gibt es keine Konsolen mehr. Keine Anwendung in denen ein Quadcore dem Homeuser interessant gemacht werden kann, außer man vertraut auf Intel, denn es gibt nur Intel eigentlich die wie Microsoft ein Monopol für, sagen wir weitere 40Jahre inne haben. Kein Intel, keine CPUs, kein M$, kein OS für die Masse.
Genauso geht es mit Spiele PCs und Konsolen, keine GPU Entwickler wie nV und AMD, hat es sich ausgespielt...

HOT
2008-05-13, 18:51:13
Ist das so? Wenn es um konkrete Spiele geht, sehe ich den Trend genau anders herum. Mehr und mehr Firmen gehen dazu über, erst auf Konsole zu entwickeln, und im Falle des Erfolges später eine PC Version nach zu liefern (Mass Effect, Assassins Creed, GTA IV, SW: Force Unleashed, ...).
Macht ja auch viel mehr Sinn. PC only ist viel zu riskant, kann sich eigentlich gar keiner mehr erlauben (von Ausnahmeschmieden wie ID vielleicht mal abgesehen).
Neue Technik kommt zuallererst auf dem PC, das wird sich ganz sicher nicht ändern. DX10 ist z.B. auch neue Technik, die Konsolen nicht bieten können. Die PC-Varianten des Spieles bekommen eben diese Features während Konsolenvarianten darauf verzichten müssen. Natürlich wird nicht jeder Müll für den PC umgesetzt, aber das ist auch nicht weiter schlimm.
Zudem laufen im PC-Markt auchnoch enorme Sponsoringgelder der IHVs in Spieleschmieden, um die neue Technik auch zu unterstützen. Um die Zukunft der PC-Games braucht man sich keine Sorgen zu machen, solange das technische Ruder bei AMD und NV liegt.

Gast
2008-05-13, 19:32:58
Die PS2 war ziemlich up to Date wo als sie das Licht der Welt erblickte, da konnte vom Feature Set kein PC mithalten, die XBox 360 war die ersten Tage sehr gut aufgestellt.

Beim PC holt man den Rückstand nunmal schnell auf und baut dann den Vorsprung aus.

Eher ist es doch so, das PC Zocken etwas ausser Mode gekommen ist, zum Großteil ist da aber der PC Sektor selbst schuld, Ständig gibts neue Standards etc. Man kauft sich kein Wunschlosglücklich System sondern ne Baustelle und da ist es wenig verwundlerich das hier nicht jeder Lust darauf hat.

Ich sehe im Fernsehen viel Werbung für elektronische Zeitvertreiber, aber PC Produkte fallen da nicht drunter, ebenso wie Werbung an Haltestellen etc. Ich habe noch nie Werbung von Nvidia gesehen, Intel hatte mal ne Zeit lang Werbung gemacht mit zB. den 3 blauen. Was derzeit viel läuft ist ja GTA4 mit XBox 360. Nintendo macht auch viel Werbung von Wii und DS, sehe auch einige Leute mit DS auf der Straße, PSP Zocker habe ich noch keinen Live gesehen.....

Gast
2008-05-13, 20:27:08
Neue Technik kommt zuallererst auf dem PC, das wird sich ganz sicher nicht ändern. DX10 ist z.B. auch neue Technik, die Konsolen nicht bieten können.
Nun ja, und wenn dann z.B. die neueste Technik 10.1 nicht in das Firmenprofil paßt, wird es nicht unterstützt oder wieder entfernt. ;)
Technik an und für sich ist vollkommen bedeutungslos, sofern diese nicht entsprechend genutzt wird. Genau so wie die Physik Karten sicher technisch auch eine tolle Sache sind, nur genutzt werden sie trotzdem nicht.

Amun-Re
2008-05-13, 22:27:24
Interessante Diskussion und deshalb auch von mir mal mein subjektives Statement dazu :)

Prinzipiell ist es verständlich und nachvollziehbar das viele Spieleentwickler sich mehr und mehr für den Konsolenmarkt interessieren und ihre kreativen Erzeugnisse dort zuerst anbieten bzw. in Einzelfällen auch exklusiv für Konsolen produzieren.
Natürlich ist der PC als Plattform für Spielkonzepte gewissermaßen Fluch und Segen zugleich.
Technisch gesehen ist die Flexibilität des PCs wohl unangefochten und die Zeit spielt dem PC als Spieleplattform immer in die Hände so das abenteuerliche Speielentwicklungen die grade an die PC Hardware exorbitante Anforderungen stellen sich dort besser umsetzen lassen nach meinem Empfinden.
Ein starkes Argument gegen kostspielige PC Veröffentlichungen ist eben das Rabkopieren ^^ Wohl niemand wird sich der Illusion hingeben das irgendein Kopierschutz die perfekte Sicherheit bietet. Gegen jede noch so kreative Lösung der Industrie gegen das Problem gibt es meistens schon recht schnell ein passendes Antidot ^^

Aber ich denke eben nicht das die PC Spielelandschaft dem Erdboden gleich gemacht wird sie ist eben nur einer Veränderung unterworfen und die Zukunft des PCs als Spieleplattform sehe ich ganz klar in MMOs jeglicher Art.

Spiele wie World of Warcraft sind zwar grafisch sicherlich kein Novum und für NVIDIA Karten die 3 Generationen alt sind auch noch durchaus problemlos machbar aber der Markt ist lukrativ und das in extremer Art und Weise und das Problem der Raubkopien stellt sich hier auch nicht wirklich ^^

HOT
2008-05-14, 10:40:28
Na ja auf Konsole wird auch kopiert wie bekloppt, das interessiert angesicht der grossen Umsätze nur keinen.

Gast
2008-05-14, 13:01:25
Nett abgerutscht der Thread, ich dachte hier gings um nVidia und Intel, nun steigt hier der übliche 0815 pc/console war.

robbitop@work
2008-05-14, 15:49:49
Die PS2 war ziemlich up to Date wo als sie das Licht der Welt erblickte, da konnte vom Feature Set kein PC mithalten
Welches Feature bot denn die PS2, was ein PC dieser Zeit nicht bot?

Exxtreme
2008-05-14, 16:48:20
Welches Feature bot denn die PS2, was ein PC dieser Zeit nicht bot?
Naja, der Polygondurchsatz war für damalige Verhältnisse schon viel krasser als es auf dem PC möglich war.

MEDIC-on-DUTY
2008-05-14, 17:04:49
Bitte keinen Konsole vs. PC War hier lostreten, dafür gibt es genügend andere Forenbeiträge.


Back to topic:
Wenn Raytracing auf absehbare Zeit eine Alternative für das Rasterverfahren darstellen sollten, dann muss sich nVidia sehr warm anziehen. Denn Intel mag zwar mit ihrem Laradingsbums nV noch keinen Zacken aus der Krone brechen, aber steckt zur Zeit einige Ernergie in Raytracing und könnte somit nV auf lange Sicht schaden.

Auch denke ich kann man eine Übernahme von nV durch Intel nicht als sehr wahrscheinlich ansehen. Eher würde Intel nV ausbluten lassen und sich die guten Leute vorher herausziehen.

nV kommt mir irgendwie z.Zt. vor wie BMW. Mir san mir und der Rest ist egal, bis es voll reinregnet. Erst dann sucht man nach einem Flicken und stellt fest, dass der zu klein ist.

Auch zeigt der PowerPointWar beider Seiten, dass die Luft dünner wird.

Ein Gast
2008-05-14, 18:34:47
Außer Intel einige Eingeweihte unter NDA weiß gegenwärtig keiner was Larabee genau ausmacht. Alles deutet hin auf einen Allzweckbeschleuniger, der zwar als Grafikbeschleuniger nach dem Rasterization-Verfahren arbeiten kann/wird bzw. dafür hinsichtlich Grafikbeschleunigung auch ausgelegt ist, dabei aber nur den geringeren Ansprüchen eines Gelegenheitzockers gerecht werden wird. Auf dem Spezialgebiet eines GT200 (aktuelle Spiele-Kracher) wird Larabee sicherlich keine Konkurrenz sein. Gemäß seiner Natur als Allzweckbeschleuninger wird er Grafik nach dem Raytracing-Verfahren aufbereiten können, schneller als es jede CPU kann und vielleicht auch schneller als es auf Rasterization 'spezielisierte' GPUs wie der GT200 oder RV770 können. In Bezug auf Spiele ist die Fähigkeit gegenwärtig bedeutungslos. Als Physikbeschleuniger für komplexe Modelle dürfte er aber wegen eines flexibleren Programmiermodells bereits deutliche Vorteile ausspielen können und genau hier ist das Problem für die GPGPUs von ATI und NVidia. Intel kommt deren Domänen(stream processing) mit einem großen Schritt entgegen, und begibt sich genau dorthin wo ATI und AMD erst noch mit ihren noch verhältnismäßig unflexiblen GPGPUs hin wollen. Intel macht es so, wie es ein CPU-Spezialist machen würde und versucht die hohe Flexibilität der klassischen OoO x86-CPUs auf ein Maß zu reduzieren, welches nur noch so flexibel wie "nötig für die Aufgabe" ist und dabei so parallel(Anzahl Cores) und optimiert (z.B. breite-Vektoren, Speicheranbindung/Caching) wie möglich arbeitet. Die Performance dieser 'spezial purpose' CPU vervielfacht sich bei reduzierter Flexibilität, erreicht aber nicht die Raw-Performance einer GPU, die hingegen ihre Leistung aber nicht so recht "auf den Boden bringen kann".

NVidia wird deshalb nervös, weil sich Intel in großen Schritten dorhin begibt, wo sie auch mit ihren noch (zu) spezialisierten GPGPUs hin wollen, und ganz sicher nicht weil Intel einen ernsthaften Konkurrenten zum GT200 im Ärmel hat!

Gast
2008-05-14, 19:48:50
Bitte keinen Konsole vs. PC War hier lostreten, dafür gibt es genügend andere Forenbeiträge.


Back to topic:
Wenn Raytracing auf absehbare Zeit eine Alternative für das Rasterverfahren darstellen sollten, dann muss sich nVidia sehr warm anziehen. Denn Intel mag zwar mit ihrem Laradingsbums nV noch keinen Zacken aus der Krone brechen, aber steckt zur Zeit einige Ernergie in Raytracing und könnte somit nV auf lange Sicht schaden.

Auch denke ich kann man eine Übernahme von nV durch Intel nicht als sehr wahrscheinlich ansehen. Eher würde Intel nV ausbluten lassen und sich die guten Leute vorher herausziehen.

nV kommt mir irgendwie z.Zt. vor wie BMW. Mir san mir und der Rest ist egal, bis es voll reinregnet. Erst dann sucht man nach einem Flicken und stellt fest, dass der zu klein ist.

Auch zeigt der PowerPointWar beider Seiten, dass die Luft dünner wird.
Wann merkt auch der letzte das Raytracing in den nächsten 10 Jahren absolut keine Rolle spielen wird. Höchstens als Hybrid, mehr aber auch nicht. Bis die soviel Kerne mit unmengen an Leistungen vollbepackt haben, sind Rasterizer schon zig Gens vorne weg.
Und das ist kein billiges Gastbashposting, einfach nur Tatsache.

=Floi=
2008-05-15, 07:23:52
Es wird auch weiterhin externe grafikkarten geben. Es werden sicherlich north und southbridge in die cpu wandern, aber keine echten grafikbeschleuniger. (RAM anbindung, hitzeentwicklung, baugröße und stromverbrauch stehen da einfach als unlösbares problem auf der problemseite)
Der GT200 wird 575mm² groß, das entspricht von der DIE größe 2! kentsfield quad core prozessoren. (8Kerne) Wie sollte soetwas in die CPU integriert werden und bei solchen großen dice sinken auch die yield raten und stückzahlen beträchtlich und die kosten für kühler mainbord und cpu würden ebenso ins uferlose steigen.

Meta
2008-05-15, 08:05:31
Wann merkt auch der letzte das Raytracing in den nächsten 10 Jahren absolut keine Rolle spielen wird. Höchstens als Hybrid, mehr aber auch nicht. Bis die soviel Kerne mit unmengen an Leistungen vollbepackt haben, sind Rasterizer schon zig Gens vorne weg.
Und das ist kein billiges Gastbashposting, einfach nur Tatsache.

Deine "Tatsache" wird erstmal die Geschichte schreiben können und DANACH kannst du von Tatsachen reden.

Exxtreme
2008-05-15, 08:31:25
Deine "Tatsache" wird erstmal die Geschichte schreiben können und DANACH kannst du von Tatsachen reden.
Naja, mit RT beseitigt man zwar paar Problemchen, schafft sich dafür aber neue. ;)

Und die zweite Problematik ist, ich glaube nicht, daß der Übergang Rasterization -> RT so flüssig verlaufen wird. Es fehlen auch APIs dazu. Ist fraglich ist ob Direct3D 10.x für RT taugt. Und so viel Marktmacht hat Intel auch wieder nicht um was einfach so durchzudrücken.

robbitop@work
2008-05-15, 10:48:34
Naja, der Polygondurchsatz war für damalige Verhältnisse schon viel krasser als es auf dem PC möglich war.
Naja. Dank SSE/3DNow und TnL konnte auch der PC vergleichbare Polygonraten erzielen.
Praxis: Vergleich mal Max Payne 2 oder UT03, welches problemlos beides auf einem Thunderbird + GF2 lauffähig ist, mit AAA-Titeln der PS2. Rein subjektiv sehe ich keine höheren Geometriedetails auf neusten AAA-PS2-Spielen. Hinzukommt, dass die Texturdetails auf der PS2 geringer sind und auch nicht allzuviele Effekte mangels flexibler Combiner möglich waren.
Ich kenne trotz Besitz der meisten und besten PS2-AAA-Titeln jedenfalls nichts, was nicht auf so einem System problemlos möglich wäre. Ich gehe sogar soweit und sage, dass der Thunderbird und die Geforce2 der PS2 deutlich überlegen sind.

Ich finde subjektive Glorifizierungen sinnfrei.

Avalox/Gast
2008-05-15, 13:34:58
Ich kenne trotz Besitz der meisten und besten PS2-AAA-Titeln jedenfalls nichts, was nicht auf so einem System problemlos möglich wäre. Ich gehe sogar soweit und sage, dass der Thunderbird und die Geforce2 der PS2 deutlich überlegen sind.



Dem würde ich schon allein rein vom Gefühl her zustimmen.
Ich denke, dass die Xbox 1 ein zwar nicht wirtschaftlicher, aber technischer Meilenstein war und eine grosse Wende eingeleitet hat.
Seit der Xbox 1 sind z.B. alle Konsolen mit GPUs der Hersteller ausgestattet, welche auch den PC Markt dominieren. Das war vorher nicht so. Muss man einfach mal feststellen.
Der Anspruch seitens MS die Brücke zwischen Konsole und PC zu schlagen, hat zu einem Grundlegenden Umdenken im Bereich der Konsolen geführt. Man kann sagen MS hat den technischen Anspruch völlig neu definiert. Dort war die Xbox 1 sicherlich noch sehr viel drastischer ausgefallen, als dieses bei der Xbox360 der Fall ist. Allerdings waren die Konsolen seit dem nicht mehr dieselben.
Der Anspruch von MS war völlig klar, günstige ausentwickelte PC Konzepte in Hard- aber auch Software zu einer Konsole zu formen. Dort machte der Intel Prozessor, aber auch der heutige IBM Prozessor grossen Sinn. Sind beide völlig ausgereifte Derivate einer längst entwickelten Technologie und damit mit entsprechend günstigen P/L Verhältnis einzukaufen. Das selbe gilt für die GPU und auch sonstige Komponenten und vor allen der Softwareumgebung der Konsole. Die PS3 sieht dort auch deutlich anders aus, als die PS2. So produktiviert dort Sony einen CELL, welcher für den hochwertigen Einsatz nicht taugt und hat eine entsprechend etablierte GPU Technik von nVidia hinzugekauft. So ähnlich sich die PS2 und die PS3 im ersten Blick scheinen, so grundverschieden ist deren Geräte Philosophie. Die Entwicklung macht ja selbst vor Big N nicht halt.
Ich bin mir sicher, ohne Xbox 1 würden heutige Konsolen noch ganz anders aussehen und aufgebaut sein.
Die PS1 war für den Definition einer Konsole ein Meilenstein und die Xbox 1 ebenso. Die PS2 würde ich dort eher als nicht so entscheidend sehen. Wirtschaftlich ein grosser Erfolg, aber kein neues Konzept.

Liszca
2008-05-19, 10:14:52
Welche GPU für eine Konsole ausgesucht wird, hängt davon ab, welche Technik im PC-Markt erfolgreich ist. Bei der CPU ist das was anderes. Man darf einfach nicht vergessen, dass es nur 2 Hersteller für Grafikchips auch im Konsolenbreich gibt: ATI (AMD und damit sogar ein Prozessorhersteller) und NV.

Richtig: Konsolenmarkt und PC-Markt wachsen zusammen. Multiplattform ist Trumpf. Die technisch sehr versierten Hersteller von PC-Engines drängen auf den Konsolenmarkt und bringen eben auch viele hochqualitative Konsolentitel auf den PC.
Falsch: PC-Markt wird durch Konsolenmarkt übernommen, denn es gibt einfach immer weniger Hersteller, der PC-Produkte ausschließen.

Neue Technik kommt zuallererst auf dem PC, danach in die Konsole als abgeschwächte, billig zu produzierende Variante.

Zum Thema: Intel hat nur CPUs, NV nur GPUs. Beide müssen zusehen, welche Apps wie gut auf deren Produkten laufen, wobei NV hier Performancevorteile in vielen Beriechen hat und Intel einen Heimvorteil. Und genau da schwelt auch der Konflikt.
NV wird sich sicherlich langfristig die Centaur-CPUs über VIA sichern und da auch eine grosse Menge Geld reinpumpen müssen und Intel muss in einen Grafikmarkt eindringen, der von genau 2 Unternehmen 100% dominiert wird. Beide haben einen schwierigen, steinigen Weg vor sich. AMD könnte der lachende 3. bei der Sache sein...

der lachende dritte wird niemals amd sein, eher gibt es einen lachenden vierten, der sich via nennt und von nvidia in den markt integriert wird, aber glauben würde ich das nicht ;D

Simon Moon
2008-05-19, 11:16:41
Dem würde ich schon allein rein vom Gefühl her zustimmen.
Ich denke, dass die Xbox 1 ein zwar nicht wirtschaftlicher, aber technischer Meilenstein war und eine grosse Wende eingeleitet hat.
Seit der Xbox 1 sind z.B. alle Konsolen mit GPUs der Hersteller ausgestattet, welche auch den PC Markt dominieren. Das war vorher nicht so. Muss man einfach mal feststellen.

War es nicht das Team, welches den Grafikchip des Gamecube entwickelte und dann von ATi aufgekauft wurde, dasselbe, welches den R300 entwickelte? ;)
Die Entwicklung wäre sowieso gekommen, unabhängig von der XBox.

Gast
2008-05-19, 19:59:29
Nochmal die frage, offensichtlich kapier ich es nicht, was haben Intel und nVidia mit KONSOLEN zu schaffen?

Philipus II
2008-05-19, 20:24:45
Nvidia kann seine Grafikchips grundsätzlich auch an die Konsolenbauer verkaufen-Microsoft wie Sony werden auf ihre Hardwarepartner lange angewiesen sein.
Ob Nvidia nun Konsolengrafikchips oder PC Grafikchips fertigt,ist zunächst mal egal.
Allerdings ist das Wachstum-und das will die Börse sehen-da nur sehr begrenzt möglich,also versucht man sich neue Betätigungsfelder zu sichern...

Gast
2008-05-19, 22:57:53
Back to topic:
Wenn Raytracing auf absehbare Zeit eine Alternative für das Rasterverfahren darstellen sollten, dann muss sich nVidia sehr warm anziehen. Denn Intel mag zwar mit ihrem Laradingsbums nV noch keinen Zacken aus der Krone brechen, aber steckt zur Zeit einige Ernergie in Raytracing und könnte somit nV auf lange Sicht schaden.

Meinst du Nvidia pennt in der Richtung? Die haben auch ihre RT-Forschungsabteilung.