PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ab 2009 GraKas ohne Bildausgänge?


AnarchX
2008-05-20, 13:06:16
In Asien sind Gerüchte aufgetaucht, dass Nvidia laut einer Roadmap vor hat ab dem Q2 2009 auf Bildausgänge bei ihren Grafikkarten zu verzichten.

Gründe dafür sollen sein:
- Jeder kommenden Chipsatz von Nvidia wird einen IGP besitzen und somit auch einen entsprechende Ausgänge
- NV hat vor mit AMD entsprechende Technologien auszutauschen, sodass ihre System kompatibel werden
- Bündnis gegen Intel, denen der Einsatz von NV GraKas ohne passenden Chipsatz verwährt bleibt

Ausserdem soll wohl der MXM-Standard eine wichtige Rolle spielen, schliesslich nimmt der Mobile Markt eine immer größere Rollle ein, sodass Desktop wohl sich langfristig dahinter stellen wird.

K4mPFwUr$t
2008-05-20, 13:08:16
wenn das durch kommen würde, wäre das ein ding.

schon alleine weil man gezwungen ist, auf AMD oder NV chipset zu setzen.
und ob dann die einzelnen distributoren auch mit machen ist die andere sache.

Sorkalm
2008-05-20, 13:13:03
Hui, das ist ja ein hochspekulatives Thema...

Die Frage ist, wie Larrabee im Vergleich dazu positioniert wird. Denn was nützt das Bündnis, wenn das aus Gründen der Einfachheit die Intel-Grafikkarte genutzt wird?

reunion
2008-05-20, 13:19:08
In Asien sind Gerüchte aufgetaucht, dass Nvidia laut einer Roadmap vor hat ab dem Q2 2009 auf Bildausgänge bei ihren Grafikkarten zu verzichten.

Gründe dafür sollen sein:
- Jeder kommenden Chipsatz von Nvidia wird einen IGP besitzen und somit auch einen entsprechende Ausgänge
- NV hat vor mit AMD entsprechende Technologien auszutauschen, sodass ihre System kompatibel werden
- Bündnis gegen Intel, denen der Einsatz von NV GraKas ohne passenden Chipsatz verwährt bleibt

Ausserdem soll wohl der MXM-Standard eine wichtige Rolle spielen, schliesslich nimmt der Mobile Markt eine immer größere Rollle ein, sodass Desktop wohl sich langfristig dahinter stellen wird.

Kann ich mir nicht vorstellen. Intel hält 80% des Marktes mit seinen CPUs, und 50% des GPU-Marktes nur mit den IPGs. Das könnte ganz schön nach hinten los gehen Intel hier aussperren zu wollen. Für AMD würde sich das natürlich lohnen, da man dann nur noch mit ihrer Plattform nV-Karten bekommt. Aber für nV würde der Markt plötzlich enorm schrumpfen, man müsste auf 80% des Marktes verzichten nur um Intel ev. ein paar Marktanteile abluchsen zu können.

Anarchy-HWLUXX
2008-05-20, 15:27:48
und 50% des GPU-Marktes nur mit den IPGs.


Ne eche weniger is das dann doch ;)

K4mPFwUr$t
2008-05-20, 15:31:20
erhoffst du dir so das NV mehr IGPs und lowend grakas los wird? :rolleyes:

eher wird man damit endgültig auf die nase fallen. sicherlich würde sich intel dann zweimal überlegen ob NV überhaupt noch lizenzen für was bekommt ;)

Gast
2008-05-20, 17:11:36
Interessantes Gerücht. Denkbar wäre es schon, ist aber verdammt dünnes Eis. Wäre mir aber zumindest willkommen, wenn es zu Verbesserungen im Notebook Sektor führen würde, da gibt es ja immer noch keine wirklich praktikablen Lösungen.

MEDIC-on-DUTY
2008-05-20, 17:17:06
Mhm, ich weiß nicht. Das Slotblech ist doch sowie so schon voll überladen. Jetzt auch noch alles onboard mit Displayport und DualDVI?

Aus heutiger Sicht gebe ich dem eher wenig Chancen, weil die Kosten beim Boardhersteller hängen bleiben und der Zusatznutzen, außer den eingesparten Schnittstellen auf der Karte, fehlt.

Damit hätten wir dann wieder das Gerangel um den Standard, der auf dem Rücken der Kunden ausgetragen wird. Siehe Blu-Ray etc.

Anarchy-HWLUXX
2008-05-20, 17:26:22
Mhm, ich weiß nicht. Das Slotblech ist doch sowie so schon voll überladen. Jetzt auch noch alles onboard mit Displayport und DualDVI?

Aus heutiger Sicht gebe ich dem eher wenig Chancen, weil die Kosten beim Boardhersteller hängen bleiben und der Zusatznutzen, außer den eingesparten Schnittstellen auf der Karte, fehlt.

Damit hätten wir dann wieder das Gerangel um den Standard, der auf dem Rücken der Kunden ausgetragen wird. Siehe Blu-Ray etc.
Bei dem imer wichtiger werdenden Stromsparen ist das eigentlich geradezu nötig ... so verhindert man zwangsweise das die PCIe-GraKa benutzt wird wenn die IGP langt.

Wegen den Moni Ports hab ich weniger bedenken - was hab / braucht man denn scho hinten ?

PS/2 (teilweise auch scho wech)
2 USB + LAN
2 USB + FW (oder eSATA)
Sound

Da ist Locker platz für Dual-DVI. Das größere Problem hätten dann die Multi-Display User ... ich z.B. hab nu 3 TFTs.

K4mPFwUr$t
2008-05-20, 17:29:15
@Anarchy-HWLUXX
es gibt noch andere stromsparmöglichkeiten außer diesen hyprid müll. ATI macht es doch vor mit powerplay.

gamingforce
2008-05-20, 17:34:11
wäre möglich würde ich sagen, war da nichtmal so ein Gerücht das es für den Nehalem kein NV Chipsatz mehr gibt?
Und NV macht zu bei Intel Boards:cool:

Anarchy-HWLUXX
2008-05-20, 17:35:55
@Anarchy-HWLUXX
es gibt noch andere stromsparmöglichkeiten außer diesen hyprid müll. ATI macht es doch vor mit powerplay.
Es gibt nix besseres als die GraKa 100% auszuschalten wenn es geht.

Anarchy-HWLUXX
2008-05-20, 17:37:16
wäre möglich würde ich sagen, war da nichtmal so ein Gerücht das es für den Nehalem kein NV Chipsatz mehr gibt?
Und NV macht zu bei Intel Boards:cool:
nV hat angekündigt passende Boards zu liefern sobald der Nehalem verfügbar ist ...


Andererseits - frei nach Yoda :

Unterschätze niemals die Machtgier eines Monopolisten :eek:

Odal
2008-05-20, 17:37:19
genau meiner meinung nach ist das blos ein billiger versuch sein unvermögen an stromsparmaßnahmen zu werkeln zu vertuschen

das läuft dann ja bald wieder so wie mit 3dfx V1 das so ein teil reine beschleunigungskarte ist und zur ausgabe eine seperate gpu lösung vorhanden sein muß

ich weiß nicht ob ich das gut finden soll....einmal macht man alles "unified" und "embedded" und dann gliedert man wieder teile die schon seit zig jahren zu einer GPU gehören wieder aus

vermutlich wird aber die lösung einen 2d part als seperaten chip auf eine karte zu pflanzen nicht funktionieren?

wobei man doch auch per treiber und sli/crossfire mehrere GPUs auf einer karte ansprechen kann....

nagut die logische konsequenz wär zwar irgendwo schon das man sagt: 2d ausgabe braucht praktisch jeder home-pc warum nicht das ins chipset und alles andere per "beschleunigerkarten" modular erweiterbar...

Anarchy-HWLUXX
2008-05-20, 17:47:48
nagut die logische konsequenz wär zwar irgendwo schon das man sagt: 2d ausgabe braucht praktisch jeder home-pc warum nicht das ins chipset und alles andere per "beschleunigerkarten" modular erweiterbar...

2D is gut, mit den Aktuellen IGPs kann man auch recht gescheit 3D Klassiker zocken ... wenn man Q3A scho als Klassiker bezeichnen will.

Ansonsten hat nV das schon umgesetzt nei den 7**a Chipsätzen, die Intel Modelle bekommen diese erst in der nächsten Runde.

K4mPFwUr$t
2008-05-20, 18:26:58
@Anarchy-HWLUXX
wieviel verbraucht denn so ein IGP?
es gibt ja gerüchte das die HD4000 außer der X² nur 10W idleverbrauch haben soll.

persönlich habe ich auch was gegen diesen ganzen hypridmüll. man wird wieder an gewisse produkte binden, die einem nicht gerade zu sagen.

man muss nicht immer jede neuerung von den herstellern für gut heißen.

Anarchy-HWLUXX
2008-05-20, 18:50:38
@Anarchy-HWLUXX
wieviel verbraucht denn so ein IGP?
es gibt ja gerüchte das die HD4000 außer der X² nur 10W idleverbrauch haben soll.



10W ? Des wär mal wahnwitzig wenig ... glaub ich erst wenn ich es sehe ...

K4mPFwUr$t
2008-05-20, 18:56:19
wäre gut möglich das man die powerplay technik noch weiterhin optimiert hat, bei der 3850/3870 sind es ja ~25W derzeit.

Gast
2008-05-20, 19:03:45
ab dem Q2 2009..super!
Dann brauch man ja jetzt keinen GT200 mehr kaufen!
Danke Nvidia!

Malabolge
2008-05-20, 19:08:58
genau meiner meinung nach ist das blos ein billiger versuch sein unvermögen an stromsparmaßnahmen zu werkeln zu vertuschen
...
nagut die logische konsequenz wär zwar irgendwo schon das man sagt: 2d ausgabe braucht praktisch jeder home-pc warum nicht das ins chipset und alles andere per "beschleunigerkarten" modular erweiterbar...


Ich seh das ganze noch ne Ecke Gefählicher :

DRM an allen Ecken und Kanten , nicht mal durch Nachrüsten mehr zu Umgehen.

Undertaker
2008-05-20, 19:10:57
wäre gut möglich das man die powerplay technik noch weiterhin optimiert hat, bei der 3850/3870 sind es ja ~25W derzeit.

Wo hast du die Info denn her?

MEDIC-on-DUTY
2008-05-20, 19:57:50
... ich z.B. hab nu 3 TFTs.

Soviel zum Thema Stromsparen :D

tombman
2008-05-20, 20:03:06
Das glaube ich erst wenn ich es sehe....

Wollen die die Welt in 2 Lager spalten? Gamer und Nichtgamer?

Gamer kaufen nv/ati chipsets+ nv/ati gpus, und Nichtgamer kaufen Intel+ Larabee?

K4mPFwUr$t
2008-05-20, 20:52:33
@undertaker
wenn man dieser tabelle glauben darf
http://www.abload.de/img/1206697923088v7n.gif

das mit den ~25W mit poweplay bei der 3000er hatte ich irgendwo mal im HWL forum gelesen, allerdings nicht auf die schnelle gefunden

@tombman
was wollen nicht gamer mit larabee anfangen? etwa ihren destop raytracen? ;D

mrt
2008-05-20, 20:57:56
Die HD 38x0 verbrauchen < 20W im Idle. Die Verbrauchswerte der RV770-Varianten sind aber nur Speku ;)

Zum Thema:
Sinn würde das schon machen, nur ohne Intel im Boot könnte das interessant werden.

Gast
2008-05-20, 23:47:50
@undertaker
wenn man dieser tabelle glauben darf
http://www.abload.de/img/1206697923088v7n.gif

das mit den ~25W mit poweplay bei der 3000er hatte ich irgendwo mal im HWL forum gelesen, allerdings nicht auf die schnelle gefunden

@tombman
was wollen nicht gamer mit larabee anfangen? etwa ihren destop raytracen? ;D

Xbit hatte ca. 17 Watt idle bei der 3870 gemessen.

Gast
2008-05-20, 23:51:17
Ich weiss ja nicht ob es sinnvoll ist sich auf die bundlen von 2 Produkten (Mobo+Graka) einzulassen wenn es sogar jetzt schon möglich ist die Graka so wenig Power ziehen zu lassen im Idle.

Wieviel verbraucht den eine IGP? Sind doch mindestens auch 10 Watt. Dafür hol ich mir doch nicht den Klotz ans bein, dass ich immer wieder nen Nv Board kaufen muss. Das ist nämlich der einzige Hintergrund den Nvidia verfolgt.

Liszca
2008-05-26, 17:02:06
In Asien sind Gerüchte aufgetaucht, dass Nvidia laut einer Roadmap vor hat ab dem Q2 2009 auf Bildausgänge bei ihren Grafikkarten zu verzichten.

Gründe dafür sollen sein:
- Jeder kommenden Chipsatz von Nvidia wird einen IGP besitzen und somit auch einen entsprechende Ausgänge
- NV hat vor mit AMD entsprechende Technologien auszutauschen, sodass ihre System kompatibel werden
- Bündnis gegen Intel, denen der Einsatz von NV GraKas ohne passenden Chipsatz verwährt bleibt

Ausserdem soll wohl der MXM-Standard eine wichtige Rolle spielen, schliesslich nimmt der Mobile Markt eine immer größere Rollle ein, sodass Desktop wohl sich langfristig dahinter stellen wird.

so früh nicht, soll ja leute geben die gerne mal mehr als zwei monitore betreiben. gut möglich das gamerkarten bald nur noch einen dvi anschluß besitzen, aber keinen, daran glaub ich nicht.

RavenTS
2008-05-27, 13:19:01
Also so brutal kann man sowas doch garnet in den Markt bringen. Höchstens mal damit beginnen einzelne Modelle ohne Anschlüsse zu bauen, aber bei Hardware wird es nie plötzlich ab nächstes Jahr oder wann auch immer nurnoch "das Neue" geben, siehe AGP, siehe DDR3, siehe siehe siehe...

Daredevil
2008-05-27, 13:25:02
Was is denn wenn ich Mitte 2009 eine Neue Grafikkarte in mein alten ( Vollkommend ausreichenden ) 4 Ghz Quadcore stecken will... öhm... kann ich dann dort nix anschließen? xD
Hab ich dann da ne 500 Euro Grafikkarte ohne Anschlüsse oder wie?
Das is doch quatsch... neee das mag ich gar nicht...

So kann man zwar die Kühlung mehr optimieren da man mehr Platz hat, also 2 Slot Luftschlitze oder whatever aber... ich will doch eine Grafikkarte ohne IGP betreiben können...

Moralelastix
2008-05-27, 13:48:40
Ich find das sehr gut, abgesehen von dem Stromspareffekt kann man damit die GPU Kühlung weiter optimieren.

Highend könnte zwei Slots für die Abluft nutzen und bei allen Singelslotkarten kann man in Zukunft eine gescheite Kühlung mit Abluft durch den einen Slot nutzen.

Liszca
2008-05-27, 13:53:51
Ich find das sehr gut, abgesehen von dem Stromspareffekt kann man damit die GPU Kühlung weiter optimieren.


hmm wie soll das mit dem stromsparen verstanden werde? der effekt ist doch so gering daß man das doch eher als messungenauigkeit einstufen kann.

Moralelastix
2008-05-27, 14:03:06
Wie, damit muss man doch automatisch die Chipsatzgrafik nutzen für den Monitoranschluss.
Und kann im 2D Modus die PCIe Grafikkarte ganz abschalten.

Sollte doch jetzt schon gehen mit den 9xxx Karten und den 8200 Boards von NV. Oder sind die Bugs immer noch nicht gefixt? Bin da nicht so auf dem Laufenden.

Daredevil
2008-05-27, 14:08:02
Ne 3870er verbraucht 18 Watt im Idle, ne 8800gt ~ 35
Streich die 18 Watt und nimm die IGP dazu ( Schaltet sich die IGP eigentlich ab wenn die Große Karte genutzt wird? Wenn Nvidia echt die Ausgänge abschaffen will wird die wohl immer Aktiviert sein... ), da kommt man nicht auf einen soooooo großen Unterschied.

Nur das Nvidia sich dann nicht mehr ums Stromsparen kümmern muss und Ati das so hinbekommen würde.

Moralelastix
2008-05-27, 14:09:44
Was glaubste was ne Chipsatzgrafik verbraucht?

5 Watt schätz ich mal.

Schau dir mal optimierte HTPC Systeme an die verbrauchen insgesamt < 20 Watt! Mit dem richtigen Netzteil.

Daredevil
2008-05-27, 14:19:45
Jo ich weiß das das Ding nich viel verbraucht.

Aber wenn sich Nvidia mal um das Problem kümmern würde und den Idle Verbrauch sagen wir mal auf ~20 Watt senken könnte brauch man für die 15w die man spart echt kein Extra Motherboard mit "Hybrid" IGP kaufen die es bestimmt nicht Geschenkt bekommt und man auchnoch ordentlich blechen muss ( und eine weitere Wärmequelle im PC darstellt ).
Dann lieber 2 GPUs auf einem Board statt das ganze Motherboard abhängig zu machen.

Moralelastix
2008-05-27, 14:23:11
Ich hoffe das auch AMD als Intel Konkurrent den strategischen Vorteil davon erkennt und sowas bringt.

Vielleicht sogar kompatible Systeme von NV und ATI. Mehr Druck auf Intel is immer gut.

Außerdem könnten doch irgendwelche Hersteller wie ASUS und Co weiterhin Grakas mit Ausgängen verkaufen. Soll der Mark entscheiden. Man muss aber die Wahl haben.

Nur die Referenzkarten sollen ohne sein.

Gast
2008-05-27, 14:28:25
Gamer kaufen nv/ati chipsets+ nv/ati gpus, und Nichtgamer kaufen Intel+ Larabee?

Wie wäre es mit intel CPU und nv chipsatz/gpu???

Also ich halte es durch aus für möglich, nv will bis Jahresende 25% Chipsatz Anteil bei Intel haben, wenn sie das erreichen könnte ich mir das gut vorstellen und nv würde richtig krass abkassieren können, weil dann jeder ein nv Chipsatz benötigt wenn er eine vernünftige GPU haben möchte.

AnarchX
2008-05-27, 15:56:21
Außerdem könnten doch irgendwelche Hersteller wie ASUS und Co weiterhin Grakas mit Ausgängen verkaufen. Soll der Mark entscheiden. Man muss aber die Wahl haben.

Nur die Referenzkarten sollen ohne sein.
Nunja, wenn NV die HW weglässt, die nötig ist für die Bildausgabe, dann kann kein AIB hier mehr etwas machen.

NVIO 1 und 2 sind vielleicht schon entsprechende Versuche in diese Richtung. ;)

LovesuckZ
2008-05-27, 16:01:02
Ne 3870er verbraucht 18 Watt im Idle, ne 8800gt ~ 35
Streich die 18 Watt und nimm die IGP dazu ( Schaltet sich die IGP eigentlich ab wenn die Große Karte genutzt wird? Wenn Nvidia echt die Ausgänge abschaffen will wird die wohl immer Aktiviert sein... ), da kommt man nicht auf einen soooooo großen Unterschied.


Karten verbrauchen immer mehr Strom: Speicher, die dicke GPU etc.
Ein IGP sollte wesentlich einfacher und stromsparender zu realisieren sein. Dazu kommt der Vorteil, dass SLI bzw. Crossfire dann keine Auswirkung mehr auf dem IDLE Verbrauch haben. So zieht dann eine 3870x2 50 Watt im Idle, eine 9800GX2 2-5 Watt.
Du kannst auch nicht weiter runtergehen mit dem IDLE verbrauch, da durch größere GPUs und Mehrspeicher auf den Boards immer deutlich mehr als bei einem IGP benötigt wird.

Moralelastix
2008-05-27, 16:08:28
Nunja, wenn NV die HW weglässt, die nötig ist für die Bildausgabe, dann kann kein AIB hier mehr etwas machen.

NVIO 1 und 2 sind vielleicht schon entsprechende Versuche in diese Richtung. ;)

Man kann das ja auch so interpretieren: NV kann die IO Chips nach Bedarf separat liefern.

Wenn also ein Hersteller wie ASUS denkt Grakas mit Montoranschlüssen würden sich besser verkaufen bestellt er einfach IO Chips mit und basta!