PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia's next "big bang" September


Blaire
2008-07-24, 18:38:06
http://www.tweaktown.com/news/9858/nvidia_s_next_big_bang_coming_soonindex.html

Driver Timeline 2008

Big Bang II - ____ will focus(?) on
New_______________
SLI Connectivity Features(?)
Display connectivity(?)
Quality Improvements
Performance Improvements
OpenGL 3.0

Klingt interessant , vieleicht wird das Mikrorucklerproblem gefixt und es kommen neue AA Modis zum Vorschein? Was meint ihr?

Doomi
2008-07-24, 23:17:05
keine Ahnung..

Gamer68
2008-07-24, 23:20:11
vieleicht bringen sie entlich mal anständige Treiber ;D

Coda
2008-07-24, 23:29:43
Ach bitte. Das ist nun wirklich totdiskutiert. Da nehmen sich beide wirklich nicht viel.

Gast
2008-07-25, 00:25:38
Was meint ihr?

unwichtig


Performance Improvements
OpenGL 3.0


wichtig

Botcruscher
2008-07-25, 00:41:30
NV gibt bekannt das(neben dem Notbookmarkt) noch mehr Karten mit einem _BIG_ Bang abrauchen.;D

GT200b lieferbar?

Anarchy-HWLUXX
2008-07-25, 02:44:20
Wenn mer die müll posts und kommentare löschen bleibt nur der 1. post über ... echt traurig ...

=Floi=
2008-07-25, 04:42:54
sicherlich kein big bang wie wir ihn uns wünschen. Ich denke, dass es mal neue features sind wie hybrid sli

James Ryan
2008-07-25, 05:40:45
http://www.tweaktown.com/news/9858/nvidia_s_next_big_bang_coming_soonindex.html

Driver Timeline 2008

Big Bang II - ____ will focus(?) on
New_______________
SLI Connectivity Features(?)
Display connectivity(?)
Quality Improvements
Performance Improvements
OpenGL 3.0

Klingt interessant , vieleicht wird das Mikrorucklerproblem gefixt und es kommen neue AA Modis zum Vorschein? Was meint ihr?

Der GT200b kommt zusammen mit einer neuen Treibergeneration (200er Reihe?), mehr wird da nicht kommen. ;)

MfG :cool:

Odal
2008-07-25, 06:05:41
SLI ist irrelevant für die meisten...
würde aber mal allgemein zeit werden das nvidia mal brauchbare treiber bringt....
aber ich glaub nicht mehr an den weihnachtsmann
top marketing-inzinierung

unwichtig



wichtig


opengl ist eh tot

Gast
2008-07-25, 07:09:48
Ein neure Treiber wow, das liefert ATI monatlich.

Gast
2008-07-25, 07:28:04
http://www.tweaktown.com/news/9858/nvidia_s_next_big_bang_coming_soonindex.html

Driver Timeline 2008

Big Bang II - ____ will focus(?) on
New_______________
SLI Connectivity Features(?)
Display connectivity(?)
Quality Improvements
Performance Improvements
OpenGL 3.0

Klingt interessant , vieleicht wird das Mikrorucklerproblem gefixt und es kommen neue AA Modis zum Vorschein? Was meint ihr?

LOL, was für ein Müll!

Es gibt ja noch nicht mal eine offizielle Spezifikation von OpenGL 3.0, wie will Nvidia da also eine OpenGL 3.0 fähige Grafikkartebauen, wenn die Spezifikation zu OpenGL 3.0 fehlt und somit noch gar icht bekannt ist, was die Karte alles können muß, daß sie als OpenGL 3.0 Karte durchgeht?


Da eine Information in diesem Gerücht schonmal falsch ist, kann man dem Rest auch nicht glauben.

Fazit:
Da kommt kein next "big Bang" im September.

SavageX
2008-07-25, 08:13:42
opengl ist eh tot

Guck mal über den Tellerrand. Ist nicht alles Windows, was Fenster schubbst.


@Gast: Die Spezifikation wird wohl auf der Siggraph vorgestellt.

The_Invisible
2008-07-25, 08:37:36
SLI ist irrelevant für die meisten...
würde aber mal allgemein zeit werden das nvidia mal brauchbare treiber bringt....
aber ich glaub nicht mehr an den weihnachtsmann
top marketing-inzinierung




opengl ist eh tot

was ist an den derzeitigen den nicht brauchbar?

nur weil ein treiber monatlich kommt heißt es nicht das er besser ist.

mfg

igg
2008-07-25, 08:44:10
Ich denke Big Bang II bezieht sich auf erweiterte Treiber (Stichwort OpenGL 3.0) und den GT200b.

Gast
2008-07-25, 09:10:41
Oder es wird den Reinfall der GT200 toppen. Und sie meinten Big Flopp II :D

The_Silent_One
2008-07-25, 10:22:38
lasst doch bitte die sinnlosen posts...

könnte mir vorstellen, dass opengl3 der grund für "big bang ii" ist. die spec soll laut nem gast in nem anderen thread auf der siggraph vorgestellt werden.

"performance improvements" sind kein grund für so ne bezeichnung und der gt200b wird performancetechnisch sicherlich nicht so ein knüller, wie viele erwarten. aber mal sehen.

wie gesagt: ich denke, opengl3.0 support ist schuld an der ankündigung.

mekakic
2008-07-25, 10:33:52
Es gibt ja noch nicht mal eine offizielle Spezifikation von OpenGL 3.0, wie will Nvidia da also eine OpenGL 3.0 fähige Grafikkartebauen, wenn die Spezifikation zu OpenGL 3.0 fehlt und somit noch gar icht bekannt ist, was die Karte alles können muß, daß sie als OpenGL 3.0 Karte durchgeht? Ich würde erwarten, daß es schon jede Menge "OpenGL 3.0 fähige" Karten gibt.
:)

Odal
2008-07-25, 11:04:37
Guck mal über den Tellerrand. Ist nicht alles Windows, was Fenster schubbst.


@Gast: Die Spezifikation wird wohl auf der Siggraph vorgestellt.

das ist mir schon klar...

nur für das bisschen 3ddesktop unter X oder nexuiz ;) braucht man kein opengl 3.0

Flashpoint
2008-07-25, 11:12:40
das ist mir schon klar...

nur für das bisschen 3ddesktop unter X oder nexuiz ;) braucht man kein opengl 3.0

Noch weiter schauen xD
Medizinische Anwendungen setzen zu 99,9% auf OpenGL

Anarchy-HWLUXX
2008-07-25, 11:30:15
das ist mir schon klar...

nur für das bisschen 3ddesktop unter X oder nexuiz ;) braucht man kein opengl 3.0
Die ganzen "OGL braucht man nicht" poster wollen damit nur zum besten geben dass sie willenlose Microsoft Fanboys sind und Monopole endgeil finden ... und hassen alles von id Software denn die machen ja in OGL

SavageX
2008-07-25, 11:31:58
nur für das bisschen 3ddesktop unter X oder nexuiz ;) braucht man kein opengl 3.0

Es kann nicht schaden, wenn OpenGL aufgeräumt wird - z.B. einfach nur, um die Enwicklung besserer Treiber zu ermöglichen. Angeblich sind gerade Treiberentwickler (und da werden ja z.B. gerade open-source treiber für Radeons und Geforce-Dinger entwickelt) ganz froh drum, wenn das alles etwas sauberer wird (und man die Kompatibilität to 1.x und 2.x als getrennten Wrapper oben drauf setzt).

Chris2CB
2008-07-25, 11:35:22
Noch weiter schauen xD
Medizinische Anwendungen setzen zu 99,9% auf OpenGL

Ah ja, das ist für mich als Spieler auch extrem Interessant. Nasa/Esa nutzen auf der ISS für die Abflussrohre vom Klo Titan, nur mal so neben bei.


Mit Big Bang ist der Treiber gemeint, also wird es wohl bei aktuellen Karten oder auch SLI zu verbesserungen kommen, eventuell hat ATI das MR Problem bei zB. UT3 über den Treiber gelöst.

Was sich hier manche wieder zusammenspinnen ist echt schon krank und fern jeder realität.

igg
2008-07-25, 11:36:56
Mir ist OpenGL lieber als Direct3D, insofern finde ich es erfreulich, dass sich da was tut. Allerdings mache ich mir aufgrund der zunehmenden Anzahl von Cross-plattform Titel (X360 und PC haben beide DX9) etwas Sorge um OpenGL :(.

Mit Big Bang ist der Treiber gemeint, also wird es wohl bei aktuellen Karten oder auch SLI zu verbesserungen kommen, eventuell hat ATI das MR Problem bei zB. UT3 über den Treiber gelöst.

Was sich hier manche wieder zusammenspinnen ist echt schon krank und fern jeder realität.
Ja, jede Woche kommt wieder jemand und erzählt, dass das MR Problem bei ATI gelöst ist.

ESAD
2008-07-25, 11:37:26
nur was bringt medizinischen anwendungen opengl. 3.0
gerade bei diesen ist man IHMO sehr zurückhaltent mit neuerungen

mekakic
2008-07-25, 11:37:48
Dazu vergeht kein Tag an dem nicht irgendwelche Meldungen mit deutlich überdurchschnittlichen Mac Zuwachsraten reinflattern und auch für Spiele auf dem Mac ist OpenGL eben die einzige Wahl (und das Thema wird IMHO mit der Zeit immer aktueller werden)

Cubitus
2008-07-25, 11:38:09
Das erste Big Bang war ja die eigentliche Vorstellung von SLI.
Also müßte der zweite Big Bang im Prinzip auch was wichtiges darstellen.
Der OpenGL3 Support kann nicht das einzig Wichtigste sein.

Also rate ich mal drauf los


Multimonitoring+SLI
SLI auf Intel Chipsets :D
Beseitigung der Mikroruckler, durch einen eingebauten FPS-Limiter
eventuelle neue AA Modis
zusätzlich werden noch kleine Leistungs-Reserven des GT200 aktiviert


oder Nv hat es geschafft eine Weg zu finden um drei zukünftige GX2bs gleichzeitig zum Laufen zu bringen, 6way AFR :ueye:

Chris2CB
2008-07-25, 11:53:16
Ja, jede Woche kommt wieder jemand und erzählt, dass das MR Problem bei ATI gelöst ist.


Bei Unrealtournament 3


Hier sieht man allerdings wie schnell sich durch User die nicht wirklich lesen können falsche Informationen verbreiten können.

Cubitus
2008-07-25, 11:55:26
Bei Unrealtournament 3


Hier sieht man allerdings wie schnell sich durch User die nicht wirklich lesen können falsche Informationen verbreiten können.

Hat ut3 nicht selbst einen internen Limiter ?

Chris2CB
2008-07-25, 12:00:01
Mit 2x3870 ruckelts bei um die 40fps, bzw aussetzer, lt. dem Test von Raff mit der 4870X2 ist das behoben und mit Kantenglättung bekommt man ATI Karten+UE3 zügig in den unteren Berreich.

The_Silent_One
2008-07-25, 12:04:24
Ich würde erwarten, daß es schon jede Menge "OpenGL 3.0 fähige" Karten gibt.
:)
genau. hieß es nicht, dass opengl 3.0 die d3d10-fähigkeiten der gpus dann auch nutzen kann? also ich mein, dass die dann mit den unified shadern insbesondere dem geometry-shader arbeiten?

Odal
2008-07-25, 12:16:05
Noch weiter schauen xD
Medizinische Anwendungen setzen zu 99,9% auf OpenGL


was interessiert das jetzt uns 08/15 GPU nutzer ob da ein treiber opengl3 support hat oder nicht?

Die ganzen "OGL braucht man nicht" poster wollen damit nur zum besten geben dass sie willenlose Microsoft Fanboys sind und Monopole endgeil finden ... und hassen alles von id Software denn die machen ja in OGL

ich hab privat 9 PCs im haus...auf 2 ist ein windows installiert....

Dazu vergeht kein Tag an dem nicht irgendwelche Meldungen mit deutlich überdurchschnittlichen Mac Zuwachsraten reinflattern und auch für Spiele auf dem Mac ist OpenGL eben die einzige Wahl (und das Thema wird IMHO mit der Zeit immer aktueller werden)

1. apple suckt
2. auch unter macos X und somit einem Unix derivat (halt eins wo sich ein paar snobs tüchtig asche aus dem kreuz leiern lassen) wird man wenn man schon spielt per dx emulation ala wine spielen...

ernstzunehmende opengl titel kann man nämlich an einer hand abzählen...und für die zukunft sieht das eher noch düsterer aus

Odal
2008-07-25, 12:22:41
genau. hieß es nicht, dass opengl 3.0 die d3d10-fähigkeiten der gpus dann auch nutzen kann? also ich mein, dass die dann mit den unified shadern insbesondere dem geometry-shader arbeiten?

geometrie shader ist dx11

Demirug
2008-07-25, 12:24:45
geometrie shader ist dx11

Tessellation ist Direct3D 11. Die Geometrie shader gibt es seit 10.

Odal
2008-07-25, 12:27:36
Tessellation ist Direct3D 11. Die Geometrie shader gibt es seit 10.


warum gibts für die ganzen GPGPU berechnungen extra eine api die imho keinen geometrieshader nutzt?

Das ist doch höchst inkompatible...und der standardisierung missdienlich

Demirug
2008-07-25, 12:38:47
warum gibts für die ganzen GPGPU berechnungen extra eine api die imho keinen geometrieshader nutzt?

Das ist doch höchst inkompatible...und der standardisierung missdienlich

Ich verstehe die Frage nicht. In Direct3D 11 gibt es mit den Compute Shadern eine neue Shader Klasse für GPGPU. Das ist aber keine eigene API. In der Hardware laufen sowieso alle Shader auf der gleichen Einheit.

SavageX
2008-07-25, 12:42:10
1. apple suckt


Yo, was wir mit deren Treiber zu kämpfen haben ist echt unschön.


2. auch unter macos X und somit einem Unix derivat (halt eins wo sich ein paar snobs tüchtig asche aus dem kreuz leiern lassen) wird man wenn man schon spielt per dx emulation ala wine spielen...


Wine setzt um nach: OpenGL.

Wenn man auch anderen Plattformen als Windows irgendeine Form von 3D-Support gönnen will, dann kommt man an OpenGL dann doch nicht herum. Insofern ist OpenGL 3.0 doch ein wichtiger Meilenstein, auch wenn es den Windows-Zocker erstmal nicht zu scheren braucht.

Anarchy-HWLUXX
2008-07-25, 12:49:55
was interessiert das jetzt uns 08/15 GPU nutzer ob da ein treiber opengl3 support hat oder nicht?


Interessiert es ob Treiber DX10/11 können ?


ich hab privat 9 PCs im haus...auf 2 ist ein windows installiert....


Macht und die 2 Windows Rechner sind die zum Zocken , der rest gaming untauglich obder wie ? Als Linuxer OGL niederzumachen, schiess dir doch gleich ins Bein.


1. apple suckt
Deine meinung


2. auch unter macos X und somit einem Unix derivat (halt eins wo sich ein paar snobs tüchtig asche aus dem kreuz leiern lassen) wird man wenn man schon spielt per dx emulation ala wine spielen...

Snobs, WTF ? Und emulationen Stinken.


ernstzunehmende opengl titel kann man nämlich an einer hand abzählen...und für die zukunft sieht das eher noch düsterer aus

Düster ? Ganz im gegenteil dank id Tech 5, Multi-Plattform FTW.

mekakic
2008-07-25, 12:55:08
was interessiert das jetzt uns 08/15 GPU nutzer ob da ein treiber opengl3 support hat oder nicht?Hier sind ja recht viele Entwickler und wir verwenden auch OpenGL. Ich warte auf v3 schon recht, recht lange und würde mich über einen fertigen Treiber zur SigGraph sehr freuen (immerhin sind NVIDIA & ATI ja auch Mitglieder in der Khronos Grp). Erwarte es aber eigentlich nicht unter dem "Big Bang II".


1. apple suckt
2. auch unter macos X und somit einem Unix derivat (halt eins wo sich ein paar snobs tüchtig asche aus dem kreuz leiern lassen) wird man wenn man schon spielt per dx emulation ala wine spielen... Beeindruckend. :rolleyes: ;D MacOS wird, ob es dir gefällt oder nicht, aber zunehmend ein wichtigerer Markt und eben einer wo OpenGL eine Alleinstellung hat.

Odal
2008-07-25, 12:55:45
Ich verstehe die Frage nicht. In Direct3D 11 gibt es mit den Compute Shadern eine neue Shader Klasse für GPGPU. Das ist aber keine eigene API. In der Hardware laufen sowieso alle Shader auf der gleichen Einheit.


ups ich hab hier den compute shader mit dem geometrieshader verwechselt...

ich meinte natürlich...im potentiellen falle das der computeshader DX10 "wäre".....warum die GPGPU apis z.b. das c ähnliche cuda nicht diesen nutzen um hardwareunabhängig zu bleiben

aber es ging ja um den geometrieshader....

Odal
2008-07-25, 13:08:03
Interessiert es ob Treiber DX10/11 können ?


naja aufgrund anständiger hardware(leistung) / software unterstützung interessiert das eigentlich mich im moment auch noch nicht...

und das sag ich obwohl ich eine vista installation habe und DX10 somit verfügbar...


Macht und die 2 Windows Rechner sind die zum Zocken , der rest gaming untauglich obder wie ? Als Linuxer OGL niederzumachen, schiess dir doch gleich ins Bein.

auf den windows rechnern ist zusätzlich einmal gentoo und einmal debian
gezockt wird natürlich unter windows...

die reinen linux rechner sind bedingt zum spielen geeignet...aber da gibts nix was auch nur annähernd von opengl support profitieren könnte....
vielleicht in 10 jahren doom4 :D
ich hab auch nix gegen opengl sehe aber für mich für den homegebrauch keine verwendung von opengl 3


Snobs, WTF ? Und emulationen Stinken.


wer für ein unix derivat bezahlt (ausser er hat nen unternehmen und benötigt support) ist selbst schuld...und die ganzen apple sachen...angefangen vom ipod übers iphone bis zum macosX sind imho nur überteuerter müll den keiner braucht...hauptsache das marketing stimmt um den leuten einzubläuen was sie brauchen um "trendy" zu sein
und emulationen ala wine stinken sicherlich nicht, da es die einzige möglichkeit ist ein halbwegs aktuelles professionelles spiel mal unter linux zu spielen...



Düster ? Ganz im gegenteil dank id Tech 5, Multi-Plattform FTW.


id hat schon immer auf opengl gesetzt...is ja nix neues...aber wer will denn jeden tag doom3 oder q4 spielen wenns da noch soviel mehr gibt....
ich meine so um 2000 herum war opengl im spielesektor noch ernstzunehmen....
besonders wo 3dfx mit ihrem glide gemurkse das zeitliche gesegnet hat.....aber da hat man nicht genug draus gemacht....

Gast
2008-07-25, 13:22:04
Wenn man sich einmal anguckt, wie viele Transistoren Nvidia für GPGPU-Computing beim GT200 ausgegeben hat und wie viel der Nutzer davon bisher hat, so sollte relativ schlüssig sein, dass Big Bang II genau damit etwas zu tun haben wird. ;)
Und GPGPU-Computing ist ein richtiger Bang! Man schaue sich nurmal an, welche Leistungssteigerungen damit möglich sind.

http://www.hardware-infos.com/tests.php?test=42&seite=5

Anarchy-HWLUXX
2008-07-25, 14:05:53
wer für ein unix derivat bezahlt (ausser er hat nen unternehmen und benötigt support) ist selbst schuld...und die ganzen apple sachen...angefangen vom ipod übers iphone bis zum macosX sind imho nur überteuerter müll den keiner braucht...hauptsache das marketing stimmt um den leuten einzubläuen was sie brauchen um "trendy" zu sein


Öm, der Darwin Kernel is open Source ... wofür man bezahlt ist das User Interface welches Linux (KDE/Gnome/whatever) um Lichtjahre voraus ist. Ist nunmal Sotware die nicht wie ein Riesiges gefrickel aussieht / ist.
iPod und iPhone haben hier nix zu suchen, falsches Thema. Das Macs teurer als PCs sind sollte mal jedem klar sein.

Und dieses abwertende "trendy" :rolleyes: . Für normaluser sind Linux derivate doch keine Option falls diese nicht gerade Vorinstalliert und 100% an das System angepasst sind. Und das ist meine meinung nachden ich vor 2 wochen meinen HTPC/Router mit LinuxMint 5.0 neu aufgespielt hab.

Bleiben also als brauchbare Systeme nur Windows und OS X.

Gast
2008-07-25, 14:13:54
Wenn man sich einmal anguckt, wie viele Transistoren Nvidia für GPGPU-Computing beim GT200 ausgegeben hat und wie viel der Nutzer davon bisher hat, so sollte relativ schlüssig sein, dass Big Bang II genau damit etwas zu tun haben wird. ;)
Und GPGPU-Computing ist ein richtiger Bang! Man schaue sich nurmal an, welche Leistungssteigerungen damit möglich sind.

http://www.hardware-infos.com/tests.php?test=42&seite=5


Lol, das ist ne schöne Marketing Folie die aber nix über eine Leistungsteigerung aussagt. Den Geschwindigkeitsvergleich gegen den Quicktime-Encoder gewinnt so ziemlich andere Encoder um Faktor x. Die Qualität die dann rauskkommt ist aber nunmal nicht skalar messbar.

Gast
2008-07-25, 15:01:25
Nun pick doch nicht ein Beispiel raus und mach dadurch die gesamte Folie kaputt. ;)
Die Leistungssteigerungen sind schon enorm, das kann man nicht abstreiten. Selbst wenn es dann nicht 18 mal so schnell ist, sondern nur 9 mal so schnell. Es ist aber ein Meilenstein und den wird Nvidia auch unter Big Bang II vermarkten.

Eure OpenGL 3.0-Vorschläge hauen mich nicht vorm Hocker. Das hätte man dann ja genauso bei OpenGL 2.0 zelebrieren können, dies hielt aber mucksmäuschenstill Einzug.

Odal
2008-07-25, 15:24:19
Öm, der Darwin Kernel is open Source ... wofür man bezahlt ist das User Interface welches Linux (KDE/Gnome/whatever) um Lichtjahre voraus ist. Ist nunmal Sotware die nicht wie ein Riesiges gefrickel aussieht ist.

wo is da was um lichtjahre vorraus?
das bekommt man alles mit nem linux auch leicht hin...

ausserdem, welcher mensch braucht den ganzen wabbel wobbel babbel quatsch in einer produktivumgebung...

schlichtes schlankes design kann man auch anders haben...per fluxbox oder openbox
z.b. http://lxde.org
alles was man noch an firlefanz braucht ist ruck zuck per opensource hinzugefügt.....


iPod und iPhone haben hier nix zu suchen, falsches Thema. Das Macs teurer als PCs sind sollte mal jedem klar sein.

darum ja...."trendy" snob abzocke welche dann auch wieder rumheulen weil sie eben einen unix unterbau haben, und dann doch mal irgendwelche peripherie nicht so einfach und unproblematisch läuft...oder weil sie dann doch ne ganz bestimmte software brauchen, welche bei dem klickibunti zeug nicht dabei ist...


auch macosX nutzt opengl hauptsächlich für klickibunti firelefanz und dazu brauchen sie auch kein opengl 3


Und dieses abwertende "trendy" :rolleyes: . Für normaluser sind Linux derivate doch keine Option falls diese nicht gerade Vorinstalliert und 100% an das System angepasst sind. Und das ist meine meinung nachden ich vor 2 wochen meinen HTPC/Router mit LinuxMint 5.0 neu aufgespielt hab.

seh ich nicht so...klar werden normal user kein linux installieren...aber windows und macos werden sie auch nicht installieren...

und macos X hat diesbezüglich keine vorzüge zu einem angepassten linux....
auf dem pc bei meiner mutter läuft debian sarge....ich brauch schon gar nicht mehr fragen "na läuft noch alles" wenn ich sie mal sehe
und die ist wahrlich kein technikmensch

das ich daran was mache (upgrade) lehnt sie kategorisch mit dem kommentar "läuft doch alles" ab
und das werkelt da seit jahren vor sich hin....


Bleiben also als brauchbare Systeme nur Windows und OS X.

macosX ist nix weiter als ein angepasstes unix und hat keinerlei vorzüge gegenüber einem angepassten unix was "brauchbar" anbelangt

Gast
2008-07-25, 15:25:25
Nun pick doch nicht ein Beispiel raus und mach dadurch die gesamte Folie kaputt. ;)
Die Leistungssteigerungen sind schon enorm, das kann man nicht abstreiten. Selbst wenn es dann nicht 18 mal so schnell ist, sondern nur 9 mal so schnell. Es ist aber ein Meilenstein und den wird Nvidia auch unter Big Bang II vermarkten.

Eure OpenGL 3.0-Vorschläge hauen mich nicht vorm Hocker. Das hätte man dann ja genauso bei OpenGL 2.0 zelebrieren können, dies hielt aber mucksmäuschenstill Einzug.


Auch 9 Mal so schnell kannst du (derzeit) knicken. Dazu kommt dass die Qualtität nicht anhand skalerer Merkmale messbar ist.

Anarchy-HWLUXX
2008-07-25, 16:09:46
wo is da was um lichtjahre vorraus?
das bekommt man alles mit nem linux auch leicht hin...

ausserdem, welcher mensch braucht den ganzen wabbel wobbel babbel quatsch in einer produktivumgebung...

schlichtes schlankes design kann man auch anders haben...per fluxbox oder openbox
z.b. http://lxde.org
alles was man noch an firlefanz braucht ist ruck zuck per opensource hinzugefügt.....

Die Spartanischen Teile sind was für Geeks, ich bin wohl einer aba benutzen würd ich die trozdem nicht, von empfehlen mal ganz zu schweigen.

darum ja...."trendy" snob abzocke welche dann auch wieder rumheulen weil sie eben einen unix unterbau haben, und dann doch mal irgendwelche peripherie nicht so einfach und unproblematisch läuft...oder weil sie dann doch ne ganz bestimmte software brauchen, welche bei dem klickibunti zeug nicht dabei ist...

Es gibt auch software die nur auf Mac läuft und die ich gern auf Windows hätte ... nebenbei muss man auch sich bei Linux und Windows ebenfalls selbst um zusätzliche Programme kümmern wenn man diese braucht.


auch macosX nutzt opengl hauptsächlich für klickibunti firelefanz und dazu brauchen sie auch kein opengl 3

Das Motto - "Stillstand ist Rückschritt" - gilt aufch für OGL, besonders als OpenSourcler ist man ständige verbesserungen gewöhnt - ich versteh KEIN STÜCK was du daran zu meckern hast. Und durch die Direct X regelmäßigen geleases fällt das Unix lager immer weiter zurück. Ne neuen OGL version ist schon lange überfällig.


seh ich nicht so...klar werden normal user kein linux installieren...aber windows und macos werden sie auch nicht installieren...

Doch MacOS updates kauft man sich im Laden und normaluser bekommen es auch hin Windows zu installen.


und macos X hat diesbezüglich keine vorzüge zu einem angepassten linux....
auf dem pc bei meiner mutter läuft debian sarge....ich brauch schon gar nicht mehr fragen "na läuft noch alles" wenn ich sie mal sehe
und die ist wahrlich kein technikmensch

das ich daran was mache (upgrade) lehnt sie kategorisch mit dem kommentar "läuft doch alles" ab
und das werkelt da seit jahren vor sich hin....

Ja wenn da nen Profi das System auf den User maßgefertigt hinstellt ist das möglich - aber wieviele leute haben nen Privat IT Service ?



macosX ist nix weiter als ein angepasstes unix und hat keinerlei vorzüge gegenüber einem angepassten unix was "brauchbar" anbelangt

Mal was ganz neues - wenn Linux so gut wäre dann müsste der Marktanteil (Desktops) mindestens auf dem niveau von MacOS liegen, ist er aber nichtmal ansatzweise.






___________

Ich mach jetzt aba mal schluss denn mer kommen vom Thema ab

DaBrain
2008-07-25, 18:28:31
opengl ist eh tot

... Schwachsinn.

Nur weil die meisten Spiele derzeit auf D3D setzen, heisst das nicht dass die meisten Anwendungen kein OpenGL verwenden.

Und nur mal ganz am Rande... Ohne OpenGL würden die Menschen/Aliens/Monster und viele andere Dinge, die in aktuellen Spielen verwendet werden, weitaus schlechter aussehen. Die meisten Tools zur Erstellung von organischen High-Res Modelen setzen auf OpenGL.


Ich muss auch sagen, dass eine offene Graifk API eigentlich für alle Beteiligen eine tolle Sache wäre... wenn man sich denn mal halbwegs zügig auf eine Spec einigen könnte.

Der Mac spielt auch langsam eine größere Rolle. Zumindest bei wirklich großen Titeln gibt es oft Portierungen.


genau. hieß es nicht, dass opengl 3.0 die d3d10-fähigkeiten der gpus dann auch nutzen kann? also ich mein, dass die dann mit den unified shadern insbesondere dem geometry-shader arbeiten?

Über Extensions sollte das auch schon mit OpenGL 2.0 möglich sein, oder?
Die Nvidia Demos verwenden soweit ich weiß oft (immer?) OpenGL.
Zumindest da, sollte es verwendet werden.

Insgesammt hoffe ich das OpenGL 3.0 ein Stück weiter sein wird als D3DX10/D3D10.

Odal
2008-07-25, 20:11:30
Die Spartanischen Teile sind was für Geeks, ich bin wohl einer aba benutzen würd ich die trozdem nicht, von empfehlen mal ganz zu schweigen.


zu empfehlen sind wohl eher nicht diese firlefanz klickibunti sachen....komischerweise sagen mir viele das sie sowas nicht wollen weil es ihre übersicht stört und die damit nicht zurechtkommen...
ich weiß nicht was an ner taskleiste ala winxp mit nem taskmenu "geekig" sein soll...


Es gibt auch software die nur auf Mac läuft und die ich gern auf Windows hätte ... nebenbei muss man auch sich bei Linux und Windows ebenfalls selbst um zusätzliche Programme kümmern wenn man diese braucht.


linux/unix


Das Motto - "Stillstand ist Rückschritt" - gilt aufch für OGL, besonders als OpenSourcler ist man ständige verbesserungen gewöhnt - ich versteh KEIN STÜCK was du daran zu meckern hast. Und durch die Direct X regelmäßigen geleases fällt das Unix lager immer weiter zurück. Ne neuen OGL version ist schon lange überfällig.


ich hab nix gegen fortschritt, meine aussage war lediglich das ogl für den consumer soweit tot ist das dieser nix neues braucht...


Doch MacOS updates kauft man sich im Laden und normaluser bekommen es auch hin Windows zu installen.


aso jetzt soll man noch fürs bugfixing bezahlen?
und nein du kannst sicherlich nicht für jede x-beliebige hardware mal schnell einen macosx treiber per durchklicken installieren.....
ausserdem gibts zu 100en win software kein gleichwertiges macosx pendant....genau dann ist der nutzer wie beim freien unix auf opensource und manuelles einpflegen von fremdsoftware angewiesen...wo die meisten dann mit macos x kein stück weniger überfordert sind wie mit einem anderen linux/unix derivat


Ja wenn da nen Profi das System auf den User maßgefertigt hinstellt ist das möglich - aber wieviele leute haben nen Privat IT Service ?


der durchschnittsnutzer kauft sich einen rechner+os im handel...und installiert mal höchstens einen treiber der irgendwo dabei liegt (bekommen aber viele selbst mit win nicht hin) und eventuell mal das neuste spiel/programm aus dem mediamarkt nebenan

da sind potentielle macos x käufer genauso eingeschränkt wie wenn sie ein anderes unix derivat auf dem rechner hätten...

Mal was ganz neues - wenn Linux so gut wäre dann müsste der Marktanteil (Desktops) mindestens auf dem niveau von MacOS liegen, ist er aber nichtmal ansatzweise.

mal was neues, hinter macos x steht auch ein einzelnes gewinnorientiertes unternehmen was natürlich auch mit der marketingkeule umsich haut...

und gerade bei einer generation die immer "trendy" sein will und sich sofort den neusten ipod iphone zulegt weils mal "in" ist...da gehört dann natürlich auch so eine snobkrücke als pc her....

unter "ich hab einen apple iMac" ... "cool ich auch" kommt ja auch weniger zweifel auf als bei "ich hab ein dell xyz mit opensuse 10" ...sagt mir nix ich hab ein "acer aspire 436 mit kubuntu"

igg
2008-07-26, 09:49:04
Laut NordicHardware bezieht sich der Bang hauptsächlich auf verbesserter Treiber und CUDA-Support:
NVIDIA has something big coming, according to its own estimates something about the same size as SLI when it launched. It's not the introduction of the rumored Radeon HD 4870X2 killer, the 55nm G200b core. That would be a bit too weak. There is a new PhysX driver that will enable PhysX on all CUDA-capable GPUs that will launch soon, but it should arrive sooner than that. Instead, the bang comes from updated CUDA support and improved drivers.

SLI will be updated, connectivity will be updated, CUDA looks like it will go commercial, and better quality and performance overall. The last part may also include improved scaling in various SLI configurations. Whether it will have the same impact as SLI had remains to be seen. More news should follow as we approach the next Big Bang.
(Quelle (http://www.nordichardware.com/news,7979.html))

_DrillSarge]I[
2008-07-26, 10:49:21
CUDA looks like it will go commercial
??? wie jetzt? soll das in zukunft geld kosten? ;)

was haben eigentlich alle mit physx? es gibt dafür NIX*!?!

*ausser einer handvoll ut3 level, dem (ganz doll) crappigen warmonger + andere von ageia gesponsorte spiele/demos, 3dmark.

Cubitus
2008-07-26, 12:43:07
I[;6682569']??? wie jetzt? soll das in zukunft geld kosten? ;)

was haben eigentlich alle mit physx? es gibt dafür NIX*!?!

*ausser einer handvoll ut3 level, dem (ganz doll) crappigen warmonger + andere von ageia gesponsorte spiele/demos, 3dmark.

Vermutlich wird dann erst offiziell das Physx-Zeitalter eingeläutet und der volle Support aller bisherigen Physx Spiele gewährleistet.
Bei SLI war es ja auch nicht anders, NV hat diese Technik damals ja auch nur zugekauft und dann mit großem Tam Tam vermarktet.

Gast
2008-07-26, 13:21:02
Ist doch wirklich nicht schwer. Man wird die Verknüpfung von SLI und Physix zeigen. Also z.B. eine Kombination von 9600 und 280GTS, bei der die 9600 nur Physix macht und die andere Karte nur Grafik.

Dann vergleicht man es mit einem QX CPU und einem normale Dualcore mit dem NVSystem in irgendwelchen unrealistischen Benches und stellt fest, dass man X% mehr Peformance für Y% weniger Geld bietet.

Botcruscher
2008-07-26, 16:44:42
CUDA und Physx zerren als Herstellerabhängige Entwicklungen niemenden hinter dem Ofen vor. Bevor DX11 da was herstllerübergreifendes schaft kann von einem Bang keine Rede sein. Big ist da nur die Übertreibung der Werbeabteilung. Dazu ist SLI mit Physx so gigantisch wichtig... Sommerloch? Irgendwas im die Aktionäre bei Laune zu halten?

Gast
2008-07-26, 16:53:20
CUDA und Physx zerren als Herstellerabhängige Entwicklungen niemenden hinter dem Ofen vor.

Beides ist aber herstellerunabhängig.

Odal
2008-07-26, 16:59:33
ist es nicht weil amd den cuda mist nicht will....und intel hat damit schon garnix am hut

AnarchX
2008-07-26, 17:02:58
ist es nicht weil amd den cuda mist nicht will....und intel hat damit schon garnix am hut
CUDA 2.0 kann wohl ziemlich gut optimierten x86-Code auswerfen, der auf Grund seines Aufbaus wohl eben auch für Larrabee nicht verkehrt ist.

Gast
2008-07-26, 17:05:01
ist es nicht weil amd den cuda mist nicht will....

Das ist AMDs Problem und hat nichts mit der Tatsache zu tun, dass Cuda und PhysX herstellerunabhängig sind.

SavageX
2008-07-26, 18:52:10
Das ist AMDs Problem und hat nichts mit der Tatsache zu tun, dass Cuda und PhysX herstellerunabhängig sind.

CUDA als "Standard" wird gänzlich und allein von Nvidia gepflegt. Man mag es auf AMD oder Intel-Hardware am laufen kriegen - solange die alleinige Kontrolle bei Nvidia liegt, kann von "herstellerunabhängig" nicht die Rede sein, unabhängig davon, ob sich Nvidia nun "nett" oder "böse" gegenüer den Mitkonkurrenten verhält.

Anarchy-HWLUXX
2008-07-27, 02:28:58
Vermutlich wird dann erst offiziell das Physx-Zeitalter eingeläutet und der volle Support aller bisherigen Physx Spiele gewährleistet.
Bei SLI war es ja auch nicht anders, NV hat diese Technik damals ja auch nur zugekauft und dann mit großem Tam Tam vermarktet.
Das ist alt und reine Speku - mehr als das schlecht leserliche pic gibt es nicht.

Gast
2008-07-27, 10:53:01
CUDA als "Standard" wird gänzlich und allein von Nvidia gepflegt. Man mag es auf AMD oder Intel-Hardware am laufen kriegen - solange die alleinige Kontrolle bei Nvidia liegt, kann von "herstellerunabhängig" nicht die Rede sein, unabhängig davon, ob sich Nvidia nun "nett" oder "böse" gegenüer den Mitkonkurrenten verhält.

Herstellerunabhängig hat nichts damit zu tun, wer die Kontrolle darüber hat. DirectX ist auch eine herstellerunabhängige API, deren Kontrolle aussschliesslich bei Microsoft liegt.

Demirug
2008-07-27, 10:56:32
Herstellerunabhängig hat nichts damit zu tun, wer die Kontrolle darüber hat. DirectX ist auch eine herstellerunabhängige API, deren Kontrolle aussschliesslich bei Microsoft liegt.

Das ist aber nicht so ganz vergleichbar. Microsoft redet mit den Beteiligten bevor sie einen neuen DirectX Standard verabschieden.

Ich glaube kaum das nvidia bei AMD/ATI anfragt was sie den in die nächste CUDA Version einbauen sollen.

Gast
2008-07-27, 11:08:11
Man wird es nie erfahren solange AMD CUDA boykottiert.

Gast
2008-07-27, 11:20:10
Man wird es nie erfahren solange AMD CUDA boykottiert.Also ich empfinde es eher umgekehrt! NVidia boykottiert AMDs STREAM.

MuLuNGuS
2008-07-27, 12:29:08
ist es nicht weil amd den cuda mist nicht will....und intel hat damit schon garnix am hut

nur weil du nvidia nicht magst ist CUDA noch lange kein mist.
®

Gast
2008-07-27, 12:34:42
Also ich empfinde es eher umgekehrt! NVidia boykottiert AMDs STREAM.

Hat AMD an Nvidia ein Angebot gemacht STREAM zu nutzen oder willst du nur flamen?

Gast
2008-07-27, 13:10:25
Hat AMD an Nvidia ein Angebot gemacht STREAM zu nutzen oder willst du nur flamen?Hallo!?! Sie können jederzeit einsteigen. Sie wollen und werden aber nicht. Das ist auch ein Fakt. Wieso verlangst du von der Konkurrenz etwas, was NVidia selbst nicht leisten möchte?

Tesseract
2008-07-27, 13:54:52
wenn Linux so gut wäre dann müsste der Marktanteil (Desktops) mindestens auf dem niveau von MacOS liegen, ist er aber nichtmal ansatzweise.

dieser argumentation nach müsste windows "10 mal so gut" wie osx sein. o_O


es gibt viele einflüsse auf die marktstellung. von "image" über monopolistische de-facto-erpessungen (exklusivität) über quantität der produkte (wenn es z.B. 20 systeme mit windows gibt und nur eines mit osx - weil an die hardware gekoppelt - hat windows schon mal per se einen vorteil weil es einen großteil der preislisten ausfüllt: 20 namen > 1 name) oder cross-over strategien wie der ipod (was glaubst du wieviele leute sich jetzt einen mac kaufen weil sie einen ipod besitzen? davor interessierte apple kaum jemanden) usw.
die ursachen sind extrem zahlreich.
die technischen möglichkeiten bzw. die technische überlegenheit liegt bei all diesen ursachen aber irgendwo auf einem der hintersten plätze.

=Floi=
2008-07-27, 15:04:51
cuda wäre aber mal nicht mal so schlecht für amd. Die ati karte dürfte sicherlich vorteile haben, dank der theoretisch höheren arithmetischen leistung gekopelt mit einem niedrigeren preis. Nebenbei wäre man so nochmal besser aufgestellt, da man einfach einen größeren markt zur verfügung hätte mit cuda.

Das ganze ist zwar jetzt OT, aber es wäre für amd garnichtmal so unerwünscht.

Gaestle
2008-07-27, 19:46:55
Gibts eigentlich schon Treiber, die PhysX auf die NV-Onboard-Grafik auslagern, so dass die Grafikkarte nicht mehr mit PhysX belastet ist?
Wenn nein, vielleich ist das der Bang?

AnarchX
2008-07-27, 20:14:47
Gibts eigentlich schon Treiber, die PhysX auf die NV-Onboard-Grafik auslagern, so dass die Grafikkarte nicht mehr mit PhysX belastet ist?
Wenn nein, vielleich ist das der Bang?
Die ersten PhysX-Treiber hat neben Support für G92 und G200 auch welchen für C78(der IGP in MCP78 und MCP72), also dürfte das schon jetzt funktionieren.

Gast
2008-07-27, 21:21:36
Wenn beide zusammen arbeiten? Denke nich das dies jetz schon funktioniert.

Anarchy-HWLUXX
2008-07-27, 21:22:43
dieser argumentation nach müsste windows "10 mal so gut" wie osx sein. o_O



Als MS sein fast-Monopol aufgebaut hat war das wohl so ...

(del)
2008-07-27, 21:40:34
Als MS sein fast-Monopol aufgebaut hat war das wohl so ...Ich kannte leider niemanden der NT3.5 daheim fuhr. Und einen einzigen der NT4 fuhr. Alles andere war immer nicht besser als MacOS. Nur "verbreiteter".

@=Floi=
Jetzt fehlt nur noch der Grund warum Nv daran Interesse haben sollte. Es sei denn sie fürchten Intel mehr als nochmals gegenüber ATI nachzufedern. Der GT200 ist wirklich sehr schnell (D3D) aber auch vom PReis abgesehen scheint er nicht der Liebling der Massen zu sein.
Die Leute stehen wieder das erste Mal seit langem auf nur ausreichend Leistung und gehen mehr in Richtung Lautstärke und Verbrauch (+ Wärmeabgabe).
Das meiste worüber es beim Catalyst und den 48xxx gemeckert wird ist was? Daß Powerplay2 noch nicht läuft...

=Floi=
2008-07-27, 22:04:02
die frage ist hald, ob amd nicht auch noch den weg gehen muß, den nv hier jetzt beschritten hat. NV hat ganz bewusst die architektur umgebaut und trotzdem ist noch eine sehr gute karte daraus geworden. NV wird mit GPGPU sicherlich ein zweites sehr gewinnbringendes standbein aufbauen und somit wird sich das ganze schon rechnen.

Ich könnte mir vorstellen, dass nv hier wie mit physx erst eine gute marktdurchdringung mit cuda möchte und deshalb amd mit ins boot holt. Längerfristig wird man sicherlich amd wieder auf abstand halten können und das wird auch nv nicht als das größte problem sehen.

Gast
2008-07-27, 22:20:45
... NV wird mit GPGPU sicherlich ein zweites sehr gewinnbringendes standbein aufbauen und somit wird sich das ganze schon rechnen ...Das ist zu bezweifeln. Der Markt für GPGPU-Anwendungen ist sehr klein.

Tesseract
2008-07-27, 22:26:09
Als MS sein fast-Monopol aufgebaut hat war das wohl so ...
nein. nichtmal ansatzweise.
das was microsoft zum monopol verholfen hat war die auswahl als system für den ersten IBM-PC. mit technischer überlegenheit hatte das nicht das geringste zutun.
alle innovationen fanden alle wo anders statt. z.B. bei xerox, nextstep oder apple.

(del)
2008-07-27, 22:39:49
die frage ist hald, ob amd nicht auch noch den weg gehen muß, den nv hier jetzt beschritten hat.Die ATIs sind eigentlich seit der 800er Jahr für Jahr mehr GPGPU-tauglich als Nv nun mit dem 280er :| Welchen Weg?

Ich könnte mir vorstellen, dass nv hier wie mit physx erst eine gute marktdurchdringung mit cuda möchte und deshalb amd mit ins boot holt. Längerfristig wird man sicherlich amd wieder auf abstand halten können und das wird auch nv nicht als das größte problem sehen.Ich könnte mir vorstellen, daß ATI das u.U. auch so sieht und sich nicht einfach nur benutzen lassen möchte. Oder meinst du wir sind hier alle Genies der Analyse und der Rest dadraußen nur Deppen?

Gast
2008-07-27, 22:55:53
angeblich soll nvidia verlautbaren, dass sie das hitze problem der gtx280 in griff bekommen haben.immerhin etwas. dadurch wird die karte endlich leiser.

gruss

Adam D.
2008-07-27, 23:29:47
angeblich soll nvidia verlautbaren, dass sie das hitze problem der gtx280 in griff bekommen haben.immerhin etwas. dadurch wird die karte endlich leiser.

gruss
Unsinn? Als ob der Treiber daran etwas ändern würde.

Gast
2008-07-29, 19:48:10
Unsinn? Als ob der Treiber daran etwas ändern würde.

Nix treiber, neue revision!

gruss

Gast
2008-07-29, 19:55:44
Das ist zu bezweifeln. Der Markt für GPGPU-Anwendungen ist sehr klein.
Mumpitz.Bilderbearbeitung,Videobearbeitung(Hd),Audio/Videoencoding,Datenbanken.
Das ist auch von Interesse für Privatkunden.

Gast
2008-07-29, 22:40:40
Mumpitz.Bilderbearbeitung,Videobearbeitung(Hd),Audio/Videoencoding,Datenbanken.
Das ist auch von Interesse für Privatkunden."... Datenbanken."?! Was bitteschön soll eine GPGPU in Bezug auf Datenbanken beschleunigen? Und insbesondere bei Privatanwendern?! Bei Bildbearbeitung bin ich bei den absolut meisten Aufgaben mit einem aktuellen, günstigen Quadcore gut bedient. Des gleichen gilt für Audio-Bearbeitung. Videobearbeitung/-Encoding bedarf in der Tat einer höheren Rechenleistung, aber wer macht das schon unter den Privatanwendern. Also, ich bleibe dabei. Der Markt ist zu gering und reicht nicht für ein weiteres Standbein!

ScottManDeath
2008-07-29, 23:28:30
http://www.gpgpu.org/cgi-bin/blosxom.cgi/Database/index.html

Gast
2008-07-30, 02:01:06
http://www.gpgpu.org/cgi-bin/blosxom.cgi/Database/index.html
Die GPGPU erreicht nur bei einigen speziellen (einfachen) Aufgaben und Konstellationen (Datenmenge) ihre hohe Streaming-Leistung. Wird die Aufgabe komplexer und paßt daher nicht mehr in das Streaming-Modell oder kommen Limitation des gesamten Designs ins Spiel (z.B. VRAM), ist die GPGPU weit weniger geeignet für Datenbanken als eine Multicore-CPU.
GPGPUs und Datenbanken: Das ist selbst nach einigen Jahren der Forschung eben weiterhin nur zu Demo-Zwecken geeigent. Vielleicht kann Larrabee mit vollwertigen x86-Kernen die Brücke schlagen?

ESAD
2008-07-30, 04:42:01
bei datenbanken limitiert doch viel mehr das backend als die prozessorleistung

Gast
2008-07-30, 09:39:17
bei datenbanken limitiert doch viel mehr das backend als die prozessorleistungRichtig! Hier geht es aber nicht um 'Real-World', sondern um eine theoretische Spielerei. Man stelle sich mal vor, 'Real-World' Spiele würden ein VRAM von 8 GB voraussetzen. Wo lägen da wohl die FPS im Schnitt! Glücklicherweise sind 'Real-World' Spiele auf den Grafikspeicher der GPUs konzipiert. Mit den Datenbanken verhält es sich wohl nicht so.

mekakic
2008-07-30, 13:50:04
Nvidia's Big Bang II Borrows from ATI's Physics Concept (http://gpucafe.com/2008/07/nvidias-big-bang-ii-borrows-from-atis-physics-concept/)

igg
2008-07-30, 15:11:56
Nvidia's Big Bang II Borrows from ATI's Physics Concept (http://gpucafe.com/2008/07/nvidias-big-bang-ii-borrows-from-atis-physics-concept/)
Es wäre schön wenn es so wäre. Dann behält man seine alte Geforce und nutzt sie als PhysX Karte, evtl. auch für GPGPU Funktionen/CUDA?

Adam D.
2008-07-30, 15:43:29
Ja, wenn das so kommt, wäre das echt klasse. Obwohl ich den Nutzen von PhysX immer noch anzweifle...

Klingt auf jeden Fall nach 'nem interessanten Treiber-Paket, mal sehen, was man aus dem G200 noch rausholen kann.

MEDIC-on-DUTY
2008-07-31, 17:10:00
Codename für einen neuen Treiber ok, und sonst? War´s das schon? Einziger Lichtblick: SLI würde mit der erwähnten PhysX-Unterstützung endlich einmal eine sinnige und nüztliche Lösung darstellen. Sonst bietet SLI keinerlei Zusatznutzen für mich. Im Gegenteil, man hat eher mehr Probleme damit.

Gast
2008-07-31, 21:37:41
Es gibt keine SLI PhysX unterstützung, für was auch...

PhysX wird immer nur über eine Karte gehen.

Coda
2008-07-31, 22:09:57
Er meint wohl dass man die zweite Karte für PhysX verwendet. Ist das bisher eigentlich möglich?

MEDIC-on-DUTY
2008-07-31, 23:36:34
Er meint wohl dass man die zweite Karte für PhysX verwendet. Ist das bisher eigentlich möglich?

Jup, so meinte ich das auch. Mhm, ich dachte das ware mit dem BigBang II auch gemeint. Zumindest wäre es eine feine Sache für ältere SLI-taugliche Karten.

Gast
2008-08-01, 01:26:18
Nein, das ist bisher eben nicht möglich. Hier mal alles auf Deutsch:

http://www.hardware-infos.com/news.php?news=2262

elianda
2008-08-01, 02:26:03
Ok ich bin nicht 100%ig auf dem aktuellsten Stand aber ich wuerde mir folgendes wuenschen:
- Berechnungen mit double precision ohne Geschwindigkeitseinbussen
- SLI + Multimonitor oder zumindest eine automatische Umschaltung bei Nutzung von Fullscreen 3D auf dem primaeren Monitor
- 3D-Monitor support, ich denke da ist durch 3D Kino und 3D Filme was am kommen. Das kann aber ggf. noch etwas laenger brauchen.
- trotz Umschaltung auf Chipset integrierte Grafik nach 3D, stromsparender bei aktivierten 3D

Gast
2008-08-01, 08:41:53
Bei Multimonitor kann ich mir sogar vorstellen das sie villeicht sowas wie SoftTH anbieten. Sprich man braucht einfach nur weitere Monitore anzuschlissen und dann bietet der Treiber automatisch 180° Sicht in Form von passender Auflösung.

deekey777
2008-08-05, 21:49:11
http://www.tweaktown.com/news/9858/nvidia_s_next_big_bang_coming_soonindex.html

Driver Timeline 2008

Big Bang II - ____ will focus(?) on
New_______________
SLI Connectivity Features(?)
Display connectivity(?)
Quality Improvements
Performance Improvements
OpenGL 3.0

Klingt interessant , vieleicht wird das Mikrorucklerproblem gefixt und es kommen neue AA Modis zum Vorschein? Was meint ihr?

http://www.tweaktown.com/news/9898/amd_nvidia_take_battle_to_driver_front/index.html

http://www.abload.de/img/news_nvfw0408084qs.jpg

igg
2008-08-05, 22:28:32
Video:
- xx
Ist das rekonstruiert oder war das so?

Coda
2008-08-05, 22:38:33
10 bit display port? NVIDIA bietet doch gar kein 10 bit Render Target an? Evtl. ist das vom Treiber bisher nicht freigeschalten.

SLI Multimonitor. Ich weiß nicht ob ich lachen oder weinen soll. Man kann endlich beide Displayports bei ner GX2 verwenden? Wie gnädig X-D

Botcruscher
2008-08-06, 00:31:48
Bei Video fehlt ein x.:rolleyes:

Nuja OGL 3 und einige minimale Verbesserungen. Der Bang rührt also mal wieder von der Dekompression gewaltiger Mengen heißer Luft in der Werbeabteilung her.

Blacksoul
2008-08-06, 00:36:50
SLI Multimonitor. Ich weiß nicht ob ich lachen oder weinen soll. Man kann endlich beide Displayports bei ner GX2 verwenden? Wie gnädig X-D

Das wird aber auch verdammt nochmal Zeit. Ich hätte meine 6800 Ultras damals am liebsten aus dem Fenster geworfen. Vorallem musste man damals ja noch neustarten, um SLI zu (de-)aktivieren. AMD bietet das afaik aber auch erst seit der HD4800-Serie an. Trotzdem viel zu spät.


t.b.d

Gamer68
2008-08-06, 00:40:05
AMD bietet das afaik aber auch erst seit der HD4800-Serie an. Trotzdem viel zu spät.


t.b.d

hö?
Seit dem CAT. 8.1 um genau zu sein, egal ob X800 Crossfire oder 4870 CF ;)

Ud wahnsinn, NV schafft es entlich mal MM mit SLI zu betreiben :ugly:

Gast
2008-08-06, 01:11:43
SLI ging schon immer mit MM, nur wurde es eben bei den Desktop Grafikkarten nie Freigeschalten.

Coda
2008-08-06, 01:13:53
SLI ging schon immer mit MM, nur wurde es eben bei den Desktop Grafikkarten nie Freigeschalten.
Bei den Quadros ging das? Wirklich?

Gast
2008-08-06, 01:15:52
Getestet hab ich es nie, soll aber gehen.

Coda
2008-08-06, 01:23:42
Dann wär's aber logisch dass es zumindest bei den GX2 auch gehen sollte was nicht der Fall ist soweit ich weiß.

drmaniac
2008-08-06, 08:31:47
also mit meinen GTX280 muss ich Gott sei Dank nicht rebooten um SLI zu (de)aktivieren.

Trotzdem ist es nervig wegen einem schnellen Spiel das ganze jedesmal umzustellen.

Wenn ich jetzt mit dem neuen Treiber Multimonitor Betrieb nutzen kann (muss NICHT im spiel sein) dann ist das prima...

.

Gast
2008-08-06, 13:06:37
also mit meinen GTX280 muss ich Gott sei Dank nicht rebooten um SLI zu (de)aktivieren.

Trotzdem ist es nervig wegen einem schnellen Spiel das ganze jedesmal umzustellen.

Wenn ich jetzt mit dem neuen Treiber Multimonitor Betrieb nutzen kann (muss NICHT im spiel sein) dann ist das prima...

.


In dem Atemzug sollten Nvidia bitte mal gleich noch das Problem mit dem fehlenden Stromsparmodus im MM-Betrieb lösen. Kann mir vorstellen dass das bei SLI nicht so lustig wäre.

drmaniac
2008-08-06, 16:21:12
öhm.

das ist mir neu? d.h. wenn ich an meinen beiden GraKas 3 Monitore habe, laufen beide Karten unter Vollast??

.

AnarchX
2008-08-06, 16:24:56
Volllast wohl kaum, es sollen Taktraten und Spannungen nicht gesenkt werden, was natürlich mehr als ärgerlich wäre.
Immerhin sind ja so schon aus NVs versprochenen 25W 50 echte W (http://www.xbitlabs.com/articles/video/display/geforce-gtx200-theory_12.html#sect0) geworden, aber vielleicht tut sich da bei FW180 auch noch was.

AnarchX
2008-08-06, 22:15:53
http://www.tweaktown.com/news/9898/amd_nvidia_take_battle_to_driver_front/index.html

http://www.abload.de/img/news_nvfw0408084qs.jpg

http://img140.imageshack.us/img140/2258/91858forcewarer18001372ai8.jpg

http://www.techtree.com/India/News/Nvidias_Big_Bang_II_in_September/551-91858-580.html

Nvidia follows a quarterly development of drivers and has shared their roadmap with us. The R180 drive release is due in September, R185 will be released in December-February time-frame, the R190 will be rolled out between March and May, the R195 is due between Jun-August, and finally -- the R200, codenamed "Big Bang III", will support DirectX 11.

deekey777
2008-08-06, 22:19:35
Das gehört in den D3D11-Thread. :eek:

Irgendwie verrät NV ziemlich viel, was D3D11 angeht, die können das Zeug wohl nicht abwarten. :biggrin:

horn 12
2008-08-06, 22:27:17
Wann ist es dann soweit, der GT200b kann dann DX10 DX10.1 oder gar schon DX11?

Blacksoul
2008-08-06, 22:34:27
also mit meinen GTX280 muss ich Gott sei Dank nicht rebooten um SLI zu (de)aktivieren.

.

Das wurde damals mit einem neuen Treiber "behoben". Der kam aber relativ spät. Immerhin.


t.b.d

Gast
2008-08-06, 22:36:58
Vieleicht ist es G1x0. Als man im November07 die Probleme der Architektur beim G200 sah, hat man sich evtl. dazu entschieden, den Refresh wegzulassen. Dafür hat man "Next-Gen" was für 09 geplant war, vorgezogen, wenn die Architektur schon vor einem Jahr stand (sehr wahrscheinlich im Simulator schon seit Anfang 08 am rotieren).

G200b kommt evtl, als Midrange Shrink des G200 (abgespeckte GTX280 - GTX180?). Wer weiß schon, zu was ein GPU Hersteller in der Lage ist, RV770 hat ja auch überrascht.

Anarchy-HWLUXX
2008-08-07, 02:13:46
G200b kommt evtl, als Midrange Shrink des G200 (abgespeckte GTX280 - GTX180?). Wer weiß schon, zu was ein GPU Hersteller in der Lage ist, RV770 hat ja auch überrascht.

Das "b" steht dafür das an der Architektur kaum was bis garnix verändert wird neben dem Shrink - siehe G92b.

JaDz
2008-08-07, 08:13:14
Wann ist es dann soweit, der GT200b kann dann DX10 DX10.1 oder gar schon DX11?
Ich gehe mal stark von DirectX 10 aus.

Schlammsau
2008-08-07, 09:56:21
Wann ist es dann soweit, der GT200b kann dann DX10 DX10.1 oder gar schon DX11?

Der GT200b ist ein reiner DIE Shrink und wird den gleichen Techlevel (DX10) wie sein Vorgänger haben, mit evtl. leicht erhöhten Taktraten!
Der grösste Vorteil wird die Kostenersparniss beim herstellen sein, und die evtl. dadurch resultierenden niedrigeren Endkundenpreise.

Gast
2008-08-07, 10:04:32
Schon gelesen?
http://www.tgdaily.com/content/view/38649/135/

AnarchX
2008-08-07, 10:08:27
Schon gelesen?
http://www.tgdaily.com/content/view/38649/135/

Und noch eine neue, aber kaum lesbare Roadmap:
http://img213.imageshack.us/img213/7425/forcewarer180036460705xi6.jpg

mekakic
2008-08-12, 13:02:09
wir verwenden auch OpenGL. Ich warte auf v3 schon recht, recht lange und würde mich über einen fertigen Treiber zur SigGraph sehr freuen Hab meine Meinung geändert, nach dem Release der Spezifikation für 3.0 (aka 2.1.1) ist es mir nun egal. :(

Fetza
2008-08-12, 21:22:11
Der GT200b ist ein reiner DIE Shrink und wird den gleichen Techlevel (DX10) wie sein Vorgänger haben, mit evtl. leicht erhöhten Taktraten!

Wie viel mehrtakt es für den gt200b geben wird, ist doch noch garnicht abzuschätzen, es wird aber bestimmt nicht nur eine leichte erhöhung sein. Ausserdem wird doch spekuliert, dass er sogar ein paar transistoren mehr haben soll, um diesen mehrtakt zu realisieren.

Gast
2008-08-12, 23:44:42
Die Taktraten sind schon manifestiert, sind bislang nur noch nicht der Öffentlichkeit zugänglich. ;)

Rechnet mal mit 15 Prozent Mehrleistung gegenüber GTX 280, dann seid ihr gut dabei. Insbesondere bei der Shaderleistung hat es einen größeren Sprung gegeben.

Gast
2008-08-13, 08:08:09
Die Taktraten sind schon manifestiert, sind bislang nur noch nicht der Öffentlichkeit zugänglich. ;)

Rechnet mal mit 15 Prozent Mehrleistung gegenüber GTX 280, dann seid ihr gut dabei. Insbesondere bei der Shaderleistung hat es einen größeren Sprung gegeben.Quelle?

igg
2008-08-13, 09:15:05
Die Taktraten sind schon manifestiert, sind bislang nur noch nicht der Öffentlichkeit zugänglich. ;)

Rechnet mal mit 15 Prozent Mehrleistung gegenüber GTX 280, dann seid ihr gut dabei. Insbesondere bei der Shaderleistung hat es einen größeren Sprung gegeben.
Na das wären immerhin 25 FPS im Crysis Benchmark ;). Eigentlich spielbar.

DevilX
2008-08-13, 11:12:09
Also ich hab mal BadaBoom gestestet die Bildqualität ist nicht gerade die allerbeste, und das ding kann nur 2 Kanal..
:-(

Spearhead
2008-08-13, 11:16:55
Also ich hab mal BadaBoom gestestet die Bildqualität ist nicht gerade die allerbeste, und das ding kann nur 2 Kanal..
:-(

Das ist ja auch nicht gerade als Recoder für HD-Ergebnisse gedacht sondern eher für mobile Geräte, soweit ich das bisher gesehen habe, daher eigentlich logisch das nur 2 Audiokanäle unterstützt werden. Sieht man auch daran das nur Baseline Profile als Video-Output bei h.264 möglich ist.

Die Unterstützung von Audio ist so oder so recht mager soweit ich das gesehen habe. Kann man da eigentlich einstellen das Audio einfach ignoriert werden soll, d.h. nicht bearbeitet, sondern nur das Video?

Gast
2008-08-21, 16:21:12
uiui, sowas könnte schon eher ein bang sein:
http://www.theinquirer.net/gb/inquirer/news/2008/08/20/nvidia-announce-x86-chip

The_Silent_One
2008-08-22, 12:28:56
na ob die ne x86 lizenz bekommen haben?

müssen amd und intel da zustimmen oder reicht es, wenn intel die lizenz verkauft? könnte mir das durchaus vorstellen, weil amd momentan mit der cpu-sparte keinen besonderen profit macht und intel die nicht untergehen lassen darf. sonst würden die ja strenge auflagen bekommen. und für diesen fall könnte intel sich einen konkurrenten holen und müsste dann nicht mehr so auf amd achten.

für amd wärs hingegen sehr schlecht, wenn die noch einen konkurrenten bekämen, weil die sich den markt dann mit noch jemandem teilen müssten, was wiederum weniger umsatz hinauslaufen würde...


aber ohne x86 lizenz würde das ja nichts werden ^^

BlackBirdSR
2008-08-22, 13:25:13
Mir fallen da spontan noch Patente ein. Das könnte ein ebenso großes Problem werden. Ohne Patenttausch-Abkommen müsste Nvidia auf einige sehr performante oder effiziente Ideen verzichten, bzw diese selbst neu implementieren. Das ist IMO eine Aufgabe für die nächsten Jahre und nicht nur diesem September.

Gast
2008-08-22, 13:36:54
Die Quelle sagt schon alles über diese "News" aus

PHuV
2008-10-06, 18:04:30
Was war nun mit dem Big Bang?

Gast
2008-10-06, 18:26:54
Dauert noch bis 15. Oktober, Vorstellung der neuen Namenskonvention ;)

Zauberer
2008-10-07, 10:49:20
Was war nun mit dem Big Bang?
Wie der Gast schon gemeint hat, der Big Bang kann nur die Vorstellung der besten und schnellsten low-cost und Mainstreamkarten aller Zeiten sein, GeForce GT 120, GeForce GT 130, GeForce GT 140 sowie GeForce GT 150! :eek:
Die offizielle Vorstellung verschiebst sich leider etwas, dann kommen die Nagel neuen Karten! :eek:
Das ist "fast" so wie beim neuen VW Golf VI, da ist auch alles 1.000.000mal besser als beim Golf V! :eek: :eek: :eek:

Knacki99
2008-10-07, 10:53:23
Bisher nichts. Oder es hat nur bei Nvidia BANG gemacht.

Gast
2008-10-07, 11:27:56
http://img140.imageshack.us/img140/2258/91858forcewarer18001372ai8.jpg

http://www.techtree.com/India/News/Nvidias_Big_Bang_II_in_September/551-91858-580.html

Wieso steht da "Big Bang II"? Was war denn "Big Bang I"?

seeigel
2008-10-07, 12:07:26
Big Bang I war der Ko Schlag von ATI (4870 X2)

igg
2008-10-07, 12:07:58
@gast: Big Bang I war die Einführung von SLI.

dildo4u
2008-10-07, 12:13:04
Ship Sep-Feb 09. ;)

http://images.techtree.com/ttimages/story/91858_forceware_r180_02.jpg

Gast
2008-10-14, 17:34:57
http://www.vr-zone.com/articles/Forceware_180.10_is_Big_Bang__drivers/6098.html

Knacki99
2008-10-16, 11:05:16
http://www.vr-zone.com/articles/Forceware_180.10_is_Big_Bang__drivers/6098.html
Wird wohl eher 180.11. LOL

Gast
2008-10-16, 17:05:45
http://www.vr-zone.com/articles/Nvidia_Forceware_180_Series_Preview/6110.html

Gast
2008-10-16, 17:06:18
http://resources.vr-zone.com//uploads/iversongarnett/images/forceware180/nvcp_1.jpg