PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Schockbehandlung für Nvidia?


drmaniac
2008-03-15, 14:31:59
http://www.gamestar.de/news/pc/hardware/grafikkarten/amd/1478447/amd.html

Jetzt bin ich aber doch neugierig? Was sollte das sein??

:)

.

bluey
2008-03-15, 14:33:04
reine PR...

Sorkalm
2008-03-15, 14:35:01
Ne, das ist nichtmal PR, sondern eine Bullshit-News des Inquirers.

deekey777
2008-03-15, 14:36:22
Ne, das ist nichtmal PR, sondern eine Bullshit-News des Inquirers.
Der Bullshit kommt von Mike und nicht vom Inquirer.

Rebell
2008-03-15, 14:41:16
lol genau wie damals.. mit der AMD "Dark Sache".

dann wurde es eine billige Black Edition des X2

Nakai
2008-03-15, 14:42:06
Naja solange es nicht Fudo bestätigt, glaub ich das nicht.^^;)

Ansonsten totaler PR-Schmarrn.


mfg Nakai

Mark
2008-03-15, 15:45:22
vielelicht ist einfach nur die unerstützung von 4 monitoren bei crossfire gemeint. das geht bei sli noch nicht.

aber was neues wär das ja auch net

StefanV
2008-03-15, 16:07:41
Eventuell hat man aber wirklich etwas in der Hinterhand, was durchaus recht übel ist, die 800 Shader Units werden wohl einen Grund haben.
Pi mal Daumen ist das ein 2,5 facher RV670...

RV770 soll ja auch schon ein doppelter RV670 sein, was spricht dagegen noch 'ne Schippe draufzupacken??

"R700" soll ja ein 'Multicore' Design sein, wenn ich das richtig verstanden hab, dann ist damit eine äußerst flexibles Design gemeint, bei dem man 'mal eben' hier oder da ein paar Einheiten hinzufügen oder entfernen kann (ein Phenom ist auch Multicore, genauso wie ein Athlon 64 X2 ein Multicore ist)
Hier kommts halt auf die Definition von 'Multicore Design' an...

LovesuckZ
2008-03-15, 16:10:22
Ähm, schon zu Zeiten des r300 konnte men Einheiten "hinzufügen" oder "entfernen".
RV770 sollte ein doppelter rv670 sein? Woher kommen deine Insiderinfos? Bis jetzt spricht alles von 250mm², ca. 900MHz und um die 60% Mehrleistung.

_DrillSarge]I[
2008-03-15, 16:13:15
naja, zu r300 zeiten konnte man nur vom "großen" was wegstreichen.

LovesuckZ
2008-03-15, 16:15:23
I[;6356789']naja, zu r300 zeiten konnte man nur vom "großen" was wegstreichen.

Alles andere ist auch nicht möglich. Du kannst nur de-aktivieren, was schon vorhanden ist.

Rhönpaulus
2008-03-15, 16:27:28
anstatt monster-gpu wie bisher modular erweiterbare gpu-karte von ati mit sehr schnellem bussystem von amd.
sowas hat nvidia vermutlich wirklich nicht in der hinterhand.
tim sweeny wird es mit wohlwollen sehen.

LovesuckZ
2008-03-15, 16:36:45
tim sweeny wird es mit wohlwollen sehen.

Wieso?

Gast
2008-03-15, 16:59:47
Eventuell wird Mirostov Kilrovsky's überlegene AA-Lösung namens Spectral-AA eingesetz.

Gast
2008-03-15, 17:22:37
Eventuell wird Mirostov Kilrovsky's überlegene AA-Lösung namens Spectral-AA eingesetz.

Gibt es für dieses Verfahren igendwo Infos oder Beispielbilder?

Gast
2008-03-15, 17:38:52
Erst der "nVidia Killer" Codename R600, dann the Dark Side of AMD und jetzt Wunder Projekt Thunder, das man mal eben aus der Tasche zieht um nVidia nasszumachen.
Ich glaub einfach nicht mehr dran, aber lass mich gerne eines besseren belehren.

Rhönpaulus
2008-03-15, 17:59:58
Wieso?
multitreading auf einzelnen prozessoren ist in in einigen jahren geschichte.
die hacker von heute lernen mehrfachprozessorsysteme zu coden.
gerade bei der grafiksynthese machen viele kleine rechenknechte sinn.
sweeny hatte schon immmer die fähigkeit zukünftige entwicklungen und trends gut einzuschätzen.
deshalb fordert er schon länger das ende von spezialentwickelten gpus und anstelle dessen den nächsten technologieschritt zu multiprozessorarchitekturen im grafikbereich.

meine spekulation hier leitet sich folgendermaßen ab.

- der weg zu multicore ist bereits eingeschlagen und es gibt überhaupt keine grund anzunehmen das diese entwicklung an der grafikberechnung vorbei geht.

- amd und ati sind nicht,wie so offt in der wirtschaft,fusioniert damit die aktionäre durch "straffung der produktion" fette dividenden ausgeschüttet bekommen.
der grund war strategischer natur weil die technologiekernbereiche beider unternehem zusammen vereint einen technologiesprung ermöglichen.
daraus schließe ich das die etwas größeres in der pipeline haben.
intel hat die gefahr erkannt und bereits reagiert um sich nicht abhängen zu lassen.
ihr neues engachement im grafikbereich ist der beweis dafür.

- amd hat x86-multicoreprozessoren mit integrierten freizügiig programmierbaren gpu-kernen bereits in der entwicklung.
die wesendlich schnelleren bussysteme gegenüber dem externen notlösungen am pci(e)-bus werden die echten vorteile einer solchen architektur erst richtig ausspielen können.

-die interne architektur der aktuellen ati-karten mit ringbus deutet bereits die richtung an in die der zug abfahren wird.


wenn ati nun skalierbare multicorekarten bringen würde wäre das aus zahlreichen gründen ein echter vorteil.
technisch ist es sogar möglich diese cores nachzurüsten so das modular aufgebaute karten möglich werden.
wenn die tatsächlich sowas hinbekommen sollten hat ihr konkurent möglicherweise ein echtes problem.
keiner von uns weiß ob nvidia neben den sauriern nicht auch schon was in diese richtung vorbereitet aber besonders inovativ waren die ja nie und intels desinteresse spricht auch nicht gerade dafür das es dort fortgeschrittenes knowhow zu kaufen gibt.

alles nur mehr oder weniger korrekt begründette spekulation aber dafür wurde dieser tread ja wohl auch eröffnet.

Aquaschaf
2008-03-15, 23:12:26
sweeny hatte schon immmer die fähigkeit zukünftige entwicklungen und trends gut einzuschätzen.

Wann, wo? Ich entsinne mich eigentlich ausschließlich an relativ gewagte Aussagen aus seiner Richtung, aber nicht dass er Sachen früher gesehen hätte als andere die sich dann auch bewahrheitet hätten.

Gast
2008-03-16, 12:44:37
Erst der "nVidia Killer" Codename R600, dann the Dark Side of AMD und jetzt Wunder Projekt Thunder, das man mal eben aus der Tasche zieht um nVidia nasszumachen.
Ich glaub einfach nicht mehr dran, aber lass mich gerne eines besseren belehren.


AMD konzentriert sich eben stärker auf Marketing seit man gemerkt hat, dass man mit Intel und Nvidia nicht mithalten kann, was die Leistungsfähigkeit der Produkte betrifft.

Die gelbe Eule
2008-03-16, 12:49:12
Etwas neues wäre nur eine gesockelte GPU, sowie austauschbarer RAM.

Gast
2008-03-16, 12:59:35
Etwas neues wäre nur eine gesockelte GPU, sowie austauschbarer RAM.
Dann wäre die Performance entgültig im Eimer. :)

Gast
2008-03-16, 13:21:14
Etwas neues wäre nur eine gesockelte GPU, sowie austauschbarer RAM.

Das würde ein neues GPU-Design zu stark einschränken wegen Pin-Kompatibilität zum Sockel. Und beim Speicher geht es nicht wegen der hohen Frequenzen des Speichers auf Grafikkarte, das funktioniert nicht mit gesteckten RAM-Modulen.

Demirug
2008-03-16, 13:29:47
multitreading auf einzelnen prozessoren ist in in einigen jahren geschichte.
die hacker von heute lernen mehrfachprozessorsysteme zu coden.
gerade bei der grafiksynthese machen viele kleine rechenknechte sinn.

Jede Form von Multithreading ist nichts anderes als eine technische Bankrott Erklärung. Aus Entwicklersicht macht es nirgendwo Sinn für eine Aufgabe mehr als einen Thread einzusetzen. Und was die „Hacker von heute“ angeht so beherrscht eigentlich niemand den Umgang mit Multiprozessorsystemen wirklich.

sweeny hatte schon immmer die fähigkeit zukünftige entwicklungen und trends gut einzuschätzen.
deshalb fordert er schon länger das ende von spezialentwickelten gpus und anstelle dessen den nächsten technologieschritt zu multiprozessorarchitekturen im grafikbereich.

Sweeney mag ein hervorragender Geschäftsmann sein aber als Prophet ist er eine Enttäuschung. Er prognostiziert den „Untergang der GPUs“ seit der ersten Voodoo.

Gast
2008-03-16, 13:52:45
Jede Form von Multithreading ist nichts anderes als eine technische Bankrott Erklärung. Aus Entwicklersicht macht es nirgendwo Sinn für eine Aufgabe mehr als einen Thread einzusetzen. Und was die „Hacker von heute“ angeht so beherrscht eigentlich niemand den Umgang mit Multiprozessorsystemen wirklich.Demirug wieder :D
Wenn ich mit einem Thread auf einem 6Ghz Kern klotzen könnte, dann würde es wirklich keinen Sinn machen. Da die Entwicklung bezahlbar so schnell eben nicht voranschreiten kann, muß man die Arbeit verteilen. Vieles dabei ist nur ein Notbehelf, einiges aber kann davon sehr stark profitieren.

Man kann auch nicht wirklich behaupten, daß sich die Leistung pro Kerngeneration nicht wirklich signifikant weiter entwickeln würde.

Sweeney mag ein hervorragender Geschäftsmann sein aber als Prophet ist er eine Enttäuschung. Er prognostiziert den „Untergang der GPUs“ seit der ersten Voodoo.Vielleicht habe ich es falsch verstanden, aber Sweeney redete eher von einer stärkeren "Loslösung" von 3D-APIs der Betriebssysteme. Auch wenn es erst die DX10.x Spezifikationen und deren Umsetzung in Hardware möglich machen könnten ;)

Demirug
2008-03-16, 14:50:34
Demirug wieder :D
Wenn ich mit einem Thread auf einem 6Ghz Kern klotzen könnte, dann würde es wirklich keinen Sinn machen. Da die Entwicklung bezahlbar so schnell eben nicht voranschreiten kann, muß man die Arbeit verteilen. Vieles dabei ist nur ein Notbehelf, einiges aber kann davon sehr stark profitieren.

Aber es wird niemals so strak profitieren wie bei einem entsprechend schnelleren Kern. Oder anders gesagt 2*3 GHz < 6 GHz.

Das wir diese schnellen Kerne nicht bekommen ist mir schon klar und genau das meinte ich mit technischem Bankrott.

Vielleicht habe ich es falsch verstanden, aber Sweeney redete eher von einer stärkeren "Loslösung" von 3D-APIs der Betriebssysteme. Auch wenn es erst die DX10.x Spezifikationen und deren Umsetzung in Hardware möglich machen könnten ;)

Sweeney adaptiert seine Aussage natürlich immer etwas.

Der Verzicht auf eine 3D API ist eine Umschreibung das er eine CPU für die 3D Berechnungen will. Larrabee dürfte dem was er will schon recht nahe kommen. Auf einer Konsole mag dieser Ansatz der direkten Programmierung eines Coprozessors sogar funktionieren. Beim PC werden sich die unterschiedlichen Hersteller wohl kaum auf eine einheitliche ISA einigen und dann brauchen wir doch wieder eine API.

BlackBirdSR
2008-03-16, 15:21:04
Aber es wird niemals so strak profitieren wie bei einem entsprechend schnelleren Kern. Oder anders gesagt 2*3 GHz < 6 GHz.

Das wir diese schnellen Kerne nicht bekommen ist mir schon klar und genau das meinte ich mit technischem Bankrott.





Was ist mit Beispielen wie Supreme-Commander? Ein Kern alleine scheint mit der Berechnung des Spiels, dem Memory-Management und was sonst noch dazu kommt, so überfordert, dass der 2. Kern weit über 100% Leistung bringt.
Egal ob jetzt bei Madkillers oder THGs benchmarks.
:confused:

LovesuckZ
2008-03-16, 15:22:40
Ein positives Beispiel stehen hunderte entgegen, die heute keinen Gebrauch von Quadcores machen.

Gast
2008-03-16, 15:29:39
Der Verzicht auf eine 3D API ist eine Umschreibung das er eine CPU für die 3D Berechnungen will. Larrabee dürfte dem was er will schon recht nahe kommen. Auf einer Konsole mag dieser Ansatz der direkten Programmierung eines Coprozessors sogar funktionieren. Beim PC werden sich die unterschiedlichen Hersteller wohl kaum auf eine einheitliche ISA einigen und dann brauchen wir doch wieder eine API.
Hm, soll die nächste Engine nicht auch hauptsächlich für die Konsolen sein? Dann macht das ja doch Sinn.

Mike11
2008-03-16, 15:32:28
Und beim Speicher geht es nicht wegen der hohen Frequenzen des Speichers auf Grafikkarte, das funktioniert nicht mit gesteckten RAM-Modulen.
Vielleicht nicht mit DDR2/GDDRx, aber mit XDR2 oder so wärs schon besser möglich.

_DrillSarge]I[
2008-03-16, 15:34:48
Der Verzicht auf eine 3D API ist eine Umschreibung das er eine CPU für die 3D Berechnungen will. Larrabee dürfte dem was er will schon recht nahe kommen. Auf einer Konsole mag dieser Ansatz der direkten Programmierung eines Coprozessors sogar funktionieren. Beim PC werden sich die unterschiedlichen Hersteller wohl kaum auf eine einheitliche ISA einigen und dann brauchen wir doch wieder eine API.
mit der betonung auf EINER konsole. somit wäre das auch schonwieder aus dem rennen ;)

BlackBirdSR
2008-03-16, 15:36:26
Ein positives Beispiel stehen hunderte entgegen, die heute keinen Gebrauch von Quadcores machen.

Ich reden von Dual.. zudem gehts hier nicht darum wer Gebrauch macht und wer nicht.

Exxtreme
2008-03-16, 15:40:10
Ein positives Beispiel stehen hunderte entgegen, die heute keinen Gebrauch von Quadcores machen.
Geht nicht nur um Quadcores. Man hat mit Multithreading einen Verwaltungsoverhead. Threads müssen synchronisiert werden etc. Dann hat man das Problem, daß man nicht unbedingt alle Kerne auslasten kann usw. Eine Verdoppelung der Rechenleistung mit doppelt soviel Kernen erreicht man nur in den seltensten Fällen selbst wenn die Software alle Kerne ansprechen kann.

Gast
2008-03-16, 15:42:56
I[;6358827']mit der betonung auf EINER konsole. somit wäre das auch schonwieder aus dem rennen ;)
Ich schätze mal auch für zwei Konsolen würde es sich noch lohnen. Kein Vergleich zur Unmenge von PC Varianten.

_DrillSarge]I[
2008-03-16, 15:43:59
Ich schätze mal auch für zwei Konsolen würde es sich noch lohnen. Kein Vergleich zur Unmenge von PC Varianten.
höh? ob ich nun für 2apis der konsolen was mache, oder extra alles per hand anpasse ist nun auch wurst

Coda
2008-03-16, 15:47:11
Sweeney mag ein hervorragender Geschäftsmann sein aber als Prophet ist er eine Enttäuschung. Er prognostiziert den „Untergang der GPUs“ seit der ersten Voodoo.
Da fand ich Carmack auch schon immer viel besser ;)

Gast
2008-03-16, 15:47:20
Mit doppelt so viel Cache wird die CPU auch nicht doppelt so schnell.
Und ob man jetzt den Die mit Cache oder Cores füllt ist doch wurst, der Platz ist da und muss gefüllt werden, sonst wird der Die zu klein. :)

Gast
2008-03-16, 16:16:05
Leute... "Banrott" wäre es, wenn die Entwicklung nur noch horizontal, also nur mehr Kerne, stattfinden würde. Das ist noch bei weitem nicht der Fall oder?

Daß 2x 3Ghz nicht 6Ghz bedeutet weiß doch auch jeder. Trotzdem sind soche virtuellen 4.8Ghz nicht zu verachten. Vor allem, wenn man mit dem Penryn auch problemlos 2x 3.8Ghz fahren kann. Ich sehe hier nichts vom Bankrott.

Und wenn ich eine Aufgabe nur schlecht multithreaded ausführen kann, dann kann ich dafür die Anwendung multitasked ausführen und zum Beispiel die KI und die Physik mehr an einen Kern binden und den Rest eher auf dem anderen laufen lassen.
Hier habe ich einen Syncronisatonsaufwand der mich bei dem Zugewinn nicht nennswert stört. Ein einziger Kern hätte hier auch mit 5Ghz keine Chance.

Komischerweise sind GPUs schon länger gar massiv-parallele Prozessoren, aber da erklärt es niemand als "Banrott". Wahrscheinlich weil er sich als Programmierer nicht so sehr drum kümmern muß.
Wenn man aber selbst etwas intensiver ran muß, wird es mit der Akzeptanz schon schwieriger. Die tieferen Hintergründe die meiner Meinung nach zu solcher Einstellung führen erorte ich lieber nicht.

Wer aber solche Probleme mit Dual und Quads hat der kann sich ruhig mehr Gedanken über die Leistung der GPUs machen. Schon auf einer lächerlichen 1900 werden Proteine zig mal schneller berechnet als auf dem fettesten Quad. Wenn ich Bioshocks Framerates sehe oder :| gepimpten Crysis auf aktuellen GPUs spiele, dann wird mir auch klar warum.
Bei den meisten anderen Spielen kann ich diese Leistung nur wage erahnen und frage mich wodurch bitte die FPS bei 40 dümpeln.

Coda
2008-03-16, 16:22:37
Komischerweise sind GPUs schon länger gar massiv-parallele Prozessoren, aber da erklärt es niemand als "Banrott". Wahrscheinlich weil er sich als Programmierer nicht so sehr drum kümmern muß.
"Gar nicht" ist das Stichwort.

Ansonsten zu deinem Post mal wieder:
http://upload.wikimedia.org/wikipedia/commons/6/6b/AmdahlsLaw.png

Gast
2008-03-16, 16:40:16
"Gar nicht" ist das Stichwort."Wohl doch"

Ansonsten zu deinem Post mal wieder:Und jetzt?

Gast
2008-03-16, 16:45:22
Nvidia hat sicherlich auch so einiges in der Hinterhand aber wenn AMD nix gescheites bringt....

Demirug
2008-03-16, 16:46:07
Was ist mit Beispielen wie Supreme-Commander? Ein Kern alleine scheint mit der Berechnung des Spiels, dem Memory-Management und was sonst noch dazu kommt, so überfordert, dass der 2. Kern weit über 100% Leistung bringt.
Egal ob jetzt bei Madkillers oder THGs benchmarks.
:confused:

Spiele bestehen in der Regel aus mindestens zwei großen Teilen. Der Simulation und der Darstellung. Der Rechenaufwand für die Simulation ist dabei unabhängig von der Framerate. Nehmen wir nun einmal an ein Spiel braucht auf einem single Core 250 ms dafür. Bleiben 750 ms für die Darstellung. Verdoppelt man nun die Leistung sollte die Simulation nur noch 125 ms brauchen. Bleiben 875 ms für die Darstellung und dafür braucht man ja auch nur die halbe Zeit pro Frame. Entsprechend sollte die Framerate immer um mehr als 100% steigen. Je mehr Zeit die Simulation braucht desto größer ist der Effekt.

Desweiteren könnte noch ein weitere Effekt zum Tragen kommen. Ein Spiel dazu auf Multicore optimiert wurde läuft auf einem einzelnen Core langsamer als nötig.

Demirug
2008-03-16, 17:10:52
Leute... "Banrott" wäre es, wenn die Entwicklung nur noch horizontal, also nur mehr Kerne, stattfinden würde. Das ist noch bei weitem nicht der Fall oder?

Daß 2x 3Ghz nicht 6Ghz bedeutet weiß doch auch jeder. Trotzdem sind soche virtuellen 4.8Ghz nicht zu verachten. Vor allem, wenn man mit dem Penryn auch problemlos 2x 3.8Ghz fahren kann. Ich sehe hier nichts vom Bankrott.

Im Vergleich zu Intels hochtrabenden Plänen zu Pentium 4 Zeiten sind die aktuellen Entwicklungen bei der Performance eines einzelnen Kerns ein schlechter Scherz.

Und wenn ich eine Aufgabe nur schlecht multithreaded ausführen kann, dann kann ich dafür die Anwendung multitasked ausführen und zum Beispiel die KI und die Physik mehr an einen Kern binden und den Rest eher auf dem anderen laufen lassen.
Hier habe ich einen Syncronisatonsaufwand der mich bei dem Zugewinn nicht nennswert stört. Ein einziger Kern hätte hier auch mit 5Ghz keine Chance.

Reden ist billig. Du unterschätzt den Synchronisationsaufwand massiv.

Komischerweise sind GPUs schon länger gar massiv-parallele Prozessoren, aber da erklärt es niemand als "Banrott". Wahrscheinlich weil er sich als Programmierer nicht so sehr drum kümmern muß.

Aus Entwicklersicht ist eine GPU ein single Core Prozessor.

Wenn man aber selbst etwas intensiver ran muß, wird es mit der Akzeptanz schon schwieriger. Die tieferen Hintergründe die meiner Meinung nach zu solcher Einstellung führen erorte ich lieber nicht.

Du darfst sie ruhig erörtern. Wir sind ein faules Gesindel das lieber ein Spiel programmieren will und sich nicht mit den Problemen der Concurrency Programmierung herumschlagen will.

Wer aber solche Probleme mit Dual und Quads hat der kann sich ruhig mehr Gedanken über die Leistung der GPUs machen. Schon auf einer lächerlichen 1900 werden Proteine zig mal schneller berechnet als auf dem fettesten Quad. Wenn ich Bioshocks Framerates sehe oder :| gepimpten Crysis auf aktuellen GPUs spiele, dann wird mir auch klar warum.
Bei den meisten anderen Spielen kann ich diese Leistung nur wage erahnen und frage mich wodurch bitte die FPS bei 40 dümpeln.

Weil die CPU Kerne nicht schnell genug sind.

_DrillSarge]I[
2008-03-16, 17:24:39
Im Vergleich zu Intels hochtrabenden Plänen zu Pentium 4 Zeiten sind die aktuellen Entwicklungen bei der Performance eines einzelnen Kerns ein schlechter Scherz.

hö? intel hat beim p4 rein gar nix eingehalten, was man versprochen hatte.
mann muss zurzeit multicore gehen, da man durch die fertigung in sachen takt (und somit auch energieaufnahme, kühlung) pro kern, zwar nicht am limit, aber doch schon arg weit draussen ist

Captain Future
2008-03-16, 17:28:11
Schon auf einer lächerlichen 1900 werden Proteine zig mal schneller berechnet als auf dem fettesten Quad.
Bitte erst informieren. Die Workunits rotzt eine GPU zwar schneller durch, allerdings sind sie dabei erstens auf Vorarbeiten von der CPU angewiesen und zwietens erledigen sie nur einen begrenzten Arbeitsaufwand, weswegen es für diese WUs (ähnlich wie bei den PS3-WUs) nur vergleichsweise wenig Punkte gibt.

Mit einem guten Quad kommt man so auf ca. 3.500 Punkte pro Tag.

Gast
2008-03-16, 17:31:17
Du darfst sie ruhig erörtern. Wir sind ein faules Gesindel das lieber ein Spiel programmieren will und sich nicht mit den Problemen der Concurrency Programmierung herumschlagen will.Muß man etwa bei jedem Spiel von Null anfangen?
Gerade bei EA, wirklich ohne dir einen pinnen zu wollen, kann ich mir das nicht vorstellen.

Weil die CPU Kerne nicht schnell genug sind.Das ist mir klar. Interessant ist es nur, daß es die einen wirklich sehr stört, die anderen weniger. Dabei vergleiche ich nichtmal einen SupremeCommander mit Bioshock.

Demirug
2008-03-16, 17:50:10
Muß man etwa bei jedem Spiel von Null anfangen?
Gerade bei EA, wirklich ohne dir einen pinnen zu wollen, kann ich mir das nicht vorstellen.

Niemand (außer vielleicht ein neues Studio) fängt bei Null an. Das ändert aber nichts daran das Concurrency code schwer bis unmöglich zu pflegen ist. Es ist schon kompliziert genug dafür zu sorgen das der Code von vielen Leuten zusammenarbeitet. Durch Multithreading verliert man nun auch noch die Reproduzierbarkeit des Ablaufs was die Situation noch schlimmer macht. Man versucht deswegen ja das Team so weit als möglich davon abzuschirmen. Dummerweise werden wir dabei weder von denn Programmiersprache noch von den Tools ordentlich unterstützt. Auf Mutithreaderfahrungen aus anderen Bereichen kann man auch nur sehr begrenzt zurück greifen da dort die Aufgabenstellungen anders sind.

Das ist mir klar. Interessant ist es nur, daß es die einen wirklich sehr stört, die anderen weniger. Dabei vergleiche ich nichtmal einen SupremeCommander mit Bioshock.

Da spielen sehr viele Faktoren eine Rolle. In letzter Instanz läuft es aber immer darauf hinaus dass am Ende nicht genügend Rechenleistung übrig bleibt um die Daten zur Grafikkarte zu schicken.

Coda
2008-03-16, 17:53:28
"Wohl doch"
Was soll der Scheiß jetzt? Man sieht von außen überhaupt nicht dass eine GPU aus mehreren Baugruppen zusammengesetzt ist von der API aus. Noch nie. Selbst mit SLI oder Crossfire nicht.

Und jetzt?
Wenn du das Schaubild verstehen würdest, müsstest du nicht so blöd fragen.

Allein wenn man nur 10% der Zeit mit Synchronisiation und anderem seriellen Code verbringt bringen einem 8 ggü. 4 Prozessoren nicht mehr sehr viel, und 16 dann fast gar nichts mehr. Und 10% ist nicht sehr viel.

Das Gelaber von den unfähigen Entwicklern ist ganz einfach nur frech. Spätestens die Draw-Calls müssen nämlich in bestimmter Reihenfolge auf die GPU und das ist zwangsläufig seriell. Und das ist kein unerheblicher Teil der Frametime.

Exxtreme
2008-03-16, 18:05:35
Und jetzt?
Quadcores ... bzw. höchstens Skulltrail ist wohl das vorläufige Ende der Fahnenstange wenn es noch wirtschaftlich sein soll.

Gast
2008-03-16, 18:19:46
Was soll der Scheiß jetzt?Ernste Frage. Kannst du lesen, kleine Motzpuppe? Was schrieb ich denn?

Zum einen:
Komischerweise sind GPUs schon länger gar massiv-parallele Prozessoren, aber da erklärt es niemand als "Banrott".

Zum anderen:
Wahrscheinlich weil er sich als Programmierer nicht so sehr drum kümmern muß.

Also genau das was du mir jetzt erzählen willst. Erzähl mir trotzdem nicht so ein Bullshit, daß eine GPU es nicht ist, wenn sie es klar ist. Nur den Entwickler braucht es nicht so sehr zu kümmern.

Gast
2008-03-16, 18:39:04
Quadcores ... bzw. höchstens Skulltrail ist wohl das vorläufige Ende der Fahnenstange wenn es noch wirtschaftlich sein soll.Mehr braucht erstmal auch keine Sau. Viele Leute nehmen auch oft bewußt den Penryn (wenn es ihn endlich wirklich gibt) um ihn auf nah 4Ghz zu übertakten als den Wolfdale weniger oder garnicht zu übertakten.

Dual ist gut, Quad ist in einigen Fällen ordentlich. Damit sollte man umgehen können. Es ist ja nicht so, daß man von heute auf morgen mit einer massiv parallelen Platform zu kämpfen hat.
Wenn ein Spiel nur auf +30% mit Merkernen kommt und dadurch -5% auf Einzelkernen verliert, statt entsprechend >+60% und - 20% wenn man es näher an optimal machen wollte, dann ist das für mich schon ein Mehrwert. Anwendungen profitieren schon stark genug.

Für 30% mehr Leistung im Spiel reicht eine roh 30% schnellere CPU nicht aus. In dem einen Fall kämpft man mit der Syncronisation, in dem anderen steht man Schlange auf den Weg zu der Recheneinheit. Und auch da versucht man die Aufgaben brauchbar syncron zu verschachteln, um eben so kurz wie möglich anzustehen.
Mit einer Art Syncronisation und Organisation der Aufgaben hat man also immer zu tun.

Die x86 Singles beherrscht man schon ziemlich gut. Die Mehrkerne noch nicht. Bankrott ist dabei garnichts. Es ist nur der neue Stoff für den man als Profi wieder die "Schulbank" drücken muß. Schulbank drücken und Neulernen fällt Profis aber gelegentlich schwer. Das ist in allen Lebensbereichen so.

Gleich von "Unfähigkeit" war hier auch keine Rede, Coda. Verleihe deinen Aussagen und Argumenten mehr Gewichtung durch Inhalte und nicht durch so eine Kinderkacke.

Gast
2008-03-16, 18:57:42
Zum einen:
Komischerweise sind GPUs schon länger gar massiv-parallele Prozessoren, aber da erklärt es niemand als "Banrott".



Es stimmt ja auch nicht, denn eine GPU ist ein einzelner Core.
Wieviele Recheinheiten ein solcher Core hat ist unerheblich, ein Single-Core wird dadurch nicht zu einem Multi-Core.

Gast
2008-03-16, 19:05:34
Es stimmt ja auch nicht, denn eine GPU ist ein einzelner Core.
Wieviele Recheinheiten ein solcher Core hat ist unerheblich, ein Single-Core wird dadurch nicht zu einem Multi-Core.Und mit s.g. nativen Quadcores werden die Grenzen wieder leicht verschoben. Mal hin, mal her. Spielt das jetzt in dem Gesprächsthema der letzten Seite wirklich so eine Rolle welche Einheiten wie aufgeteilt und wie zusammengefügt sind? Die Sauarbeit erledigt in dem Fall eben gleich der Grakatreiber. Auch wenn er damit klar einen leichteren Job hat als der Kernel eines OS. Das ist mir alles bekannt.

Coda
2008-03-16, 19:19:34
Komischerweise sind GPUs schon länger gar massiv-parallele Prozessoren, aber da erklärt es niemand als "Banrott".
Was auch logisch ist, weil es da keine Performanceprobleme gab. Zwei Kerne bringen doppelte Leistung wenn das Speicherinterface nicht limitiert. Das ist bei CPU etwas ganz anderes und ist schon dreimal nicht transparent noch außen.

Wahrscheinlich weil er sich als Programmierer nicht so sehr drum kümmern muß.
Er muss sich gar nicht darum kümmern.

Also genau das was du mir jetzt erzählen willst. Erzähl mir trotzdem nicht so ein Bullshit, daß eine GPU es nicht ist, wenn sie es klar ist. Nur den Entwickler braucht es nicht so sehr zu kümmern.
Ich erzähle überhaupt keinen Bullshit. Das Problem bei CPUs das wir haben und von dem Demirug redet lässt sich überhaupt nicht auf GPUs übertragen. Kein Stück.

Die Sauarbeit erledigt in dem Fall eben gleich der Grakatreiber.
Nein, das macht die GPU selber.

Gast
2008-03-16, 19:43:38
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6359239#post6359239

oliht
2008-03-16, 19:45:10
Allein wenn man nur 10% der Zeit mit Synchronisiation und anderem seriellen Code verbringt bringen einem 8 ggü. 4 Prozessoren nicht mehr sehr viel, und 16 dann fast gar nichts mehr. Und 10% ist nicht sehr viel.


Wenn man das ganze so liest denkt man ja das mehr Prozessoren gar nix bringen ;D Die Problemgröße sollte man da schon nicht verschweigen. Die kann man ja auch vergößern....

][immy
2008-03-16, 20:00:08
Ernste Frage. Kannst du lesen, kleine Motzpuppe? Was schrieb ich denn?

Zum einen:
Komischerweise sind GPUs schon länger gar massiv-parallele Prozessoren, aber da erklärt es niemand als "Banrott".

Zum anderen:
Wahrscheinlich weil er sich als Programmierer nicht so sehr drum kümmern muß.

Also genau das was du mir jetzt erzählen willst. Erzähl mir trotzdem nicht so ein Bullshit, daß eine GPU es nicht ist, wenn sie es klar ist. Nur den Entwickler braucht es nicht so sehr zu kümmern.

ein entwickler braucht sich nicht darum zu kümmern, da grafik-berechnung nunmal herrlich parallelisierbar ist. grafik alleine schon. wie ich auch schon öfters geschrieben habe (also in anderen threads), gerade bei spielen lässt sich einfach nicht alles x-beliebig in verschiedene threads packen. es zählt immer noch am meisten wie schnell ein einzelner core arbeitet (bei CPUs). spieleentwickler schaffen es vielleicht ja noch einen zweiten core sinnvoll auszunutzen, aber spätestens beim dritten core wird es schwierig. wenn du z.B. sowas wie KI auslagerst, ist ja ansich ne nette sache, aber so ausgereift sind heutige KIs noch nicht als das sich es lohnen würde. Optimaler fall wäre wohl jeder "computergegner" in einem spiel hat nen eigenen thread. das wiederum würde aber wohl soviel rechenleistung erfordern das wir intels 80-core lösung bräuchten. aber erst dann könnte man die rechenleistung auch sinnvoll im multithreading-verband nutzen. wobei die verwaltung der threads dann wohl das größte übel sein dürfte.

aber spätestens wenn du versucht hast, ein problem in einer applikation zu finden die in mehreren threads läuft und wohlmöglich noch durch den gleichen code teilweise läuft, spätestens dann bist du als entwickler mit heutigen tools ziemlich überfordert. ein breakpoint bringt dir nicht viel wenn 30-threads in etwa zeitgleich auf den gleichen code zugreifen.


das einzige was passieren könnte ist, das man code in der cpu-selbst analysiert und parallelisiert. dies wiederum würde aber wohl noch sehr viel mehr rechenleistung von einem einzelnen core abverlangen.
Hatte der Itanium nicht so ein konzept?
außerdem, für spiele wäre das wohl ziemlich ungeeignet, da man das ergebnis ziemlich schnell braucht. bei business-applikationen kann es ruhig mal ein paar sekunden dauern, aber wenn ein computergegner ein paar sekunden nachdenkt bevor er in deckung springt, ... naja


was hat das ganze eigentlich noch mit dem topic zu tun?

Coda
2008-03-16, 20:11:32
Wenn man das ganze so liest denkt man ja das mehr Prozessoren gar nix bringen ;D Die Problemgröße sollte man da schon nicht verschweigen. Die kann man ja auch vergößern....
Korrekt, aber es gibt halt für alles irgendwann Grenzen.

Man muss halt kreativ sein mit der Rechenleistung die sich daraus ergibt, das sind aber dann eher Spielereien wie Strömungsdynamik und solche Dinge. Gerade deswegen wird die Rechenleistung deshalb aber nicht so genutzt werden wie die Entwickler eigentlich wollen würden.

Es gibt definitiv einen Unterschied bei den Spielen die Entstehen wenn man 4x2,5Ghz oder einmal 10Ghz hätte.

oliht
2008-03-16, 20:52:10
[immy;6359415'] was hat das ganze eigentlich noch mit dem topic zu tun?

Nichts :cool:

Benutzt eigentlich irgendeiner von den hier anwesenden Programmieren sowas wie OpenMP zur Parallelisierung oder ist das für Spiele komplett ungeeignet? Hab ja selbst von Spieleprorgrammierung/Engines keinerlei Ahnung. Mein ehemaliger Prof vom Supercomputing an der Uni, hat ja auch immer auf die Softwareentwickler geschimpft, dass die von paralleler Programmierung überhaupt keine Ahnung haben :|

Gast
2008-03-16, 20:58:07
Man muss halt kreativ sein mit der Rechenleistung die sich daraus ergibtstatt sie zu verfluchen.

Ich finde zb. die KIs angesichts der Rechenleistung öftersmal nur peinlich, wenn ich sie mit denen aus der P4 2.6Ghz Ära vergleiche. Da tut sich bis auf wenige Fälle überhaupt nichts.

Der Spielphysik gilt das gleiche. Daß man sich heute noch an Havok in HL2 aufgeilen kann ist irgendwie arm.

Undertaker
2008-03-16, 21:03:58
"Gar nicht" ist das Stichwort.

Ansonsten zu deinem Post mal wieder:
http://upload.wikimedia.org/wikipedia/commons/6/6b/AmdahlsLaw.png

Nettes Bild, aber wer sagt das dort die Grenze liegen muss? Z.B.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_raytracing_spielen_20/#abschnitt_fortschritt

oliht
2008-03-16, 21:16:32
Nettes Bild, aber wer sagt das dort die Grenze liegen muss?

Eine Einfache Überlegung: Nehmen wir an wir haben einen sequentiellen Anteil von 10% im Programmcode welcher 1 Sekunde dauert. Dieser sequentielle Anteil lässt sich nicht parallelisieren wegen Datenabhänigkeiten und muss deswegen auf einem Prozessor ausgeführt werden. Da kann ich die restlichen 90% des Codes noch so gut optimieren mein Programm wird immer 1 Sekunde brauchen.

Gast
2008-03-16, 21:23:48
Das ist nur ein verkaufsfördernder Mist. Wie das meiste auf CB.

Man hat überhaupt keine Ahnung was man mit den ganzen Kernen machen soll, also läßt man sich jeden möglichen Crap einfallen. Dann laßt doch mal euren RT Crysis Clon raus.

Mike11
2008-03-16, 21:36:23
Quadcores ... bzw. höchstens Skulltrail ist wohl das vorläufige Ende der Fahnenstange wenn es noch wirtschaftlich sein soll.
Hm, also mindestens 8 Threads werden wir über kurz oder lang auf jedenfall noch als Standard bekommen (wg. Intels Nehalem Quadcore).

Also wenn man das hier so liest bekommt man fast den Eindruck das mit Multithreading nichts anzufangen ist. Ich glaube zumindest auf der PS3 wird man die Kerne ganz gut zu nutzen lernen in den nächsten 2-3 Jahren (v.a. von den First Party Entwicklern). Mag zwar insgesamt sehr aufwendig sein, wird aber wohl zeigen dass mehr machbar ist als ursprünglich gedacht.

Über die Multicore Entwicklung der CPUs zu jammern ist doch auch sinnlos finde ich. Die Wahrscheinlichkeit dass sich der Trend umkehrt und es wieder weniger Kerne werden (bis hin zum Einzelkern) dürfte gegen null gehen.

Demirug
2008-03-16, 21:51:22
Benutzt eigentlich irgendeiner von den hier anwesenden Programmieren sowas wie OpenMP zur Parallelisierung oder ist das für Spiele komplett ungeeignet? Hab ja selbst von Spieleprorgrammierung/Engines keinerlei Ahnung.

OpenMP taugt im Bereich der Spieleprogrammierung bestenfalls für schnelle Hacks um aus einem Singlecore Spiel noch ein paar Prozent herauszuquetschen.

Um das Maximale heraus zu holen braucht man für Spiele andere Lösungen.

Mein ehemaliger Prof vom Supercomputing an der Uni, hat ja auch immer auf die Softwareentwickler geschimpft, dass die von paralleler Programmierung überhaupt keine Ahnung haben :|

Paralleler Programmierung für Supercomputer ist aber auch wieder was anderes als paralleler Programmierung auf Multicore CPUs.

Rhönpaulus
2008-03-17, 17:15:14
Jede Form von Multithreading ist nichts anderes als eine technische Bankrott Erklärung. Aus Entwicklersicht macht es nirgendwo Sinn für eine Aufgabe mehr als einen Thread einzusetzen. Und was die „Hacker von heute“ angeht so beherrscht eigentlich niemand den Umgang mit Multiprozessorsystemen wirklich.

genau das ändert sich doch gerade.
die neue generation wächst mit der programmierung einer ganzen armada von cpus auf.
in ein paar jahren gehen diese leute auf jobsuche und haben das notwendige wissen bereits im kopf.

Sweeney mag ein hervorragender Geschäftsmann sein aber als Prophet ist er eine Enttäuschung. Er prognostiziert den „Untergang der GPUs“ seit der ersten Voodoo.

..und er wird recht behalten.
niemand sagt das dies von gestern auf morgen geht aber es ist doch wohl unbestritten das der heute etablierte weg eine sackgasse ist.
sobald die technischen vorraussetzungen gegeben sind wird die umsetzung in die praxis beginnen und ich vermute das epic nur zu gerne gleich von anfang an mit dabei sein möchte.
das drängeln von sweeney klingt für mich wie eine mischung aus vision und frustration verbunden mit der angst das sie nicht mehr im geschäft sind wenn es dann mal so weit ist.

Gast
2008-03-17, 17:23:28
vorraussetzungen

Dieses Wort existiert nicht. Voraussetzungen hingegen schon. Vorraus gibt's übrigens auch nicht, dafür aber voraus.

darkcrawler
2008-03-17, 17:36:53
Dieses Wort existiert nicht. Voraussetzungen hingegen schon. Vorraus gibt's übrigens auch nicht, dafür aber voraus.

ach echt :confused:

@thread: lieber nicht breittreten, sonst gibts wieder ne riesen enttäuschung ;)

Demirug
2008-03-17, 17:38:06
genau das ändert sich doch gerade.
die neue generation wächst mit der programmierung einer ganzen armada von cpus auf.
in ein paar jahren gehen diese leute auf jobsuche und haben das notwendige wissen bereits im kopf.

Da habe ich von einem College Professor aber was ganz anderes gehört.

An seiner Universität wird Multiprocessing schon seit Jahren gelehrt. Obwohl sie das Thema immer erst im Abschlusssemester aufgreifen scheitern die meisten Studenten bei der Umsetzung der Theorie in die Praxis.

..und er wird recht behalten.
niemand sagt das dies von gestern auf morgen geht aber es ist doch wohl unbestritten das der heute etablierte weg eine sackgasse ist.
sobald die technischen vorraussetzungen gegeben sind wird die umsetzung in die praxis beginnen und ich vermute das epic nur zu gerne gleich von anfang an mit dabei sein möchte.
das drängeln von sweeney klingt für mich wie eine mischung aus vision und frustration verbunden mit der angst das sie nicht mehr im geschäft sind wenn es dann mal so weit ist.

Sweeney‘s Zeitrahmen beträgt bei dieser Vorhersage etwa immer 5 Jahre. ;)

HellHorse
2008-03-17, 19:10:28
multitreading auf einzelnen prozessoren ist in in einigen jahren geschichte.
die hacker von heute lernen mehrfachprozessorsysteme zu coden.
Wenn man keine Ahnung hat, schauen wir doch mal was jemand, der schon mal mit der Sache in der Praxis zu tun hatte meint: JC.

If you look back over 40 years of research and what people have done on trying to use multiple processors to solve problems, the fact that we can do so much so easily with the vertex fragment model, it’s a real testament to its value. A lot of people just think “oh of course I want more flexibility I’d love to have multiple CPUs doing all these different things” and there’s a lot of people that don’t really appreciate what the suffering is going to be like as we move through that; and that’s certainly going on right now as software tries to move things over, and it’s not “oh just thread your application”. Anyone that says that is basically an idiot, not appreciating the problems. There are depths of subtly to all of this where it’s been an ivory tower research project since the very beginning and it’s by no means solved.
Was auch erklärt warum die Theortiker (und Profs sind die Könige der Theoriker) da keine Probleme sehen.

Exxtreme
2008-03-17, 19:22:39
..und er wird recht behalten.
niemand sagt das dies von gestern auf morgen geht aber es ist doch wohl unbestritten das der heute etablierte weg eine sackgasse ist.
sobald die technischen vorraussetzungen gegeben sind wird die umsetzung in die praxis beginnen und ich vermute das epic nur zu gerne gleich von anfang an mit dabei sein möchte.
das drängeln von sweeney klingt für mich wie eine mischung aus vision und frustration verbunden mit der angst das sie nicht mehr im geschäft sind wenn es dann mal so weit ist.
Bitte kein F.U.D. weiterverbreiten. Wieso Sackgasse? Ich finde nicht, daß die Entwicklung irgendwie im Sande verläuft, im Gegenteil. Die nötigen APIs sind da, einfach mal verwenden und nicht rumflennen.

Der einzige Nachteil, den ich sehe ist die extreme Streuung in Sachen Performance bei Highbudget vs. Lowbudget. Nur das lässt sich auch beheben wenn AMD/Nvidia nur wollen. Es ist keine konzeptionelle Schwäche.

Gast
2008-03-17, 19:25:49
Der einzige Nachteil, den ich sehe ist die extreme Streuung in Sachen Performance bei Highbudget vs. Lowbudget.
Das ärgert mich an CF/SLI am Meisten.
Und die Situation wird mit Quad,Triple SLI und CF-X noch unangenehmer.

Gast
2008-03-17, 20:08:56
Microsoft & Intel wollen Multicore-Forschung fördern (http://www.winfuture.de/news,38151.html)

Mr.Magic
2008-03-18, 06:40:43
Der einzige Nachteil, den ich sehe ist die extreme Streuung in Sachen Performance bei Highbudget vs. Lowbudget. Nur das lässt sich auch beheben wenn AMD/Nvidia nur wollen. Es ist keine konzeptionelle Schwäche.

Die Mehrleistung von aktuellen HighEnd-GPUs spielt bei 99% der Spiele eh keine Rolle. Selbst mit MidRange-Karten laufen MPGs normalerweise problemlos auf Konsolenniveau (1280p @30 bzw 60FPS). Die brachiale Mehrleistung der HE-Hardware kann man "nur" mit hohen Auflösungen und Supersampling verpulvern.

horn 12
2008-03-19, 13:31:01
Wie lautet nun die Antwort auf die GX2 von Nvidia,
oder wer weiss um was es sich genau handelt?
Oder aber es war nur ein schlechter Scherz (Hoffe zumindest nicht!)

Gast
2008-03-19, 14:14:01
..und er wird recht behalten.

LooooooooooooooL ... wenn man lang genug wartet verschwindet jede technik irgendwann mal - bei GPUs werden es wohl mindestens 2 jahrzehnte sein bis es dazu kommen könnte.

Untergang my ass :rolleyes: Irgendwann in ferner Zukunft kommt vielleicht mal was besseres aber bis dahin sind GPUs King und da kann keiner was gegen sagen ...