Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum lügt Ihr so?


Gast
2004-06-01, 21:00:18
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1868454#post1868454

Im Artikel wird die FP24 im Vergleich zur FP32 von nv als "SCHLECHTER" bezeichnet!

Das ist eine Lüge und völlig an den Haaren herbeigezogen!

LovesuckZ
2004-06-01, 21:12:46
Original geschrieben von Gast
Das ist eine Lüge und völlig an den Haaren herbeigezogen!

Lass mich raten: 24 ist mehr als 32...

Gast
2004-06-01, 21:15:25
Original geschrieben von LovesuckZ
Lass mich raten: 24 ist mehr als 32...

Dir antworte ich mit folgendem zitierten Text!

Die Erfahrung mit dir hat geziegt das eine andere Diskussion keinen Sinn macht..

Zitat:

Performance-Probleme mit Nvidia GeForce FX Karten
Bei Verwendung der Pixel-Shader 2.0 brechen die aktuellen GeForce FX Beschleuniger in allen gängigen DX9-Anwendungen (3DMark 03, TR6 AoD, Aquamark 3, Half-Life 2) deutlich ein. Wer diesen Artikel gründlich durchgelesen hat, wird auch den Grund dafür verstehen. Die Nvidia-Karten bieten nicht die Fließkommagenauigkeit fp24, sondern entweder nur fp16 oder fp32. Sollen die DirectX 9 Spezifikationen erfüllt werden, so muss man bei den GeForce FX Karten fp32 auswählen (also 128 Bit). Die ATI Radeon Karten können dagegen die vorgeschriebene fp24 (96 Bit) verwenden und sind dadurch von der Geschwindigkeit her klar im Vorteil. Die Treiber-Entwickler bei Nvidia versuchen die Problematik damit zu lösen, durch Cheats im Treiber die Routinen in der Anwendung zu umgehen und fp16 zu verwenden. Allerdings erreicht man dadurch nicht die nach DX9 vorgeschriebene Bildqualität. Zusätzlich schummeln die Nvidia-Ingenieure noch mit einer schlechten Qualiät des anisotropen Filters oder der Ersetzung von Shader-Programmen - wie in 3DMark 03 geschehen. Ein weiteres Problem soll das für Half-Life 2 geplante Motion Blur bringen. Dieses wird es nur für den Standard-DX9-Pfad geben, der mit voller Präzision arbeitet. Somit müssen GeForce FX Besitzer entweder ein Ruckeln hinnehmen (Ausnahme vermutlich GeForce FX 5900) oder darauf verzichten.
Nvidia wollte mit seiner einzigartigen CineFX-Architektur die Spielewelt angeblich revolutionieren, dabei war es ein reiner Marketinggag. Ob die jetzigen Chips mit verbesserten Treiber doch noch in Höchstform anlaufen können, bleibt zu bezweifeln. Bis dahin muss man auf jeden Fall mit fp16 oder Effekten nach dem DirectX 8.1 Standard vorlieb nehmen - wenn man denn stolzer Besitzer einer GeForce FX Karte ist.

Quelle: http://www.freeze-networks.de/pc/ha...ctx9/seite3.php

Gast
2004-06-01, 21:16:18
Ich glaube er verwechselt da einiges und meint das 24bit Präzision bei Shadern ein muss für DX9 ist, was aber afaik nicht stimmt.
Auserdem verweist er beim "Schummeln" auf den 3dMark, nun als Spieler kann man diesen sowieso nicht ernst nehmen, da sind Tests verschiedener Spiele ausagekräftiger als die PTS beim 3dMurks.
Und Shader "umsortieren" ist legal, sogar erwünscht...

Gast
2004-06-01, 21:19:28
Original geschrieben von Gast
Ich glaube er verwechselt da einiges und meint das 24bit Präzision bei Shadern ein muss für DX9 ist, was aber afaik nicht stimmt.
Auserdem verweist er beim "Schummeln" auf den 3dMark, nun als Spieler kann man diesen sowieso nicht ernst nehmen, da sind Tests verschiedener Spiele ausagekräftiger als die PTS beim 3dMurks.
Und Shader "umsortieren" ist legal, sogar erwünscht...

Ich kann dir zig weitere Links zu Artikeln geben die sich mit FP24 im Detail auseinander gesetzt haben.

Alles reines Marketing... von NV

Mann hatte gehofft das die meisten DX9 Anwendungen noch einen DX8 Pfad aufweisen und somit wäre mann als nv in der Tat schneller gewesen.!

Aber so, siehe oben!

Gast
2004-06-01, 21:19:34
Auserdem würde ich die FP16/24/32 Diskussion Parallel zur SM2.0/3.0 Diskussion führen ;)

Fast alle Effekte die ich mit FP24/32 erreichen kann, lassen sich auch in FP16 darstellen, ist sogar erwünscht.
Die Argumentation muss man mir lassen, weil bei SM2.0/3.0 die selbe Schiene gefahren wird.
"Wer brauch SM3, läuft auch alles in SM2", klar läufts, aber nicht alles, was ? Abwarten, time will tell...

Gast
2004-06-01, 21:22:22
Deine "gängige" DX9 Anwendungen Aufzählung solltest du überarbeiten, HL2 gibts nicht, TR6 ist sicher nicht "gängig" und 3dmark is n benchmark, als Spieler uninteressant. "Gängig" sezte ich mal mit Verkaufszahlen gleich, oder das was viele Reviewer Benchmarken...

Etwas brüchig oder ?

LovesuckZ
2004-06-01, 21:22:40
Original geschrieben von Gast
Die Erfahrung mit dir hat geziegt das eine andere Diskussion keinen Sinn macht..


Interessant, dass Leute, deren Argumente kaum bedeutend sind, zur Beleidigung neigen...
Der Artikel ist schoen, erklaert aber nicht, warum es eine Lüge waere zu behaupten, dass FP32 nicht besser sei als FP24.

Thowe
2004-06-01, 21:26:59
Original geschrieben von LovesuckZ
Interessant, dass Leute, deren Argumente kaum bedeutend sind, zur Beleidigung neigen...
Der Artikel ist schoen, erklaert aber nicht, warum es eine Lüge waere zu behaupten, dass FP32 nicht besser sei als FP24.

Erinnert mich an alte TrueColor Diskussionen, warum 24Bit Farbtiefe besser als 32Bit Farbtiefe sind. Die Frage ist, wo ist die Prämisse bei der Auslegung "besser".

Gast
2004-06-01, 21:28:12
Original geschrieben von LovesuckZ
Interessant, dass Leute, deren Argumente kaum bedeutend sind, zur Beleidigung neigen...
Der Artikel ist schoen, erklaert aber nicht, warum es eine Lüge waere zu behaupten, dass FP32 nicht besser sei als FP24.

Naja, wer lesen kann ist klar im Vorteil.



http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/001.htm

Ist ja krass das mit den Nvidiakarten...
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/HL2_benchm arks/002.htm

Gast
2004-06-01, 21:32:21
Erm...
Siehe Alter des Artikels, willste nicht erstmal abwarten bis das Spiel fertig ist... wiedermal brüchig.

Das es auch anders geht zeigt Doom3, man hat den speziellen NV3x Pfad ja rausgenommen, der Treiber ist nun "fast enough".

LovesuckZ
2004-06-01, 21:32:46
Gast,
willst du zeigen, warum FP32 bei der NV3x Hardware unbrauchbar oder möchtest du beweisen, dass FP32 nicht besser als FP24 waere?
Entscheide dich doch bitte.

Gast
2004-06-01, 21:37:26
Vergleiche
http://www.xbitlabs.com/articles/video/display/nv40_29.html

http://www.gamers-depot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/HL2_benchmarks/002.htm

Bei deinem Beispiel fehlt einfach etwas an angaben, Auflösung, Filterung, AA-Grad...
Nicht gerade "sauber"...

deekey777
2004-06-01, 21:57:04
Der Threadstarter bezieht sich auf diesen Absatz:

Kritisieren müssen wir den Begriff "High Definition Gaming" mit dem Unterpunkt "Breakthrough Image Enhancement Technology". Seit Radeon 9700 hat sich da ja nichts zum besseren gewandelt. Antialiasing ist nach wie vor exzellent, die trilineare und vor allem anisotrope Qualität bleibt hingegen fragwürdig. Außerdem bietet der Pixelshader nur FP24-Genauigkeit. Das ist laut DirectX9 "Full Precision", aber die Konkurrenz überbietet das eben. Auch was Texturfilter-Qualität angeht: Beim 3Dc-Feature z.B. werden dem Feature Vorteile zugerechnet, die sich nur indirekt ergeben.

"High Definition"??? Was ist das denn für ein komischer und ein relativ neuer (Marketing-)Begriff - wird er nicht erst seit der R420 bzw. der X800-Serie verwendet? Das heisst also, dass dieser Absatz auch von der X800 handelt - und nicht von der R300 und deren Nachfolgern. Und was ist der Gegner der X800er? Ganz genau - die NV40!!! Und sollte irgendjemand der NV40 eine FP32-Schwäche vorwerfen, nur weil nVidia bei den Vorgängern bei FP 32 Leistung versagt hat, hat er die letzten Wochen verpennt.

Keel
2004-06-01, 22:31:52
Also hier muss ich LovesuckZ mal ganz klar unterstützen: Auch mir will nicht einleuchten, was der Threadstarter nun eigentlich will. FP32 ist ganz sicher nicht "schlechter" als als FP24, das wäre geradezu eine absurde Behauptung. FP32 mag langsamer sein, qualitiv aber auch besser. Sicher, FP32 war bei der FX-Reihe eigentlich nur Marketing, sobald FP32 zum Einsatz kam, brach die Performance extrem ein. Aber wie um alles in der Welt soll das die Aussage stützen, dass FP32 schlechter als FP24 sei?
Ganz abgesehen davon, dass sich das beim NV40 nun anscheinend geändert hat.
Gast, mir will wirklich nicht einleuchten, wie du von der Tatsache, dass die FXen eine schlechte FP32-Performance haben und es deshalb nicht oft benutzen, zu der Aussage kommst, dass FP32 schlechter sei als FP24. Da hat das eine mit dem anderen doch rein gar nichts zu tun, insofern halte ich deine Aussage für haltlos.

Aquaschaf
2004-06-01, 22:36:20
FP32 kann langsamer sein als FP24, wie man am NV40 sieht muss es das aber nicht. Ansonsten kann ich hier auch nur meinen Vorpostern zustimmen.

Gast
2004-06-01, 23:12:30
Es bezieht sich auf die allg. Angabe vom Artikel.

Lest mein Zitat !

Andersrum ist so geschehen wie Ihr selbst behauptet!

Gast
2004-06-01, 23:16:30
Original geschrieben von Aquaschaf
FP32 kann langsamer sein als FP24, wie man am NV40 sieht muss es das aber nicht. Ansonsten kann ich hier auch nur meinen Vorpostern zustimmen.

Das hat aber nichts hiemit gemeinsam!

Zitat:
Außerdem bietet der Pixelshader nur FP24-Genauigkeit. Das ist laut DirectX9 "Full Precision", aber die Konkurrenz überbietet das eben. Auch was Texturfilter-Qualität angeht: Beim 3Dc-Feature z.B. werden dem Feature Vorteile zugerechnet, die sich nur indirekt ergeben.


Das ist schlichtweg falsch!!!!

Gast
2004-06-01, 23:17:57
Original geschrieben von Keel
Also hier muss ich LovesuckZ mal ganz klar unterstützen: Auch mir will nicht einleuchten, was der Threadstarter nun eigentlich will. FP32 ist ganz sicher nicht "schlechter" als als FP24, das wäre geradezu eine absurde Behauptung. FP32 mag langsamer sein, qualitiv aber auch besser. Sicher, FP32 war bei der FX-Reihe eigentlich nur Marketing, sobald FP32 zum Einsatz kam, brach die Performance extrem ein. Aber wie um alles in der Welt soll das die Aussage stützen, dass FP32 schlechter als FP24 sei?
Ganz abgesehen davon, dass sich das beim NV40 nun anscheinend geändert hat.
Gast, mir will wirklich nicht einleuchten, wie du von der Tatsache, dass die FXen eine schlechte FP32-Performance haben und es deshalb nicht oft benutzen, zu der Aussage kommst, dass FP32 schlechter sei als FP24. Da hat das eine mit dem anderen doch rein gar nichts zu tun, insofern halte ich deine Aussage für haltlos.

Lies unten dann verstehst du mich!

ironMonkey
2004-06-01, 23:22:07
Original geschrieben von Gast
Das hat aber nichts hiemit gemeinsam!

Zitat:
Außerdem bietet der Pixelshader nur FP24-Genauigkeit. Das ist laut DirectX9 "Full Precision", aber die Konkurrenz überbietet das eben. Auch was Texturfilter-Qualität angeht: Beim 3Dc-Feature z.B. werden dem Feature Vorteile zugerechnet, die sich nur indirekt ergeben.


Das ist schlichtweg falsch!!!!

Das ist absolut richtig was dort steht und ich bin an sich pro ATI.


Gruß

Showtime
2004-06-01, 23:47:50
Ich verstehe nicht ganz, was Gast will. Sicher ist FP32 auf GFFX Karten schwach, aber was hat das jetzt noch für eine Relevanz?
Dein Link sagt gar nichts darüber aus, ob FP24 oder 32 besser ist, es zeigt nur, dass nVidia irgendwo gecheatet hat, um mehr fps zu bekommen. Cheaten tun aber sowohl nVidia als auch ATi, das ist doch nichts neues.
Und zu

Alles reines Marketing... von NV

kann ich nur sagen, dass es doch nur darum geht im Grafikkartengeschäft. Dass die Radeon9200 "extreme DirectX9 Performance bei unschlagbarer Bildqualität", ist doch genauso falsch.
Ich schließe mich daher allen an, die sich Gast nicht anschließen ;)

Gast
2004-06-02, 01:15:52
Original geschrieben von Gast
Das hat aber nichts hiemit gemeinsam!

Zitat:
Außerdem bietet der Pixelshader nur FP24-Genauigkeit. Das ist laut DirectX9 "Full Precision", aber die Konkurrenz überbietet das eben. Auch was Texturfilter-Qualität angeht: Beim 3Dc-Feature z.B. werden dem Feature Vorteile zugerechnet, die sich nur indirekt ergeben.


Das ist schlichtweg falsch!!!!

erkläre mir was in Bezug auf R420 vs NV40 daran falsch ist.
Da steht nur, dass ATIs Produkte lediglich FP24 Genauigkeit bringen und die Konkurenz halt mehr.
Das ist doch vollkommen richtig.

aths
2004-06-02, 01:24:56
Original geschrieben von Gast
Das hat aber nichts hiemit gemeinsam!

Zitat:
Außerdem bietet der Pixelshader nur FP24-Genauigkeit. Das ist laut DirectX9 "Full Precision", aber die Konkurrenz überbietet das eben. Auch was Texturfilter-Qualität angeht: Beim 3Dc-Feature z.B. werden dem Feature Vorteile zugerechnet, die sich nur indirekt ergeben.


Das ist schlichtweg falsch!!!! Schlichtweg falsche Sachen würde ich gerne berichtigen. Sofern mir klar würde, was falsch ist.

MeLLe
2004-06-02, 08:04:32
Original geschrieben von aths
Schlichtweg falsche Sachen würde ich gerne berichtigen. Sofern mir klar würde, was falsch ist.

Ist doch ganz klar, aths, was er meinte - du hast "Beim" groß geschrieben, es sollte jedoch klein anfangen ... ;)


Außerdem bietet der Pixelshader nur FP24-Genauigkeit. Das ist laut DirectX9 "Full Precision", aber die Konkurrenz überbietet das eben. Auch was Texturfilter-Qualität angeht: beim 3Dc-Feature z.B. werden dem Feature Vorteile zugerechnet, die sich nur indirekt ergeben.

nggalai
2004-06-02, 08:38:14
Original geschrieben von Gast
Das hat aber nichts hiemit gemeinsam!

Zitat:
Außerdem bietet der Pixelshader nur FP24-Genauigkeit. Das ist laut DirectX9 "Full Precision", aber die Konkurrenz überbietet das eben. Auch was Texturfilter-Qualität angeht: Beim 3Dc-Feature z.B. werden dem Feature Vorteile zugerechnet, die sich nur indirekt ergeben.


Das ist schlichtweg falsch!!!! Willst Du damit sagen, dass (a) die Konkurrenz NICHT mehr als FP24-Genauigkeit bietet, (b) FP32 nicht "mehr" als FP24 ist, oder dass (c) die Vorteile von 3Dc sich nicht indirekt ergeben?

Oder sind a-c alle falsch, aus deiner Sicht? Und wenn ja, weshalb?

93,
-Sascha.rb

FeuerHoden
2004-06-02, 08:46:53
Er meints wohl so: Da steht ATI bietet NUR FP24, es wird aber FP16, FP24 und FP32 geboten.

Oder meint ers anders?

q@w
2004-06-02, 09:50:32
Jaja, diese kleinen Fanboy-Gäste sind schon lustig. Erst wild rumschreien, alle anderen selbst als Fanboys und/oder parteiisch bezeichnen und auf Nachfrage dann leider komplett zu verstummen und ihre größtenteils lächerlichen und unbelegten Behauptungen zu untermauern.

Auch von neulich blieb ein Gast, dessen Schreibstil stark an den Gast "Thomas_B" erinnerte, noch einige Erklärungen bzw. Erläuterungen schuldig, flamte dann aber lustig an anderer Stelle weiter.

Wie trefflich das anonyme Internet doch geeignet ist, Dinge zu tun, die man sich im RL niemals trauen würde.

;Q

DrumDub
2004-06-02, 11:51:58
Original geschrieben von FeuerHoden
Er meints wohl so: Da steht ATI bietet NUR FP24, es wird aber FP16, FP24 und FP32 geboten.

Oder meint ers anders?

häh? der r420 bietet eben nur fp24. der nv40 bietet, je nachdem was der shader-programmierer anfordert, fp16 und fp32.

p.s.: da hat sich der threadstarter ja genial selbst mit seinem unwissen reingelegt. ;D

p.p.s.: geiler avatar, aths. titanic rulez.

Das gute A
2004-06-02, 16:06:52
Nice, da disqualifiziert man sich als "Gast" gleich mit dem ersten Post bzw. mit dem Start dieses Threads.. reife Leistung, das schaffen auch nicht alle ;)

Da erstaunt es gar nicht, dass plötzlich keinerlei Argumentation mehr vom Fred-Starter kommt...

Gruß

Yami
2004-06-02, 16:41:11
Original geschrieben von Das_gute_A
Da erstaunt es gar nicht, dass plötzlich keinerlei Argumentation mehr vom Fred-Starter kommt...
"Thomas_B" like halt, einfach mal nen bisschen Wirbel um Nichts machen und sich dabei schön selber verarschen. (sry)
Was manche Gäste, getrieben durch ihr Fanboy-Verhalten, da so treiben, ist einfach nur lächerlich.

von RTL direkt ins 3DCenter-Forum: :|
http://ventourizen.ngz-server.de/download/fun/rtl_fnn.asf

X-D... wobei der Typ im Video wahrscheinlich der intelligentere Bruder, des thread-starters ist.

Leonidas
2004-06-03, 10:02:38
Original geschrieben von Gast
Dir antworte ich mit folgendem zitierten Text!

Die ATI Radeon Karten können dagegen die vorgeschriebene fp24 (96 Bit) verwenden und sind dadurch von der Geschwindigkeit her klar im Vorteil.

Quelle: http://www.freeze-networks.de/pc/ha...ctx9/seite3.php



Der zitierte Text ist eine Falschaussage. Insofern fällt Deine gesamte Argumentation in sich zusammen. Hatten wir alles schonmal.

Killa Tomacco
2004-06-04, 15:48:16
Original geschrieben von Thowe
Erinnert mich an alte TrueColor Diskussionen, warum 24Bit Farbtiefe besser als 32Bit Farbtiefe sind. Die Frage ist, wo ist die Prämisse bei der Auslegung "besser".
Abprobo 24Bit Farbtiefe warum wird das eigendlich schon lange nicht mehr von Grafikkarten unterstützt ?

Quasar
2004-06-04, 16:17:04
Weil in 2D- und im RAMDAC die Bandbreite mittlerweile mehr als ausreichend ist, denke ich.

Thowe
2004-06-04, 23:28:52
Original geschrieben von Quasar
Weil in 2D- und im RAMDAC die Bandbreite mittlerweile mehr als ausreichend ist, denke ich.

Eben, damals war die Bandbreite tatsächlich derart limitiert, das man einen spürbaren Unterschied hatte. 24 Bit war sozugen der Kompromiss zwischen Geschwindigkeitsverlust und der doch deutlich schlechtere Darstellungsqualität gerade bei solchen Sachen wie Farbverläufen. Die meisten Menschen sehen kaum einen Unterschied zwischen 24Bit und 32Bit Farbtiefe, doch er ist da und es gibt auch Personen die diese sehen.

aths
2004-06-05, 23:50:46
Original geschrieben von Thowe
Eben, damals war die Bandbreite tatsächlich derart limitiert, das man einen spürbaren Unterschied hatte. 24 Bit war sozugen der Kompromiss zwischen Geschwindigkeitsverlust und der doch deutlich schlechtere Darstellungsqualität gerade bei solchen Sachen wie Farbverläufen. Die meisten Menschen sehen kaum einen Unterschied zwischen 24Bit und 32Bit Farbtiefe, doch er ist da und es gibt auch Personen die diese sehen. Es gibt keine 32 Bit Farbtiefe. Der 32-Bit-Modus liefert eine RGB-Farbauflösung von 24 Bit.

Endorphine
2004-06-06, 01:37:52
32-Bit Farbtiefe meint imho meist RGBA, also je 8-Bit R-G-B und zusätzlich einen 8-Bit Alphakanal.

Thowe
2004-06-06, 09:55:35
Original geschrieben von Endorphine
32-Bit Farbtiefe meint imho meist RGBA, also je 8-Bit R-G-B und zusätzlich einen 8-Bit Alphakanal.

Eben, wenn man nicht gerade CYMK meint, denke meint man bei Grafikkarten seltener.

Killa Tomacco
2004-06-06, 11:51:36
Wenn der einzige Unterschied zwischen 24bit Farbtiefe und 32bit Farbtiefe ist das der 32bit noch eine Alpha-Kanal zusätzlich hat. Dann mussten die Grafikkarten doch noch immer 24bit unterstützen was aber nicht der Fall ist. Es bleibt also die Frage warum nicht mehr ?

Quasar
2004-06-06, 12:01:05
Weil sich's nicht lohnt.
AFAIK wurde bei den Desktopfarbtiefen damals auch immer nur der Alpha-Kanal weggelassen, so daß die Darstellung der sichtbaren Farbwerte darunter nicht litt.

Killa Tomacco
2004-06-06, 12:04:25
Was mir gerade noch eingefallen ist es gab auch noch 15bit Farbtiefe.

Thowe
2004-06-06, 12:06:42
Original geschrieben von Quasar
Weil sich's nicht lohnt.
AFAIK wurde bei den Desktopfarbtiefen damals auch immer nur der Alpha-Kanal weggelassen, so daß die Darstellung der sichtbaren Farbwerte darunter nicht litt.

Fürs normale Augen nicht, genau. 24 Bit Farben waren einfach nur RGB und gut, gab bloß damals einige andere Probleme bei einigen Grafikkarten, die aber nicht mit der Anzahl der Farben zusammenhingen.

Es gibt im übrigen einige sehr schöne PNG Bilder mit Alphakanälen, an denen man die Unterschiede durchaus sehen kann. Allerdings mehr oder minder gar nicht mit normalen TFT Displays, die erreichen häufig eh nicht die vollen 24Bit. Auf guten Monitoren lässt sich das sehen und noch besser wenn man sowas auf den Belichter ausgibt.

aths
2004-06-06, 12:08:27
Original geschrieben von Endorphine
32-Bit Farbtiefe meint imho meist RGBA, also je 8-Bit R-G-B und zusätzlich einen 8-Bit Alphakanal. Ja, aber Alpha trägt nichts zur Farbe bei. Demnach kann man zwischen 24 Bit Farbe und 32 Bit sowieso keinen Unterschied sehen.

Thowe
2004-06-06, 12:19:21
Original geschrieben von Killa Tomacco
Was mir gerade noch eingefallen ist es gab auch noch 15bit Farbtiefe.

Farbtiefen gibt es viele, doch für Grafikkarten sind bei den momentanen Ausgabegeräten 32Bit optimal. Ausser in Branchen wo ein "kleiner" Farbraum eher hinderlich ist, da hilft aber die Parhelia schon deutlich, mit 10Bit pro Kanal sollte es reichen.

Trommelscanner arbeiten zumeist mit additiven Farbsystem mit 16Bit pro Farbkanal, da die Vorlagen die hiermit eingescannt werden meist eine quasi "unendliche Farbtiefe" haben. Oder besser gesagt, wenn die externe Vorlage nicht RGB entsprechend ist, dann wird hier eine deutlich bessere Abbildung erreicht.

Grestorn
2004-06-06, 13:01:37
Original geschrieben von Killa Tomacco
Wenn der einzige Unterschied zwischen 24bit Farbtiefe und 32bit Farbtiefe ist das der 32bit noch eine Alpha-Kanal zusätzlich hat. Dann mussten die Grafikkarten doch noch immer 24bit unterstützen was aber nicht der Fall ist. Es bleibt also die Frage warum nicht mehr ? Da moderne Hardware volle 4-Byte Wörter (32 Bit) immer schneller behandeln kann als ungerade Wortlängen (also z.B. 24 Bit, was 3 Bytes entspricht).

Killa Tomacco
2004-06-06, 14:47:18
Es wird also 24bit nicht mehr von Grafikkarten unterstützt weil es zu langsam ist. Okay alles klar.