PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia GeForce 6800 Ultra & ForceWare 60.72 Image Quality Investigation


Leonidas
2004-04-25, 19:38:59
Was haltet Ihr hiervon?
http://www.driverheaven.net/articles/driverIQ/

Trilineare Optimierung war angeblich aus.

seahawk
2004-04-25, 19:43:39
Entspricht den Erwartungen

dildo4u
2004-04-25, 19:50:10
To me though, its not a matter of what I can see so much as the fact that this changing of textures is happening behind the users back. I have selected maximum quality on my £400 graphics card and I fully expect it to have Max Quality…not lesser quality than a much cheaper competitiors product Ick hoffe zu tiefst das ATI darauf verzichten kann und wird!

Omnicron
2004-04-25, 19:57:42
Gibts die Bilder auch ohne die Einfärbungen?

Coda
2004-04-25, 19:58:57
Trilineare Optimierung war angeblich aus.
Sieht man doch auch.
Ich finde das ganze aber nicht so schlimm. Das AF der Karte ist "schlimmer"

DanMan
2004-04-25, 20:04:12
Wurde hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1750896#post1750896) schon mal angesprochen.

Mein Kommentar war folgender:
Nun, wenn du die Bilder der 3 Chips vergleichst, dann sieht man, dass das "Muster" der 6800 nun ein nahezu perfekten Kreis ergibt, wohingegen die "Muster" der anderen 2 Karten eher 4 kleinen überlagerten Kreisen entspricht.
Mit anderen Worten: die 6800 arbeitet nun bei jedem Winkel quasi mit dem gleichen LOD, während die anderen 2 Chips bei 45° noch einen besseren LOD benutzen.

zumindest ist das mein Reim auf die Geschichte. Möge mich keiner von den Gurus enthaupten. :)
Bezog sich auf was Zeckensack im beyond3d Forum (http://www.beyond3d.com/forum/viewtopic.php?p=264990#264990) geschrieben hat.

LovesuckZ
2004-04-25, 20:20:51
Das du ziemlich lange gebraucht hast! :D

Das ganze ist einfach lächerlich. Die Erkenntnis daraus ist ja, dass selbst ATi vom Refrast sich unterscheidet und dementsprechend cheaten würde...

MadMan2k
2004-04-25, 20:25:53
Original geschrieben von DanMan
Mein Kommentar war folgender:

Bezog sich auf was Zeckensack im beyond3d Forum (http://www.beyond3d.com/forum/viewtopic.php?p=264990#264990) geschrieben hat.
damit kann man ein paar LOD ausrutscher, wie die Lampe in MP oder den Fehler im 3dMark03-1 erklären, aber nicht eine Kompellte LOD Verscheibung.

ShadowXX
2004-04-25, 20:35:03
Original geschrieben von LovesuckZ
Das du ziemlich lange gebraucht hast! :D

Das ganze ist einfach lächerlich. Die Erkenntnis daraus ist ja, dass selbst ATi vom Refrast sich unterscheidet und dementsprechend cheaten würde...



Again studying the mipmap level used in each image shows a Radeon image almost identical to the reference/rasterized image. Comparing the 6800Ultra image to either of the two shows huge discrepancies.


Also zwischen "almost identical" und "huge discrepancies" besteht wohl ein grösserer unterschied, als die von dir gewonnene "Erkenntnis"...

LovesuckZ
2004-04-25, 20:44:13
Original geschrieben von ShadowXX
Also zwischen "almost identical" und "huge discrepancies" besteht wohl ein grösserer unterschied, als die von dir gewonnene "Erkenntnis"...

Alles was sich vom refrast unterscheidet, ist ein Cheat. Das sollte doch wohl klar sein...
Nvidia hat beim NV40 eine andere isotrope Filterung.

Demirug
2004-04-25, 20:48:32
Wie oft den noch? Der Refrast ist was die Bildqualität angeht nicht der verbindliche Massstab.

Exxtreme
2004-04-25, 20:51:16
Original geschrieben von LovesuckZ
Alles was sich vom refrast unterscheidet, ist ein Cheat. Das sollte doch wohl klar sein...

Der RefRast ist eigentlich ziemlich schlecht dazu geeignet um evtl. Cheats durch Bildqualitätssenkung aufzudecken. Dazu wurde das Tool nie gemacht.

LovesuckZ
2004-04-25, 20:55:15
Original geschrieben von Exxtreme
Der RefRast ist eigentlich ziemlich schlecht dazu geeignet um evtl. Cheats durch Bildqualitätssenkung aufzudecken. Dazu wurde das Tool nie gemacht.

Das war auch Sarkasmus.
Techreport.com hat solch ein vergleich in dem Preview der 6800U drinne und dort kann man das selbe feststellen. Und ohne Einfärbung erkennt man nur einen verdammt minimalen Unterschied.

Pirx
2004-04-25, 21:04:01
Naja, irgendwie schon verdächtig, nach nVidias ganzen Treiber-Spielereien der letzten Monate, traue ich denen auf der Strecke durchaus auch einiges zu. Die sollten sich m.E. mal darum bemühen, ihre Glaubwürdigkeit bei den Usern aufzubessern (und sich nicht nur bei den "Developern" einschleimen;)).

Adam D.
2004-04-25, 21:06:04
Wartet doch mal auf die finalen NV40/60er-Treiber. Da kann sich sicher noch einiges ändern (obwohl ichs selbst net glaub, aber abwarten!).

LovesuckZ
2004-04-25, 21:08:14
Original geschrieben von Pirx
Naja, irgendwie schon verdächtig, nach nVidias ganzen Treiber-Spielereien der letzten Monate, traue ich denen auf der Strecke durchaus auch einiges zu. Die sollten sich m.E. mal darum bemühen, ihre Glaubwürdigkeit bei den Usern aufzubessern (und sich nicht nur bei den "Developern" einschleimen;)).

Sie koennen dagegen nichts machen. Man wird solange auf Nvidia rumhacken, bis sie nicht mehr Markfrüher im Stand-alone Markt sind. Danach sucht man sich einen neuen, ATi zum Beispiel, nachdem sie die Kunden ein, zwei Jahre ausgenommen haben.
Siehe doch dieses Beispiel. Kenner weiß, wie man das gezeigte interpretieren soll, doch rufen wir erst alle mal "Cheat". Koennte ja stimmen :bonk:

reunion
2004-04-25, 21:36:07
Original geschrieben von Leonidas
Was haltet Ihr hiervon?
http://www.driverheaven.net/articles/driverIQ/

Trilineare Optimierung war angeblich aus.

Naja, ich finde die entwicklung schon bedenklich, immer schnellere Karten liefern immer schlechtere Bildqualität, aber was will man machen?

Vermutlich liegt das am schlechteren isotropen Filter den NV beim NV40 eingebaut hat oder an sonst irgendeinem kleinen Schnickschnack. Nach einer "echten" BQ reduzierung sieht das jedenfalls nicht aus.

Leonidas
2004-04-26, 00:33:33
Durch einen anderen LOD gewinnt man kaum Performance. Siehe UT2003-Detailtexturenbug bei ATi (http://www.3dcenter.org/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/ze_kompatibilitaet_b.php): Deutlicher Unterschied in der BQ, aber keiner in der Performance. Wäre also ein seltsamer Cheat seitens NV.

MadManniMan
2004-04-26, 03:55:57
Tja, langsam gehts mir da wie aths - das ganze wissen um die suboptimale Qualität der Filter - ATis geringe Präzision und NVs neuerlich qualitativ leicht minderwertige Isotrope Filterung - läßt einen die Diskrepanzen tatsächlich erkennen.

Ich bin eh schon jemand, der bei nem neuen Spiel erstmal stundenlang optimiert und Pixel für Pixel abstott0rt, bevor er sich mal dem Genießen der App hingiebt ... :eyes:

Ein :down: für ATis und NVs AF, warum muß man für Toptexturen auf S3 ausweichen? :ratlos:

Mensch, haben wir soviel Leistung, um über weniger Quali an noch weniger zu kommen? :no:

zeckensack
2004-04-26, 05:14:58
Laaaaangweilig
/homer

Ich kann's ja verstehen, wenn man sich über winkelabhängiges AF, erzwungene Stage-Optimierungen und Brilinearität aufregt.

Die Story ist IMO eine reine page hit-Optimierung.
/me schlägt vor die eingefärbten Bilder mal ganz schnell wieder zu vergessen, und sich den normal gerenderten Szenen zuzuwenden. Und dann mal kurz bei 400% Zoom die Texturschärfe vergleichen. Würde mich nicht wundern, wenn dabei nichts auffälliges herauskommen würde.

MadManniMan
2004-04-26, 05:52:29
Original geschrieben von zeckensack
Die Story ist IMO eine reine page hit-Optimierung.
/me schlägt vor die eingefärbten Bilder mal ganz schnell wieder zu vergessen, und sich den normal gerenderten Szenen zuzuwenden. Und dann mal kurz bei 400% Zoom die Texturschärfe vergleichen. Würde mich nicht wundern, wenn dabei nichts auffälliges herauskommen würde.

Mehr oder minder magst Du mit Deiner Beanstandung der fehlenden, offensichtlichen Praxisrelevanz recht haben, tatsächlich ist es aber dennoch eine nicht nur theoretisch minderoptische Variante der reinen Isotropie. Ich finds schizophren: auf der einen Seite FP-Filterung, andererseits das.
Und wie aths schon sagte: viele Korinthen ergeben gesammelt auch mehr als ne Windel voll - wer schonmal ein Baby gesehen hat, weiß um das Übel der Situation!

StefanV
2004-04-26, 08:47:49
Original geschrieben von LovesuckZ
Sie koennen dagegen nichts machen. Man wird solange auf Nvidia rumhacken, bis sie nicht mehr Markfrüher im Stand-alone Markt sind. Danach sucht man sich einen neuen, ATi zum Beispiel, nachdem sie die Kunden ein, zwei Jahre ausgenommen haben.
Siehe doch dieses Beispiel. Kenner weiß, wie man das gezeigte interpretieren soll, doch rufen wir erst alle mal "Cheat". Koennte ja stimmen :bonk:

Das Problem ist doch, daß nVidia des cheatens mehr oder minder eindeutig überführt wurde, sie wurden also erwischt, beim mogeln.

Das ganze ist aber ein doppelter Schuss ins Knie:

einmal bekamen sie ihr Fett weg und zum anderen schaut man erstmal bei nV Karten genauer hin, ob auch alles so ist, wie es sein sollte...

Also von daher ist es verständlich, daß man überall Cheats vermutet...

Gast
2004-04-26, 09:09:11
Original geschrieben von Leonidas
Durch einen anderen LOD gewinnt man kaum Performance. Siehe UT2003-Detailtexturenbug bei ATi (http://www.3dcenter.org/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/ze_kompatibilitaet_b.php): Deutlicher Unterschied in der BQ, aber keiner in der Performance. Wäre also ein seltsamer Cheat seitens NV.

Eben. Selbst die Geschichte ein Cheat sein sollte, wundert es mich, daß auf diesen Gedanken noch keiner gekommen ist. Ich hatte gestern schon überlegt, dazu was zu schreiben, aber dann ginge das "Fanboy-Geschreie" wieder los.... :)

Und zeckensack hat's auch treffend erklärt - selbst bei einer minimalen LOD-Abweichung verschiebt's die Grenzen der Mip-Level hin oder her. Dumm nur, daß das kaum einer sehen wird, weswegen wir da eingefärbte Mip-Level brauchen...

Würde mich nicht wundern, wenn da wieder mal ein IHV eine Website auf etwas gestossen hat...

Gast
2004-04-26, 09:09:19
Original geschrieben von Leonidas
Durch einen anderen LOD gewinnt man kaum Performance. Siehe UT2003-Detailtexturenbug bei ATi (http://www.3dcenter.org/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/ze_kompatibilitaet_b.php): Deutlicher Unterschied in der BQ, aber keiner in der Performance. Wäre also ein seltsamer Cheat seitens NV.

Eben. Selbst die Geschichte ein Cheat sein sollte, wundert es mich, daß auf diesen Gedanken noch keiner gekommen ist. Ich hatte gestern schon überlegt, dazu was zu schreiben, aber dann ginge das "Fanboy-Geschreie" wieder los.... :)

Und zeckensack hat's auch treffend erklärt - selbst bei einer minimalen LOD-Abweichung verschiebt's die Grenzen der Mip-Level hin oder her. Dumm nur, daß das kaum einer sehen wird, weswegen wir da eingefärbte Mip-Level brauchen...

Würde mich nicht wundern, wenn da wieder mal ein IHV eine Website auf etwas gestossen hat...

;Q

Gast
2004-04-26, 09:10:37
Original geschrieben von Stefan Payne
Das Problem ist doch, daß nVidia des cheatens mehr oder minder eindeutig überführt wurde, sie wurden also erwischt, beim mogeln.

Wer von den Mainstream- und Consumer-Karten-IHVs wurde denn noch nicht erwischt beim "Mogeln"? ;)

;Q

deekey777
2004-04-26, 09:51:12
Vielleicht liegt es nur an dem Macrovisionschutz der 60er Treiber iV mit dem FM 3D2003?
(Sorry,etwas Spass muss sein.)

Wie war das:"Wartet auf den finalen Treiber"? Dann heisst es ja:"Die 6800 Ultra ist zur Zeit die schnellste Grafikkarte der Welt (unter Vorbehalt)..."

Demirug
2004-04-26, 15:29:45
Auch auf die Gefahr hin gleich als Fanboy gebrandmarkt zu werden Stelle ich jetzt mal eine These auf:

Das NV40 Bild entspricht mehr dem Ideal als der Refrast und das R3XX Bild.

Begründung:

Aufgrund der Schreenshots habe ich in meinen AF-Tester einen Pixelshader eingebaut der aufgrund der Gradienten der Texturkoordinaten selbst einen LOD ausrechnet und anzeigt.

Testweise habe ich die beiden Rechenregeln eingebaut welche in der OpenGL Spec angeben werden. Zuerst die als Näherung bezeichnete Variante. Bei dieser war die Linie des Mipmap-übergangs genauso wie beim Refrast bei den 45° Grad Winkelen zum Mittelpunkt hin verzogen. Dann habe ich das als Ideal bezeichnete Verfahren eingebaut. Damit habe ich einen perfekten Kreis als Übergangslinie erhalten. Beim NV40 kommt nun aber kein richtiger Kreis zustande also habe ich noch ein bischen probiert und am Ende die Formel eingesetzt die ich beim R3XX AF schon vermutetet habe. Ohne jetzt einen Pixel zu Pixel vergleich zu machen sah diese Linie der des NV40 sehr ähnlich.

IMHO nutzt der NV40 hier also zwar immer noch nicht die ideal Lösung aber eine bessere Näherung als der Refrast.

Endorphine
2004-04-26, 15:44:50
Ideal wäre wohl ein perfekter Mipmapübergangskreis, in allen AF-Stufen. Warum sollte es überhaupt eine Blume sein? In der Realität sieht das menschliche Auge ja auch nicht bestimmte Winkel in einem Tunnel weiter schärfer als andere. Zumindest fällt mir kein optobiologischer Grund ein, warum das so sein sollte.

aths
2004-04-26, 16:43:13
Original geschrieben von Endorphine
Ideal wäre wohl ein perfekter Mipmapübergangskreis, in allen AF-Stufen. Warum sollte es überhaupt eine Blume sein? In der Realität sieht das menschliche Auge ja auch nicht bestimmte Winkel in einem Tunnel weiter schärfer als andere. Zumindest fällt mir kein optobiologischer Grund ein, warum das so sein sollte. "Ideal" ist imo "1 Texel pro Pixel". Bei Rotation kommt es imo zu dem Effekt, dass man keinen Kreis sondern die Blume erhält.

Original geschrieben von Demirug
Testweise habe ich die beiden Rechenregeln eingebaut welche in der OpenGL Spec angeben werden. Zuerst die als Näherung bezeichnete Variante. Bei dieser war die Linie des Mipmap-übergangs genauso wie beim Refrast bei den 45° Grad Winkelen zum Mittelpunkt hin verzogen. Dann habe ich das als Ideal bezeichnete Verfahren eingebaut. Damit habe ich einen perfekten Kreis als Übergangslinie erhalten. Darüber habe ich 'ne Weile nachgedacht. Nimmt man für das LOD die tatsächliche Länge des Pixels, müsste ein Kreis rauskommen. Arbeitet man gröber, nimmt man max(s, t) anstatt mittels DP und RSQ die tatsächliche Länge auszurechnen.

Diese vereinfachte Formel hat ihre größte Schwachstelle bei 45°. Würde man einfach alles mit 1,4 (also sqrt(2)) multiplizieren, wäre aber das LOD bei 90°-Winkeln falsch. Würde man das unterlassen, hätte man das bekannte Blumenmuster, aber Aliasing bei 45°-Winkeln. Davon ist aber nichts zu sehen.

Dieses Problem bereitet mir seit Monaten Kopfzerbrechen :devil:

Xmas
2004-04-26, 18:45:12
Was "ideal" ist, ist IMO abhängig von der Ausrichtung der Textur. Wer in meinem AF-Tester schon mal mit den U/V-Reglern rumgespielt hat, weiß dass die Blume nicht unbedingt Blume bleibt...

Die Projektion eines Pixels in den Texturspace ergibt eine trapezähnliche Form (die Kanten sind tatsächlich gebogen), deren längste Diagonale IMO zur Auswahl des Textur-LOD herangezogen werden muss. Diese längste Diagonale variiert aber im Tunnel. Deswegen denke ich, dass die Blume bei Standardeinstellungen der beiden AF-Tester "richtiger" ist.

Tesseract
2004-04-26, 19:12:45
der unterschied zwischen ati/refrast und nv ist da so dermaßen unbedeutend und klein das es imho vollkommen egal ist


wer sich über sowas auch nur leicht aufregt, müsste konsequenter weise wegen dem winkelabhängigen AF schreiend aus dem fenster springen - um die verhältnisse mal zu verdeutlichen

Demirug
2004-04-26, 19:26:54
Original geschrieben von Xmas
Was "ideal" ist, ist IMO abhängig von der Ausrichtung der Textur. Wer in meinem AF-Tester schon mal mit den U/V-Reglern rumgespielt hat, weiß dass die Blume nicht unbedingt Blume bleibt...

Die Projektion eines Pixels in den Texturspace ergibt eine trapezähnliche Form (die Kanten sind tatsächlich gebogen), deren längste Diagonale IMO zur Auswahl des Textur-LOD herangezogen werden muss. Diese längste Diagonale variiert aber im Tunnel. Deswegen denke ich, dass die Blume bei Standardeinstellungen der beiden AF-Tester "richtiger" ist.

Meinst du jetzt eine Diagonale des Trapez? IIRC nimmt man die längste Kante dafür.

MadManniMan
2004-04-27, 00:30:34
Original geschrieben von Demirug
IMHO nutzt der NV40 hier also zwar immer noch nicht die ideal Lösung aber eine bessere Näherung als der Refrast.

Den Kreis hab ich auch schon öfters angesprochen ... natürlich kommt der NV40 grob in die Richtung - nur muß ich hier mal eine Frage stellen: neigen alle anderen Chips mit der bekannten "Blume" bei 45° jeweils zu leichten Textureshimmering? Wenn nein, dann hätte NV als Mip-Map-Anfangs Referenz (versteht man, was ich mein? :| ) die üblichen 45° Ansätze nehmen können und davon ausgehend den Rest"kreis" handhaben können (Quasi die isotrope Filterung dann irgendwo zwischen dem jetzigen und dem 2*AF liegend) -> zwar leichter Performancenachteil, doch hätte es aber in das (positive) Bild der Innovationen ala FP-Filterung gepaßt - und von mir ein Lob bekommen ;)

Jumpgroup
2004-04-27, 10:53:20
Wir werden sehen wie das weiter geht .

dildo4u
2004-04-27, 11:04:47
http://www.driverheaven.net/showthread.php?threadid=44253&

zieht euch mal rein wenn man die device id von 6800 auf R300 beim NV40 siehts schon nicht mher so dolle aus für Nvidias neue karte

http://www.driverheaven.net/V3/FCgraph.JPG


As you can see the results are considerably different for the 6800 when the R300 device ID is forced. In addition to the 6800Ultra then using the same pixel shaders as the Radeon card the display issues which are well documented on the internet are fixed by using the Radeon path

Aha wenn man den R300 path benutzt sind wundersammer weise auch die bildfehler weg ;-)

The 9800 XT doens't look so bad when both cards are rendering at the same quality.

Quasar
2004-04-27, 11:28:13
Interessant, was passiert, wenn man die 6800U mit der Anweisungsreihenfolge füttert, die der Radeon am ehesten liegt.

Unter umgekehrten Vorzeichen (Radeon mit GeForce-ID) wäre ich auch mal am Ergebnis interessiert.

dildo4u
2004-04-27, 11:33:37
Original geschrieben von Quasar
Interessant, was passiert, wenn man die 6800U mit der Anweisungsreihenfolge füttert, die der Radeon am ehesten liegt.

Unter umgekehrten Vorzeichen (Radeon mit GeForce-ID) wäre ich auch mal am Ergebnis interessiert. jo sicher bloss so lange es kein treiber oder gameversion gibt wo das game ohne bildfehler auskommt auf dem NV40 kann man doch kein einziges benchmark ergebniss ernst nehmen jedenfalls im fall von FC was ja hier immer als DX9 killer app gilt und in fast allen test des NV40 herhalten musste
von mir aus kann man gerne mal den R300 mit NV40 path laufen lassen vorrausetzung der darf auch solche bildfehler haben

Demirug
2004-04-27, 11:49:23
Original geschrieben von Quasar
Interessant, was passiert, wenn man die 6800U mit der Anweisungsreihenfolge füttert, die der Radeon am ehesten liegt.

Unter umgekehrten Vorzeichen (Radeon mit GeForce-ID) wäre ich auch mal am Ergebnis interessiert.

Funktioniert wahrscheinlich nicht richtig. Die NV Chips bekommen 2.X Shader welche ein R3XX nicht ausführen kann.

deekey777
2004-04-27, 11:55:14
Original geschrieben von Demirug
Funktioniert wahrscheinlich nicht richtig. Die NV Chips bekommen 2.X Shader welche ein R3XX nicht ausführen kann.

Aber Tommti-Systems-Detektive haben es doch irgendwie hingekriegt, den NV3x(!)-Pfad auf die 9800 zu übertragen.

dildo4u
2004-04-27, 11:55:43
Original geschrieben von Demirug
Funktioniert wahrscheinlich nicht richtig. Die NV Chips bekommen 2.X Shader welche ein R3XX nicht ausführen kann. sind das auch die selben high tech shader die die bildfehler verursachen? mir geht das echt auf den sack wiso wird sowas nicht mal bei jedem test breitgetreten tolle NEXT Gen GK hauptsache erstmal sensation uhi is 1000% schneller als die Alte Generation

seahawk
2004-04-27, 11:59:30
Original geschrieben von Quasar
Interessant, was passiert, wenn man die 6800U mit der Anweisungsreihenfolge füttert, die der Radeon am ehesten liegt.

Unter umgekehrten Vorzeichen (Radeon mit GeForce-ID) wäre ich auch mal am Ergebnis interessiert.

Wird nicht gehen. 2.a und 3.0 gegen 2.0 / 2.b Code.

Quasar
2004-04-27, 12:04:19
Auch mit FC v1.0? X-D

deekey777
2004-04-27, 13:44:43
Original geschrieben von Quasar
Auch mit FC v1.0? X-D

FC 1.0 kennt noch keine NV40 (das behalten wir aber für uns). :D
Was DH bewiesen hat: Die 6800 Ultra (wo haben sie die her?) läuft als eine getarnte "R300"(+R300 Pfad) langsamer, aber dafür mit der gleichen und viel besseren Bildqualität im Vergleich zum NV40-Pfad und zum NV30-Pfad (sowieso).

Quasar
2004-04-27, 14:01:55
Original geschrieben von deekey777
FC 1.0 kennt noch keine NV40 (das behalten wir aber für uns). :D

Ok, schweigen wir.

Dann schweigen wir aber auch darüber, daß das nichts damit zu tun hat, eine Radeon mit einer GeForce-ID in FC v1.0 laufen zu lassen, ja? X-D

aths
2004-04-27, 14:30:54
Original geschrieben von Demirug
Meinst du jetzt eine Diagonale des Trapez? IIRC nimmt man die längste Kante dafür. Afaik wird kein Trapez berechnet, sondern auf ein Parallelogramm vereinfacht, dessen längere Seitenkante idealerweise zur LOD-Bestimmung herangezogen werden sollte.

Xmas
2004-04-28, 19:05:53
Original geschrieben von Demirug
Meinst du jetzt eine Diagonale des Trapez? IIRC nimmt man die längste Kante dafür.
Tja, einfache Frage: Wieso? ;)

deekey777
2004-04-28, 23:06:09
nVidia driver cheats? Truth or fiction?

"I’m sure you’ve read reports around the web about Nvidia allegedly cheATing with their yet to be released 60.72 build drivers. These drivers were sent out to journalists evaluating the new GeForce 6800 Ultra and the NV4x architecture. Just two short weeks after the first reviews were posted one website published a lengthy article ( http://www.driverheaven.net/articles/driverIQ/ ) discussing image quality and how some frames rendered by the new GeForce showed differences from the same frames rendered on ATi hardware. So is this the proverbial smoking gun we’re looking at, is Nvidia indeed making shortcuts to boost the performance of their new architecture or is something else going on here?

I think the jury is still out on what is the proper way to render frames; both companies have a different approach to calculating textures, doing anti-aliasing and all the other 3D calculations. Thus it comes as no surprise that Nvidia indeed renders scenes differently than ATi does, but where do you draw the line between a cheat, an optimization, a shortcut or an architectural difference? Both companies have used shortcuts before that some consider cheats and others a good way to boost performance. If a shortcut is only visible after enlarging portions of a screenshot to 4x its size, who really cares, as it is not visible during normal gameplay, and it does improve the performance.

It’s a matter of what shortcuts you use where, and both ATi and Nvidia have plenty of shortcuts built into their architecture. In essence for both companies to render the frame exactly the same, the same architectures would eventually be needed. However what makes graphics accelerators interesting, and gives us something to write about, is the way in which each company uses their own technology to deviate from this path to increase performance whilst producing the same result. Both ATi and Nvidia use proprietary technology to increase performance and efficiency which basically are shortcuts that all produce the same end result; the frame rendered.

Using an architecture specific feature to up the performance is a shortcut, so is rendering only the pixels that are visible in the frame. If these shortcuts don’t decrease image quality, or only by a margin that is imperceptible, it surely is a legitimate shortcut, since it is producing the same end result. Following that train of thought, I always like to compare these discussions about image quality to MP3 compression. Millions of people use MP3s and don't hear the difference between the MP3 and the original CD. However if you look at it from a sound quality point of view there's a big difference, with the MP3 simply leaving out details you don't really hear at all. I have a similar approach to rendering quality, why render every pixel fully, if by using shortcuts to render just those that matter gives you better performance and identical image quality unless you scrutinize the screenshots with a microscope."


Quelle: http://www.hardwareanalysis.com/content/article/1709/

Was da oben steht, spiegelt nicht unbedingt meine Meinung wider!

MadMan2k
2004-04-28, 23:35:46
Original geschrieben von deekey777
I think the jury is still out on what is the proper way to render frames; both companies have a different approach to calculating textures, doing anti-aliasing and all the other 3D calculations. Thus it comes as no surprise that Nvidia indeed renders scenes differently than ATi does, but where do you draw the line between a cheat, an optimization, a shortcut or an architectural difference? Both companies have used shortcuts before that some consider cheats and others a good way to boost performance. If a shortcut is only visible after enlarging portions of a screenshot to 4x its size, who really cares, as it is not visible during normal gameplay, and it does improve the performance.


derjenige, der 500€ für eine GraKa ausgibt um die bestmögliche Grafikqualität zu genießen.
Andererseits könnte er doch z.B. einfach die Texturdetails runterstellen, die man "during normal gameplay" eh nicht sieht, und mit der 200€ Karte glücklich werden?

Damit ist auch der Vergleich mit der Musik hinfällig, denn was nutzen einem die tollsten Teufel Boxen, wenn diese nur Mono wiedergeben können, weil der Hersteller kabel sparen wollte? X-D

Quasar
2004-04-29, 00:18:08
Guter Vergleich mit dem mp3, IMO.

Da kommt allerdings wieder das subjektive Empfinden mit ins Spiel. Für Pop(el)-Musik und Techno ist das mp3-Format auch mit 128k völlig ausreichend, IMO.

Bei Jazz und Klassik dagegen empfinde ich manchmal schon eine CD als unzureichend - obwohl ich beileibe kein besonders tolles Gehör habe.

tokugawa
2004-04-29, 08:42:53
Original geschrieben von Quasar
Guter Vergleich mit dem mp3, IMO.

Da kommt allerdings wieder das subjektive Empfinden mit ins Spiel. Für Pop(el)-Musik und Techno ist das mp3-Format auch mit 128k völlig ausreichend, IMO.

Bei Jazz und Klassik dagegen empfinde ich manchmal schon eine CD als unzureichend - obwohl ich beileibe kein besonders tolles Gehör habe.

Kommt sogar auf die Art des Techno an. Wenn es besserer Techno ist, sind genügend Filtersweeps drin, dass das mp3-Kompressionsverfahren ins Schwitzen kommt. Techno hat durchaus einen hohen Dynamikumfang im Vergleich zu etwa Pop.

ShadowXX
2004-04-29, 09:28:57
Original geschrieben von deekey777
nVidia driver cheats? Truth or fiction?

"I’m sure you’ve read reports around the web about Nvidia allegedly cheATing with their yet to be released 60.72 build drivers. These drivers were sent out to journalists evaluating the new GeForce 6800 Ultra and the NV4x architecture. Just two short weeks after the first reviews were posted one website published a lengthy article ( http://www.driverheaven.net/articles/driverIQ/ ) discussing image quality and how some frames rendered by the new GeForce showed differences from the same frames rendered on ATi hardware. So is this the proverbial smoking gun we’re looking at, is Nvidia indeed making shortcuts to boost the performance of their new architecture or is something else going on here?

I think the jury is still out on what is the proper way to render frames; both companies have a different approach to calculating textures, doing anti-aliasing and all the other 3D calculations. Thus it comes as no surprise that Nvidia indeed renders scenes differently than ATi does, but where do you draw the line between a cheat, an optimization, a shortcut or an architectural difference? Both companies have used shortcuts before that some consider cheats and others a good way to boost performance. If a shortcut is only visible after enlarging portions of a screenshot to 4x its size, who really cares, as it is not visible during normal gameplay, and it does improve the performance.

It’s a matter of what shortcuts you use where, and both ATi and Nvidia have plenty of shortcuts built into their architecture. In essence for both companies to render the frame exactly the same, the same architectures would eventually be needed. However what makes graphics accelerators interesting, and gives us something to write about, is the way in which each company uses their own technology to deviate from this path to increase performance whilst producing the same result. Both ATi and Nvidia use proprietary technology to increase performance and efficiency which basically are shortcuts that all produce the same end result; the frame rendered.

Using an architecture specific feature to up the performance is a shortcut, so is rendering only the pixels that are visible in the frame. If these shortcuts don’t decrease image quality, or only by a margin that is imperceptible, it surely is a legitimate shortcut, since it is producing the same end result. Following that train of thought, I always like to compare these discussions about image quality to MP3 compression. Millions of people use MP3s and don't hear the difference between the MP3 and the original CD. However if you look at it from a sound quality point of view there's a big difference, with the MP3 simply leaving out details you don't really hear at all. I have a similar approach to rendering quality, why render every pixel fully, if by using shortcuts to render just those that matter gives you better performance and identical image quality unless you scrutinize the screenshots with a microscope."


Quelle: http://www.hardwareanalysis.com/content/article/1709/

Was da oben steht, spiegelt nicht unbedingt meine Meinung wider!

Ehrlich gesagt hört sich das für mich eher nach einer Entschuldigung, denn nach einer sinvollen Erklärung an....egal.

IMHO ist der mp3 vergleich nicht so passend, denn wenn ich mp3 benutze, weiss ich, das die Quali schlechter wird...ich bestimme sogar den Grad der "verschlechterung" selbst.

Bei Treiberoptimierungen/cheating oder wie man das auch sonst immer nennen mag (und damit meine ich jetzt nicht nur nV), wird mir das ganze aufgezwungen und ich kann nix daran ändern...ich kann eben nicht den Grad der Optimierung bestimmen...

Ich hoffe das die IHVs irgendwann mal begreifen werden das die längste Latt...äähhhh der längste Balken nicht das wichtigste ist...(speziell bei GraKas die 500Teuros kosten)

aths
2004-04-29, 09:51:43
Original geschrieben von Quasar
Guter Vergleich mit dem mp3, IMO.

Da kommt allerdings wieder das subjektive Empfinden mit ins Spiel. Für Pop(el)-Musik und Techno ist das mp3-Format auch mit 128k völlig ausreichend, IMO.

Bei Jazz und Klassik dagegen empfinde ich manchmal schon eine CD als unzureichend - obwohl ich beileibe kein besonders tolles Gehör habe.
Ein guter MP3-Codec (à la FHG) ist auf Klassik, bzw. "echte Instrumente" optimiert. Bei Techno gelangt MP3 generell mehr an seine Grenzen, weil dort meist nicht (nur) mit Sinusschwingungen gearbeitet wird.

Eine CD hat ausreichend Bandbreite (bis 20 KHz) und extreme Dynamik (96 dB), wenn sie dir nicht ausreicht, ist entweder die Aufnahme schlecht oder die Anlage taugt nicht viel.

aths
2004-04-29, 09:52:48
Original geschrieben von Xmas
Tja, einfache Frage: Wieso? ;) Weil das so sein muss, um die Coverage so zu berechnen, dass garantiert Nyquists Kriterium erfüllt wird?

Quasar
2004-04-29, 11:01:38
Original geschrieben von aths
Ein guter MP3-Codec (à la FHG) ist auf Klassik, bzw. "echte Instrumente" optimiert. Bei Techno gelangt MP3 generell mehr an seine Grenzen, weil dort meist nicht (nur) mit Sinusschwingungen gearbeitet wird.

Eine CD hat ausreichend Bandbreite (bis 20 KHz) und extreme Dynamik (96 dB), wenn sie dir nicht ausreicht, ist entweder die Aufnahme schlecht oder die Anlage taugt nicht viel.

Hauptsache, erstmal theoretisch was dagegen haben, gell? X-D
Nur, damit du erstmal einen Anhaltspunkt hast, wovon ich hier spreche: Nicht umsonst gibt es einen Unterpunkt „Psychoakustik” in etlichen, wenn nicht allen mp3-Encodern.

Nein, moment, ich formuliere es anders:
Was an den Formulierungen „IMO” und „empfinde ich” war unklar formuliert?

DrumDub
2004-04-29, 13:39:04
Original geschrieben von tokugawa
Kommt sogar auf die Art des Techno an. Wenn es besserer Techno ist, sind genügend Filtersweeps drin, dass das mp3-Kompressionsverfahren ins Schwitzen kommt. Techno hat durchaus einen hohen Dynamikumfang im Vergleich zu etwa Pop.

jupp. besonders (gute) acid sachen haben häufig einen sehr hohen dynamikumfang. hardtrance ala tiesto ist dagegen der soundnmatsch (komprimiert bis zum anschlag), den man aus dem radio gewöhnt ist (komprimiert bis zum anschlag). X-D

in sachen dynamikumfang kommt aber nix an klassische musik ran.

aths
2004-04-29, 13:41:22
Original geschrieben von Quasar
Nur, damit du erstmal einen Anhaltspunkt hast, wovon ich hier spreche: Nicht umsonst gibt es einen Unterpunkt „Psychoakustik” in etlichen, wenn nicht allen mp3-Encodern.Soweit ich weiß, zerlegt jeder MP3-Algo das Signal in Sinuswellen, und da z. B. eine Sägezahnspannung oder ein Rechteck hier mehr Oberwellen hat, als ein klassisches Instrument, geht das natürlich zwangsläufig auf die Bandbreite.
Original geschrieben von Quasar
Nein, moment, ich formuliere es anders:
Was an den Formulierungen „IMO” und „empfinde ich” war unklar formuliert? Bei dem empfinden sagte ich nur, dass es nicht an der CD-Technik ansich liegt. Wo schrieb ich was von unklar?

DrumDub
2004-04-29, 13:48:51
Original geschrieben von aths
Soweit ich weiß, zerlegt jeder MP3-Algo das Signal in Sinuswellen, und da z. B. eine Sägezahnspannung oder ein Rechteck hier mehr Oberwellen hat, als ein klassisches Instrument, geht das natürlich zwangsläufig auf die Bandbreite.

ds glaubst du doch wohl selber nicht, oder? ein geigenklang ist weitaus komplexer in seinen oberwellen bzw. obertönen als nen rechteck oder sägezahn.

noch was zum thema:

Dass die Obertöne oder Oberwellen, deren Frequenz über dem obersten direkt hörbaren Frequenzbereich liegen, eine wichtige Rolle spielen, zeigt sich daran, dass eine hohe Sinusfrequenz anders klingt als eine Dreieck-, Sägezahn- oder Rechteckschwingung. Aus diesem Grunde sind auch manche HiFi-Fans der Überzeugung, dass die Schallplatte besser klingt als die CD, weil die Schallplatte eine andere Verteilung und einen anderen Pegel der Oberwellen hat. Dieses Wissen begründet auch die Schaffung neuer hochauflösender Tonformate wie DVD Audio oder SACD. Wenn man Signale aus Summe von Sinusschwingungen darstellt, ist festzustellen, dass, je steiler ein Anstieg im Zeitbereich ist (Beispiel: Flanke eines Rechtecksignals), umso größer muss die Bandbreite sein, um dieses Signal in seiner vollen Charakteristik inklusive der Obertöne zu übertragen. Damit spielt nicht nur die Frequenz als solche, sondern auch der Anstieg der Flanke eine Rolle für die notwendige Bandbreite. Im Extremfall hieße das: Bei einem Impuls mit einem unendlich steilen Anstieg müsste auch die Bandbreite des Übertragungskanals unendlich sein, um am Ausgang exakt den selbem Impuls zu erhalten, auch wenn die eigentliche Frequenz weitaus niedriger ist. Letztendlich ist festzuhalten, dass für eine möglichst originalgetreue Reproduktion inklusive den Oberwellen die neuen hochauflösenden Tonformate besser geeignet sind als beispielsweise die herkömmliche CD, deren weitaus geringeres Frequenzspektrum nicht in dem Maße geeignet ist, die Obertöne ins akustische Gesamtprofil einzuarbeiten. Somit bieten DVD-A und SACD eine Optimierung des musikalischen Facettenreichtums, der aber erst mit dem entsprechenden Equipment auch hörbar gemacht werden kann. Auf vielen Lautsprecher-Systemen und AV-Anlagen wird man zwischen einer herkömmlichen CD und einer DVD-A praktisch keinen akustischen Unterschied ausmachen können.
http://www.areadvd.de/hardware/quadralaurum.shtml

Quasar
2004-04-29, 13:49:38
Original geschrieben von aths
Bei dem empfinden sagte ich nur, dass es nicht an der CD-Technik ansich liegt. Wo schrieb ich was von unklar?

Das ist ja das Problem, du schreibst überhaupt nichts von Empfinden, sondern reduzierst jenes gleich auf „schlechte Anlage” oder „schlechte Aufnahme”.

Was anderes kam dir offenbar nicht in den Sinn - da brauchst du nichts von „unklar” zu schreiben, damit man merkt, daß du einen, wenn nicht den wesentlichen Aspekt meines Postings nicht aufgegriffen hast.

Können wir jetzt wieder zum Thema zurück oder hast du noch ein paar technische oder mathematische Formeln, mit denen du die Akustik meiner Ohren, welche du nichtmal kennst, an die tollen mp3-Algos oder den CD-Standard angleichen möchtest? :eyes:

(Ach ja, falls das auch zu unklar war: EOD!)

Quasar
2004-04-29, 13:52:35
Original geschrieben von DrumDub
ds glaubst du doch wohl selber nicht, oder? ein geigenklang ist weitaus komplexer in seinen oberwellen bzw. obertönen als nen rechteck oder sägezahn.
Right, deswegen und wegen der feinen Interdependenzen der Haupttöne, sowie Unter- und Oberwellen, klingt für geschulte Ohren (also nicht meine ;) ) auch ein synthetisches Klavier (das war IIRC das Paradebeispiel für diesen Sachverhalt) niemals so lebensecht, wie „The Real Thing”.

Xmas
2004-04-29, 15:06:53
Original geschrieben von aths
Weil das so sein muss, um die Coverage so zu berechnen, dass garantiert Nyquists Kriterium erfüllt wird?
Ja aber dafür reicht die längste Seitenlänge nicht. Das mag passen, wenn ich ein Quadrat im Texturspace sample, aber nicht wenn es ein stark verzerrtes Trapez ist.

Obwohl, im Prinzip meinte ich nicht mal die längste Diagonale, sondern die längste U- bzw. V-Spanne im Texturspace, die das Trapez bedeckt.

ravage
2004-04-29, 15:19:51
Das hat jetzt aber alles nicht mehr viel mit den nVidia Treibern zu tun... :|

Xmas
2004-04-29, 15:24:02
Original geschrieben von ravage
Das hat jetzt aber alles nicht mehr viel mit den nVidia Treibern zu tun... :|
Die MP3- und CD-Qualität nicht, die LOD-Bestimmung schon.

KiBa
2004-04-29, 17:37:36
Original geschrieben von aths
Eine CD hat ausreichend Bandbreite (bis 20 KHz) und extreme Dynamik (96 dB), wenn sie dir nicht ausreicht, ist entweder die Aufnahme schlecht oder die Anlage taugt nicht viel. Das mit den 20KHz stimmt zwar, allerdings ist dabei dein beliebtes Nyquist-Kriterium (als untere Schranke) auch nur gerade so erfüllt. Das heißt die Frequenz einer Schwingung kann genau wiedergegeben werden (es ensteht kein Aliasing), allerdings ist die Form der Schwingung doch wohl unbestreitbar auch wichtig. Und dazu brauchts ne Menge mehr Sampels, ob man das nun auf Musikwiedergabe, Bildverarbeitung oder 3D-Rendering anwendet.
Den Unterschied zwischen CDA und z.B. einer Audio-DVD sollte jeder mit halbwegs vernünftigen Boxen hören können, da reicht deine Theorie leider nicht aus.
Um wieder zur Grafik zu kommen: die Form der Schwingung ist auch der Grund für mich, höhere Auflösungen höheren AA-Modi vorzuziehen, da man so mehr Sampels hat, die nicht am Ende zusammengerechnet werden. Eine 100% scharfe Kante (Wellenzahl = 1) bleibt ohne AA scharf, die Form bleibt also erhalten. (Auf Kosten von möglichem Aliasing versteht sich, weshalb ein guter Kompromiss zwischen AA und Auflösung wichtig ist) 800x600 z.B. auf meinem 19" Monitor würde ich nie benutzen, nur um AA möglichst hoch zu stellen, man verliert einfach zu viele Details...

aths
2004-04-29, 17:47:50
Original geschrieben von KiBa
Das mit den 20KHz stimmt zwar, allerdings ist dabei dein beliebtes Nyquist-Kriterium (als untere Schranke) auch nur gerade so erfüllt. Das heißt die Frequenz einer Schwingung kann genau wiedergegeben werden (es ensteht kein Aliasing), allerdings ist die Form der Schwingung doch wohl unbestreitbar auch wichtig. Wird im TP-Rekonstruktionsfilter zum richtigen Sinus gemacht. Was man hört ist ja keine Strecken-Verbindung der einzelnen Samples.

96 KHz-Sampling des Originalsignals erhöht die Qualität, aber kaum noch.

Original geschrieben von KiBa
800x600 z.B. auf meinem 19" Monitor würde ich nie benutzen, nur um AA möglichst hoch zu stellen, man verliert einfach zu viele Details... Für mich ist 800x600 noch gerade so akzeptabel bei einem 19" CRT.

Dass höhere Auflösung besser ist, stimmt. Imo gilt das aber nicht unbegrenzt. Je höher die Auflösung, desto höher das Texturdetail ggü. dem Vordergrund. Das wird auch mal unrealistisch.

Tesseract
2004-04-29, 19:29:01
Original geschrieben von aths
Für mich ist 800x600 noch gerade so akzeptabel bei einem 19" CRT.

also ich hab bei 1024*768 schon deutlich sichtbaren halbzeilenmodus (sony G420 19")

800x600 ist ein augenkrebskandidat

dann doch lieber 1280*1024+AA und dafür etwas mehr für die graka ausgeben :D

Original geschrieben von aths
Je höher die Auflösung, desto höher das Texturdetail ggü. dem Vordergrund. Das wird auch mal unrealistisch.

was ist damit gemeint?

KiBa
2004-04-30, 00:20:19
Original geschrieben von aths
Wird im TP-Rekonstruktionsfilter zum richtigen Sinus gemacht. Was man hört ist ja keine Strecken-Verbindung der einzelnen Samples.Von den technischen Details hab ich keine Ahnung... ;) Aber klingt für mich nach Interpolation, also Informationen hinzufügen, wo vorher keine waren. Ich glaube kaum, dass man die ganzen Feinheiten in den Schwingungen mit so wenigen Sampels erreichen kann, höchstens eine grobe Annäherung.
96 KHz-Sampling des Originalsignals erhöht die Qualität, aber kaum noch.Nun... stimmt nicht. ;) Man hört es sehr deutlich. (sogar außerordentlich bei leiser klassischer Musik). Das sollte wohl jeder mit halbwegs gesundem Gehör objektiv bestätigen können.
Für mich ist 800x600 noch gerade so akzeptabel bei einem 19" CRT.Kann ich absolut nicht bestätigen, sowas stell ich nur im Notfall (Performance) ein. Die Detailarmut ist einfach nicht hinnehmbar, ich höre auch nicht freiwillig 22kHz Musik. Auch die Pixelgröße an sich ist für heutige Maßstäbe viel zu groß, da hilft auch massiv AA und AF nix mehr. Auch wenn man 128xAA und AF zur Verfügung hätte, würde 1280x1024 wesentlich mehr bringen, was Bildqualität angeht.Dass höhere Auflösung besser ist, stimmt. Imo gilt das aber nicht unbegrenzt.Hab ja auch was von einem Kompromiss zwischen Auflösung und AA/AF gesagt. Man könnte ja z.B. je nach Geschmack zwischen 1280x1024:2xAA und 1152x864:4xAA wählen. 800x600 ist aber nun wirklich keine Option, egal bei welchen Einstellungen.
Je höher die Auflösung, desto höher das Texturdetail ggü. dem Vordergrund. Das wird auch mal unrealistisch. Versteh ich nicht. Durch die Perspektive haben (in der Szene) entfernte Objekte auch weniger Fläche (Pixel) zur Verfügung, wie in der Realität. Werden die Pixel (theoretisch unbegrenzt) immer kleiner, begrenzt doch irgendwann das Auflösungsvermögen des Auges in Abhängigkeit zur Monitorentfernung. Unrealistisch wird da garnix, im Gegenteil, das wäre der Idealzustand. (Genau wie bei den fps, sind sie hoch genug, macht das Auge Motion Blur "umsonst"). Ist in der Realität abseits vom Monitor genauso: Die eigentliche Auflösung ist nahezu unendlich groß...

ow
2004-04-30, 07:06:47
.

tokugawa
2004-04-30, 08:12:50
Original geschrieben von KiBa
Das mit den 20KHz stimmt zwar, allerdings ist dabei dein beliebtes Nyquist-Kriterium (als untere Schranke) auch nur gerade so erfüllt. Das heißt die Frequenz einer Schwingung kann genau wiedergegeben werden (es ensteht kein Aliasing), allerdings ist die Form der Schwingung doch wohl unbestreitbar auch wichtig. Und dazu brauchts ne Menge mehr Sampels, ob man das nun auf Musikwiedergabe, Bildverarbeitung oder 3D-Rendering anwendet.
Den Unterschied zwischen CDA und z.B. einer Audio-DVD sollte jeder mit halbwegs vernünftigen Boxen hören können, da reicht deine Theorie leider nicht aus.
Um wieder zur Grafik zu kommen: die Form der Schwingung ist auch der Grund für mich, höhere Auflösungen höheren AA-Modi vorzuziehen, da man so mehr Sampels hat, die nicht am Ende zusammengerechnet werden. Eine 100% scharfe Kante (Wellenzahl = 1) bleibt ohne AA scharf, die Form bleibt also erhalten. (Auf Kosten von möglichem Aliasing versteht sich, weshalb ein guter Kompromiss zwischen AA und Auflösung wichtig ist) 800x600 z.B. auf meinem 19" Monitor würde ich nie benutzen, nur um AA möglichst hoch zu stellen, man verliert einfach zu viele Details...

Ich glaube ehrlich gesagt, dass gerade die meisten Boxen für zuhause, selbst teure Systeme, eher den Vergleich zwischen CD und Audio-DVD weniger hörbar macht, da diese ja eher nicht auf Exaktheit getrimmt sind wie etwa Studio-Monitore. Es kann nur sein, dass automatisch eine Art EQ hinzugefügt wird, und genau bei EQs liegt der Vorteil von einer höheren Sample-Frequenz - da ja bei EQs gewisse Audio-Bereiche sozusagen "skaliert" werden und da dann die doppelte Abtastrate nicht mehr ausreicht und es zu Aliasing kommen kann. "Gut klingen" und "exakt so klingen wie es aufgenommen wurde" muß nicht immer dasselbe sein.

tokugawa
2004-04-30, 08:16:42
Original geschrieben von KiBa
Von den technischen Details hab ich keine Ahnung... ;) Aber klingt für mich nach Interpolation, also Informationen hinzufügen, wo vorher keine waren. Ich glaube kaum, dass man die ganzen Feinheiten in den Schwingungen mit so wenigen Sampels erreichen kann, höchstens eine grobe Annäherung.
Nun... stimmt nicht. ;) Man hört es sehr deutlich. (sogar außerordentlich bei leiser klassischer Musik). Das sollte wohl jeder mit halbwegs gesundem Gehör objektiv bestätigen können.


Man hört es deutlich wenn du einen EQ hinzufügst, was der Hauptgrund ist wieso man im Studio immer mit höheren Raten aufgenommen hat als dann im "Endprodukt" CD. Da man ja im Studio im Mastering-Vorgang noch eben gerade solche EQ Sachen adjustiert, unter anderem.

Aber im Endprodukt liegt es dann - vom exakten Material ausgehend - außerhalb des hörbaren.

Es sei denn, du fügst deinerseits wieder einen EQ (etwa über deine Boxen) hinzu. Da kann dann wieder ein Unterschied hörbar sein.

Vom exakten Klangmaterial (wenn man die auf exakten Studio-Monitor-Boxen ausgibt etwa) ausgehend ist allerdings kein Unterschied hörbar.

Quasar
2004-04-30, 08:17:27
Original geschrieben von ow
Falsch. Was das Ohr nicht hören kann, kann es nicht hören.=) Es gibt also keinen hörbaren Unterschied.

Wie meinst du das jetzt? Es gibt also laut dir keinen hörbaren Unterschied zwischen CD-Audio (2*22 KHz) und DVD-Audio (2*92 KHz) weil das menschliche Ohr i.d.R. bei >20 KHz dichtmacht?

ow
2004-04-30, 08:54:34
.

Quasar
2004-04-30, 09:19:44
Original geschrieben von ow
Korrekt.
Wobei 20kHz schon recht hoch gegriffen sind. Das geben die meisten Ohren nur in ganz jungen Jahren her.;)

Dann schau bitte, was DrumDub dazu geschrieben bzw. gefunden hat:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1764718#post1764718

ow
2004-04-30, 09:28:32
.

Quasar
2004-04-30, 09:38:57
Ich meinte eigentlich eher die Sache mit den Oberwellen und deren Beeinflussung des wahrgenommenen Klangspektrums. X-D

ow
2004-04-30, 09:54:25
.

DrumDub
2004-04-30, 11:56:18
Original geschrieben von ow
Nun, da denke ich nach wie vor, dass sich da nichts wahrnehmen laesst, was man nicht hoert, sprich: keine entsprechenden Reize in Hoernerv&Gehirn ausloest.

nun ja, manche obertöne hörst du nicht (da sie außerhalb des hörbaren bereiches liegen), aber sie beinflussen die töne im hörbaren bereich. darum geht es letztendlich.
ob man soetwas wahrnimmt oder nicht, hängt sicherlich von dem musikgeschmack und der ausbildung ab. die psychoakustsiche wahrnehmeung ist ja bei jedem menschen unterschiedlich.
ich persönlich höre keinen unterschied mehr zwischen mp3 und cd jenseits der 256kbit/s bei klassischer musik. bei pop/techno etc. reichen mir 192kbit/s.
ich selbst höre noch frequenzen bis ca. 17khz bewusst (mit nem sinalgenerator ausgetestet). alles darüber liegt außerhalb meines hörbaren bereiches.

aber natürlich klingt eine schallplatte immer schlechter als eine cd des gleichen masters, um diese diskussion schon mal gar nicht aufkommen zu lassen. ;)

p.s.: vielleicht kann nen mod diese diskussion mal raussplitten und ins offtopic verschieben.

Börk
2004-04-30, 12:50:14
Original geschrieben von aths
96 KHz-Sampling des Originalsignals erhöht die Qualität, aber kaum noch.

Gegenüber 44.1 Khz auf jeden Fall.
Weil die Studios in der Regel in 48 khz bzw 96 khz aufnehmen gibts beim Konvertieren generell Qualitätsverluste.
Aber ob jemand den Unterschied zwischen 48khz und 96 khz hört wage ich zu bezweifeln, Musikgurus mit absolutem Gehör vielleicht. Deswegen frage ich mich auch, wie die Musikindustrie auf so einen bescheurten Standard on 44.1 khz gekommen ist, wenn ihrere Studios eh nicht ein Vielfaches dieser Frequenz bieten. Aber anscheinend war da einfach nicht genug Platz auf der CD und man musste Kompromisse eingehen...

Gruß,
Börk

aths
2004-04-30, 13:37:07
Original geschrieben von Tesseract
was ist damit gemeint? Je höher die Auflösung, desto mehr Texturdetail auch bei entfernten Objekten. Im Vordergrund kommt dann aber auf ein Pixel nicht mehr ein Texel (sondern weniger.) Das ist unrealistisch.

Seltsamerweise beschwert sich kaum jemand über die vergleichsweise niedrige Auflösung, die z. B. die DVD bietet.

aths
2004-04-30, 13:41:32
Original geschrieben von DrumDub
nun ja, manche obertöne hörst du nicht (da sie außerhalb des hörbaren bereiches liegen), aber sie beinflussen die töne im hörbaren bereich. darum geht es letztendlich.Das würde bei entsprechendem Tiefpass, der bei 20 KHz abschneidet, ja auch berücksichtigt. Was man nicht hört, kann man nicht hören. Wenn was im Niederfrequenten beeinflusst werden sollte, kriegt man das auch noch mit niedriger Samplingrate erfasst. Allerdings kann man ein 40-Khz-Signal rausfiltern ohne dass das Musiksignal an für Menschen hörbarer Information verliert.
Original geschrieben von DrumDub
aber natürlich klingt eine schallplatte immer schlechter als eine cd des gleichen masters, um diese diskussion schon mal gar nicht aufkommen zu lassen. ;)Dabei könnten Schallplatten bis zu 25 KHz wiedergeben X-D allerdings bieten sie nicht den guten Rauschabstand einer CD.

ow
2004-04-30, 14:10:24
.

DrumDub
2004-04-30, 14:20:37
Original geschrieben von aths
Das würde bei entsprechendem Tiefpass, der bei 20 KHz abschneidet, ja auch berücksichtigt. Was man nicht hört, kann man nicht hören. Wenn was im Niederfrequenten beeinflusst werden sollte, kriegt man das auch noch mit niedriger Samplingrate erfasst.

nun ja, das habe ich nicht bedacht. mist. da haste schon recht. :D

hier hängt es also von der aufnahmetechik ab. bleibt also noch das problem der umwandlung und des resamplings, was aber am tonstudio hängenbleibt, wie börk schon anmerkte.

Allerdings kann man ein 40-Khz-Signal rausfiltern ohne dass das Musiksignal an für Menschen hörbarer Information verliert.
Dabei könnten Schallplatten bis zu 25 KHz wiedergeben X-D allerdings bieten sie nicht den guten Rauschabstand einer CD.

dafür ist der dynamikumfang einer schallplatte nur halb so groß, wie der einer cd, was sich gerade bei klassischer musik bemerkbar macht. die schlechtere kanaltrennung ist auch nicht gerade von vorteil im bezug auf das stereobild.
25khz? dafür möchte ich einen beweis haben. eher 18khz am rand und knapp 10khz am ende der rille der schallplatte.
und wie sich schon sagte: letztendlich liegt die klangqualität in erster linie am master/tonstudio/aufnahmetechnik. wenn da gemurkst wurde, dann ist das medium ziemlich egal.

KiBa
2004-04-30, 17:07:09
Original geschrieben von ow
Nein, aths hat hier Recht. Die Reproduktion erfolgt exakt.
Was meinst du mit exakt? Man bräuchte unendlich viele Sampels und unendlich feine Quantisierung für "exakt".
Falsch. Was das Ohr nicht hören kann, kann es nicht hören.=) Es gibt also keinen hörbaren Unterschied.
Ui, ich bin kein Mensch, habs eigentlich schon immer gewusst... dabei bilde ich mir nicht mal ein, ein gutes Gehör zu haben.
Allerdings können da sicherlich noch andere Faktoren als die Abtastrate bei einer Adio-DVD reinspielen, weshalb ich einen doch recht großen Unterschied ausmachen kann, besonders mit Kopfhörern. (wo man jede Maus im Publikum husten hören kann, im Gegensatz zur CDA-Version)
Hatte auch mal Test-Dateien gehört nur mit unterschiedlicher Abtastrate. Über 44kHz konnte ich noch deutliche Unterschiede bemerken. Die Musik wurde nicht irgendwie klarer, aber das Klangbild hatte sich noch verbessert, die Instrumente klangen "richtiger" - schwer zu beschreiben.

ow
2004-04-30, 18:22:25
.

aths
2004-04-30, 20:20:11
Original geschrieben von KiBa
Was meinst du mit exakt? Man bräuchte unendlich viele Sampels und unendlich feine Quantisierung für "exakt".Einen (abgesehen vom Rauschen der Bausteine) exakten Sinus zu rekonstruieren, geht exakt. Man braucht dafür nur (wenig) mehr als 2 Werte pro Schwingung.

Will man einfachere Bausteine nehmen, wären (etwas mehr als) 4 Samples anzuraten. Signaltheoretisch sind reichlich 2 aber ausreichend.

Gast
2004-04-30, 22:58:17
Original geschrieben von ow
Nun, da denke ich nach wie vor, dass sich da nichts wahrnehmen laesst, was man nicht hoert, sprich: keine entsprechenden Reize in Hoernerv&Gehirn ausloest.

Hi

Sorry aber dann hast Du ein schlechtes Gehör.
Meineiner hat ne vernünftige Anlage und man hört den Unterschied zwischen einer DVD Audio und Audio CD deutlich.


Ich höre auch noch gerne Schallplatten da kommt der Bass weicher z.b weicher rüber als bei einer CD..

Gruss Labberlippe

Gast
2004-04-30, 23:04:58
Original geschrieben von aths
Ein guter MP3-Codec (à la FHG) ist auf Klassik, bzw. "echte Instrumente" optimiert. Bei Techno gelangt MP3 generell mehr an seine Grenzen, weil dort meist nicht (nur) mit Sinusschwingungen gearbeitet wird.

Eine CD hat ausreichend Bandbreite (bis 20 KHz) und extreme Dynamik (96 dB), wenn sie dir nicht ausreicht, ist entweder die Aufnahme schlecht oder die Anlage taugt nicht viel.

Hi

Das kann man so nicht sagen, es liegt auch immer daran wie gut die CD abgemischt ist.

Wobei Bandbreite nicht alles ist.

Mein Wissen über CDs ist zwar schon ne Weile her, nur ein DAC Wandler (so wie die die in den CD Player verbaut sind.) sind nicht in der Lage das Analoge Tonsignal genau wiederzugeben.
Die "Kurven" werden von Digital auf Anlaog umgewandelt.

Kurz: man bräuchte einen DAC der genauer Arbeitet.
Wobei Audio CDs sowieso nur mit max 44. Khz arbeiten und dieses ist für Mehrkanal Sound ala Dolby Digital und Co in meine Augen zuwenig.



Gruss Labberlippe

aths
2004-04-30, 23:22:46
Original geschrieben von Gast
Die "Kurven" werden von Digital auf Anlaog umgewandelt. Aber nicht so, wie es sich viele vorstellen.

Original geschrieben von Gast
Kurz: man bräuchte einen DAC der genauer Arbeitet.Ich weiß nicht, aus welchem Jahre dein CD-Player ist. Jeder normale CD-Player hat einen sehr guten DAC. (Hier gibt es eigentlich nur standardisierte Schaltkreise.)

Original geschrieben von Gast
Wobei Audio CDs sowieso nur mit max 44. Khz arbeiten und dieses ist für Mehrkanal Sound ala Dolby Digital und Co in meine Augen zuwenig.DD zeichnet bis 48 KHz auf, klingt bei Musik aber (wegen der Kompression) deutlich schlechter als eine Audio-CD.

zeckensack
2004-05-01, 04:57:28
Das Problem mit Audio-CDs ist, dass der nutzbare Dynamikumfang frequenzabhängig ist.

Die "beste" Dynamik hat man ironischerweise bei ~20kHz, wo man sie einfach nicht braucht. In diesem Freqenzband sorgt der nachgeschaltete Tiefpass dafür, dass man wieder einen ziemlich exakten Sinus hinkriegt, egal bei welcher Amplitude. Hier kann man die viel zitierten 96dB voll ausnutzen.

Das dumme daran ist nur, dass das Gehör höhere Frequenzen stärker gewichtet, bzw bei gleicher Amplitude als zu laut empfindet. Das ist so, weil das Ohr "gleiche Energie pro linearem Band" als "gleiche Lautstärke" wertet, während für lineares PCM ohne massive Pre-/Deemphasis "gleiche Energie pro Oktave" passend wäre.

Kurz gesagt: wer eine 20kHz-Oberwelle mit mehr als -20dB Aussteuerung - oder gar gleich mit voller Amplitude - auf eine CD presst, macht den Kunden die Hochtöner und die Ohren kaputt, und erreicht ansonsten garnichts. Wenn der betreffende das noch hören kann, wird er die CD so schnell er kann wieder ausschalten.

Ganz anders im Bassbereich. Aus einem Sinus mit -96dB Amplitude und 20Hz wird eine pure Rechteckschwingung, das bedeutet neue, nicht im Rohmaterial vorhandene Oberwellen, und das wiederum bezeichnet man gemeinhin als Verzerrung.

Will man weniger als <0,5% Klirrfaktor im Bassbereich, bleiben nur noch 45dB Dynamik übrig. Bei <0,1% nur noch 35dB.

ow
2004-05-01, 08:47:20
.

ow
2004-05-01, 08:50:35
.

mrdigital
2004-05-01, 10:32:40
Diese Audiodiskusionen tauchen ja immer wieder auf, und es werden jedes Mal die selben (falschen) Argumente von den "Audiophilen" angeführt. Wenn man diese ganze Audioangelegenheit mal von technischer Seite her betrachtet, dann kann man nur zum Schluss kommen, dass eine Audio-CD mit ihren Eigenschaften absolut ausreichend ist. Alles andere sind Produkte der Musikindustrie um den "Audiophilen" mehr Geld aus der Tasche zu ziehen. Die letztlich entscheidende Qualität einer CD wird bei der Produktion, d.h im Studio bestimmt (das gilt selbstverständlich auch für eine DVD-Audio). Wird hier gut gearbeitet, hat die CD auch einen guten Klang, wird hier "geschlampt" (und das ist leider meistens der Fall), klingt eine Audio-CD nicht so toll. Bei den momentan vorhandenen Audio-DVDs geben sich die Studios mehr Mühe (wird von der Industrie gewünscht, denn man muss ja die angeblichen "Vorteile" der Audio-DVD herausstellen) als bei der Audio-CD, und deswegen klingen sie besser. Es ist also eine Frage der Produktion und nicht des Wiedergabemediums. Jeder der das nicht wahrhaben will, sollte mal einen Blindtest durchführen (zur Not mal zuhause mit einer Audio-CD und einer MP3 Version in verschiedenen qualitativen Abstufungen) und wird erstaunt sein, wie schwer es fällt, selbst MP3s von einer CD zu unterscheiden. Und wenn man schon beim MP3 erkennen solche Probleme hat, wie soll man dann CD-A und DVD-A sauber auseinander halten können? Das man im Audio-Bereich andererseits Leuten mit quasi religisöem Eifer erklären muss, dass sie einem "Qualitäts-Phantom" hinterherjagen, macht eine vernünftige Diskussion nicht einfacher. Man kann letztlich nur zu dem Schluss kommen, dass Musik live am besten klingt ;)

ShadowXX
2004-05-01, 11:35:46
Original geschrieben von mrdigital
Diese Audiodiskusionen tauchen ja immer wieder auf, und es werden jedes Mal die selben (falschen) Argumente von den "Audiophilen" angeführt. Wenn man diese ganze Audioangelegenheit mal von technischer Seite her betrachtet, dann kann man nur zum Schluss kommen, dass eine Audio-CD mit ihren Eigenschaften absolut ausreichend ist. Alles andere sind Produkte der Musikindustrie um den "Audiophilen" mehr Geld aus der Tasche zu ziehen. Die letztlich entscheidende Qualität einer CD wird bei der Produktion, d.h im Studio bestimmt (das gilt selbstverständlich auch für eine DVD-Audio). Wird hier gut gearbeitet, hat die CD auch einen guten Klang, wird hier "geschlampt" (und das ist leider meistens der Fall), klingt eine Audio-CD nicht so toll. Bei den momentan vorhandenen Audio-DVDs geben sich die Studios mehr Mühe (wird von der Industrie gewünscht, denn man muss ja die angeblichen "Vorteile" der Audio-DVD herausstellen) als bei der Audio-CD, und deswegen klingen sie besser. Es ist also eine Frage der Produktion und nicht des Wiedergabemediums. Jeder der das nicht wahrhaben will, sollte mal einen Blindtest durchführen (zur Not mal zuhause mit einer Audio-CD und einer MP3 Version in verschiedenen qualitativen Abstufungen) und wird erstaunt sein, wie schwer es fällt, selbst MP3s von einer CD zu unterscheiden. Und wenn man schon beim MP3 erkennen solche Probleme hat, wie soll man dann CD-A und DVD-A sauber auseinander halten können? Das man im Audio-Bereich andererseits Leuten mit quasi religisöem Eifer erklären muss, dass sie einem "Qualitäts-Phantom" hinterherjagen, macht eine vernünftige Diskussion nicht einfacher. Man kann letztlich nur zu dem Schluss kommen, dass Musik live am besten klingt ;)

ack...den Blindtest wollte ich auch schon vorschlagen.

AFAIK hat die c't so etwas vor ca. einen halben Jahr mal in grösserem Rahmen durchgeführt...und dabei ausser "Audiophilen" auch noch Testgeräte bemüht...

Der Ausgang war, das man spätestens ab 192bit MP3s (oder 256, bin mir nicht mehr so sicher) keinen Unterschied mehr feststellen kann (aufs menschliche Ohr bezogen...)

Ich kenn übrigens auch ein paar, die meinen das Sie unterschiede zwischen Goldsteckern und "normalen" Steckern sofort raushören....

Höhnangst
2004-05-01, 13:01:32
Ja, die c't hat so einen Test einmal durchgeführt:
http://www.heise.de/ct/00/06/092/


Hier sind noch die wesentlichsten, technischen Nachteile einer LP aufgeführt (Spezifikationen lt. RIAA):
http://www.brennmeister.com/forum/jump2post.php?post=705580


Ausführliche Informationen zu verschiedenen Audio-Kompressionsverfahren (MP3, AAC, MPC, Ogg Vorbis, lossless Codecs ...) und auch Blindtests gibt's hier:
http://www.audiohq.de/
http://www.hydrogenaudio.org/


Bei dem Thema "MP3" darf man zusätzlich nicht vergessen, dass das psychoakustische Modell schon relativ alt, aber nichts desto trotz ebenfalls getestet und auch ausgereift ist. Mit den Optimierungen des LAME-Encoders (inzwischen fortschrittlicher als Fhg) bis heute und den vom Entwickler erstellten Voreinstellungen (--alt preset) lassen sich qualitativ ausgezeichnete Musikdatein mit durchschnittlich >192kBit/s erstellen, die von einer CD sehr schwer bis gar nicht unterschieden werden können.

Bei dem Format MPC, welches von einigen Leuten aus Unzufriedenheit mit MP3 erschaffen wurde, sind im Großen und Ganzen die meisten Mängel und Unzulänglichkeiten des MP3-Formats beseitigt worden, so dass sogar mit Bitraten unter 192kBit/s höchste Transparenz (= praktisch keine hörbaren Unterschiede) im Vergleich zur Audio-CD erreicht werden kann.


Das Thema "Audio-CD und Frequenzen" wurde hier ja schon kurz angeschnitten und ich möchte auch als Nicht-Spezialist(!) aths noch insofern zustimmen, als dass - soweit ich weiß - nach dem Shannonschen Abtasttheorem die höchste, exakt wiederherstellbare Frequenz mit der doppelten Rate gesampelt werden muss. Das bedeutet konkret, dass man mit einer Audio-CD maximal ein Signal mit 22.050 Hz speichern und reproduzieren kann.

Weiterhin zustimmen will ich aths in Bezug auf die DA-Wandler in aktuellen CD-Spielern. Obwohl die "Audiophilen" oft behaupten, es würden (Zitat) "Welten zwischen CD-Spielern liegen", bin ich der Meinung, dass der größte Teil der Geräte - korrekte Konstruktion vorausgetzt - die Daten weitestgehend gleich reproduzieren.

Davon abgesehen sollte man bei dem Vergleich Audio-CD <> DVD-Audio noch die höhere Bitrate (24) der DVD-A nicht vergessen, welche - meiner Meinung nach - mehr theoretische Vorteile als die höhere Samplingrate mit sich bringt. Ob das alles jedoch im Endeffekt auch einen praktischen, hörbaren Nutzen hat, steht auf einem anderen Blatt.

tokugawa
2004-05-01, 13:33:43
Original geschrieben von KiBa
Was meinst du mit exakt? Man bräuchte unendlich viele Sampels und unendlich feine Quantisierung für "exakt".

Ui, ich bin kein Mensch, habs eigentlich schon immer gewusst... dabei bilde ich mir nicht mal ein, ein gutes Gehör zu haben.
Allerdings können da sicherlich noch andere Faktoren als die Abtastrate bei einer Adio-DVD reinspielen, weshalb ich einen doch recht großen Unterschied ausmachen kann, besonders mit Kopfhörern. (wo man jede Maus im Publikum husten hören kann, im Gegensatz zur CDA-Version)
Hatte auch mal Test-Dateien gehört nur mit unterschiedlicher Abtastrate. Über 44kHz konnte ich noch deutliche Unterschiede bemerken. Die Musik wurde nicht irgendwie klarer, aber das Klangbild hatte sich noch verbessert, die Instrumente klangen "richtiger" - schwer zu beschreiben.


Ich hab's schon erwähnt, aber es gibt da andere Faktoren, die reinspielen.

Der wirkliche praktikable Unterschied, weshalb man höhere Samplingraten verwendet, ist, dass diese genug Auflösung bieten, um noch ohne Artefakte/Aliasing durch EQs gejagt werden können.

Ich kenn jetzt deine Boxen/Kopfhörer-Ausstattung nicht, aber im Consumer-Bereich werden im Normalfall keine "exakten" Lautsprecher wie im Studio verwendet, sondern diese geben schon ihren eigenen EQ-Anteil hinzu. Genau hier kann dann die höhere Samplingrate hineinspielen.

Vom exakten Klangmaterial (ohne nachträgliches EQ) ausgehend ist der Unterschied allerdings nicht wahrnehmbar.

tokugawa
2004-05-01, 13:35:45
Original geschrieben von Gast
Hi

Sorry aber dann hast Du ein schlechtes Gehör.
Meineiner hat ne vernünftige Anlage und man hört den Unterschied zwischen einer DVD Audio und Audio CD deutlich.

Ich höre auch noch gerne Schallplatten da kommt der Bass weicher z.b weicher rüber als bei einer CD..

Gruss Labberlippe

Eine vernünftige Anlage, die vermutlich einen EQ-Anteil hinzufügt (wie jede Consumer-Anlage). Und genau hier ist dann wieder ein Unterschied hörbar.

Bei Studiomonitoren, die exakter sind (und vor allem auf solche zusätzlichen EQ-Sachen verzichten), hört man keinen Unterschied beim Endklangmaterial.


Es ist im Übrigen kein Beweis wenn man sagt "also ich hör auf meiner 1000 Euro Protz-Consumer-Anlage den Unterschied schon"...

ShadowXX
2004-05-01, 13:49:49
Original geschrieben von Höhnangst
Bei dem Format MPC, welches von einigen Leuten aus Unzufriedenheit mit MP3 erschaffen wurde, sind im Großen und Ganzen die meisten Mängel und Unzulänglichkeiten des MP3-Formats beseitigt worden, so dass sogar mit Bitraten unter 192kBit/s höchste Transparenz (= praktisch keine hörbaren Unterschiede) im Vergleich zur Audio-CD erreicht werden kann.


Sind die Encoder/Decoder für dieses MPC-Format Freeware???

Und falls ja, hast du zufällig einen Link???

Höhnangst
2004-05-01, 14:23:36
@ tokugawa

Also ich denke eigentlich nicht, dass sich für so eine Anlage (= "Hinzufügen von Equalizer-Anteilen") höhere Samplingfrequenzen besonders auszahlen und man diese deswegen auch heraushören kann.



Original geschrieben von ShadowXX
Sind die Encoder/Decoder für dieses MPC-Format Freeware???

Und falls ja, hast du zufällig einen Link???
Ja, sie sind Freeware. Guckst du Link in meinem Beitrag: www.audiohq.de ;)
Dort gibt's relativ umfangreiche FAQs und Links zu den Audio-Formaten.

ShadowXX
2004-05-01, 14:33:06
Original geschrieben von Höhnangst
Ja, sie sind Freeware. Guckst du Link in meinem Beitrag: www.audiohq.de ;)
Dort gibt's relativ umfangreiche FAQs und Links zu den Audio-Formaten.

Danke...

Einer der Mods sollte den Thread vielleicht splitten...zumindest hat der Titel des Threads nicht mehr viel mit unserer Diskussion zu tun...

zeckensack
2004-05-01, 14:48:58
Original geschrieben von ow
@zeckensack

Ich kann deine Ausführungen in keiner Weise nachvollziehen. Warum sollte der Dynamikumfang einer CD frequenzabhängig sein?
Und warum sollte ein 20Hz Sinus als Rechteck wiedergegeben werden?Der nutzbare Dynamikumfang :)
Beim kleinstmöglichen Pegel (ca -96dB) kannst du die Schwingung nur noch als Rechteck speichern. Bei 20Hz hast du dann 25ms lang 0 und 25ms lang 1, immer im Wechsel. Die Information, dass das ein Sinus sein soll, ist schlicht beim Quantisieren verloren gegangen, und kann auch vom analogen Tiefpass nicht wiederhergestellt werden. Der kann so langsame Schwingungen nicht wieder zu einem Sinus abrunden.

Oder anders gesagt: das Abspielgerät kann dieses Signal nicht mehr von einem gewollten Rechteck unterscheiden.

Eine annähernde Wiedergabe von Rechtecksignalen ist nur im Bereich tiefer Töne möglich (weil nur hier die dazu notwendigen Oberschwingungen auf der CD darstellbar sind) während hochfrequente Rechtecke (>6,7kHz) nur als reiner Sinus ausgegeben werden (weil hier die erste Oberwelle bei >20kHz liegt und nicht mehr auf CD darstellbar ist).Jein. Die CD kann im vollen Frequenzumfang perfekte Rechtecke speichern. Im Endeffekt liegst du trotzdem richtig, weil nur bei tiefen Grundtönen ein Rechteck hinten rauskommt (nach dem Tiefpass).
Die Dynamik hängt dagegen direkt mit der Aussteurung der CD zusammen. Bei leise aufgenommenen CDs wird eben einfach nicht mit vollen 16Bit quantisiert, hier wird Dynamik veschenkt.Ja, eben. Das Quantisierungsrauschen (das dann zwangsläufig stärker ins Gewicht fällt) deute ich einfach als Verzerrung, denn das ist es im Grunde auch. Es sind neue, nicht erwünschte Oberwellen.

/edit: ah jaa.... habe wohl was wesentliches überlesen.
bei Quantisierung mit nur wenigen Bits stimmt es natürlich, dass ein tiefrequenter Sinus nicht mehr als solcher darstellbar ist. Dadurch reduziert sich natürlich die nutzbare Dynamik im Tieftonbereich. Hrmpf. Dass du editiert hast, hatte ich noch nicht gesehen, als ich angefangen habe, dieses Posting zu schreiben ?-)

Gast
2004-05-01, 14:54:00
Zum Thread Topic:
Bekommt 3dcenter nochmal eine NV40 zum testen ?
Wäre ganz interessant wenn ihr die NV40 gegen die R420 speziell die AF und AA Qualität vergleichen könntet. X2 interesiert mich da am meisten, weil das Spiel nur so vor Gitterstrukturen, Kanten und Linien strotzt. Antialiasing kommt dort überall zum tragen, denke das prädestiniert das Spiel einfach zum Vergleichen.

deekey777
2004-05-03, 20:25:54
Jedem seine Meinung:

http://www.driverheaven.net/showthread.php?s=&threadid=44752

Here is the response Futuremark have provided:

“ We have studied carefully this issue and contacted NVIDIA and Microsoft regarding this. We re-tested the drivers and the result is the same as before: There are no 3DMark03 specific optimizations in Forceware 60.72 drivers for GeForce 6800 and they indeed fulfill 3DMark03 optimization guidelines with GeForce 6800.
The explanation for the rendering differences is GeForce 6800's new isotropic filtering algorithm: It differs from that of the reference rasterizer. There is an analysis of this available at Digit Life . Based on all information we have, it seems that this algorithm is applied consistently the same way regardless of the application, i.e. it is not application specific and it is not targeting 3DMark specifically.
We also contacted Microsoft about the difference between the rendering of the reference rasterizer and NV40: "The DX9 reference rasterizer does not produce an ideal result for level-of-detail computation for isotropic filtering, the algorithm used in NV40 produces a higher quality result. Remember, our API is constantly evolving as is graphics hardware, we will continue to improve all aspects of our API including the reference rasterizer."
Now, the most interesting question is the performance effect. As regards 3DMark03, the performance effect due to this generic optimization is insignificant and should not cause incomparability of the results. “