PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Heutige GUIs nur pixelgenau.


Avalox/Gast
2009-06-08, 16:46:34
Ein 2D GUI schert eine moderne GPU überhaupt nicht mehr, ganz im Gegenteil die Performance spielt dort wirklich gar keine Rolle mehr.

Aber ich frage mich weshalb nicht eine GUI inzwischen in viel höheren Auflösungen arbeitet und dann per Supersampling die Zielauflösung bedient?

Heutige Grafische Oberflächen arbeiten allesamt (ich kenne jedenfalls keine Ausnahme) mit einer nativen Pixelgenauigkeit. Sprich ein Buchstabe wird immer exakt nativ pixelgenau gerendert, wie der selbe Buchstabe an einer anderen Stelle des Bildschirms.
Bewege ich ein Fenster, so kann es nur nativ pixelgenau positionieren, bewege ich die Maus, so springt diese minimal genau einen nativen Pixel weiter.
Font AA und Subpixel Korrekturen wirken sich nicht in einer genaueren Positionierung aus.

Natürlich hat diese Betrachtung ihren Ursprung in der schlechten Winkelauflösung der verwendeten Displays. Supersampling würde die heutige Überschärfung verringern und so das Bild unschärfer wirken lassen.

Unschärfer bedeutet allerdings in dem Fall genauer. Eine Unschärfe, welche man eh mit Font AA usw. wieder umständlich herbeiführt.

Es ist schade, dass bei heutigen GUI viel Wert auf Schnickschnack gelegt wird, aber man eine entsprechende Möglichkeit einer Superauflösenden GUI nicht unterstützt.

Wann kommt also das Supersampling Desktop, oder gibt es gute Gründe dagegen?

joe kongo
2009-06-08, 17:42:58
Kann es sein das es an der ruhenden Darstellung liegt, wo das Auge Zeit hat an beliebiger Stelle zu fokusieren und dann sämtlichen Betrug aufdeckt -> verwaschener Eindruck ?

Trap
2009-06-08, 17:48:14
Keine Inhalte über der Nyquist-Frequenz zu erzeugen ist geschickter als sie nachträglich wieder rauszufiltern. Vor allem da die AA-Filter bei weitem nicht perfekt sind.

IceLord
2009-06-08, 17:58:45
Mac OS X rendert die Schrift schon immer so aber der Rest der GUI ist wie bei allen Andern nur Pixelgenau. Im Moment werden ja alle GUIs darauf vorbereitet auflösungsunabhängig zu sein. Wenn ich mir aber dieses Bild angucke dann ist es immer noch ins Pixelraster eingepasst.

http://s3b.directupload.net/images/090608/3g6bl59c.png


Ich habe es mal ausprobiert in Mac OS und Windows 7. Eine 1px breite Linie ist bei bei 1.5 facher grösse immer noch 1px breit, bei 2 facher ist sie dann 2px breit. Bei Windows 7 ist es das Gleiche nur dass bei 1.5 facher grösse eine 1px Linie scho 2xp breit ist. Eigentlich ziemlich bescheuert. Ich hoffe das sie mal auf die Idee kommen dass es viel einfacher währe (besonders für Auflösungsunabhängigkeit) wenn sie nicht immer alles ins Pixelraster einpassen würden.

ESAD
2009-06-08, 18:07:47
wpf kann auch nicht pixel genaue positionierung

Avalox
2009-06-08, 18:52:40
Mac OS X rendert die Schrift schon immer so aber der Rest der GUI ist wie bei allen Andern nur Pixelgenau.

Das habe ich auch mal vor einiger Zeit gelesen. Ich denke aber nicht, dass es richtig ist.

Eher ist es so, dass Windows mit einem am Bildschirm angepassten Kerning arbeitet und der Mac eben mit dem originalen Kerning. Aber letztendlich sind auch am Mac gleiche Buchstaben immer Pixel identisch. Würde man dort auf das Textrendering Supersampling anwenden, so müssten gleiche Buchstaben ja unterschiedliche Pxielmuster aufweisen. Ich habe nie welche entdecken können.

Keine Inhalte über der Nyquist-Frequenz zu erzeugen ist geschickter als sie nachträglich wieder rauszufiltern.


Aber genau dieses machen heutige Lösungen. Die gerenderten Buchstaben und alle GUI Elemente werden mit extremen Artefakten gerendert.


Warum kein Grafikkarten Hersteller Auflösungen anbietet, welche um Faktoren über der nativen Display Auflösung liegen und diese dann skalieren ist mir schleierhaft.
Warum nicht den Desktop auf 7680x4800 Pixel rendern und dann auch 1920x1200 skalieren? Ein guter Spezialfilter könnte dort sogar eine SubPixel Präzision erreichen. Ein Subpixel Rendering für alle in frage kommenden Bildelemente, nicht nur für Fonts.

Früher auf CRT Geräten wurden die Bildschirmmasken gnadenlos überfahren, das Supersampling gab es gratis. Es gibt zwar durchaus auch heute Displays, welche höhere Auflösungen akzeptieren und dann selbst skalieren. Aber die Regel ist es nicht und von der Auflösung ist es dann auch recht beschränkt.

Es ist ja nicht so, dass heute etwa der Speicher oder die Rechenleistung der GPU zu langsam wären.

Coda
2009-06-08, 20:01:33
Das Problem ist, dass bestehende Software nicht darauf ausgelegt ist beliebig skaliert zu werden, weil es eben Bitmap-Grafik ist.

albix64
2009-06-08, 20:13:48
Ich verstehe nicht wie ihr das meint? Meint ihr etwa das die GUI vektorbasiert sein sollte, d.h. das sie sich je nach Bildschirmauflösung selbst skalieren sollte?

Das fänd ich auf jeden Fall gut.

huha
2009-06-08, 20:33:05
Wann kommt also das Supersampling Desktop, oder gibt es gute Gründe dagegen?

Hoffentlich nie; ja.

Eigentlich wurde es ja schon gesagt (Beitrag 3 lesen, da steht's drin!), aber laß es mich nochmal wiederholen: Weil es absolut scheiße ist. Wir brauchen in Desktops keine schiefen Linien, die ohne Supersampling häßlich aussehen würden. Wir brauchen einfach nur die maximal erreichbare Schärfe, daß Texte möglichst gut lesbar bleiben und Fenster gut definiert sind. Supersampling ist ultrahäßlich. Supersampling ist komplett unnötig. Wir haben keine Projektionen jedweder Art für den Desktop, wir können selbst bestimmen, wie das Zeug gezeichnet werden muß, deshalb ist es absolut sinnlos, es in hoher Auflösung zu zeichnen und dann runterzurechnen.
Es wäre sinnvoll, den Desktop mit niedrigerer Auflösung anzuzeigen, daß man noch mehr Schärfe aus den Pixeln rauskriegen kann, aber höhere Auflösung nebst Schärfeverlust ist 100% sinnlos.

-huha

Avalox
2009-06-08, 20:39:25
Hoffentlich nie; ja.

Eigentlich wurde es ja schon gesagt (Beitrag 3 lesen, da steht's drin!),



Beitrag 3 ist inhaltlich richtig, aber falsch im Bezug zur heutigen Situation.

Denn es ist genau andersrum. Das Rendering der GUI erzeugt mächtige Artefakte, weil eben genau das Nyquist Theorem nicht beachtet wird.


aussehen würden. Wir brauchen einfach nur die maximal erreichbare Schärfe,

Die heutige Schärfe ist überschärft. Deshalb macht ja grade z.B. Windows solche Klimmzüge um ordentlich aussehende Schriften auf dem Bildschirm zu rendern. Das Problem ist dieses Rendering hat z.B. mit einer Druckausgabe keine Übereinstimmung mehr.
Der Mac verzichtet auf dieses, die Bildschirmschriften sehen deshalb nicht so toll aus, dafür stimmt diese dann mit der Druckausgabe wieder überein.

Trap
2009-06-08, 21:56:31
Die heutige Schärfe ist überschärft.
Inwiefern? Bei Skalierung mit einem nicht ganzzahligen Faktor hat man natürlich Probleme und wahrscheinlich schummelt das Schriftrendering. Wobei eine Sonderbehandlung für Schrift nicht unberechtigt ist, es geht ja darum die Schrift so darzustellen, wie man sie am besten lesen kann, nicht zwangsweise so, wie sie "korrekt" auf eine zu niedrige Pixelzahl gerendert aussieht.

Eine Vektor-GUI ohne Sonderbehandlung für kleine Schriften würde ich mit einem normalen Monitor nicht benutzen wollen.

Gast
2009-06-08, 22:01:49
Auflösungsunabhängige GUIs haben hier aber nichts mit skalierbarer Größe zu tun. Mit Auflösungsunabhängig meint man, dass die GUI auf Geräten mit unterschiedlichen DPI gleiche Resultate erzielt.

DTP ist ein ganz anderer Bereich. Für DTP gibt es DTP Programme, die dann ihr eigenges Rendersystem mitbringen. Unter Windows ist das alte GDI/GDI+ nicht/bedingt geeignet. Programme wie MS Office, die auf GDI aufsetzen, haben gar kein Anspruch auf DTP Niveau.

Avalox
2009-06-08, 22:38:18
Inwiefern? Bei Skalierung mit einem nicht ganzzahligen Faktor hat man natürlich Probleme und wahrscheinlich schummelt das Schriftrendering. Wobei eine Sonderbehandlung für Schrift nicht unberechtigt ist, es geht ja darum die Schrift so darzustellen, wie man sie am besten lesen kann, nicht zwangsweise so, wie sie "korrekt" auf eine zu niedrige Pixelzahl gerendert aussieht.


Schrift ist ja dort nur ein Beispiel. Es geht mir ja gar nicht darum nun ein besonders genaues Fontrendering zu erreichen. Heutige Monitore haben dort schlicht eine viel zu schlechte Winkelauflösung um tatsächlich ein passendes Fontrendering zu ermöglichen.

Es geht mir schlicht darum, weshalb heutige GUIs nicht endlich die Kapazitäten der modernen Grafiksystem nutzen. Dabei wäre doch schon mal der erste Schritt, dass der Grafiktreiber ein intern höher ausgelöstes Bild des Desktop zu einer passenden Ausgabe skaliert. Das wäre eine optionale Funktion.

Ich habe erst bei einem Notebook gesehen, dass dort das Display tatsächlich eine höhere Auflösung ermöglichte, als das Panal nativ anzeigen konnte. Ob dieses nun aber eine Funktion der Panelelektronik war, oder der Grafiklösung kann ich dabei nicht mal sagen.

Fakt ist aber, dass man die normal große Ausgabe, z.B. des Browsers für dieses Forum problemlos(ordentliche Lösung vorausgesetzt) um 50% herunter skalieren kann und es immer noch ordentlich lesbar ist.

Wenn du heute ein Objekt verschiebst, es vergrößerst, es scrollst oder sonst wie bewegst, so springen alle Objekte mindestens einen Pixel weit. Schon dieses Springen ist ein Artefakt.
Die pixelweise Bewegung des Mauszeigers ist auch solch ein Artefakt, ein bewusst in Kauf genommener Rundungsfehler.

Das klingt nun kleinlich ist allerdings natürlich symptomatisch, wie die 1,5 Pixel starke Fensterrahmung von IceLord. Egel der Darstellung, sie zeug von mächtigen Alias-Artefakten

Grade Funktionen, wie das langsame organische Finescrolling von Inhalten könnte profitieren.

Heutige Desktops sind durchaus ordentlich skalierbar. Warum nicht dem Benutzer über den Grafiktreiber die Freiheit geben mit einer internen höheren Auflösung dieses auszugeben? Der Anwender hätte viel mehr Kontrolle über die tatsächliche Grösse des Desktops und seiner Anwendungen.

Das wirklich interessante ist doch, dass auch schon heutige Desktops natürlich gefiltert skalieren, aber eben nur wenn ein Fensterinhalt gekippt, verkleinert usw. wird. Dieses wird natürlich gemacht um die Darstellung zu verbessern. Der Schritt, dass gleich auf einem entsprechend gefiltert skalierten Bildschim gearbeitet wird gibt es dagegen nicht.

Grestorn
2009-06-08, 22:47:17
Das Problem ist doch, Avalox, wenn Du eine höhere Auflösung bilinear runterskalierst wirst Du bei den meisten Leuten immer die Reaktion bekommen, "iiiih... ist das unscharf".

Ich musste mich selbst erst mühselig an ClearType gewöhnen, weil mein Verstand sagte, dass das besser sei, meine Augen anfangs aber behaupteten, die Schrift wäre unscharf. Inzwischen mag ich nicht mehr ohne CT, aber wie gesagt, der Mensch ist ein Gewohnheitstier...

Eine solche Skalierung auf dem gesamten Schirm würde m.E. erst dann richtig funktionieren, wenn die Pixel deutlich kleiner sind, als der Mensch auflösen kann, also so Faktor 10 feiner als heute.

Coda
2009-06-08, 23:02:30
Wobei das Vista/7-Font-AA um einiges angenehmer ist als das von Mac OS X oder Windows XP.

lumines
2009-06-08, 23:22:13
das ist imho geschmackssache. ich finde das OSX font-rendering zB total klasse, obwohl ich selber keinen mac besitze. das war schon immer so. nur weil man andauernd ein bestimmtes rendering vorgesetzt bekommt, heißt das also wohl noch lange nicht, dass man nicht ein anderes bevorzugt. jedenfalls geht es mir so ;)

Gast
2009-06-08, 23:32:51
Eine 1px breite Linie ist bei bei 1.5 facher grösse immer noch 1px breit, bei 2 facher ist sie dann 2px breit. Bei Windows 7 ist es das Gleiche nur dass bei 1.5 facher grösse eine 1px Linie scho 2xp breit ist.

Kann ich nicht nachvollziehen.

Ganon
2009-06-08, 23:34:26
Font-Rendering-Kriege kann man über 100 Seiten führen... :D Das ist wie mit kalibrierten Bildschirmen :D

Coda
2009-06-08, 23:35:41
Was ist an Kalibrierung in z.B. der Druckvorstufe diskusionswürdig? Das geht einfach nicht anders.

Und ja, ich finde das Font-Rendering von meinem Mac Mini zu matschig. Auf dem iPhone geht's weil da der Bildschirm entsprechende DPI hat, aber aufm Desktop isses mir echt nicht recht was Apple da macht.

Ganon
2009-06-08, 23:38:12
Was ist an Kalibrierung in z.B. der Druckvorstufe diskusionswürdig? Das geht einfach nicht anders.

Das meine ich nicht. Eher das was Kalibrierung ist und was "die Masse" darunter versteht, etc. pp.

Und ja, ich finde das Font-Rendering von meinem Mac Mini zu matschig. Auf dem iPhone geht's weil da der Bildschirm entsprechende DPI hat, aber aufm Desktop isses mir echt nicht recht was Apple da macht.

Genau diese Diskussion meine ich, im Bezug auf Font-Rendering :D
edit:
Die Diskussion gab es hier im Forum afaik auch schon mal.

rotalever
2009-06-08, 23:38:36
Aber ich frage mich weshalb nicht eine GUI inzwischen in viel höheren Auflösungen arbeitet und dann per Supersampling die Zielauflösung bedient?

Wofür denn Supersampling? Man kann das auch direkt so rendern das es passt.

Unschärfer bedeutet allerdings in dem Fall genauer. Eine Unschärfe, welche man eh mit Font AA usw. wieder umständlich herbeiführt.

Schön, dann ist alles genau, ich kann aber kleine Schrift nicht mehr richtig lesen.

Die heutige Schärfe ist überschärft. Deshalb macht ja grade z.B. Windows solche Klimmzüge um ordentlich aussehende Schriften auf dem Bildschirm zu rendern. Das Problem ist dieses Rendering hat z.B. mit einer Druckausgabe keine Übereinstimmung mehr.
Das ist wohl Absicht, denn dadurch sieht die Schrift am Bildschirm besser aus.


Hier ein interessanter Artikel zu Font-Rendering: http://www.antigrain.com/research/font_rasterization/

nymand
2009-06-08, 23:47:27
Schön, dann ist alles genau, ich kann aber kleine Schrift nicht mehr richtig lesen.[/url]

Das ist eine Windows Krankheit, dass die schrift mit der Auflösung skaliert. Diese müßte man dan passend dazu auch kurieren.

Coda
2009-06-08, 23:59:57
Genau diese Diskussion meine ich, im Bezug auf Font-Rendering :D
edit:
Die Diskussion gab es hier im Forum afaik auch schon mal.
Ich weiß. Ich darf trotzdem ne Meinung haben. Da gibt's nix zu diskutieren :tongue:

Das ist Äquivalent zu "Was ist außerhalb des Universums?"

rotalever
2009-06-08, 23:59:59
Das ist eine Windows Krankheit, dass die schrift mit der Auflösung skaliert.
Versteh ich nicht. Was das mit lesbarkeit von kleiner Schrift zu tun hat.

Coda
2009-06-09, 00:08:33
Das ist eine Windows Krankheit, dass die schrift mit der Auflösung skaliert. Diese müßte man dan passend dazu auch kurieren.
Du meinst, dass sie nicht mitskaliert. Das kann Windows unter der Haube, aber es muss wie jedes andere System dafür sorgen, dass alte Software die nicht Vektorgrafik basiert ist auch läuft.

nymand
2009-06-09, 00:13:20
Du meinst, dass sie nicht mitskaliert. Das kann Windows unter der Haube, aber es muss wie jedes andere System dafür sorgen, dass alte Software die nicht Vektorgrafik basiert ist auch läuft.

Jup genau das spreche ich an. Das was Windows da unter der Haube kann ist zumindest bis einschließlich Vista so buggy, dass selbst Windows eigene Funktionen nicht mehr nutzbar waren. Selbst erlebtes Beispiel:

Windows Backup unter Vista stürzte ab, wenn man gewisse Kombinationen aus Zoom (höhere DPI in den Windows settings) und großer Schriftart hatte.

Von kaputtem Startmenu usw ganz abgesehen. Ist imho fast total unbrauchbar :-( Dabei wäre sowas toll für den HtPC im Wohnzimmer, damit man von der couch auch als brillenschlange noch erkennen kann , was da auf dem TV los ist :-)

aths
2009-06-09, 00:56:10
Wobei das Vista/7-Font-AA um einiges angenehmer ist als das von Mac OS X oder Windows XP.Gewöhnungsfrage. Anfangs fand ich das Mac-Fontrendering voll scheiße. Inzwischen bin ich ambivalent. Es wirkt oft nicht so scharfkantig, aber die Buchstabenformen sehen in praktisch jeder Zoomstufe korrekt aus. Bei XP und Vista ändern die Buchstaben je nach Pixelgröße ihr Aussehen.

ESAD
2009-06-09, 18:32:19
Ich verstehe nicht wie ihr das meint? Meint ihr etwa das die GUI vektorbasiert sein sollte, d.h. das sie sich je nach Bildschirmauflösung selbst skalieren sollte?

Das fänd ich auf jeden Fall gut.

gibts doch auch schon längst für z.b. windows

Coda
2009-06-09, 19:54:28
Gewöhnungsfrage. Anfangs fand ich das Mac-Fontrendering voll scheiße. Inzwischen bin ich ambivalent. Es wirkt oft nicht so scharfkantig, aber die Buchstabenformen sehen in praktisch jeder Zoomstufe korrekt aus. Bei XP und Vista ändern die Buchstaben je nach Pixelgröße ihr Aussehen.
http://blogs.zdnet.com/Ou/?p=682

Das Problem ist einfach dass wir viel zu wenig DPI haben bei den derzeitigen Schirmen.

aths
2009-06-10, 19:30:00
http://blogs.zdnet.com/Ou/?p=682

Das Problem ist einfach dass wir viel zu wenig DPI haben bei den derzeitigen Schirmen.Ein höherer DPI-Wert käme auch Cleartype zugute. Würde die Pixeldichte so hoch sein, dass die Linien der Buchstaben zwei Pixel dick sind, wäre die Platzierungsungenauigkeit bereits halbiert.

Coda
2009-06-10, 19:34:28
Ja, aber solange man diese hohen DPI-Zahlen (wie z.B. das iPhone) nicht hat sollte man eben nicht Lesbarkeit dafür opfern nur um um jeden Preis die Darstellung der Buchstaben 100% exakt zu haben.

Das ist für Grafik-Programme akzeptabel, aber doch nicht für z.B. den Browser.

Es ist ja nicht so, als wäre es ein Problem das zu tun was Apple macht. Das ist völlig simples Subpixel-Antialiasing ohne größere Anstrengungen - so wie es z.B. FreeType auch implementiert. ClearType dagegen versucht einen Mittelweg zu finden zwischen lesbarer Schrift, "korrekter" Darstellung und Anti-Aliasing. Das ist weitaus schwieriger.

aths
2009-06-10, 19:49:01
Cleartype rundet die Postion der Linien auf das nächste Pixel. (Hier kommt wohl auch Hinting zum Einsatz, so dass nicht nur stur mathematisch gerundet wird.) Damit sind die gerenderten Buchstaben X Pixel groß und Y Pixel breit, wobei X und Y Ganzzahlen sind. Cleartype optimiert auf gute Bildschirmdarstellung und opfert notgedrungen Formtreue und Größentreue.

Apples Fontsrendering (welches auf Wunsch auch subpixelgenau arbeitet) hat den Nachteil, dass die Linien auch mal zwischen Pixeln positioniert werden, wodurch sie oft verwaschen aussehen. Beim kleinen E zum Beispiel ist der Strich in der Mitte meistens verwaschen, was mich nervt. Dafür ist die Skalierbarkeit besser (viel feiner abgestuft, während sich bei kleinen Größenänderungen das Erscheinungsbild eines Cleartype-Fonts oft gar nicht ändert) und die Fonts sehen originalgetreuer aus.

Apple macht mehr als stures Supersampling, das würde wirklich mies aussehen. Hat man keinen Anlass zu zoomen, ist Cleartype natürlich besser da man nicht weiß, wie es "in Wahrheit" aussehen müsste, aber die Buchstaben schärfer gezeichnet sind.

Was ich bisher unter Linux an Fontsglättung gesehen habe, war grundsätzlich grauenhaft.

Coda
2009-06-10, 19:51:16
Cleartype optimiert auf gute Bildschirmdarstellung und opfert notgedrungen Formtreue und Größentreue.
Das ist mir alles bekannt Aths. Ich finde es trotzdem deutlich lesbarer. Liest du was ich schreibe?

Apple macht mehr als stures Supersampling, das würde wirklich mies aussehen.
Sie machen Subpixel-AA. Mehr nicht. Das ist auch korrekt, wenn man maximale "Treue" erreichen will.

Was ich bisher unter Linux an Fontsglättung gesehen habe, war grundsätzlich grauenhaft.
Das liegt daran, dass es Patente gibt die FreeType kastrieren. Das kann man umgehen indem man es rekompiliert.

Spasstiger
2009-06-10, 21:20:44
Ja, aber solange man diese hohen DPI-Zahlen (wie z.B. das iPhone) nicht hat sollte man eben nicht Lesbarkeit dafür opfern nur um um jeden Preis die Darstellung der Buchstaben 100% exakt zu haben.
Aber solange die GUI-Darstellung der wichtigen Betriebssysteme nicht völlig unabhängig von der Auflösung ist, wird es auch keine Desktopmonitore mit hohen PPI-Zahlen geben. Ein Teufelskreis.
Eigentlich wären 300-PPI-Desktop-Monitore sehr wünschenswert, weil dann die Schrift- und Fotoqualität auf dem Monitor zumindest auflösungstechnisch Druckqualität erreicht.

Der_Donnervogel
2009-06-10, 22:19:19
Cleartype optimiert auf gute Bildschirmdarstellung und opfert notgedrungen Formtreue und Größentreue.Und was ist daran auszusetzen? Womöglich komme ich aus dem falschen Anwenderkreis, aber ich kann das Problem nicht wirklich nachvollziehen. Wenns auf dem Bildschirm gut ausschaut reicht doch vollkommen, oder nicht? :confused: Ist doch völlig egal ob dieser oder jener Buchstabe bei jeder Auflösung exakt gleich ausschaut, solange er gut lesbar ist. Sowas würde höchstens negativ auffallen wenn man stufenlos irgendwo rein- oder rauszommen will, aber wann macht man sowas schon mal? Ich zumindest so gut wie nie.Dafür ist die Skalierbarkeit besser (viel feiner abgestuft, während sich bei kleinen Größenänderungen das Erscheinungsbild eines Cleartype-Fonts oft gar nicht ändert) und die Fonts sehen originalgetreuer aus.Auch da würde mich interessieren für wen das relevant ist. Ich könnte mir vielleicht vorstellen dass womöglich Leute die sich mit DTP oder vielleicht Grafik beschäftigen an sowas interessiert sind. Aber ich hab ehrlich gesagt noch nie mit jemand gesprochen, der sich drüber beschwert hätte, dass die Skalierung irgendwelcher Fonts um eine Feinheit nicht paßt. Wenn dann waren es Probleme in der Art, dass Teile vom Text nicht lesbar waren, da der Text über den Rand der Textbox hinaus gegangen ist und abgeschnitten wurde. Aber ich denk mal von sowas ist hier nicht die Rede. Drum würde mich echt mal interessieren wo denn das Problem auftritt, denn mir scheint es bisher komplett entgangen zu sein obwohl ich mich auch schon knapp 20 Jahre mit Computern beschäftige.

aths
2009-06-11, 23:44:42
Und was ist daran auszusetzen? Womöglich komme ich aus dem falschen Anwenderkreis, aber ich kann das Problem nicht wirklich nachvollziehen. Wenns auf dem Bildschirm gut ausschaut reicht doch vollkommen, oder nicht? :confused: Ist doch völlig egal ob dieser oder jener Buchstabe bei jeder Auflösung exakt gleich ausschaut, solange er gut lesbar ist. Sowas würde höchstens negativ auffallen wenn man stufenlos irgendwo rein- oder rauszommen will, aber wann macht man sowas schon mal? Ich zumindest so gut wie nie.Auch da würde mich interessieren für wen das relevant ist. Ich könnte mir vielleicht vorstellen dass womöglich Leute die sich mit DTP oder vielleicht Grafik beschäftigen an sowas interessiert sind. Aber ich hab ehrlich gesagt noch nie mit jemand gesprochen, der sich drüber beschwert hätte, dass die Skalierung irgendwelcher Fonts um eine Feinheit nicht paßt. Wenn dann waren es Probleme in der Art, dass Teile vom Text nicht lesbar waren, da der Text über den Rand der Textbox hinaus gegangen ist und abgeschnitten wurde. Aber ich denk mal von sowas ist hier nicht die Rede. Drum würde mich echt mal interessieren wo denn das Problem auftritt, denn mir scheint es bisher komplett entgangen zu sein obwohl ich mich auch schon knapp 20 Jahre mit Computern beschäftige.Ich mag es eben, wenn Fonts originalgetreu wiedergegeben werden und wenn sie fein abstufbar sind, da ich zum Beispiel Internet-Pages öfters skaliere um eine mir angenehme Schriftgröße zu erhalten.

Man hat dann das Problem, dass zum Beispiel beim kleinen E der Mittelstrich unscharf ist, während Cleartype ihn scharf zeichnet. Dafür sieht das kleine E dann oft etwas falsch aus. Wer bei einem Schriftbild auf Ästhetik achtet, kann das bemängeln. Man kann eben nicht beides gleichzeitig bekommen, also scharfe Kanten und möglichst originalgetreues Aussehen.

Der_Donnervogel
2009-06-12, 00:51:46
Nun dann liegt hier der Unterschied. Mir ist durchaus klar, dass es kleine Ungenauigkeiten beim Skalieren gibt. Dies ergibt sich automatisch aus der Tatsache dass bei einer stufenlosen Skalierung bei einer Abbildung auf den fixen Raster der Pixel unvermeidlich Rundungsfehler auftreten.

Ich bin allerdings schon ne Weile dabei und bin drum von früher her noch Schriftbilder gewohnt die nicht ganz so toll ausschauen wie heutzutage. Rundungsfehler hin oder her. Für die etwas zart beseiteteren Gemüter habe ich sie deshalb mal lieber in Spoiler-Tags gepackt. ;)
Amiga Workbench
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=35015&stc=1&d=1244760222

Atari TOS/GEM

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=35016&stc=1&d=1244760350

Also bitte nicht böse sein, wenn ich das Problem in die Kategorie "Prinzessin auf der Erbse" eingeordnet habe. ;)

(del)
2009-06-12, 01:26:03
Ein 2D GUI schert eine moderne GPU überhaupt nicht mehr, ganz im Gegenteil die Performance spielt dort wirklich gar keine Rolle mehr.Das stimmt. Deswegen saufen alle "HD" ATIs zB. mit Lightroom und Photoshop unter XP (auf wieviel % der Systeme daheim?) gnadenlos ab...

Was Schrift angeht sah sie auch auf nicht überfahrenen Masken glatter aus, weil die analoge Signalübertragung und die CRT-Technik an sich schon vom Haus aus eine leichte Unschärfe produzierte. Jedenfalls bei mehr als 800x600. Wenn man das noch mit 85hz über die Strippe jagte und es auch so dem Gehrin anbot, trug das noch zusätzlich dazu bei.

Das war so selbst auf HigEnd-Geräten die ein extra Menü für die Konvergenz hatten. Sowas hatte ich nämlich vor dem S1932.

Wegen ClearType.
Das macht Bitmap-Fonts momentan naturgetreuer als alle anderen Tricks. Meinem Empfinden nach ist die Darstellung damit am nähesten zu dem was man auf Papier mit einem Kuli "zieht".

Manche Leute haben echt Probleme. Den ganzen Desktop supersubsamplen... Die anderen freuen sich einen Keks, daß sie die GUI auf der GPU im Sparmodus rendern können und das System nur beim Zocken 300W aus der Steckdose zieht... :uup:

@aths
Immerhin finden über 77% der User Pixelsubsampling bei den Schriften für extrem wichtig (Link von Coda) ;)

nymand
2009-06-12, 14:11:42
Manche Leute haben echt Probleme. Den ganzen Desktop supersubsamplen... Die anderen freuen sich einen Keks, daß sie die GUI auf der GPU im Sparmodus rendern können und das System nur beim Zocken 300W aus der Steckdose zieht... :uup:


Wobei die Anzahl der Dreiecke durch das Supersampling nicht höher würde. Die zusätzliche Belastung der GK ist also kaum vorhanden. Von daher würde sich der Mehrverbrauch in Grenzen von 0 bis kaum halten. =)

aths
2009-06-12, 16:49:54
Wobei die Anzahl der Dreiecke durch das Supersampling nicht höher würde. Die zusätzliche Belastung der GK ist also kaum vorhanden. Von daher würde sich der Mehrverbrauch in Grenzen von 0 bis kaum halten. =)Der Speicherverbrauch steigt stark. Die benötigte Füllrate steigt. Downsampling ist dann auch noch erforderlich.

Coda
2009-06-12, 16:57:24
Wobei die Anzahl der Dreiecke durch das Supersampling nicht höher würde. Die zusätzliche Belastung der GK ist also kaum vorhanden. Von daher würde sich der Mehrverbrauch in Grenzen von 0 bis kaum halten. =)
Ach und die Auflösung ist natürlich egal für die Performance *facepalm*

Die Geometriearbeit limitiert schon seit langem fast nicht mehr.

nymand
2009-06-12, 17:30:00
Ach und die Auflösung ist natürlich egal für die Performance *facepalm*

Die Geometriearbeit limitiert schon seit langem fast nicht mehr.

also für die Standard Auflösungen eines 20" lcds sollte ne mainstream karte zumindest 2x Supersampling locker packen! Der GPU Takt sollte sich zumindest für solche Aktionen imho nicht auf 3D Takt höhen. Beim Ram sieht das natürlich anders aus, da habt ihr Recht.

Coda
2009-06-12, 17:56:05
Ach du meinst im "2D"-Betrieb. Da ist eigentlich wirklich nur der Speicher das Problem. Das zeichnen der Elemente geschieht eh primär auf der CPU.

Avalox
2009-06-12, 19:58:09
also für die Standard Auflösungen eines 20" lcds sollte ne mainstream karte zumindest 2x Supersampling locker packen! Der GPU Takt sollte sich zumindest für solche Aktionen imho nicht auf 3D Takt höhen. Beim Ram sieht das natürlich anders aus, da habt ihr Recht.

Ein Desktop wird nicht komplett und auch dort nicht mit hoher Wiederholungsrate gerendert, sondern eben nur bei Bedarf und dann eben der Teil der sich geändert hat. Es ist ein ganz anders Anwendungsprofil wie ein Spiel.
Selbst wenn eine Grafikkarte dort für Sekundenbruchteile 500W verbrauchen würde dieses trotzdem ein ganz anderes Szenerio sein, als ein Spiel in welchen die GPU ständig unter Volldampf ein Bild nach dem anderen rendert, dieses unter Zuhilfenahme aller internen Einheiten und wenn dann noch Rechenzeit übrig ist, rendert die Grafikkarte in Spielen durchaus schneller Bilder als der Monitor diese überhaupt anzeigen kann. Es ist ein ganz anders Anwendungsprofil und überhaupt nicht mit einem Desktop zu vergleichen.

The_Invisible
2009-06-12, 21:33:43
mein handy hat 640x360 auf 3,2", mein 24" tft mit 1920x1200 sieht bei direktem vergleich ja wirklich sehr grob aus, vor allem bei der schrift.

irgendwie scheinen wir aber bei den üblichen auflösungen zu hängen, oder gibts schon ausreißer nach oben? :D

mfg

Trap
2009-06-12, 22:38:30
irgendwie scheinen wir aber bei den üblichen auflösungen zu hängen, oder gibts schon ausreißer nach oben? :D
Gibt es: http://en.wikipedia.org/wiki/T221

Torsten Liebig
2009-06-13, 19:10:25
Für alle, die Mac-Mässiges Fontrendering unter XP/Vista probieren wollen:

http://drwatson.nobody.jp/gdi++/

GDI++ ersetzt den Schriftenrenderer von Vista mit Freetype, IIRC über einen Hack. Großartig zum Online-Lesen (lese SPON im Normalfall mit etwa 130% Textzoom) und möchte es nicht mehr missen. Auch beim Programmieren werden Schriften wie Courier oder Lucida Sans deutlich schöner dargestellt, sie wirken nicht mehr brüchig sondern sehr stabil. Einziger Nachteil: Symbolbezeichnungen auf den Desktop (8pt) wirken dadurch etwas verwaschener. Ansonsten immer eine Empfehlung wert!

Gast
2009-06-14, 12:51:06
Als erstes müssen die GUIs fit für sehr hohe Auflösungen gemacht werden (bzw. auflösungsunabhängig, wie schon erwähnt).

Dann muss man der Masse der Monitorkäufer klar machen, das ein Full-HD Monitor total Grotte ist. 1080 Zeilen sind für Monitore ein Rückschritt sondersgleichen (das gibts ja nun schon über 15Jahre selbst auf CRT's, was für'n jämmerlicher Fort-/Rückschritt). Dumm nur, die Dinger werden gekauft wie Heu.
Ich arbeite 3mal lieber an einem 1600x1200er 20"er als aufm 1920x1080 22".
Das einem Full-HD Käufer klar zu machen, ist äußerst schwierig und meist nur im direkten Vergleich mit ungläubigem Staunem zu vermittteln. Wer sich dann ärgert (und das tun die meisten, denen ich das gezeigt habe), der kommt dann wieder mit dem Argument, er könne ja Full-HD "richtig" auf seinem Monitor schauen, nur tut das eigentlich keiner... s.u. .

Wer schon mal mit 1920x1200 auf einem 15"er gearbeitet hat, der weiss wie toll so eine hohe Pixeldichte ist, vorrausgesetzt, er hat gute Augen.

Leider hängt die ganze Industrie an diesem vermasselten Full-HD Mist, als gäbs nix Besseres. Wer bitte schaut denn so oft BluRay oder HDTV auf nem Monitor? Ich kenne absolut niemanden, der das unbedingt brauch. TV schaut man aufm Fernseher, aber doch nicht aufm Monitor. Und wer das unbedingt brauch, der kann's doch auch auf einem "Über"-Full-HD machen, aber bitte nicht alle Monitorkäufer mit diesem Scheinargument auf Full-HD Monitore begrenzen wollen.