PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - AMD zeigt FreeSync auf der CES 2014


dildo4u
2014-01-06, 23:22:21
According to AMD, there’s been a push to bring variable refresh rate display panels to mobile for a while now in hopes of reducing power consumption (refreshing a display before new content is available wastes power, sort of the same reason we have panel self refresh displays). There’s apparently already a VESA standard for controlling VBLANK intervals. The GPU’s display engine needs to support it, as do the panel and display hardware itself. If all of the components support this spec however, then you can get what appears to be the equivalent of G-Sync without any extra hardware.

http://www.anandtech.com/show/7641/amd-demonstrates-freesync-free-gsync-alternative-at-ces-2014

samm
2014-01-06, 23:35:14
Haha, na wer sagt's denn, die gute Idee ist auch mit Standard-Komponenten definiert und umsetzbar ;) Allerdings:
AMD isn’t ready to productize this nor does it have a public go to market strategy, but my guess is we’ll see more panel vendors encouraged to include support for variable VBLANK and perhaps an eventual AMD driver update that enables control over this function.

dildo4u
2014-01-06, 23:37:43
Jup ohne Marketing Dollar wird das vermutlich kaum in Desktop TFT wandern,da Strom sparen dort relativ unwichtig ist.

Air Force One
2014-01-06, 23:38:33
Kann das jemand fix übersetzen bzw. das wichtigste?

Verstehe das leider nicht ganz und google spuckt nur müll raus.

N0Thing
2014-01-06, 23:43:59
Coole Sache. Hoffentlich ist das ganze in ein bis zwei Jahren Spruch- und Marktreif mit Angeboten seitens der Monitorhersteller und aller bis dahin erscheinenden Grafikkarten.

ndrs
2014-01-06, 23:46:44
Wenn jetzt eh die meisten Display-Hersteller anfangen ihre GSync-Implementierung zu bauen, wird es sicher kein großes Problem sein, nochmal kurz in den VESA-Standard zu schauen und die dafür notwendigen Sachen noch mit dranzuflanschen. Kann ja nicht so viel Elektronik sein, wohl eher ne Softwaregeschichte.
Ich glaube also eher nicht, dass wir viele GSync-Monitore sehen werden, die FreeSync nicht unterstützen. Das werden die ersten sein, die das fertige Modul von nVidia nutzen aber sicher nicht die, in die mehr eigene Manpower reingesteckt wird.

Ich frag mich nur, wieso AMD das nicht schon ne Woche nach der GSync-Präsi rausgehauen hat.

dildo4u
2014-01-06, 23:48:22
Ich frag mich nur, wieso AMD das nicht schon ne Woche nach der GSync-Präsi rausgehauen hat.
Treiber musste geproggt werden es ist klare Reaktion auf NV vermutlich hätte sich AMD wie immer ohne Druck kein Gedanken drum gemacht.

"AMD simply needed driver support for controlling VBLANK timing, which is present in the latest Catalyst drivers"

N0Thing
2014-01-06, 23:49:59
Vielleicht wollte man den Monitorherstellern nicht den schwarzen Peter zuschieben und da die eigenen Karten dieses Feature scheinbar auch noch nicht unterstützen, hätte man sich mit einer solchen Meldung keinen Gefallen getan.

samm
2014-01-06, 23:59:10
Kann das jemand fix übersetzen bzw. das wichtigste?

Verstehe das leider nicht ganz und google spuckt nur müll raus.Mal die Quotes von dildo4u und mir:

"Laut AMD gab es schon seit einiger Zeit Anstrengungen, Displays mit variabler Refreshrate in den Mobil-Sektor zu bringen, in der Hoffnung, Verlustleistung zu reduzieren (ein Display zu refreshen, bevor neuer Content verfügbar ist, verschwendet Strom, sozusagen der gleiche Grund, dass wir Panel Self Refresh Displays haben). Es gibt offenbar einen VESA-Standard, um VBLANK-Intervalle zu beeinflussen. Die Display-Engine der GPU muss das unterstützen, ebenso das Panel und die Bildschirm-Hardware selbst. Wenn alle Komponenten diesen Standard unterstützen, dann resultiert etwas, das wie das Äquivalent zu G-Sync ohne extra Hardware scheint."


"AMD ist noch nicht so weit, dies als Produkt zu vermarkten, noch hat es eine Strategie dafür, aber ich schätze mal, dass wir mehr Panel-Hersteller sehen werden, die ermutigt werden, variable VBLANK zu unterstützen und irgendwann ein Update der AMD-Treiber, das es erlaubt, diese Funktion zu kontrollieren."


Im restlichen Artikel steht, dass es bereits entsprechende Hardware gibt - AMD hat es auf einem kleinen Toshiba-NB gezeigt mit Kabini (Kaveri und aktuelle GPUs unterstützen es ebenso), und sie haben es bereits im Treiber, aber eben noch nicht für den User zur Verfügung.

Akkarin
2014-01-07, 00:13:51
If all of the components support this spec however

Bedeuted derzeitige oder zukünftige hardware ?

Air Force One
2014-01-07, 00:15:30
@samm:

Herzlichen dank! (y)



Klingt ja interessanter als nVidias Lösung.
Und im Gegensatz zu Mantle mal eine Demonstration :smile:

Rente
2014-01-07, 00:19:35
Wo klingt das interessanter? Das ist u.A. auch ein Feature von DP, es wird nur bisher nicht genutzt/implementiert bzw. die Panels/Display-Ansteuerung dafür nicht angepasst.

Es wäre zwar schön, ich glaube aber nicht das wir das in den nächsten 12 Monaten außerhalb von Tablets und Ultrabooks zu Gesicht bekommen.

€: Ich hab noch einmal nachgesehen, theoretisch geht das (variable Wiederholraten) mit DP schon seit Version 1.0 (ca. 2008), es wurde wohl bisher nur nicht implementiert.
€²: Self-Refresh geht wohl erst mit 1.3.

Screemer
2014-01-07, 00:26:36
interessant macht es die tatsache, dass einer der beiden/drei großen gpu-anbieter es implementiert. das standards nicht voll ausgeschöpft werden ist doch hinlänglich bekannt. ich finde es gut, dass bewegung in die sache kommt.

bin gespannt, wann sich die üblichen verdächtigen hierher verirren.

moBi
2014-01-07, 00:29:36
Bedeuted derzeitige oder zukünftige hardware ?
->
AMD’s display engines have supported variable VBLANK for a couple of generations, and that extends all the way down to APUs.

Ich interpretiere das so, dass schon seit Ewigkeiten die Hardware auf den AMD GPUs vorhanden ist, auf jeden Fall aber bei der jetzigen Generation. Fehlen anscheinend nur noch die passenden Monitore. :biggrin:

Akkarin
2014-01-07, 00:32:12
Habe mich eher auf die Monitore bezogen.

Gipsel
2014-01-07, 00:51:07
Habe doch gleich gesagt, daß das eigentlich nur kleine Änderungen an der Panelelektronik (für geringe Cent-Beträge, keine zig Euro wie NV's FPGA-Platine mit 'ner Menge RAM) erfordert und ansonsten nur eine halbwegs flexible Displayengine benötigt. Und bei mobilen Designs klappt es ja auch und ist sogar Teil der eDP-Spezifikation.
Irgendwie wird es immer unklarer, was nV's GSYNC-Platine überhaupt macht. :rolleyes:

aufkrawall
2014-01-07, 01:01:06
Und im Gegensatz zu Mantle mal eine Demonstration :smile:
im vid gibts nur fixe 30fps vs fixe 50 zu sehen. das kann ich dir auch demonstrieren. ;)

hoffe trotzdem mal, dass das gegenüber g-sync keine nachteile hat.

ndrs
2014-01-07, 01:06:13
Treiber musste geproggt werden
Wenn's mit Kabini schonmal gezeigt wurde kann das nicht der Grund sein.

Schaffe89
2014-01-07, 01:08:47
Damit kann Nvidia Gsync der Katze in den Scheitel schmieren zumal man extra Kosten von 192 US Dollar hat und Monitore teurer sind.
Jetzt greifen wieder alle Vorraussagen von denen die meinten G-sync sei eine Werbeaktion und hab keine Zukunft und die Fanboys wollten das wieder nicht sehen.

Habe doch gleich gesagt, daß das eigentlich nur kleine Änderungen an der Panelelektronik (für geringe Cent-Beträge, keine zig Euro wie NV's FPGA-Platine mit 'ner Menge RAM) erfordert und ansonsten nur eine halbwegs flexible Displayengine benötigt.

Kann mich noch gut an die Beiträge erinnern.

hoffe trotzdem mal, dass das gegenüber g-sync keine nachteile hat.

Ja absolut, denn immerhin ist es eine freie Lösung, aber das muss man natürlich erst einem Test unterziehen.
Ich frage mich trotzdem auch, was die Nvidia G-sync Platine da so alles macht und vor allem warum die so groß ausfallen muss. Kapier ich nich.

Hübie
2014-01-07, 01:13:24
Irgendwie wird es immer unklarer, was nV's GSYNC-Platine überhaupt macht. :rolleyes:

[x]Dir Geld aus der Tasche ziehen
[x]Energie verballern
[x]Das Gefühl geben etwas getan zu haben

;D SCNR

Schaffe89
2014-01-07, 01:20:23
Klasse @ Hübie, hätte ich gar nicht erwartet.^^

Skysnake
2014-01-07, 01:45:35
Wenn jetzt eh die meisten Display-Hersteller anfangen ihre GSync-Implementierung zu bauen, wird es sicher kein großes Problem sein, nochmal kurz in den VESA-Standard zu schauen und die dafür notwendigen Sachen noch mit dranzuflanschen. Kann ja nicht so viel Elektronik sein, wohl eher ne Softwaregeschichte.
Ich glaube also eher nicht, dass wir viele GSync-Monitore sehen werden, die FreeSync nicht unterstützen. Das werden die ersten sein, die das fertige Modul von nVidia nutzen aber sicher nicht die, in die mehr eigene Manpower reingesteckt wird.

Na ganz einfach, das kostet Geld, und wenn man das allein macht, stänkert die Industrie am Ende nur dran rum und man sitzt auf seinen Entwicklungskosten rum. Gerade bei dem Preisdruck der existiert, versucht sich keiner wirklich mehr als unbedingt nötig zu bewegen. Ist irgendwo auch verständlich. Gerade die Displayhersteller schauen nicht gerade in eine rosige Zukunft. ICh sag nur z.B. Loewe.


Ich frag mich nur, wieso AMD das nicht schon ne Woche nach der GSync-Präsi rausgehauen hat.
Weil Sie das halt auch erstmal umsetzen müssen, und dann richtig ans laufen bekommen müssen? Darf ja bei der Demo auch nicht abstürzen. Ich denke du erinnerst dich an das abstürzende Windows bei ner Presentation von M$. Das ist nen Imagekiller, und AMD kann das aktuell nicht gebrauchen. Der ihr Image ist eh noch immer viel zu schlecht.

Ansonstne ist die CES auch nen richtig fieser Zeitpunkt um das zu zeigen. Man konnte wohl davon ausgehen, das Huang wieder G-Sync groß rumzeigt, und genau so ist es auch gekommen. Für nVidia ist das jetzt schon nen ziemlich heftiger Schlag ins Genick. Vor allem weil das jetzt auch noch so kurz nach einer extrem ernüchternden nVidia Presi gekommen ist. Das Inet hat die eh schon "zerrissen". Wart mal ab, was kommt, wenn FreeSync auf die breitere Medienlandschaft trifft. Ich will gerade nicht bei nVidia in einer verantwortungsvollen Posi sein. Huang wird wohl toben.

Habe doch gleich gesagt, daß das eigentlich nur kleine Änderungen an der Panelelektronik (für geringe Cent-Beträge, keine zig Euro wie NV's FPGA-Platine mit 'ner Menge RAM) erfordert und ansonsten nur eine halbwegs flexible Displayengine benötigt. Und bei mobilen Designs klappt es ja auch und ist sogar Teil der eDP-Spezifikation.
Irgendwie wird es immer unklarer, was nV's GSYNC-Platine überhaupt macht. :rolleyes:
/sign einfach nur absolut /sign.

Ich hab auch absolut keine Ahnung, was die da verbrechen. Das mit dem VESA Standard bzw halt eDP war mir jetzt nicht klar, aber allein dass das mit recht wenig Hardwareaufwand realisierbar sein sollte war selbst mir klar.

Ich bin jetzt mal echt gespannt, wie nVidia darauf reagiert. G-Sync ganz schnell in der Versenkung verschwinden lassen, bockiges Kind, oder Schlammschlacht.

Ich hoffe auf ersteres und ne Zusammenarbeit bei FreeSync.

ASUS usw werden aber wohl nen ziemlichen koller gerade gegen nVidia schieben.

@Schaffe89:
Doch durchaus. Hübie hat zwar manchmal auch so seine Phasen, man er ist durchaus einsichtig und man kann mit ihm doch meist reden und von etwas überzeugen.

Er hat halt seine Meinung, und das ist auch sein Recht. Ich hab auch teils meine halt eigene Sichtweise aus gewissen Gründen. Mit mir kann man aber auch reden, auch wenns teils anstrengend ist, mich von was zu überzeugen :tongue:

Hübie
2014-01-07, 02:23:27
Ich weiß nicht was ihr habt. Wenn nVidia scheiße macht find ich es genau so beschissen wie jeder andere. Anfangs dachte ich G-Sync wäre ein richtig großer Schritt aber dann hab ich n bissl gelesen, Gipsel Ausführungen studiert, ein sneak peak (Danke Ryan :up:) angeschaut und festgestellt dass es n Furz in einer Windrose ist.
Wenns net viel kostet wäre es n nettes Feature aber mehr auch nicht. Unabhängig davon finde ich den neu angekündigten ASUS-Monitor dennoch sehr geil (8 bit, IPS & 120 Hz) :ulove:

Akkarin
2014-01-07, 02:27:22
Afaik ist doch gar nicht bekannt welches Panel benutzt wird ? TN ist doch deutlich wahrscheinlicher als IPS aufgrund der Reaktionszeit und Frequenz. Für IPS spricht nur das es bisher keine 1440p TNs gab. Aber ein neues 1440p TN panel ist wohl weitaus wahrscheinlicher als ein 1ms 120Hz IPS.

uweskw
2014-01-07, 02:38:38
Irgendwie wird es immer unklarer, was nV's GSYNC-Platine überhaupt macht. :rolleyes:

NVIDIA. Law and Order. NSA lässt grüssen.
Und wir Zocker-Freaks sind nun mal die Meinungsbilder für eine ganze Industrie.:smile:


Schade dass es NULL und NIX über Linux gab, dafür leider um so mehr wg. Microsoft. Aber Project Spark ist vielversprechend. Da könnte eine ganz neue Szene entstehen.

Greetz
U.S.

HarryHirsch
2014-01-07, 03:00:58
Am besten find ich ja das Free.
Jetzt wo sogar die Linuxtreiber laufen, abgesehen davon das man mit dem neuen SDK keine Samples kompilieren kann, war ATI nie freier als jetzt.

Dawn on Titan
2014-01-07, 06:55:01
G-Sync is dead. Man muss als Monitorhersteller ganz schön dämlich sein die teure NV-Platine einzubauen, wenn es auch einige Cent-Änderungen tun. Und wieder zeigt sich AMD -> Lösungen für alle, NV -> proprietärer überteuerter Quatsch.

StefanV
2014-01-07, 07:05:01
Die Ironie an der Geschichte: Wenn nV das für alle offen realisiert hätte, hätten sie u.U. Lizenzgebühren bekommen können, so gehen sie aber leer aus.

Hübie
2014-01-07, 09:53:45
Ich verstehe nicht warum ein GPU-Hersteller die Hausaufgaben eines Displayherstellers machen muss. Und vor allem so ein Riesenladen wie ASUS denen es sicher nicht an Kohle für R&D mangelt *hust*
@Akkarin: Wenn dem so ist, ist der für mich schon gestorben bevor er geboren wurde.

Ailuros
2014-01-07, 10:14:05
Ich verstehe nicht warum ein GPU-Hersteller die Hausaufgaben eines Displayherstellers machen muss. Und vor allem so ein Riesenladen wie ASUS denen es sicher nicht an Kohle für R&D mangelt *hust*
@Akkarin: Wenn dem so ist, ist der für mich schon gestorben bevor er geboren wurde.

Das erste hab ich von Anfang an notiert. Es haetten die Display-Hersteller dafuer sorgen muessen und nicht die GPU IHVs und das sogar vor langem.

Ich behalte noch ein Stueck Vorbehalte denn es klingt mir schon ziemlich uebertrieben dass NV sooo unverschaemt heutzutage mit vsync kassieren wollte, nur fuer den Fall wo wir irgend etwas verpasst haben.

Rente
2014-01-07, 10:17:27
Das erste hab ich von Anfang an notiert. Es haetten die Display-Hersteller dafuer sorgen muessen und nicht die GPU IHVs und das sogar vor langem.

Ich behalte noch ein Stueck Vorbehalte denn es klingt mir schon ziemlich uebertrieben dass NV sooo unverschaemt heutzutage mit vsync kassieren wollte, nur fuer den Fall wo wir irgend etwas verpasst haben.
Sehe ich ziemlich genauso, darüber hinaus halte ich es für unwahrscheinlich das FreeSync und G-Sync komplett identisch sind, so unverschämt wäre wohl nicht mal nVidia.

@Hübie
Ist ein 120Hz-TN, ist mittlerweile bestätigt.

M4xw0lf
2014-01-07, 10:19:13
Vielleicht ist der Chip auf dem Gsync-Modul etwas völlig anderes und hat nichts mit der Synchronisierung zu tun (oder das ist nur seine kleinste Funktion)... Ich denke an Spiele-Streaming, Nvidias anderes Steckenpferd.

Timbaloo
2014-01-07, 10:19:18
Wie auch immer, top dass da Energie ins System kommt.

Ailuros
2014-01-07, 10:22:50
Vielleicht ist der Chip auf dem Gsync-Modul etwas völlig anderes und hat nichts mit der Synchronisierung zu tun (oder das ist nur seine kleinste Funktion)... Ich denke an Spiele-Streaming, Nvidias anderes Steckenpferd.

Ja nur liegt dass eigentliche Problem genau bei der Synchronisierung und eben dass auf LCD panels es zu Schwankungen kommt. Gsync waere afaik z.B. total ueberfluessig auf einem OLED panel weil es dort das gleiche Problem nicht gibt.

Wie auch immer, top dass da Energie ins System kommt.

Sagen wir mal es wird komplizierter, denn wir haben jetzt mal wieder ein nettes gsync vs. freesync Debakel...

ndrs
2014-01-07, 10:42:24
Na ganz einfach, das kostet Geld, und wenn man das allein macht, stänkert die Industrie am Ende nur dran rum und man sitzt auf seinen Entwicklungskosten rum. Gerade bei dem Preisdruck der existiert, versucht sich keiner wirklich mehr als unbedingt nötig zu bewegen. Ist irgendwo auch verständlich. Gerade die Displayhersteller schauen nicht gerade in eine rosige Zukunft. ICh sag nur z.B. Loewe.

Ich bin bei meiner Ausführung einfach davon ausgegangen, dass das FPGA-Modul eh nur was für den Marktstart ist und für Stückzahlen dann was ordentliches kommt. Und da noch was in die Firmware zu integrieren, was GSync zu FreeSync (oder umgekehrt) wandelt bevor man das in die Elektronik schickt, kann ja nicht das Problem sein.
Es sei denn natürlich nV entwickelt weiterhin alles komplett ohne dass die Display-Hersteller was dran tun. In dem Fall hast du natürlich Recht. Allerdings gäbe es dann kaum noch Punkte mit denen sich letztere voneinander differenzieren könnten. Einheitsdisplays mit Einheitselektronik im tollen individuellen Designgehäuse? Ich glaube nicht.

Aufjedenfall eine sehr interessante Entwicklung. Man kann gespannt sein.

Weil Sie das halt auch erstmal umsetzen müssen, und dann richtig ans laufen bekommen müssen? Darf ja bei der Demo auch nicht abstürzen. Ich denke du erinnerst dich an das abstürzende Windows bei ner Presentation von M$. Das ist nen Imagekiller, und AMD kann das aktuell nicht gebrauchen. Der ihr Image ist eh noch immer viel zu schlecht.

Ansonstne ist die CES auch nen richtig fieser Zeitpunkt um das zu zeigen.
Das kannst du natürlich nur so stehen lassen, wenn sie es bis jetzt umgesetzt haben und noch auf der CES vorführen. Ich bin gespannt aber bisher klang es nicht so. Und wenn es nur eine Ankündigung sein soll, hätten sie es tatsächlich auch gleich machen können. Whatever.

moBi
2014-01-07, 10:53:36
Evtl. unterstützen die nVidia GPUs schlicht den speziellen, im VESA Standard festgelegten Befehl nicht und deswegen der Aufwand?

Skysnake
2014-01-07, 11:08:27
Das kannst du natürlich nur so stehen lassen, wenn sie es bis jetzt umgesetzt haben und noch auf der CES vorführen. Ich bin gespannt aber bisher klang es nicht so. Und wenn es nur eine Ankündigung sein soll, hätten sie es tatsächlich auch gleich machen können. Whatever.
Und dann wären die nVidianer aus ihren Löchern gekrochen und hätten wieder direkt was von wegen Papiertiger, und braucht bei AMD dann tausend Jahre bis es wirklich kommt usw. abgelassen. Das passiert doch selbst jetzt, wo Sie zumindest mal ne Demo haben.

AMD hatte mit GSync nicht DEN Druck unmittelbar zu handeln. Es gibt ja faktisch noch nichts zu kaufen, bzw es haut halt noch nicht rein.

Und wenn Sie es eben jetzt machen, dann kann nVidia nicht mehr zurückrudern. GSync ist überall drauf abgeruckt usw. Das könnte sich zu nem ziemlichen PR-Desaster für nVidia noch auswachsen.

@moBi:
Kann sein, wobei ich da nicht so recht dran glaube.

Ich hab darüber auch noch etwas anchgedacht, und es ist vielleicht noch abwägiger als das mit dem Fehlen der Unterstützung in der GPU, aber wenn ich mir den FPGA-Preis so anschaue, dann muss ich einfach schlucken.

nVidia könnte eventuell auch den FPGA drauf geknallt haben, der macht aber im Prinzip nichts/nicht viel, außer Täuschen und Tarnen. Die Displayhersteller hätten keine Zusatzkosten, aber nVidia hätte mal wieder was "exklusives" mit dem Sie dick auf die Kacke hauen können.

Und die Displayhersteller stopfen sich die Taschen voll...

Ich weiß, das klingt jetzt total abgedreht, aber irgendwie passt es auch irgendwie wie die Faust aufs Auge. Ich bin da total innerlich zerrissen, ob ich das jetzt glauben soll oder nicht. Ich komm mir da irgendwie wie ein Aluhütler vor :freak:

Es müsste halt mal wirklich jemand sich den FPGA mit seiner Programmierung anschauen.

Sunrise
2014-01-07, 11:11:47
Vielleicht ist der Chip auf dem Gsync-Modul etwas völlig anderes und hat nichts mit der Synchronisierung zu tun (oder das ist nur seine kleinste Funktion)... Ich denke an Spiele-Streaming, Nvidias anderes Steckenpferd.
Wurde schön öfter angesprochen, dass der FPGA den kompletten Scaler ersetzt und dort nicht nur rein G-Sync möglich ist. Theoretisch kann NV da einiges reinpacken und anpassen und deshalb ist es auch viel zu früh, da vom aktuellen Stand irgendwas zu sagen, außer: Sehr gut, dass man sich offiziell jetzt auch mal Gedanken um Probleme macht, die mal wieder von NV losgetreten wurden, gleich welcher Hintergedanke da vorherrscht. Und logisch will NV Geld verdienen.

Es müsste halt mal wirklich jemand sich den FPGA mit seiner Programmierung anschauen.
Und bevor wir nicht mehr wissen, sollten wir einfach mal den Ball flach halten. NV wird sich durch die Free-Sync-Ankündigung sicher genötigt fühlen, da hoffentlich mehr Details an die Öffentlichkeit zu geben. Ich spekuliere ja auch gerne und traue KEINEM der mir irgendwas erzählt, vor allem nicht dem Marketing. Was aber Sache ist, ist zu warten, bis mal auch verfügbare Lösungen wirklich getestet werden und NV auch etwas Zeit zu geben. Sie haben schließlich das Gespräch mit den Monitorherstellern initiieren müssen, sie mussten das erst in die Welt raustragen und jetzt, wo es plötzlich Gegenwind gibt, rechne ich das NV sehr hoch an.

Mir persönlich ist es aber egal, ich suche immer die für mich passende Lösung und Konkurrenz kann da nur gut sein, auch wenn es erstmal nur auf dem Papier der Öffentlichkeit erzählt wird und da ein paar (naja) Demos präsentiert wurden.

Deinorius
2014-01-07, 11:12:23
@moBi
Wenn dem so wäre, müsste man sich aber fragen, wieso es AMD seit Generationen gebacken bekommen hat, das zu implementieren, während nvidia rumschläft.

Gipsel
2014-01-07, 11:30:32
Wurde schön öfter angesprochen, dass der FPGA den kompletten Scaler ersetzt und dort nicht nur rein G-Sync möglich ist. Theoretisch kann NV da einiges reinpacken und anpassenDas Problem an der Idee ist, daß sehr viele Dinge panelspezifisch sind, die also für jedes Panel optimalerweise etwas anders angepaßt werden. Deswegen ist der beste Ort für den ganzen Kram eigentlich die Treiberelektronik für das Panel, die vom Panelhersteller selber kommt (weil die vom Panelhersteller natürlich auf das Panel abgestimmt wird). Die haben da doch sowieso praktisch schon alles nötige drin. Warum das nochmal absolut kostenineffizient mit einem FPGA duplizieren?

Hugo78
2014-01-07, 11:35:14
FreeSync ist ein netter PR Gag.
Dynamisches hoch- und runtertakten ist in dem Video nicht zusehen, nur runtergetaktetes aber statisches V-Sync.

Sunrise
2014-01-07, 12:02:44
Das Problem an der Idee ist, daß sehr viele Dinge panelspezifisch sind, die also für jedes Panel optimalerweise etwas anders angepaßt werden. Deswegen ist der beste Ort für den ganzen Kram eigentlich die Treiberelektronik für das Panel, die vom Panelhersteller selber kommt (weil die vom Panelhersteller natürlich auf das Panel abgestimmt wird). Die haben da doch sowieso praktisch schon alles nötige drin. Warum das nochmal absolut kostenineffizient mit einem FPGA duplizieren?
Weil die vorhandene Elektronik dafür evtl. nicht ausreicht. Zumindest nicht für das, was NV da im Sinn hat. Das kann man aber aktuell nur vermuten. Und wenn das so ist, dann müsste der Display-Hersteller auch eigene Anpassungen fahren, was NV eben damit umgangen hat, weil es viel flexibler ist.

Der Ansatzpunkt des FPGAs ist ja genau der, eine problemlose Anpassung auf mehrere Panels und die Kontrolle, die NV über das Teil hat (Treiber, Firmware) zusammen mit dem Display-Hersteller. Das PCB, auf dem das Modul eingesteckt wird, wird custom für den jeweiligen Monitor angepasst werden müssen, aber das Modul selbst sollte so flexibel sein, dass man es überall integrieren kann. Man geht wohl aktuell einfach auf Nummer sicher und schießt da evtl. mit Kanonen auf Spatzen in der ersten Version. Aktuell soll ja auch nur LVDS gehen.

Du tauschst bei dem Wechsel auf das G-Sync-Board beim ASUS auch alles komplett aus, hast du dir mal das DIY-Kit angeschaut? Klar, evtl. wäre das sicher auch so möglich, was du schreibst, aber damit NV das qualifizieren kann, müssen sie ihre secret sauce ja mit der Ansteuerung koppeln, sodass beides optimal zusammenarbeitet. Und NV will ja ein perfektes Ergebnis haben, sodass G-Sync auch einwandfrei funktioniert. Und genau das macht das Modul. Und alles was zusätzlich kommt, macht auch das Modul.

Es ist eben der umgekehrte Weg, weil das Signal ja von der Grafikkarte kommt. Das Display ist ja im Prinzip dumm, weshalb sich NV wohl auch dieser Sache angenommen hat und nicht umgekehrt. Zudem, wenn da wirklich irgendwie SLi involviert ist, wird NV das nicht einfach so aus der Hand geben.

StefanV
2014-01-07, 12:21:06
@Sunrise
Sorry, aber gehörst du zu nVidias Marketing Abteilung?!

Ich würd an deiner Stelle eher erst einmal abwarten wollen, wie sich das ganze entwickelt, bevor du dich allzu sehr aus dem Fenster schmeißt...

@moBi
Wenn dem so wäre, müsste man sich aber fragen, wieso es AMD seit Generationen gebacken bekommen hat, das zu implementieren, während nvidia rumschläft.
Weil AMD von den '2D Features' eigentlich immer vor nVidia war und nVidia das dann irgendwann wieder aufholt...

Aber siehe z.B. bei den Displays, da hat AMD mit der 5000 Serie drei Schirme geboten, was dann bei der 7000er Serie auf 6 angehoben wurde...
Und das ist eigentlich bei so ziemlich allen sinnvollen Features so gewesen.
Auch bietet AMD momentan D3D11.2, nVidia hängt seit Jahrhunderten auf D3D11.0 Level fest...

Timbaloo
2014-01-07, 12:26:46
Sagen wir mal es wird komplizierter, denn wir haben jetzt mal wieder ein nettes gsync vs. freesync Debakel...
Ich habe die Hoffnung, dass die Display-Hersteller spätestens durch den 2. Knall aufwachen. Ich glaube nicht, dass die Bock haben 2 Unterschiedliche Implementierungen/Ansätze auf Dauer zu verfolgen.

Skysnake
2014-01-07, 12:27:33
Btw nur zur Info, durch ein kaputtes Shopsystem, konnte ich den FPGA nicht direkt finden, ich bin dann aber durch Zufall als ich eigentlich nach der DIE-size geschaut habe über den Chip gestolpert....

Er kostet auch "nur" noch 635,54€. (http://de.mouser.com/ProductDetail/Altera-Corporation/5AGXMA3D4F31I3N/?qs=sGAEpiMZZMsWE4XtJSx%252bsfXAlOnd8f6tTyRJOBH6yVE%3d) Das ist jetzt auch wirklich exakt der Chip den nVidia verwendet.

Sunrise
2014-01-07, 12:28:47
@Sunrise
Sorry, aber gehörst du zu nVidias Marketing Abteilung?!

Ich würd an deiner Stelle eher erst einmal abwarten wollen, wie sich das ganze entwickelt, bevor du dich allzu sehr aus dem Fenster schmeißt...
Wenn du mal nicht nur den einen Post richtig lesen würdest, steht da drin, dass ich das vermute, das ist hier ein Spekulationsforum und wird sachlich von Leuten geführt, die ihre Vermutungen auch begründen können.

Im Gegensatz zu manch anderem. Gell?

N0Thing
2014-01-07, 13:36:32
Btw nur zur Info, durch ein kaputtes Shopsystem, konnte ich den FPGA nicht direkt finden, ich bin dann aber durch Zufall als ich eigentlich nach der DIE-size geschaut habe über den Chip gestolpert....

Er kostet auch "nur" noch 635,54€. (http://de.mouser.com/ProductDetail/Altera-Corporation/5AGXMA3D4F31I3N/?qs=sGAEpiMZZMsWE4XtJSx%252bsfXAlOnd8f6tTyRJOBH6yVE%3d) Das ist jetzt auch wirklich exakt der Chip den nVidia verwendet.

Ich kann mir gut vorstellen, daß Nvidia nicht über einen Endkundenhändler, der bei einem Zwischenhändler, der beim Hersteller einkauft ihre Chips besorgt, sondern daß sie sich direkt an Altera wenden. ;)

Atlan78
2014-01-07, 13:39:30
Btw nur zur Info, durch ein kaputtes Shopsystem, konnte ich den FPGA nicht direkt finden, ich bin dann aber durch Zufall als ich eigentlich nach der DIE-size geschaut habe über den Chip gestolpert....

Er kostet auch "nur" noch 635,54€. (http://de.mouser.com/ProductDetail/Altera-Corporation/5AGXMA3D4F31I3N/?qs=sGAEpiMZZMsWE4XtJSx%252bsfXAlOnd8f6tTyRJOBH6yVE%3d) Das ist jetzt auch wirklich exakt der Chip den nVidia verwendet.

€ 635,54 ist der Preis für 3 Stück

Ailuros
2014-01-07, 13:39:59
Ich habe die Hoffnung, dass die Display-Hersteller spätestens durch den 2. Knall aufwachen. Ich glaube nicht, dass die Bock haben 2 Unterschiedliche Implementierungen/Ansätze auf Dauer zu verfolgen.

Ja aber wieso sie erst aufwachen muessen bis es so weit kommt ist die Frage. Falls sich das meiste tatsaechlich durch etwas gegenseitige triviale sw loesen laesst ist es eine Blamage generell.

Ailuros
2014-01-07, 13:43:33
@Sunrise
Sorry, aber gehörst du zu nVidias Marketing Abteilung?!

Es stand nichts in seinem Post der eine solche Reaktion deinerseits gerechtfertigt. Da Du alles andere als objektiv bist und Dir die Trollerei so langsam angewoehnt hast ist das hier eine Vorwarnung wenn sich der Trend wiederholen sollte.

Mir ist jedermans Meinung wurscht; so bald es ohne Grund ploetzlich persoenlich wird werd ich verdammt allergisch.

Skysnake
2014-01-07, 13:52:34
€ 635,54 ist der Preis für 3 Stück
Nein, das ist der Preis für einen.... Leg mal nen Chip in den Einkaufkorb und geh zur Kasse. Oder für wie beschränkt hälste mich...

Ich sag doch, dass das Shopsystem/die Seite beschissen ist...

Knuddelbearli
2014-01-07, 14:17:35
Treiber musste geproggt werden es ist klare Reaktion auf NV vermutlich hätte sich AMD wie immer ohne Druck kein Gedanken drum gemacht.

"AMD simply needed driver support for controlling VBLANK timing, which is present in the latest Catalyst drivers"


Und vielleicht hätte NV GSynch nicht gebracht wenn AMD nicht so massiv bei CF aufgeholt hätte. Da beißt sich die Katze eben in den Schwanz.

Gipsel
2014-01-07, 14:37:49
Weil die vorhandene Elektronik dafür evtl. nicht ausreicht. Zumindest nicht für das, was NV da im Sinn hat. Das kann man aber aktuell nur vermuten.Dann vermute mal, was das sein könnte!
Bei mobilen Displays ist das ja immer öfter bereits integriert. Und die geben bestimmt nicht viel aus, um ein Panel für irgendein billiges Pad (oder das Panel in dem lowcost Notebook, womit AMD das demonstriert hat) dafür fit zu machen.
Wie gesagt, die Panels halten ihre Werte sowieso von ganz alleine, man muß lediglich der Treiberelektronik beibringen, daß der Refreshabstand dynamisch (für jeden Frame einzeln) variieren kann (variabel ist es im Prinzip ja schon immer). Das ist echt kein großer Aufwand, wenn überhaupt einer. Und was brauchst Du dann noch mehr, außer daß das Panel die entsprechenden im DP-Datenstrom eingebetteten Signale verstehen muß und die entsprechenden Parameter (minimaler und maximale Refreshrate) an die GPU bzw. dessen Treiber liefern muß, etwas, was heute ja auch schon passiert (EDID, man benötigt nur ein zusätzliches Bit, um Support für dynamische Refreshraten zu signalisieren)?
Und wenn das so ist, dann müsste der Display-Hersteller auch eigene Anpassungen fahren, was NV eben damit umgangen hat, weil es viel flexibler ist.Die Panel-Elektronik ist immer auf das Panel abgestimmt, auch jetzt schon. NVidia kann da gar nichts umgehen, sie müssen es im Prinzip für jedes Panel duplizieren. => wenig sinnvoll.
Der Ansatzpunkt des FPGAs ist ja genau der, eine problemlose Anpassung auf mehrere Panels und die Kontrolle, die NV über das Teil hat (Treiber, Firmware) zusammen mit dem Display-Hersteller. Das PCB, auf dem das Modul eingesteckt wird, wird custom für den jeweiligen Monitor angepasst werden müssen, aber das Modul selbst sollte so flexibel sein, dass man es überall integrieren kann.Ist absolut unnötig in meinen Augen. Was soll das bringen?
Du tauschst bei dem Wechsel auf das G-Sync-Board beim ASUS auch alles komplett aus, hast du dir mal das DIY-Kit angeschaut? Klar, evtl. wäre das sicher auch so möglich, was du schreibst, aber damit NV das qualifizieren kann, müssen sie ihre secret sauce ja mit der Ansteuerung koppeln, sodass beides optimal zusammenarbeitet. Und NV will ja ein perfektes Ergebnis haben, sodass G-Sync auch einwandfrei funktioniert. Und genau das macht das Modul. Und alles was zusätzlich kommt, macht auch das Modul.Der Ansatz ist gelinde gesagt Bullshit. Hätte ich da was im Engineering zu sagen, wäre diese Art der Umsetzung sofort im Mülleimer verschwunden.
Es ist eben der umgekehrte Weg, weil das Signal ja von der Grafikkarte kommt. Das Display ist ja im Prinzip dumm, weshalb sich NV wohl auch dieser Sache angenommen hat und nicht umgekehrt. Zudem, wenn da wirklich irgendwie SLi involviert ist, wird NV das nicht einfach so aus der Hand geben.Daß mit dem SLI ist doch nur eine Verdummung der Leute. Was soll das damit zu schaffen haben?
Die Sache ist doch die, daß das Display ruhig recht dumm sein kann, es refresht halt immer nur, wenn ein neues Frame fertig ist. Was muß man denn dafür viel Aufwand treiben, wenn die GPU auch immer nur eins sendet, wenn eins fertig geworden ist (oder die maximale Zeit ohne Refresh für das Panel erreicht ist, das kann das Panel ja einfach bei EDID an die GPU melden). Man benötigt einfach keine aufwendige Logik dafür und erst recht keine 768MB RAM im Monitor. :freak:
€ 635,54 ist der Preis für 3 StückNein. Drei Stück ist die Minimum Order und der Preis ab 3 Stück beträgt 635,54€ pro Stück. Schau Dir mal z.B. bei Conrad an, wie Staffelpreise funktionieren. ;)

M4xw0lf
2014-01-07, 14:42:30
Man benötigt einfach keine aufwendige Logik dafür und erst recht keine 768MB RAM im Monitor. :freak:
Also Streaming ^^. Vielleicht streamt auch der Monitor seinen Inhalt woanders hin - live an die NSA :upara:

Skysnake
2014-01-07, 14:46:26
D
Der Ansatz ist gelinde gesagt Bullshit. Hätte ich da was im Engineering zu sagen, wäre diese Art der Umsetzung sofort im Mülleimer verschwunden.
Daß mit dem SLI ist doch nur eine Verdummung der Leute. Was soll das damit zu schaffen haben?

Vor allem, haste mal die "Umbauanleitung" bei PCPer dir angeschaut? Die müssen nicht nur das Gehäuse öffnen, sondern auch das EMI-shield entfernen, unter dem nicht nur die Elektronik sondern auch das 230V!-Netzteil sitzt. Da besteht LEBENSGEFAHR! Wie man nur auf die behinderte Idee kommen kann, sowas auf den Markt zu bringen...

Die haben den Schuss doch echt nicht gehört. Da muss nur einem was in den USA passieren, und die zahlen ihren nächsten Jahresgewinn an den...

Sowas ist total verantwortungslos :down:

Sorry, aber da bekomm ich nen Hals, da wird mit dem Leben von Menschen gespielt... Und gerade jüngere, die gar nicht die Gefahr abschätzen können werden auch noch zu so nem Mist animiert...

mboeller
2014-01-07, 15:35:50
Nein, das ist der Preis für einen.... Leg mal nen Chip in den Einkaufkorb und geh zur Kasse. Oder für wie beschränkt hälste mich...

Ich sag doch, dass das Shopsystem/die Seite beschissen ist...

Schaut wirklich seltsam aus. Hab mal 4 eingegeben (3 ist die minimale Bestellmenge). Preis: 2542,- Euronen.

Skysnake
2014-01-07, 15:48:36
Ja, der "Designer" gehört für so ne Seite geschlagen... Selten so nen schlechtes Shopsystem gesehen, aber was willste machen.

Sunrise
2014-01-07, 16:29:49
Die Panel-Elektronik ist immer auf das Panel abgestimmt, auch jetzt schon. NVidia kann da gar nichts umgehen, sie müssen es im Prinzip für jedes Panel duplizieren. => wenig sinnvoll.
Doch, sie umgehen damit etwas. Wie willst du denn einen bereits fertig produzierten Monitor für G-Sync fit machen, wenn das nicht vorgesehen war? Dafür ist das Modul bzw. das DIY-Kit doch da, dass du seit etlichen Beiträgen komplett in Frage stellst, was für mich absolut garkeinen Sinn ergibt. Ich unterstütze da sämtliche technischen Ausführungen von dir, aber nur insoweit, bis es um Dinge geht, die wir eben NICHT wissen.

Und genau darum geht es mir, um das Modul, nicht um die Art und Weise, wie es evtl. anderes technisch und praktisch funktionieren könnte.

...Die Sache ist doch die, daß das Display ruhig recht dumm sein kann, es refresht halt immer nur, wenn ein neues Frame fertig ist. Was muß man denn dafür viel Aufwand treiben, wenn die GPU auch immer nur eins sendet, wenn eins fertig geworden ist (oder die maximale Zeit ohne Refresh für das Panel erreicht ist, das kann das Panel ja einfach bei EDID an die GPU melden). Man benötigt einfach keine aufwendige Logik dafür und erst recht keine 768MB RAM im Monitor. :freak:
Nochmal:

Dass es technisch anders funktionieren kann, daran rüttelt doch keiner. Ich will dir nun aber begreiflich machen, dass NV diesen Weg genommen hat, weil du nunmal mit einem FPGA, bzw. dem Modul erstmal auf einem Prototypen-Level anfängst und das Ganze zusammen mit ASUS zum Funktionieren gebracht wurde, mit dem Hintergedanken, dieses Modul für die DIY-Kits auch in Zukunft zu verwenden, weil die Dinger eigentlich nur noch spezifischen Panel-Paramteren der anderen Displays mit LVDS-Interface gefüttert werden müssen. Zumindest solange, bis es auch kaufbare (ASIC) Lösungen gibt. Dann ist dieses Thema nämlich wahrscheinlich auch gegessen.

Es ist doch schon längst kalter Kaffee (siehe anderer Thread), dass wir alle wissen (vermuten?), dass NV mit diesem riesigen Modul wohl mit Kanonen auf Spatzen schießt. Das ist aber kein Serienprodukt von etlichen Millionen Einheiten, sondern erstmal eine Erstversion, die NV hier in den Verkauf geht und das ist zeitkritisch. Alles weitere klärt sich dann, wenn wir sehen, was wirklich davon noch in den finalen Monitoren davon übrig bleibt. Nur soweit sind wir noch nicht, das dauert.

Wir wissen alle nicht (auch du nicht!) welche Pläne NV mit G-Sync noch hat.

Gipsel
2014-01-07, 16:39:09
Doch, sie umgehen damit etwas. Wie willst du denn einen bereits fertig produzierten Monitor für G-Sync fit machen, wenn das nicht vorgesehen war? Dafür ist das DIY-Kit da, dass du seit etlichen Beiträgen komplett in Frage stellst, was für mich absolut garkeinen Sinn ergibt.Aus einem Monitor die komplette Elektronik rauszureißen und mit einer 3rd Party-Lösung zu ersetzen, die beinahe genausoviel kostet (größenordnungsmäßig), wie der Monitor alleine, ist auch nicht sinnvoll ;). Zumal es in so einer (offenbar nicht richtig passenden) Bastellösung resultiert, wie das bei dem pcper-Test zu erahnen ist. Da kauft man sich lieber einen Monitor, der das von zu Hause aus mitbringt. Im Übrigen würde ich nicht ausschließen wollen, daß es bei einigen Monitoren mit einem reinen Firmwareupdate getan wäre, wenn die GPU das unterstützt :freak:. Das zu pushen, wäre sinnvoll gewesen.

Sunrise
2014-01-07, 16:51:30
Aus einem Monitor die komplette Elektronik rauszureißen und mit einer 3rd Party-Lösung zu ersetzen, die beinahe genausoviel kostet (größenordnungsmäßig), wie der Monitor alleine, ist auch nicht sinnvoll ;). Zumal es in so einer (offenbar nicht richtig passenden) Bastellösung resultiert, wie das bei dem pcper-Test zu erahnen ist. Da kauft man sich lieber einen Monitor, der das von zu Hause aus mitbringt. Im Übrigen würde ich nicht ausschließen wollen, daß es bei einigen Monitoren mit einem reinen Firmwareupdate getan wäre, wenn die GPU das unterstützt :freak:. Das zu pushen, wäre sinnvoll gewesen.
Ich erachte das auch als wenig sinnvoll, aber das ist ein DIY-Kit. Das kostet nunmal Geld und das wird NV an Endkunden nicht verschenken wollen (Skysnake hat sich ja mal die Mühe gemacht und da etwas nachgeforscht).

Wenn ich mir anschaue, wie tief z.B. bei meinem EIZO CG in die Monitorelektronik mit einem simplen Firmware-Update eingegriffen werden konnte (starkes Flimmern bei 25er Teilern im Auslieferungszustand (also 25Hz, 50Hz) und nach etwa 1 Jahr hat man dieses Problem per Firmware behoben, mit etlichen anderen Verbesserungen, z.B. auch eingangsseitig.

Dann ist aber dennoch die Frage, ob das bei diesen extrem "billigen" Monitoren auch problemlos funktioniert. Und da bin ich mir absolut nicht sicher.

Knuddelbearli
2014-01-07, 17:57:42
Eizos Turbo 240 Monitor mit FreeSync *träum*

glaube da wäre ich mal bereit über 1k$ für einen Monitor auszugeben

Ailuros
2014-01-07, 18:02:16
Eizos 240 Boost Monitor mit FreeSynch *träum*

Tschuldige dass ich Dich wecken muss, aber da ist ein "h" zu viel ;D

Knuddelbearli
2014-01-07, 18:05:59
und statt Boost Turbo 240 ^^

Mal geändert, und hatte dne Eizo teurer in Erinnerung den gibt es ja schon für unter 500€ oO

Rente
2014-01-07, 18:21:23
und statt Boost Turbo 240 ^^

Mal geändert, und hatte dne Eizo teurer in Erinnerung den gibt es ja schon für unter 500€ oO
Der ist dummerweise auch mehr oder weniger billig produzierter Müll.

aufkrawall
2014-01-07, 18:24:43
Der ist dummerweise auch mehr oder weniger billig produzierter Mü.
Das Ding ist schon für 500€ ein beinahe Komplettausfall.
Hoffentlich kriegt Eizo hier nicht spitz, dass sich auch Opfer für das Doppelte finden. :freak:

moBi
2014-01-07, 18:29:17
Daß mit dem SLI ist doch nur eine Verdummung der Leute. Was soll das damit zu schaffen haben?
... Man benötigt einfach keine aufwendige Logik dafür und erst recht keine 768MB RAM im Monitor.

Die fertigen Bilder der einzelnen GPUs (oder nur einer) werden zwischen gespeichert und irgendwie verrechnet mit einer Art Zwischenbildberechnung um die Bewegtdarstellung weiter zu verbessern? :freak: Es muss doch irgendwas in der Richtung sein, so kolossalen Mist kann nVidia doch nicht gebaut haben.

Gipsel
2014-01-07, 18:29:40
Dann ist aber dennoch die Frage, ob das bei diesen extrem "billigen" Monitoren auch problemlos funktioniert. Und da bin ich mir absolut nicht sicher.Manchmal funktioniert es bei den billigen Teilen sogar besser, weil da weniger drin ist, was schief gehen kann ;). Welche Displays lassen sich eigentlich am besten übertakten, waren das nicht teilweise auch irgendwelche dubiosen koreanischen Panels?

edit:
Die fertigen Bilder der einzelnen GPUs (oder nur einer) werden zwischen gespeichert und irgendwie verrechnet mit einer Art Zwischenbildberechnung um die Bewegtdarstellung weiter zu verbessern? :freak: Es muss doch irgendwas in der Richtung sein, so kolossalen Mist kann nVidia doch nicht gebaut haben.Da halte ich dagegen. Wie war das noch in den Anfangstagen des nVidianischen SLIs? Man mußte unbedingt ein nV-Chipsatz haben oder zumindest eine nV-Bridge auf einem Intel-Board, damit es lief. War aber auch reine Verarsche und nur eine Software-Sperre. Später lief es dann auf allen Chipsätzen.

Skysnake
2014-01-07, 18:41:04
/sign

nVidia macht das durchaus gern, Fähigkeiten per Software zu unterbinden. Das von dir genannte, GPU-PhysX mit ner AMD+nVidia, oder auch CUDA Sachen.

moBi
2014-01-07, 18:44:46
Da halte ich dagegen. Wie war das noch in den Anfangstagen des nVidianischen SLIs? Man mußte unbedingt ein nV-Chipsatz haben oder zumindest eine nV-Bridge auf einem Intel-Board, damit es lief. War aber auch reine Verarsche und nur eine Software-Sperre. Später lief es dann auf allen Chipsätzen.

Das mag stimmen, aber dann bastel ich doch irgendwas weniger teures ran damit die Marge besser wird.

Angenommen nVidia hat von der Möglichkeit über Vesa gewusst und sie haben die Hardware dafür: Ihnen muss doch sofort klar gewesen sein, dass AMD damit kontert, wenn es auch so dermaßen simpel geht und dann wie die Trottel da stehen? Außer... der FPGA kann mehr und liefert ein besseres Bild.

Skysnake
2014-01-07, 18:53:21
Naja, um "show" zu machen, mussten Sie ja die Hardware verändern des Monitors, aber das kannste halt auch nicht so einfach, also musstest du halt alles Nachbauen für den Monitor. Ich vermute sogar sehr stark, dass die die orginal VHDL Designs für die normalen Controller bekommen haben und daran noch rum geschraubt haben. Selbst wenn die dafür einige tausend bis zehntausend $ geblecht haben, würde sich das lohnen, weil selbst machen teurer wäre.

Man sollte schon nicht unterschätzen, was so alles in nem Controller für son Display drin ist.

Es wird schon seine Gründe haben, warum DVI und HDMI komplett wegfallen, und nicht zumindest noch für VSync off oder normales VSync verwendet werden können.

moBi
2014-01-07, 19:14:11
Naja, ich weiß nicht... Unterm Strich, falls FreeSync gleichwertig sein sollte, hat es etwas von Mantle und R9XX abgelenkt und sie stehen wie Idioten da.

=Floi=
2014-01-07, 19:20:56
die möglichkeiten mit dem teil sind aber einfach umfangreicher. Der NV weg ist zwar abartig teuer, aber auch sehr offen. Man muss mal abwarten was da noch kommt. ich denke durch diese kurze time to market wird nv intern selbst auch noch nicht so weit sein.

Skysnake
2014-01-07, 19:21:04
Ja, hat es, damit an sich "Mission accomplished". Doof nur, dass die AMDs im Moment dank LightCoin weggehen wie die warmen Semmeln.

Und das ist jetzt nicht das erste mal, das sich nVidia mit ihrer krassen Beschneidungspolitik bei sowas ins eigene Fleisch schneidet.

AMD fängt ja aber leider auch mit dem Mist an...

Hugo78
2014-01-07, 19:26:54
und sie stehen wie Idioten da.
Nicht nur Nvidia, auch ASUS, BenQ, Philips, ViewSonic oder auch John Carmack, Tim Sweeney von EPIC oder auch Johan Andersson von DICE.

Bisschen zuviele Leute und Namen, dafür das es alles nur ein PR Gag seitens Nvidias sein soll.

Und von FreeSync haben wir bisher nichts in sachen dynamischen, framegenauen taktens gesehen, nur zwei Notebooks, mit fixem 30 bzw. 50 hz/fps V-Sync.

Atma
2014-01-07, 19:30:19
Ja, hat es, damit an sich "Mission accomplished". Doof nur, dass die AMDs im Moment dank LightCoin weggehen wie die warmen Semmeln.

Und das ist jetzt nicht das erste mal, das sich nVidia mit ihrer krassen Beschneidungspolitik bei sowas ins eigene Fleisch schneidet.

AMD fängt ja aber leider auch mit dem Mist an...
Nur werden AMD all die fürs Litecoin-Mining verkauften Karten keine Marktanteile gegenüber nVidia bringen, da die in keinem Steam Survey oder sonstigen Nutzungsstatistiken auftauchen werden. Die Karten schuften sich fürs Minen zu Tode und wenn die Schwierigkeit so stark gestiegen ist, dass es sich mit GPUs nicht mehr lohnt, wird der Markt mit gebrauchten Radeons überschwemmt.

N0Thing
2014-01-07, 19:34:28
Zumindest in Deutschland scheint sich das Problem mit den Minern erledigt zu haben. Eine R290 und R290x bekommt man lieferbar bei seriösen Händler für 15-20€ über dem niedrigsten Preis. Verfügbarkeit ist also kein Problem und preislich war die R290-Reihe schon von Anfang an gut aufgestellt.

Blediator16
2014-01-07, 19:36:06
Nur werden AMD all die fürs Litecoin-Mining verkauften Karten keine Marktanteile gegenüber nVidia bringen, da die in keinem Steam Survey oder sonstigen Nutzungsstatistiken auftauchen werden. Die Karten schuften sich fürs Minen zu Tode und wenn die Schwierigkeit so stark gestiegen ist, dass es sich mit GPUs nicht mehr lohnt, wird der Markt mit gebrauchten Radeons überschwemmt.

Meine Nvidia taucht da auch nicht auf, weil ich die Survey wegklicke oder machen sie es mittlerweile ohne zu fragen.

Sunrise
2014-01-07, 19:43:29
Manchmal funktioniert es bei den billigen Teilen sogar besser, weil da weniger drin ist, was schief gehen kann ;). Welche Displays lassen sich eigentlich am besten übertakten, waren das nicht teilweise auch irgendwelche dubiosen koreanischen Panels?
Das ist natürlich auch ein Argument. Wenn die Elektronik das "einfach durchlässt", anstatt da einfach ein schwarzes Bild anzuzeigen, bzw. dort nicht einfach abgeriegelt wird, dann könnten günstigere Monitore da theoretisch unproblematischer sein.

Ich kann da eben nur aus meiner Praxiserfahrung ausgehen und mein aktueller Eizo hier ist so ziemlich das flexibelste, was ich bisher hatte, der macht zwischen 23,75 bis knapp über 63Hz nämlich alles mit ohne jedwedes Flimmern. Höher konnte und will ich an diesem teuren Teil auch nicht testen, dafür ist mir das Ding zu schade.

Es gibt wohl diverse IPS, PLS und TN-Modelle, die das aber problemlos mitmachen. Die Korea-Dinger sind da wohl besonders weit zu übertakten, ja.

Akkarin
2014-01-07, 19:43:32
Welche Displays lassen sich eigentlich am besten übertakten, waren das nicht teilweise auch irgendwelche dubiosen koreanischen Panels?

Afaik liegt das an den verbauten boards, und nicht undbedingt an den Panels selbst, die verbauen ja nur 0815 LG/Samsung Panel die nicht A+ sind.

John Carmack, Tim Sweeney von EPIC oder auch Johan Andersson von DICE.

Was haben die mit dem aufbau von G-Sync zu tun bzw. warum stehen sie dumm dar ? Haben doch nur gesagt dass es gut aussieht, und dass stimm ja immernoch.

moBi
2014-01-07, 19:48:40
Nicht nur Nvidia, auch ASUS, BenQ, Philips, ViewSonic oder auch John Carmack, Tim Sweeney von EPIC oder auch Johan Andersson von DICE.

Bisschen zuviele Leute und Namen, dafür das es alles nur ein PR Gag seitens Nvidias sein soll.

- Den Monitorherstellern wird es schlicht egal gewesen sein, die haben bestimmt soviel Geld von nV bekommen, dass sich das gelohnt hat.

- Von den Herrschaften trau _ich_ nur Carmack (Rift) zu, sich mit Display Technologie und den Standards wirklich auszukennen. Gratis waren die bestimmt auch nicht anwesend ;-)

Und von FreeSync haben wir bisher nichts in sachen dynamischen, framegenauen taktens gesehen, nur zwei Notebooks, mit fixem 30 bzw. 50 hz/fps V-Sync.

Ganz genau! Hier ist die Frage, ob das Prinzip es einfach nicht kann, der Bildschirm nicht flexibel genug war, man es nicht zeigen wollte, oder der Treiber noch nicht so weit ist. Nach Gipsels Ausführungen sollte die Hardware da tendenziell eher keine Probleme bereiten.

StefanV
2014-01-07, 20:38:44
Ich erachte das auch als wenig sinnvoll, aber das ist ein DIY-Kit.
Dennoch hätte man das interne Netzteil drin lassen sollen und verwenden können/müssen.

Das musst du aber entfernen. Und das Netzteil hat ja auch aPFC. Und bei einem Netzteil mit aktivem PFC arbeitest du mit Spannungen um die 400V!!
Also ich hab da auch schon 450V Kondensatoren gesehen, in Monitoren und ähnlichem. Gut, da wird nicht selten billigster Dreck verwendet, an Kondensatoren...

Dass man da die komplette Display Elektronik austauscht, ist ein weiterer Punkt...

Duplex
2014-01-07, 21:02:09
Laut LZ hat AMDs FreeSync nichts mit Nvidias G-Sync gemeinsam :D

(#110) AMD zeigt G-Sync-Alternative namens (http://www.computerbase.de/forum/showthread.php?t=1300474&page=6&p=15088635#post15088635)

Ailuros
2014-01-08, 00:36:41
Laut LZ hat AMDs FreeSync nichts mit Nvidias G-Sync gemeinsam :D

(#110) AMD zeigt G-Sync-Alternative namens (http://www.computerbase.de/forum/showthread.php?t=1300474&page=6&p=15088635#post15088635)
Schön zu sehen dass es ihm gut geht und nein es ist nicht bös gemeint.

N0Thing
2014-01-08, 01:50:35
Ja. Schade, daß er nicht mehr da ist. Ich war zwar fast nie seiner Meinung, aber immerhin hat er in der Regel versucht, seine Behauptungen mit irgendwelchen Reviews zu belegen.

Skysnake
2014-01-08, 10:08:20
Wir reden jetzt aber nicht von der selben Person oder?

Gipsel
2014-01-08, 10:36:27
NVidia sagt, daß es mit Desktop-Monitoren nicht funktionieren wird (http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo).

Skysnake
2014-01-08, 11:28:10
Ok lol? :ugly:

Soll das jetzt etwa heisen, die Scaler sind der Schuldige, und nVidia macht nichts anderes, als ne Ansteuerlogik eben ohne Scaler zu verbauen? Also sprich einfach Features weg zu lassen?

Wenn man danach geht, müsste man sich ja mal die absoluten Billigprodukte aus Asien anschauen, die noch nen relativ gutes Panel haben, aber eben keinen Scaler drin. Gibts sowas?

nVidia lässt auf jeden Fall da ganz schön die Hosen runter.

An sich ist es aber ein Witz... Den Scaler usw kann man ja zur Not nen byepass verpassen...

Das sollte nicht der Aufwand sein bei der Anpassung der Scaler. Haben nicht "bessere" Fernseher sowas als "Gameingmode"??

dlux
2014-01-08, 11:50:23
NVidia sagt, daß es mit Desktop-Monitoren nicht funktionieren wird (http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo).
Damit hat Nvidia bestätigt, dass FreeSync und G-Sync gleichwertige Lösungen sind.

Jetzt muss AMD nur noch zeigen, dass die Technik auch mit Desktop-Monitoren funktioniert.

Hugo78
2014-01-08, 11:59:34
Ok lol? :ugly:

Soll das jetzt etwa heisen, die Scaler sind der Schuldige, und nVidia macht nichts anderes, als ne Ansteuerlogik eben ohne Scaler zu verbauen? Also sprich einfach Features weg zu lassen?

Wenn man danach geht, müsste man sich ja mal die absoluten Billigprodukte aus Asien anschauen, die noch nen relativ gutes Panel haben, aber eben keinen Scaler drin. Gibts sowas?

:upicard:

Ein Scaler wandelt das Eingangssignal um in ein für das Displays verständliches, sowie passt die Auflösung und Helligkeitswerte ect. an.
Nvidia ersetzt diese Funktionen, da wird nichts weggelassen.

nVidia lässt auf jeden Fall da ganz schön die Hosen runter.

An sich ist es aber ein Witz... Den Scaler usw kann man ja zur Not nen byepass verpassen...

Das sollte nicht der Aufwand sein bei der Anpassung der Scaler. Haben nicht "bessere" Fernseher sowas als "Gameingmode"??

Der Gameingmode geht auf kosten der Bildqualität bei TVs, weil man viele Schritte in der Bildausgabe die Rechenzeit brauchen, weglässt um am ende einen geringeren inputlag zuhaben.
Ein paar Basics braucht man aber dennoch, ansont bleibt dein Display schwarz.

Skysnake
2014-01-08, 12:10:11
-.-

Den Scaler brauchst du um Material verarbeiten zu können, das NICHT in der nativen Auflösung des Panels daher kommt... Wenn du nur native Auflösung unterstützt, brauchste auch keinen Scaler. Dann haste einfach ein 1:1 Mapping und aus die Maus.

Loeschzwerg
2014-01-08, 12:20:55
Schreibt er doch in seinem ersten Absatz :wink:

NV ersetzt die bestehenden Scaler mit einem eigenen Scaler + Erweiterung damit VBLANK wieder möglich ist, so verstehe ich es zumindest.

Und wie im Artikel richtig steht könnten Monitorhersteller die nötigen Funktionen selber implementieren, nur ob diese wollen ist noch offen.

Hugo78
2014-01-08, 12:23:24
@Skysnake
Ja klar, als ob diese Funktion losgelöst vom Rest des Boards ist, den man Scaler nennt.

Pirx
2014-01-08, 12:34:53
Wieso, was soll denn der Scaler noch alles hochkompliziertes machen?
Es gibt auch TFTs ohne Scaler.

Hübie
2014-01-08, 12:39:00
Na meist ist das ja eine Platine mit timing controller, gate/source chip und vielleicht noch einem Buffer. Aber es gibt auch viel zu wenig Lektüre über die ganzen Geschichten (vor allem in GPUs).

Loeschzwerg
2014-01-08, 12:48:25
Der "Scaler" zeigt sich auch verantwortlich für sämtliche Schnittstellen die der Monitor bietet, ist also nicht nur für die Skalierung zuständig...

Also auch ohne "Scaler" (hier für die Skalierung) wird es einen Chip geben der die Schnittstellen regelt.

Wenn in diesen gängigen Chips die VBLANK Funktion halt nicht gegeben ist, wird es logischerweise auch mit FreeSync nichts. So habe ich zumindest die Erklärung von Seiten NV verstanden. Ob es stimmt... keine Ahnung, aber ich denke mal ja, da die Aussagen hierfür zu eindeutig waren und sich Hr. Peterson sonst auch ziemlich blamieren würde.

Skysnake
2014-01-08, 12:55:43
Und wir kommen wieder zurück, das man in einem ASIC! das sehr sehr sehr leicht implementieren könnte, einen Byepass zu bauen, der dann eben genau das ermöglicht....

Meine Fresse lest doch bitte richtig...

Loeschzwerg
2014-01-08, 12:59:03
Ich zitiere mich mal selbst :smile:

Und wie im Artikel richtig steht könnten Monitorhersteller die nötigen Funktionen selber implementieren, nur ob diese wollen ist noch offen.


Und eine bitte, geh doch nicht immer gleich so durch die Decke :freak: Du stehst in letzter Zeit ja echt übelst unter Strom, warst doch sonst nie so?!

Sunrise
2014-01-08, 13:12:28
Der "Scaler" zeigt sich auch verantwortlich für sämtliche Schnittstellen die der Monitor bietet, ist also nicht nur für die Skalierung zuständig...

Also auch ohne "Scaler" (hier für die Skalierung) wird es einen Chip geben der die Schnittstellen regelt.
Richtig, da ist im Grunde schon praktisch die komplette "Intelligenz" des Displays vorhanden. Und diese Intelligenz ist es auch, von der gesprochen wird. Da geht es um weit mehr als nur Auflösungen zu skalieren.

Und weil ich gerade am iPad sitze und ich nicht ne Stunde tippen will:
LCD Scaler Boards für OEMs (http://www.winmate.com.tw/IndustrialDisplay/LcdQueryBoard.asp?Type=B010113)

Siehe z.B. das hier:
http://www.winmate.com.tw/IndustrialDisplay/LcdSpecBoard.asp?Prod=01_0683&Typeid=B010113

Und genau so ein Ding sitzt in den Displays. Und genau das meint Petersen, wenn er von scaler spricht. Mal mehr, mal weniger komplex.

Was Petersen da sagt, klingt einerseits plausibel, andererseits frage ich mich, was er damit eigentlich bestätigt. Im Grunde nur das, was ich schon seit mehreren Posts vermutet hatte.

Die Display-Industrie scheint eine ziemlich "dumme" (weil innovationsarm) Industrie zu sein, weil sie eigentlich genau das Problem kennen, daran aber nichts ändern wollen bzw. sie sich nicht im Klaren darüber sind, wie sie es lösen. Wenn NV da keinen Vortritt geleistet hätte (ähnlich Apple mit den Retina-Displays, was ja eigentlich [bis auf die PPI] nur Marketing ist), dann würden wir wohl immernoch mit Desktop-Displays dastehen, die zwar höhere Auflösungen bieten, aber sonst nichts weiter neues. Am besten wir fahren den Zug 30/60Hz immer wieder weiter, ist ja der Minimalaufwand.

Evtl. liegt das auch darin begründet, weil wir jahrzehntelang CRTs hatten, die eigentlich kaum zu verbessern waren als schließlich zusätzliche Intelligenz noch hinzuzufügen, und sich dann mit Features wie PiP etc. von den anderen abzugrenzen.

Ailuros
2014-01-08, 13:16:29
Und eine bitte, geh doch nicht immer gleich so durch die Decke :freak: Du stehst in letzter Zeit ja echt übelst unter Strom, warst doch sonst nie so?!

Es stehen viele in letzter Zeit unter Strom, einfach uebersehen und gut ist es.

Skysnake
2014-01-08, 13:27:02
Die Monitor/Panel Industrie steht aber halt auch unter einen gewaltigen Kostendruck. Da traut sich halt auch kaum einer was wirklich.

Ansonsten, das was als "Scaler" bezeichnet wird, macht halt alles mögliche heutzutage, außer dem Scalen. Ist halt wie bei CPUs auch. Es wird aus Kosten und Performancegründen alles was nur irgendwie geht in einen Chip gepackt. Der heist dann zwar Scaler, macht aber noch allen möglichen anderen scheis.

Gerade! bei nem ASIC spricht aber nichts dagegen, eben einen Byepass ein zu richten. Das sollte ohne größere Probleme machbar sein. Man muss ja anscheinend "nur" die ganzen Hampeleien die inzwischen die Hersteller machen weg lassen. Worin auch eine Ursache zu suchen sein könnte. Der 2€ China-Billigproduzent kann das halt genauso wie die Premiummarke. Es steckt ja an sich nichts dahinter. Die haben also wohl auch kein Interesse daran, das zu bringen in Einfach.

Als Gsync schon, weil man damit abkassieren kann...

Das so nen Byepass der Elektronik übrigends problemlos möglich ist, wollte ich mit dem Gamemode von TVs zeigen. Wenn man will kann man die Elektronik auch umgehen, die einem Probleme macht.

Man müsste halt nen neuen ASIC bringen, aber den muss man mit GSync ja auch bringen, nur würde es dann halt für ALLE funktionieren.



Und eine bitte, geh doch nicht immer gleich so durch die Decke :freak: Du stehst in letzter Zeit ja echt übelst unter Strom, warst doch sonst nie so?!
Ja sorry... Ich bin einfach in letzter Zeit durch meine Prüfungen+Arbeit ziemlich gestresst. Dazu kommt noch, das meine Frau eigentlich befördert wurde, da teils aber einfach Stümper arbeiten, die zu dumm zum scheisen sind, und es deswegen massig Probleme und Ärger gibt, der der reinste Kindergarten ist... Und mir quatscht Sie damit natürlich die Ohren voll...

Da denk ich immer "EINMAL mit Profis arbeiten"... Ich würde bei ihr im Geschäft ausrasten... Bin ich froh, das bei mir im Geschäft wirklich Profis am Werk sind. :biggrin:

Ohne witz, wenn ich Chef wäre, würde da wahrscheinlich 80% erstmal hochkant fliegen oder zumindest ne Abmahnung sich abholen, weil an allen Ecken und Kanten gepfuscht wird.... Ach komm lass gut sein, ich reg mich schon wieder auf...

Da hab ich echt aktuell kein Nerv auf irgendwelches Markenbewusstsein oder darauf, das sich Leute begriffsstutzig stellen...

PS:
Wenn ich jemanden richtig anpflaume, dann denk ich meist, dass er es eigentlich besser wissen müsste und könnte. Das ist quasi dann schon ein lob, weil ich mir überhaupt die Mühe mach was dazu zu sagen. :ugly:

Das ist wohl Schwabe-Uncut. Da heist es ja normal: "Net gmotzt is Lob gnug" ;D

EDIT:
Und weil ich vorher unabsichtlich auf SEitezurück an der Maus gekommen bin, und mein Post weg war (btw warum ist der hier nicht wieder da, wenn ich wieder vor geh? Genau das Gleiche bei PCGH. CB schafft das den Text zu halten :( das will ich auch hier haben ;))hab ich ganz vergessen was zum RAM des FPGA zu schreiben!

Also bei PCGH hat einer nen Artikel von Anandtech verlinkt, sagt wenn ihr den wollt, da hies es, das man den Speicher braucht, um das aktuelle Bild mit dem neuen zu Verrechnen/Vergleichen, wohl für den Overdrive oder so. Was auch immer. Die machen wohl noch mehr mit den Bildern laut nVidia/Anand.

Man bekommt, soweit ich das überblicken konnte, auf jeden Fall nicht zwei Bilder in dem verwendeten FPGA gehalten. Dafür sind die internen Speicher einfach zu klein, und da er so wenig Logikzellen hat, die man ja auch für die Schaltungslogik braucht!, kann man da auch nicht genug Missbrauchen um sich FlipFlops/FiFos zu bauen.

Man braucht also RAM, um die Bilder zu halten. Und da man möglichst geringe Latenzen haben will, hat man eben alle Controller voll bestückt, und kommt deswegen auf so viel Speicher. WEnn man genau nachschaut, wird man wohl keine Speicher finden, die ne geringere Kapazität haben.

(Noch was aus dem Nähkästchen: FPGAs kann man bei DRAM nicht mit nem normalen PC Vergleichen. DRAM ist eher nen graus bis das ordentlich funktioniert, wenns überhaupt funktioniert... Man hält sich also 100% an die Vorgaben, welche Chips unterstützt werden und lässt von allem anderen tunlichst die Finger, weils der Weg in den Wahnsinn wäre...)

Das wäre aber nicht zwingend nötig. z.B. nen Stratix 5 könnte das durchaus alles ohne DRAM bewergstelligen, soweit ich das überblicken kann, nur kostet das Ding halt gleich 10 mal so viel... Das war wohl ne reine Kostenfrage. Selbst nVidia kann nicht 6k€+ Chips rausballern nach belieben.

Ailuros
2014-01-08, 13:34:25
Das ist wohl Schwabe-Uncut. Da heist es ja normal: "Net gmotzt is Lob gnug" ;D

A scheener Brocka an bullshit :biggrin::P Mensch ausreden kannst Du Dich auch privat.

Gipsel
2014-01-08, 14:22:33
Aus der aktuellen pcper-Meldung dazu: (http://www.pcper.com/reviews/Graphics-Cards/AMD-Variable-Refresh-FreeSync-Could-Be-Alternative-NVIDIA-G-Sync)
Finally, as a last minute stirring of the pot, I received an email from AMD's Koduri that indicated that there might be some monitors already on the market that could support variable refresh rate TODAY with just a firmware update. [..] We are trying to find a list of these monitors so we can talk with them and ask for these necessary changes.Genau das würde ich eigentlich auch vermuten, da der Support des variablen vblanks im Prinzip nicht so kompliziert ist (und man benötigt auch nicht unbedingt DP1.3, irgendein Flag in den EDID-Infos, der den Support signalisiert, würde eigentlich auch reichen). Aber warten wir mal ab.

Hübie
2014-01-08, 14:27:15
Mich beschleicht das Gefühl dass in dem Markt seit viel zu langer Zeit angesahnt wird ohne etwas zu reinvestieren.
Jetzt müssen auch noch Redakteure Monitorhersteller anschreiben oder wie? :freak: Verrückte Welt.

M4xw0lf
2014-01-08, 14:30:33
Aus der aktuellen pcper-Meldung dazu: (http://www.pcper.com/reviews/Graphics-Cards/AMD-Variable-Refresh-FreeSync-Could-Be-Alternative-NVIDIA-G-Sync)
Genau das würde ich eigentlich auch vermuten, da der Support des variablen vblanks im Prinzip nicht so kompliziert ist (und man benötigt auch nicht unbedingt DP1.3, irgendein Flag in den EDID-Infos, der den Support signalisiert, würde eigentlich auch reichen). Aber warten wir mal ab.
Bin gespannt was bei der Recherche herauskommt.

Iruwen
2014-01-08, 15:05:03
Und weil ich vorher unabsichtlich auf SEitezurück an der Maus gekommen bin, und mein Post weg war (btw warum ist der hier nicht wieder da, wenn ich wieder vor geh? Genau das Gleiche bei PCGH. CB schafft das den Text zu halten :( das will ich auch hier haben ;))

OT: mein Chrome macht das hier.

N0Thing
2014-01-08, 15:16:33
OT: mein Chrome macht das hier.

OT: Im "direkt Antworten" Fenster geht der Text verloren, im "Erweitert" Antworten Bereich bleibt der Text erhalten.

Skysnake
2014-01-08, 15:18:32
Ja ich bin auch gespannt was da raus kommt. Wäre SEHR geil, wenn mein Monitor das könnte :biggrin:

@OT:
hm... Ich mag Chrome nicht, weils von Google kommt... Kennt jemand vielleicht nen FF Addon, das kein Stasitool ist?
@NOThing:
Ja, das kann sogar sein, das ich im direkt Antworten war. Das mach ich normal nie.

EDIT:
ja, wenn man auf Antworten klickt und dann schreibt, bleibt der Text erhalten! Gut zu wissen, dann merk ich mir das :biggrin:

Ist nämlich ECHT ätzend, wenn nen längerer TExt plötzlich weg ist... Ist mir heute schon zwei mal passiert -.- .... "An Tagen wie diesen.... :ujump:"

Iruwen
2014-01-08, 15:29:28
Gibt ja auch noch Chromium, Iron usw. auf der Basis.
OT: Im "direkt Antworten" Fenster geht der Text verloren, im "Erweitert" Antworten Bereich bleibt der Text erhalten.
Hm, bei mir nicht. Bleibt immer erhalten.

/e: ach ne, doch nicht. Hast recht.

samm
2014-01-08, 16:03:27
OT: Opera 12 konnte das noch auch in der Schnellantwort (hat die Seite sich einfach 1:1 im letzten Zustand gemerkt), aktuelle auf Webkit-Basis nicht mehr :(

Erhellend, dass nun Details verfügbar sind, dank an PCPer (trotz tragisch offensichtlicher nVidia-Werbung in Text und Bild xD ). Es ist also eine eDP-Eigenschaft, also auf Notebooks verfügbar, die in DP 1.3 einfliesst und Sache eines Firmware-Updates für Monitore. Wie Gipsel sagt, ist das Feature eigentlich auch beliebig in sonstigen Monitoren mit DP nachprogrammierbar, ist einfach für deren Schnittstelle noch nicht offziell verfügbar (vgl. die einzelnen DX 11.x-Features in nVidia-GPUs oder der alte Tesselator auf Radeons) - einfach eine Sache des Willens der Monitorhersteller, das nachzuliefern.

Ailuros
2014-01-08, 16:15:35
Evtl. liegt das auch darin begründet, weil wir jahrzehntelang CRTs hatten, die eigentlich kaum zu verbessern waren als schließlich zusätzliche Intelligenz noch hinzuzufügen, und sich dann mit Features wie PiP etc. von den anderen abzugrenzen.

*knutscht seinen CRT Dinosaur schnell ab und rennt in den Sonnenuntergang* :weg:

Gipsel
2014-01-08, 16:16:37
Evt. sollte überlegt werden beides zusammen zu legen oder die Diskussionen strikter zu trennen?
Sehr gute Idee. Ein Mergen der Threads würde die bisherige Diskussion recht unübersichtlich machen. Deswegen schließe ich hier und bitte darum, die Diskussion in einem neuen gemeinsamen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=549697) fortzuführen.