Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 24. Juni 2022
Leonidas
2022-06-25, 09:00:41
Link zur News:
https://www.3dcenter.org/news/news-des-24-juni-2022
Iscaran
2022-06-25, 10:27:26
AD102 GeForce RTX 4090
angeblich: 128 SM @ 384 Bit, 24 GB GDDR6X, 450W
AD103 GeForce RTX 4080
angeblich: 80 SM @ 256 Bit, 16 GB GDDR6X, 420W
AD104 GeForce RTX 4070
angeblich: 56 SM @ 160 Bit, 10 GB GDDR6, 300W
Woran erkennt man dass die Gerüchte inkonsistent sind?
300 W/56 SM = 5.35 W/SM
420 W/80 SM = 5.25 W/SM
450 W/128 SM = 3.52 W/SM
3.52/5.35 = 66%
=> die 450 W Version soll also 50% bessere Performance/W liefern bei selber Chipgeneration usw.
Realistisch wären für die 128 SM eher 600 W... Just my 2 cents.
Oder aber andere Parameter am Gerücht stimmen nicht (z.B. Anzahl SM, Takt, erreichbare Performance - wenn man 128 SM in 450 W "zwängen" will wird man diese nicht mit 3GHz befeuern...)
madshi
2022-06-25, 10:57:03
Jene trägt wohl die Abmaße der GeForce RTX 3090 Ti, benötigt somit wie jene etwas mehr als 3 Slots. Zudem soll auch die vorher antretende GeForce RTX 4090 dasselbige Grafikkarten-Layout benutzen – was schon von anderen Stellen im groben Sinn bestätigt wurde. Während somit jene Information zur GeForce RTX 4090 vergleichsweise glaubwürdig ist, erscheint selbige zur GeForce RTX 4090 Ti als eher denn unglaubwürdig: Denn wenn nVidia beim Ti-Modell den AD102-Chip wirklich ausfährt, dann geht es schnell mit der Verlustleistung in Richtung 600 Watt – und dann würde sicherlich ein nochmals größeres oder/und dickeres Grafikkarte-Layout benötigt werden.
Ähm, nö. Der Cooler der 3090 Ti nicht wirklich 3 Slots breit. Die Blende ist 3 Slots, aber der eigentliche Cooler ist weniger breit, eher 2.75 Slots oder so. MLID sagt nun, daß es möglicherweise für die 4090 Ti reichen könnte, den Cooler von 2.75 Slots auf z.B. 3.25 Slots aufzubohren.
die spekulierte 4080 ti erscheint wenig sinnvoll. Eher eine auf ad102 basierte mit um die 140-120SM
Leonidas
2022-06-25, 12:17:46
Stimmt. Oder ein extra SUPER-Refesh. Hier gibt es viele Möglichkeiten.
Über ein solches Lineup wird AMD nur müde lächeln.
iamthebear
2022-06-25, 13:07:16
Woran erkennt man dass die Gerüchte inkonsistent sind?
300 W/56 SM = 5.35 W/SM
420 W/80 SM = 5.25 W/SM
450 W/128 SM = 3.52 W/SM
3.52/5.35 = 66%
=> die 450 W Version soll also 50% bessere Performance/W liefern bei selber Chipgeneration usw.
Realistisch wären für die 128 SM eher 600 W... Just my 2 cents.
Oder aber andere Parameter am Gerücht stimmen nicht (z.B. Anzahl SM, Takt, erreichbare Performance - wenn man 128 SM in 450 W "zwängen" will wird man diese nicht mit 3GHz befeuern...)
Die einfache Erklärung ist: Die 4090 wurde einfach etwas niedriger getaktet, da die meisten Gehäuse am Markt nicht mehr als 450W vertragen und im Gegensatz zu Netzteilen ist es hier auch schwer eine Empfehlung zu geben.
Und von 3GHz war bei Ada noch nie die Rede. Die hoch getakteten Modelle scheinen um die 2.8GHz zu schaffen, die 4090 eher um die 2.5GHz.
Einmal abgesehen davon hat die 4080 mit 420W noch einige Fragezeichen und kopite schreibt selbst "pick anything between 300W and 450W". Ich persönlich würde also eher auf 350W-400W tippen.
bbott
2022-06-25, 18:17:49
Warum wird nicht darauf hingewiesen, dass Intel zudem noch eine viel bessere Fertigung nutzt? Das vermisse ich, zumal einige schon von >=RX6800 Performance geträumt haben. Intel baut nun wie viele Jahre iGPUs und die Treiber sind immer noch mies. In 2-3 Gens wird sich zeigen das Intel immer noch hinterher läuft. Dann wird wohl Intel die Reisleine ziehen, wenn sich nichts Grundlegendes ändert, vllt. sollte Intel einen GPU Spezialisten übernehmen ;-)
Intel war in Software noch nie gut, wie viele andere Firmen auch und eine GPU für Games ist scheinbar mehr Software als Hardware abhängig.
And DO NOT expect a lower MSRP.
Dann war das meinen letzte dGPU, ich mach das einfach nicht mehr mit! Dann kommt eine Konsole und Nvidia kann den überteuerten Mist ein für alle Male behalten.
iamthebear
2022-06-26, 01:07:09
Also ich denke nicht, dass Intels einziges Problem ist, dass die Treiber nicht auf Spiele optimiert sind.
Eines der Probleme ist, dass rBar nicht auf AMD Plattformen nicht mit Arc funktioniert. Man scheitert hier schon an der korrekten Implementierung des PCIe Standards. Solche Probleme sind komplett neu. Auch wenn 8ntels iGPUs bisher nicht zum Spielen geeignet waren: Die Treiber an sich waren immer in Ordnung wenn auch etwas minimalistisch. Ob es nun darum ging einen externen Monitor an das Notebook anzuschließen, Videos/Encoding zu beschleunigen oder stabile Installer auszuliefern waren die Intel GPU Treiber immer top. Ich hatte da noch nie Probleme im Gegensatz zu AMD.
Ich denke auch, dass die Performanceprobleme eher auf Hardwareebene zu suchen sind.
Ich glaube derzeit nicht daran, dass es eine weitere Generation geben wird. Aber einen positiven Effekt hatte die Aktion: Intel zwingt Nvidia dazu, dass sie in Zukunft den Low End Bereich nicht komplett vernachlässigen können.
Also ich denke nicht, dass Intels einziges Problem ist, dass die Treiber nicht auf Spiele optimiert sind.
Eines der Probleme ist, dass rBar nicht auf AMD Plattformen nicht mit Arc funktioniert. Man scheitert hier schon an der korrekten Implementierung des PCIe Standards. Solche Probleme sind komplett neu. Auch wenn 8ntels iGPUs bisher nicht zum Spielen geeignet waren: Die Treiber an sich waren immer in Ordnung wenn auch etwas minimalistisch. Ob es nun darum ging einen externen Monitor an das Notebook anzuschließen, Videos/Encoding zu beschleunigen oder stabile Installer auszuliefern waren die Intel GPU Treiber immer top. Ich hatte da noch nie Probleme im Gegensatz zu AMD.
Ich denke auch, dass die Performanceprobleme eher auf Hardwareebene zu suchen sind.
Ich glaube derzeit nicht daran, dass es eine weitere Generation geben wird. Aber einen positiven Effekt hatte die Aktion: Intel zwingt Nvidia dazu, dass sie in Zukunft den Low End Bereich nicht komplett vernachlässigen können.
Intel Vega ^ ^
Aber ich denke nicht und hoffe, dass die so schnell nicht aufgeben.
Schlussendlich sind zumindest die 2. gen und wahrscheinlich auch mittlerweile die 3. gen tief im Entwicklungsstadium.
Bin aber schon verwundert, dass die Performance dermaßen schlecht ist, vor allem in anbetracht der doch ordentlichen Performance der integrierten xe 96eu in alder lake und schon tiger lake.
Und warum wäre rbar so wichtig für die Performance bei Intel??? Beim AMD und vor allem nvidia bringt das ja nur wenig Performance, speziell da alchemist ja ein volles pcie interface hat.
Mit dem Lineup schießt sich nVidia echt ins eigene Knie. Absolut nichts mehr für "Vernunftkäufer" dabei. Diese Rolle hatte ja eigentlich immer die 70er, aber bei 300W und derart unattraktiven specs fällt die gleich mal für viele raus. Frage mich, wie dann erst das SI bei der 60er ausfällt. 96 bit? :ulol:
Die 4080 sieht wie das rundere Gesamtpaket aus, wird aber preislich sicher kein Zuckerschlecken. In Zeiten steil ansteigender Lebenskosten und vor der Tür stehender Rezession sinkt sicher nicht nur bei mir die Bereitschaft, 800€+ für eine Grafikkarte auszugeben. Und einen Mining-Boom, der für garantierten Absatz sorgt, gibt's jetzt auch nicht mehr.
Ich war mal sehr gehyped für diese Generation, inzwischen glaub ich, ich werd sie überspringen.
Aroas
2022-06-26, 13:15:56
Die Treiber an sich waren immer in Ordnung wenn auch etwas minimalistisch. Ob es nun darum ging einen externen Monitor an das Notebook anzuschließen, Videos/Encoding zu beschleunigen oder stabile Installer auszuliefern waren die Intel GPU Treiber immer top. Ich hatte da noch nie Probleme im Gegensatz zu AMD.
Tja, aber auf Gaming hin getrimmte Treiber hat Intel bisher eben nicht gehabt bzw. hat sich dahingehend bisher um nichts geschert.
Und genau deshalb fehlt ihnen in dieser Hinsicht das KnowHow und mit Sicherheit auch entsprechende Beziehungen zu den Spieleentwicklern.
AMD und NVidia hingegen arbeiten seit Jahren mit vielen Entwicklern zusammen und können ihre Treiber dementsprechend auch viel besser optimieren.
Ich glaube nicht, dass die Hardware das Problem ist. Intel entwickelt ja nicht erst seit gestern Grafiklösungen. Und mit Herrn Raja Koduri haben sie auch jemanden in ihren Reihen, der sich mit der Materie bestens auskennen sollte.
bbott
2022-06-26, 13:41:35
Ich glaube nicht, dass die Hardware das Problem ist. Intel entwickelt ja nicht erst seit gestern Grafiklösungen....
Doch, ist es auch nicht mal Vega HW Level. Nochmals, die ARC ist in einem besseren Herstellungs Prozess hergestellt und ist schlechter als die noch aktuelle Gen. Dieser Umstand zeigt das auch die HW min. eine Gen zurück liegt, eher mehr als zwei, da NV und amd mit der neuen Gen bald kommen.
Intel hofft und setzt wohl auf 100% Raytracing, und darauf das dadurch die Karten neu gemischt werden...
bbott
2022-06-26, 13:43:19
Und mit Herrn Raja Koduri haben sie auch jemanden in ihren Reihen, der sich mit der Materie bestens auskennen sollte.
Bisher schätze ich Ihn als Luftpumpe ein, Vega war er bei RDNA1 war er schon raus und dürft nicht mitspielen. Und wenn ich sehe was Intel abliefert scheint meine Einschätzung nicht wirklich falsch ;-)
GPUs offen testen Deppen
2022-06-26, 14:16:37
Die meisten aktuellen ATX-Gehäuse haben unten einen Schacht unter dem das Netzteil etc. untergebracht wird.
Umso dicker die Kühlkonstruktion der Grafikkarte (Höhe), desto weniger Platz bleibt zum Ansaugen der Luft, Zirkulation, Entweichen etc. für die Grafikkarte.
Vermute dass sich dies negativ auf die Kühlleistung auswirkt, vor allem in Kombination mit höherer Wärmeagabe.
Leider testen die Hardware-Tech-Webseiten diesbezüglich gar nicht. 08/15.
Der einzige Testartikel von Computerbase in DE bis jetzt, mit "Hey, 500 W können im schlecht belüfteten Gehäuse nicht mehr ordentlich abgeführt werden iksde ikdsde ikdse".
Schaut wie realitätsfern die Tester sind und immer noch nicht peilen das Grafikkarten im offenen Aufbau getestet werden müssen (Die Diskussion gab es bereits oft, mit dem Resultat dass die Tester dran Schuld sind und nicht ordentlich testen können).
Beim Phantek Eclipse P600s lassen die 2,5 Slot der Amd Referenz 6800xt gar nicht mal mehr so viel Platz nach unten hin.
3 Slot, 3,5 Slot, 4 Slot - nope.
Habe 5 140 mm Lüfter verbaut, 3 davon high-end Noiseblocker eloop, und dennoch ist die GPU-Temperatur (mit geöffneter Front und Deckel) leicht höher (2 -5 °C) als mit geöffnetem Seitenteil (egal ob GPU-Lüfterdrehzahl auf 50, 60, 70 %).
Und das Phantek Eclipse P600s ist in der Lüferkombination einer der best belüfteten Gehäuse am Markt.
Der Punkt ist also bei 300 W und 2,5 Slot bereits überschritten , bei dem selbst ein sehr gute belüftetes Gehäuse die Wärme abführen kann.
Aroas
2022-06-26, 19:40:15
Einfache Lösung: Wenn man sich eine so fette Grafikkarte kaufen will, sollte man schlicht auch ein entsprechend geräumiges Gehäuse wählen.
Auswahl gibt es genug.
Der Punkt ist also bei 300 W und 2,5 Slot bereits überschritten , bei dem selbst ein sehr gute belüftetes Gehäuse die Wärme abführen kann.
Selbst schuld wenn man einen Ferrari-Motor in einen Golf einbaut darf man sich auch nicht wundern wenn das Getriebe nicht mitmacht.
Legendenkiller
2022-06-27, 09:10:53
Die einfache Erklärung ist: Die 4090 wurde einfach etwas niedriger getaktet, da die meisten Gehäuse am Markt nicht mehr als 450W vertragen und im Gegensatz zu Netzteilen ist es hier auch schwer eine Empfehlung zu geben.
Und von 3GHz war bei Ada noch nie die Rede. Die hoch getakteten Modelle scheinen um die 2.8GHz zu schaffen, die 4090 eher um die 2.5GHz.
Einmal abgesehen davon hat die 4080 mit 420W noch einige Fragezeichen und kopite schreibt selbst "pick anything between 300W and 450W". Ich persönlich würde also eher auf 350W-400W tippen.
die 4090 niedriger zu taken wiederspricht dann aber massiv der versprochenen Performance.
Weiß nicht was da so schwer zu verstehen ist.
die 4070 hat 300W
die 4080 hat 420W
die 4090 hat 600W
Zumal es Iscaran sehr schön vorgerechet hat und in den Vorgängergenearionen lagen die W/SM immer sehr dicht zusammen.
Eine so große Differenz gab es noch nie ... das schaffen bestenfalls die Chips für Notebooks.
Und das Bordlayout, der Stromversorgungsstecker , die Kühlung der 4090 sind auf 600W Nennleistung (800Wmax) ausgelegt ist. Das macht man nicht wenn man dann nur 450W braucht.
etp_inxession
2022-06-27, 09:37:25
Ich hatte da noch nie Probleme im Gegensatz zu AMD.
Im 2D funktionieren die Intel GPUs absolut problemlos.
Sobald 3D ins Spiel kommt, wirds kritisch.
Bei mir hier im Büro haben wir die Desktops wechseln müssen um die Sim Software der Roboter überhaupt sinnvoll nutzen zu können.
Aus einem Lenovo Tiny mit Intel APU wurde nun einer mit AMD APU und alles läuft prima. Nur lauter ist das Teil. Der Intel ist unhörbar.
Kollege hat als Ersatz ne Workstation bekommen mit nVidia dGPU.
Auch dort keinerlei Probleme.
Zuhause sieht es bei mir anders aus.
Da kommt es mir immer so vor als hätte nVidia eine Spähsoftware mit integriert um mich zu ärgern.
Selbst das Shield TV Pro ist eine Zumutung.
Ich komme mit nVidia einfach nicht klar.
Bei AMD Hardware dagegen bisher null Probleme.
Schade dass das Shield nicht auf AMD basiert.
So ging es zurück zum Fire TV.
Leonidas
2022-06-27, 10:13:44
die 4090 niedriger zu taken wiederspricht dann aber massiv der versprochenen Performance.
Die 4090 hat den größten HW-Abstand aller drei Karten zur Ampere-Generation. Ergo hat man dort (locker) die Reserve, etwas vorsichtiger ranzugehen - die Karte wird trotzdem den größten Performance-Sprung zum Vorgänger bringen.
die 4090 niedriger zu taken wiederspricht dann aber massiv der versprochenen Performance.
Noch hat niemand irgendwelche Performance versprochen.
Alleine aufgrund der deutlichen Hardwareunterschiede zwischen AD102 und darunter spricht vieles dafür, dass man zumindest in der ersten Variante von AD102 beim Takt recht deutlich unter dem Rest des Portfolios bleibt, alleine um einen relativ "normalen" Performanceabstand der eigenen Produkte zu erreichen.
Zumal fraglich ist ob AD102 überhaupt in einem Consumerprodukt landen wird, ich gehe zumindest am Anfang von einem reinen Prosumermodell, bzw. natürlich auch Quadros aus.
AD102 in einem Consumermodel wird nur kommen wenn AMD ein Consumermodell bringen wird, das stark genug ist, damit dessen Performance auch benötigt wird.
Nazar
2022-06-27, 11:23:04
Die 4090 hat den größten HW-Abstand aller drei Karten zur Ampere-Generation. Ergo hat man dort (locker) die Reserve, etwas vorsichtiger ranzugehen - die Karte wird trotzdem den größten Performance-Sprung zum Vorgänger bringen.
Ein kleiner Denkanstoß:
Turing 2080 Ti: Rechenleistung = 13TFlops
Ampere 4090: Rechenleistung = 36 TFlops (Spieleleistung zirka 50% schneller als eine 2080 Ti, dauerhafte Verlustleistung 2080 Ti = 220 Watt, die 4090 = 400 Watt in Spielen)
Die 4090 Ampere hat eine um den Faktor 2.8 größere Rechenleistung als die 2080 Ti
Nun kommen wir zum interessanten Part
Lovelace 4090: spekulierte theoretische Rechenleistung = 81 -100 TFlops
Wenn wir die 100 TFlops nehmen, dann ist Lovelace ebenfalls um den Faktor 2.8 schneller als Ampere.
Da es ebenfalls beim Sprung von Turing zu Ampere einen Verbesserungsschritt in der Fertigung gab, der angeblich auf dem identischen Level wie von Ampere zu Lovelace sein soll, und auch die zu erwartende Frequenzsteigerung fast in der gleichen Liga spielt, wie man dann davon ausgehen kann, dass Lovelace eine mehr als doppelt so hohe Steigerung der Spieleperfomance erzeugen soll? :confused:
Folgt man den Zahlen (basierend auf den Spekulationen), dann ist alles größer Faktor 1.7 nicht mit 450 Watt zu erreichen, und das, wenn man alle Hardwareeinheiten von Lovelace Ad 102 ausnutzt.
Geht man jetzt noch davon aus, dass sich nV ein paar "Pferde" in der Hinterhand behalten möchte, dann landet man eher beim Faktor 1.5 bei 450 Watt Verlustleistung.
Je mehr ich darüber nachdenke, scheint es so, dass nVidia sich verzockt hat.
Allerdings kann das bei AMD auch sein, zumindest, wenn sie weiter monolithisch fahren wollen.
Selbst schuld wenn man einen Ferrari-Motor in einen Golf einbaut darf man sich auch nicht wundern wenn das Getriebe nicht mitmacht.
Es gibt kein Gehäuse am Markt, welches geschlossen, oder auch mit geöffneter Front/Deckel, die Wärmeabgabe exakt gleich gut abführen kann wie mit geöffnetem Seitenteil oder offenemen Aufbau.
Selbst die Nr. 1 mit Kamineffekt. Bis 5 °C Unterschied ist es noch akzeptabel (erreichen die top belüfteten Gehäuse, leider meist dennoch etwas laut), bis 10 °C nicht mehr akzeptabel.
Somit ist jeder der x-100 Millionen Menschen dafür verantwortlich, die bereits eine 300+ W Grafikkarte in ein Gehäuse packen.
Sehr gute Schlussfolgerung von dir!11!1!
Mit nächster Generation sind es auch bereits die ~ 500 € Käufer mit 300 W Grafikkarten.
Bei den 400 - 500 W Grafikkarten lässt man das Gehäuse am besten weg, außer man möchte eine mächtig laute Soundkulisse zu der Wärmeabgabe dazu. :D
Im 2D funktionieren die Intel GPUs absolut problemlos.
Kann ich nicht bestätigen, auf meinem Arbeitsplatz (Coffee Lake) zeigen dynamische Websites in Chromium teilweise deutliche Probleme.
Gut, das erst seit wir 32:9-Monitore mit 2x WQHD haben, es dürfte sich also weniger um ein generelles Treiberproblem und mehr um fehlende Leistungsfähigkeit handeln.
Zumindest die Zeiten in denen jeder IGP für Desktop ausreichend ist sind aber jedenfalls vorbei.
Leonidas
2022-06-27, 12:42:08
Welche deutlichen Probleme sind das?
Weil ich nutze selbst recht häufig Intels iGPUs älterer Bauart, allerdings nicht auf wirklich großen Monitoren.
Kann ich nicht bestätigen, auf meinem Arbeitsplatz (Coffee Lake) zeigen dynamische Websites in Chromium teilweise deutliche Probleme.
Gut, das erst seit wir 32:9-Monitore mit 2x WQHD haben, es dürfte sich also weniger um ein generelles Treiberproblem und mehr um fehlende Leistungsfähigkeit handeln.
Zumindest die Zeiten in denen jeder IGP für Desktop ausreichend ist sind aber jedenfalls vorbei.
Leistungsprobleme hatte ich auch massive, aber das ist ja nichts Neues. Die waren teils so eklatant, dass mein T460 mit 6600U 1-2 Sekunden Lag hatte, nur beim Verschieben von Excel 2013 von einem Monitor auf den nächsten (an der Dockingstation angeschlossen: 2x Samsung billig-FullHD Müll, dazu noch der integrierte Monitor, Desktop auf alle erweitert). Hatte auch mehrere Treiber probiert, war immer gleich. OS war Win10 Pro, 2x8GB Ram verbaut. Inzwischen ist das Ding durch ein P14S Gen2 mit 5850U ersetzt, keine Probleme seither. Und ich kann endlich auch Auflösungen über FHD nutzen, wodurch ich im Homeoffice auch meinen QHD und UHD vernünftig angesteuert bekomme.
Welche deutlichen Probleme sind das?
Allgemein Fenster skalieren/verschieben ruckelt sichtbar.
Moderne dynamische Websites sind teilweise extrem lahm. Vor allem jene die auch noch Videos spielen, wie Youtube.
Videobeschleunigung muss man im Browser deaktivieren, weil der IGP mit der gleichzeitigen Videobeschleunigung und Websitenaufbau nicht klarkommt, teilweise mit kompletten Bildaussetzern für mehrere Sekunden.
Im Windows Taskmanager sieht man auch schön, dass die GPU mit ständig auf 100% am Anschlag ist.
Es gibt kein Gehäuse am Markt, welches geschlossen, oder auch mit geöffneter Front/Deckel, die Wärmeabgabe exakt gleich gut abführen kann wie mit geöffnetem Seitenteil oder offenemen Aufbau.
Ja und? Muss der Lüfter eben etwas stärker drehen.
Bei den 400 - 500 W Grafikkarten lässt man das Gehäuse am besten weg, außer man möchte eine mächtig laute Soundkulisse zu der Wärmeabgabe dazu. :D
Also ich wäre ja für Wasser, ich hoffe für die nächste Generation gibt es schon eine Referenz mit vormontiertem Wasserblock.
Leonidas
2022-06-28, 05:21:30
Allgemein Fenster skalieren/verschieben ruckelt sichtbar.
.....
Verstanden. Scheint wohl eine Skalierung mit der Auflösung zu sein. Ich hab auf dem Notebook kein Problem damit, ist aber nicht größer als FullHD.
Wobei sich komplizierte chinesische Webseiten auch schon anders anfühlen, das bekommt man mit.
Es gibt kein Gehäuse am Markt, welches geschlossen, oder auch mit geöffneter Front/Deckel, die Wärmeabgabe exakt gleich gut abführen kann wie mit geöffnetem Seitenteil oder offenemen Aufbau.
Nein. Ich finde nur (Jahre zurück liegenden) Artikel dazu ad hoc nicht.
Bei 19"-Gehäusen stimmt das sowieso nicht.
Und z.B. ältere Mac Pro waren ziemlich ausgefeilt und brauchten dazu Seitenwand. Gibt sicher weitere Beispiele. Die meisten davon vermutlich Non-Standard von HP, Dell, usw.
Wenn man natürlich jede Quelle direkt anbläst, die aufgeheizte Luft nicht woanders gleich wieder angesaugt wird (Luftkanäle ftw) und keine Klima gezielt zuführt, geht nichts über komplett offen. Das geht aber eben nicht, EMV wird hier im Forum sowieso ignoriert und komplett offen ist kein Gehäuse.
Verstanden. Scheint wohl eine Skalierung mit der Auflösung zu sein. Ich hab auf dem Notebook kein Problem damit, ist aber nicht größer als FullHD.
Man merkt es teilweise auf Notebooks mit HiDPI Screens
Zumindest die Zeiten in denen jeder IGP für Desktop ausreichend ist sind aber jedenfalls vorbei.Gab es diese Zeiten jemals? Die VTBook war z.B. schon zu Lebzeiten für fast alles zu langsam :-(
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.