Online-Abo
  • Login
  • Registrieren
Games World
      • Von FatBoo PC-Selbstbauer(in)
        Zitat von Sonnendieb
        ein LCD der weniger als 100 Watt verbraucht in der größe o_O den würd ich gern ma sehen

        LED sind anders als LCD

        LED=Leuchtdioden das sind ganz kleine LÄMPCHEN
        LCD=Lizium-Kristall-Dioden; das dürfte dann flüssigkeit sein

        Mein LED 23" Monitor verbraucht Maximal 23 Watt und ein gleichwertiger LCD etwa 50 Watt
        Kannste gerne sehen, geh einfach in das nächste Elektrofachgeschäft

        Panasonic TX-L37S20 kalibriert 92W
        Sony 37W5500 kalibriert 90W
        Samsung LE40C650 kalibriert 79W

        usw. usw.

        Einstellen is halt das A und O

        Diese "LED"-Modelle sind nach wie vor "stinknormale" LCD-Panels nur werden statt CCFL-Röhren LEDs als Hintergrundbeleuchtung verwendet. Der Rest ist gleich!

        Die Technologie, die du (und viele andere) hinter den "LED"-Modellen vermuten, ist erst in ein paar Jahren serienreif (OLED).

        Bei der Hintergrundbeleuchtung mit LEDs gibt es dreierlei Möglichkeiten.
        Im ersten Fall sind die LEDs nur im Rand des Panels angebracht. Mittels Polarisationsfolien wird dann versucht eine gleichmäßige Verteilung des Lichts zu erreichen.
        Vor allem die ersten dieser Edge-LED-LCDs hatten/haben eine furchtbare Helligkeitsverteilung.
        Dieser Typ ist am weitesten verbreitet, weil dadurch ganz einfach sehr geringe Bautiefen erreicht werden können und die Dinger schlicht billig sind.
        Die 08/15-Kunden kaufen dann halt das dünne Modell, statt Wert auf Bildqualität zu legen.
        Dennoch sind viele aktuelle Edge-LED-LCDs recht dick. Theoretisch sind 4mm Paneldicke durchaus möglich, wäre da nicht die Stabilität
        Samsung ist führend auf den Gebiet und hat das Ausleuchtungproblem bei der aktuellen C-Serie (TVs) ganz gut im Griff!

        Die zweite Möglichkeit ist kaum verbreitet. Hier sind die LEDs hinter dem gesamten Panel verteilt, statt nur im Rand. Dadurch wird eine sehr homogene Ausleuchtung erreicht, noch gleichmäßiger als bei CCFL-Röhren.
        Samsung hatte mal ein Modell (M91) mit dieser Technologie, derzeit bietet Sharp diese Technologie an.

        Die dritte und bildtechnisch beste Variante sind die LED-LCDs mit "local-dimming".
        Wie bei Variante 2 sind dort die LEDs hinter dem gesamten Panel angeordnet. Allerdings können diese je nach Bildinhalt in einzelnen Gruppen (Clustern) gedimmt werden. Manchmal behaupten selbsternannte Experten, dass jeder Pixel einzel gedimmt werden würde, das ist natürlich absurd.
        Je mehr dieser Cluster man hat, desto feiner kann die Beleuchtung reguliert werden. Bei 46" Diagonale ist man derzeit bei ~250 solcher Segmente.
        Noch professioneller wird das Ganze, wenn man statt weißer LEDs RGB-LEDs als Hintergrundbeleuchtung einsetzt. Im Sony x4500 und im Sharp XS1E findet man solche Spitzentechnik.
        Leider bauen solche (RGB-)LD-LED-LCDs recht dick, dafür ist das Bild meist weitaus besser als bei den Edge-LED-Krücken. Die goldene Ausnahme ist der Sharp XS1E, aber das bezahlt man dann auch!

        So viel dazu... Einfach informieren, ist ja heutzutage denkbar einfach!
      • Von Sonnendieb Komplett-PC-Aufrüster(in)
        Zitat von FatBoo
        Aktuelle 37" CCFL-LCDs verbrauchen kalibriert <100W.
        Der Toshiba SV685 (LD-LED-LCD) braucht kalibriert nur 135W (in 46")

        Dass die "LED-Monitore" nach wie vor LCDs sind, weißt du aber schon?
        ein LCD der weniger als 100 Watt verbraucht in der größe o_O den würd ich gern ma sehen

        LED sind anders als LCD

        LED=Leuchtdioden das sind ganz kleine LÄMPCHEN
        LCD=Lizium-Kristall-Dioden; das dürfte dann flüssigkeit sein

        Mein LED 23" Monitor verbraucht Maximal 23 Watt und ein gleichwertiger LCD etwa 50 Watt
      • Von jobo PC-Selbstbauer(in)
        sieht nicht so schlecht aus, aber die Leistungsaufnahme ist mir einfach zu hoch und dementsprechen warscheinlich auch die Lautsärke. Das ist nichts für mich. Trozdem freue ich mich auf eine ausführlichen Test von PCGH.
        Nvidia muss aber auch Mittelklasse-karten herausbringen mit wenn möglich geringer Leistungsaufnahme. 5770 und 5750 sind ja auch recht beliebt, hier muss Nvidia mindestens eine GPU ins Duell schicken und auch AMDs untere Mittelklasse sollte Nvidia angreifen, aber besonderst hier ist geringe Leistungsaufnahme bzw. Lautstärke wichtig, da solche Karten öfter in leise und sparsame (Mini)PCs verbaut werden.
      • Von FatBoo PC-Selbstbauer(in)
        Zitat von Sonnendieb

        Ein LCD braucht Maximal 250 Watt bei 37 Zoll
        Ein Plasma bis max. 320 Watt
        Eine Röhre wenns hochkommt 200 Watt
        Aktuelle 37" CCFL-LCDs verbrauchen kalibriert <100W.
        Der Toshiba SV685 (LD-LED-LCD) braucht kalibriert nur 135W (in 46")

        Ein 50" Plasma bekommt man kalibriert auf <300W, ein 42" auf unter 230W... Man muss halt einfach die Dinger richtig einstellen, sonst saugen die Strom wie die sau und liefern trotzdem kein gutes Bild.
        Warum sich die Faulheit eingebürgert hat, verstehe ich nicht. Man bekommt ein teils wesentlich besseres Bild und spart auch noch Geld.

        Zitat von Sonnendieb
        gehen oder Baden fahren statt vorm Fernseher zu sitzen oder vorm Rechner
        Wieder nen Röhrenbildschirm Kaufen oder gleich nen LED (wenn mans Geld hat), denn die verbauchen nich soviel wie Plasma und LCD
        Dass die "LED-Monitore" nach wie vor LCDs sind, weißt du aber schon?
        Bei den kleinen Diagonalen, wie man sie im Monitor-Bereich findet, sind die Unterschiede hinsichtlich der Ersparnis marginal.
        Das "Problem" liegt einfach darin, dass viele ihre Monitore mit den Out-of-the-Box-Settings betreiben, welche von einem kalibrierten und effizienten Bild meilenweit entfernt sind. Hauptsache 300cd/m²
        Aber viele Hersteller müssen ihre Monitore ja mit 100% Helligkeit ausliefern, sonst hören die Kunden ja ihre ranzigen Inverter brummen
        Bei einer solchen Mentalität fällt es nicht schwer, Möglichkeiten zum Einsparen von Energie(kosten) zu finden.

        [/offtopic]
      • Von Gunny Hartman Gesperrt
        Zitat von Hugo78
        Viel diffuser Text, aber meine Frage hast du nicht beantwortet.
        Schade eigentlich.

        1. Die 460 tritt nicht gegen die 5850 an, sondern hier ist die 5830 der Gegner.
        2. 20W oder lass es 30W sein, zur 5830 machen den Kohl nicht fett,
        wenn die 460 ne deutlich bessere DX11 Leistung, hat als die 5830 hat und der Preis unter 200€ liegt.
        3. Klar wird das anfangs nicht der Fall sein, aber sollte NV doch soviel "Ausschuß Fermis" haben, dann könnte es durchaus sein, das der Markt auf Lagerbestände, mit einer Preissenkung reagiert.
        Zum erstmal in der noch jungen DX11 Karten Geschichte, könnte es mal zu einem Preiskampf kommen ...

        Also warum warten?
        Weil man irgendwann im Herbst ein refresh hat? Ne...
        Die 460 würde jetzt schon ein paar preisbewusste Käufer glücklich machen.
        Denn btw ... die 5830 ist auch kein Stromsparwunder und ist mit 200€ eigentlich zu teuer, mit Blick auf die Leistung gegenüber der 5770, die bekommt man schon für knapp über 110€.
        Die 460er muss wohl gegen eine HD 5850 antreten, wenn sie 280 - 300€ kosten soll. 220€ wird die niemals kosten, zumindest nicht am Anfang.
        Für preisbewusste Käufer ist die 460er jedenfalls nichts. Wenn Ati den "Schrott" schon für 200€ verkauft, wie will Nvidia den "Schrott" dann ähnlich billig verkaufen?

        Einzig Nvidia profitiert davon, aus den Fermi-GPUs eine 460er zu machen, da man so die "Reste" der Fertigung los wird. So viel Ausschuss wird Nvidia wohl auch nicht haben, dass man damit den Markt so sättigen könnte, dass es da gleich zu Preissenkungen kommt. Ich zweifle jedenfalls daran, dass die 460er auf Basis des GF100 ein Erfolg wie die GTX 260 wird.

        Wenn das für dich diffuser Text war, bist du vielleicht nicht in der Lage logisch zu denken und somit zu verstehen was Ich meine.
        Von mir aus soll Nvidia eine GTX 460 auf Basis des GF 100 machen. Aber Nvidia würde die bessere GTX 460 machen, wenn man auf ein Refresh setzen würde. Denn wenn man den Cache entfernt und das ganze Design überarbeitet, kann man eventuell noch mehr Shader aktiviert lassen und die Karte somit schneller machen. Da dies auch die Ausbeute verbessern würde, hätte man mehr Spielraum beim Preis. Ich hoffe das beantwortet deine Frage. Nicht dass es wieder zu diffus für dich ist
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
746840
Grafikkarten
Neuer Preis-Leistungshit?
Die Geforce GTX 460/465 ist aktuell das Top-Thema bei GPU-Diskussionen. Grund genug sämtliche Informationen und die neuen Gerüchte in einem Artikel zusammen zu fassen.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Neuer-Preis-Leistungshit-746840/
04.05.2010
http://www.pcgameshardware.de/screenshots/medium/2010/03/GTX400-321cba-01.jpg
Nvidia, Geforce, GTX 460, GTX 465, Grafikkarte
news