Online-Abo
  • Login
  • Registrieren
Games World
      • Von Olstyle Moderator
        Ich erinnere mich noch den original Test in der PCG ohne H gelesen zu haben. [emoji14]
      • Von gorgeous188 Software-Overclocker(in)
        Ich erinnere mich noch daran, wie dieses Thema 2008 in der PCGH Retro von Henner Schröder besprochen wurde. Hach das waren noch Zeiten
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von Fonce
        Nein 16Bit sahen nicht überall gleich aus. Die Karten von ATi und NV haben bei 16Bit auch intern mit 16Bit gearbeitet wärend die Karten von 3DFX und später die Kyro Chips bei 16Bit intern mit wenn ich mich richtig erinnere 32Bit(Der Kyro II glaube ich sogar mit 48Bit, dem war auch egal ob man 16 oder 32 Bit einstellte was die Performance anging) gerechnet haben was dann schon zu einer leicht höheren Genauigkeit bei der späteren Darstellung in 16Bit führte.

        Die Kyros haben intern immer mit 32 Bit gerechnet, aber Poiu hat die 16 Bit Qualität der TNTs als unbrauchbar bezeichnet - das war drei Generationen früher. Damals gabs nur reines 16 Bit und reines 32 Bit und das sah auch jeweils identisch aus. Etwas später kam bei der Voodoo3 noch "22 Bit" hinzu, wo ebenfalls intern genauer gerechnet wurde, als ausgegeben - aber normales 16 Bit sah auch da aus, wie normales 16 Bit eben aussieht.
      • Von ΔΣΛ PCGH-Community-Veteran(in)
        Schade das es XGI nicht mehr gibt, mehr Konkurrenz im Grafikmarkt täte allen gut, wenigstens steigt Intel (zumindest im LowEnd Markt) zu einer neuen dritten Macht auf, in der Verbreitung sind sie ja schon klare Nr1.
      • Von Fonce Komplett-PC-Aufrüster(in)
        Zitat von poiu
        PPS bei Geforce hieß das wohl hidden surface removal = HSR (software), TIle BAsed Rendering war nur Kyro
        Also eine HSR ähnliche Technik nutzen die GPU seit der Kyro II eigentlich alle.

        Zitat von ruyven_macaran


        16 Bit sind 16 Bit und sahen überall gleich aus. Als es noch 3Dfx gegen Nvidia war, gab es ja glücklicherweise kaum/keine Treiberbetrügereien. Das einige Spiele der Mitt90er auf Nvidia schlechter Aussahen, lag nicht daran, dass die bei 16 Bit irgendwas falsch gemacht haben, sondern daran, dass einige Entwickler viele Effekte und/oder bessere Texturen nur im GLide-Modus anboten, weil die DX-Version der Engine irgendwo auf dem Stand von D3D 5 oder älter war, dabei konnte ein TNT längst alles (und mehr) darstellen, was eine V2 konnte. Aber zu sehen bekam man das dann höchstens mit einem guten GLide-Wrapper :-/
        Nein 16Bit sahen nicht überall gleich aus. Die Karten von ATi und NV haben bei 16Bit auch intern mit 16Bit gearbeitet wärend die Karten von 3DFX und später die Kyro Chips bei 16Bit intern mit wenn ich mich richtig erinnere 32Bit(Der Kyro II glaube ich sogar mit 48Bit, dem war auch egal ob man 16 oder 32 Bit einstellte was die Performance anging) gerechnet haben was dann schon zu einer leicht höheren Genauigkeit bei der späteren Darstellung in 16Bit führte.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
659743
Retrospektive
Der Fall Volari - Aufstieg und Niedergang von XGI (PCGH-Retro, 15. September)
Der Fall Volari - das geschah am 15. September. Jeden Tag wagt PC Games Hardware einen Blick zurück in die noch junge, aber bewegte Geschichte des Computers.
http://www.pcgameshardware.de/Retrospektive-Thema-214694/News/Der-Fall-Volari-Aufstieg-und-Niedergang-von-XGI-PCGH-Retro-15-September-659743/
15.09.2016
http://www.pcgameshardware.de/screenshots/medium/2014/12/Retroaufmacher_2014_b2teaser_169.jpg
pcgh retro,grafikkarte
news