Online-Abo
  • Login
  • Registrieren
Games World
      • Von simonko Schraubenverwechsler(in)
        Es ist lustig wie einige User z.B. Doktor Cox nvidia verteidigen und immer wieder das AF- Problem dazu zur Hilfe nehmen. Sie sprechen von Objektivität, vergessen dabei aber Kritik am eigenen favorisierten Produkt.
        Wie da wären:


        Hoher Stromverbrauch
        zum Teil laut
        GTX 460 Latency- Problem mit älteren Chipsätzen (P35 und P45)
        DXVA (mpeg2) verursacht Augenkrebs ( Sat TV-Fussball: verfälschte Farben und Artefakte um die Spieler herum )
        Die ca. 20 Spiele die hardwarebeschleunigt Physix unterstützen sind in ca. 7 Jahren wohl als Gegenargument zu bezeichnen.
        brechende Lötstellen und Treiber welche die Graka butzeln
        Es wäre schön, wenn alle User mal über den Tellerrand der 3D Umgebung blicken würden, denn z.B bei DXVA hat bei meinem Vergleich (Formatunterstützung und deren Qualität) eindeutig ATI die Nase vorn.
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Ich will die Schwächen der Fermi nicht kleinreden - aber du sprachst bislang nicht von Fermi bzw. den Fermi-basierten Produkten, die im vorraus beworben wurden.
        Du sprachst von der Geforce400 Serie und davon, was Spieler stört.
        Da muss ich sagen: Was AMD als "quality" verspricht, hält dieses Versprechen nicht ein, was Nvidia als "GTX480" versprochen hat, tut es dagegen in weiten Teilen (da wurde nämlich nie von Effizienz geschwärmt). Was AMD an Schwächen liefert, kann der Nutzer nicht kompensieren, was Nvidia an Schwächen liefert, dagegen nahezu vollständig (bis auf die Stromaufnahme, aber die nehmen die meisten Heimnutzer eben wieder nicht war)

        -> Wer sich über die GTX480 aufregen möchte, der sollte vor Blick auf die HD68x0 sicherstellen, das ein Arzt in der Nähe ist.

        (man kann die Sache alternativ natürlich auch sachlich betrachten und gar nicht von Knallern und Katastrophen sprechen. Aber das wäre natürlich langweilig )
      • Von Skysnake Lötkolbengott/-göttin
        DP ist mir z.B. extrem wichtig, da ich halt nicht nur auf der Karte daddeln will und ich in den nächsten Jahren wohl selbst immer mehr Programm auf die GPU bringen will, bzw wohl auch meine Diplomarbeit in dem Bereich schreiben will.

        Dein Argument mit dem "guten" Netzteil zeigt, das du nicht verstanden hast, was ich meine. Wenn man als Firma ankündigt, ich bringt das 1Liter Auto auf die Straße und beim Verkaufsstart kommt dann raus das es doch 3 Liter frisst, dann isses egal, wie gut das Ding sonst ist, ein Grundlegendes Versprechen ist gebrochen worden.

        Bei Fermi hat nVidia extremst vor release auf die Effizients gesetzt, davon aber rein garnichts gehalten. Klar als normaler User hau ich mir halt nen wie du sagst "gutes" NT rein, damit sorg ich aber nur das mein System stabil läuft. Verbrauchen tut die Karte deswegen nicht, denn mit dem gleichen NT wäre ne sparsamere Karte eben auch nochmal sparsamer als mit nem "schlechteren" NT.

        Fermi war expliziet als Karte für wissenschaftliche Anwendungen angekündigt, und so mancher Cluster wurde auf die Versprechungen von nVidia hin geplant (ja sowas dauert etwas länger..) und am Ende hat man nicht das bekommen was man erwartet hat. Zwar immer noch besser als andere Sachen, daher wurde es auch eingesetzt, aber bei weitem nicht das was man erwartet hat, und Stromverbrauch + Kühlung sind in dem Bereich mit die größten Kostenfaktoren, wohlgemerkt da kosten die Karten mehr als das 4 fache von den Consumer Karten.

        Da machts auch nen riesen Unterschied ob bei 20-100 Karten jeder Karte 50 Watt mehr zieht oder nicht. Da kanns dann nämlich passieren, das du deine Stromversorgung nochmal umstellen darfst, die vermehrte Abwärme sorgt dann wenns dumm läuft dafür das deine Kühlung nicht mehr ausreicht und einzelne Stellen zu warm werden etc etc. Je größer das System wird, desto mehr kann dich ein erhöhter Strombedarf in Schwierigkeiten stürzen.

        Also von daher bleib ich dabei, das die gebrochenen Versprechungen schon ziemliche Knaller waren, auch wenn sie bei den meisten Nutzern nicht so extrem auftreten, außer halt das Problem, dass das alte NT halt nicht ausreicht.
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Jetzt schneidest du dir aber deine eigene Argumentation ab:
        Der Verbrauch der GTX480 in Anwendungen (d.h. da, wo es für User zählt) liegt innerhalb der Norm (und in Furmark&Co sprengt ATI afaik seit HD3-Zeiten das Budget), die DP-Leistung spielt für niemanden in der Zielgruppe eine Rolle und die Effizienz... - jeder zweite hier vertritt die Ansicht "solange es leise bleibt: OK", noch mehr reicht "solange es idle leise bleibt" und einigen ist es komplett egal.
        Wenn man diese Punkte als "ziemliche Knaller" bezeichnen möchte, dann sind Banding und Flimmern sicherlich nichts vernachlässigbar. (Zumal hohen Stromverbrauch durch gute Netzteile und hohe Abwärme durch gute Kühlung unspürbar machen kann. Aber wenn die Bildqualität unzureichend ist, dann wars das)


        P.S.: Was dagegen imho tatsächlich wurscht ist, ist die Tesselationsleistung. Denn bislang sind Spiele mit guter Grafik i.d.R. weder CPU noch PCI-E limitiert und woher die Polygone kommen, mit der die Shader überfordert sind, ist somit egal.
      • Von Skysnake Lötkolbengott/-göttin
        Cox, man sollte aber immer die Relationen beibehalten.

        Bei der 68x0 kann ich wie gesagt nicht sagen, wie extrem es wird in games, bei der 58x0 gabs die Sache aber auch mit dem Banding etc ganz kurz bevor die 6k Serie kam und da wars schon leicht Grenzdebiel. Man hat so lange für gebraucht um das vernünftig zeigbar zu machen, aber es soll doch nen Grund sein, das man ne AMD praktisch nur mit ner Beiszange anfassen kann. Das ist einfach lächerlich.

        Gut bei der 68x0 isses schon deutlich mehr, das sieht man, andererseits sagen auch wieder andere, ja hier kann man noch was einstellen dann isses etwas besser. Kann sein muss aber nicht. Man muss einfach schauen wies sonst noch so aussieht. Aus EINEM game kann man ne Karte nicht so krass in den Boden stampfen. Da fehlt einfach das Verhältnis, das es angemessen wäre. Festhalten und den Leuten kann man es, aber so derart unter die Nase reiben und dabei ziemlich überzogene Vergleiche benutzen muss man wirklich nicht.

        Statt: Kein normaler MEnsch kann es ertragen dieses abartig krasse piep piep Geflimmere zu ertragen, und wers kann ist Blind auf beiden Augen.
        Sondern: Ein extrem Optik bewusster (das gleiche wie Audiophiler Musik hörer der sich die 50k Anlage ins Zimmer stellt ) wird das Flimmern als sehr störend sehen. Für normale User kann es teilweise bei Games wie xy ebenfalls gelegentlich dazu kommen das sie das Flimmern bemerken.

        So macht das Sinn und nicht anders, weils nur nen gebasche ist. KEIN normaler User setzt sich vor er zockt hin liest zich Foren zur Bildqualität an und schaut dann ob er nicht irgendwo irgendwelche Bildfehler findet. Der setzt sich einfach davor, daddelt und freut sich an der schnellen "guten"(darüber kann man jetzt wieder streiten) Optik und das wars.

        Jetzt kommt sicher wieder: Ja der hat aber keinen Vergleich und bla und überhaupt...

        Ja UND genau das ist doch der springende Punkt. Solange er se nicht SIEHT von alleine, oder nachdem er es gelesen hat durch Zufall, dann ist die Welt in Ordnung und das "Problem" ist kein Problem für Ihn.

        Weist (ja dummes Auto beispiel...) bei nem Auto sagt doch auch keiner: Hey Hersteller xy hat bei nem Test gezeigt das x% der Autos 1-5 PS weniger haben als im Fahrzeugbrief steht. Den kann man nicht mehr kaufen, weil wenn ich 120 PS kauf dann will ich die. Mit 119 (als Extrembeispiel) kannste die KArre ja nicht mehr gebrauchen, das kannste ja keinem zumuten..... flame motz flame...

        Und das ist bei Autos öfters so, aber KEIN Mensch merkt jetzt ob die Karre 5 PS mehr oder weniger hat als sie soll. Ist auch total fürn Arsch. Ganz ehrlich. Bei ner ähnlichen Situation (wie ich finde) hier wird aber nen Aufriss gemacht als ob die Welt unter geht.

        Und Cox, bei der 400er Serie von nVidia haste genauso ins andere Extrem umgeschlagen. Das war auch nen bischen too much, wobeis da noch halbwegs ging. Da waren die "Probleme" meiner Ansicht nach aber auch größer. Einfach so mal ATX in den Wind schiesen und 50 Watt mehr verbrauchen als man darf UND angibt, dann die beschnittene DP LEistung und noch dazu die gebrochenen Versprechungen zu Effizienz. Das waren schon ziemliche knaller die halt auch recht leicht mitzubekommen sind.

        Trotzdem ist es an sich keine schlechte Karte und hat z.B. in Sachen Tesselation wirklich einiges drauf. War aber halt alles auf biegen und brechen drauf angelegt AMD zu versägen. Man hätte sich lieber mit Platz zwei begnügen sollen und gut ist. Mal zweiter zu sein ist in meinen Augen kein Weltuntergang.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
798025
Grafikkarten
Leaks zum kommenden High-End-Chip
Nachdem die Radeon HD 6870/6850 ihren Marktstart erfolgreich hinter sich gebracht haben, brodelt die Gerüchteküche zur Radeon HD 6970 mit Cayman XT. Nun gibt es erste angebliche Bilder einer Referenzkarte.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Leaks-zum-kommenden-High-End-Chip-798025/
06.11.2010
http://www.pcgameshardware.de/screenshots/medium/2010/10/AMD-Slide.jpg
radeon,amd
news