Online-Abo
  • Login
  • Registrieren
Games World
      • Von ALL_FOR_ONE Freizeitschrauber(in)
        Ich weiß nicht warum hier auf der 6000er Serie im Bezug auf die Leistungsaufnahme eingeprügelt wird,somal die 580 massenweise mehr Watt aus der Steckdose zieht.Wenn überhaubt hat AMD sich beim Kühlsystem zu verbessern .(Letztere sollten eigentlich bei TSMC im 32-nm-Prozess hergestellt werden, doch hat sich der Auftragsfertiger damals dazu entschlossen, diese "Node" zu überspringen und gleich auf 28 nm zu migrieren.)
      • Von r34ln00b Software-Overclocker(in)
        Zitat von Incredible Alk
        OK, dann bringt AMD also nach deiner Sicht keine neuen Modelle raus, NVidia tut dies weiter, sammelt alle Kunden ein und AMD geht Pleite.


        ... da hat jemand keine ahnung vom traden... .
      • Von eMMelol PC-Selbstbauer(in)
        Zitat von LoRDxRaVeN
        Deine Einschätzung ist doch seltsam. Das einzige, was man noch als richtig bezeichnen kann ist, dass die Erwartungen zu hoch waren. Ansonsten ist die HD6000er Serie durchaus gelungen (was nicht heißt, dass sie keine Mankos hat) und sehr konkurrenzfähig. Bis auf die GTX 580 kann man perfekt mithalten ("AMD hat dort Vorteile, Nvidia an anderer Stelle...") was eine spitzen Situation für den Kunden darstellt. Bei den Grafikkarten hat man zum Glück die Qual der Wahl, auch weil die Marktanteile im Bereich von 50:50 sind.
        Das würde ich mir auch bei den CPUs wünschen...


        Wobei ich aber immer noch sagen würde, dass AMD den Job bzgl Leistungsaufnahme besser gemacht hat, als Nvidia. Klar ist es nicht mehr so offensichtlich wie bei HD5000 vs. GTX 400, dennnoch hat Nvidia in diesem Punkt die größere Baustelle

        LG

        Oh man hier stimmt aber auch einiges nicht, bei den Marktanteilen solltest du dich eventuell besser informieren, da gab es erst diese Woche(gestern?) Nachrichten zu.. Und von der Leistungsaufnahme sah die Entwicklung von GTX4xx auf GTX 5xx für Nvidia besser aus als der von HD5xxx auf HD6xxx für AMD.

        Käufergunst bleibt dabei immer eine Sache die nicht zu hundert Prozent vorhergesagt werden kann weil nunmal auch persönliche Vorlieben dort mit reinspielen. Welches die "bessere" Karte ist zeigen Benchmakrks wunderbar, je nach eingesetztem Setting.

        mfg eMMe
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von doenertier84
        Ich glaube er meinte eher dass Computer in vielen Bereichen heute nicht mehr wegzudenken sind, womit er Recht hat


        Damit hätte er zum Teil Recht, ja. Aber wenn es um "Computer" geht, dann kann nicht Nvidia nach dem Wegfall von AMD 10000€ für einen 3D-Beschleuniger verlangen, denn den brauchen die meisten Computer nicht. Dann könnte, nach dem Wegfall von AMD, Intel, IBM, Sun und allen außer einem ARM-fertiger dieser CPUs für mehrere 1000€ verkaufen. Aber alzu viele auch nicht, denn in ettlichen Bereichen, wo heute Elektronik eingesetzt wird, geschieht dies, weil sie billiger als andere Lösungen ist. Wäre sie nicht mehr billiger, würde sich das ändern. Und alzu lange auch nicht, denn Mikrochiparchitekturen, die die einfachen, dringend benötigten Aufgaben erledigen können, gibt es wie Sand am Meer und ein globales Monopol auf Chipfertigung würde sehr schnell Konkurrenz bekommen.
        Das ist der entscheidende Pluspunkt der schnelllebigen Elektronikbranche: Wenn man sich alle 2 Jahre neu erfinden muss, dann muss man sich auch seine Marktposition alle 2 Jahre neu erkämpfen. Mit Erfahrung hat man das etwas leichter - aber der Vorteil reicht nicht aus, um x-fach höhere Gewinnspannen zu erzielen.

        Zitat
        Aber ist es tatsächlich so, dass wenn man alle Kosten für Treiber-Support, technische Entwicklung & Co. auf eine GTX 580 umrechnet da trotzdem gerade mal 80-100 € rauskommen würde? Selbst wenn der Großhändler die für 250 € bezieht, wäre das immer noch eine Marge, von der so manch anderer Industriezweig träumen muss.
        Also das soll nicht bedeuten dass ich deine Aussage anzweifel, ich habe schlichtweg keine Vorstellung davon. Vermutlich ist es auch besser so, sonst wüsste ich wie sehr die mich jedesmal über den Tisch ziehen


        Nein, das heißt das nicht. Die Kosten für Fertigung von PCB, GPU und weiteren Bauteilen sowie den Testaufwand pro Chip/Karte würde ich in dieser Größenordnung einordnen (genaue Zahlen sind best gehütete Geheimnisse. Das letzte in der Art, das rauskam, waren iirc 74$ für einen Yorkfield, der dann anfangs für 1000€, mitlerweile für etwas 100€ über die Ladentheke wandert) . Die Entwicklung der GPU und ggf. sogar der Treiber kosten ein vielfaches davon - aber das sind Fix-, nicht Stückkosten. Um diese zu bezahlen muss Nvidia mit der maximalen Zahl an Karten zum optimalen Preis den größten Gewinn einfahren und das ist, trotz der enormen Spanne zwischen Stückkosten und Stückpreis beim Endkunden im High-End-Bereich vollkommen unmöglich, das schafft (siehe Nvidia-Firmenbilanz) die ganze Produktpalette einer Generation gerade so, dass noch ein paar % echter Gewinn übrig bleiben, die man in Expansion investieren oder ausschütten kann.

        Zitat von PCGH_Marc
        Wieso das? Die HD 6950 etwa ist schneller und sparsamer als die HD 5870. Die HD 6970 ist halt viel näher am Limit, die HD 6990 Multi-GPU. Perf/Watt von HD 6870/6850 sind auch sehr gut, die HD 6790 ist halt Resteverwertung.


        "Sparsamer"? Es gibt Karten, bei denen macht die Kühlung einen größeren Verbrauchsunterschied, als zwischen den beiden besteht. "Schneller"? Das kann man sich je nach Einstellungen und Spiel (und ggf. Treiber - in dem Fall klarer Pluspunkt für die HD6, die mit einem neueren antrat) auch hinbiegen, wie man möchte. Die Unterschiede zwischen unterschiedlichen Modellen der HD5870 bzw. zwischen unterschiedlichen HD6950 sind auf alle Fälle größer, als zwischen HD5870 und HD6950 im Durchschnitt. Das nenne ich nicht einmal Fortschritt, geschweige denn "gut" oder gar "kein Verbesserungsbedarf". Mag sein, das Nvidia noch schlimmer ist, aber es gibt in meinen Augen definitiv einiges beim Stromverbrauch zu tun. (deutlich eher, als bei der Leistung - siehe Verkonsolierung...)
      • Von PCGH_Marc Lötkolbengott/-göttin
        Zitat von ruyven_macaran
        Abgesehen von der AF-Qualität (die man hoffentlich in dem Rahmen addressiert), ist der Verbrauch/Leistung auf HD5-Niveau der Punkt, den es an den HD6000 am dringensten zu verbessern gilt. In sofern würde ich nicht von "nur" sprechen.
        Wieso das? Die HD 6950 etwa ist schneller und sparsamer als die HD 5870. Die HD 6970 ist halt viel näher am Limit, die HD 6990 Multi-GPU. Perf/Watt von HD 6870/6850 sind auch sehr gut, die HD 6790 ist halt Resteverwertung.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
820241
Grafikkarten
Southern Islands
Der Branchendienst Digitimes meldet, das AMD am Mai mit der Massenfertigung der Radeon HD 7000 beginnen will. Außerdem soll es drei weitere Radeon-Karten aus der 6000er-Serie geben.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Southern-Islands-820241/
13.04.2011
http://www.pcgameshardware.de/screenshots/medium/2010/10/HD6k-Launch-Review-06.jpg
amd,radeon,grafikkarte
news