Online-Abo
  • Login
  • Registrieren
Games World
      • Von flankendiskriminator Gesperrt
        Zitat von -Xe0n-
        Aso, also hast du damals den Wert von ATI bestimmt und weist das ATI eig. nur 2-3 Milliarden Wert war? Denkste AMD ist so doof und lässt sich 2-3 Milliarden durch die lappen gehen?! ATI wird schon das Geld Wert gewesen sein was AMD dafür bezahlt hat.
        Ich bezweifel das der kauf von ATI AMD geschadet hat... im Gegenteil.
        AMD war mit CPU's selten vor Intel... selbst wenn Bulldozer floppen sollte, heist es nicht das es am kauf von ATI liegt...
        Tja, wirf doch mal einen Blick in die AMD-Quartalsberichte von vor 2-3 Jahren. Da wurden Millarden US-$ an Verlusten ausgeschrieben, weil der Wert von ATI in den Büchern korrigiert werden musste. Ergo wurde ATI viel zu teuer eingekauft. Weiß auch jeder, gab es inzwischen mehr als genug Hintergrundberichte dazu die alle einstimmig festgestellt haben, dass ATI viel zu teuer für AMD und im speziellen für AMDs Umsatz- und FInanzzahlen war. Man hat sich mit dem Kauf von ATI massiv überhoben.

        Beispiel:
        AMD vor weiteren Abschreibungen und Sonderbelastungen - Planet 3DNow! - Das Online-Magazin für den AMD-User
      • Von -Xe0n- Software-Overclocker(in)
        Zitat von flankendiskriminator
        Nehalem war ein großer Schritt vorwärts für die x86 CPUs, so wie jetzt Sandy Bridge.

        Nein, AMD musste einfach durch den viel zu hohen ATI-Kaufpreis massiv Geld sparen. Und das wurde natürlich bei der CPU-Entwicklung gespart, wo sonst? Man hat ATI bei einem Kaufpreis von über 5 Millarden eben 2, wenn nicht gar 3 Millarden zu teuer gekauft. Und das hat sich hinterher massiv gerächt. Da hätte man vom Management geschickter agieren müssen. Generell scheint mir bei AMD das Management das Problem. Zu Zeiten eines Atoms, wo man die deutlich stromsparendere Grundtechnologie hatte hat man diesen Markt bewusst ignoriert, jetzt versucht man die dort längst verlorenen Marktanteile zurück zu erobern. Genauso im SoC-Bereich für Tablets/Smartphones. Und auch den Markt der High-End Server/Workstations mit einer und zwei CPUs ignoriert man geflissentlich, obwohl auch dort massig umsatz machbar wäre. Ich frag mich manchmal echt wie man soviele Knallfrösche auf einem Haufen packen kann....

        Aso, also hast du damals den Wert von ATI bestimmt und weist das ATI eig. nur 2-3 Milliarden Wert war? Denkste AMD ist so doof und lässt sich 2-3 Milliarden durch die lappen gehen?! ATI wird schon das Geld Wert gewesen sein was AMD dafür bezahlt hat.
        Ich bezweifel das der kauf von ATI AMD geschadet hat... im Gegenteil.
        AMD war mit CPU's selten vor Intel... selbst wenn Bulldozer floppen sollte, heist es nicht das es am kauf von ATI liegt...
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von Noctua
        Mit welchen Chipsätzen? Die ersten Sockel A-Chipsätze von AMD warnen weitesgehend identisch (wenn nicht sogar die gleichen, ich kann mich nicht mehr genau erinnern) wie bei den Slot A-Boards.


        Und?
        Für OEM hätten die wohl mehr als ausgereicht. Was für OEM unpassend war: Der "AMD ist instabiler als Intel"-Ruf.
        Denn jeder noch so teure, noch so lahme, noch so heiße So423 Pentium 4 war einem Administrator lieber, als 1000 AMD-Rechner, die jeder im Schnitt alle 50 Tage abstürzen und vor denen ein DAU sitzt, der nicht in der Lage ist, die Ursachen zu beheben oder zu vermeiden.
        Diesen Ruf hatte AMD zu Sockel A Zeiten aber zu unrecht. Mit Ausnahme einiger iirc etwas grenzwertig getakteter K6-II und K6-III mit unzureichender (Boxed-)Kühlung sogar zu jeder Zeit. Aber die Chipsätze, insbesondere von Via und ganz besonders der KT133 (nötiger FSB-Takt: 100 MHz. Spezifizierter FSB-Takt: 100 MHz. Stabilitätsgrenze wird überschritten bei: 102 MHz FSB....) und die Southbridge von KT133A und KT266 waren verantwortlich für diesen Ruf, der AMD noch bis weit in die At64-Zeit anhing.

        Zitat
        War es da nicht eher so, dass man es nVidia verboten hat? Da gabs doch mal was, da man ja jetzt mit ATI auch neues Chipsatz-KnowHow gekauft hat (wobei nVidia hier noch jahrelangen Vorsprung hatte).
        Und kurz zuvor hat auch Intel nVidia verboten neue Chipsätze für Intel-CPUs rauszubringen und daher hat nVidia auch die Entwicklung in diese Richtung eingestellt.


        AMD hat Nvidia nie was verboten - wäre auch schwierig, nachdem man HT (und Crossfire) zu offenen Standards erklärt hat, darf nunmal jeder dafür entwickeln. Was geschehen ist, die Favorisierung von ATI (z.B. auch Marketing), was Nvidia für die Zukunft vermutlich komplett auf den Retailmarkt beschränkt hätte und die Ankündigung von Fusion (damals iirc für 2008/2009...), was für die hochpreisigen Nvidia-IGPs komplett überflüssig machte. Damit war die AMD-Plattform für Nvidia über Nacht zu einer Niesche geworden, in der man mittelfristig nur noch Oberklasse-Spielerchipsätze absetzen konnte. Bis Nehalem war dann aber noch ein bißchen Zeit und afaik hat sich Nvidia erst einmal auf Intel-Chipsätze konzentriert (die zwar nicht wirklich viel neues boten - aber im Vergleich zum NF4ie waren die nachfolgenden Generationen doch deutlich breiter aufgestellt). Intel hat dann etwas später eine Lizenz für QPI verweigert und angefochten, dass Nvidia eine für DMI hätte (viel Platz für alternative Chipsätze lassen So1155 und 1156 aber eh nicht). Daraufhin hat Nvidia den Laden ganz geschlossen, weil einfach kein Markt mehr frei war.


        Zitat
        Sehe ich ähnlich, aber ich glaube mich zu erinnern, dass auch ein Grund für die Übernahme das Chipsatz-KnowHow von ATI für AMD-CPUs.


        Glaube ich eher nicht. AMDs eigene Chipsätze waren zwar nicht die schnellsten, aber eigentlich immer recht solide und wurden quasi "aus dem nichts" entwickelt. Da hätte man mit 54 Millionen Investion in sich selbst (und vielleicht nochmal das gleiche in PowerVR-Grafik) sicherlich das gleiche rausholen können, wie mit den 5,4 Milliarden für ATI.


        Zitat von Noctua
        Und dafür nimmt man in Kauf, dass der CPU-Teil der CPU (auch wenn AMD es APU nennt) leistungsschwach und veraltet (der Llano basiert ja schliesslich auf dem Athlon II X4) ist, nur um einen tollen GPU-Teil zu haben? Wo steckt da der Sinn dahinter? Nach diversen Test schlägt der i3-2100 in der CPU-Leistung den A3850, ist sparsamer und kostet weniger. Steckt man noch eine Radeon 6570 (ab 55,-) dazu, hat man mehr Leistung für den gleichen Preis/Verbrauch.


        Es ging um den Sinn von cpIGPs und der Ati-Aquisition für AMD, nicht um die konkreten Produkte am Markt.
      • Von Xibit1990 Komplett-PC-Aufrüster(in)
        Ich hoffe dass die benchmarks fake sind oder ein defektes ES ist!
        Ich dachte einiges mehr von Bulldozer naja.
        Wer zu letzt lacht, lacht am besten.
      • Von Noctua BIOS-Overclocker(in)
        Ja mach ich auch, da es sich um eine vor allem um eine CPU handelt. Und Llano ist bestimmt keine Zocker-CPU. Und zum vernünftigen Spielen ist die GPU auch zu schwach. Selbst wenn der Bulldozer eine bessere Grafikeinheit hat, bezahle ich trotzdem dafür, obwohl ich mir fürs Spielen eine extra Grafikkarte reinstecke.
        Und mal ganz davon abgesehen, dass man mit dem PC noch andere Dinge als Spielen macht.
        Hätte AMD ganz auf die Grafikeinheit verzichtet und einfach nur den Athlon II X4 und die Radeon 6550 (bzw die 6670 die es ja schon gibt) einzeln verkauft, hätten sie noch mehr gespart.
        AMD hat sich einfach zu sehr auf die Grafik konzentriert und die CPU vernachlässigt. Und das schönreden des Llano wegen der ach so tollen Fragen nervt einfach nur noch.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
841891
CPU
Prozessoren
Am Wochenende kamen Gerüchte auf, dass AMD den Bulldozer, konkret den Zambezi ("FX") - ab kommender - also nun dieser - Woche von der Leine lässt. Angeblich habe AMD dies auf der Hot-Chips-Konferenz gesagt. Die Gerüchte beziehen sich auf einen Artikel von ZD Net. Dem ist aber wohl nicht so.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/Prozessoren-841891/
29.08.2011
http://www.pcgameshardware.de/screenshots/medium/2011/08/AMD_Bulldozer_PCGH_Gamescom-18271.JPG
amd,bulldozer,cpu
news