Online-Abo
  • Login
  • Registrieren
Games World
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von BloodySuicide
        Das Gerücht wurde von AMD offiziel dementiert! Quelle: P3D


        P3D-zitiert-irgend-eine-andere-News-Seite ist KEIN "offiziellies" Dementi, sondern genauso schlecht belegt, wie das ursprüngliche Gerücht selbst. Und da es bei einem AMDs-Zukunft-sieht-schlecht-aus-Gerücht fast immer eine Alternativmeldung gibt und P3D diese immer zitiert (Stichwort: Intel-Killer Bulldozer), wäre "Aussage gegen Aussage" schon eine recht positive Betrachtung der Situation.


        Zitat von painbot
        Unter 2 Konkurrenten kann nur einer die schnellere CPU anbieten, im Moment ist das Intel. Doch bloss weil der andere nicht ganz an die Leistung heranreichen kann, heißt dass noch lange nicht, dass es sich um keine High-End-Prozessoren handelt. Man vergleiche AMDs CPUs mal mit VIAs Angebot
        Im Grunde genommen reicht die Leistung beider CPU-Hersteller im Moment vollkommen aus (für 99% der PC-Nutzer, man darf nicht vergessen, dass Zocker, auch wenn man im Netz einen anderen Eindruck bekommen kann, nur eine Minderheit auf dem Markt ausmachen )


        "Im Moment" ist gut. AMD hat seit Mitte des letzten Jahrzehnts die nicht mehr die schnellere CPU. Der "Moment" in dem AMD schneller als Intel war, war auch nicht länger - selbst wenn man ihn aus reiner Zockersicht betrachtet. "Ausreichend" stimmt dagegen zwar. Nur: "Ausreichend" ist eben auch ein Sandy Bridge i3. Oder der Core2Quad/Phenom x6, den man schon hat. Wenn AMD weiterhin nur ausreichende CPUs anbietet, dann müssen sie das auch weiterhin in Preisregionen machen, mit denen man keine High-End-Entwicklungen finanzieren kann.
        Und genau darauf baut das Gerücht auf: AMD ist bei weitem zu klein, um sich eine 3-4-5 Entwicklungsreihen parallel zu erlauben. Derzeit hat man Bobcat, Trinity und Server samt FX-Ableger im Feuer, erstere beide mit mobile-Ableger. Davon muss irgendwas weg, wenn AMD in Zukunft genug Manpower auf ein Projekt konzentrieren möchte, um damit am Markt zu sein, ehe es nur noch mittelprächtige P/L-Konkurrenz gegenüber Intel ist. Also haben sie die Wahl:
        Die low-End-Sparte absägen, die Kreise um Intels Atom dreht und Chancen auf den Tablet-Boom hat bzw. sich optimal für günstige Subnotebooks unterhalb der kritischen 600 $ eignet, über der Intels Ultrabooks vergammeln?
        Mittelklasse APUs absägen, die dank AMDs-Grafik-Know-How DAS Lieblingskind diverser OEMs sind und sich optimal für einfachere Heim-PCs und bezahlbare Notebooks eignen, insbesondere also auch für die explodierenden Märkte in Südamerika, Afrika und einigen ostasiatischen Provinzen?
        Oder die ""high-end""-CPUs einstellen, die sowieso kein Land gegen Intel sehen, die man im Serversegment durch die eigenen GPUs ersetzen möchte, die im Dekstopmarkt höchstens noch von Hard Core Zockern benötigt werden und die sich insgesamt nur über Dumping-Preise verkaufen?

        Das Gerücht muss nicht wahr sein, aber es ist deutlich naheliegender, als diverse Fanboyträume von konkurrenzfähigen Hochleistungs-CPUs in den nächsten Jahren. AMD hat die Einnahmen des kurzen Erfolges nun einmal vollständig in GPU-Know-How investiert und nun sind die dazu verdammt, damit Marktanteile zu gewinnen, denn im CPU-Bereich sind sie wieder da angelangt, wo sie saßen, bevor Intel ihnen mit der Netburst-Pannenserie eine Aufstiegschance geboten hat. Und zusätzlich fehlt ihnen heute auch noch eine konkurrenzfähige Fertigung.


        Zitat von Perry
        Das AMD ein prinzipielles Design Problem bei seinen Prozessoren ist ja auch klar, früher hatten sie da den großen Vorteil, da die Pentium 4 Prozessoren nur 2-fach skalar ausgelegt waren, ab den Core 2 sind die Prozessoren aber 4-fach Skalar ausgelegt, die AMD's waren die ganze Zeit über 3-fach, die Bulldozer sind dabei ja auch noch etwas kastriert mit ihre CMT.


        Die ALU-Struktur von Netburst ist eine Geschichte für sich (und die Erklärungen für die schlechte IPC somit auch), aber einfach gesagt hatte der Pentium 4 drei ALUs und der Decoder war sowieso dreifach Skalar. Bei Core dagegen ist der Decoder 4 fach skalar, es gibt aber weiterhin nur drei ALUs - und daran hat sich bis heute nichts geändert. Mit Ausnahme von eben Bulldozer gab es afaik seit dem Sockel7 keine CPU-Kerne mit nur zwei Ausführungeinheiten mehr. (wobei die ALUs bei Bulldozer auch nur in Single-Thread-Szenarien ein Problem sein sollten. Sonst geht es eben darum, dass es für alle vier Stück nur einen vierfach-sklaren Decoder gibt und der muss, im Gegensatz zu Intels 4 auf 3 Konzept, auch noch ohne diverse Zwischenspeicher-Technologien für bereits decodierte Instruktionen auskommen)



        Zitat von Locuza
        AMDs Design sieht schlanke Kerne vor, welche ansonsten hochgetaktet werden und alle Ressourcen zur Verfügung haben.
        Das ist eine gute Idee,


        Das ist die Idee, die hinter Netburst stand.
        (und ja, sie ist gut. Wenn entweder Fertigung oder der mögliche Verbrauchsrahmen entsprechende Taktraten zulässt. Sollte man an dieser Stelle noch einmal daran erinnern, dass sich auf den allerersten AMD-Folien zur Bulldozerarchitektur ein 10 GHz-Versprechen findet?)


        Zitat von mad-onion
        Also entweder bescheren sie dem Bulldozer 8 "echte" Kerne (logische Konsequenz: mehr IPC) oder sie stellen eine komplett neue Architektur vor.


        Bulldozer ohne Module wäre eine komplett neue Architektur.

        Zitat
        Vielleicht liegts ja auch an SOI, komischerweise belichtet Intel ja Bulk-Wafer und hat damit mehr Erfolg als AMD mit den teureren SOI-Wafern.
        Das Patentabkommen kann AMD nicht verbieten, Bulk-Wafer zu nutzen...
        Und wenn SOI der Stein der Weisen wäre, hätte Intel längst danach gegriffen.


        Intel hat sich mehrfach mit SOI beschäftigt - die Vorteile sind dünn, aber vorhanden, rechtfertigten aber für Intel nie den Umstieg, für AMD und IBM halt schon. Wenn man nicht zusätzlich einen Node in der Fertigung zurückliegen würde, wäre daran auch nichts auszusetzen.

        Zitat
        PS: ich bin auch AMD-Veteran seit dem K62 500MHz, habe miterlebt wie AMD immer wieder Vorreiter neuer Technologien war, wie der 64-bit Erweiterung, welche sich erst jetzt (~8 Jahre Später) langsam durchsetzt.


        "immer wieder"? Fällt dir noch ein zweites Beispiel ein?
        AMD hatte zwar mehrmals gute Ideen, aber nie die Marktmacht, um Standards durchzusetzen. Selbst AMD64 hat den Durchbruch nicht dank AMD geschafft (für viele wirds halt erst heute interessant - und selbst im Serverbereich war es erstmal in vielen Fällen nur "nice to have"), sondern weil M$ seinerzeit klargestellt hat, dass es keine weiteres 64 Bit Windows geben wird und AMD nunmal erste waren. Damit war Intel gezwungen, Yamhill zu beerdigen bzw. für Prescott eine AMD64-kompatible Variante zu entwickeln. Hätte M$ die Sache seinerzeit offen gelassen, hätten wir ggf. ein paar Jahre lang AMD64-CPUs gehabt, deren 64-Bit Funktion für die breite Masse uninteressant gewesen sind und dann wären 2005-2006 Intel CPUs mit dazu inkompatibler 64-Bit-Erweiterung erschienen, die die Marktmehrheit gehabt hätten und AMD64 wäre den gleichen Weg gegangen, wie P3D davor oder SSE4a danach.
      • Von ChrisMK72 Software-Overclocker(in)
        Zitat von BloodySuicide
        Das Gerücht wurde von AMD offiziel dementiert! Quelle: P3D


        So viel also zu den "Gerüchten" die verbreitet werden ( auch hier ).

        Quatsch mit Sosse.

        Dachte da wäre mehr dran. Alle Aufregung umsonst. Da fühlt man sich manchmal schon ganz schön ver......äppelt ....
      • Von Locuza Lötkolbengott/-göttin
        Zitat von mad-onion

        [1]Also entweder bescheren sie dem Bulldozer 8 "echte" Kerne (logische Konsequenz: mehr IPC) oder sie stellen eine komplett neue Architektur vor.
        Alles andere ist aus meiner Sicht zum scheitern verurteilt, bevor es überhaupt begonnen hat.
        [2]Wenn man schon keine eigenen Fabs mehr hat, sollte man das gesparte Geld in die Entwicklung neuer High-End CPUs und nicht den Kopf in den Sand stecken.
        Vielleicht liegts ja auch an SOI, komischerweise belichtet Intel ja Bulk-Wafer und hat damit mehr Erfolg als AMD mit den teureren SOI-Wafern.
        Das Patentabkommen kann AMD nicht verbieten, Bulk-Wafer zu nutzen...
        Und wenn SOI der Stein der Weisen wäre, hätte Intel längst danach gegriffen.

        [1] Ohne mich jemals als solcher bezeichnen zu wollen, aber woher kommen solche Experten-Meinungen? Entweder 8 " echte " Kerne oder eine neue Architektur, ansonsten ist der Rest zum scheitern verurteilt?
        [2] AMD ist aber nicht der einzige der SOI verwendet, es verwenden einige SOI oder Abkommen davon.
      • Von beercarrier Software-Overclocker(in)
        Zitat von MG42
        Wie meinstn des jetzt? Dass die geben AMD ihr aktuelles Know-How?
        Vielleicht solltte AMD einfach mal bei Intel anfragen, ob sie nicht mal dem Bulldozer verbrauchseffizient auf die Sprünge helfen.

        AMD wird mindestens 5 Jahre auch ohne solche Gehinrgespinste machen, zwar nicht mehr an der CPU Leistungsspitze, aber immerhin.

        in etwa so wie via? sry das is für mich tot, vorallem da es auf dem embedded markt andere mindestens gleichgute architekturen gibt.
        p.s. "scheinfirmen", "scheinselbstständigkeit"

        Zitat von Perry
        Das mit Steve obs ist jetzt doch wohl ein Scherz, nicht weil er nun schon tot ist, sondern weil der eher ein Marketing Typ war und kein Ingenieur, Jobs war gut darin aus den Ideen Anderer die auszuwählen die Erfolg haben können und weniger darin wirklich eigene (technische) Ideen zu haben.
        er hat ein erfolgreiches produkt beschrieben, das die ings mit eher leistungsschwacher hardware zusammengeschraubt haben. der imac war die retttung für apple, nichts anderes braucht amd jetzt auch jmd der ihnen zeigt wofür man die hardware verwenden kann, ehrlich pc´s da haben sie keine chance riesige gewinne einzufahren und mittlerweile fehlen eben echt schon ein paar jahre entwicklungsarbeit auf intel. aber ohne ein entsprechendes produkt wird keiner ein paar hundert milliarden in den laden versenken.

        @rolk
        warum sollte amd geld in die entwicklung von server cpu´s versickern lassen, wenn sie
        a bei der fertigung gegenüber intel eh immer das nach sehen haben
        b intel die nächsten 3, 4 schritte in der entwicklung schon fertig in der schublade liegen hat
        c server (auch die x86) sind in der regel langfristige anschaffungen da kommt es nicht zwingend auf den preis an, eher auf die technologie, perfomance zu watt, es gibt nicht wirklich viele die amd server in großem umfang kaufen würden, gut die chinesen, aber die muss man mit bauplänen bestechen, von daher
        warum?
      • Von Rolk Lötkolbengott/-göttin
        Zitat
        Hinzu kommt, dass AMD sowieso leistungsstarke Prozessoren für den Server-Markt entwickeln muss und diese Einnahmequelle sicher nicht fallen lässt. Der Entwicklungsschritt von der Server-CPUs zum Desktop-Pendant ist klein.
        Dachte ich mir auch schon. Ich denke das Gerücht kann man getrosst vergessen.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1020402
Komplett-PC
AMD will bald keine High-End-Prozessoren mehr bauen? Das kann ich einfach nicht glauben! Die PCGH-Redaktionskolumne
In der allwöchentlichen Redaktions-Kolumne textet ein PCGH-Redakteur über Hardware- oder Software-Themen, die ihn in der vergangenen Woche bewegt haben. Zum Abschluss dieser Woche spricht Marco Albert über das Gerücht, AMD wolle künftig keine High-End-Prozessoren mehr bauen.
http://www.pcgameshardware.de/Komplett-PC-Hardware-217554/News/AMD-will-bald-keine-High-End-Prozessoren-mehr-bauen-Das-kann-ich-einfach-nicht-glauben-Die-PCGH-Redaktionskolumne-1020402/
26.08.2012
http://www.pcgameshardware.de/screenshots/medium/2012/08/Toppc-Vishera-FX-Next-09.jpg
cpu,amd
news