Online-Abo
  • Login
  • Registrieren
Games World
      • Von Gummert Freizeitschrauber(in)
        https://www.semiwiki.com/...

        200 Mitarbeiter für die R&D von IBM- Vermutlich um an 10nm zu arbeiten.

        Laut diversen anderen Infos, will GF die Halbleitersparte von IBM kaufen
        IBM Looking to Sell Chip Manufacturing Operations - WSJ.com
        Nicht zu vergessen, dass die 14nm von Samsung bereits Lizenziert wurde...

        wird spannend! .... mal sehen was in den kommenden 2 Jahren so ans Licht kommt.
      • Von AMD4EVA PC-Selbstbauer(in)
        Zitat von ruyven_macaran
        ?
        Wenn AMD so weitermacht und Intel die Entwicklung deswegen so niedrig hält, hat sich das "Problem" mit dem x86-Monopol erledigt, weil ARM die Vorherrschaft übernimmt

        1. Cb naja deren Anwendungs tests......
        ich halt mich lieber an das von intel und nv gekaufte anandtech

        2. ARM, glaub ich weniger
        wer für ein umdenken sorgen könnte wäre ibm,
        power pc wäre eine gute alternative

        Es würde schon reichen wenn Via seinen neuen (kommenden) quadcore auf den consumer markt,
        der boards mit verlöteter cpu loslassen würde

        ich hatte testweise mal ein via (embedded Quad)EPIA-M920-12Q sys. und dieses war ganz gut
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von Cinnayum
        Es wird immer so getan, als sei AMDs Schwäche die Ursache für Intels Entwicklungsgeschwindigkeit, die selbst-bestimmt von Intel bewusst ausgebremst wird.
        Dabei "mogeln" die ebenso seit Jahren in der Angabe ihrer Fertigungsgröße. Was will man bei Leiterbahnen, die nur noch eine handvoll Atome breit sind, noch verbessern oder anders "layouten".
        Ob die unterschiedlichen Messweisen nun "Mogelei" sind, sei mal dahingstellt - aber wie d selbst sagst: Sie werden seit langem angewandt, das hat nichts mit der heutigen Entwicklungsgeschwindigkeit zu tun. Aber das Intel mittlerweile ein Jahr vor öffentlichem Erscheinen die ersten Samples an Drittfirmen ausliefert (siehe DDR4-Demosysteme im letzten Herbst auf Basis von Haswell-E), das ist wohl ein eindeutiges Anzeichen dafür, wie weit die Forschung Intels gegenüber dem realen Angebot fortgeschritten ist. Früher hat man ein halbes Jahr vor Erscheinen die ersten handverlesenen Samples vorgeführt, mittlerweile kann man es sich leisten, ein volles Jahr in Ausbeuten- und Gewinnmaximierung zu investieren, weil es schlichtweg nichts am Markt gibt, dass man mit einem neuen Chip kontern musste.
        Guck dir mal die "Reste"verwertung bei Intel an. Zum Ende der Netburst-Zeit hat genau einen DIE für den Consumermarkt gefertigt. Alle CPUs, vom Dualcore-EE bis zum Single-Core Atom nutzten den gleichen Chip - die einen die bestmöglichen Exemplare, die anderen den Ausschuss, den man eh irgendwie loswerden muss. Heute hat Intel soviel Zeit für Optimierungen übrig, dass es fast gar keine deaktivierten Chips mehr gibt, und im Gegenzug 6-7 verschiedene DIEs für die gleiche Marktspanne gefertigt werden.

        Zitat
        So wie Intel einst mit einem verbesserten Pentium-III die Core-Serie begründete, kommt vielleicht AMD mit einem Phenom-verwandten Design mit DDR4-Unterstützung zurück. Wer weiß das schon?

        Nicht auszuschließen. Aber ich sehe keinen "Phenom M", der sämtlichen aktuellen CPUs der Konkurrenz in Sachen Effizienz und/oder Leistung (je nachdem, wie man das Taktpotential ausnutzt) überlegen wäre. Intels großer Sprung von Netburst auf Core kam schließlich nicht aus dem nichts. Das war ein halbes Jahrzehnt Entwicklung sehr erfolgreicher Mobile-Chips, die auf einmal einen Kontrast zu einer verfehlten Architektur bildeten. Letztere hat AMD auch - erstere nicht. Das sie aus dem Stand das schaffen, wofür Intel 5 Jahre Anlauf brauchte, darf bezweifelt werden. (s.o.: Ressourcen und so)
      • Von Cinnayum BIOS-Overclocker(in)
        Zitat von ruyven_macaran

        Wenn AMD so weitermacht und Intel die Entwicklung deswegen so niedrig hält, hat sich das "Problem" mit dem x86-Monopol erledigt, weil ARM die Vorherrschaft übernimmt


        Es wird immer so getan, als sei AMDs Schwäche die Ursache für Intels Entwicklungsgeschwindigkeit, die selbst-bestimmt von Intel bewusst ausgebremst wird.
        Dabei "mogeln" die ebenso seit Jahren in der Angabe ihrer Fertigungsgröße. Was will man bei Leiterbahnen, die nur noch eine handvoll Atome breit sind, noch verbessern oder anders "layouten".
        Die Belichtungs-Laser lassen sich wegen der Interferenzen kaum noch richtig fokussieren und sind mittlerweile sogar breiter als die Struktur, die sie erzeugen lassen sollen.

        Den einzigen "Luxus", den sich Intel leisten kann, ist, dass sie erstmals "ein Jahr auslassen" können und quasi Haswell ein 2. mal vermarkten können. Da spielen aber auch Absatzprobleme mit rein, denn der Haswell-Refresh wurde auch um 3-6 Monate verzögert.

        Und dass Einsparentscheidungen auch Riesen treffen können, zeigen die Probleme mit dem Wärmeübergang bei den großen OC-Modellen.

        So wie Intel einst mit einem verbesserten Pentium-III die Core-Serie begründete, kommt vielleicht AMD mit einem Phenom-verwandten Design mit DDR4-Unterstützung zurück. Wer weiß das schon?
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von bschicht86
        Wenn Intel die Modulbauweise aufgegriffen hätte und sie auch zahlreich "an den Mann" gebracht hätte, würden sich auch sämtliche Programmierer darauf einstellen.
        Sicherlich kann man alles mögliche halbwegs gebrauchen, solange es nur verbreitet genug ist und entsprechend dafür optimiert wird. x86 als Ganzes ist ein vorzügliches Beispiel. Es gibt kaum eine ineffizientere Technologie und selbst Intel hat sich zweimal an einem Nachfolger versucht. Aber die Kompatibilität war jedesmal wichtiger.
        Nur: Das man etwas schlechtes brauchbar machen kann ändert nichts daran, dass es der schlechtere Ansatz ist.

        Zitat
        Kleines Bsp:
        Ich vermute jetzt ein wenig, bitte nicht zuviel hauen, wenn ich daneben liege:
        Du liegst, für einige Codecs daneben. In der Praxis kann man alle bildbezogenen Berechnungen viel einfacher nach Pixeln aufteilen und so an noch deutlich mehr Recheneinheiten verteilen - sprich auf GPUs laufen lassen. Quicksync lässt grüßen.
        Das klappt aber eben mit kaum einer anderen Aufgabe so gut. Die oben beschrieben 200 Kern-CPU wäre super geeignet, um mit Pixeln umzugehen (genaugenommen war/ist Larrabee eine Entwicklung von bestehenden CPUs in genau diese Richtung), aber miserabel, sobald es um ganz alltäglich Logikberechnungen geht. Denn diese brauchen zu oft die Ergebnisse anderer Programmteile und können nicht parallel zu diesen berechnet werden.

        Zitat
        Der FX wär dann selbst (in meiner Theorie) gegen einen von Intel, der HT hat, besser dran, weil die HT-Kerne von Intel weniger Ressourcen bieten täten und eher die "Hauptrechenwerke" stören würden.
        Nö. Das ist ja der eigentlich Witz bei Bulldozer: Das Modulkonzept ist nicht nur anspruchsvoll in der Programmierung.
        Es löst auch seine Versprechen bezüglich der Flächeneffizienz nicht ein. Seit Haswell nutzt Intel genau so viele Recheneinheiten pro Kern, wie AMD pro Modul. Den "zweiten Kern fast umsonst" hat AMD nicht realisiert, in dem die Modularisierung massiv Overhead eingeplant hat (denn seit Kaveri wird eben doch wieder ein vollständiges Front-End für jeden Kern verbaut), sondern in dem sie die Funktionalität der Kerne halbiert haben.
        (verglichen zu Haswell. Im Vergleich zu Core2 und K10 hatte ein Bulldozer-Modul 33% mehr Integereinheiten. Aber die technischen Fortschritte seit damals wurden eben auch in nicht-modularisierten Chips genutzt)

        Der einzige Unterschied ist die Aufgabenteilung: AMD splittet sie in zwei Hälften, die zeitgleich an zwei Aufgaben arbeiten, Intel teilt sie zeitlich und lässt sie nacheinander, dafür aber mit doppelter Kraft an zwei Aufgaben arbeiten. In der Theorie sollte es zwar etwas schwerer sein, die vier paralleln Pipelines bei Intel effektiv auszulasten und AMD mit zwei unabhängigen Päärchen bei komplett unabhängigen Aufgaben schneller sein. In der Praxis schafft es Intel aber offensichtlich doch, die Einheiten vernünftig auszulasten und selbst in Multi-Threadszenarien liegt Haswell klar vor Bulldozer. Und im Gegensatz zu AMDs starrem Modulkonzept kann HT in Szenarien mit wenig Threads auch ungenutzt in der Ecke stehen und alle vier Rechenwerke das gleiche Problem die ganze Zeit beackern, während AMD mit 50% Nichtauslastung kämpft.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1122285
PCGH-Webseite
FX-Nachfolger 2016 - hat AMD noch eine Chance? Das meinen Redakteure zu einem aktuellen Thema
Die Redakteure der PC Games Hardware kommentieren aktuelle Ereignisse oder Entwicklungen aus der Welt der PC-Hardware, IT-Branche, Spiele, Technik oder Unterhaltung. Lesen Sie die persönlichen Meinungen der PCGH-Redakteure, heute zum Thema "FX-Nachfolger 2016 - hat AMD noch eine Chance?"
http://www.pcgameshardware.de/PCGH-Webseite-Brands-157180/News/FX-Nachfolger-2016-hat-AMD-noch-eine-Chance-Das-meinen-Redakteure-zu-einem-aktuellen-Thema-1122285/
24.05.2014
http://www.pcgameshardware.de/screenshots/medium/2013/01/Redaktion-Intern_110_b2teaser_169.png
ego-shooter,shooter
news