Online-Abo
  • Login
  • Registrieren
Games World
      • Von GoldenMic Lötkolbengott/-göttin
        16 Kerne in 65 nm...und das rechnet man dann hoch auf 4096 Kerne? Das finde ich etwas zu krass. Ich kann mir nicht vorstellen das man wirklich dort landet, wenn doch dann wäre es wirklich erstaunlich.
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von X-CosmicBlue
        Ich weiß, Google ist Dein Freund, wenn es um solche Sachen geht, aber wenn man solche Angaben macht, warum nicht kurz ein Vergleich zu aktuellen, gängigen CPUs?


        Weil es irreführend wäre, die abstrakte Spitzenleistung von komplett verschiedenen Chips zu vergleichen. Die Zahlen würde eine Überlegenheit suggerieren, die aufgrund massiver Unterschiede in der Auslastungseffizienz rein gar nichts mit der Praxis zu tun hätte, von der Problematik verschiedener Befehlssätze und somit ggf. Unfähigkeit, überhaupt gleiche Probleme zu bearbeiten, ganz zu schweigen.
        In deinem Beispiel kommen sogar noch himmelweite Unterschiede beim Funktionsumfang hinzu.


        Zitat von Killer Mandarine
        "Nicht jedes" ist ein bisschen beschönigend formuliert. "Kaum ein" wäre treffender.


        Ich biete "gar keins". Was aber ggf. noch nicht einmal ein großes Problem wäre (virtualisierung 100ter Systeme würde z.B. genug unabhängige Aufgaben liefern), wenn wenigstens die Leistung der einzelnen Kerne hinhauen würde. Hier hab ich aber schon bei der Anbindung massive Zweifel.


        Zitat von Locuza
        Wie hoch ist die IPC? Hat das Ding überhaupt genug Caches für XYZ?


        128 MiB SRAM klingen eher danach, als würden sich Probleme mit der Fertigung denn mit der Cachegröße ergeben
        Aber -s.o.- man sollte halt Einzelprobleme haben, die weder Cache noch Rechenleistung benötigen...
      • Von Goliath1985 Komplett-PC-Käufer(in)
        Wie uns schon das VLW5 Design von den ATI Karten zeigte , sind die Prozessoren nur so effizient , wenn sie auch so ausgelastet werden. Hier kommt ja auch noch das Amdalsche Gesetz hinzu, das kurz und knapp schildert, das je mehr Kerne desto mehr Verwaltung und das macht die Kurve der Effizienz kaputt ! Amdahlsches Gesetz

        Klar alles Theorie , naja lassen wir uns mal überaschen.

        Grüße Goliath1985
      • Von Locuza Lötkolbengott/-göttin
        Zitat von cPT_cAPSLOCK

        Stimmt, hier kann ich dir zustimmen. Hast Recht
        Vereinfachung beispielsweise anhand der CPU-Kerne, die eigentlich nur noch integereinheiten sind... oder hab ich da was komplett falsch verstanden?
        Ja, da hast du etwas zum Teil falsch verstanden. Der Bulldozer stellt keine Vereinfachung dar, sondern sogar eine "Verkomplizierung". Ein klassischer CPU-Kern sah früher wie eine Pizza mit einer großen Salami aus.
        Der Bulldozer ist eine geschnittene Pizza. Vorteil: Du kannst 2 Menschen damit füttern, die Stücke sind aber nur halb so groß.

        Metapher bei Seite, eine CPU besteht aus paar Zutaten wie Integer Kernen, L1,2 etc. Caches, Pipelines,Dekodern, ALUs, AGUs, FPUs et cetera.
        Das Konzept hinter Bulldozer zielt auf einen totalen Kompromiss ab. Die FPU ist meistens sehr mächtig und dreht bei einem Integer-Kern oft Däumchen. Klar das verbraucht Platz und Effizienz, deshalb hat ein Core jetzt 2 Integer-Kerne um Platz zu sparen und eine FPU besser aus zu lasten. Die Integer-Kerne sind aber schwächer als die alten Rechenkerne, aber dieser Schwäche will man mit dem Turbomodus entgegen treten. Im Prinzip ist der Bulldozer sehr intelligentes Konzept, was an zu vielen kleinen Ungereimtheiten scheitert.
        Das Ziel ist es den besten Kompromiss aus Platz und Perf/Watt zu finden. Einheiten deren Leistungskraft brach liegt, werden besser ausgenützt, durch mehrere Integer-Kerne können mehr Threads verarbeitet werden, sind weniger Threads vorhanden dann wird aufgrund der eher schwachen Kerne hoch getaktet, um dennoch genug Performance zu liefern und die anderen Module ausgeschaltet um Strom zu sparen.

        Um es dir zu verdeutlichen. Ein Bulldozer-Modul hat 4 Dekoder die 2 Integer-Kerne füttern. Ein Phenom Integer-Kern hat 3 Dekoder die ihn füttern. Bulldozers Integer-Kerne haben 2 ALUs und 2 AGUs, also der eine rechnet, der andere adressiert und ein Phenom Kern hat 3 jeweils von beiden. Dann gibt es noch den L1-Cache, den L2 Cache und ihre Latenzen. Bulldozer hat einen sehr kleinen L1-Cache, L2 ist größer und L3 auch, aber die Caches an sich sind noch einmal eine ganze Spur langsamer.
        Also man sieht auf den ersten Blick das der Bulldozer noch nicht perfekt abgestimmt ist. Bei einem Phenom kann man die Vermutung führen, dass viele Ressourcen overpowered sind und gar nicht ausgenützt werden und beim Bulldozer kann man sich Vorstellen, dass nicht alle Einheiten auch wirklich ausgenützt werden können.
      • Von Brehministrator BIOS-Overclocker(in)
        Zitat von X-CosmicBlue
        Da 5632 GFlops 5,632 TFlops, in Worten 5 Komma 632 TFlops, sind, steht es im Artikel richtig. Er hat einfach im Kopf umgerechnet, so wie ich. Siehe oben.
        Ah, stimmt. Sorry. Ich habe das Komma fälschlicherweise als Tausender-Trennzeichen aufgefasst, wie es im Englischen Sprachraum auch üblich ist. Aber es ist ja ein Deutscher Artikel
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
874580
CPU
70 GFlops pro Watt
Die Firma Adapteva möchte mit ihrem Prozessor-Modell 4.096 Kerne auf einem Chip vereinen und bei 80 Watt Leistungsaufnahme 5,632 TFlops liefern. Dies ist jedoch momentan noch reine Theorie und nur als Simulation vorhanden. Ein erster 16-Kerner sei hingegen schon lauffähig.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/70-GFlops-pro-Watt-874580/
24.03.2012
http://www.pcgameshardware.de/screenshots/medium/2012/03/adapteva-epiphany.jpg
cpu
news