Anzeige

Der Kern der Materie

Die Evolution von Multi-Core- zu Many-Core-Prozessoren

In der Mess- und Prüftechnikbranche wurden Testzeit und -kosten bislang meist durch höhere Taktraten von Prozessoren reduziert. Zwar haben viele Unternehmen von der Aktualisierung der die Testhardware steuernden PCs profitiert, doch sind die Tage gezählt, in denen eine Steigerung der Rechenleistung mit einer erhöhten Taktfrequenz von CPUs einhergeht.

Mit steigender Taktfrequenz werden die Wärmeableitung und der Energieverbrauch von Prozessoren zu einem immer größeren Problem. Daher hat sich die Computerbranche in den letzten zehn Jahren auf die Integration mehrerer paralleler Verarbeitungseinheiten bzw. Kerne (Cores) konzentriert, statt die Taktraten zur Steigerung der CPU-Leistung zu erhöhen. Laut dem Moore'schen Gesetz verdoppelt sich die Transistoranzahl alle zwei Jahre und Prozessoranbieter setzen diese zusätzlichen Transistoren zur Fertigung weiterer Cores ein. Heute sind Dual- und Quad-Core-Prozessoren in der Desktop-, mobilen und ultramobilen Datenverarbeitung gängig und Server verfügen gewöhnlich über zehn oder mehr Kerne. Wie aber aktuelle Verkaufstrends zeigen, schrumpft das Desktopsegment der Computerbranche. Intel beobachtete im Zeitraum vom dritten Quartal 2013 bis zum dritten Quartal 2014 eine Zunahme bei Notebook-Plattformen von 21%, aber nur von 6% bei Desktopverkäufen. Dieser Trend offenbart, dass Gelegenheitskonsumenten eher zu mobileren und dennoch leistungsstarken Plattformen wie Ultrabooks, Tablets und Universalgeräten tendieren. Um dem Bedarf des schneller wachsenden Marktsegments besser zu begegnen, konzentriert sich die Computerbranche auf die Verbesserung der Grafikleistung und Energieeffizienz der ultramobilen, mobilen und Desktop-Prozessoren. Die Rechenleistung für diese Prozessorkategorien zu steigern, ist generell eine untergeordnete Überlegung. Mobile und Desktop-Prozessoren für High-End-Geräte werden weiterhin eine angemessene Rechenleistung für Prüfanwendungen bieten. Jedoch sind nur kleinere Verbesserungen bei der reinen Verarbeitungsfunktionalität dieser Prozessoren zu erwarten. Für die Serverprozessoren sind die wichtigsten Anwendungen der Computerbranche IT-Systeme, Datenzentren, Cloud Computing und leistungsstarke Berechnungen für die kommerzielle und akademische Forschung. Diese Anwendungen sind erheblich rechenintensiver und drängen die Computerbranche dazu, weiterhin in den Ausbau der reinen Rechenkapazität dieser Prozessoren zu investieren. Außerdem sind sie von Natur aus parallel und fuhren ausgehend vom Anwenderbedarf in der Regel zur Entwicklung zahlreicher virtueller Maschinen oder Softwareprozesse. Anwendungsfälle und die daraus entstehenden Bedenken zur Prozessorleistung stehen hinter dem Vorgehen der Computerbranche, mehr Verarbeitungskerne einzubinden, statt sich auf die Erhöhung der Core-Frequenzen zu konzentrieren. So hat z.B. Intel Ende 2014 seinen Prozessor Xeon E5-2699 v3 mit 18 universellen Verarbeitungskernen auf den Markt gebracht. Im Laufe der vergangenen fünf Jahre konnten Single-Thread-Anwendungen eine Leistungssteigerung erzielen, wenn sie sich Innovationen wie die Intel Turbo-Boost-Technik zunutze machten. Allerdings ist es sehr unwahrscheinlich, dass diese Anwendungen weiterhin von solchen Vorteilen profitieren werden. Anwendungen, die für eine parallele Verarbeitung ausgelegt sind, können von zusätzlichen Cores profitieren und so beeindruckende Leistungssteigerungen erreichen. Ingenieure, die z.B. Modulare PCs wie die PXI-Embedded-Controller nutzen, haben sich daran gewohnt, dass eine 15 bis 40% Verbesserung der Rechenleistung erzielt wird, wenn Anwendungen über die Fähigkeit zum Multithreading verfügen und ein Upgrade auf die nächste Prozessorgeneration erfolgt. Aber ohne hinreichende Sorgfalt bei der Erstellung einer Anwendung mit Parallelität sind diese Leistungssteigerungen minimal.

National Instruments Germany GmbH

Dieser Artikel erschien in inVision 3 2015 - 31.05.15.
Für weitere Artikel besuchen Sie www.invision-news.de