18 Hardware & Peripherie High Performance ComputingInternational Supercomputing Conference (ISC) <strong>2013</strong>Supercomputing für die Industrie70 mmvon Dr. Horst GietlDie ISC findet vom 16. bis 20. Juni <strong>2013</strong> statt – neu ist der Veranstaltungsort im Congress Center Leipzig unddie Erweiterung des Vortragsspektrums um einen industriespezifischen Zweig. Zusätzliche Sessions für Anwenderaus Produktentwicklung und Fertigung sollen die ISC vor allem für Industrie-Teilnehmer attraktivermachen – damit folgt die ISC der Realität eines immer breiter werdenden Einsatzes von Supercomputern.Supercomputer, also Rechner imobersten Leistungsbereich, sind heutenicht mehr ausschließlich akademischenAnwendern vorbehalten. Geradeerst hat IBM einen Teraflops-Rechnerauf Basis der PureSystems-Plattform vorgestellt,der 1.012 Floating-Point-Operationenpro Sekunde abarbeitet und wenigerals 100.000 Euro kostet.Solche Systeme sind heute unerlässlich,wenn es um technische Berechnungenin der industriellen Produktentwicklungunterschiedlichster Bereiche geht.Workstations alleine reichen nicht mehraus, um dem Druck beschleunigter Entwicklungszyklenund dem Time-to-Market-Gedankenstandzuhalten. Auch aufder ISC, die dieses Jahr vom 16. bis 20.Juni stattfindet, werden Supercomputer,wie schon in den Jahren zuvor, nicht mehralleine aus dem akademischen Blickwinkelbetrachtet. In diesem Jahr widmet dieISC dem technisch-wissenschaftlich genutztenSuperrechner in der Industrie sogareinen gesonderten Bereich mit Vorträgenund Workshops.Neu ist dieses Jahr auch, dass die ISC inLeipzig stattfindet. Damit folgt die ISC ihrerTradition, in regelmäßigen Abständenzu den verschiedenen WissenschaftsstandortenDeutschlands zu wechseln.Für Leipzig sprach zudem das besserePlatzangebot – was jeder bestätigenkann, der die vollen Ausstellungshallenzuletzt in Hamburg erlebt hat. In diesemJahr rechnet die ISC mit über 2.500 Teilnehmern.Auf die Interessen der Supercomputer-Anwender aus der Industrie haben dieISC-Organisatoren den neuen IndustryTrack ausgerichtet. Die Gründe sind vonden akademischen Interessen abweichendenBedürfnisse der HPC-Anwenderaus Produktentwicklung und Fertigung.Am Dienstag und Mittwoch (18. und 19.Juni) findet der Industry Track parallel zurHauptkonferenz statt. Der Industry Trackwird primär von und für kleinere undmittlere Unternehmen gestaltet.Schwerpunkte des Industry Track sindunter anderem die Beschaffung und derBetrieb von Supercomputern für den industriellenEinsatz. Dementsprechendgibt es beispielsweise Sessions für IT-Administratoren, die sich über Hochleistungsverbindungenbeim Aufbau vonHPC-Clustern informieren möchten. Esfinden sich aber auch Sessions für fortgeschritteneAnwender aus der Industrie,für die der Betrieb und die Administrationvon Supercomputern im industriellenUmfeld im Vordergrund stehen. Außerdemsind die Sessions so angelegt,dass sie den Dialog zwischen Hardware-,Software- und Service-Anbietern fördernund vertiefen sollen.Es ist kein Geheimnis mehr, dass technischeBerechnungen mit HPC-Systemendie Produktentwicklungszeit (Time to4/<strong>2013</strong>
High Performance ComputingHardware & Peripherie19Bilder: ISC/Tim KriegerMarket) gegenüber der Arbeit mit Workstationsund Compute-Servern erheblichverkürzen können.KonferenzprogrammDie Anwendungen auf Supercomputernspielen auch im Konferenzprogramm derdiesjährigen ISC die Hauptrolle. Dabeiwerden unter anderem Themen aus denBiowissenschaften und Life-Sciences,Kernfusion, Supraleiter, Stromerzeugungsowie Strömungsmechanik präsentiert.Die Entwicklung von Applikationenfür die Petaflops-Computer mit 1.015Flops stellt extrem hohe Anforderungenan die jeweilige Programmierung. Algorithmenfür Computer im Petaflops-Bereich zu entwickeln, hat eine Komplexitäterreicht, die teilweise nur noch mitHilfe von Entwicklerteams zu realisierenist. Die dabei gemachten Erfahrungenwill man unter allen Umständen für dieAnwendungsentwicklung auf künftigenExaflops-Computern mit 1.018 Flopsnutzen. HPC-Systeme dieser Klasse werdenaus Milliarden von Rechenkernen(Cores) bestehen. Deshalb dreht sich einTeil der Vorträge speziell um den Transferdes Programmier-Know-hows vom Petaflops-in den Exaflops-Bereich.Big Data, also das Handling großer Datenmengenim Tera-, Peta- und Exabyte-Bereich, spielt auf der ISC eine große Rolle,denn Big Data stellt in gewisser Weiseeine Verschmelzung von Supercomputingund Data Mining dar – also das Extrahierendes Essentiellen aus dem Datenbergen.Auch bei den klassischen Supercomputing-Anwendungen,beispielsweise derastronomischen Forschung oder in derkomplexen Strömungsmechanik, werdenseit jeher sehr große Datenmengen verarbeitet.Interessant wird es deshalb sein, zubeobachten, wie sich die Experten auf derISC dem Thema Big Data nähern. Dennwährend in den typischen Supercomputing-Anwendungensehr große strukturierteDatenmengen verarbeitet werden– numerische Berechnungen als Beispiel– ist Big Data vor allem durch Daten ausunterschiedlichen Quellen und in unterschiedlichstenFormaten gekennzeichnet.Diese Quellen können teils strukturiertsein (CAD- und Produktdaten, Sensordatenoder andere Messwerte), teils aberauch unstrukturierte Daten enthalten wieBild, Video oder Ton. An dieser Stelle sindAlgorithmen und Anwendungsprogrammenötig, die aus diesen riesigen Datenmengenbrauchbare Informationen gewinnen.Auf der ISC widmen sich deshalbeinige Sessions den Programmiermodellender Zukunft ebenso wie der Datenaggregationund -analyse.Um die extremen Datenmengen überhauptin den Griff zu bekommen, spieltbei der Verarbeitung die Ein- und Ausgabeleistungder HPC-Systeme eine entscheidendeRolle. Deshalb werden in einigenSessions die Themen Design vonHauptspeicher, Caches, externe Speicherund Hybrid Memory Cube genauer analysiert.Ein Hybrid Memory Cube (auchSpeicherwürfel genannt) ist eine neueBauform für Arbeitsspeicher, die leistungsfähigerist als bisherige Lösungen,dabei werden mehrere Speicherchipsübereinander gestapelt.Auf der ISC <strong>2013</strong> ist also alles auf Wachstumausgerichtet. Denn auch der Energieverbrauchder Supercomputer wächst unaufhörlich.Dabei stellen die wachsendenEnergie-Anforderungen der HPC-Systemevöllig neue Anforderungen an Energie-Infrastruktur und -Ecosystem. NamhafteExperten auf diesem Feld zeigen deshalb,wie sie das drängendste Problem des Supercomputing– den Energie-Verbrauch –in der Zukunft lösen wollen.Eines der Highlights der ISC 13 wirddie Veröffentlichung der neuen TOP-500--Liste sein, die die schnellsten 500 Rechnerder Welt aufführt. Vor fünf Jahrenwar Roadrunner der erste Computer derWelt, der die Leistungsschallmauer einesPetaflop durchbrach – das sind eine BilliardeGleitkomma-Operationen pro Sekunde.Seit dem 31. März ist das Systemim Ruhestand. Noch auf der letzten Listevom Herbst 2012 standen zwei deutscheSysteme in den Top-Ten. Spannendwird es, zu sehen, wie sich die Liste diesesMal verändern wird. Wo werden sichJuqueen/FZ-Jülich und Supermuc/LRZ-München einreihen? Was leisten dieStaaten in Asien, insbesondere Chinaund Japan? Was wurde in den US-amerikanischenForschungseinrichtungen anSupercomputern neu installiert?Die regelmäßigen Besucher der ISCkennen den familiären Charakter der Veranstaltung.Auch bei weit über 2.000 Teilnehmernaus nahezu allen Bereichen –von Medizin über Rohstofferkundungund industrieller Anwendung bis hin zurakademischen Forschung. Da ist es zu erwarten,dass auch der Industry Track starkvom Dialog zwischen den Experten geprägtsein wird.jbiExklusiver RabattLeser des <strong>Digital</strong> <strong>Engineering</strong><strong>Magazin</strong>s erhalten mit dem Code„de2257isc13“ einen Rabatt von 10Prozent auf das Kongress-Ticket.4/<strong>2013</strong>