Home
2007 - LRZ
Contents
1. 9PBiyear a No simulation German Regional gt as 2MSI2K T1 Centre GridKa sa 2 PBiyear T1 In total 600 TB year Tier US Regional Centre Italian Regional Centre French Regional Centre Physics data cache Workstations Abbildung 47 Tier Struktur des LHC Computing Grids 6 2 4 Sonstige Grid Aktivitaten Neben diesen Gro projekten kam die Arbeit vor Ort nicht zu kurz Der Arbeitskreis Grid AK Grid er wies sich als tragf higes und notwendiges Instrument zur abteilungs und sogar hochschul bergreifenden Kommunikation aller an Grid Aktivit ten beteiligten Personen Nur durch diese regelm igen Treffen konnten die Koordination und der Informationsaustausch gew hrleistet werden Der Regelbetrieb der Grid Dienste wurde seit April 2007 durch die Mitarbeiter der neu eingerichteten Gruppe Verteilte Ressourcen betreut und ausgebaut Neben einem Upgrade der Service Systeme auf eine leistungsf higere Hardware erforderte dies auch die Einrichtung von automatischen Verfahren f r die berwachung und Konfiguration einer zunehmenden Anzahl von Grid Diensten Au erdem wurden f r die Informatikvorlesungen an der TUM Grid Services Zertifikate GLOBUS UNICORE etc f r vorlesungsbegleitende bungen f r Studenten bereitgestellt Und last but not least wurde unser LRZ Grid Portal http www grid lrz de mit dem sich das LRZ sei nen Kunden im Grid Bereich pr sentiert regelm ig aktual
2. 5 5 3 W hlzug nge Modem ISDN Die Anzahl der W hlverbindungen hat sich im Laufe des Jahres 2007 weiter verringert Auch die f r M net Kunden kostenfreie Einwahl in der Nebenzeit ab 18 00 Uhr und am Wochenende wird weniger ge nutzt Die Anzahl der Telekom Kunden ging auf ca 450 die der M net Kunden auf ca 250 zur ck Das folgende Diagramm zeigt f r das 2 Halbjahr 2007 die maximale Anzahl gleichzeitig aktiver Verbin dungen pro Woche aufgeschl sselt nach den jeweiligen Rufnummern 100 80 60 Ri r 7 N j i y PAJ 4 4 it a N Si EO SA i i 4 4 i N ji A La AJ WA 40 d A A Rn n i a A N AA A bn N A A l f en iV Vv MAIN an y y VV 3 Wr vl y VW wW 29 06 2007 29 08 2007 29 10 2007 29 12 2007 Telekom 35831 9000 M net 89067928 LMU Querverbindungen TUM Querverbindungen Abbildung 25 Maximale Anzahl von Verbindungen pro Rufnummer des zweiten Halbjahres 2007 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 117 Der Wochen berblick zeigt bei den M net Verbindungen das Ansteigen werktags um 18 Uhr 40 35 30 Sa So Vv VW Telekom 358319000 Abbildung 26 Verteilung der Modem ISDN Verbindungen im Wochentiberblick A _J a i j u S M net 89067928 Mo Di Mi Do Fr oo are A IN N MN u i hj u f 12 00 00 00 12 00 00 00 12 00 00 00 12 00 00 00 12 00 00 00 12 00 00 00 12 00 00 00 LMU Querverbindungen TUM
3. eeeeeeneenennn 5 7 Einsatz von Linux und Sollaris cccccccccccccssssscccccscsssessscesccccsseessssessscecesesesssseesesesens 3 4 4 EinuxsServersysteme s enickesitienentleenallabehnmiusraliiernan Sef De SEIVEL unter Solaris nun ernannte 5 7 3 PCs unter Linux als Mitarbeiterarbeitspl tze enennnen 5 8 Desktop und Applikationsservices ccccsccssecsseceseceseceeceseceeeeeeeeeeeeeeseeeseeeseeeaeenaes 5 8 1 Motivation Gesch ftsmodell oo ccceeeesscecccccessessssscsscescessesssseessevens 5 8 2 Basis Services f r Desktops im MWN Q cccccccessseetceeeeeeseeneeseeneeneenaeens 5 8 3 Active Directory f r Infrastrukturdienste cnseseenseeseennneennnenneeene nennen 5 8 4 IntegraTUM Systemmanagement f r die eLearning Plattform Clix 58 5 Kundenumfrage senenensnunenntngnesse nes bensesnansnn 5 9 Umzug der IT des Bibliotheksverbund Bayern an das LRZ neuen 5 10 Sicherheitsfragen und Missbrauchsf lle 200000nsensensenneenneenn nen 5 10 1 Serverzertifizierung nach X 509 ueesseessssseensennseennennneennennennneennnennnenn 5 10 2 Bearbeitung von Missbrauchsf llen u00nernenseennnennenne een 5 11 berwachung und zentrales Management der Rechnersysteme ne 6 Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 000 6 1 Entwicklungen bei den Rechensystemen ccesccessceseceseceeeeee
4. 2 Nutzungsberechtigte Hochschulen sind a bez glich der f r alle bayerischen Hochschulen beschafften Hochleistungssysteme am LRZ alle bayerischen Hochschulen b bez glich der brigen IV Ressourcen des LRZ die Bayerische Akademie der Wissenschaften die Technische Universit t M nchen die Ludwig Maximilians Universit t M nchen die Fachhoch schule M nchen und die Fachhochschule Weihenstephan 82 Benutzerkreis und Aufgaben 1 Die in 1 genannten IV Ressourcen stehen den Mitgliedern der nutzungsberechtigten Hochschulen zur Erf llung ihrer Aufgaben aus Forschung Lehre Verwaltung Aus und Weiterbildung ffentlich keitsarbeit und Au endarstellung der Hochschulen und f r sonstige in Art 2 des Bayerischen Hoch schulgesetzes beschriebene Aufgaben zur Verf gung Dar ber hinaus stehen die IV Ressourcen f r Aufgaben zur Verf gung die auf Weisung des Bayerischen Staatsministeriums f r Unterricht Kultus Wissenschaft und Kunst durchgef hrt werden 2 Anderen Personen und Einrichtungen kann die Nutzung gestattet werden 3 Mitglieder der benutzungsberechtigten Hochschulen wenden sich entweder an das Leibniz Rechenzentrum oder den DV Beauftragten Master User der f r sie zust ndigen Organisationseinheit vgl 3 1 260 Teil II Anhang 3 3 Formale Benutzungsberechtigung 1 Wer IV Ressourcen nach 1 benutzen will bedarf einer formalen Benutzungsberechtigung des Leib niz Rechenzentrums Ausgenommen sind D
5. Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 45 Im M nchner Wissenschaftsnetz werden seit Ende 2005 keine zentralen Proxys mehr betrieben da sie durch den neuen NAT Service siehe 7 4 1 obsolet geworden waren Die durch die Proxy Caches er reichbare Verringerung der Netzlast und die Beschleunigung des Zugriffs auf WWW Seiten spielt ange sichts der hohen Bandbreite des X WiN Internetzugangs bei zugleich Volumen unabh ngigen Tarifen keine wesentliche Rolle mehr Lediglich in einigen Studentenwohnheimen und f r die Zugangsregelung zu Online Medien der Bibliotheken siehe 2 6 8 werden noch Proxys eingesetzt Der PAC Server Um die Flexibilit t der Browser Konfiguration zu erh hen wird oft keine feste Adresse eines Proxys im Browser eingetragen sondern die eines PAC Proxy Automatic Configuration Servers Die Funktion des PAC Servers am LRZ ist es ber ein CGI Script die IP Adresse des Clients festzustellen und auf Grund dieser Parameter dem Browser eine entsprechende Proxy Konfiguration zu bermitteln In dieser steht sofern die IP Adresse des Benutzer berechtigt ist dass f r Online Medien die Proxy Server der entspre chenden Bibliothek zu verwenden sind F r andere WWW Seiten und andere Protokolle z B FTP wird kein Proxy Server verwendet NAT Gateway Seit Mitte des Jahres 2005 werden Systeme mit privaten IP Adressen ber das System NAT o MAT in das Internet vermittelt welches au er dem reinen NAT Gateway Dienst
6. 3 Benutzerkennungen f r Compute Server Bei den Aufgabengruppen 3 4 und 5 werden an LRZ Compute Servern die jeweiligen Systemeinheiten in Rechnung gestellt N here Einzelheiten auf Anfrage 4 Kosten f r maschinell erfasstes Verbrauchsmaterial Laserdruckerpapier EUR 0 04 DIN A4 Seite s w EUR 0 04 DIN A3 Seite s w EUR 0 25 DIN A4 Seite Farbe EUR 0 25 DIN A3 Seite Farbe Posterpapier EUR 5 00 DIN A1 Blatt gestrichen wei EUR 6 00 DIN A1 Blatt gestrichen wei schwer EUR 11 50 DIN A1 Blatt Fotopapier EUR 10 00 DIN AO Blatt gestrichen wei EUR 12 00 DIN AO Blatt gestrichen wei schwer EUR 23 00 DIN AO Blatt Fotopapier 5 Anschluss von Ger ten und Netzen an das M nchener Wissenschaftsnetz MWN Bei den Aufgabengruppen 3 4 und 5 werden Kosten in Rechnung gestellt N here Einzelheiten auf Anfrage Gegebenenfalls ist zus tzlich die gesetzliche Mehrwertsteuer zu entrichten Diese Geb hren gelten ab dem 1 Oktober 2006 276 Teil II Anhang 7 Definition der Aufgabengruppen Aufgabengruppe 1 Aufgaben gem 2 Absatz 1 der Benutzungsrichtlinien des LRZ insbesondere Aufgaben aus dem Bereich der Forschung und Lehre an der Ludwig Maximilians Universit t M nchen der Technischen Universit t M nchen der Bayerischen Akademie der Wissenschaften sowie ein schl gige Aufgaben aus dem Bereich der Fachhochschulen M nchen und Weihenstephan Aufgabengruppe 2 Aufgaben
7. Mindmanager der Fa Mindjet erlaubt das Erstellen solcher Mindmaps auf so gut wie allen Rechnern heutiger Computergenerationen unter den am h ufigsten verwendeten Betriebssystemen Mit der Fa Mindjet hat das LRZ einen Campusvertrag abgeschlossen der den Bezug der Software Mindmanager f r alle Mitarbeiter von BAdW LMU und TUM erm glicht Der f r drei Jahre geschlos sene Vertrag 2007 2009 kam u a auch dadurch zustande dass sich die Fa Mindjet bereit erkl rte bei Erreichen einer bestimmten Mindestanzahl von Campusvertr gen mit bayerischen Hochschulen zus tz lich zum sowieso schon attraktiven Angebot f r Forschung und Lehre weitere Rabatte einzur umen Au Ber der TUM und der LMU haben auch die Universit ten W rzburg Erlangen und Bayreuth Campusver tr ge abgeschlossen und damit einen 20 igen Nachlass auf die Lizenzgeb hren erhalten Au erdem m ssen nur zwei Jahre der dreij hrigen Laufzeit bezahlt werden Um eine m glichst einfache Verteilung von Software an interessierte Mitarbeiter der M nchner Unis zu erm glichen wurde beschlossen die Software ber ein Downloadangebot zur Verf gung zu stellen Um dieses Vorhabens umsetzen zu k nnen war es unabdingbar eine verl ssliche Bestimmung der anfor dernden Kunden durchf hren zu k nnen Denn der Lieferant forderte zwingend den Nachweis dar ber wer wann und zu welcher der Hochschulen geh rend sich die Software herunter geladen hatte Dieser Nachwei
8. N N w IHF Ki i a N N N s En Prinzregenten oe Pi r N N u str 24 Ei a F F A n 7 Z Y NOON K ra ra H i H A 5 gt TUM u LFSTAD a i i Fu ey ZW Museen Neuhauser Str 2 a f m 2 N Oettingenstr 15 Fa Fa Rn ri H H N x a 7 Z 3 Pa K Pr i H 5 t r H HH a N l m Zoolog LMU lt Staatssam Moorversuchsgut u M nchhausen Oberschlei heim j Y w Str H s 14 LMU LMU ISB LMU TUM TUM BAdW TUM Tierhygiene Tierphysiologie Schelling Ludwigstr 10 Augusten Dachau Volkskunde Gr nschwaige Nord S d Str 155 Str 44 Karl Benz Barer Str 13 Schwere Reiter Str 9 Stra e 15 Wiss Studentenwohnheim 10 20 Mbit Hochschule 5 ae en 2Mbi it s F F Einrichtung sonstige Einrichtung 10 Gbit s 1 Gbit s 100 Mbit s Be 256Kbit s 16Mbit s 11 100 Mbit s g snssusssssnsnnesees sn a en 7 Be aa 64 128 Kbit s DSL Funk Laser Glasfaser lasfaser Glasfaser nee ee Stand 31 12 2007 Kantor Abbildung 2 Das M nchner Wissenschaftsnetz Teil 2 22 Teil I Das Dienstleistungsangebot des LRZ Das LRZ ist f r das gesamte Backbone Netz des MWN und einen Gro teil der angeschlossenen Instituts netze zust ndig Eine Ausnahme bilden die internen Netze der Medizinischen Fakult ten der M nchner Universit ten u a Rechts der Isar TUM Gro hadern und Innenstadt Kliniken beide LMU sowie der Informatik der TUM und das Netz der Hochschule
9. 44 Teil I Das Dienstleistungsangebot des LRZ dert siehe Abschnitt 2 2 N here Einzelheiten ber Geschichte Struktur und Dienste des Internet findet man unter www rz de services netzdienste internet Die im Folgenden beschriebenen Netz Services basieren auf g ngigen Internet Diensten die meist nach dem Client Server Prinzip arbeiten Das LRZ betreibt Server fiir solche Dienste an die sich andere Rech ner Clients wenden und ihre Dienste in Anspruch nehmen k nnen Entsprechende Client Software ist f r fast alle Rechnertypen und Betriebssysteme verf gbar muss aber unter Umst nden erst installiert werden 2 6 1 WWW Zope und Suchmaschinen Das WWW World Wide Web begann vor mehr als einem Jahrzehnt als ein verteiltes weltweites Infor mationssystem und ist neben E Mail der wohl popul rste Internet Dienst Weit ber den Charakter eines Informationssystemes hinaus werden Webserver inzwischen zu Web Services ausgebaut um unterschied lichste Aufgaben zu bernehmen Diese reichen vom Online Banking bis zum Shop vom Zugriff auf Dateisysteme bis zur Online Bibliothek und vom Intranet bis hin zum Webportal Zur Realisierung all dieser unterschiedlichen Anwendungen werden neben Webbrowsern auf der Client seite und Webservern auf der Serverseite zunehmend weitere Applikationsserver in die Weblandschaft integriert Diese realisieren komplette Content Management Systeme Portall sungen oder auch Authen tisierungs Server Datenban
10. GARR NREN of Italy 9 rt rm2 rt rm1 2 r GARR NREN of Italy f 4 switch rt1 gen ch geant2 net 62 40 124 21 AS 20965 4 msec 4 msec i mi2 garr net so 3 0 Topology of GARR NR 7 n1 mil rn mi2 mi2 11 rt ct1 rc pal pal garr net 193 206 134 62 AS 137 36 msec 40 msec 36 rc pal garr net AT0 0 irc pal garr net ATO rc pal garr net ATO 0 0 173 r1 ctl garr net AT3 0 173 utilization rate 5min graphical in 16 out 28 2008 02 15 11 56 41 CET haitaa ai Laban I 0220 12pt gt CORBA _get_oid Views ViewElement send request Abbildung 91 Suche mit Traceroute in perfSONAR Route SWITCH GARR Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 231 Weitere Einzelheiten zum CNM Projekt und zum CNM f r das X WiN sind zu finden unter http www cnm dfn de sowie zum CNM f r das MWN unter http www cnm mwn de Weitergehende Informationen zum GN2 JRAI Projekt und dessen perfSONAR System sind erh ltlich unter http www perfsonar net bzw http wiki perfsonar net 7 5 3 D GRID Unter Grid Computing versteht man die kollektive und kollaborative Nutzung weltweit verteilter hetero gener Ressourcen wie z B Rechner Software Daten Speicher aber auch wissenschaftliche Instrumente oder Gro ger te z B Beschleunigerr
11. Windows Server Datei und Printserver fiir alle Benutzer und LRZ Mitarbeiter Active Directory Services als Basis dienst fiir zentrales Systemmanagement der vom LRZ betreuten PC Infrastrukturen Windows Applikationsserverfarm M glichkeit von Nicht Windows Arbeitspl tzen aus Windows basierte Applikationen zu benutzen Zentraler Kalender Verwaltung des zentralisierten Kalenders aller LRZ Mitarbeiter um zum Beispiel gemeinsame Besprechungstermine zu koordinieren Sicherheitsserver ein vom Netz abgekoppelter Rechner fiir sicherheitskritische Aufgaben Test Labor Umkonfiguration Neue Software oder neue Versionen bekannter Software muss vor dem Einsatz griindlich getestet werden Daf r m ssen Server zur Verf gung stehen die sich nicht allzu sehr von den Produktions maschinen unterscheiden UNICORE Applikationsserver F r die Erstellung und f r das Scheduling von Benutzerprozessoren auf Hochleistungsrechnern wer den insgesamt zwei Applikationsserver ben tigt Subversion Server Versionsverwaltungssystem f r Quelltexte Konfigurationsdateien und Dokumentationen ber die Open Source Software Subversion ist es m glich von mehreren Mitarbeitern ben tigte Dateien zent ral zu verwalten und dabei jederzeit auf fr here Versionen dieser Dateien zur ckgreifen zu k nnen Das System wird derzeit hausintern in der Softwareentwicklung z B Anpassung von Programmen an Hochleistungsrechner zur Verwaltung von DNS Konfigurations
12. c das Vorhaben nicht mit den Zwecken nach 2 1 und 4 1 vereinbar ist d die Anlage f r die beabsichtigte Nutzung offensichtlich ungeeignet oder f r spezielle Zwecke re serviert ist e die zu benutzende Anlage an ein Netz angeschlossen ist das besonderen Datenschutzerfordernis sen gen gen muss und kein sachlicher Grund f r diesen Zugriffswunsch ersichtlich ist f zu erwarten ist dass durch die beantragte Nutzung andere berechtigte Nutzungen in nicht ange messener Weise gest rt werden 6 Die Benutzungsberechtigung berechtigt nur zu Arbeiten die im Zusammenhang mit der beantragten Nutzung stehen 84 Pflichten des Benutzers 1 Die IV Ressourcen nach 1 d rfen nur zu den in 2 1 genannten Zwecken genutzt werden Eine Nutzung zu anderen insbesondere zu gewerblichen Zwecken kann nur auf Antrag und gegen Entgelt gestattet werden 2 Der Benutzer ist verpflichtet darauf zu achten dass er die vorhandenen Betriebsmittel Arbeitspl tze CPU Kapazit t Plattenspeicherplatz Leitungskapazit ten Peripherieger te und Verbrauchsmaterial verantwortungsvoll und konomisch sinnvoll nutzt Der Benutzer ist verpflichtet Beeintr chtigungen des Betriebes soweit sie vorhersehbar sind zu unterlassen und nach bestem Wissen alles zu vermei den was Schaden an der IV Infrastruktur oder bei anderen Benutzern verursachen kann Zuwiderhandlungen k nnen Schadensersatzanspr che begr nden 87 3 Der Benutzer hat jegliche Art der missb
13. e Verf gbarkeit vieler kommerziellerer Pakete aus Strukturmechanik Fluiddynamik und Computa tional Chemistry e Die g ngigen Programmiermodelle shared bzw distributed memory werden in Form von OpenMP bzw MPI einschlieBlich der CRAY SHMEM Bibliotheken unterstiitzt Versorgungsbereich e Bayerische Hochschulen 2 3 1 3 1A32 EM64T Opteron Cluster Fir serielle Rechenauftrage mit Speicheranforderungen von bis zu 2 Gigabyte standen im Berichtsjahr am Linux Cluster 137 32 Bit Intel Prozessoren zur Verfiigung Bedingt durch den in den letzten Jahren stetig gestiegenen Hauptspeicherbedarf vieler kommerzieller Anwendungen und die Verf gbarkeit von zu 32 Bit Intel Prozessoren abw rtskompatiblen 64 Bit Prozessoren wurde das 32 Bit Linux Cluster schon im zweiten Halbjahr 2005 um insgesamt 30 64 Bit Prozesoren erweitert Da einerseits die 64 Bit Prozessoren AMD64 EM64T mit nativem 32 Bit Support von den Nutzern sehr gut angenommen wor Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 33 den und andererseits deren Leistungsf higkeit bzgl Adressraum und Arithmetik Performance die der 32 Bit Prozessoren bersteigt wurden im Zuge der D Grid BMBF Sonderinvestition im vierten Quartal 2006 weitere 20 4 Wege 64 Bit Prozessor Opteron Systeme installiert die im Bedarfsfall dediziert f r D Grid betrieben werden Ende 2006 wurde dar ber hinaus mit den Vorbereitungen zur Ersetzung der IA32 Knoten begonnen F r Anfang 2008 ist geplant die
14. e Webserver Farm aus 11 Webservern e Backend Server f r Webdienste e 3 neue Zope Server e Server f r Suchmaschine e 4 Server f r MySOL Datenbanken davon 2 f r HPC Performancedaten e Weitere Migrationen von Solaris nach Linux e Nagios Satelliten Server e 2 SSH Gateways f r Administratoren e 2 Radius Proxy Server e Verlagerung Neuinstallation bzw grundlegende berarbeitung einiger Server e 1 Lizenzserver e 3 CNM Server e 1 Benutzerverwaltungsserver e Konfiguration von Nagios zur berwachung der neuen Server und Dienste e berarbeitung der PXE Konfiguration zur automatisierten Installation von Servern Des Weiteren geh rt hierher die Einarbeitung in VMWare ESX das in den kommenden Jahren die Server landschaft des LRZ durch zunehmende Einf hrung von virtuellen Systemen pr gen wird Die laufenden Pflegearbeiten die nicht in einer sichtbaren Ver nderung der Serverlandschaft bestehen und deswegen in Berichten gerne vergessen werden sollen hier ebenfalls erw hnt werden die Unterst t zung der f r die auf den Suns laufenden Dienste und Applikationen zust ndigen Mitarbeiter die Vorbe reitung und Durchf hrung der Wartungstage die laufende Installation von Korrekturcode und von neuen Versionen des Betriebssystems und systemnaher Software AFS ADSM TSM Compiler Java SSH Open Source Software das Performancetuning die Au erbetriebnahme alter Hardware der Update der Lizenzen auf dem Lizenzserver die Bearbeitung von ak
15. liche Verbesserung im Vergleich zu den Jahren 2005 und 2006 und deutet auf eine gesteigerte Aktualit t der Daten in der Netzdokumentation hin Daneben werden aktuelle nderungen im MWN laufend in die Netzdokumentation bernommen 7 3 2 Netz und Dienstmanagement Das Netz und Dienstmanagement bildet die Basis f r die Qualit t der Netzdienstleistungen des LRZ im MWN Netzmanagement Server und Netzmanagement Software Der zentrale Server f r das Netzmanagement am LRZ ist die nm1 Irz muenchen de Der Server wurde im Jahr 2003 neu konzipiert und installiert Auf der nml ist der HP OpenView Network Node Manager in der Version 6 4 installiert Zurzeit werden vom HPOV NNM 2130 Netzkomponenten und Server mit netzrelevanten Diensten berwacht an denen ca 68 000 Interfaces angeschlossen sind Au erdem sind 1 399 IP Subnetze vom HPOV NNM erkannt worden von denen aber nur die IP Subnetze mit Netzkomponenten und wichtigen Servern aktiv d h per SNMP Simple Network Management Protokoll oder Ping berwacht werden Der aktive Support f r die Version 6 4 des NNM lief zum Ende des Jahres 2007 aus bis Ende 2008 be steht noch die M glichkeit die Wissensdatenbanken von HP bzgl Problemen mit dieser Version zu durchsuchen Die Suche nach einem Nachfolge Werkzeug f r den HPOV NNM 6 4 war deshalb 2007 ein wichtiges Thema Als Nachfolger f r den HPOV NNM in Version 6 4 kommen u a folgende Tools in Frage der HPOV NNM 7 51 in den Auspr gun
16. nderung des Abrechnungsmodells f r die Netznutzung die sich nun nur noch auf die Bandbreite des Anschlusses bezieht und nicht mehr das tats chlich empfan gene Volumen ber cksichtigt wurde auch die Darstellung von speziellen Happy Hour Daten sowie von gelben und roten Karten bei hohem Volumenverbrauch hinf llig Es stehen Wochen Monats und Jahresstatistiken f r die Aggregation der Tagesdaten bereit Ein Beispiel f r eine Monatsstatistik Dezember 2007 des Leibniz Rechenzentrums M nchen ist in Abbildung 90 zu sehen 229 Jahresbericht 2007 des Leibniz Rechenzentrums Teil I E CNM Application Topology Weitergeleitete Pakete v Durchsatz 5min grap v gt pre x1 gt cHex1 gt ves x1 gt pre x1 oun a o ERL x1 y Sie 87 25 OW kage gt ERL z1 ae a gt ewe x1 OLS rroxi gt rraxi a oO FRA 21 Mug xL BIE xL o FZK x1 SEIEN En Min gt cru a Complete tree Problem tree Current History settings I g ba Fer stuxt N 103 823 Update of characteristics done duration 0 019 secs Abbildung 89 Oberfl che der CNM Anwendung fa Statistik Ihres DFNintemet Dienstes Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften Java Application Window Datei Statistik Skalierung Einheit Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften Datenvolumen Dezember 2007 TByte 4 35 3
17. tems Weiterhin wurde der Grundstein f r eine Erweiterung der Partnerschaft zwischen der Bayerischen Staats bibliothek und dem LRZ gelegt Ein Satz der von Google im Rahmen der Public Private Partnerschip zwischen der Bayerischen Staatsbibliothek und Google digitalisierten urheberrechtsfreien B cher ber 1 Million sollen ab 2008 am LRZ archiviert und gleichzeitig online ber das Web zur Verf gung gestellt werden Die langfristige Speicherung der Daten bernimmt bei allen Projekten das Archiv und Backupsystem des LRZ unter dem Softwarepaket Tivoli Storage Manager TSM der Firma IBM Im Folgenden werden die einzelnen Archivierungsprojekte n her betrachtet Projekt BABS Ziel des Kooperationsprojektes BABS Bibliothekarisches Archivierungs und Bereitstellungssystem www babs muenchen de zwischen dem LRZ und der BSB war es eine organisatorische und technische Infrastruktur f r die Langzeitarchivierung heterogener Netzpublikationen und sonstiger E Medien unter schiedlicher Provenienz zu entwickeln und als Pilotsystem aufzubauen Es entstand ein Bereitstellungs system f r die Langzeitarchivierung LZA von Netzpublikationen Das Projekt BABS wurde im Sommer 2007 erfolgreich beendet und das Pilotsystem in den Produktivbetrieb berf hrt Bei der Realisierung des Bereitstellungssystems BABS wurde zur Anbindung des Archivspeichersystems Magnetbandroboter an die LZA Verwaltungskomponente die hierarchische Dateisystemschnittstelle von
18. 0205 614 6190 0920 121 6218 0 2296 129 187 100 TUM VPN TUM m 724 4948 os 06 6072362 os ss 1172586 02213 129 187 98 TUM VPN TUM fr 700 3936 0 5908 582 0591 0 8788 118 3345 0 2234 192 5442 LMU Beschleunigerlabor umso 679 6208 0 5728 3541 00535 644 1587 12159 129 187 179 TUM FRMII irxo1 671 5525 0560 277 7484 04193 303 8041 0 7433 138 246 99 LRZ NAT o MAT 590 5447 0 4977 2574425 03887 333 102 0 6288 129 187 120 TUM org Chemie 1390 ss1 2434 0 4646 217 3639 0 3282 333 8794 0 6302 129 187 105 TUM Datenverarbeitung Is22 s44 soos 04580 44 7673 0 0676 400 122 0 9433 141 8423 LMU VPN LMU u 477 3543 04023 379 1600 0 5724 98 1943 0 1854 193 174 96 BVB Verbundsysteme KL70 473 9011 03994 104 1025 0152 369 086 0 6980 129 187 154 TUM Physik r232 448 6586 o3781 407 3979 0 6151 41 2606 0 0779 129 187 44 TUM Servernetze TUM ir 444 aaa6 0376 157 6970 0 2381 286 7457 0 5413 129 187 204 LMU Sternwarte lumo 434 5509 0 3662 256 4866 0 3872 178 0642 0 3361 141 84 29 LMU VPN Server u 430 4041 03627 3617716 0 5462 68 6325 0 1295 141 40 103 TUM IT Weihenstephan Im9E0 394 4892 0 3325 141 5382 02137 2529510 04775 129 187 45 TUM Servernetze TUM m a913633 03298 76 2328 o s 315 1305 0 5948 141 8422 LMU VPN LMU VB 385 4067 0 3248 338 3802 0 5109 47 0265 0 0888 129 187 54 TUM FS f r E Technik Irso2 3815351 03216 40 0166 0 0604 341 5185 0
19. 168 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 6 3 7 Aktivit ten f r ein nationales und europ isches HPC Konzept H chstleistungsrechnen ist ein zunehmend bedeutenderes Instrument zur wissenschaftlichen Erkenntnis gewinnung in allen Disziplinen Zumindest f r die sogenannten Grand Challenges ist die ben tigte IT Infrastruktur so teuer dass sich eine Einzelinstitution die Beschaffung und den Betrieb von Capability Systemen nicht leisten kann Deshalb bedarf es regionaler nationaler und europ ischer HPC Konzepte die die auf dem Ausbildungs und Entwicklungssektor erforderlichen Ma nahmen koordinieren und eine Finanzierung von Investition und Betrieb einer HPC Infrastruktur erm glichen In den folgenden Ab schnitten werden die Einbindung und die Aktivit ten des LRZ zum Aufbau einer solchen Infrastruktur auf nationaler und europ ischer Ebene dargestellt 6 3 7 1 Gauss Centre for Supercomputing Ab 2005 wurde deutlich dass die Erfordernis Ein deutsches HPC Sprachrohr in Europa z gig umge setzt werden musste wollte man den sich in Bewegung setzenden europ ischen HPC Zug nicht verpas sen Zun chst einmal entstand im August 2005 im Auftrag des BMBF eine Studie ber den wissenschaft lichen Bedarf f r Petaflop Computing Die L nder Bayern und Baden W rttemberg richteten dazu im Januar 2006 eine Arbeitsgruppe ein die die Studie Konzept f r Einrichtung und Betrieb eines Deutsch Europ ische
20. 26 11 2007 27 11 2007 London GB Allalen TU Scheduling Interoperabilit ts Workshop 27 11 2007 27 11 2007 Dortmund Heller Abteilung Kommunikationsnetze EMANICS General Assembly 15 01 2007 17 01 2007 London GB Reiser DFN 14 DFN CERT Workshop Programmkommitee 07 02 2007 08 02 2007 Hamburg Reiser DFN 46 Betriebstagung und 4 Shibboleth Workshop 26 02 2007 01 03 2007 Berlin Meschederu BHN Sitzung an der Universit t W rzburg 01 03 2007 01 03 2007 W rzburg Tr bs BHN Sitzung an der Universit t W rzburg 01 03 2007 01 03 2007 W rzburg L pple D Grid Abstimmung zum SLA Antrag 07 03 2007 07 03 2007 Dortmund Reiser D Grid 2 D Grid Security WS 27 03 2007 28 03 2007 G ttingen Reiser Pr sentation der Skizzen zu dem Ex Grid Projekt zur Begutachtung 30 03 2007 30 03 2007 K ln Reiser Sitzung der Task Force Betriebskonzept 12 04 2007 12 04 2007 J lich T Baur German e Science Conference 2007 02 05 2007 04 05 2007 Baden Baden T Baur Reiser Datentechnik Moll netforum 2007 07 05 2007 08 05 2007 Meckenbeuren Tettnang Glose Cisco Expo 2007 08 05 2007 09 05 2007 Berlin Tr bs IFIP IEEE International Symposium IM 2007 21 05 2007 25 05 2007 M nchen T Baur Hanemann Reiser DFN Konferenz DFN AT 2007 30 05 2007 01 06 2007 Kaiserslautern Kornberger DFN 54 Mitgliederversammlung 12 06 2007 13 06 2007 Berlin L pple Uni D Grid Monitoring Work
21. 7 4 5 Sicherheitswerkzeug Nyx ccccccesceseceseceescseecseeeeseeeeseceaeeeseecseecaaecsaeenseceeenaeeees 226 TAO Virtuele Firewalls yssen nn otaa Ee Ena tina aan a A ERE A 226 7 5 Projektarbeiten im Netzbereich 2007 cccccccssecssecsteceteceneceeceecseeeeeeeeeseeeseeeseeeeecseeesaees 227 4 2 Vodafone Gerate ssiru aa areas asien niert ceeds 227 RXZ YENM E u 242223 2 rales vhagheeibaasuess a a a on en 228 Jahresbericht 2007 des Leibniz Rechenzentrums 1 35 37 D GRID ess Sts Aas ee a E Attensa Abs ates ol te O ea 231 7 6 Netzanbindung f r DEISA sinseridat EEEE AE EE E REO 234 7 6 1 G ant2 E2E Link Monitoring eesensenseenseennnennnennnnnnnnnennennnnnse essen ons ennn en 235 76 2 G ant I SH RE 12 e2n 42H HR LRSRHRRENRIR BIN 237 8 Organisatorische Ma nahmen im LRZ crsssossssonsssnssesnnssnsnunsnnnnesnnssssnnnsnonnssnnnnssnnnsnsnnnnnnne 239 8 1 Personalver nderungen 2007 ccccecccecscessseesseesceeeecaecaecesecesecsseeeeeeseeesesecesecesseceeeaeesgees 239 SLL ZUg ngennsssnseieisie es e EEE A EE T E E EEE Aa E ia 239 8 1 2 Abg nge n e a a a a na aat 240 8 2 Geb udemanagement und Geb udebetrieb u rsessnesnnsnnesnneenennnennneenne nennen 240 8 3 Dienstleist ngskatalog u seenesenineinens wenns man 241 8 4 Mitarbeit in Gremien 3 22 ennn e a Brille is nn pre 241 8 5 Mitarbeit bei und Besuch von Tagungen und Fortbildungsveranstaltungen 242 8 6 Offentlichkeit
22. Albert Einstein Institut AIP in Potsdam f r das Portalframework GridSphere Daneben konnten die zwei Community Projekte TextGrid vertreten durch die Nieders chsische Staats und Uni versit tsbibliothek SUB und das AstroGrid vertreten durch das Astrophysikalische Institut Potsdam AIP als assoziierte Partner gewonnen werden IVOM Im D Grid wird f r Community Grids aus verschiedenen Forschungsbereichen und verschiedenen indust riellen Sektoren eine gemeinsame Grid Infrastruktur aufgebaut Eine notwendige Voraussetzung daf r ist die Interoperabilit t der in den Community Grids eingesetzten heterogenen Management Systeme f r Virtuelle Organisationen VO und anderer Technologien Dar ber hinaus sind auch die Voraussetzungen f r die Zusammenarbeit mit vergleichbaren Communities im internationalen Kontext zu schaffen Eine zentrale Herausforderung liegt dabei darin die Interoperabilit t der unterschiedlichen Authentifizierungs und Autorisierungsschemata und der in den Communities eingesetzten Technologien f r das Management Virtueller Organisationen sicher zu stellen Dies ist das Ziel des Projektes Interoperabilit t und Integrati on der VO Management Technologien im D Grid IVOM In IVOM werden die von internationalen Projekten entwickelten L sungen f r das VO Management mit den Anforderungen der deutschen Grid Communities verglichen Die dabei auftretenden L cken werden im Rahmen des Projektes geschlossen Das Spektrum der
23. Die volle Funktionalit t von OWA steht aber nur bei Verwendung des Internet Explorers zur Verf gung Mit anderen Webbrowsern ist nur eine eingeschr nkte Sicht auf Mailbox und Groupware vorhanden Outlook Web Access Light Nach der Fakult t EI stie en bis zum Ende des Jahres noch die Lehrst hle f r Luftfahrttechnik LLT und Flugsystemdynamik FST au erdem einige weitere Einzelpersonen aus der Physik aus Weihenstephan Lehrstuhl f r Chemie der Biopolymere und aus der Informatik hinzu Ferner sind einige LRZ Mitarbei ter als Pilotbenutzer aktiv Der Lehrstuhl LLT ist dabei von Exchange 2003 migriert Client basierte Mig ration via Outlook w hrend der Lehrstuhl FST zuvor lediglich die myTUM Mailservices nutzte Probleme bei der Migration gab es in erster Linie dadurch dass einige Personen mehrere MWNIDs besit zen und diese nicht auf einfache Art und Weise konsolidiert werden k nnen Ende 2007 benutzten ca 100 Personen der TUM den Exchange Service In der gleichen Gr enordnung wurden Ressourcen wie ffentliche Ordner shared Mailboxen R ume und Ger te genutzt Notwendige Bedingungen f r den bergang vom Testbetrieb in den Produktionsbetrieb in 2008 sind u a die Konsolidierung von MWNIDs die noch fehlende G steverwaltung und eine L sung f r die delegierte Administration von Standardaufgaben Gruppen Ressourcen Mailadressverwaltung F r diese delegierte Administration stellt Microsoft kein geeignetes Interface bereit e
24. Diese Hard und Softwareinfra struktur hat sich bisher als sehr tragf hig und funktionssicher erwiesen Die projektierten ca 6000 Nutzer sind aber lange noch nicht erreicht Nachwievor besteht das Problem dass einzig Outlook als Exchange Client Software den vollen Funkti onsumfang bietet Alle anderen Clients unter den verschiedenen Plattformen haben mehr oder weniger deutliche Einschr nkungen im Funktionsumfang 5 8 3 Active Directory f r Infrastrukturdienste Die zunehmende Verwendung von Microsoft Active Directory f r MWN weite Infrastrukturdienste ergab eine Neukonzeption der Dom nenstruktur am LRZ F r Exchange und Fileservices per NetApp NAS Filer wurde ein MWN weit positioniertes Active Directory neu aufgebaut Jede Organisationseinheit kann eine Unterstruktur Organisational Unit OU in diesem Directory erhalten die wiederum in Fakult ten und Lehrst hle weiter untergliedert wird Auf Lehrstuhlebene k nnen dann lokale Computer Gruppen Ressourcen und Kontakte f r Exchange sowie lokale User oder Funktions kennungen eingetragen werden Die Benutzerdaten und zentrale Gruppen werden auf oberster Ebene eingetragen und provisioniert aus den Verwaltungsdaten der angeschlossenen Kunden sofern ein automatisierter Datenaustausch mit dem Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 133 LRZ eingerichtet ist Derzeit ist dies schon f r die TUM im Rahmen von IntegraTUM und die LMU im Rahmen des Online Portals CampusLMU
25. Hochleistungsrechnen verf gen und die dem Lenkungsausschuss einen entsprechenden hohen Bedarf f r Produktionsl ufe nachweisen k nnen Dagegen ist ein Landeshochleistungsrechner unter Ande rem gerade dazu da diese Erfahrung zu erwerben e W hrend der HLRB II deutschlandweit zur Verf gung steht sind die 128 256 Prozessorkerne SGI Altix Systeme sowie das IA64 Cluster prim r f r die bayerische Landesversorgung im Capability Computing Bereich bestimmt lassen aber auch Entwicklungsarbeiten und Testen an neuen Projekten zu Eine wichtige Rolle dieser Systeme ist es somit bayerischen Benutzern die f r ihre wissenschaft lichen Aufgaben Hochleistungsrechner ben tigen die M glichkeiten zu geben so weit in diese Technik einzudringen dass sie die Bedingungen f r die Nutzung des HLRB II erf llen k nnen Folgt man der Leistungspyramide siehe Abbildung 10 von oben nach unten so schlie en sich im Capa city Computing Bereich an die IA64 basierten Clusterknoten die Knoten mit IA32 bzw EM64T Opteron Prozessorarchitektur nahtlos an Diese Systeme erf llen vor allem folgende wichtige Funktionen e Plattform zur Abarbeitung eines breiten Spektrums an kommerziellen Applikationen e Plattform zur Abarbeitung von schlecht vektorisierbaren seriellen Applikationen e Compute Server f r die M nchner Universit ten und vervollst ndigen somit das Hochleistungsrechnerangebot des LRZ Es sei hervorgehoben dass die Betreuung der Benutzer der S
26. Im Rechnerw rfel des LRZ steht f r die Ger te des Archiv und Backupbereichs ein gesamtes Stockwerk mit 560 m zur Verf gung Dies erlaubt nicht nur eine an die technischen Erfordernisse Klima Verkabe lung Zug nglichkeit angepasste Aufstellung der Ger te vielmehr sind im sogenannten DAR Daten und Archiv Raum erstmalig seit dem ber zehnj hrigen Bestehen des Dienstes die sicherheitstechnischen und klimatischen Randbedingungen optimal f r die langfristige sichere Aufbewahrung gro er Daten mengen Abbildung 57 Daten und Archivraum im ersten Stock des Rechnerw rfels Von links nach rechts sind zu sehen LTO Library LTO Library Platten und Server Library SL8500 6 4 2 2 Statistische Daten Im Vergleich zum Vorjahr sind Last und Datenmenge im Rahmen der Erwartungen weiter gestiegen Ende 2007 waren in den 3 Libraries 3 200 Terabyte verteilt auf 3 2 Milliarden Da teien gespeichert T glich wurden auf die Systeme durchschnittlich 9 3 Terabyte neu geschrieben Die Daten stammten von 4 800 Servern des MWN aus 400 Einrichtun gen der M nchner Hochschulen Der Bestand an Kassetten in den 3 Libraries wurde 2007 von 8 000 auf 11 000 erh ht Jeder Rechner oder jeder Rechnerverbund der auf das Archiv und Backupsystem zugreifen will muss unter TSM als sogenannter Node registriert sein Die Anzahl der Nodes entspricht damit in etwa der Anzahl der Systeme die ihre Daten im Archiv und Backupsystem ablegen 2007 w
27. Laufzeitschwankung sowie Paketver luste und duplikate Die CNM Anwendung f r GEANT2 wurde mit einer Suche von Karten und Kar tenelementen anhand der IP Adressen in Traceroute Logfiles erweitert Die folgende Abbildung zeigt die Route Farbe Magenta zwischen je einem Router im SWITCH Schweizer Forschungsnetz und einem vom GARR Italienisches Forschungsnetz Im Jahr 2008 sollen nach und nach weitere Netze und deren Messdaten im CNM dargestellt werden das zudem f r einen Regelbetrieb im europ ischen Umfeld vor bereitet werden soll Weiterentwicklungen des CNM im Rahmen des EU Projekts kommen auch dem Einsatz f r das X WiN bzw MWN zu Gute Insbesondere ist hierbei eine Integration der HADES Messungen im X WiN geplant CNM Search Node statistics Link statistics Dashboard Options Help Administration lt 11 maps opened gt A Map element search elments of traceroute output 1 ee B al Topology of GARR NREN of Italy Status garmin 10 39 00 15 02 20 31 map elements found 3 RAL a Map Element Mal _Aaditional Information urile ot 130 59 36 108 32 Topology of SWITCH N 3 swiCE2 G3 1 switch E traceroute data 1 100 rt1 mil it geant2 ne Topology of Geant2 M 5 so 2 0 0 rt1 mil it 1 swiBE2 G2 3 switch ch 130 59 36 114 0 msec 0 msec 4 msec M1 gen ch geant net Topology of GEANT Eu 4 switch rt1 gen ch ge 2 swiBEL G2 4 switch ch 130 59 36 197 0 msec 4 msec 0
28. NSR der den zentralen Mittelpunkt des Netzes das Linux Cluster sowie die Server mit den diversen Netzdiensten Mail Web usw beherbergt sowie dem H chstleistungsrech nerraum HRR Das Datennetz in diesen drei R umen ist den unterschiedlichen Anforderungen der Rechnerlandschaft angepasst und wie folgt aufgebaut DAR Raum Im Wesentlichen besteht das Netz in diesem Raum aus drei Switches die auf Grund der hohen Bandbreite die das Backup und Archiv System ben tigt mit jeweils 10 Gbit s an den zentralen Routern im NSR Raum angeschlossen sind Die Backup Server sind an diesen Switches mit jeweils 1 oder 2 Gbit s Trunk angeschlossen NSR Raum Die Netzstruktur in diesem Raum besteht aus zwei Ebenen Die erste Ebene bilden zwei Router ber die die LRZ Geb ude mit dem MWN Backbone verbunden sind und zwei Core Switches Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 197 die mit jeweils 10 Gbit s an den Routern angeschlossen sind Hinter den Core Switches befinden sich ca 55 Edge Switches die in die einzelnen Server Racks eingebaut sind und die mit jeweils 1 Gbit s mit den Core Switches verbunden sind Die Server selbst sind in der Regel mit 1 Gbit s an den Edge Switches angeschlossen wobei aus Redundanzgr nden die Server teilweise an zwei verschiedenen Switches ange bunden sind so dass die Verfiigbarkeit dieser Server auch bei einem Ausfall eines Switches erhalten bleibt Eine Sonderstellung im NSR Raum bildet das Linux Clus
29. News anonymous FTP u s w e Bereitstellung von W hleingangsmodems und servern z B um mit einem VPN ins MWN zu kom men e Bereitstellung zentraler Kommunikationssysteme z B Nameserver Mailrelay e Bereitstellung von Rechenkapazit t Hochleistungssysteme Compute Server e Bereitstellung eines zentralen Dateisystems mit dezentralen Zugriffsm glichkeiten z Z unter AFS e Bereitstellung von M glichkeiten zur Datensicherung Backup File und Archiv Server e Bereitstellung von Spezialger ten insbesondere f r die Visualisierung z B DIN A0 Plotter f r Postererstellung Video Schnittpl tze hochaufl sende Grafik einfache wie auch immersive 3D Grafik usw e Auswahl Beschaffung und Verteilung von Software Campus und Landeslizenzen e PC und Workstation Labor Pilotinstallationen von neuen Systemen und Konfigurationen e Pilotierung neuer Organisationstrukturen der IT Infrastruktur z B Hosting und Remote Manage ment von Rechnern e Unterst tzung bei Planung Aufbau und Betrieb dezentraler Rechensysteme e Verkauf Ausleihe Entsorgung von Material und Ger ten e Koordinierung der DV Konzepte und Unterst tzung der Hochschulleitungen bei der DV Planung Diese Dienste werden wenn auch aus Gr nden der begrenzten Personalkapazit t nicht immer im w n schenswerten Umfang den Hochschulen angeboten und rege in Anspruch genommen Wo ist das LRZ formal angesiedelt Organisatorisch geh rt das Leibniz Rech
30. Pfeilspitzen deuten die Systeme an mit denen eine bidirektionale Synchronisation realisiert wird Konzept f r skalierendes Provisioning Um die Anbindung der fakult ts und lehrstuhleigenen CIP Pools effizient zu gestalten wurde ein Konzept erstellt das vorsieht vom IntegraTUM Verzeichnisdienst aus jeweils nur einen fakult tseigenen Verzeichnisdienst pro Betriebssystem Gattung Windows Linux UNIX Mac OS mit den ben tigten Daten zu beliefern wobei die Fa kult ten intern lehrstuhl bergreifend die Verteilung dieser Daten auf weitere Verzeichnisdienste und einzelne lokale Server bernehmen siehe Abbildung 21 F r die Windows Systemadministration wurde inzwischen ein noch st rker integriertes Konzept erarbeitet bei dem die Lieferung der Benutzerdaten nur an ein einziges Microsoft Active Directo ry erforderlich w re seine Umsetzung befindet sich noch in Diskussion F r die anderen Be triebssysteme wird das Konzept der Belieferung eines Systems pro Fakult t auch weiterhin ver folgt da die bisherigen systemadministrativen Konzepte durchaus heterogen sind und eine Ver einheitlichung aufgrund des sehr hohen Aufwands bislang unrealistisch erscheint Verfahrensbeschreibung und datenschutzrechtliche Freigabe Auf Basis der ermittelten Daten fl sse und des Architekturkonzepts wurde eine Verfahrensbeschreibung f r den verwaltungsspe zifischen Verzeichnisdienst erstellt und vom Datenschutzbeauftragten der TUM genehmigt Da mit ist
31. Tex e Datenhaltung und Datenbanksysteme Oracle MySQL e Symbol und Formelmanipulation Matlab Maple Mathematica e Tools zur Vektorisierung Parallelisierung und Programmoptimierung MPI Vampir Die vom LRZ f r Hochschulangeh rige allgemein zug nglich aufgestellten Arbeitsplatzrechner Win dows PC Macintosh sind gleichfalls mit einem breiten Software Angebot ausgestattet z B Microsoft Office Word Excel usw SPSS Au erdem sind alle an das MWN angeschlossen und erlauben damit auch den Zugriff auf die zentralen LRZ Rechner Diese Ger te werden in einer Windows Dom ne zentral administriert N here Informationen zur Software Ausstattung der LRZ PCs finden sich ebenfalls im Beitrag www Irz de services arbeitsplatzsysteme Viele Hersteller bzw Lieferanten von Anwendungssoftware machen ihre Preise f r die Software Lizenzen davon abh ngig ob es sich beim Lizenznehmer um eine Einrichtung aus dem Bereich For schung und Lehre F amp L oder einen kommerziellen Kunden handelt Das LRZ hat sich in solchen F llen stets daf r entschieden einer Einschr nkung der Nutzungserlaubnis auf den F amp L Bereich zuzus timmen mit der Konsequenz dass Benutzer der Aufgabengruppen 3 bis 5 siehe Anhang 7 Geb h ren diese Programme nicht benutzen d rfen Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 43 2 5 2 Programmangebot f r Nicht LRZ Rechner Campus Vertr ge Die Ausstattung und Versorgung de
32. Xeon 2333MHz Lustre Object Storage Target OST 2 MEGWARE 2 4GB Komponente des Linux Clusters Xeon 3060 MHz 32 Bit Interaktivrechner 1 MEGWARE 2 2 GB Komponente des Linux Clusters EM64T 3600 MHz x86_64 Interaktivrechner 1 MEGWARE 2 8GB Komponente des Linux Clusters Opteron 2400 MHz x86_64 Interaktivrechner I IO swunyuazusy9oy ziugloT Sop LOOT JyMLIOgsOIyerf TL Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller ER en Daten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur en in Aufgabe Anzahl und speicher 3 Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente 2 INTEL 8 16 GB Komponente des Linux Clusters Itanium2 Montecito 1A64 Interaktivrechner 1600 MHz 5 MEGWARE 2 4 GB Komponente des Linux Clusters Xeon 3060 MHz Serielle 32 Bit Cluster Knoten 1 Synchron 1 1 GB Komponente des Linux Clusters Pentium 4 2533 MHz Serieller 32 Bit Cluster Knoten 1 DELL 2 2 GB Komponente des Linux Clusters Pentium4 2400 MHz Serieller 32 Bit Cluster Knoten 4 DELL 4 4 GB Komponente des Linux Clusters Pentium III Xeon 32 Bit Shared Memory Pool 700 MHz 16 DELL 1 14 zul GB Attended Cluster Housing Knoten des Lehrstuhls f r Pentium 3060 MHz 2 zu 1 5 GB Geod sie der TU M nchen 9 MEGWARE
33. auch letzter Jah resbericht zu erreichen Hierzu m ssen auch viele der bereits am LRZ existierenden Prozesse und Prozeduren umfassend und nachhaltig dokumentiert werden Als Basis hierf r sollte ein Konzept entwickelt werden welches durch Etablierung von Richtlinien und Vorgaben eine ein heitliche Dokumentation f rdert und Prozeduren und Verantwortlichkeiten f r die Aktualisierung und Pflege dieser definiert e Unter den in ISO IEC 20000 definierten ITSM Prozessen wird zun chst die Etablierung der Control Processes Configuration Management und Change Management priorisiert Von die sen sind nicht nur die anderen Prozesse in hohem Ma e abh ngig sie adressieren auch die wich tigsten der Pain Points bei der Koordination der Diensterbringung am LRZ welche in einer ab teilungs bergreifenden Diskussion im Rahmen des AK ITSM identifiziert wurden Technology e Eine effiziente Umsetzung eines prozessorientierten Ansatzes f r das IT Dienstmanagement er fordert die Unterst tzung durch geeignete Werkzeuge Eine wichtige Aufgabe im Rahmen der ITSM Planung muss daher die Entwicklung eines entsprechenden Werkzeug Konzeptes sein F r dieses ist die Unterst tzung strukturierter Prozesse durch geeignete Workflow Management Tools aber auch die M glichkeiten der technischen Umsetzung einer Configuration Management 220 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Database CMDB zu er rtern Hierzu geh
34. der US Infrastruktur oder den japanischen Petaflop Bem hungen zu werden Dazu wurde von der PRACE Initiative ein Memorandum of Understanding concerning the Establish ment of a European Tier0 High Performance Computing Service am 17 04 2007 im BMBF in Berlin von 14 Partnerstaaten unterschrieben Deutschland Frankreich Gro britannien Niederlande Spanien sowie Finnland Griechenland Italien Norwegen sterreich Polen Portugal Schweden Schweiz Die ersten f nf genannten L nder sind sog Principal Partners PP die anderen General Partners GP Deutschland ist durch das GCS vertreten PPs sind qualifizierte Bewerber um den Standort von Europ ischen Tier Zentren Abbildung 52 PRACE Partner 170 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Die PRACE Initiative soll zur Erreichung ihrer Ziele eine Reihe von europ ischen Projekten durchf hren Als erstes wurde in FP7 eine vorbereitende Studie f r die Laufzeit 2008 2009 be antragt und noch vor Ende 2007 auch von der EU genehmigt Darin soll eine grenz berschreitende Organisationsstruktur f r das wissenschaftliche Rechnen mit Supercomputern in Europa geschaffen wer den Die Zielstruktur soll in die sonstigen relevanten europ ischen IT Infrastrukturen wie G ant2 Back bone Netz oder DEISA Grid Infrastruktur integriert werden und interoperabel mit z B EGEE EGI oder D Grid sein Wichtiges Ziel ist auch ein letztendlich einheitliches Management
35. e Accounting und DART bisher nur intern verf gbar Neben dem Uberwachen und Abrechnen der Rechenzeit Budgets in DEISA werden auch dem Benutzer die damit verbundenen Informationen zur Verf gung gestellt e Grid Benutzerverwaltung GUA bisher nur intern verf gbar Die Eigenheiten der Grid Projekte erfordern momentan eine eingest ndige Verwaltung der Be nutzer Dies schlie t den automatischen Abgleich der Benutzerdaten mit den Verwaltungen an anderen Rechenzentren mit ein Interne Dienste WWW Server Intranet Siehe weiter oben unter Internet Dienste Action Request System ARS Verteiltes System zur Steuerung von Arbeitsabl ufen wird vor allem f r die Hotline aber auch f r die Dokumentation der Beschaffungsvorg nge die Inventarisierung und das Asset Management eingesetzt Ben tigt einen Server mit dem die Clients auf PCs oder Unix Rechnern Kontakt auf nehmen k nnen Netz und Systemmanagement Am LRZ ist HP Openview mit der Netzmanagement Software HP Nodemanager und dem System berwachungswerkzeug HP IT Operations im Einsatz An dieser verteilten Anwendung sind zahlrei che Prozesse auf zum Teil dedizierten Rechnern beteiligt Zus tzlich ist auch das Open Source Produkt Nagios im Einsatz 60 Teil I Das Dienstleistungsangebot des LRZ Installations und Bootserver Die Software der vom LRZ betriebenen Solaris und Linux Rechner wird tiber das Netz installiert und die Rechner aus dem Netz gebootet
36. eine wissenschaftliche Begutachtung voraus Im Rahmen europ ischer Forschungsprojekte kann ebenfalls unter Beachtung vorrangigen Bedarfs der satzungsm igen Nutzer auch anderen europ ischen Wissenschaftseinrichtungen der Zugang zu den Ressourcen des LRZ gew hrt werden Soweit da bei Leistungen des Rechenzentrums ohne Kostenerstattung in Anspruch genommen werden ist grund s tzlich eine angemessene Gegenleistung oder ein sonstiger Ausgleich vorzusehen 82 Mitgliedschaft Mitglieder der Kommission sind Der Pr sident der Akademie als Vorsitzender der Vorsitzende des Direktoriums 3 Absatz 2 je f nf von der Ludwig Maximilians Universit t und der Technischen Universit t M nchen entsand te Mitglieder drei von der Akademie entsandte Mitglieder sowie ein von den beiden Universit ten im Einvernehmen entsandtes Mitglied das insbesondere die Belange der auf dem Garchinger Hoch schulgel nde untergebrachten wissenschaftlichen Einrichtungen der beiden Universit ten zu vertre ten hat und ein von den Hochschulen au erhalb M nchens im Einvernehmen entsandtes Mitglied das insbesondere deren Belange auf dem Gebiet der H chstleistungsrechner zu vertreten hat bis zu f nfzehn gew hlte Mitglieder Die Kommission erg nzt den Kreis ihrer gew hlten Mitglieder durch Zuwahl mit Best tigung durch die Klasse Die Ludwig Maximilians Universit t M nchen die Technische Universit t M nchen und die Bayerische Akademie der Wissenschafte
37. glicht Die wichtigsten dieser Eigenschaften seien im Folgenden aufge z hlt 1 Das System ist in 19 Einheiten Partitionen mit jeweils 512 Prozessorkernen unterteilt wobei jeder Partition ein logisch einheitlich ansprechbarer Hauptspeicher von 2 Terabyte zur Verf gung steht kein anderes System in Europa weist derzeit diese spezielle F higkeit auf In geeigneter Weise paral lelisierte Programme k nnen mehrere Partitionen gleichzeitig benutzen Bei Bedarf kann die Partiti ons Gr e bis auf 2048 Prozessorkerne erh ht werden 2 Das System weist eine hohe aggregierte Bandbreite zum Hauptspeicher auf Damit sind datenintensi ve Simulationen sehr effizient durchf hrbar Weil dar ber hinaus jedem Prozessorkern ein 9 Megaby te gro er schneller Cache Speicher zur Verf gung steht lassen sich manche Anwendungen sogar berproportional zur Zahl der verwendeten Prozessorkerne beschleunigen 3 Der f r die Ablage und Weiterverarbeitung von Daten verf gbare Hintergrundspeicher ist bez glich Quantit t und Qualit t besonders performant ausgelegt worden Es stehen f r gro e Datens tze 600 Terabyte an Plattenplatz zur Verf gung dies entspricht dem Inhalt von etwa 200 Milliarden A4 Seiten Die Daten k nnen mit einer aggregierten Bandbreite von 40 Gigabyte s gelesen oder ge schrieben werden Damit kann theoretisch der Hauptspeicherinhalt des Gesamtsystems innerhalb ei ner Viertelstunde auf die Platten herausgeschrieben werden Da vie
38. sind zu einem VPN Cluster zusammengefasst Dieser VPN Cluster wird unter der gemeinsamen Adresse ipsec Irz muenchen de angesprochen Die Nutzer werden beim Anmelden immer mit dem VPN Server verbunden der die geringste Last hat Der VPN3030 ist tiber zwei 100 MBit s Anschliisse 6ffentlich und privat mit dem MWN verbunden Die vier ASA5540 sind jeweils mit 1GBit s angeschlossen Die ver f gbare Bandbreite der verschl sselten Verbindungen 3DES AES betr gt 50MBit s pro VPN3030 und 350MBit s pro ASA5540 Authentifizierung Autorisierung der Nutzer sowie Accounting werden ber das RADIUS Protokoll abgehandelt Berechtigte Nutzer k nnen die aktuellen Versionen der VPN Software vom Webserver des LRZ herunter laden F r Linux steht neben dem Cisco Client der Open Source VPN Client vpnc im Quellcode zur Verf gung der erfahrenen Nutzern erweiterte M glichkeiten bietet Dieser Client ist inzwischen in den Standarddistributionen wie z B SuSE und Debian enthalten und l uft auch auf Hardware die von dem Cisco Client nicht unterst tzt wird m Ausgehend in GB E Eingehend in GB Summe in GB Abbildung 76 Datenverkehr der VPN Server im Jahr 2007 Entwicklung des Datenverkehrs ber die VPN Server Im Monat November dem Monat mit dem h chsten Datenaufkommen im Jahr waren es 11 4 TB einge hender Verkehr Nov 2006 6 2 TB Nov 2005 3 2 TB und 3 1 TB ausgehender Verkehr Nov 2006 1 7 TB Nov 2005 0 7 TB In Spitzenzeiten sind bis
39. tutslizenz auch h usliche Nutzungen erm glicht Amos Zusatzprogramm zu SPSS Lineare strukturelle Beziehungen Pfad analyse Kausalit tsanalyse AnswerTree Zusatzprogramm zu SPSS Klassifizierung anhand von Entschei dungsb umen Apple Apple Betriebssystem MacOS 10 5 Leopard Verg nstigter Bezug im Bundle mit IWork f r Institutionen aller bayrischen Hochschu len neu aufgelegt Autodesk Im Rahmen des Autodesk European Education Sales Program AEESP bietet Autodesk M glichkeiten zum kosteng nstigen Be zug seiner Produkte insbesondere des CAD Systems AutoCAD AVS AVS bzw AVS Express ist ein modular aufgebautes Software Entwicklungssystem mit Haupteinsatzgebiet Datenvisualisierung J hrliche Verl ngerung der Bayern weiten Lizenz mit Subventio nierung des M nchner Hochschulbereichs durch das LRZ Nachfra ge sinkt Umfang in 2007 wiederum deutlich reduziert CCSP System Netz und Anwendersoftware f r verschiedene HP Systeme fr her COMPAQ noch fr her Digital Equipment DEC campus wird aufrecht erhalten weil auf dem Campus nach wie vor Anwendungen auf diesen Rechnern laufen Corel Bezugsm glichkeit f r Corel Produkte vor allem CorelDraw und die Corel WordPerfect Suite Es besteht ein Rahmenabkommen dem interessierte Hochschulen beitreten k nnen h chste Rabatt stufe gilt unver ndert Zusatzprogramm zu SPSS Maskengesteuerte Dateneingabe DIAdem Programmpaket von National Instrumen
40. wiss Mitarbeiter Kommunikationsnetze 01 10 2007 Stadler Florian stud Hilfskraft Zentrale Dienste 01 11 2007 Gleixner Florian wiss Mitarbeiter Benutzernahe Dienste und Systeme BVB Serverbetrieb 01 11 2007 Hammann Ernst wiss Mitarbeiter Benutzernahe Dienste und Systeme BVB Serverbetrieb 01 11 2007 Lanz Joachim wiss Mitarbeiter Benutzernahe Dienste und Systeme BVB Serverbetrieb 01 11 2007 Schwalb Christian stud Hilfskraft Benutzernahe Dienste und Systeme 01 11 2007 Seidl Oliver stud Operateur Zentrale Dienste 01 11 2007 Seitz Sebastian stud Hilfskraft Benutzernahe Dienste und Systeme 01 12 2007 Bachmaier Christoph stud Hilfskraft Zentrale Dienste 01 12 2007 Rusnak Stefan stud Hilfskraft Zentrale Dienste 239 240 8 1 2 Abgange Teil II Organisatorische Ma nahmen im LRZ Datum Name Dienstbezeichnung Abteilung 31 01 2007 Felder Martin Dr wiss Mitarbeiter Hochleistungssysteme 31 01 2007 Ikonomidis Alexander Praktikant Kommunikationsnetze 16 02 2007 Stiegler Andreas Praktikant Benutzernahe Dienste und Systeme 28 02 2007 Migge Bastian stud Hilfskraft Benutzernahe Dienste und Systeme 28 02 2007 Schaumeier Andreas stud Hilfskraft Benutzernahe Dienste und Systeme 31 03 2007 Bailetti Alain stud Hilfskraft Benutzernahe Dienste und Systeme 31 03 2007 Fliegl Detlef wiss Mitarbeiter Kommunikationsnetze 31 03 2007 Roll Martin techn Angest Ko
41. 0 0 0 00 0 0 Summe 27382 12 4 1803604 09 46 0 Ludwig Maximilians Universit t Betriebswirtschaft 659 0 3 223 34 0 0 Volkswirtschaft 648 0 3 6092 21 0 2 Medizin 3878 1 8 13494 16 0 3 Physik 115305 52 3 840821 50 21 4 Chemie und Pharmazie 8896 4 0 508174 09 13 0 Biologie 7529 3 4 15203 70 0 4 Geowissenschaften 249 0 1 13520 47 0 3 Summe 137164 62 2 1397529 47 35 6 Bayerische Akademie der Wissenschaften Mathematisch 899 0 4 19685 20 0 5 Naturwissenschaftliche Klasse LRZ 4802 22 28833 87 0 7 Summe 5701 2 6 48519 07 152 Sonstige Bayerische Hochschulen Universit t Bayreuth 473 0 2 139946 80 3 56 Universit t Erlangen N rnberg 46631 21 1 283201 31 1 2 Universit t Regensburg 2882 143 181049 77 4 6 Universit t W rzburg 161 0 1 18221 43 0 5 Universit t Augsburg 231 OPH 49664 56 1 3 Summe 50378 22 8 672083 86 17 1 Verschiedene Sonstige 2 0 0 0 01 0 0 Summe 2 0 0 0 01 0 0 Gesamtsumme 220627 100 0 3921736 51 100 0 156 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 6 2 Grid Computing Grid Computing entstand in den sp ten 90er Jahren vor dem Hintergrund aufwendige physikalische Be rechnungen ber mehrere Supercomputer verteilt durchf hren zu wollen Daraus entwickelte sich der generelle Wunsch weltweit vorhandene heterogene Ressourcen wie Rechner Instrumente Software und Daten zur koordinierten L sung sogenannter gro er Probleme grand challenges verwenden zu k n nen Typische Grid Anwendungen
42. 1 6 Wesentliche Netz nderungen im Jahr 2007 Im Jahr 2007 gab es folgende in chronologischer Reihenfolge aufgef hrte wesentliche Netzver nderun gen 09 01 2007 12 02 2007 01 03 2007 08 03 2007 15 03 2007 12 04 2007 25 04 2007 05 06 2007 27 06 2007 01 08 2007 03 08 2007 14 08 2007 Anschluss des Erdbebenobservatoriums in F rstenfeldbruck mit 10 Mbit s an das X WiN Anschluss der TUM Geod sie in Eichenau ber T DSL WiN Shuttle Anbindung des Versuchsguts Thalhausen mit einem zus tzlichen ISDN Anschluss Umzug der W hlanschl sse von M net vom LRZ Altbau M nchen in den LRZ Rechnerw rfel in Garching Direkte Anbindung des Geb udes der Hochschule f r Musik und Theater und des Hauses der Kulturen ber LWL Kabel an die Netzzentrale im TU Nordgel nde Anschluss des LMU Geb udes in der Giselastr 10 mittels LWL Strecke der Telekom Anschluss des Studentenwohnheims des Studentenwerks am Stiftsbogen ber eine LWL Strecke der Telekom Anschluss des Priesterseminars in der Georgenstra e ber eine Funk LAN Bridge Anschluss des Forschungs und Versuchslabors des Lehrstuhls f r Bauklimatik und Haus technik der TUM in Dachau ber eine SDSL Strecke von M net Anschluss des Cluster of Excellence for Fundamental Physics im ITER Geb ude auf dem MPG Gel nde in Garching ber eine LWL Strecke Anschluss der Firma Hepa Wash im ITEM Geb ude Anschluss der Umwelt Forschungsstation Schneefernerhaus auf der Zugspitze
43. 2007 21 09 2007 K ln Strunz TSM Symposium 2007 Eigener Vortrag 24 09 2007 27 09 2007 Oxford GB Dunaevskiy Megware HPC User Meeting 24 09 2007 26 09 2007 Chemnitz Bopp TSM Symposium 2007 Eigener Vortrag 24 09 2007 27 09 2007 Oxford GB Peinkofer 3 Fachtagung IT Beschaffung 2007 25 09 2007 27 09 2007 Berlin Steinh fer Workshop zu wissenschaftl Firmenkooperation mit IBM auf dem Gebiet HPC Vortragende 03 10 2007 06 10 2007 New York USA Brehm Huber DEISA Meeting 04 10 2007 04 10 2007 Paris F Leong Steinh fer EADS Ottobrunn 12 10 2007 12 10 2007 Ottobrunn Berner Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 245 eDEISA eSA3 SA3 SA5 Meeting 16 10 2007 17 10 2007 Stuttgart Berner Frank Heller Saverchenko DEISA SA4 Treffen 22 10 2007 22 10 2007 Paris F Bader Saverchenko ZKI AK Supercomputing eigener Vortrag 24 10 2007 26 10 2007 G ttingen Bader Conference Storage Network World Europa 2007 eigener Vortrag 30 10 2007 31 10 2007 Frankfurt Biardzki Uni RZ Erlangen N rnberg DV Fachseminar 2007 07 11 2007 14 11 2007 Immenreuth Hufnagl Uni Study days eigener Vortrag 08 11 2007 08 11 2007 Regensburg Huber SC 07 Conference 09 11 2007 17 11 2007 Reno USA Bader Brehm Christadler Steinh fer D Grid 7 WS zum Aufbau des Kern D Grids im D Grid Infrastrukturprojekt DGI 12 11 2007 13 11 2007 Aachen Berner eDEISA Team Meeting
44. 4 4 Die Verpflichtung zur Einhaltung der Benutzungsrichtlinien und der Betriebsregeln des LRZ l sst sich der Master User von jedem Endbenutzer durch dessen Unterschrift unter das Formular Erkl rung des Endbenutzers best tigen Dieses Formular erh lt er mit dem Benutzungsantrag es verbleibt beim Master User der es bei einer etwaigen Verfolgung von Missbrauch dem LRZ vorweist Der Master User der ja die Verantwortung f r den ordnungsgem en Gebrauch der ihm zugeteilten Be nutzerkennungen bernommen hat kann die Benutzung der Anlagen durch die Benutzer seines Bereichs kontrollieren einschr nken und im Missbrauchsfall unterbinden Zu diesem Zweck stehen ihm gewisse Dienste zur Verf gung die unter Abschnitt 4 6 n her beschrieben sind 4 2 Vergabe von Internet und PC Kennungen an Studenten Studenten der Ludwig Maximilians Universit t und der Technischen Universit t erhalten bei der Immat rikulation eine Kennung die e eine Mailbox bzw eine E Mail Adresse beinhaltet e ein Login am jeweiligen Web Portal Campus bzw myTUM erlaubt sowie e den Zugang zum M nchner Wissenschaftsnetz MWN und zum Internet erm glicht Letzteres bedeutet dass sich Studenten mit dieser Kennung von zu Hause ins MWN Internet einw hlen sowie ihre mobilen Rechner Laptops ber Datensteckdosen oder FunkLANs in ihrer Hochschule an schlie en k nnen Die hierf r notwendige Infrastruktur Einwahl Server RADIUS Server VPN Server Mail Se
45. 60 Standorte mit mehr als 400 Geb uden angebunden siehe folgende Abbildung Die Lage von Standorten die au erhalb des M nchner Stadtgebietes liegen ist in der Abbil dung nicht ma stabsgetreu dargestellt sondern lediglich schematisch Himmelsrichtung angedeutet Die Gr e der zu versorgenden Areale ist sehr unterschiedlich sie reicht von einem einzelnen Geb ude bis zu einem gesamten Campusbereich z B Garching und Weihenstephan mit mehr als 30 Geb uden und mehr als 8 000 angeschlossenen Endger ten Die Areale des MWN werden zu Dokumentationszwecken auch mit K rzeln aus 1 oder 2 Zeichen Un terbezirke benannt Triesdorf Ingolstadt Straubing Legende Anschluss gt 10 MBit s 10 MBit s 10 GBit s Weihenstephan Versuchsg ter 5 YE Anschluss lt 10 MBit s EG Funk xDSL 2 MBit s oder 64 kBit s Stand 31 12 2007 Freising Oberschlei heim Augsburg F rstenfeldbruck 6 Eichenau Martinsried Iffeldorf Wendelstein u AR ER Abbildung 70 Lage der Standorte im MWN 194 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Das MWN ist mehrstufig realisiert e Das Backbone Netz verbindet mittels Router die einzelnen Hochschul Standorte Areale und Ge b ude innerhalb der Areale e Innerhalb eines Geb udes dient das Geb udenetz mittels Switches zur Verbindung der einzelnen Rechner und der Bildung von Institutsnetzen e Eine Sonderstellung nimm
46. Anlage als festen Bestandteil ihres Curriculums Hierbei geht es in erster Linie um das Vermitteln von Raumgef hl und Raumerleben in den von den Studierenden mit 3D Studio max konstruierten virtuellen Welten Thema in 2007 war Virtueller B hnenbau 4 Generation Research Program Humanwissenschaftliches Zentrum der LMU Informationsve ranstaltung f r Institutsmitarbeiter und deren Kooperationspartner 5 Lehrstuhl f r Information mit Schwerpunkt Wissenschaftliches Rechnen Informationsveranstal tung f r das Praktikum Organisation und Integration von Simulationsaufgaben 6 Poliklinik f r Zahnerhaltung und Parodontologie LMU Prof Mehl Visualisierung des biogene rischen Zahnmodells 7 Entwicklung von CAD CAM Technologie f r die Implantologie 5 6 2 Workshop Videoschnitt und DVD Authoring Die Ausbildung in den Programmen f r Videoschnitt und DVD Authoring erfordert die Nutzung der da bei eingesetzten speziellen Peripherieger te wie Videokameras Recorder und Kontrollmonitore und ist daher f r normale Kursraumausstattungen kaum geeignet Deshalb wurde ein neuer Workshop konzipiert bei dem in eint gigen Schulungen in einer kleinen Gruppe von Teilnehmern direkt an den Videoschnitt pl tzen die Grundlagen des digitalen Videoschnitts und das Erstellen einer DVD erarbeitet wurden Die Teilnehmer hatten die M glichkeit eigenes Filmmaterial mitzubringen sodass gezielt auf deren Vorstel lungen und Anforderungen eingeg
47. Archiv Projekt BSB Google Im Rahmen der im Jahr 2007 entstandenen gro angelegten Public Private Partnership der BSB mit der Firma Google werden durch diese mehr als 1 Million urheberrechtsfreie Druckwerke aus dem Bestand der BSB digitalisiert Bei einer mittleren Seitenzahl von 300 Seiten je Band entstehen so mehr als 300 Millionen digitalisierte Seiten Die BSB erh lt Kopien der Digitalisate die am LRZ archiviert und von der BSB ber das Internet bereitgestellt werden Mit dem Projekt vdl6digital und der Kooperation mit Google wird eine neue Dimension in der Massendigitalisierung und Massenarchivierung erreicht In den beiden Abbildungen mit der zeitlichen Entwicklung des Datenvolumens und der Anzahl Dateien wurde die Google Kooperation noch nicht ber cksichtigt Der f r das vdl6digital Projekt beschaffte NAS Speicher wird ebenso f r die Verarbeitung dieser Daten verwendet Au erdem dient der NAS Speicher als Online Speicher f r die Bereitstellung der Digitalisate ber das Internet Projekt BABS2 Aufgrund der gestiegenen Anforderungen im Bereich der Langzeitarchivierung und erfolgreichen Zu sammenarbeit zwischen dem LRZ und der BSB in den vergangenen Jahren wurde im Sommer 2007 er Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 183 neut ein weiterer Projektantrag geschrieben und an die DFG gestellt Ziel dieses Kooperationsprojektes Arbeitstitel BABS2 zwischen dem LRZ und der BSB ist der prototypische Ausbau und die Eval
48. Astrophysik trat das LRZ aber auch als assoziierter Partner der Astrophysik Community und der Hochenergiephysik Community auf und betei ligte sich auch an deren Arbeitstreffen Das LRZ arbeitet in den folgenden Fachgebieten mit und wird wie folgt gef rdert e Fachgebiet 1 2 Integration GLOBUS Toolkit liegt komplett beim LRZ e Fachgebiet 1 10 Management virtueller Organisationen VOs e Fachgebiet 2 2 Aufbau des Kern D Grid federf hrend f r GLOBUS Installationen e Fachgebiet 2 6 Monitoring e Fachgebiet 2 7 Accounting Die F rderung des Projektes hat eine Laufzeit von zwei Jahren und endete am 31 8 2007 ber alle Fach gebiete wurden vom LRZ Antr ge auf F rderung von 90 Personen Monaten PM gestellt und auch ge nehmigt das LRZ bringt aus Eigenmitteln selbst neben Rechenressourcen Nutzung der Hoch und H ch leistungssysteme auch insgesamt 42 PM in das Projekt mit ein Im Rahmen von D Grid wurden Anforderungserhebungen und analysen in den Bereichen Monito ring Accounting Billing ausgewertet um die weiteren Aktivit ten gezielt auf die Benutzerbed rfnisse ausrichten zu k nnen GLOBUS und UNICORE wurden auf dem LRZ H chstleistungsrechner in Bayern II installiert und auf den anderen Produktionssystemen wurde GLOBUS von GT4 0 3 auf GT4 0 5 ange hoben die Installation von UNICORE auf den Produktionssystemen wurde durchgef hrt f r GLOBUS GT4 0 5 wurden bin re Distributionen f r von Benutzern nachgefragte Betriebss
49. Aufgabenstellungen und Zust ndigkeiten hinsichtlich 1st und 2nd Level Support f r Endanwender und oder 3rd Level Support f r Gesch ftskun den ist noch nicht abschlie end durchdacht Die bisherige Modellvorstellung eine Integration der LRZ Service Desk Prozesse auf Augenh he mit den Gesch ftskunden wird nach wie vor verfolgt Problematisch ist die saubere Trennung der verschiede nen Servicearchitekturen vom Hosting von Servern inkl Betriebssystem ber die Zulieferung von An wendungen f r komplexere Dienste z B Verzeichnisdienst und E Mail f r ein TUM Web Portal Biblio theksverbund Bayern bis hin zu Services direkt f r Anwender Studenten und Mitarbeiter im MWN 92 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme mtegraTOM Servicecenter Service Incident Request TR s Weitere Te gt 3 Dienst ZY 4 Anwendung I a 1 i Service er Technik Team I u Medien Zentrum Bibliothek Dieng A Anwendung Dienst B Anwendung Dieng Y Anwendung Dienst X Anwendung Dienst Z Anwendung iTUM Werkzeuge Service Technik Team Serice Technik Team Service Technik Team Service Technik Team Service Technik Team Trouble Ticket Monitoring QM Incidents Service Incident Request a I VERBOTEN Se Sane ce ns A Dienst B D
50. Basis der Environment Module wurde eine Test Suite erstellt die es auf der Basis einer textuel len Datenbank f r jedes Cluster Segment erm glicht jederzeit die wichtigsten Applikationen auf grund legende Funktionen hin zu testen Die Test Suite wird st ndig erweitert und soll durch regelm ige Aus f hrung auf spezifischen Clusterknoten gew hrleisten dass Ausf lle etwa durch fehlerhafte Betriebs software Updates oder auf Grund abgelaufener Lizenzdateien fr hzeitig erkannt werden k nnen Um den Benutzern die Handhabung der Applikations Software zu erleichtern wurde das Konzept der Environment Module eingef hrt Diese dienen in erster Linie der sauberen Verwaltung der Benutzer Umgebung und gestatten durch Laden und Entladen von Modulen den Zugriff auf ein Softwarepaket an und wieder abzuschalten Insbesondere lassen sich so auch verschiedene Versionen eines Paketes verf g bar machen und damit auch leichter vorab testen sowie LRZ spezifische Setzungen und Aktionen durchf hren Das Konzept ist unabh ngig von der verwendeten Shell es kann sogar f r Skriptsprachen wie Perl und Python eingesetzt werden Technisch ist das ein deutlicher Fortschritt gegen ber den bis lang eingesetzten shell spezifischen Setup Skripten der allerdings durchaus mit deutlichem Arbeits aufwand seitens des LRZ verbunden ist Auf Grund der Verbesserung der Dienstqualit t und der Tatsa che dass die Einf hrung dieses Konzepts wegen entspr
51. Betrieb Au erdem bem ht sich das LRZ um die Anpassung des Datennetzes an die technische Entwicklung und den vorhandenen Bedarf Das LRZ ist f r das Netzmanagement z B Betrieb Fehlerbehebung Konfiguration von Netzkomponen ten zust ndig Das Netzmanagement durch das LRZ ist jedoch nur f r die Teile und Komponenten des Netzes m glich die vom LRZ beschafft bzw die auf Empfehlung und mit Zustimmung des LRZ be schafft wurden Das Netzmanagement ist dem LRZ zudem nur unter aktiver Mitarbeit von Netzverantwortlichen m glich Diese werden in ihrer Arbeit durch den Einsatz geeigneter HW SW Werkzeuge vom LRZ unterst tzt Dar ber hinaus sorgt das LRZ f r die netztechnische Aus und Weiterbildung der Netzverantwortlichen Das LRZ teilt den einzelnen Bereichen Namens und Adressr ume zu Deren Eindeutigkeit sowohl bei Adressen als auch bei Namen ist f r einen reibungslosen Betrieb unbedingt erforderlich Das LRZ bernimmt keine Verantwortung f r Beeintr chtigungen die ber das Datennetz an die ange schlossenen Endger te herangetragen werden Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 367 2 Aufgaben der Netzverantwortlichen Netzverantwortliche sind unbedingt n tig um in Zusammenarbeit mit dem LRZ einen reibungslosen Be trieb des MWN zu gew hrleisten Von jeder organisatorischen Einheit z B Institut die das MWN nutzt muss daher ein Netzverantwortlicher benannt werden F r eine kompetente Urlaubs und Krankheits
52. DDR2 DIMM DDR2 DIMM ch ch E ee oe E E E SA A EEE Behe Pe ee ee e Ep tr ch ot Br HR ae hc a pete TEE ETETE EEEE EEEE TETEE EEE EEEE EEEE EEEE EE EEE tet EE EEEE tet EEE EEE EEEE EEEE EEEE TEETE EEEE EEEE EE EEEE EEEE EEE rere ee Hse ea SB SEE A oS SoS aS Sa a aa aa STE aa an aa ann aat aan ann aa man aan aan ann aat aan ann aan Ea aan aa Dn aan aa Dn aan OMA Oa Ea Eae Dan ae ane Dat ae Ene Dae ae aan Daa Ee aan Dae pe aa aan aan aaa aan aan SEES aan ann SoS a SoS oS Sa SoS SoS oo ol oS oe oo oo AA A ECE A CEE ECE CECE CRG A A CECE CECE a A a EEE EEE EGR EGE A EGE EC M EE ch ch Abbildung 4 Schematischer Aufbau eines Systemknotens mit einem Montecito Prozessor oben und mit zwei Montecito Prozessoren unten Einzelne Systemknoten der Altix 4700 sind entweder mit Prozessoren ausgestattet oder es handelt sich um Ein Ausgabe Knoten Alle Knotentypen sind in Form von Blades einer flachen Bauform von Platinen mit gemeinsamer Strom und L ftungsversorgung realisiert Diese Blades werden mittels des SGI Numalink4 Interconnects zu einem Shared Memory System zusammengeschaltet Ein Compute Blade besteht aus einem oder zwei Intel Montecito Prozessorchips und einem Memory Kontroller SHub 2 0 der den Prozessor mit dem physisch lokalen Hauptspeicher verbindet sowie zwei Numalink Kan le zur Anbindung an den Interconnect bereitstellt Die Intel Montecito Prozessoren sind mit 1 6 GHz getaktet und haben zwei Multiply Add Einh
53. Dienst die allgemeine Sicherheit mit einem sehr guten Kosten Nutzenverh ltnis verbessert werden kann veranstaltet das LRZ seinen Kurs Einf hrung in die System und Internet Sicherheit auf Wunsch auch vor Ort e Beratung von Instituten e Bearbeitung von Beschwerden und Anfragen der Kunden e Ausstellung von Zertifikaten Die Informationen zu den sicherheitsrelevanten Ma nahmen und Diensten des LRZ sind ber den Ein stieg zu den Security Seiten erreichbar www Irz de services security Man muss sich jedoch dar ber im Klaren sein dass das LRZ trotz seiner Bem hungen prinzipiell nicht f r hundertprozentige Sicherheit sorgen kann Dies wird noch versch rft durch die offene Umgebung im MWN siehe den vorhergehenden Abschnitt 2 7 2 Sicherheitsma nahmen des Endbenutzers besonders Virenschutz Alle Sicherheitsma nahmen des Rechenzentrums bleiben wirkungslos wenn der Endbenutzer achtlos mit seinen Systemen oder mit Zugangsinformationen wie Passw rtern umgeht Deswegen werden Kurse ber Systemsicherheit veranstaltet und Informationen auf der Webseite www Irz de services security zusam mengestellt Die mit gro em Abstand wichtigste Ma nahme des einzelnen Benutzers zur Erh hung der Sicherheit und zwar nicht nur seiner eigenen sondern auch der seiner Kollegen im Wissenschaftsnetz ist ein wirk samer Virenschutz Schon seit mehreren Jahren hat das Leibniz Rechenzentrum f r die Anti Viren Software Sophos eine Landesli
54. Geb ude oder Geb udeareale werden ber das so genannte Backbone Netz miteinander verbunden und bilden den inneren Kern des MWN Die Verbindungsstrecken des Back bone Netzes sind je nach Nutzungsgrad verschieden ausgef hrt Im Normalfall sind die Strecken Glasfaserverbindungen die langfristig von der Deutschen Telekom und M net angemietet sind Auf den Glasfaserstrecken wird mit 10 Gbit s bertragen Die Verbindung der Strecken bernehmen f nf Backbone Router die untereinander aus Redundanzgr nden ein Dreieck bilden Netze mit einer klei neren Zahl von Endger ten werden mit 64 Kbit s der Telekom mit SDSL Verbindungen bis zu 4 6 Mbit s von M net oder Funk LAN Verbindungen auf Basis von IEEE 802 11b oder g 11 bzw 54 Mbit s angebunden e Die Switches eines Geb udes oder einer Geb udegruppe werden mittels Glasfaser zum allergr ten Teil mit 1 Gbit s aber auch mit 10 Gbit s an die Router herangef hrt e Inden Geb uden geschieht die Anbindung von Datenendger ten ber Ethernet Die Anbindung wird entweder ber Twisted Pair Drahtkabel 100 1000 Mbit s und Glasfaserkabel 100 Mbit s oder zum Teil 1000 Mbit s oder zu einem sehr geringen Teil noch ber Koaxial Kabel 10 Mbit s reali Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 19 siert Server Rechner werden fast immer mit 1 Gbit s angeschlossen Die Kabel werden tiber Swit ches miteinander verbunden e Die zentralen Rechner im LRZ der Bundesh chstleistungsrech
55. H chstleistungsrechner in Bayern Anhang 9 e Nutzungs und Betriebsordnung f r den H chstleistungsrechner in Bayern Anhang 10 e Mitglieder des Lenkungsausschusses des H chstleistungsrechners in Bayern Anhang 11 Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 15 2 Das Dienstleistungsangebot des LRZ 2 1 Dokumentation Beratung Kurse 2 1 1 Dokumentation 2 1 1 1 Informationen im WWW Unter www irz de finden die Kunden alle Informationen ber das LRZ sowie Art Inhalt und Umfang seines breiten Dienstleistungsspektrums Neben der Nutzung der zentralen Anlaufstelle f r alle DV Probleme der LRZ Hotline Tel 089 35831 8800 bietet es sich daher an sich auf den LRZ Websei ten zu informieren ber die Dienste des LRZ die verf gbaren Informationen und wie man sie in Anspruch nimmt die Detaildokumentationen zu einzelnen Produkten und Services und die aktuelle Meldungen ber kurzfristige nderungen oder Einschr nkungen Regelm ige Benutzer des LRZ werden vor allem die Webseite www Irz de home zu sch tzen wissen die zahlreiche Links auf h ufig besuchte Seiten ebenso enth lt wie die berschriften aller aktuellen Meldun gen Man erreicht sie von der Startseite und von allen bersichtsseiten indem man dem Hinweis auf einen Blick folgt 2 1 1 2 Schriften Newsletter Eine Reihe von Publikationen k nnen ber das Benutzersekretariat des LRZ erworben werden z B Ori ginaldokumentation von Softwar
56. Hochschul Prozesse f r die die jeweiligen Daten ben tigt werden Diese Prozesse geben Aufschluss ber die Soll Interpretation der Daten beim jeweiligen Empf nger beispiels weise sollen im Rahmen der Datensynchronisation mit dem Teilprojekt Systemadminist ration automatisch Accounts f r neue Studenten in den fakult tsspezifischen Rechner pools eingerichtet werden o Protokolle die zur Kommunikation mit dem jeweiligen System durch die so genannten Verzeichnisdienst Konnektoren genutzt werden k nnen Hierbei wird so weit wie m g lich auf den Standard LDAPv3 zur ckgegriffen da dieser noch nicht von allen beteilig ten Systemen unterst tzt wird sind auch propriet re Protokolle und der Datenaustausch im Textformat z B als XML Dateien notwendig o angestrebte Synchronisationsfrequenz F r zahlreiche Datenfelder die bislang nur einmal pro Semester z B per Diskette bermittelt wurden wird ein t glicher Datenabgleich an gestrebt F r besondere Datenfelder zum Beispiel das Passwort eines Accounts wird die Propagation in Echtzeit anvisiert wobei von Verz gerungen im Sekundenbereich auszu gehen ist o Behandlung von Fehlersituationen die auftreten k nnen und m glichst weit gehend au tomatisierte Reaktionen darauf bzw die Festlegung entsprechender Zust ndigkeiten und Ansprechpartner Dabei wurden auch grundlegende Optimierungsm glichkeiten er rtert und Priorit ten f r die An bindung der jeweiligen Systeme defini
57. IT Strukturen f r die TUM im Projekt integraTUM gibt es auch ein Teilprojekt elearning Plattform das federf hrend vom Medienzentrum der TUM bearbeitet wird Das LRZ stellt in diesem Teilprojekt die Serverhardware und das Systemmanagement bis zum Betriebs system als Serviceleistung zur Verf gung In 2004 wurden dazu nach Absprache mit dem Medienzentrum zwei Server als Staging und Produktiv Systeme beschafft und mit der erforderlichen Software installiert In 2005 erfolgte die Konfiguration des Gesamtsystems und die Tests mit Pilotanwendern Zum Winter semester 2005 06 ging die Plattform in Produktion Die Anwendungsbetreuung erfolgt ausschlie lich am Medienzentrum und das LRZ k mmert sich um die Hardware das zugrunde liegende Betriebssystem Windows 2003 und den SQL Server In 2006 erfolgte die teilweise Migration auf Linux als Betriebssystemplattform f r Produktiv und Sta ging Systeme Gegen Ende 2006 wurde die Plattform sehr kurzfristig um zwei weitere Windows Server Systeme ausgebaut insbesondere um einen geplanten Wechsel der Applikationssoftware zu unterst tzen und neue Produktivsysteme daf r zur Verf gung zu stellen Analog wurde gegen Ende 2007 die Server landschaft um 2 weitere Systeme vergr ert um den gestiegenen Lastanforderungen gerecht zu werden 5 85 Kundenumfrage Der Umzug des LRZ nach Garching bedingt dass das LRZ es mit einem neuen Kundenkreis f r seine Pr senzdienste Pool und Kurs ume sowie Spezia
58. Integrated DEISA Development Environment Das Projekt soll Mitte 2008 beginnen und eine Laufzeit von drei Jahren haben 164 Teil IL Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 6 2 3 Tier 2 Zentrum des Large Hadron Collider Computing Grid LCG Die immensen Datenmassen des n chsten gro en Teilchenphysikexperiments Large Hadron Collider am CERN im PetaByte Umfang sollen ab Sommer 2008 an Forscher verteilt werden Im Rahmen der Vorbe reitungsarbeiten wurde weltweit eine zwiebelschalenartige Tier Struktur mit dem Tier 0 Zentrum des CERN in der Mitte aufgebaut s Abbildung 47 Das LRZ betreibt dabei zusammen mit dem MCSC Partner RZG und den Hochenergiephysikern aus dem M nchner Raum ein Tier 2 Zentrum Zusammen mit Mitarbeitern des Hochenergiephysik Lehrstuhls Prof Schaile LMU wurde die n chste Generation der Standardsoftware f r das LHC Computing Grid LCG gLite am LRZ installiert Die am LRZ gehostete LCG Hardware wurde 2007 durch weitere Hardware aus Sondermitteln des BMBF er g nzt Ein Teil des LRZ 32 bit Linux Clusters wurde f r LCG Rechnungen dediziert Dar ber hinaus wurden zur Speicherung der Experiment Daten und Auswertungsergebnisse 350 TByte an Plattenplatz angeschafft auf die ber die Grid Software dCache zugegriffen werden kann OfPbisec EST A IE ee Some data for calibration Z TEN N nonitoring to institutes k i si name gt a a we L Calibrations flow back 400 MB sec
59. Key Performance Indikatoren um die Leis tungsf higkeit des Gesamtsystems auch in der Gegen berstellung mit Eigenl sungen quantitativ darzustellen d h m glichst belastbare Kosten Nutzen Analysen durchf hren zu k nnen Die durch die Wiederverwendung von LRZ Services gesch pften Synergien gehen zumeist in eine deutliche Verbesserung der Qualit t und des Funktionsumfangs ein die wiederum nur schwer quantifizierbar ist Die Personalaufw nde k nnen nicht pauschal beziffert werden da mit jedem Projekt andere spe zifische Anforderungen und damit Aufw nde verbunden sind 62 Teil I Das Dienstleistungsangebot des LRZ In 2007 wurden alle potentiellen Kommissionen und Kennungen in den Serverstrukturen angelegt so dass die Vor Ort Betreuer sehr kurzfristig neue Kunden hinzunehmen konnten Insgesamt werden derzeit ber 140 Clienstsysteme vom LRZ betreut Ein f r das LRZ derzeit nicht l sbares Problem ergibt sich rein aus der Anzahl der Projekt Kunden Der Aufwand an Projektmanagementarbeit skaliert linear mit der Anzahl der Projekte Erstgespr che Anfor derungsanalysen Machbarkeitsstudien Verkaufs und berzeugungsgespr che sind mit jedem Projekt kunden zu f hren In der Phase des Produktivbetriebs skalieren die Aufw nde im Kundenkontakt kun denspezifische Hinweise auf Wartungsarbeiten Problem und Incident Management Change Management ebenfalls linear Hier ist f r das LRZ Personal eine Ressourcengrenze erreicht
60. Leong Mateescu Saverchenko Paris session of Platform s LSF Basic Configuration amp Administration course 03 06 2007 06 06 2007 Paris F Berner Mateescu DEISA 2 meeting 18 06 2007 18 06 2007 Paris F Steinh fer D Grid Treffen Referenzinstallation 26 06 2007 26 06 2007 Dortmund Mehammed International Supercomputer Conference ISC 07 26 06 2007 29 06 2007 Dresden Brehm Christadler Scheck Third DEISA eDEISA Review meeting 27 06 2007 29 06 2007 Briissel B Heller Uni RZ Third Erlangen International High End Computing Symposium 02 07 2007 02 07 2007 Erlangen Brehm Fraunhofer Institut 6 Workshop zum Aufbau des Kern D Grids im DGI 02 07 2007 03 07 2007 Berlin Frank DEISA 2 meeting 06 07 2007 06 07 2007 Paris F Steinh fer HLRS First Parallel Tools Workshop 08 07 2007 10 07 2007 Stuttgart Vaihingen Allalen Block Kleinhenz UNICORE 6 Tutorial DEISA 25 07 2007 26 07 2007 J lich Berner D Grid Gesprache bzgl D Grid Sonderinvestitionen 31 07 2007 31 07 2007 Frankfurt Frank Zuk nftige Generation von NAS L sungen von SUN 14 08 2007 14 08 2007 Heimstetten Dunaevskiy CERN School of Computing 2007 19 08 2007 01 09 2007 Dubrovnik KR Christadler 1 D Grid All Hands Meeting 2 Astro Meeting 10 09 2007 13 09 2007 G ttingen Heller D Grid DGI 2 Meeting der Task Force f r ein Betriebskonzept 17 09 2007 18 09 2007 J lich Berner AFS Workshop 2007 20 09
61. Ludwig Maximilians Universit t M nchen Prof Dr Hendrik Zipse Institut f r Organische Chemie der Ludwig Maximilians Universit t M nchen e Von der Technischen Universitat Miinchen TUM entsandt Prof Dr Ing Klaus Bender Lehrstuhl fiir Informationstechnik im Maschinenwesen der Technischen Universit t M nchen Prof Dr Ing J rg Ebersp cher Lehrstuhl f r Kommunikationsnetze der Technischen Universit t M nchen Prof Dr Ernst Rank Lehrstuhl f r Bauinformatik der technischen Universit t M nchen Prof Dr Notker R sch Institut f r Physikalische und Theoretische Chemie der Technischen Universit t M nchen Prof Dr Ing Matth us Schilcher Geod tisches Institut der Technischen Universit t M nchen f Von LMU und TUM gemeinsam fiir Garching entsandt Prof Dr Dietrich Habs Sektion Physik der Ludwig Maximilians Universit t M nchen g Vertreter der Hochschulen au erhalb M nchens Prof Dr Werner Hanke Lehrstuhl f r Theoretische Physik I der Universit t W rzburg Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 259 Anhang 3 Benutzungsrichtlinien f r Informationsverarbeitungssysteme des Leib niz Rechenzentrums der Bayerischen Akademie der Wissenschaften Hinweis Aufgrund der nderung der Satzung der Kommission f r Informatik vom 14 12 2007 werden hieraus ab geleitete Regelungen wie Benutzerrichtlinien Betriebsregeln und Geb hrenordnung zeitnah berarbeitet Pr ambel Das Leibniz Rechenzen
62. M nchen Sie werden von den jeweiligen Einrichtun gen betrieben und betreut F r die Anbindung dieser Netze an das MWN ist jedoch das Leibniz Rechenzentrum verantwortlich Die vorhergehenden Abbildungen zeigen die f r das Backbone Netz verwendeten Strecken deren ber tragungsgeschwindigkeiten und Endpunkte Dabei zeigt ein Bild Teil 1 vor allem die Glasfaser Stre cken der Telekom die in der TUM B enden das andere Teil 2 vor allem die Strecken von M net die in der LMU G S enden Aus diesen Bildern ist auch die gro e Ausdehnung des Netzes ersichtlich 2 3 Bereitstellung von Rechenkapazit t Die Bereitstellung von Rechen und Datenverarbeitungskapazit t im engeren Sinne ist nach wie vor einer der zentralen Dienste des LRZ Aber beileibe nicht alle von ihm betriebenen Rechensysteme dienen die sem Zweck viele erbringen Netz und Dateidienste und andere Funktionen die nicht in Berechnungen oder in anderweitiger Verarbeitung von Daten des Endbenutzers bestehen In diesem Abschnitt geht es um die bereitgestellte Rechen und Datenverarbeitungskapazit t f r die Rechner ganz unterschiedlicher Gr enordnung vom H chstleistungsrechner bis zum PC zur Verf gung stehen Die anderen Dienste werden dann in den folgenden Abschnitten aus Nutzersicht dargestellt und im Abschnitt 2 7 3 noch ein mal dann mehr aus Betreibersicht tabellarisch zusammengestellt Eine eingehende bersicht ber die Rechneranzahl und typen findet sich in A
63. MWN interne Dienste wie Mail und News Service genutzt wer den N heres zur Einrichtung einer VPN Verbindung ist zu finden unter www Irz de services netz mobil vpn 2 6 8 Zugang zu Online Datenbanken Zahlreiche Organisationen bieten Daten und Informationsbanken auf Rechnern in ffentlichen Netzen an Im Prinzip kann man daher von jedem am M nchner Wissenschaftsnetz angeschlossenen System auf solche Datenbanken zugreifen und etwa nach Fachliteratur recherchieren Aber auch vom heimischen PC sind derartige Online Recherchen ber das ffentliche Telefonnetz und die W hlzug nge des LRZ siehe Abschnitt 2 6 5 sowie mittels des VPN Servers m glich Eine wichtige Rolle unter den Online Datenbanken spielen die so genannten OPACs Online Public Access Catalogs der Hochschulbibliotheken Sie bieten kostenfrei Informationen ber den Bestand der jeweiligen Bibliothek oder auch ber den Bestand aller Bibliotheken eines Landes Neben reinen Litera turnachweisen stehen dabei teilweise auch Inhaltsangaben von B chern und Zeitschriftenartikeln Ab stracts und teilweise sogar Volltexte zur Verf gung Der Zugang zu den OPAC Diensten erfolgt in der Regel Web basiert N here Einzelheiten ber Zugang und Nutzung der OPACs der beiden M nchner Hochschulbibliotheken der Bayerischen Staatsbibliothek und einiger anderer Bibliotheken findet man ber www Irz de andere bibliotheken Des weiteren hat das LRZ mit der Firma Gartner einem de
64. Maple Campuslizenz f r das Computer Algebra System Maple dessen Einsatzbereich auf dem Gebiet symbolisches und numerisches Rechnen sowie Visualisierung liegt Maple Studentenlizenz Seit August 1999 besteht eine Erweiterung der Maple Campuslizenz die Studenten von LMU TUM und FHM die Nut zung von Maple auf ihren h uslichen PCs erlaubt Mathematica Campuslizenz f r Mathematica einem Computer Algebra System f r symbolisches und numerisches Rechnen sowie f r Vi sualisierung Vertrag mit Wolfram Research via Fa Additive seit Anfang 2005 ber 3 Jahre g ltig Jede einzelne Institutslizenz gleich ob Netz oder Einzelplatzlizenz berechtigt auch zur Nutzung einer zugeh rigen home Lizenz Vertrag im Herbst 2007 neu ver handelt und abgeschlossen Matlab Weitere Sammel Nachbestellungen f r Produkte der Firma The MathWorks Inc Der Bestand an sog floating network licenses wurde in 2007 zuletzt um 100 auf 362 Grundlizenzen erh ht mit unz hligen Zusatzmodulen die den Anwendern dynamisch zu geordnet werden Art und Anzahl der verf gbaren Zusatzmodule wurden auch in 2007 erweitert Produkte wurden von Corel bernommen siehe dort Microsoft Select Vertrag bis Juli 2009 Unter diesem vertraglichen Dach kann der Gro teil der Microsoft Produkte aus den Bereichen Applikatio nen System und Server Software k uflich bezogen werden Der Verl ngerung des Bayernweiten Rahmenvertrags sind wiederum weitere Hochschulen
65. Rundbriefe Einladungen usw an sehr viele Empf nger verschickt wurden e In 19 sehr schweren F llen konnte das Abuse Response Team des LRZ leider erst eingreifen nach dem der kompromittierte Rechner auch schon au erhalb des MWN aufgefallen war was zu 26 Be schwerden f hrte Im schlimmsten Fall verschickte ein Botnet Rechner mehr als 40 000 Spam Mails pro Stunde 5 11 berwachung und zentrales Management der Rechnersysteme Im Berichtsjahr 2007 ergaben sich an der berwachungs und Managementstruktur der Rechner keine wesentlichen Ver nderungen gegen ber dem Vorjahr HP OpenView Operations OVO ist zentrale Sys tem berwachungs Plattform f r Rechner bzw Rechnerdienste und Geb udetechnik OVO dient als pri m re Informationsquelle nicht nur w hrend der Dienstzeit f r die jeweiligen Administratoren sondern auch f r die Nachtoperateure zur Erkennung von Fehlern bzw Systemst rungen Die einzelnen Meldungen werden nicht nur mittels OVO sondern vielmehr durch Zuhilfenahme weiterer Software wie Nagios im Linux Solaris Umfeld und Microsoft Operations Manager MOM f r MS Windows basierte Dienste generiert Nagios und MOM eingesetzt auf derzeit 7 berwachungshosts sammeln als sogenannte Satelliten Informationen und leiten sie an OVO zur zentralen Auswertung weiter Die Vorteile dieser Satellitentechnik lassen sich wie folgt skizzieren Nagios und MOM sind speziell auf das Betriebssystem zugeschnitten
66. Scans 119 119 Viele Mail Verbindungen zu anderen Rechnern im Internet 106 108 FTP Server der auf einem Nicht Standard Port arbeitet 38 38 DoS 26 26 Extrem hoher Datenverkehr 21 21 Teilsumme 1298 1299 False Positives Viele Mail Verbindungen zu anderen Rechnern im Internet 9 9 FTP Server der auf einem Nicht Standard Port arbeitet 6 6 DoS 4 4 Sonstige Monitoring Funktionen 2 2 Teilsumme 21 21 Summe der vom LRZ endeckten F lle 1319 1320 Tabelle 13 Kompromittierte Rechner die vom LRZ selbst entdeckt wurden Bei den selbst entdeckten F llen siehe Tabelle 13 sind folgende Punkte besonders erw hnenswert e Bei den False Positives beim Mail Monitoring handelte es sich um lange Zeit vollkommen unauff lli ge Rechner die pl tzlich ein ungew hnliches Mail Aufkommen zeigten In diesen F llen gab es auch keine Hinweise f r eine legitime Mail Quelle Die Rechner hatten weder einen aussagekr ftigen DNS Namen noch konnte auf dem Mail Port ein Mail Server kontaktiert werden Zum Gl ck war in den meisten dieser F lle das verd chtige Mail Aufkommen der betroffenen Rech ner nicht besonders hoch die zust ndigen Netzverantwortlichen wurden deshalb berwiegend nur in formiert und die Rechner nicht sofort gesperrt Es handelte sich meist um erst k rzlich in Betrieb ge Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 139 nommene Mail Server oder Gateways oder um Rechner von denen nur relativ selten oder auch nur einmalig
67. Sig natur ist in einem weiteren Zertifikat beglaubigt Somit entsteht eine Zertifikatkette an deren Ende nur noch wenige Wurzelzertifikate stehen die dann mit anderen Mitteln berpr ft werden m ssen Auf grund ihrer geringen Anzahl kann etwa vom Endbenutzer erwartet werden dass er sie sich beschafft und in sein Client Programm etwa einen WWW Browser importiert F r den Bereich des Deutschen For schungsnetzes DFN zu dem die ffentlichen wissenschaftlichen Einrichtungen in Deutschland geh ren betreibt der DFN Verein eine Zertifizierungsstelle die DFN PCA deren Zertifikate teils solche Wurzel zertifikate sind teils von anderer Stelle beglaubigt sind Dezentral k nnen dann weitere Zertifizierungs stellen CA betrieben werden die sich ihre digitalen Signaturen in einem oder mehreren Schritten von der DFN PCA beglaubigen lassen Anfang 2007 ist eine neue Zertifizierungshierarchie namens Global der DFN PCA in Betrieb gegangen in der das Wurzelzertifikat von einer kommerziellen CA 7 TeleSec Trust Center der Deutschen Telekom AG beglaubigt wird Damit entf llt die Notwendigkeit f r die End benutzer das Wurzelzertifikat explizit durch Import als vertrauensw rdig zu kennzeichnen wenn das schon vom Hersteller der Software erledigt wurde Betreiber von Serverrechnern k nnen sich ber das LRZ Zertifikate f r die Rechner besorgen Soweit es sich um Einrichtungen der beiden M nchner Universit ten handelt geh rt die Zert
68. Sites 100 Abbildung 96 User Interface des G ant2 E2E Monitoring Systems Im Dezember 2006 wurde von DANTE der Betreiberorganisation des G ant2 Netzwerks die sog E2E Coordination Unit E2ECU eingerichtet Ziel dieser Einrichtung ist die Koordinierung des Managements von E2E Links Die E2ECU setzt das am LRZ entwickelte Monitoring System bereits im Rahmen ihrer Betriebsabl ufe ein Gem Stand Februar 2008 partizipieren 17 Forschungsnetze und wissenschaftliche Einrichtungen in der Bereitstellung von Monitoring Daten f r die EZECU 7 6 2 G ant2 I SHARe Das GN2 Projekt zum Aufbau einer neuen Generation des europ ischen Forschungsnetzes G ant2 hat nicht nur das Ziel des Betriebs einer Netzinfrastruktur sondern beabsichtigt in gleicher Weise die Bereit stellung von Netzdiensten im Hinblick auf die Nutzer Projekte einzelne Forscher etc Besondere He rausforderungen ergeben sich durch die Unabh ngigkeit der beteiligten Organisationen z B DANTE nationale Forschungsnetze Forschungsinstitute die sich insbesondere durch die verwendete Netztechno logie und ger te sowie durch die Arbeitsabl ufe inklusive deren Werkzeugunterst tzung unterscheiden Ein Beispiel hierzu sind Prozesse beim Betrieb von Ende zu Ende Verbindungen E2E Links siehe Bei trag in diesem Jahresbericht bei denen es sich um dedizierte optische Multi Gigabit Verbindungen zwi schen zwei Forschungseinrichtungen handelt Die E2E Links verlaufen 1 A ber ver
69. TSM verwendet Die TSM Standard Client Schnittstelle stellte sich als zu unflexibel und die TSM API als zu komplex dar Bei der Anbindung ber ein hierarchisches Dateisystem werden die weithin etab lierten Dateisystem Mechanismen f r eine transparente und flexible Anbindung an Hierarchien von Spei 180 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme chermedien genutzt Die gesamte Komplexit t der Speicherhierarchie bleibt vor der Applikation verbor gen Dadurch konnte das von der Bayerischen Staatsbibliothek im Jahr 2005 beschaffte LZA Verwaltungssystem DigiTool der Firma Exlibris zus tzlich zum vorhandenen Festplattenspeicher um die Kapazit t einer Vielzahl terti rer Speichermedien erweitert werden Die Abbildung zeigt die Systemarchi tektur des Bereitstellungs und Archivierungssystems BABS Daten Lieferanten Daten Retrieval HSM Client HSM Server Magnetband System Abbildung 60 Systemarchitektur des Projektes BABS Die untere H lfte der Abbildung bildet die Speicherhierarchie die f r die Datenhaltung installiert wurde Sie besteht aus dem Festplattensystem des HSM Clients dem Festplattensystem RAID des HSM Servers und dem robotergesteuerten Terti rspeichersystem Um die HSM Funktionalit t zu nutzen musste zus tzlich auf dem HSM Client das General Parallel File System GPFS von IBM aufgesetzt werden Da das Festplattensystem des HSM Clients ber das M nchner Wissenschaftsne
70. Verf gung Die Rechner sind mit speziellen Programmpa keten f r die Bereiche CAD Architektur Landschaftsarchitektur 3 D Visualisierung und wissenschaftli che Visualisierung ausgestattet Die Arbeitspl tze werden au erdem zur Erstellung und Bearbeitung von 3 D Modellen f r die anschlie ende Visualisierung im Virtual Reality Labor genutzt 2 8 7 Videokonferenzen Das LRZ bietet mehrere Videokonferenzsysteme an die unterschiedlichen Anforderungen und Einsatz zwecken gerecht werden Portable Systeme mit USB Anschluss die an einem PC oder Notebook betrie ben werden eignen sich speziell f r den Einsatz am Arbeitsplatz und k nnen auch verliehen werden Daneben sind die Konferenz und Besprechungsr ume im LRZ mit Komplettsystemen ausger stet die sehr einfach zu bedienen sind und auch f r Konferenzen mit einer gr eren Anzahl von Teilnehmern vor Ort geeignet sind Diese Videokonferenzsysteme bestehen je aus einer Polycom VSX 7000 und einem 30 Zoll bzw 42 Zoll TFT Bildschirm die komplett auf einem Medienwagen montiert sind ber eine exter Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 53 ne Anschlusseinheit k nnen sehr einfach beliebige Darstellungen auf dem Display eines Notebooks oder PCs in eine bertragung eingeblendet und so den Konferenzteilnehmern zur Verf gung gestellt werden Je eines dieser Systeme kommt au erhalb des LRZ auch in R umen der Bayerischen Akademie der Wis senschaften der Technischen Universit
71. Webseiten an das Internet anzubinden zur Verf gung 5 6 Grafik Visualisierung Multimedia 5 6 1 Virtual Reality 5 6 1 1 Virtual Reality PC Cluster Mitte 2007 wurde ein neues PC Cluster zur Ansteuerung der Holobench im Virtual Reality Labor in Be trieb genommen Es handelt sich um drei PCs vom Typ VSS40 die dem LRZ von der Firma SGI zur Verf gung gestellt werden Die Ausstattung der Rechner umfasst je zwei Dual Core Prozessoren vom Typ Intel Xeon 5160 3 GHz 32 GByte Hauptspeicher eine Grafikkarte vom Typ nVidia Quadro FX 5600 und ein nVidia GSync Board Aufstellung und Anschluss an die Holobench erfolgte durch SGI Installation der Betriebssysteme Win dows XP 64 SUSE Linux 10 2 sowie Windows Vista 64 und nderung in der Konfiguration der VR Software durch LRZ Mitarbeiter 5 6 1 2 Virtual Reality Projekte Neben einer gro en Zahl an F hrungen und Exkursionen mit Studenten und Sch lern die regelm ig im LRZ stattfinden hatte das VR Labor auch im vergangenen Jahr Anteil sowohl an wissenschaftlichen Projekten als auch an unversit rer Ausbildung Hier einige Beispiele 1 China Projekt des Lehrstuhls f r Restaurierung F Horn Untersuchung eines Kriegers aus der Terracotta Armee 2 Str mungsvisualisierungen im Fachgebiet f r Hydromechanik der Fakult t f r Bau und Vermes sungswesen 3 Institut f r Kunstp dagogik LMU Einsatz der Holobench in Ausbildung und Lehre Dr Gumin ski Das Institut nutzt die VR
72. Weihenstephan Chemie Biochemie Geb 212 Oettingenstr 67 TUM Weihenstenhan D rnast Geb 235 Prof Huber Platz 2 Geb 420 TUM Weihenstephan Fischbiologie Vestibiilbau Prof Huber Platz Geb 421 TUM Weihenstephan Forstbau G277 Vestib lbau Turm Au enbereich Geb 421 TUM Weihenstephan Geb 4101 Richard Waener Str 10 TUM Weihenstenhan Geb 4109 Schackstr 4 TUM Weihenstephan Freigel nde zu 4214 SchellingstraBe 3 R ckgeb ude TUM Weihenstenhan Geb ude 215 SchellingstraBe 3 Vordergeb ude TUM Weihenstephan Gr nlandlehre SchellingstraBe 4 SchellingstraBe 5 SchellingstraBe 7 TUM Weihenstenhan H rsaalseb ude Geb 102 TUM Weihenstephan Lebensmittelchemie Geb 4298 TUM Weihenstephan Lebensmitteltechnikum Geb 213 SchellingstraBe 9 TUM Weihenstephan Mensa Geb 216 SchellingstraBe 12 TUM Weihenstenhan Physik Geb 212 Sternwarte Lavlacestr 16 TUM Weihenstephan Tierwissenschaften Sternwarte Scheinerstr 1 TUM Weihenstephan Geb 111 Theresienstra e 37 TheresienstraBe 39 TheresienstraBe 41 Veterin rstra e 1 Veterin rstra e 5 TUM Weihenstephan Geb 113 TUM Weihenstenhan H rsaalseb ude Geb 214 TUM ZHS BFTS TUM ZHS Geb 2301 TUM ZHS Geb 2305 Veterin rstra e Chirurgische Tierklinik Geb ude 801 TUM ZHS Geb 2306 ZAAR Infanteriestr 8 Zentnerstr 1 Zentnerstr 3 Zentnerstr 5 Hochschule f r Fernsehen und Film Hochschule f r Philosophie Baverische Staatsbibliothek Walther Mei ner Institut 7
73. Zeichen folgen enthalten Falls f r eine Servermaschine einen FC Switch oder eine TSM Serverinstanz verd ch Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 191 tige Meldungen gefunden wurden werden diese automatisch per Mail an die betreffenden Administrato ren gesendet Auch herstellereigene Software wird zur berwachung eingesetzt Der Betriebszustand und die Ressour cennutzung aller NAS Filer zum Beispiel wird mit Hilfe der berwachungssoftware Operations Mana ger zentral erfasst und in der Leitwarte abgebildet Zus tzlich kann die Performance der Systeme auch in Echtzeit analysiert werden Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 193 7 Entwicklungen und Tatigkeiten im Bereich des Kommunikations netzes 7 1 Netz Das Miinchner Wissenschaftsnetz MWN verbindet vor allem Standorte der Ludwig Maximilians Universit t M nchen LMU der Technischen Universit t M nchen TUM der Bayerischen Akademie der Wissenschaften BAdW der Hochschule M nchen HM und der Fachhochschule Weihenstephan miteinander Es wird aber auch von anderen wissenschaftlichen Einrichtungen u a Max Planck Gesellschaft Fraunhofer Gesellschaft Kunst Hochschulen Museen mit genutzt Diese Standorte sind insbesondere ber die gesamte M nchner Region i W M nchner Stadtgebiet Gar ching Gro hadern Martinsried und Weihenstephan verteilt es gibt aber auch weitere Standorte in Bayern Derzeit sind an das MWN mehr als
74. angeforderte Zahl der echten Dokumente genannt Als echte Dokumente gelten dabei Textdokumente also keine Bilder oder CGI Skripte Seiten Daten Zugriffe Server in Mio aufrufe umfang in Mio in GByte Leibniz Rechenzentrum 13 41 3 36 380 1 Ludwig Maximilians Universit t M nchen 6 73 1 31 145 2 Technische Universit t M nchen 9 18 0 90 269 5 Einrichtungen im M nchner Hochschulnetz 3 49 0 85 33 2 Einrichtungen im M nchner Wissenschaftsnetz 1 71 0 11 38 5 Bayerische Akademie der Wissenschaften 0 65 0 14 53 1 Sonstige 3 98 0 31 50 0 Gesamt 39 15 6 98 969 6 Tabelle 10 Monatliche Zugriffe auf die WWW Server am LRZ Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 125 5 5 5 3 Anzahl virtueller WWW Server Ende 2007 unterhielt das LRZ 18 virtuelle WWW Server f r eigene Zwecke F r Hochschulen und hoch schulnahe Einrichtungen wurden insgesamt 426 Vorjahr 384 virtuelle WWW Server betrieben Einrichtung Webserver 2007 Webserver 2006 Leibniz Rechenzentrum 18 16 Ludwig Maximilians Universit t M nchen 128 117 Technische Universit t M nchen 178 160 Bayerische Akademie der Wissenschaften 26 22 Einrichtungen aus dem M nchner Hochschulnetz 27 29 z B Hochschule f r Politik Einrichtungen aus dem M nchner Wissenschaftsnetz 27 24 z B Zoologische Staatssammlung M nchen Andere z B Bayerisches Nationalmuseum 40 32 Gesamt 444 400 Tabelle 11 Anzah
75. auch die Funktion eines IPS Intrusion Prevention System und ein Bandbreitenmanagement leistet Es ist unter 7 4 1 ausf hrlich be schrieben 2 6 3 News anonymous FTP News ist ein weltweites elektronisches schwarzes Brett zur Diskussion von aktuellen Themen zum Austausch und zur Beschaffung von Informationen und zur Verteilung von Daten News ist nach verschiedenen Interessengebieten hierarchisch geordnet Dabei sind ber das LRZ z Z mehr als 32 000 Themenbereiche die so genannten Newsgruppen verf gbar Das LRZ verteilt au erdem ber eigene Gruppen lokale Informationen wie z B aktuelle LRZ Information in rz aktuell und bietet ein Forum zur Diskussion von Fragen aus dem LRZ Umfeld in rz questions In News k nnen die Beitr ge von allen Benutzern gelesen werden und in den meisten Gruppen auch ei gene Artikel oder Antworten ver ffentlicht werden posten Man stellt oft fest dass Probleme und deren L sungen anderer News Benutzer auch f r einen selbst von Interesse sind und es bestehen bei eigenen Problemen gute Aussichten dass einer der vielen Experten relativ schnell weiterhelfen kann News ist deshalb auf keinen Fall nur eine kurzweilige Unterhaltung f r Computer Begeisterte sondern eine ernst zu nehmende Informationsquelle Um News nutzen zu k nnen muss ein Teilnehmer ber einen Newsreader verf gen Ein solcher ist in den verbreiteten WWW Browsern integriert und damit auf allen Plattformen des
76. auch vom Personal der Rechenzentren berwacht und softwarem ig gepflegt wer den jedoch logisch einen Teil einer dezentralen Konfiguration bilden e Betrieb virtueller Server d h die bernahme des zuverl ssigen Betriebs von Diensten in einer vorher festgelegten Betriebsumgebung auf einem sogenannten virtuellen Server Dies schlie t nat rlich auch die berwachung der spezifischen Anwendung ein Der Betreiber hat aufgrund der unterschiedlichen Ressourcenanforderungen einzelner Dienste die M glichkeit diese beliebig auf reale Ressourcen d h Rechner zu verteilen Dadurch kann wesentlich effizienter auf sich ver ndernde Anforderungen kurzzeitige Laststeigerungen Redundanzen Ausfallsicherung usw reagiert werden e Remote Management von Rechnerumgebungen bei der die Rechner dezentral stehen und es auch eine Vor Ort Betreuung derselben gibt jedoch die Betriebs berwachung und Software Pflege zentral vom Rechenzentrum aus geschieht 12 Teil I Einordnung und Aufgaben des Leibniz Rechenzentrums LRZ Welche Dienste werden aktuell vom LRZ angeboten Das Dienstleistungsangebot umfasst im Einzelnen e Beratung und Unterst tzung bei Fragen zur Daten und Informationsverarbeitung DV bzw IV und zur aktuellen Informationstechnologie IT e Kurse Schulung und Bereitstellen von Information e Planung Aufbau und Betrieb des M nchner Wissenschaftsnetzes MWN e Bereitstellen von g ngigen Internet Diensten E Mail Web Dienste Proxy
77. auf der Basis unterschiedlichster Vertr ge beschaffte Software darf in der Regel nur f r Forschung und Lehre eingesetzt werden F r die Einhaltung dieser Einschr nkung sind viele Anbieter nach wie vor bereit Preisnachl sse zu gew hren Au erdem ergeben sich wegen der Abnahme gro er St ckzahlen oft erhebliche Preisabschl ge Das LRZ koordiniert ist bei Vertragsverhandlungen und abschl ssen aktiv bernimmt meist auch die sehr komplexe Abwicklung und wo notwendig auch eine Vorfinanzierung verbunden mit gelegentli chem Sponsoring Die dabei entstehenden Vorteile f r den Anbieter der Software wirken sich wiederum Preis senkend aus Die Einsparungen werden vom LRZ durchgereicht sodass als Resultat die betreffen den Programme auf den Ger ten der Institute und Lehrst hle zum Teil sogar auf den h uslichen PCs der Wissenschaftler und vermehrt auch Studenten relativ preiswert eingesetzt werden k nnen Eine Zusammenfassung der aktuell bestehenden Vereinbarungen findet sich auf den LRZ Internet Seiten unter www rz de services swbezug Von Anwenderseite gehen immer wieder Hinweise auf Softwareprodukte ein die nachgefragt werden aber auf den entsprechenden Bezugseiten des LRZ Internetauftritts nicht aufgelistet sind Dies bedeutet zun chst dass sie auch nicht im Portfolio der ber das LRZ beschaffbaren Software sind Das kann ver schiedene Gr nde haben Die h ufigsten sind e Es gibt f r die betreffende Software kein speziell
78. begr ndeten schlie lich die Entscheidung den in die Jahre gekomme nen 77 Prozessor Parallelrechner RS 6000 SP2 von IBM preisg nstig durch ein leistungsf higes Linux Cluster und einen RS 6000 pSeries 960 HPC SMP Rechner von IBM abzul sen e Um die Jahreswende 2000 2001 erfolgte auf der Basis einer F rderung ber das HBFG eine we sentliche Vergr erung des Clusters auf 32 Maschinen mit insgesamt 72 Prozessoren und einer Spit zenleistung von 64 Gigaflop s e Ende 2002 wurde das Cluster im Rahmen eines LRZ Pilotprojektes zum attended Housing von Linux Clustern um weitere 12 Pentium4 Einzelprozessorrechner erweitert e Das Linux Cluster wurde daraufhin Anfang April 2003 um zus tzliche 94 serielle Pentium4 Maschi nen sowie 6 sogenannte I O Server mit einer angeschlossenen Kapazit t von netto 1 5 Terabyte an Hintergrundspeicher erweitert e Anfang August 2003 erfolgte schlie lich die Inbetriebnahme von weiteren 17 Itanium2 basierten 4 fach SMP Systemen mit 64 Bit Architektur sowie der Austausch der 1999 beschafften Maschinen durch Dual Pentium4 Systeme aktueller Bauart e Im Mai 2004 wurde der Hintergrundspeicher des Linux Clusters mittels SATA Technik auf insge samt 36 Terabyte ausgebaut die gr tenteils zun chst unter dem parallelen Dateisystem PVFS Pa rallel Virtual File System sp ter unter dem Nachfolgeprodukt Lustre zur Verf gung gestellt wur den e Anfang 2005 wurde das Linux Cluster um ein 128 Prozessor SGI A
79. bietet als gemeinsames Instrument der Ludwig Maximilians Universit t M nchen und der Technischen Universit t M nchen sowie der Akademie selbst den wissenschaftlichen Einrichtungen dieser Institutionen die M glichkeit Rechen und Informationsverarbeitungsaufgaben f r wissenschaftliche Forschung und Unterricht durchzuf hren Im Zusammenhang damit dient es auch der wissenschaftlichen Lehre und Forschung auf dem Gebiet der Informatik selbst Das Leibniz Rechenzentrum steht ferner den Universit ten und Fachhochschulen im Freistaat Bayern zur Deckung des Spitzenbedarfs und im Bedarfsfall den Verwaltungen der genannten M nchener Hochschulen f r Rechen und Informationsverarbeitungsaufgaben des eigenen Bereichs zur Verf gung soweit diese Aufgaben nicht anderweitig erledigt werden k nnen Das LRZ ist dar ber hinaus befugt anderen wissenschaftlichen Einrichtungen Dienstleistungen im Rah men seines Dienstleistungskatalogs anzubieten Als Betreiber eines nationalen H chstleistungsrechners und nationaler Grid Infrastrukturen steht das LRZ auf diesem Gebiet ferner Forschergruppen an staatlichen deutschen Hochschulen sowie wissenschaftli chen Institutionen in Deutschland die berwiegend von der ffentlichen Hand getragen werden zur Ver f gung Der Zugang zu diesen Ressourcen wird unter Beachtung vorrangigen Bedarfs der satzungsm i gen Nutzer nur auf Antrag gew hrt und setzt abh ngig von der Art und dem Umfang der ben tigten Res sourcen
80. das 1 Halbjahr 2007 Tagesmittel 200 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Yearly Graph 1 Day Average 600 400 200 B All Bllg Billa Jul Aug Sep Oct Nov Dec Average 278 User 221 User 3 User Abbildung 75 Entwicklung der Belegung tiber das 2 Halbjahr 2007 Tagesmittel In den Bildern zeigt die untere Linie den Anteil von Verbindungen mit IEEE 802 11g 54 Mbit s Als Zugangskomponenten werden Access Points des Typs CN320 und CN330 der Firma Colubris sowie AP600 von Proxim eingesetzt Folgende Areale waren Ende des Jahres 2007 mit WLAN versorgt nur zum geringen Teil flachende ckend Akademie der bildenden K nste Baverische Akademie der Wissenschaften Baverische Forschungsstiftune Prinzregentenstr 7 Exzellenzcluster Universe M Dachauer Str 98 M He str Geb ude R M Infanteriestr 14 3 OG M Karlstr 6 M Lothstr 13 Mensa und Bibliothek M Lothstr 21 M Lothstr 34 M Pasing Am Stadtnark 20 M Weihenstenhan Geb 172 FH Weihenstephan Bibliothek FH Weihenstephan Bioinformatik Altes Bauamt FH Weihenstenhan Forstwirtschaft FH Weihenstephan Landnflege Kustermannhalle FH Weihenstephan L wentorgeb ude FH Weihenstephan Pannelallee FH Weihenstenhan Triesdorf FH Weihenstephan Geb 176 LRZ Garching Amalienstr 17 Amalienstr 54 Amalienstr 83 Garching Beschleuniger Laboratorium Garching Phvsik Devartement Coulombwall Geschwister Scholl P
81. den Nutzer unkomplizierte und kosteng nstige Erstellung von Postern f r wissenschaftliche Zwecke ist eine unver ndert stark nachgefragte Dienstleistung des LRZ Die Auf traggeber der Poster erstellen die Druckdateien normalerweise an ihrem Arbeitsplatz im Campus und kommen lediglich zur Abholung der fertigen Drucke ins Rechenzentrum Deshalb wurde schon vor dem Umzug des LRZ in den Neubau in Garching eine f r unsere Kunden g nstige L sung erarbeitet und um gesetzt bei der die Umlaufzeit m glichst kurz gehalten und unn tige Wegstrecken vermieden werden sollten Seit Mai 2006 werden Poster t glich zu fest gelegten Zeiten an gut erreichbare St tzpunkte in der Innenstadt transportiert an die Bibliothek der TU M nchen in der Arcisstra e und an die Bibliothek der LMU in der Ludwigstra e Poster k nnen im Normalfall innerhalb 24 Stunden nach Auftragserteilung auf Wunsch an einem der St tzpunkte TU LMU oder dem LRZ in Garching abgeholt werden Dieser Dienst findet sehr gute Akzeptanz 2 8 3 Multimedia Streaming Server Die Bereitstellung multimedialer Inhalte im Internet erf hrt auch im Hochschulumfeld rasch zunehmende Bedeutung Diese Inhalte k nnen Lehrvideos Vorlesungsaufzeichnungen aber auch zeitgleiche bertra gungen von Veranstaltungen Live Streams sein Die Nutzer k nnen auf aufgezeichnetes Material jeder zeit und nahezu von jedem Ort aus zugreifen Video On Demand oder auch ohne pers nliche Anwesen heit am Veranstaltungsort
82. der Grad an Universa lit t erreicht werden kann der notwendig ist um die Integration neuer Dienste und Plattformen antizipie ren zu k nnen Die Implementierung der neu konzipierten ZBVW findet zuerst in einer Testumgebung statt die auch zur Schulung der unmittelbar mit der ZBVW in Kontakt stehenden Mitarbeiter verwendet wird da sich sowohl die Verwaltung des Datenbestands als auch der programmiertechnische Zugriff dar auf gegen ber der bisherigen ZBVW stark ndern wobei gerade die Umgestaltung der Management werkzeuge unter Usability Aspekten ein dringendes Anliegen der damit Arbeitenden ist Abschlie end wird die neue ZBVW in den Produktionsbetrieb berf hrt wesentliche Langzeit Aufgaben sind Monitoring und Reporting im operativen Betrieb sowie die gezielte Anpassung des Systems an neue und ver nderte Anforderungen im Rahmen eines speziell auf die Anforderungen des Identity Manage ments ausgelegten Change Managements 5 4 2 3 Architektur Als Kern der neuen LRZ Benutzerverwaltung wurde eine Meta Directory Architektur spezifiziert diese definiert die Schnittstellen zwischen den vorhandenen Komponenten und realisiert die technischen As pekte der Datensynchronisations Workflows auf die zugrunde liegende Gesch ftsprozesse abgebildet werden Abbildung 18 zeigt die logische Struktur der neuen zentralen Benutzerverwaltung Drei Verzeichnisdiens te dienen mit einem f r den jeweiligen Zweck optimierten Datenschema der Anbindung der vi
83. die B ndelung der einzelnen Softwareprodukte zu einer Landeslizenz wird wie schon im Vertrag von 2003 nicht nur ein Kostenvorteil gegen ber der Einzellizenzierung durch die Hochschulen angestrebt Gleichzeitig bietet ein geeigneter Vertrag auch die erforderliche Flexibilit t je nach Bedarf festzulegen welche Produkte tats chlich in welcher St ckzahl lizenziert werden An den Vorverhandlungen beteiligten sich unter der Federf hrung des LRZ die Hochschulen von FH Amberg Weiden Coburg Bamberg Passau Ingolstadt W rzburg Regensburg Bayreuth Augsburg und Erlangen Es berraschte wenig dass der Hauptanteil eines k nftigen Vertrags in TSM Lizenzen besteht ber 70 wobei das LRZ hier den wiederum den Hauptbedarf hat Abbildung 64 zeigt den erwarteten Zuwachs an registrierten TSM Nodes am LRZ Entwicklung Anzahl registrierter Nodes 9000 8000 7000 6000 DatWeb E Externserver 4000 Potenziell DatWeb Potenziell Externserver 1000 i Ht fj i oer L 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 5000 3000 2000 Abbildung 64 Anzahl der registrierten Nodes M gliche alternative L sungen mit Produkten mit hnlichem Funktionsumfang wurden auf ihre Taug lichkeit f r den Einsatz im Hochschulbereich sorgf ltig gepr ft und eine Kostenabsch tzung aufgestellt Die Untersuchungen sprachen eindeutig f r den weiteren Einsatz v
84. die zu deut lich verl ngerten Brutto Durchlaufzeiten der Projekte f hrt Die Projektlaufzeiten sollten aber nicht zu lang sein um etwa die Akzeptanz der Endkunden zu behalten oder damit schneller voranschreitende nderungen im Umfeld des Projektes nicht zur Destabilisierung des Projektablaufs f hren Das Remote Desktop Management Betriebskonzept ist bisher also sehr erfolgreich in Produktion Als Regelservice kann es allerdings nicht zur Verf gung gestellt werden um mit dem vorhandenen Personal die hohe Qualit t aufrechterhalten zu k nnen Modelle zur Refinanzierung der LRZ Aufw nde die in Personalressourcen gesteckt werden k nnten w rden der Beseitigung dieses Engpasses dienen Die technische Grundlage dieses Services ein Microsoft Active Directory mit allen Benutzer und Com puterdaten wurde in 2007 berdacht Mit der Pilotierung des Groupware Services Microsoft Exchange f r die TUM die Positionierung dieses Dienstes als zuk nftig MWN weiten Service sowie MWN weit projektierter Storage l sungen mit NETApp Filern in einer Windows Dom ne musste auch das all diesen Services zugrunde liegende Active Directory neu gestaltet werden Im Laufe des Jahres wurde deshalb ein MWN weites Active Directory aufgebaut und f r die Pilotprojekte im Bereich Remote Desktop Mana gement Exchange und NAS Filer zum Einsatz gebracht Dieses Betriebskonzept ist alternativ dem Modell des Application Service Provisioning gegen
85. durch die bertragungen an der Veranstaltung passiv teilnehmen Als Dienstleistungsangebot f r die Institute der Hochschulen betreibt das LRZ einen Streaming Server Dieser leistungsf hige Rechner verf gt ber eine optimale Netzanbindung GigaBit Ethernet und eine gro z gige bei Bedarf leicht erweiterbare Festplattenkapazit t Derzeit werden QuickTime Streaming Dienste auf diesem Server angeboten bei entsprechender Nachfrage kann dieses Angebot um weitere Streaming Technologien erg nzt werden zum Beispiel Real Media oder Microsoft Media Auf dem Streaming Server sind inzwischen einige hundert Filmbeitr ge abgelegt die unter anderem aus den Bereichen AudioVision LMU Biotechnologie TU Chirurgie LMU oder der Hochschule f r Fernse hen und Film stammen Zur Unterst tzung bei der Erstellung von Multimediainhalten stehen am LRZ DV basierte Videoschnitt pl tze Digital Video bereit Dort kann neben der Erfassung und dem Schnitt von Videomaterial an schlie end das Resultat mit leistungsf higen Programmen komprimiert und f r das Streaming vorbereitet werden Weitere Informationen zum Streaming Server des LRZ finden sich unter www Irz de services peripherie videoserver 52 Teil I Das Dienstleistungsangebot des LRZ 2 8 4 Digitaler Videoschnitt Digital Video DV schlie t die L cke zwischen den Konsumentenformaten VHS und S VHS und den teuren und aufw ndigen professionellen Videoformaten wie Betacam oder DigiBeta DV Ger te h
86. elegant durchf hren l sst sowie Speicherlecks in Programmen diagnostiziert und isoliert werden k nnen Neue Versionen von Intel Compilern bzw Bibliotheken erbrachten deutliche Qualit tsverbesserungen auf allen HPC Plattformen e Versionen 10 0 bzw 10 1 der Fortran Compiler unterst tzen jetzt die in Fortran 2003 definierte C Interoperabilit t e Alle Compiler auf Itanium Basis verf gen ber verbesserte Code Generierung was zu teilweise deutlicher Erh hung der Rechenleistung f hrt Version 10 der MKL enth lt zus tzliche Funktio nalit t insbesondere verbesserte FFTW Unterst tzung sowie ScaLAPACK e Version 3 0 der Intel MPI Bibliothek unterst tzt erstmals vollst ndig den NUMAlink Intercon nect auf dem HLRB IL e Version 7 1 der Intel Tracing Tools gestattet in Zusammenarbeit mit den oben erw hnten Com piler Releases die automatische Verfolgung benutzereigener Unterprogramme 6 1 2 6 Nutzungsaspekte Die Auslastung der verschiedenen Rechner Pools des Linux Clusters ist in der folgenden Abbildung dar gestellt Sie zeigt das seit Jahren gewohnte Bild Das IA32 Cluster ist ber das letzte Betriebsjahr zu na hezu 100 ausgelastet Etwaige Leerst nde erkl ren sich durch die Beschr nkung auf max 90 gleichzei tig laufende Stapelverarbeitungsprozesse pro Benutzer und die Tatsache dass besonders langlaufende oder besonders Speicher intensive Batch Auftr ge nur von insgesamt 10 Knoten akzeptiert werden Im Bereich d
87. erfolgt ber den NAT o MAT siehe nachfolgende Ab bildung private MWN IP Adresse M nchner Wissenschafts LRZ VPN Gateway Gateway UMTS Verbindung mit privater MWN IP Adresse Nat o mat Gateway IP Adresse des Nat o mat Laptop mit MCC Karte Abbildung 88 Zugang Vodafone Ger te ins MWN und Internet Die LMU unterzeichnete den Vertrag mit Vodafone im Sommer 2007 und konnte ihre Endger te im Herbst 2007 in Betrieb nehmen Die LMU nutzt knapp 1 500 Endger te von denen ein Drittel Smartpho nes sind die auch als UMTS Modem am Notebook oder PC genutzt werden k nnen Die TU M nchen hat Ende 2007 den Vertrag unterzeichnet eine Auslieferung der Ger te an TUM Mitarbeiter ist im Fr hjahr 2008 zu erwarten 228 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 7 5 2 CNM II Nach Beendigung des Projektes Entwurf und Implementierung eines CNM Informationssystems f r den DFN Verein DFN CNM2 im September 2004 das bereits die Fortf hrung zweier CNM Vorg ngerprojekte darstellte werden die beiden LRZ Mitarbeiter vom DFN Verein weiterbesch ftigt Sie haben ihren Arbeitsplatz weiterhin im LRZ nun in Garching und setzen das Projekt insofern weiter fort als dass nun ein CNM Informationssystem f r das europ ische Forschungsnetz Geant2 und angeschlosse ne Partnernetze entwickelt werden soll Customer Network Management CNM bezeichnet allgemein die
88. f r gute wissenschaftliche Praxis die Regelaufbewahrungsdauer f r die Daten auf 10 Jahre festgelegt hat 4 6 Projektverwaltung und kontrolle durch Master User Dem Master User der ja bei der dezentralen Verwaltung und Kontrolle der Rechnernutzung eine sehr wichtige Aufgabe bernommen hat stehen zur Durchf hrung dieser Aufgabe einige Hilfsmittel zur Ver f gung Diese bestehen derzeit aus folgenden WWW basierten Diensten e Allgemeine Information zum Projekt Dieser Dienst liefert dem Master User alle ber das jeweilige Projekt am LRZ gespeicherten Daten Antragsteller Adressen usw sowie auch eine bersicht ber die zugeteilten Benutzerkennungen 84 Teil I Hinweise zur Benutzung der Rechensysteme Informationen tiber Benutzerkennungen Damit kann sich ein Master User im Detail informieren auf welchen LRZ Plattformen eine einzelne Kennung oder auch alle Kennungen des Projekts zugelassen ist welche Plattenplatzquota vergeben sind sowie welche Mail Aliasnamen f r Kennungen des Projekts eingetragen wurden Setzen von Passwortern Damit kann der Master User Passw rter f r Benutzerkennungen aus seinem Bereich setzen ohne dass er die alten Passw rter kennen muss Er kann also Benutzerkennungen bei denen er einen Missbrauch vermutet sperren oder gesperrte Kennungen wieder aktivieren Er kann damit aber auch ganze Serien von Kennungen z B bei Praktika mit neuen wahlweise sogar mit per Zufalls generator erzeugten Passw rte
89. f r je den Unterbezirk eingeblendet werden Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 213 Karte Satelit Gel nde dc on netz am Jul 25 zuletzt aktualisiert LRZ Rechnerw rfel Route berechnen Hierher Von hier In der N he suchen a SNe j Abbildung 80 Campus Garching in Google Maps e Die DHCP Administratoren werden per E Mail bei nderungen von Subnetzen bzw Subnetzbe reichen die die DHCP Konfiguration betreffen benachrichtigt e Die Netzdokumentation wurde enger mit dem Doku Ticket im ARS Remedy verkn pft Die Da ten von neuen Komponenten k nnen jetzt halbautomatisch aus dem entsprechenden Ger te bzw Einzelteil Ticket bernommen werden e Im Rahmen der Netzdokumentation wurden sogenannte Tooltips entwickelt die eine einfache Anreicherung von anderen Web Seiten mit Informationen aus der Netzdokumentation erlauben In der Abbildung ist beispielsweise ein Tooltip auf der Web Seite f r gesperrte Rechner zu sehen Dem Benutzer wird der Tooltip durch einfaches Doppelklicken der IP Adresse mit der Maus an gezeigt und er erh lt damit alle wesentlichen Informationen zu dem entsprechenden Subnetzbe reich in der Netzdokumentation Diese nahtlose Integration von Informationen der Netzdokumen 214 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes tation in andere web basierte Management Anwendungen erleichtert die Arbeit f r die Administ ratoren P
90. geschaffen die eine Scan Kapazit t von 2 200 Seiten pro Stunde erreichen Nur durch eine angemessene Automatisierung lassen sich die enormen Datenbest nde der BSB schrittweise archivieren und eine Sicherung des Weltkul turerbes realisieren Die Digitalisierungsma nahme umfasst 36 150 Titel mit ber 7 2 Millionen Seiten 42 Teil I Das Dienstleistungsangebot des LRZ Pro Jahr entstehen hier ber 100 Terabyte an neuen Archivdaten die in den Bandlaufsystemen des LRZ gespeichert werden Im Jahr 2007 wurde ebenfalls der Grundstein f r eine weitere mehrj hrige Zusammenarbeit des LRZ und der BSB im Bereich der Massendigitalisierung und archivierung gelegt In einer gro angelegten Public Private Partnership zwischen der BSB und Google wird der gesamte urheberrechtsfreie Bestand der BSB in den n chsten Jahren digitalisiert Der Umfang der Digitalisierung umfasst ber eine Million B cher mit sch tzungsweise mehr als 300 Millionen Seiten Die Archivierung der Digitalisate und die Bereitstellung ber das Internet sollen durch das LRZ erfolgen Die Kooperation zwischen dem LRZ und der BSB im Bereich der Langzeitarchivierung soll im Jahr 2008 durch ein weiteres DFG gef rdertes Projekt BABS2 intensiviert werden Die Antragsstellung erfolgte im August 2007 Im Rahmen dieses Projektes soll der konsequente Ausbau des Bibliothekarischen Archi vierungs und Bereitstellungssystems BABS zu einem vertrauensw rdigen und skalierbaren digitalen Langzeit
91. gewisse Arbeiten in diesem Bereich n tig sind werden Beeintr chtigungen des Netzbetriebs m glichst lokal gehalten und gr ere Beeintr chtigungen l ngerfristig angek ndigt Bei Fehlern an Netz komponenten bitten wir die LRZ Hotline Tel 49 89 35831 8800 zu informieren Allerdings besteht kein 24 Stunden Dienst zur Behebung von St rungen Ansonsten informiert das LRZ ber bekannte Be triebsunterbrechungen und St rung ber ALIs Aktuelle LRZ Informationen http www Irz de aktuell 2 9 2 Serversysteme und deren Funktionen Im Folgenden werden die verschiedenen Server Funktionen aufgef hrt die zum reibungslosen Ablauf des gesamten Rechnerkomplexes des LRZ und f r die vielf ltigen Dienste notwendig sind wie sie in den voranstehenden Abschnitten beschrieben worden sind Nicht aufgef hrt sind die oben schon ausf hrlich behandelten Compute Server und Kurs und Pool PCs sowie alle Speichersysteme Eine Reihe der hier genannten Server sieht der Endbenutzer nie sie sind jedoch f r eine gro e verteilte Rechnerumgebung wie die der M nchner Hochschulen unerl sslich Die unter diese Kategorie fallenden Rechner bieten jeweils klar definierte Funktionen an die die Benutzer oder andere Rechner abrufen k n nen Einzelne Benutzer haben auf ihnen keine Rechte eigene Auftr ge zu starten oder eigene Dateien abzulegen es sei denn indirekt durch den Aufruf einer der definierten Funktionen Rechner bergreifende Konzepte verteilte D
92. haben sich als Speicherplattform aufgrund ihrer Stabilit t Ausfallsicherheit und hohen Datensicherheit durch die Spiegelung auf ein Replikationssystem weiterhin bew hrt und als strategische Plattform etabliert Unter dem Label Speicher f r die Wissenschaft wurde 2007 ein Gro ger teantrag f r Speicher gestellt genehmigt und umgesetzt Dieses System stellt f r die satzungsm igen Nutzern des LRZ die Grundversorgung sicher und dient Mitarbeitern und Studenten der M nchner Universit ten TU M nchen und LMU als gemeinsamer zentraler Hochschulspeicher Ende 2007 verf gten die verschiedenen Speicherarchitekturen am LRZ ber folgende Nutzkapazit ten Speicherarchitektur Anwendungsgebiet Kapazit t Nearline Storage Datensicherung von Servern des MWN 3 300 TB Mittelfristige Ablage gro er Datenmengen Langzeitarchivierung SAN Storage Disk Cache und Datenbanken f r ABS 183 TB Network Attached Speicher f r Anwendungen Email Web ELearning 355 TB Storage Filesystem Ablage hausweit hochschulweit Arbeitsverzeichnisse des HPC Bereichs Andrew Filesystem Filesystem Ablage hausweit hochschulweit Webdaten 6 TB High Performance SAN Filesystem am Bundesh chstleistungsrechner 600 TB Storage Projektspeicher Bundesh chstleistungsrechner 60 TB Paralleles Filesystem Lustre am Linux Compute Cluster 51 TB 6 4 2 Archiv und Backupsystem 6 4 2 1 Aktivit ten und aktuelle Konfiguration Aktivit ten Das LRZ betr
93. hole coalescence in High Performance Computing in Science and Engineering 07 Dunaevskiy A Three Generations of Linux Server Systems as TMS Platform at LRZ Conference Proceedings Oxford University TSM Symposium 2007 DUNAEVSKIY A REINER B So sichert man die Petabytes Linux Technical Review Thema Storage und Backup Ausgabe 3 Juni 2007 ISBN 13 978 3 00 021690 9 HEGERING H G REISER H SCHIFFERS M NEBE TH eds Proceedings of the ISBN 0 444 52198 4 ISSN 09305157 ISBN 978 3 89963 594 2 14th Annual Workshop of HP Software University Association Infonomics Consulting Stuttgart Juli 2007 356 p HEGERING H G BRENNER M DREO RODOSEK G HANEMANN A KONIG R Service Provisioning Challenges Process Aligment and Tool Support In J Bergstra M Bur gess ed Handbook of System and Network Administration Elsevier 2007 57 pages HEGERING H G APOSTOLESCU V BIARDZKI CH HARTMANNSGRUBER N LAPPLE A RAAB W Umzugsplanung fiir ein GroBrechenzentrum PIK 4 07 30 Jahrgang 2007 Saur Verlag M nchen HOMMEL W KNITTL S SERVUS TUM User Centric IT Service Support and Privacy Management In Proceedings of 13 International Conference of European University In formation Systems EUNIS 2007 Grenoble France 2007 June HOMMEL W Architektur und Werkzeugkonzepte f r f deriertes Identit ts Management Disseration Juli 2007 KORNBERGER R REISER H Die Suche nach der Nadel im Heuhaufen Nyx Ein
94. htes Mail Aufkommen gibt o Inbetriebnahme eines neuen Mail Servers Gateways oder Servers f r Mail Verteiler o Regelm iges Verschicken von Rundbriefen mit vielen Empf ngern o Verschicken von Benachrichtigungen durch ein System das die korrekte Funktion Verf gbar keit von Diensten oder Rechnern berwacht Das LRZ geht i a aktiv auf die Betreiber von Rechnern zu bei denen das Mail Aufkommen vermut lich legitim ist z B wenn im DNS Namen der String mail vorkommt Dies ist auch der Grund da f r dass die F lle dieser Gruppe nur selten von LRZ Kunden initiiert werden Bei den Mail Beschwerden an die falsche Stelle fielen die Spam Opfer auf gef lschte Mail Header herein und bemerkten nicht dass die Spam Mails in Wahrheit nicht aus dem MWN kamen In vielen F llen m ssen kompromittierte Rechner zur Sicherheit am Internet bergang gesperrt wer den Wird ein betroffener Rechner innerhalb von wenigen Wochen wieder ges ubert wird das Auf heben seiner Sperre noch innerhalb des urspr nglichen Abuse Falls abgewickelt Liegt die Sperre je doch schon mehrere Monate oder evtl sogar schon Jahre zur ck wird das Entsperren in einem ge sonderten Fall bearbeitet Bei den Copyright Verletzungen handelte es sich um Beschwerde Mails von Organisationen die ame rikanische oder europ ische Rechte Inhaber vertreten Selbst wenn diese F lle bis jetzt noch keine ju ristischen Konsequenzen haben handelt es sich nicht
95. ihre Dienste nun ebenfalls ber IPv6 an und werden insbesondere durch den deutschen ISP Freenet sowie die deutschen und franz sischen Uni versit ten bevorzugt genutzt Des Weiteren wurde ein Umsetzer f r das Protokoll Teredo IPv6 in IPv4 UDP installiert welcher aus den an G ant2 angeschlossenen Einrichtungen rege genutzt wird Die Planungen f r das Jahr 2008 sehen den Anschluss weiterer Nutzer an das IPv6 Netz vor Hierzu wer den interessierte Personen gezielt angesprochen um einen Multiplikatoreffekt zu erreichen Die bereits in fr heren Jahren eingef hrten Protokollumsetzer f r 6104 und ISATAP werden f r ein besseres Lastver halten auf einen dedizierten Router verlagert 212 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 7 3 Management 7 3 1 Weiterentwicklung und Betrieb der Netzdokumentation In 2007 wurde die 2006 begonnene Umstellung der Netzdokumentation auf eine Version ohne die Soft ware Module ZClasses und ZPatterns siehe auch Jahresbericht 2006 fertiggestellt Damit ist die Netz dokumentation jetzt auch auf neueren Versionen des zugrundeliegenden Applikationsservers Zope lauffa hig Positive Nebeneffekte dieser Umstellung sind eine verbesserte Performance und Sicherheit Die Wei terentwicklung der Netzdokumentation wird zus tzlich durch eine jetzt bersichtlichere Struktur des Quellcodes vereinfacht Die Anpassung der Netzdokumentation auf die neue zentrale Benutzerverwaltung LRZ SIM
96. kontrollierte Weitergabe von Mana gementinformationen durch den Anbieter eines Kommunikationsdienstes an die Dienstnehmer sowie das Bereitstellen von Interaktionsschnittstellen zwischen Dienstnehmer und Diensterbringer CNM erm g licht es den Dienstnehmern sich ber den Zustand und die Qualit t der abonnierten Dienste zu informie ren und diese in eingeschr nktem Ma e selbst zu managen CNM tr gt dem Paradigmenwechsel vom komponentenorientierten zum dienstorientierten Management dadurch Rechnung dass nicht mehr aus schlie lich low level Daten wie z B Management Information Base MIB Variablen der Komponen ten betrachtet werden sondern aussagekr ftige Informationen ber die Einhaltung der vertraglich aus gehandelten Dienstvereinbarungen Folgende Teilbereiche lassen sich f r die Funktionalit t der CNM Anwendung f r das X WiN die auch weiterhin angeboten wird und von Weiterentwicklungen im Rahmen des EU Projektes profitiert identifi zieren e CNM Anwendung Topologie Visualisierung der Topologie und des Zustands der IP Infrastruktur Mit Hilfe dieser Funktionalit t k nnen DFN Anwender sich einen berblick ber den aktuellen und his torischen Zustand und Qualit t der IP Infrastruktur verschaffen W hrend f r die Router nur die weiterge leiteten Pakete als Kennzahl bereitstehen werden f r die Verbindungen Bandbreite Auslastung und Durchsatz dargestellt Insgesamt gibt es nun nach der Umstellung zum X WiN nur noc
97. mindestens 96 Durch lange Reaktionszeiten der Hardware bzw Softwarehersteller bei der Analyse und Behebung von Problemen kann sich die Verf gbarkeit unter Umst nden weiter reduzieren Der Standardfall sieht eine Reaktion des Herstellers sp testens am n chsten Arbeitstag vor Das Leibniz Rechenzentrum ist daher 272 Teil II Anhang 6 nicht in der Lage die genannte Verf gbarkeit zu garantieren auch wenn in den vergangenen Jahren eine deutlich h here Verf gbarkeit erreicht wurde 10 Support durch das LRZ Das LRZ kann nur in beschr nktem Ma Hilfestellung bei der Installation Konfiguration der Client Software und bei auftretenden Problemen geben Insbesondere k nnen keine Antwortzeiten garantiert werden W hrend der regul ren Arbeitszeiten wird versucht auf einen Dienstauftrag bzw eine Problem meldung am gleichen Arbeitstag zu reagieren die Bearbeitungsdauer ist abh ngig von der Komplexit t des Problems Der empfohlene Benachrichtigungsweg bei Fragen Problemen oder St rungen ist eine E Mail an abs admin_AT_Irz muenchen de Grunds tzlich kann das Leibniz Rechenzentrum Supportanfragen nur bearbeiten wenn die vom Kunden eingesetzte Hardware und Software auch seitens des Herstellers der Archiv und Backupsoftware voll unterst tzt wird Es liegt in der Verantwortung des Kunden durch regelm ige Updates seines Systems f r die entsprechende Kompatibilit t zu sorgen 11 Monitoring und Reporting Die Verf gbarkeit der S
98. miteinander verbunden sind siehe n chste Abbildung 236 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes E2E Link A B EndPoint A EndPoint B Abbildung 94 Grundstruktur von G ant2 E2E Links Kunden des E2E Link Dienstes sind zun chst das CERN in der Schweiz hier werden die Links einge setzt um die riesigen Datenmengen des neuen Teilchenbeschleunigers LHC zu internationalen For schungseinrichtungen zu bertragen sowie das Grid Projekt DEISA Weitere Projekte planen den Ein satz von E2E Links E2E Links werden auf ISO OSI Netzwerkschicht 2 realisiert und stellen den Kunden die volle Bandbreite der optischen Verbindung zur Verf gung derzeit im Allgemeinen 10 Gbit s Aufgrund der Eigenst n digkeit der beteiligten Partner besteht ein hoher Grad an Heterogenit t in Bezug auf die eingesetzten Netzwerktechnologien So kommen derzeit Ethernet und SONET SDH zum Einsatz zuk nftig ist auch MPLS geplant Dabei wird Hardware von verschiedenen Herstellern genutzt wie z B Alcatel Cisco Huawei u a Momentan werden die einzelnen Abschnitte manuell zusammengeschaltet was zu Einrich tungszeiten von bis zu mehreren Monaten f hrt W hrend die betriebliche Verantwortung f r Teilabschnitte innerhalb einer Dom ne klar definiert ist m ssen f r die grenz berschreitenden Abschnitte zwischen zwei benachbarten Dom nen besondere Absprachen getroffen werden Die Partner m ssen sich einigen wie
99. msec TM1 gen ch geant net Topology of GEANT Eu 4 switch rt1 gen ch ge 3 swiCE2 G3 1 switch ch 130 59 36 109 4 msec 4 msec 4 msec SWITCH Topology of GEANT Eu 4 switch rt1 gen ch ge 5 so 2 0 O rtLmil itgeant2 net 62 40 112 34 AS 20965 12 msec 12 msec rt rm1 garr net PO4 2 Topology of GARR NR 9 rt rm2 rt rm1 2 r geant2 net 62 40 124 130 AS 20965 8 msec 12 msec 1 0 Topology of GARR NR 10 rt rmi rt ct1 ct1 0 Topology of GARR NR 11 rt ct1 re 6 garr gw rt1 mil rt ct1 garr net PO rc pa1 garr ne 7 nl mil rt mi2 mi2 garr net 193 206 134 190 AS 137 12 msec 12 msec 8 n mi2 rt rm2 rm2 garr net 193 206 134 230 AS 137 20 msec 20 msec 2 9 n rm2 rt rm1 2 rm1 garr net 193 206 134 117 AS 137 24 msec 20 mse 10 rt rm1 rt ct1 ctL gart net 193 206 134 6 AS 137 36 msec 32 msec 36m 1 1 I pal pal Switch full auto nren 2 swiBE1 G2 4 switc Switch full auto nren 3 swiC SWITCH NREN of Switz 2 swiBE1 G2 4 switc SWITCH NREN o 2 swiBE1 G2 4 switch SWITCH NREN of Switz 3 swiCE2 36 108 32 SWITCH NREN of Switz 3 swiCE2 G3 1 switch Save as OK rtl gen ch geant net GEANT European Edu 4 switch rt1 gen ch ge rt1 gen ch geant net GEANT European Edu 4 switch rtl gen ch ge 2 garr net so 3 0 G RR NREN of Italy 7 rtl mil rt mi2 mi2 jarr net PO4 2 GARR NREN of Italy 9 n rm2 rt rm1 2 r
100. ngigkeit von Subnetzbereichen und Ziel Ports festgelegt Parameter die in das Regelwerk eingehen sind z B Paketraten von zu einem System Anzahl der SMTP Verbindungen Verbindungsanzahl eines Quellsystems zu vielen Zielsystemen Zeichen f r Denial of Service DoS Angriff und die Verbin dungsanzahl von vielen Quellsystemen auf ein Zielsystem Distributed Denial of Service DDoS oder Bot Net Sowohl das Regelwerk als auch die Reaktionen bei auff lligen Systemen lassen sich feingranu lar und richtlinienbasiert anpassen Bei Regelverst en wird in zwei Stufen reagiert Bei kurzzeitigen Verletzungen wird ein Soft Limit er reicht in welchem die Bandbreite bzw die Paketrate des Verursachers beschr nkt wird Der Betroffene wird vom System verwarnt sobald er einen Browser ffnet und es werden Strafpunkte vergeben Erst wenn die Anzahl der Strafpunkte einen Schwellwert tibersteigt Hard Limit wird die verursachende IP Adresse vollst ndig gesperrt d h Pakete von dort nicht mehr durchgelassen Sowohl die Sperrung als auch die Benachrichtigung der Betroffenen erfolgt automatisch Sobald die Anzahl der Strafpunkte innerhalb eines gleitenden Zeitfensters unter das Hard Limit f llt hebt der NAT o MAT die Sperrung eines Endsystems automatisch wieder auf Dies ist aber nur m glich wenn der Datenstrom der das Hard Limit ausgel st hat beendet wird Blocked Users 36h 0 L i 00 00 06 00 12 00 18 00 00 00 06 00
101. o MAT inklusive verschie dener Sicherheitsfunkionen z B Limitierung von P2P Protokollen Verhinderung von Portscans und Erkennung von Bot Netz Kommunikation siehe vorigen Abschnitt e Einrichten von Router Filtern und einer Serverzone f r Institute e Einrichten von Router Filtern zur Sperrung von kritischen Microsoft Ports einschlie lich SQL Server Ports 42 135 137 138 139 445 593 1433 1434 f r einzelne Subnetze Reaktion auf Ausbreitung des W32 Blaster Wurms im MWN e Unterst tzung beim Betrieb einer eigenen Instituts Firewall mittels VLANs e Einf hrung des neuen Dienstes virtuelle Firewall siehe Abschnitt 7 4 6 e Beratung bei der Planung virtueller Firewalls e Einrichtung virtueller Firewall Instanzen e Information der Netzverantwortlichen per E Mail bei auff lligen Rechnern aus deren Zust ndig keitsbereich siehe Monitoring Accounting e Sperrung von Rechnern die mit hoher Wahrscheinlichkeit kompromittiert sind oder die miss br uchlich genutzt werden z B Urheberrechtsverletzungen Die entsprechenden IP Adressen werden am X WiN Zugang gesperrt und der Netzverantwortliche wird informiert siehe Monito ring am X WiN Zugang Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 223 e Monitoring e Automatische Erkennung von FTP Servern auf Nicht Standard Ports im MWN auf der Basis des Open Source Intrusion Detection Systems IDS SNORT und anschlieBende Sperre mit Benach richtigung der
102. oftmals m hsam und w rde der Suche nach einer Nadel im Heuhaufen gleichen g be es dazu nicht Suchmaschinen die es m glich machen WWW Dokumente anhand von Schlagworten bzw Schlagwortkombinationen aufzufinden F r die gro r umige weltweite Suche stehen eine Reihe gro er bekannter Suchmaschinen zu Diensten F r die gezielte Suche ber be stimmte Teilbereiche wie beispielsweise alle Webserver einer Hochschule sind die gro en Suchmaschi nen jedoch ungeeignet Auch eine Suche ber interne Webseiten ist nicht m glich und die Aktualisierung der Such Indizes ist nicht steuerbar Daher bietet das LRZ den Hochschuleinrichtungen Suchmaschinen f r die gezielte Suche an Diese werden seit Fr hjahr 2006 mit der kommerziellen Suchmaschinensoft ware Webinator der Firma Thunderstone betrieben Das LRZ stellt ein gutes Dutzend Such Indizes zur Verf gung die jeweils f r die Suche ber einen ein zelnen Webserver oder eine genau definierte Gruppe von Webservern eingerichtet sind insbesondere nat rlich f r die Suche auf dem WWW Server des LRZ 2 6 2 Proxy und Gatewaydienste Proxy Server dienen dazu f r bestimmte Protokolle Zugriffe stellvertretend f r andere Server zu bedie nen Durch die Pufferung von Inhalten auf lokalen Platten kann dadurch eine Reduktion des n tigen Da tenverkehrs erreicht werden f r Clients mit privaten IP Adressen oder durch Firewalls eingeschr nkter Konnektivit t kann der Zugang durch Proxys erm glicht werden
103. r mobile Endger te eeessesseessnesnnnsnsennnennnennnennne ons ennnennnnennnnnnnn 46 2 621 VPN Server IPsec un 2 ale nen nenne A a E ES 47 2 6 8 Zugang zu Online Datenbanken unseeesesssessseensennsennnennneennennennennnnnnnnnnnnnn 47 2 7 Sicherheit bei Rechnern und Netzen uusenseeeseenseennnesnneenneennnennnennnennnnnsennnnenseenne ons ennn en 47 2 7 1 SicherheitsmaBnahmen des Rechenzentrums sesensenseenseeenneennnenneennnenn nenn 48 2 7 2 Sicherheitsma nahmen des Endbenutzers besonders Virenschutz 49 2 7 3 Zertifizierung von Serverrechnern nach X 509 cccceseesseeseeseeseeseceeenteeneeees 50 2 8 Grafik Visualisierung Multimedia cece cccccssecsseestecetecsteceseesecssecseeeseeeeesecsteeeseesaeeaees 50 2 8 1 Dateneingabe und Ausgabeger te nneseesnessneensennneennennneennnennnennennn nennen 50 2 82 Stutzpunktk nzept 2 2 08 1 28 222 ea nRaiRT En iA 51 2 8 3 Multimedia Streaming Server cccccccsccesccesecesscessceeceesseeeseeeseecseecsaecseecsaeeneenseenes 51 2 8 4 Digitaler Videoschnitt sehier sneinen eed iari iek 52 2 8 5 M ltimediala bor meria nase ee ea Ice 52 2 8 6 CAD und Visualisierungslabor cccccescesscessceesceeeeeeneeeseeeaeecseecseecsaeenseeneenseeees 52 2 8 7 Videokonteren Zens ia merania n a Riikenabsseneksihbnrelrai 52 2 8 8 Virt al Reality Labor esne E E E RE RG 53 2 9 Betrieb von Netz Rechnern un
104. rt auch die Integration am LRZ bereits eingesetzter Management Tools ggf nach einer Konsolidierung dieser 7 3 5 2 Fortbildung der Mitarbeiter im Bereich IT Service Management Wie schon in den vergangenen Jahren wurden auch 2007 in Zusammenarbeit mit der Ludwig Maximilians Universit t M nchen Lehrstuhl Prof Hegering zwei Seminare zum Thema prozessorien tes IT Service Management durchgef hrt an denen auch wieder mehrere LRZ Mitarbeiter teilgenom men haben Um die oben angesprochene Awareness Bildung auf breiterer Basis zu forcieren wurde im November aber auch eine zweit gige Schulung zu Grundlagen des ITSM nach ISO IEC 20000 am LRZ selbst durchgef hrt orientiert sich am oben erw hnten neuen Qualifikationsschema zu diesem Themenbereich In der weltweit ersten Pr fung im Rahmen dieses neuen Zertifizierungs und Lehrgangskonzepts f r IT Service Management nach ISO IEC 20000 haben 19 LRZ Mitarbeiter erfolgreich einen einst ndigen Test absolviert und ihr Verst ndnis der Inhalte dieses internationalen Standards unter Beweis gestellt Mit der Pr fung durch die T V S D Akademie k nnen diese Mitarbeiter nun das Foundation Zertifikat nach ISO IEC 20000 f hren Abbildung 84 Gruppenbild der LRZ Mitarbeiter die das Foundation Zertifikat nach ISO IEC 20000 weltweit als erste erhalten haben 7 4 Sicherheit 7 4 1 NAT o MAT Im M nchner Wissenschaftsnetz MWN werden mehr als 65 000 IP Endsysteme betrieben Neben de
105. seit April Phase 1 bis Marz 2007 2007 Prozessorkerne 9728 4096 1344 Spitzenleistung 62 2 Teraflop s 26 2 Teraflop s 2 0 Teraflop s Hauptspeicher 39 Terabyte 17 2 Terabyte 1 3 Terabyte Speicherband 34 8 Terabyte s 34 8 Terabyte s 5 4 Terabyte s breite Plattenplatz 660 Terabyte 340 Terabyte 10 Terabyte Latenz des Inter 1 6 Mikrosekunden 1 6 Mikrosekunden 14 Mikrosekunden Tabelle 1 Kennzahlen des H chstleistungsrechners in Bayern 25 Die durch Benchmark Programme definierte Anwendungsleistung des Systems wurde mit Installation von Phase 2 von 8 auf 16 Teraflop s erh ht Systemarchitektur der Partitionen Die Systemarchitektur jeder Partition ist eine verteilte Shared Memory Architektur das hei t der ge meinsame Hauptspeicher ist ber die Systemknoten verteilt Memory Controller auf den Systemknoten sorgen f r den cache koh renten Zugriff aller Prozessoren auf diesen gemeinsamen Hauptspeicher Je nachdem ob ein Speicherzugriff auf physisch lokale oder auf einem anderen Systemknoten befindliche Daten erfolgt ergeben sich jedoch unterschiedliche Zugriffszeiten und Bandbreiten Daher wird die Sys temarchitektur auch als cache coherent non uniform memory access ccNUMA bezeichnet Die effi ziente Nutzung eines derart ausgelegten Speichersystems stellt den Programmierer durchaus noch vor Herausforderungen bietet aber auch gro e Flexibilit t der Nutzung 26 Teil I Das Dienstleistungsangebot des LRZ Systemknot
106. sich nicht we sentlich ge ndert 5 5 2 Domain Name System Die Konfiguration der DNS Systeme hat sich gegen ber 2006 nicht ge ndert Die autoritativen und Resolver Dienste sind ber anycast Konfigurationen redundant auf vier realen Maschinen installiert wie das folgende Bild verdeutlicht dns1 resolver2 TUM dns3 resolver1 LMU dns2 resolver2 resolver1 Abbildung 24 Vom LRZ betriebene Nameserver 116 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Eine bersicht aufgeteilt nach Domains f r das Jahr 2007 zeigt die folgende Tabelle Die reale Anzahl der Zonen und Eintr ge ist noch einiges h her kann aber nicht ermittelt werden da manche Instituts Server keine Auflistungs Abfragen beantworten Anzahl Anzahl Anzahl Anzahl Anzahl Anzahl Sub AAAA MX Domain Zonen domains A Records Records Aliase Records uni muenchen de 309 1 138 9 045 811 2 420 3 374 Imu de 81 564 2 623 49 1 073 2 511 tu muenchen de 283 933 17 295 75 2 266 7 636 tum de 216 1 169 5 584 79 1 814 1 591 fh muenchen de 50 154 2 312 242 556 fh weihenstephan de 3 19 108 a3 6 badw muenchen de 25 50 24 33 94 badw de 24 52 1 57 84 Irz muenchen de 98 340 20 594 1 127 561 71 Irz de 4 15 6 1 111 4 mhn de 51 271 60 349 1 234 283 mwn de 22 92 1 569 10 79 23 Sonstige 1 702 10 687 15 916 56 8 228 7 626 Gesamt 2 868 15 484 135 426 2 208 18 151 23 859
107. t in Garching sowie der Ludwig Maximilians Universit t zum Einsatz Damit wird die Nutzung dieser modernen Kommunikationsform an den dezentralen Standorten des Versorgungsbereichs des LRZ gef rdert und erleichtert Im H rsaal des LRZ ist dar ber hinaus ein noch leistungsf higeres System fest eingebaut ein Modell Tandberg 6000 MXP Dieses wird w hrend des Semesters regelm ig bei verteilten Vorlesungen genutzt die Prof Hegering abwechselnd in der Innenstadt und im LRZ in Garching h lt Die Studierenden k nnen dabei an dem f r ihren Terminplan jeweils g nstiger gelegenen Standort interaktiv teilnehmen Weitere Informationen zu Videokonferenzen am LRZ finden Sie unter www Irz de services peripherie vc 2 8 8 Virtual Reality Labor Bereits im Jahr 2000 wurde im LRZ ein Virtual Reality Labor mit einer gro formatigen Zweifl chen Stereoprojektionsanlage der so genannten Holobench aufgebaut und in Betrieb genommen Die Anlage wurde seinerzeit von einer Hochleistungs Grafikworkstation vom Typ SGI Onyx2 InfiniteReality2 anges teuert wird aber seit einigen Jahren mit einem Cluster von speziell ausger steten Grafik PCs betrieben Zur Aktualisierung der PC Ausstattung in 2007 siehe Abschnitt 5 6 1 Eine mobile 3D Projektionsanlage sowie ein Head Mounted Display erg nzen die Ausstattung Damit wird den vom LRZ versorgten Benutzern die M glichkeit gegeben immersive Projektionstechnologie in Forschung und Leh re einzusetzen und eine Grun
108. umgesetzt Zentrale Gruppenverwaltungen stehen leider noch nicht geeignet zur Verf gung Das Management der Organisational Units wird an zu benennende Verantwortliche bei den Institutionen delegiert Diese k nnen dann Computer aufnehmen lokale Gruppen Ressourcen Kontakte und Gruppen richtlinien pflegen auch neue Unterstrukturen in ihrem Teilast erzeugen Damit es nicht zu Namenskon flikten kommt wurde ein verbindliches Namenskonzept f r Computer Gruppen Ressourcen entwickelt F r die Sub Admins ist in Planung eine definierte Softwarezusammenstellung Adminpak f r admi nistrative Aufgaben zur Verf gung zu stellen Insbesondere f r nicht Windows Benutzer ist dazu ein Terminalservice geplant Mit diesem Active Directory k nnen alle Clients ab Windows 2000 und Mac OS 10 verwaltet werden Die Verwendung f r Linux Systeme ist noch in Evaluation Ein Konzept f r die Laufwerksbuchstaben regelt die Anbindung von Homeverzeichnisse lokalen Fakult tsressourcen oder Projektablagebereiche und Dateisystemen f r kurzlebige Daten Die neu aufgebauten Exchange Server wie auch die neuen Fileserver sind oder werden Mitglieder dieser Dom ne Auch die bisherigen Kunden von Desktop Management Services wie auch die LRZ eigenen PC Systeme werden in dieses Directory migriert so dass die bisherige LRZ Dom ne nicht mehr erforderlich ist 5 8 4 IntegraTUM Systemmanagement f r die eLearning Plattform Clix Im Rahmen der Neugestaltung der
109. und andere Einrichtungen aus Forschung und Lehre beigetreten Bezugsberechtigungen der Kliniken werden zu nehmend strittig Mindmanager Gemeinsam mit den Unis Bayreuth Erlangen und W rzburg wurde f r den M nchner Campus ein dreij hriger Mietvertrag abgeschlos sen der die Rundumversorgung Einrichtungen Mitarbeiter und 102 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Po Studenten auch zuhause zul sst NAG Library FORTRAN Unterprogrammsammlung Bayern weite Kauflizenz mit Wartungsvertrag bis 2009 Daneben wurde ein separater Vertrag f r die Anpassung der Bibliotheken auf den neuen H chstleistungs rechner abgeschlossen Novell Bayernweite Rahmenvereinbarung mit Novell ber den Bezug von Novell Produkten einschlie lich der SUSE Produkte SLES und SLED Lieferung erfolgt durch Download von einem Server der Uni Regensburg f r die Novell Produkte f r SLES und SLED von ei nem Server bei Novell selbst Updates und Patches von einem Server des RRZE Lizenz Verwaltung und Rechnungsstellung er folgt durch das LRZ Vertrag steht in 2008 zur Erneuerung an Origin Seit Fr hjahr 2004 3 j hrige Rahmenvereinbarung mit der Fa Addi tive die angesichts des geb ndelten Bedarfs zus tzlich zu den For schungs und Lehrepreisen 25 bzw 35 Nachlass einr umt Pro Engineer Der Lizenzvertrag mit der Parametric Technology Corporation PTC erm glicht die Miete von verschiedenen Produkten der Firma P
110. unter Windows laufen sehr hoch ber CIFS kann der Benut zer auf die Daten im Network Attached Storage zugreifen ohne dass zus tzliche Software installiert wer den m sste Dies tr gt sehr zur Popularit t von CIFS bei Somit k nnen die NAS Systeme die Bed rfnis se von Desktopumgebungen ebenso abgedeckt werden wie die hohen Leistungsanforderungen der Com putecluster W hrend AFS haupts chlich bei den Unix Nutzern des Rechenzentrums Verwendung findet wird unter dem Label Speicher f r die Wissenschaft grunds tzlich eine hochschulweite betriebsystemunabh ngi ge L sung auf NAS Basis angestrebt Im Rahmen des Projekts wird vom Rechenzentrum eine Datenspei cher Plattform bereitgestellt die alle Bereiche der Datenspeicherung abdeckt Datensicherungs und Archivierungsmechanismen bereitstellt und eng mit einem hochschulweiten Verzeichnisdienst gekoppelt ist Eine besondere Qualit t dieses Dienstangebots besteht darin dass alle beteiligten Komponenten hochverf gbar konfiguriert sind und nahezu beliebig skalieren Die Bereitstellung von NAS Onlinespeicher geh rt zum Dienstleistungsangebot des LRZ Das LRZ ber nimmt die Beschaffung und den Betrieb der notwendigen Infrastruktur f r die Grundversorgung der sat zungsgem en Nutzer Erreicht die Nutzung die vom LRZ bereitstellbare Grundversorgung so kann die betreffende Institution f r h here Anforderungen die dar ber hinaus gehenden Investitions und Betriebs kosten zu bern
111. von IVOM untersuchten Produkte reicht vom PKI basierten VOMS bis zum Shibboleth basierten myVocs Einen weiteren Schwerpunkt bildet die Er weiterung von UNICORE durch die Implementierung bislang fehlender Funktionalit ten IVOM arbeitet eng mit dem DFN zusammen um die angestrebte VO Management Infrastruktur der Verwendung von Nutzerattributen der DFN Shibboleth F deration f r Autorisierungszwecke auf D Grid Ressourcen zuzuf hren IVOM hat Ende 2006 begonnen und endet im M rz 2008 Die Partner des Pro jektes sind das Alfred Wegener Institut f r Polar und Meeresforschung in der Helmholtz Gemeinschaft der DFN Verein assoziiert das Forschungszentrum J lich assoziiert das Fraunhofer Institut SCAI das Regionale Rechenzentrum f r Niedersachsen RRZN die Universit t G ttingen assoziiert DAASI International GmbH und Sun Microsystems GmbH assoziiert DGI II Antrag Das D Grid Integrationsprojekt DGI I hat eine Kern Grid Infrastruktur geschaffen auf der die existie renden Community Projekte basieren und die als Grundlage f r die 11 neuen Communities sowie k nftig noch zu f rdernden Projekte dienen soll Ziel ist der Aufbau einer nachhaltigen Grid Basisinfrastruktur die den Anforderungen der Communities gerecht wird Nachdem das DGI I Projekt 2007 bzw 2008 en det wurde Mitte des Jahres 2007 ein Nachfolgeprojekt DGI II beantragt Das prim re Ziel dieses Antra ges ist die berf hrung der bisher entwickelten Technologien in e
112. wurde vom DFN der zugeh rige WiN Kernnetz Router installiert Hierf r ist eine eigene LWL Strecke zwischen dem IPP und dem LRZ Geb ude realisiert Die Backup Verbindung zum Internet wird ber eine LWL Strecke mit 1 000 Mbit s aus Kostengr nden mit Bandbreitenbeschr nkung auf 300 Mbit s 2008 mit 1 000 Mbit s zum n chsten Anschlusspunkt von M Net gef hrt Die LWL Strecke kostet einen monatlichen Grundbetrag das Datenvolumen wird nach Bedarf berechnet Im Jahr 2007 wurde die Backup Strecke von M net vor allem bei geplanten sehr kurzen Unterbrechungen z B Einspielen neuer SW auf X WiN Router ben tigt 7 2 6 Service Load Balancer SLB Die beiden Big IP Server Load Balancer von F5 Networks werden jetzt schon seit zwei Jahren produktiv mit gro em Erfolg im LRZ eingesetzt Gegen ber dem Jahr 2006 hat sich an der bew hrten Produktions umgebung nur wenig ver ndert Haupts chlich wurden einige Server z B WWW Zeitschriften Proxies die von den SLBs bedient werden modernisiert 7 2 7 Proxies und Zeitschriftenzugang Das Angebot der elektronischen Zeitschriften und Datenbanken wird weiterhin verst rkt genutzt Viele Studenten recherchieren auch von zu Hause da sie inzwischen ber einen DSL Anschluss mit Flatrate verf gen In 2007 wurden die veralteten Proxy Server der LMU bzw TU Bibliothek durch aktuelle Hardware ersetzt Die Server der LMU Bibliothek laufen unter Microsoft Windows die der TU Bibliothek unter Suse Linux En
113. zu erheben am Beispiel des H rsaals H E 009 und des gro en Seminarraums H E 008 die ber den LRZ eigenen Kursbetrieb hinausgehende Nutzung der Veranstaltungsr ume H rsaal Terminauswahl 14 02 07 21 03 bis 22 03 07 02 04 und 11 04 07 25 04 07 30 04 07 08 05 07 10 05 bis 11 05 07 31 05 bis 01 06 07 15 06 07 09 07 bis 11 07 07 16 07 bis 20 07 07 07 11 07 12 11 und 14 11 07 03 12 und 04 12 07 Storageconsortium Intel Round Table Stadtjugendamt M nchen Landeskriminalamt Microsoft Office Sharepoint Server Firmenveranstaltung Ian Foster am LRZ ANSYS Firmenverantstaltung ICM Workshop Vortragsreihe Mathematik TUM Erfolgsfaktoren im L sungsgesch ft Vortrag OVUA SP XXL Boot Camp Virtuelle Firewalls Basics f r Netzverantwortliche HLRB Review Workshop Gro er Seminarraum Terminauswahl 17 01 07 31 01 07 09 02 07 14 02 07 15 02 07 27 02 07 06 03 und 07 03 07 13 03 07 21 03 und 22 03 07 20 04 07 30 05 07 15 06 07 09 07 bis 11 07 07 16 07 bis 20 07 07 10 08 07 18 10 07 06 11 07 07 11 07 Veranstaltung von Intel Novell und SGI f r europ ische Journalisten asknet Firmenveranstaltung zu Microsoft VHB AAI Workshop Storageconsortium DEISA Application Meeting European Grid Initiative DGI Kern D Grid Meeting BSK Arbeitssitzung der Bayerischen Software Koordinatoren Intel Round Table DFN Innovationsworkshop TU Wirtschaftsinformatik Erfolgsfaktoren im L sungsg
114. zwischen den Rechnern benutzen Nameserver DNS Aufl sung von Internet Domain Namen zu Internet IP Adressen Mehrere Server sind z T redun dant z T unabh ngig voneinander im MWN verteilt Mail Message Store Server auf denen die Mailboxen von LRZ Benutzern liegen und auf die mittels der Protokolle POP oder IMAP zugegriffen werden kann Das LRZ betreibt derzeit f nf Message Store Server einen f r AFS Benutzer einen f r das myTUM Portal der TU M nchen einen f r die Fakult t Physik der TU M nchen einen f r Studenten der LMU M nchen Campus und einen f r Studenten anderer Hochschulen Die ersten drei der genannten Server sind dabei redundant ausgelegt Mailrelay Zentraler Umschlagplatz f r alle E Mails die aus dem Internet eintreffen und f r Mail Server Mes sage Stores im Bereich des MWN bestimmt sind bzw die aus dem MWN ins Internet verschickt werden Dieser Dienst st tzt sich auf ein LDAP Directory das alle Daten enth lt die f r eine kor rekte Auslieferung von E Mails notwendig sind Am Mailrelay werden au erdem alle aus dem Inter net eingehenden E Mails auf Viren untersucht bzw daraufhin bewertet ob es sich um Spam Mails handelt Insgesamt werden f r diesen Dienst zw lf Rechner eingesetzt Groupware Server Exchange Im Rahmen des IntegraTUM Projekts mit der TU M nchen pilotiert das LRZ das Groupware Produkt Microsoft Exchange und betreibt dazu eine aus sechs Servern bestehende Exchange
115. 0 lange Dokumente wiss Arbeiten 3 2 6 40 40 MS Excel Kompaktkurs 2 2 4 72 48 PowerPoint 2003 Kompaktkurs 3 2 6 40 35 Photoshop Einsteigerkurs 3 1 3 20 20 SPSS Spezialkurs 2 4 8 104 100 Insgesamt 21 346 301 Tabelle 2 Kurse zu PCs und PC Software Unix Kurse und Praktika 2007 Dauer Anzahl Stunden Teilnehmer Teilnehmer Kurstitel Stunden Kurse insgesamt angemeldet teilgenommen Einf hrung in die Systemverwaltung unter Unix Spezialkurs 65 1 65 21 21 Einf hrung in die System und Internet Sicherheit 4 1 20 60 55 Insgesamt 2 81 76 Tabelle 3 Kurse zum Themenbereich Unix 94 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Internet 2007 Dauer Anzahl Stunden Teilnehmer Teilnehmer Kurstitel Stunden Kurse insgesamt angemeldet teilgenommen Einf hrung in das Wissenschaftsnetz 2 1 2 30 25 Erstellen einer Web Seite 4 5 1 4 5 60 32 Insgesamt 2 90 57 Tabelle 4 Kurse zum Thema Internet Hochleistungsrechnen Anzahl Stunden Teilnehmer Teilnehmer Kurstitel Kurse insgesamt angemeldet teilgenommen Programmierung von Hochleistungsrechnern Iterative Linear Solvers and Parallelization Object Oriented Programming with FORTRAN 95 2003 Introduction to the Usage of the HLRB II SGI Altix Insgesamt Weitere Veranstaltungen Stunden Teilnehmer Teilnehmer Bezeichnung insgesamt angeme
116. 07 des Leibniz Rechenzentrums Teil I 57 Verbindungen geh ren An der Grenze zwischen solchen Bereichen werden dazu Paketfilter instal liert die dies sicherstellen und auf diese Weise eine Brandmauer Firewall bilden NAT o MAT Der NAT o MAT ist ein Cluster von hochverf gbaren NAT Gateways der Rechnern mit privaten IP Adressen im MWN die Nutzung von Internet Diensten erm glicht Dar ber hinaus wird der Ver kehr auf Netzmissbrauch untersucht und auffalligen Rechnern bei Bedarf automatisch die Bandbreite gedrosselt oder der Internetzugang gesperrt Die Drosselung oder Sperre wird automatisch aufgeho ben falls der Rechner innerhalb eines definierten Zeitfensters wieder normales Verhalten zeigt DHCP Server Dynamische Vergabe von IP Netzadressen einerseits f r Rechner die nur zeitweise eingeschaltet sind andererseits um die Konfiguration der Rechner zu vereinfachen es brauchen keine individuel len IP Adressen auf den einzelnen Rechner konfiguriert zu werden NIS Master Server Verteilung von Konfigurationsdaten insbesondere Benutzerkennungen zwischen Unix Systemen jedoch am LRZ ohne Passwort denn das geh rt zu AFS Internet Dienste Die folgenden Dienste werden vom Benutzer bei Benutzung des Internet wahrgenommen Auf keinem der diese Dienste bietenden Rechner haben Benutzer eigene Ausf hrungsrechte Man beachte dass auch die meisten der Dienste in den anderen Rubriken Internet Protokolle f r die Kommunikation
117. 2 1 Clusterwartung August 2007 Im Berichtsjahr wurde genau eine Clusterwartung ausgef hrt sie dauerte von 20 22 August Die gr te Konfigurations nderung betraf hierbei die Altix Systeme Die schon bisher in Benutzerbetrieb befindliche 128 Core Altix 3700 wurde von einer nicht mehr gewarteten Red Hat Betriebsumgebung auf SLES10 angehoben au erdem wurde eine bis dahin als HLRB II Testmaschine eingesetzte 256 Core Montecito Maschine in das Linux Cluster integriert CPUset Unterst tzung f r SLES10 die zur gegenseitigen Ab schottung unterschiedlicher Jobs voneinander dient wurde vom LRZ in das Warteschlangen System SGE eingebaut Die Anhebung der 64 Bit Systeme von SLES9 auf SLES10 war mit einem partiellen Upgrade des paralle len Dateisystems Lustre von 1 4 auf 1 6 verbunden Die Lustre Server blieben hierbei auf dem Versions stand 1 4 der auch Clients der Version 1 6 zu betreiben gestattet Mittels der Test Suite f r das Applikations Portfolio wurde der neue Software Stand auf vorab installier ten Testsystemen berpr ft um die Nachwirkungen der Wartung zu minimieren ltere Versionen einiger Software Pakete wurden au er Betrieb genommen da SLES10 ltere Linux Threading Bibliotheken nicht mehr unterst tzt F r einige Software Pakete wurden die ausf hrbaren Programme neu erstellt Die 32 Bit Systeme wurden da die Software wegen der anstehenden Neubeschaffung im 64 Bit Bereich eingefroren wurde auf dem Betriebssystem Stand SLES9 b
118. 2 1x8GB Attended Cluster Housing Knoten des Lehrstuhls f r Opteron 2400 MHz 8x4 GB Bauinformatik der TU M nchen 8 SGI Altix XE 240 4 16 GB Attended Cluster Housing Knoten des M nchner Astro Xeon 2333 MHz GRID Projektes 34 MEGWARE Xeon 4 8GB Attended Cluster Housing Knoten der Bayerischen X3230 2667 MHz Staatsbibliothek 37 SUN 4 8 GB Komponente des Linux Clusters Opteron 2600 MHz LCG Tier 2 Rechen Knoten 22 MEGWARE Xeon 4 8 GB Komponente des Linux Clusters X3230 2667 MHz LCG Tier 2 Rechen Knoten 5 MEGWARE Xeon 4 4GB Komponente des Linux Clusters 5060 3200 MHz LCG Tier 2 dCache Knoten 3 MEGWARE Xeon 4 4 GB Komponente des Linux Clusters 5148 2333 MHz LCG Tier 2 dCache Knoten 0 FMS 2 2 GB Komponente des Linux Clusters Opteron 2200 MHz LCG Tier 2 dCache Knoten TL ZAT Sop anyyNAse yyy 9L Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller ER en Daten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur en in Aufgabe Anzahl und speicher 3 Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente 98 MEGWARE 1 2 GB Komponente des Linux Clusters Pentium4 3060 MHz Serielle 32 Bit Cluster Knoten 1 IBM 2 5GB Komponente des Linux Clusters Opteron 2000 MHz Serieller x86_64 Cluster Knoten 4 MEGWARE Xeon 2 2 GB
119. 2000 zur ckgehen wurde in den letzten Jahren stark ausgebaut und aus Gr nden der h heren Verf gbarkeit in mehrere sogenannte Fabrics aufgeteilt Es werden nun getrennte Fabrics f r das Hochleistungsarchiv das LTO Archiv und Backup systen das verteilte Filesystem und das SAN Filesystem des Bundesh chstleistungsrechner betrieben An die SAN Fabrics sind Storageserver mit einer Kapazit t von 200 Terabyte ohne HLRB II alle 56 Band laufwerke der Libraries und alle Serversysteme mit hohem Datenverkehr insbesondere die File und Ba ckupserver angeschlossen Die neue SAN Infrastruktur ohne HLRB II besteht aus drei getrennten Netzen siehe Abbildung 66 Redundantes SAN f r das Hochleistungsarchiv Basis sind zwei FC Direktoren mit insgesamt 128 Ports die zusammen mit dem Hochleistungsarchiv beschafft wurden Die Direktoren werden als zwei getrennte Fabrics betrieben um ein H chstma an Ausfallsicherheit redundant fabric zu gew hrleisten Resilientes SAN f r das LTO Archiv und Backupsystem Die Verkabelung der 4 FC Switches 4x32 Port des LABS bildet eine Mesh Struktur Redundantes SAN f r AFS Zwei 16 Port FC Switches sorgen f r die redundante Storageanbindung der AFS Fileserver Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 185 NAS SAN Topologie 2007 HRR Etage HRLBII 128 Port 128 Port NSR Etage AFS 16 Port DAR Etage HABS NAS Mirror SFS Uoeseesee
120. 2007 Berlin Apostolescu e Landesamt f Finanzen Integrierte Haushalts und Kassenverfahren 14 11 2007 14 11 2007 Regensburg Keimerl e Uni RZ G4 Treffen 20 11 2007 20 11 2007 Regensburg Oechsle e BRZL Redaktionssitzung BRZL Papier 29 11 2007 29 11 2007 Erlangen Apostolescu e DFN Mitgliederversammlung 04 12 2007 05 12 2007 Bonn Apostolescu 8 6 ffentlichkeitsarbeit F hrungen Besucher am LRZ Tag der offenen T r Auch 2007 war das Leibniz Rechenzentrum in den regionalen und berregionalen Medien mit positiven Berichten pr sent wenn auch nicht im gleichen Ausma wie im Zusammenhang mit der Einweihung des Neubaus im Jahre 2006 Es fanden zum Teil sehr ausf hrliche Gespr che von Mitgliedern des Direktoriums mit Redakteuren der S ddeutschen Zeitung und der Financial Times Deutschland statt die sich in mehreren Berichten nieder schlugen Auch die Computerwoche das Linux Magazin und sehr viele Online Dienste berichteten ber das Leibniz Rechenzentrum Ein besonderes Medienereignis war die Ver ffentlichung der Top500 Liste in Dresden am 27 Juni 2007 auf der die SGI Altix 4700 des LRZ Platz Zehn belegte also unter die Top Ten weltweit kam Gemeinsam mit den Firmen Intel SGI und Novell stellte das LRZ am 17 Januar 2007 meinungsf hren den Journalisten verschiedener europ ischer Zeitungen und Online Dienste aus dem Bereich des H chstleistungsrechnens das LRZ und den H chstleistungsrechner vor Das Leibni
121. 2007 erfolgte die Stellenausschreibung Das Ergebnis l sst sich wie folgt zusammenfassen Prof Dr Arndt Bode Lehrstuhlinhaber und Vizepr sident an der TUM seit Jahren Mitglied im LRZ Direktorium bernimmt ab WS 2008 09 den Vorsitz im Direktorium des LRZ Prof Dr Dieter Kranzlm ller Profes sor an der Universit t Linz erhielt den Ruf auf die Nachfolge f r meinen Lehrstuhl an der LMU Mit Rufannahme wird Herr Kranzlm ller Mitglied in der Kommission f r Informatik und Mitglied des Direk toriums wo er auch die Leitung eines operativen Teilbereichs des LRZ bernimmt Auch ich werde ne ben Prof Zenger noch weiterhin Mitglied des Direktoriums bleiben Ich bin berzeugt davon dass mit der Wahl der Herren Bode und Kranzlm ller die Frage meiner Nachfolge sowohl f r die LMU als auch f r das LRZ bestens gel st ist Der vorgelegte Jahresbericht geht wieder bewusst ber das Zahlenwerk blicher Jahresberichte hinaus Wir versuchen wie in den letzten Jahren viele unserer Dienste und Gesch ftsprozesse zu erkl ren und unsere Konventionen und Handlungsweisen zu begr nden Dies soll die Komplexit t unserer Aufgaben stellung und das LRZ als Institution transparenter machen Der Teil II ist deswegen sehr ausf hrlich ge halten Ich unterst tze dies bewusst Wie und wo sonst kann man einer interessierten ffentlichkeit aber auch unseren Kunden und Kollegen die Komplexit t eines gro en technisch wissenschaftlichen Rechen zentrums verdeutl
122. 22 Juni 2007 142 Teil IL Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Anzahl SMP Knoten 1 GFlop s 1 Giga Floatingpoint Operations pro Sekunde 1 000 000 000 Gleitkomma Rechenoperationen pro Sekunde Kr 1 TFlop s 1 Tera Floatingpoint Operations pro Sekunde 1 000 000 000 000 Gleitkomma Rechenoperationen pro Sekunde Tabelle 14 Kennzahlen des Systems 6 1 1 2 Inbetriebnahme und Betriebliche Aspekte Im ersten Halbjahr forderten die Aktivit ten zur Installation von Ausbaustufe 2 des neuen H chstleis tungsrechners SGI Altix 4700 mit 9728 Intel Montecito Prozessorkernen viel Aufwand und Arbeit Die Hochr stung des Systems auf Phase 2 begann Ende Februar mit der Anlieferung von zus tzlichen 320 TByte Hintergrundspeicher Anfang M rz startete der Austausch der Komponenten Prozessor Blades Prozessoren sowie die Verdoppelung des Hauptspeichers und endete Mitte April Nach Systemtests der Hardware und Software hat SGI Ende April die Betriebsbereitschaft erkl rt woran sich die Abnahmetests des Systems anschlossen Die Endabnahme des Gesamtsystems erfolgte am 22 Juni 2007 Mit der Installation und Inbetriebnahme von Phase 2 musste auch die Konfiguration des Stapelverarbei tungssystems PBSPro den neuen Gegebenheiten angepasst werden Die Inbetriebnahme von Phase 2 war durch eine erfreuliche Stabilisierung des Betriebs gepr gt siehe Abbildung 33 welche sich vor allem auf deutlich verbesserte Systemsoftw
123. 242 246 Tabelle 12 F lle die dem LRZ gemeldet wurden oder organisatorische Vorg nge Ca 16 der bearbeiteten F lle gehen auf Beschwerden Hinweise Anfragen usw zur ck die dem LRZ von au erhalb geschickt wurden oder auf organisatorische Vorg nge siehe Tabelle 12 Bei diesen F l len sind folgende Punkte besonders erw hnenswert e In allen F llen der unberechtigten Spam Beschwerden handelte es sich um Non Delivery Reports NDR diese werden fast immer durch einen Wurm oder Spammer verursacht der die eigene Mail Adresse missbraucht Wenn ein Mail System z B die Mail Server des LRZ eine einmal angenommene E Mail nicht zu stellen kann ist es laut Norm verpflichtet den vermeintlichen Absender in einem NDR dar ber zu informieren Dies gilt selbst dann wenn die urspr ngliche E Mail sehr wahrscheinlich von einem Wurm oder Spammer stammte In diesem Fall ist der Empf nger des NDR ein indirektes Opfer Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 137 Manche Empf nger f hlen sich durch diese nicht selbst ausgel sten NDRs derart bel stigt dass sie sich beim Betreiber des korrekt arbeitenden Mail Systems beschweren Bei den Monitoring Funktionen siehe unten gibt es zwangsl ufig jeweils eine Ausnahmeliste mit Rechnern bei denen das auff llige Verhalten legitim ist Die Aktualisierung dieser Listen betraf ber wiegend das Mail Monitoring weil es relativ viele legitime Ursachen f r ein erh
124. 32 Bit Knoten des Linux Clusters durch 232 Quad Core Systeme sowie 38 8 fach SMP Systeme mit AMD Opteron Prozessoren zu ersetzen Technische Daten e 137 32 Bit Intel Prozessoren e 112 EM64T Opteron Prozessoren e Spitzenleistung des Gesamtsystems 1 4 Teraflop s e ca 51 Terabyte gemeinsamer Plattenplatz FC RAID Disk Subsysteme und Lustre als parallelem Dateisystem Bandbreite ca 2 0 Gigabyte s Charakteristik und Anwendungsgebiete e Durchsatzmaschine f r serielle Anwendungen e Verf gbarkeit vieler kommerziellerer Pakete aus Strukturmechanik Fluiddynamik und Computa tional Chemistry Versorgungsbereich e M nchner Hochschulen Konfiguration Linux Cluster X WiN MWN GE Switches Fer seriell parallel 112x seriell 17x41A64 EM64T 137 x 1A32 C Opteron Altix 3700Bx2 1x 128 IA 64 Altix 4700 1x 256 IA 64 parallel seriell GE 67 x 2 IA 64 7 Myrinet Switches 10 Gigabit oder 1 Gigabit Ethernet I O Server Lustre Gemeinsames HOME Filesystem NAS NFS Gemeinsames BatchSystem Sun Grid Engine Abbildung 8 Konfiguration des Linux Clusters 2 3 1 4 Speichersysteme im Linux Cluster Den Benutzern des Linux Clusters stehen zwei unterschiedliche Speichersysteme zur Verf gung ein ber NFS angebundener NAS Filer stellt 6 Terabyte Speicherplatz f r Home und Projektverzeichnisse sowie das Software Repository zur Verf gung Durch sog Snapsh
125. 369 280 32 312 239 57 41 BZ VW gt Institutskennungen 208 163 28 158 142 50 21 BZ VW gt Softwarebezug Lizenzen 324 195 66 288 164 36 31 BZ VW gt Sonstiges 267 201 33 252 180 15 21 Auff llig viele Anfragen gibt es zu den Kennungen Wie bekomme ich eine Kennung Welche Berechtigungen habe ich Ich habe mein Passwort vergessen Bemerkenswert ist der hohe Anteil bei den Studenten wo doch LMU und TUM die Vergabe selber regeln und auch eigene Ansprech stellen haben Bei Institutsangeh rigen muss oft der f r die Vergabe zust ndige Master User aus dem jeweiligen Institut gefunden werden Bei Softwarebezug Lizenzen spiegelt sich wider dass durch Lizenzvereinbarungen des LRZ mit Firmen eine reichhaltige Palette von Software mehr oder minder g nstig zur Verf gung gestellt wird Die an den Web Servern des LRZ vorhandene Dokumentation wurde st ndig erweitert Der hohe Be ratungsbedarf liegt aber auch darin begr ndet dass die einzelnen Lizenzbedingungen unterschiedli che Modalit ten und Nutzerkreise festlegen und dazu noch oft auch bei den Preisen ge ndert wer den H ufig ist eine R ckfrage beim betreffenden Spezialisten notwendig Unter Sonstiges finden sich auch viele Firmenkontakte z B Einladungen zu Veranstaltungen die mit dem eigentlichen Benutzerbetrieb nichts zu tun haben e Problembereich Sicherheit auch Viren W rmer Troj Pferde Die hier erfassten 340 Vorj
126. 5 auff llig oder gesperrt sind Pro Tag nimmt der NAT o MAT ca 3 500 ein zelne Sperrungen vor die zu einem sp teren Zeitpunkt auch wieder automatisch entsperrt werden Bei weniger als f nf F llen ist eine Benachrichtigung oder Reaktion des Administrators erforderlich Proble me oder Beschwerden ber False Positives d h zu Unrecht gesperrte Rechner treten u erst selten auf 222 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Incoming Bandwidth 36h Outgoing Bandwidth 36h 200 M 120 M 100 M 80 M 60 M 40 M 20 M 0 o 00 00 06 00 12 00 18 00 00 00 06 00 00 00 06 00 12 00 18 00 00 00 06 00 Other P2P E BitTorrent E No P2P W Total Bits per second E Other P2P M BitTorrent E No P2P E Total Bits per second Bandwidth Avg 64 49Mbit s Cur 96 62Mbit s Max 191 21Mbit s Bandwidth Avg 31 03Mbit s Cur 31 05Mbit s Max 102 70Mbit s P2P Bandwidth Avg 2 38Mbit s Cur 2 51Mbit s Max 2 95Mbit s P2P Bandwidth Avg 2 57Mbit s Cur 2 87Mbit s Max 2 96Mbit s P2P Bandwidth Avg 5 22 Cur 2 60 P2P Bandwidth Avg 10 22 Cur 9 23 Abbildung 86 Aus und eingehender Datenverkehr am NAT O MAT innerhalb von 36 Stunden Das System wurde seit der Einf hrung sehr positiv aufgenommen nicht zuletzt deshalb weil auch aus Nutzersicht der Konfigurationsaufwand f r Proxies und Gateways wegf llt Viele Benutzer erfahren auch erst bei einer Sperrung und der damit zusammenh ngenden Information durch den NAT o MAT
127. 6446 129 187 20 LRZ Linux Cluster la2s2 369 1192 0 3111 103106 001s6 358 8086 0 6773 129 187 180 LMU Physik umso 351 8330 0 2965 322 9344 0 4876 28 8985 0 0545 141 84 147 LMU Bibliothek luw 2 334 1969 0 2817 372392 0 0562 296 9577 0 5605 Abbildung 87 Aktivste Subnetze am X WiN Zugang November 2007 7 4 4 Monitoring am X WiN Zugang Am X WiN Zugang wird sowohl der ausgehende als auch der eingehende Verkehr des M nchner Wis senschaftsnetzes MWN analysiert Dabei liegt der Schwerpunkt auf dem ausgehenden Verkehr da die Bearbeitung der Beschwerden ber Angriffe aus dem MWN hohen personellen Aufwand verursacht Zur Analyse des Netzverkehrs werden zwei Verfahren herangezogen Vergleich mit Angriffssignaturen und statistische Verfahren 7 4 4 1 Ausgehender Verkehr e Vergleich mit Angriffssignaturen o Automatische Sperrung von auff lligen FTP Servern Die automatische Sperrung von FTP Servern auf Nicht Standard Ports hat sich auch 2007 bew hrt Die Anzahl der False Positves ist im Vergleich zur Anzahl richtig erkannter kompromittierter Rechner ver nachl ssigbar Allerdings zeigen die immer h heren Datenraten im Netzverkehr die Grenzen des derzeiti gen Monitoring Systems auf Die Wahrscheinlichkeit eines nicht detektierten FTP Servers auf einem Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 225 Nicht Standard Port steigt mit dem Anwachsen der Datenrate im Netz Mit einer derz
128. 91 3 48 3 04 Sa So Mo Di Mi Do Fr Sa So Mo Di Mi Do Fr Sa So Mo Di Mi Do Fr Sa So Mo Di Mi Do Fr Sa So Mo Tag 1 3 45 8 7 8 9 10 1122 3 1415 16 17 18 1929 21 22 23 24 25 26 27228229 30 31 empfangen regul r El gesendet regul r lt lt neues Fenstern Fenster schlie en gt gt neues Fenster Abbildung 90 Monatsstatistik des Leibniz Rechenzentrums Da die zur Visualisierung der Topologie und des aktuellen Zustandes des X WiN ben tigten Daten nicht zur Verf gung standen wurde im 2 Vorg ngerprojekt prototypisch ein CNM f r das M nchner Wissen schaftsnetz realisiert um die Weiterentwicklung des CNM Servers erproben zu k nnen Aus dieser An wendung wurde die CNM Anwendung Topologie f r das X WiN entwickelt Die CNM Anwendung f r das MWN visualisiert die Topologie des MWN mit Hilfe von hierarchisch organisierten Netzkarten Aus gehend vom MWN Backbone k nnen die Benutzer durch diese Karten navigieren und sich in die ent 230 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes sprechenden Standorte hineinzoomen Standorte werden dabei durch gro e Kreise dargestellt Zu jedem Standortnamen wird zus tzlich in Klammern der an diesem Standort stehende Router angegeben Viere cke symbolisieren aktive Komponenten d h die im MWN existierenden Router und zentralen Switches Die Topologiedarstellung innerhalb der CNM Anwendung beschr nkt sich auf das Kernnetz des MWN D h zu jedem Ro
129. 96 mpi_pe 1299 0 59 342793 33 8 74 mpi quick 655 0 30 1103 92 0 03 numa STOLL 23 12 1508775 24 38 47 serial 91640 41 54 1433229 13 36 55 shm 2426 1 10 131324 29 3 35 unknown 166 0 08 31 34 0 00 Summe 220627 100 00 3921736 51 100 00 Bemerkungen Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 155 e Die Systemzeit SBU ist am Linux IA64 Cluster die abgerechnete CPU Zeit bei Jobs in Pa rallelpools die Belegzeit multipliziert mit der Anzahl der belegten Cores bei sonstigen Jobs die vom Batchsystem SGE gelieferte Summe der CPU Zeit tiber deren Prozesse e Jobklassen Icg Large Hadron Collider Grid mpi MPI parallele Programme tiber Myrinet 4 Wege Itanium mpi_pe MPI parallele Programme via Parastation 2 Wege Itanium numa parallel Programme an der Altix MPI oder OpenMP mit mehr als 8 Prozessoren mpi_quick MPI parallele Programme via Parastation oder Myrinet bis 6 Prozessoren serial serielle Jobs shm Shared Memory parallel hierin sind auch Programme enthalten die innerhalb des Knoten via mpishm kommunizieren Jobanzahl SBU H Technische Universit t M nchen athematik 198 0 1 1183 47 0 0 Physik 7669 35 362625 16 9 2 Chemie 14401 63 5 702276 46 17 9 Bauingenieur und 2064 0 9 57433 79 1 5 Vermessungswesen aschinenwesen 1834 0 8 237910 50 6 1 Elektrotechnik und 749 0 3 12562 91 0 3 Informationstechnik Wissenschaftszentrum 466 0 2 429611 79 11 0 Weihenstephan Zentralinstitute Verwaltung 1
130. ARE WAR 22 11 06 Anforderung Baur Troebs 129 187 LRZ Netzdokumentation x 129 187 Subnetz CIDR Bereich 129 187 10 0 24 1 254 m Unterbezirk WR LRZ Rechnerw rfel 129 187 Institut A282 LRZ Abteilung Hochleistungsysteme HLS LRZ Abtei Adressvergabe ARS statisch 129 1874 pdressumsetzung 129 187 4Sicherheit Sperren ja 129 187 yerwendung 129 187 4Bemerkung LRZ Servernetz sged Cron Robot Netzverantwortliche IP Admin ipadmin Irz muenchen de 129 187 5452 TTTVIZUVUOTTUDUITTIT TUI am TI Abbildung 81 Tooltip zur IP Adresse eines gesperrten Rechners Inhaltliche Aktualisierung der Netzdokumentation Neben der Verbesserung der WWW Schnittstelle zur Netzdokumentation ist auch eine st ndige berar beitung und Aktualisierung des Inhalts notwendig Zu diesem Zweck wurde 2007 wieder eine Benachrichtigung und berpr fung der Netzverantwortlichen durchgef hrt Jeder Netzverantwortliche insgesamt 723 erhielt per E Mail die Liste der Subnetze und Subnetzbereiche f r die er zust ndig ist mit der Bitte diese entweder zu best tigen oder eventuelle Feh ler zu korrigieren An die 193 Netzverantwortlichen die auch nach einem Monat noch nicht geantwortet hatten wurde per Skript automatisiert eine E Mail zur Erinnerung geschickt Mehr als zwei Drittel der Netzverantwortlichen haben 2007 die zugesandten Daten ohne Korrektur best tigt Nur bei ca einem Drittel der Netzverantwortlichen waren Korrekturen notwendig Das ist eine deut
131. Au erdem konnte im Dezember zwei NAS Systeme und ein Replikationssystem f r den Speicher der Wissenschaft beschafft werden vergleiche Kapitel 6 4 3 3 Folgende Tabelle zeigt die aktuelle NAS Speicherlandschaft Jahresbericht 2007 des Leibniz Rechenzentrums Teil II Modell Anwendung Kapazitat 2x NetApp FAS 3050 E Mail LRZ interne Server Arbeitsplatz 29 TB Filedienste Speicherhosting LMU WWW 1 x NetApp FAS 3050 Linux compute cluster 9 TB 2 x NetApp FAS 3050 Speicher ftir LZA Projekte der BSB 25 TB 1 x NetApp FAS 270c Staging Testsystem 0 4 TB 1 x NetApp R200 Replikation asynchrones Spiegeln 36 TB 2 x NetApp FAS 6070 Speicher f r die Wissenschaft SFW 68 TB 1 x NetApp FAS 6070 Replikation f r den SFW 95 TB 8 x NetApp FAS 3050 Projektspeicherplatz HLRB II 97 TB Replikation Projektspeicherplatz HLRB II 21 TB 187 Wie bereits fiir die bestehenden Systeme wurde die Verfiigbarkeit des Speichers fiir die Wissenschaft ebenfalls durch kontinuierliche Datenreplikation auf ein zweites System in einem anderen Brandabschnitt deutlich verbessert Auf diese Art und Weise kann jetzt bei Problemen mit den Primarsystemen direkt auf eine Kopie umgeschaltet werden ohne eine Sicherung von Band einspielen zu m ssen Zur zus tzlichen Absicherung wird weiterhin auch eine Bandkopie ber NDMP erstellt Produktions Systeme HA Cluster Direkter Zugriff auf Kopie kann Y Sicherungssyste
132. Backup und Archivierungssystems damit einver standen dass personenbezogene Daten in unserer Datenbank gesammelt und gespeichert werden Perso nenbezogene Daten werden nur insofern gespeichert als sie f r die Kontaktaufnahme mit den Ansprech partnern gebraucht werden und nicht f r andere Zwecke verwendet oder an Dritte weitergegeben Ver bindungsinformationen werden in den Logdateien der Systeme f r Abrechnungszwecke und f r die Feh lerverfolgung aufbewahrt Dies umfasst unter anderem das Zugriffsdatum die Anzahl und Umfang der bertragenen Daten und die IP Adresse des zugreifenden Rechners Eine Weiterverarbeitung und Aus wertung dieser Daten erfolgt nur in anonymisierter Form zum Beispiel f r statistische Zwecke zur Feh lerbehebung oder zur Ermittlung von Einbruchsversuchen Das LRZ trifft angemessene Vorsichtsma nahmen dass die Sicherheit und Unversehrtheit der Daten gewahrt wird Weiterhin sorgt das LRZ mit den ihm zur Verf gung stehenden Mitteln daf r dass kein unberechtigter Zugriff von au en auf die im ABS gespeicherten Daten m glich ist Die Daten werden nicht an Dritte weitergegeben F r die Inhalte der gespeicherten Daten ist alleinig der Kunde verantwortlich Der Kunde verpflichtet sich sensible Daten z B personenbezogene Daten nicht unverschl sselt zu speichern bzw zu archivie ren Das LRZ sorgt im Rahmen seiner M glichkeiten f r die Lesbarkeit der Datentr ger F r die Sicherstel lung der Interpretierba
133. Bayern erm glichen Die Architektur muss flexibel genug sein um mit den sich im Laufe der Zeit ver ndernden Anforde rungen und neuen Aufgaben zurecht zu kommen bzw an diese angepasst werden zu k nnen ohne wieder von vorne beginnen zu m ssen Hierzu geh rt insbesondere die Definition entsprechender Change Management Prozesse Die vorhandenen Provisioning Prozesse sollen identifiziert und analysiert werden Ihre Umsetzung und Unterst tzung ist durch geeignete Workflow und Triggermechanismen zu gew hrleisten Dabei wurden bei der Konzeption und Implementierung folgende Rahmenbedingungen besonders stark ber cksichtigt und gelten zum Teil auch weiterhin f r das Change Management Die Aufgaben und Daten der bisherigen ZBVW m ssen vollst ndig bernommen werden k nnen Die Daten und Funktionen der neuen ZBVW sollen auch denjenigen LRZ Diensten zur Verf gung stehen die bislang noch nicht an die ZBVW angeschlossen werden konnten Die Migration von der bisherigen zur neuen ZBVW soll sukzessive erfolgen k nnen d h f r die bereits an die bisherige ZBVW angeschlossenen Plattformen m glichst transparent sein Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 107 e Unkontrollierte Redundanz muss wegen der Gefahr von Inkonsistenzen vermieden werden Dort wo Redundanz notwendig oder sinnvoll ist sind geeignete Mechanismen zur Datensynchronisation ein zusetzen 5 4 2 2 Vorgehensweise Details zum Projektverlauf k nnen den
134. Betreibers Fa Stangl als gro er Vorteil f r die Betriebsstabilit t heraus Die Beseitigung von M ngeln und Abwicklung der Restarbeiten konnte bedeutend vorangebracht werden Trotzdem befinden sich noch mehrere W nsche nach Abrundung und Erg nzung auf dem Genehmi gungsweg Dar ber hinaus haben die zunehmenden W nsche unserer Nutzer nach Betrieb ihrer Server und Cluster Stichwort Housing und Hosting im LRZ bereits konkrete Ausbauplanungen angesto en obwohl die Betriebskapazit t insbesondere des Netz und Serverraums noch in der Bauzeit mit 400 KW fast verdop pelt worden war st t dieser Ausbau in absehbarer Zeit an seine Grenze und muss wiederum hinsichtlich Elektro und K hlkapazit t verdoppelt werden Als K hlmedium muss dann Wasser zum Einsatz kom men da weitere Luftk hlung gemessen am Raumvolumen und Stellplatz f r K hlger te nicht weiter in Frage kommt In einer anderen Gr enordnung tauchen Fragen nach der Erweiterbarkeit des Neubaus auf wenn deutsche Pl ne bez glich Supercomputing im europ ischen Rahmen des Gauss Centre for Supercompu ting GCS das LRZ als Standort eines solchen dann Petaflops Rechners vorsehen Entsprechende erste Aktivit ten Gespr che mit dem Ministerium erste Bedarfs und Kostenabsch tzungen wurden bereits eingeleitet Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 241 8 3 Dienstleistungskatalog In den letzten Jahren haben oftmals andere Hochschulen und wissensc
135. Concept for CDTM IT as a Case Study of Man aging Small IT Infrastructures in Dynamic Environments Diplomarbeit Ludwig Maximilians Universit t M nchen November 2007 e Koycheva G Evaluierung von BPEL Implementierungen f r IT Service Management Prozesse Fortgeschrittenenpraktikum Ludwig Maximilians Universit t M nchen Februar 2007 e Koycheva G Evaluation Ontologie basierter Ans tze f r die Realisierung einer CMDB Lud wig Maximilians Universit t M nchen September 2007 e Krieser M Dienstevirtualisierung mit Hilfe von VMware am Beispiel der Astrium GmbH Dip lomarbeit Ludwig Maximilians Universit t M nchen September 2007 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 249 Mendez Fernandez D UML basierte Anforderungsanalyse zur Bewertung von CMDB L sungen am Beispiel der EADS Deutschland GmbH Diplomarbeit Ludwig Maximilians Universit t M nchen Juni 2007 Richter C Formalisierung und Anfragemechanismen fiir IT Service Manegement Prozesse nach ISO IEC 20000 und ITIL Ludwig Maximilians Universit t M nchen Diplomarbeit Dezember 2007 Scherer A Entwicklung einer Methodik zur Informations und Datenmodellierung in IT Service Management Prozessen am Beispiel der ITIL Prozesse Service Level Management und Configu ration Management Diplomarbeit Technische Universit t M nchen November 2007 Folgende Diplom Bachelor Master und Studienarbeiten wurden von Mitarbeitern der Abteilung Hoch leistun
136. Dateien mit automatischer Speicherung von Kopien der Archiv Dateien an einem anderen Rechenzentrum Regelm iges Umkopieren der B nder technische Migration Vielfache Absicherung der Metadaten z B mittels RAID 5 und zus tzlicher Datenspiegelung RAID 1 Weiterhin wird zur Minimierung des Risikos eines Datenverlusts mehrmals t glich ein Backup der Metadaten erstellt Soweit m glich und wirtschaftlich sinnvoll regelm iger Ausbau und Erweiterung der Systeme z B Serverkapazit ten Bandlaufwerke Tape Library Netzanbindung und sonstiger relevanter Ressourcen zur Vermeidung von berlastungen oder Engp ssen Kontinuierliche technische Upgrades aller Systeme 270 Teil II Anhang 6 5 Geb udeschutz Das Archiv und Backupsystem inklusive aller Speichermedien befindet sich in speziellen R umlichkei ten des Rechenzentrums die mit einer hochmodernen Anlage fiir das Gefahrenmanagement ausgestattet sind Die Brandmeldeanlage ist direkt mit der Feuerwehr verbunden Die R ume selbst verf gen ber eine Argon L schanlage Das L schen mit dem Edelgas Argon verursacht keine Sch den an den techni schen Ger ten und Magnetb ndern Das Geb ude verf gt ber eine spezielle Zugangskontrolle und ist gegen Einbruch Vandalismus oder Gewaltanwendung weitgehend gesch tzt Das Geb ude beinhaltet keine besonderen Vorkehrungen gegen unvorhersehbare Katastrophen wie z B Erdbeben Flugzeugab st rze etc 6 Verschl sselung Stan
137. Der Dienstleistungskatalog spiegelt im Augenblick nur den Teil der Dienstleistungen wider die zuk nftig anderen Institutionen aus dem wissenschaftsnahen Umfeld angeboten werden sollen und deren Nutzung f r eine gewisse Klasse von Institutionen dann auch mit Kosten verbunden ist Er umfasst Dienstleis tungen aus den Bereichen Kommunikationsnetze z B Betreuung von Netzen Betreuung virtueller Fire walls usw Rechner und Speicher z B Housing und Hosting von Rechnern und Rechner Cluster Da tensicherung und Archivierung von Daten Applikationen und Lizenzen z B Mailhosting Webhosting Desktop Management In einem zweiten Schritt soll dieser Dienstleistungskatalog dann sp ter alle Dienstleistungen des LRZ umfassen also auch diejenigen die bisher und auch in Zukunft f r die Nutzer kostenlos sind Die Abstimmungen hierzu sind noch im Gange und noch nicht vollst ndig abgeschlossen Eine wesentli che Randbedingung f r die Umsetzung des Dienstleistungskatalogs war eine entsprechende nderung Erweiterung der Satzung der Kommission f r Informatik Diese wurde in der letzten Kommissionssit zung beschlossen die entsprechend erweiterte Satzung findet sich im Anhang 1 Die Aktualisierung des sonstigen Regelwerks u a auch der Benutzungsrichtlinien des LRZ steht noch aus soll aber m glichst zeitnah im Jahre 2008 erfolgen 8 4 Mitarbeit in Gremien e BRZL Arbeitskreis der bayerischen Rechenzentrumsleiter e ZEKI Zentren f r Kom
138. Die im Rahmen der bisherigen Benutzerverwaltung vergebenen Kennungen sind nicht personalisiert d h sie werden im Laufe der Zeit von verschiedenen Personen genutzt es ist dem LRZ gr tenteils unbekannt ob und von wem eine Kennung gerade benutzt wird und o es kann durch das LRZ nicht vollst ndig gew hrleistet werden dass nur dazu berechtigte Personen eine LRZ Kennung besitzen Da die bisherige ZBVW zudem noch in Fortran implementiert und aufgrund der nachtr glichen Erweite rungen mittlerweile nur noch schwer wartbar war sollte sie durch eine moderne Identity amp Access Mana gement L sung abgel st werden 5 4 2 1 Projektziele F r das Projekt LRZ SIM wurden folgende Ziele angestrebt Die neue ZBVW soll so weit wie m glich mit Standardkomponenten arbeiten d h o m glichst wenig soll selbst programmiert werden m ssen um den Wartungsaufwand zu reduzieren und o es sollen standardisierte und weit verbreitete Schnittstellen Protokolle wie LDAP oder SQL angeboten und auch intern verwendet werden Es sollen die technischen Voraussetzungen geschaffen werden um zur Erfassung und Pflege von Daten auf externe Datenquellen wie beispielsweise die hochschulweiten Verzeichnisdienste der beiden M nchner Universit ten IntegraTUM und CampusLMU zur ckgreifen zu k nnen Ebenso sollen Schnittstellen vorbereitet werden die einen universit ts bergreifenden Datenaus tausch beispielsweise im Hinblick auf die Virtuelle Hochschule
139. Dr h c F Durst Lehrstuhl f r Str mungsmechanik Universit t Erlangen N rnberg Von der Deutschen Forschungsgemeinschaft benannte au erbayerische Wissenschaftler e Prof Dr Kurt Kremer Max Planck Institut f r Polymerforschung Mainz e Prof Dr Dominik Marx Lehrstuhl f r Theoretische Chemie Universit t Bochum e Prof Dr Rolf Rannacher Institut f r Angewandte Mathematik Universit t Heildelberg e Prof Dr Matthias Steinmetz Astrophysikalisches Institut Potsdam e Prof Dr Siegfried Wagner Institut f r Aerodynamik und Gasdynamik Universit t Stuttgart e Prof Dr Gerald Warnecke Institut fiir Analysis und Numerik Universitat Magdeburg Als Vorsitzender wurde Prof Dr Siegfried Wagner gew hlt als stellvertretender Vorsitzender Prof Dr Werner Hanke
140. E Blocked Blocked Avg 2 Cur 2 Min 0 Max 8 Abbildung 85 Anzahl gesperrter Rechner user im Zeitraum von 36 Stunden Durch das automatische Sperren die automatische Benachrichtigung der Anwender und durch die auto matische Freigabe reduziert sich der Anteil der manuell zu bearbeitenden F lle und damit der administra tive Aufwand drastisch Der NAT o MAT bietet mit einer berwachungsschnittstelle dem Administrator und Betreiber des Net zes umfangreiche Analyse und Alarmierungsmechanismen Er kann sich ber den momentanen Zustand des Netzes d h ber gesperrte Adressen Top Listen auff lliger Rechner genutzte Bandbreite Anzahl aktiver Verbindungen und IP Adressen bis hin zu detaillierten Benutzerdaten informieren oder sich ab h ngig von eigenen Regeln auch alarmieren lassen Betrieb des NAT o MAT Das System wird als hochverfiigbares Cluster betrieben In diesem Cluster sind alle Nodes gleichberech tigt und k nnen Funktionen des anderen bernehmen Dadurch wird eine hohe Ausfallsicherheit gew hr leistet Der NAT o MAT befindet sich seit Juni 2005 am LRZ im Produktivbetrieb und ersetzt alle bisher betriebenen Gateways und Proxies Pro Einzelsystem des Clusters werden t glich ca 3 TByte an Daten bei Bandbreiten von bis zu 300 Mbit s analysiert Dabei werden gleichzeitig bis zu 60 000 Verbindungen auf Verst e gegen die Policies untersucht Zu einem Zeitpunkt sind bis zu 4 500 Hosts gleichzeitig aktiv von denen im Mittel 0 2
141. E Mail Adressen g ngige Mail Programme und Mail Systeme auf den ver schiedenen Rechnerplattformen finden sich unter www Irz de services netzdienste email 2 6 5 W hlzug nge ber W hlzug nge k nnen Hochschulangeh rige Wissenschaftler und Studenten mittels des Telefon netzes von ihren PCs zuhause auf institutseigene Rechner oder auf CIP Pools zugreifen Sie k nnen auch den direkten Zugang zum Internet nutzen Das LRZ stellt ber Anschl sse der Deutschen Telekom und M net eine ausreichende Anzahl von Zug ngen ber Modem und ISDN zur Verf gung siehe Abschnitt 2 2 Weitere kosteng nstige Provider neben den bestehenden Angeboten Telekom und M net werden nicht angeboten Stattdessen wird Nutzern empfohlen sich selbst einen g nstigen Provider zu suchen und bei Bedarf eine VPN Verbindung ins MWN aufzubauen siehe unten unter 2 6 6 Dies spiegelt auch die realen Verh ltnisse wider bei denen die Nutzung des Internets von zu Hause aus meist eine Mischung aus berwiegend privater Nutzung und Nutzung von Diensten im M nchner Wissenschaftsnetz ist Die W hlzug nge des LRZ bieten die M glichkeit die notwendige Zugangskontrolle in Absprache mit dem LRZ auf dezentralen vertrauensw rdigen Rechnern abzuwickeln Dieses RADIUS Konzept Remote Authentication Dial In User Service bietet den Vorteil dass der Endbenutzer mit seiner Vali dierung Kennung Passwort aus einem CIP oder anderem Pool auch die W hlzug nge des
142. ERSE Annual Meeting 2007 9 09 21 09 PIA07 Photogrammetric Image Analysis 01 03 02 03 Chassis tech 2007 20 09 20 09 AK Vernetzte PCs 05 03 07 03 MMK 2007 20 09 20 09 Colubris 06 03 07 03 DGI Kern D Grid Meeting 24 09 28 09 EMC Z rich 208 08 03 09 03 12 03 23 03 14 03 16 03 21 03 22 03 25 03 30 03 26 03 30 03 27 03 28 03 27 03 27 03 28 03 31 10 29 03 30 03 30 03 30 03 30 03 30 03 04 04 05 04 20 04 20 04 20 04 20 04 25 04 25 04 30 04 30 04 02 05 03 05 11 05 13 05 14 05 14 05 15 05 16 05 15 05 16 05 21 05 22 05 21 05 22 05 24 05 24 05 29 05 29 05 12 06 12 06 14 06 14 06 15 06 15 06 17 06 22 06 18 06 22 06 19 06 21 06 20 06 20 06 25 06 25 06 25 06 25 06 25 06 28 06 06 07 06 07 09 07 11 07 13 07 13 07 16 07 21 07 16 07 16 07 18 07 18 07 21 07 21 07 23 07 26 07 24 07 24 07 25 07 26 07 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Workshop des EIBONE Arbeitskreises Referenznetze Nuclear safety course Geoinformationssysteme Intel Round Table Gespr ch qPCR Symposium 2007 ATLAS Software Workshop InfoVerm Exchange Workshop Colubris im LRZ 16 Deutscher Materialfluss Kongress Cotesys EU Cryonetwork DVB SSP Lhz opn ASCOMP MS Office Sharepoint Server IAN Foster am LRZ Recruiting Day International Congress in Complementary Medicine Stadtwerke M nchen WCB 200 SENSORIA DEISA Symposium Beschleunigungslaboratorium Programmausschusssitzung M nchner Kreis Ope
143. Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Hans Peter Kriegel Institut f r Informatik der Ludwig Maximilians Universit t M nchen Prof Dr Dr h c mult Heinrich N th Institut f r anorganische Chemie der Ludwig Maximilians Universit t M nchen Prof Dr Helmut Schwichtenberg Institut f r Mathematik der Ludwig Maximilians Universit t M nchen Prof Dr Martin Wirsing Institut f r Informatik der Ludwig Maximilians Universit t M nchen Prof Dr Dr h c mult Christoph Zenger Fakult t f r Informatik der Technischen Universit t M nchen c Von der Akademie entsandt Prof Dr Dr h c Wolfgang Ballwieser Lehrstuhl fiir Betriebswirtschaftslehre der Ludwig Maximilians Universit t M nchen Seminar fiir Rechnungswesen und Prifung Prof Dr phil Walter Koch Lehrstuhl fiir Geschichtliche Hilfswissenschaften der Ludwig Maximilians Universit t M nchen Prof Dr Josef Stoer Institut f r Angewandte Mathematik der Universit t W rzburg 258 Teil HI Anhang 2 d Von der Ludwig Maximilians Universit t LMU entsandt Prof Dr Franz Guenthner Lehrstuhl fiir Informationswissenschaftliche Sprach und Literaturforschung der Ludwig Maximilians Universit t M nchen Prof Dr Arnold Picot Institut f r Organisation der Ludwig Maximilians Universit t M nchen Vizepr sident Dr Sigmund Stintzing Ludwig Maximilians Universit t M nchen Prof Dr Heinz Erich Wichmann Lehrstuhl f r Epidemiologie im IBE der
144. Fileservern und 3 Datenbankservern unter Suse Linux mit OpenAFS 1 4 1 Die Fileserver greifen ber ein eigenes SAN auf einen Storageserver mit 6 Terabyte Plattenplatz zu Die AFS Datenbankserver dienen gleichzeitig als Kerberos Slave KDCs und bilden mit einem zusatzlichen Kerbe ros Master einen Heimdal Kerberos Dienst dessen Datenbank automatisch mit der AFS Kerberos Datenbank synchronisiert wird Die gr ten Ver nderungen bei AFS gab es 2007 in den Bereichen Backup Management und Benutzer verwaltung Die Datenbank welche die Metadaten zu den gesicherten AFS Volumes enth lt musste ers tmals seit der Erst Installation 1995 neu aufgesetzt werden um nicht mehr ben tigte Backups freigeben zu k nnen Die bisher eingesetzte Sicherungsmethode wurde erg nzt durch zus tzliche ReadOnly Versionen aller AFS Volumes die regelm ig automatisch erstellt werden Sie fungieren dank eines neuen Features als Online Sicherungen Bei Verlust eines Volumes l sst sich seine ReadOnly Version in eine neue ReadW rite Version umwandeln und erm glicht so eine Restauration ohne Zeitverlust durch Kopieren Im Unter schied zu den auf TSM ausgelagerten Backups eignet sich diese Technik besser f r Desaster Recovery Szenarien wie etwa den Ausfall einer AFS Partition Gl cklicherweise waren solche Situationen trotz widriger Umst nde in Form von Platten und kleineren Stromausf llen bisher nicht n tig geworden da wo immer m glich doppelt ausgelegte Hardware
145. GI Altix Nachfolgesystem unterzeichnet Lieferverz gerungen beim Intel Montecito Prozessor und technische Schwierigkeiten mit dem Frontside Bus Anfang 2006 f hrten schlie lich zu einer Realisierung als SGI Altix 4700 mit 4096 Prozessorkernen Itanium2 Madison9M einem Hauptspeicherausbau von 17 5 Tera byte und einer Spitzenrechenleistung von 26 2 Teraflop s in der ersten Ausbaustufe Im Zeitraum Anfang M rz bis Ende April 2007 wurde das System auf Ausbaustufe zwei 9728 Intel Montecito Prozessorker ne ein Hauptspeicherausbau von 39 Terabyte und 660 Terabyte Plattenspeicher hochgeriistet Die Leistungsdaten des Systems sind imposant Mit einer Spitzenrechenleistung von mehr als 62 Billio nen Rechenoperationen Teraflops pro Sekunde steht Forschern aus ganz Deutschland am LRZ ein Rechensystem mit europaweit konkurrenzf higer Rechenleistung zur Verf gung Stellt man sich die Re chenoperationen als N gel vor die in einem Abstand von 1 5 mm einzuschlagen sind so m sste man innerhalb einer Sekunde eine Strecke abarbeiten die den quator 2325 mal umrundet Aber auch die Gr e des Hauptspeichers ist gigantisch 39 Terabyte das sind 39 000 Gigabyte erm glichen sehr um fangreiche und neuartige Simulationen Die besonderen Vorz ge des Systems bestehen nicht nur in der obengenannten Spitzenrechenleistung sondern auch in einer breiten Palette von Eigenschaften deren Zusammenspiel eine sehr effiziente Nut zung des neuen Rechners erm
146. IS der Firma Netapp Bei der Datendeduplizierung wird der Datenbestand nach gleichen Bl cken durchsucht Sind gleiche Bl cke vorhanden wird ein solcher Block nur einmal gespeichert und die andern gleichen Datenbl cke freigegeben Durch diese Methode l sst sich teilweise sehr viel Speicherplatz einsparen Erste Tests mit der Deduplizierung A SIS waren vielversprechend Eine weitere Untersuchung folgt Bereits Ende des Jahres 2006 wurde mit der konkreten Planung f r die Beschaffung des ben tigten Spei chers begonnen Im Fr hjahr 2007 wurde schlie lich ein Gro ger teantrag geschrieben und in vollem Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 189 Umfang genehmigt Im Herbst 2007 wurde eine europaweite Ausschreibung zur Beschaffung des Spei chers f r die Wissenschaft durchgef hrt Im Dezember konnten ein Prim rspeichersystem bestehend aus einem FAS6070 Cluster zwei Filer K pfen mit einer Bruttokapazit t von 68 Terabyte und als Replika tionsystem eine FAS6070 mit einer Bruttokapazit t von 95 Terabyte der Firma Netapp beschafft werden Mit dieser Beschaffung ist ein wesentlicher Schritt f r IntegraTUM und f r den Speicher der Wissen schaft erfolgt Im Jahr 2008 wird das neu beschaffte System in die Speicherlandschaft des LRZ integriert und in den Produktivbetrieb berf hrt 6 4 3 4 Andrew Filesystem AFS Die Hardware Konfiguration von AFS blieb 2007 im Wesentlichen unver ndert Der Kern der AFS Zelle besteht aus 4
147. Komponente des Linux Clusters EM64T 3200 MHz Serielle x86_64 Cluster Knoten Infiniband Test Cluster 9 MEGWARE Opteron 2 6GB Komponente des Linux Clusters 2400 MHz Serielle x86_64 Cluster Knoten 20 SUN Opteron 4 8GB Komponente des Linux Clusters 2600 MHz Serielle x86_64 Cluster Knoten 1 SGI Altix 3700Bx2 128 512 GB 1A64 SMP Rechner perc Madison 2 Prozessorkerne dediziert f r OS 126 Prozessorkerne dediziert f r par Jobs 1 SGI Altix 4700 Mon 256 1024 GB 1A64 SMP Rechner tecito 1600 MHz 2 Prozessorkerne dediziert f r OS 14 Prozessorkerne dediziert f r interaktives Arbeiten 240 Prozessorkerne dediziert f r par Jobs 68 MEGWARE Itanium2 2 8GB 1A64 MPP Pool Madison 1600 MHz 20 Knoten dediziert f r serielle Jobs 4 Knoten dediziert f r par Test Jobs 12 Knoten dediziert f r par Jobs 31 Knoten f r ser oder par Jobs 17 MEGWARE Itanium2 4 8 GB Quad IA64 Pool Madison 1300 MHz Dedizierte Knoten f r parallele MPI und 4 fach Shared Memory Jobs I IO swnyuazuay9og zrugloT Sop L007 JoLogsaryer EL 3 Hochleistungs Graphik System Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller Kompo ee Daten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur nenten aupt Aufgabe Anzahl und speicher 5 Typ Typ in GB A
148. Komponenten bzw Zugriffspfade eingesetzt werden Die bisherige Struktur der Einordnung der Benutzerverzeichnisse wurde gr ndlich berarbeitet und ge n derten Bed rfnissen angepasst die durch die f r M rz 2008 geplante Einf hrung der neuen LRZ Benutzerverwaltung SIM entstanden sind Die notwendigen Vorbereitungen f r den administrativen Zu griff von SIM auf AFS wurden im Rahmen eines eigenen Projektes getroffen Gleichzeitig wurde der Zugriff auf die bestehenden Backup und die neu hinzugekommenen ReadOnly Versionen so gestaltet dass sich mit Hilfe weiterer neuer AFS Features realisierbare zus tzliche Snapshots f r Benutzerdaten leicht integrieren lassen Viele Verbesserungen gab es im Bereich der Managementl sung SIB kurz f r Service Information Base f r AFS Mit SIB werden nicht nur f r die Administration wichtige und interessante bersichten und Problembereiche anschaulich dargestellt sondern auch regelm ige Aktionen automatisch angesto en So wird die Verwaltung weiter beschleunigt und erleichtert bzw erm glicht erst die Durchf hrung komple xerer Kontrollen und Aufgabenstellungen Verglichen mit dem Vorjahr erh hte sich die Anzahl der Volumes gleichm ig ber alle Kategorien um rund 10 auf insgesamt 40 300 ReadWrite Volumes ein Drittel des gesamten Volumebestandes der belegte Speicherplatz stieg zus tzlich zu der Verdoppelung durch die nun vollst ndige ReadOnly Abdeckung um 20 Inklusive der Sicherungskop
149. Konzepte und Werkzeuge mit anderen Hochschulen insbesondere der LMU M nchen diskutiert Dabei spielen das im Rahmen des Projekts entstandene LDAP Schema die konzipierten Konnektoren die Verzeichnisdienstarchitektur und die angestrebten Optimierungen der Hochschulprozesse eine zentrale Rolle Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 113 Folgende Arbeiten wurden im Berichtszeitraum 2007 durchgefithrt e Die Modellierung der Benutzerdaten im Verzeichnisdienst wurde mehrfach durch Erg nzung berarbeitet um neue Anforderungen seitens der anzubindenden Systeme zu erf llen die sich u a durch die Einf hrung der TUM Student Card ergeben haben e Das Online Vorlesungs und Personenverzeichnis der TUM derzeit basierend auf der Software UnivIS wurde als weitere Datenquelle fiir den Verzeichnisdienst erschlossen Sie liefert insbe sondere exakte dienstliche Anschriften Telefonnummern und E Mail Adressen und komplemen tiert somit den Datenimport aus SAP HR e F r die Anbindung der in Implementierung befindlichen IntegraTUM G steverwaltung wurde ein Web Service basiertes Backend programmiert das einzelne Verzeichnisdienstoperationen zu atomaren Operationen durch das Web Frontend zusammenfasst Das in Java implementierte Ba ckend st tzt sich zwar partiell auf das IntegraTUM spezifische LDAP Schema ab kann aber prinzipiell nach geringen Anpassungen auch f r andere Hochschulen verwendet werden e Nach erfolgreichem Einspeisen v
150. LRZ nutzen kann also ohne eine spezifische LRZ Kennung auskommt Details zu den LRZ W hlanschl ssen finden sich unter www Irz de services netzdienste modem isdn 2 6 6 Zugang f r mobile Endger te F r mobile Endger te z B Laptops Handhelds PDAs wird an vielen rtlichkeiten im Bereich des MWN der Netzzugang ber WLAN und auch im geringeren Ausma vorkonfigurierte Datensteckdosen angeboten Die Funknetz Basisstationen Access Points nach IEEE 802 11b g und die Datensteckdosen 10 100 Mbit s sind in einem eigenen VLAN virtuelles LAN eingebunden Von diesem VLAN gibt es nur einen gesicherten Ubergang VPN Server IPsec in das MWN und von dort weiter in das WiN bzw weltweite Internet Dadurch wird sowohl ein Schutz gegen den Missbrauch dieses Netzes erreicht da der Internet Anschluss des LRZ nicht unbefugt genutzt werden kann als auch der administrative Aufwand m glichst klein gehalten F r VPN Verbindungen gelten dieselben Nutzerkennungen wie f r die Einwahl ber Mo dem und ISDN Jahresbericht 2007 des Leibniz Rechenzentrums Teil I AT F r Systeme ohne VPN Client z B manche PDAs wird auch der Zugang ber ein Web Gateway vpnweb angeboten Dieser erlaubt nur die Nutzung von Diensten ber die Web Browser Schnittstelle N heres ber WLAN steht unter 7 1 5 Online Dokumentation dazu findet sich unter wwn Irz de services netz mobil 2 6 7 VPN Server IPsec Der VPN Server IPsec dient u a dazu aus unsicher
151. LRZ vorhanden Das anonymous FTP File Transfer Protocol dient der Verteilung von Software oder auch von i a umfangreicherer Dokumentation Von jedem Rechner der ber die FTP Software verf gt und ans M nchner Wissenschaftsnetz bzw ans Internet angeschlossen ist kann eine Verbindung zu diesem LRZ Server aufgebaut werden Der Servername ist fip Irz de Man f hrt ein Login an diesem Server durch mit der Kennung ftp oder anonymous und dem nur f r statistische Zwecke verwendeten Passwort E Mail Adresse des Benutzers Nach erfolgreichem Login kann man die angebotenen Dateiverzeichnisse inspizieren und Dateien zum eigenen Rechner bertragen Der Anonymous FTP Server des LRZ dient im wesentlichen dazu LRZ spezifische Software bzw Kon figurationsdaten zu verteilen andererseits bietet er auch Benutzern die M glichkeit Daten allgemein zug nglich bereitzustellen die nicht ber WWW angeboten werden sollen Ein gro es Angebot an nicht kommerzieller Software bietet vor allem der Anonymous FTP Server fip leo org der von der Informatik der TUM betrieben und gepflegt wird 46 Teil I Das Dienstleistungsangebot des LRZ 2 6 4 E Mail Der neben WWW wichtigste Internet Dienst ist der elektronische Nachrichtenaustausch E Mail der eine weltweite Kommunikation mit anderen Internet Benutzern erlaubt Voraussetzung f r die Nutzung des Dienstes ist eine E Mail Adresse mit einer dazugeh rigen Mailbox Studenten der beiden M nc
152. Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften Jahresbericht 2007 M rz 2008 LRZ Bericht 2008 01 Direktorium Leibniz Rechenzentrum Boltzmannstra e 1 Telefon 089 35831 8784 Offentliche Verkehrsmittel Prof Dr H G Hegering Vorsitzender 85748 Garching Telefax 089 35831 9700 Prof Dr A Bode E Mail Irzpost Irz de U6 Garching Forschungszentrum Prof Dr Chr Zenger UST ID Nr DE811305931 Internet http www Irz de Jahresbericht 2007 des Leibniz Rechenzentrums Vorwort treere e roere E aE Eeee ees e E EEE EE aa E rS E a a e eE ors eaa SS EE ETa 6 Teil I Das LRZ Entwicklungsstand zum Jahresende 2007 zcuussoossesnnssnsnussnonnesnnsssnnnnenen 11 1 Einordnung und Aufgaben des Leibniz Rechenzentrums LRZ ssssesesssessorseesoeseesoesosseesoosseee 11 2 Das Dienstleistungsangebot des LRZ eessesssecsseossoossocssoossoossocssosssoossoossooesoossoosssosssosesosssosesosssse 15 2 1 Dokumentation Beratung Kurse oo ecccecsceesseesseesseessecssecesecesecnseeeseeeeeeseeeeeseseseeeseesaeesaees 15 2 1 1 Dokumentation sss ova tatievelessdeckssaletvevets ceca len tees alrenkesshsrehtinrinnsdsinlen 15 2 1 2 Beratung und Unterst tzung cc ceccesceseceseceseceeeceeeeeeseeeseeeseeessecsaecaecnseeneenseeees 15 2 1 3 Kurse Veranstaltungen u 52 00 a RN Bananen 17 2 2 Planung und Bereitstellung des Kommunikationsnetzes eenenenennsennennn 18 2 3 Bereitstellung von Rechenka
153. M Brenner Die Ausdrucke von PC Benutzern an Druckern f r die keine automatische Seitenabrechnung imple mentiert ist bzw von Druckauftr gen die unter einer Gastkennung abgeschickt wurden m ssen von der Beratung ausgef hrt und abgerechnet werden berdies ist oft die Behebung von auftretenden Problemen Anomalien Fehlern an den peripheren Ger ten erforderlich e Vergabe von Gastkennungen Kunden die an den PCs des LRZ arbeiten m chten ben tigen eine Kennung Im Falle von kurzfris tiger Nutzung zum Beispiel um eine Arbeit auszudrucken k nnen sogenannte Gastkennungen vergeben werden Der Kunde tr gt seine Einzelheiten an einem daf r vorgesehenen PC ein die diensthabende studentische Hilfskraft berpr ft die Berechtigung des Kunden und schaltet die Ken nung frei 88 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 1 4 Online Problem Management des LRZ Hotline Web Das Hotline Telefon und die Pr senzberatung stellen nur eine Seite der von uns angebotenen Hilfe bei Fragen bzw Problemen der Benutzer dar Das Ziel ist einen m glichst gro en Teil der Beratungsf lle ber das spezielle Web Interface Hotline Web in unser Trouble Ticket System zu bringen Als einfaches universelles Mittel zur Meldung von Problemen oder zum Stellen von Fragen steht das Hotline Web Formular unter http hotline Irz de zur Verf gung Der Aufruf des Hotline Web durch einen Benutzer erfolgt ber einen Link auf unseren W
154. M FAStT900 Storageserver FC Zwei dieser Storageserver mit einer Kapazit t von 32 Terabyte sind an das LABS SAN angebunden Die Systeme werden f r die TSM Datenbanken des LABS und TSM Plattencache f r die am st rk 186 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme sten belasteten LABS TSM Server verwendet f r die die SATA Systeme nicht genug Leistung bie ten e IBM FAStT900 Storageserver SATA Uberschreitet bei diesen Systemen die I O Last einen bestimmten Wert bricht deren Leistung stark ein Man st t hier an die Grenzen der SATA Technik Diese Maschinen wurden deshalb als Secon dary Diskcache in TSM verwendet um die leistungskritischen Lastzust nde weitestgehend zu ver meiden Im Laufe des Jahres wurden auf den IBM Storageservern die Plattenpools umgebaut und auf bessere Performance hin optimiert Dadurch konnten die Engp sse auf den SATA Storage Arrays stark verringert werden Plattenausf lle werden nun von den Systemen problemlos recovered Im Rahmen des Katastrophenschutzes im Bereich Datenhaltung arbeitet das LRZ eng mit dem IPP zu sammen Dabei werden Kopien des Archivdatenbestandes im jeweils anderen Rechenzentrum abgelegt Zurzeit l uft dieser Kopiervorgang zwischen den Servern der beiden Rechenzentren ber Gigabit Ethernet ab Server to Server Da beide Rechenzentren ihre Backup und Archivinfrastruktur auf Basis eines Storage Area Networks betreiben ist es theoretisch m glich diese Netzwe
155. Netzmanagement Werkzeugen Aufgrund der tech nischen und organisatorischen Randbedingungen des Multi Domain Umfeldes stellt das System keine physischen Messdaten zur Verf gung sondern eine abstrahierte management orientierte Darstellung des operativen und administrativen Status der Links Das System wird derzeit um weitere kundenspezifische Anforderungen erweitert E2E Link Monitoring System Windows Internet Explorer o gt http fenmdev lre muenchen defe2e lhc G2_E2E_index html ele We Ar GEE Link Monitoring System Mm Ah ir Seite Extras Statpage Status of E2E Link CERN SARA LHCOPN 001 Oper State Up Admin State Normal Oper Warning Operational state is known not for all involved links Warning Administrative state is known not for all involved links Domain SURFNET Link Structure Type EndPoint ID Part Info ID Part Info Demarc Domain Link Demarc ID Partinfo ID Part Info EndPoint SURFNET SURFNET NL GEANT2 NL GEANT2 GEANT2 CH NL GEANT2 GEANT2 CH CERN SARA CERN SARA CERN SARA AMS CERN SARA GEN CERN SARA j TO State Oper Up Up Up Up State Admin Normal Oper Normal Oper Normal Oper Normal Oper 2007 01 31 2007 02 28 2007 02 28 2007 02 28 T08 45 02 0 0100 T12 58 01 0 0000 7 T12 58 01 0 0000 7 T12 58 01 0 0000 p Local Name Timestamp Page generated at 2007 03 01 10 24 16 MET http fenmdev Ire muenchen de e2e Ihc G2_E2E_view_domain_SURFNET html off Vertrauensw rdige
156. Prozesse 154 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme IA64 Teil Jobanzahl SBU H Technische Universit t M nchen athematik 1 0 0 0 00 0 0 Physik 6175 1 22 588782 61 32 6 Chemie 99942 19 1 258964 96 14 3 Bauingenieur und 300988 57 6 21287 91 1 2 Vermessungswesen aschinenwesen 3225 0 6 119898 18 6 6 Elektrotechnik und 72462 13 9 82998 80 4 6 Informationstechnik edizin 328 0 1 7696 32 0 4 Wissenschaftszentrum 1006 0 2 19189 60 oie Weihenstephan Summe 484127 92 6 1098818 37 60 8 Ludwig Maximilians Universitat Betriebswirtschaft 225 0 0 250 83 0 0 Tiermedizin 371 0 1 8325 83 0 5 Physik 10186 1 9 270478 44 15 0 Chemie und Pharmazie 217 0 0 7053 75 0 4 Biologie 9378 1 28 142916 09 4 29 Summe 20377 3 9 429024 94 23 7 Bayerische Akademie der Wissenschaften Mathematisch 745 Oist 24579 03 1 4 Naturwissenschaftliche Klasse LRZ 9252 1 8 62341 97 3 4 Summe 9997 1 9 86920 99 4 8 Sonstige Bayerische Hochschulen Universit t Bayreuth 5640 1 1 10065 41 0 6 Universitat Erlangen Nurnberg 2 0 0 34 66 0 0 Universitat Regensburg 1523 0 53 96625 78 Di Universit t W rzburg 172 0 0 4826 00 0x3 Universit t Augsburg I 0 0 0 00 0 0 Summe 7338 1 4 111551585 6 2 Verschiedene Sonstige 867 0 3 2 82007 41 4 5 Summe 867 0 2 82007 41 4 5 Gesamtsumme 522706 100 0 1808323 57 100 0 64 bit Teil Jobs Systemzeit Rechner Jobklasse Anzahl SBU Std Linux IA64 lcg 71058 32 21 309991 35 7 90 mpi 2372 1 08 194487 91 4
157. Querverbindungen ber Radiuszonen k nnen einzelne Institutionen f r ihre Besch ftigten bzw Studierenden die Berechti gung f r den W hlzugang am MWN selbst verwalten Zum Jahresende 2007 waren 61 zwei weniger als im Vorjahr Radiuszonen eingerichtet Eine Auflistung der Radiuszonen zeigt folgende Tabelle Zonenbezeichnung aci ch tum binfo tum de bl Imu botanik Imu campus imu de cicum Imu cip agrar tum cip informatik Imu cipmath Imu edv agrar tum eikon elab tum fh augsburg fh weihenstephan de forst tum frm2 tum fsei tum fsmpi tum ibe Imu ifkw lmu ikom tum imo Imu info tum kue laser physik Imu Ife tum Ikn tum loek tum Ipr tum nm informatik Imu nmtest informatik Imu math Imu math tum med Imu meteo Imu mnet Irz muenchen de mytum de ocii tum org chemie tum pc tum Institut Lehrstuhl f r Anorganische Chemie TUM Genome oriented Bioinformatics Beschleunigerlabor der TU und der LMU M nchen Botanisches Institut der Universit t M nchen Internet und virtuelle Hochschule LMU Department Chemie LMU Wissenschaftszentrum Weihenstephan TUM Institut f r Informatik der LMU Mathematisches Institut LMU Datenverarbeitungsstelle der TU in Weihenstephan Lehrstuhl f r Datenverarbeitung Elektronikabteilung der Fakult t f r Physik TUM Garching Rechenzentrum der FH Augsburg Fachhochschule Weihenstephan Forstwissenschaftliche Fakult t Forschungsreaktor Fachschaft Elektro amp Information
158. RZ spezifisch sind oder aus lizenzrechtlichen Gr nden vom LRZ f r berechtig te Kunden selbst verwaltet werden m ssen News Proxy Vermittelnder Zugriff auf Internet News die am News Server des LRZ nicht gehalten werden VPN Gateway Das VPN Gateway des LRZ dient als Endpunkt zum Aufbau von sicheren Tunneln aus dem Internet ins MWN Die Legitimation eines Benutzers dazu wird ber das RADIUS Protokoll gepr ft Nach dem ein Benutzer einen VPN Tunnel aufgebaut hat verh lt sich sein Rechner so als ob er sich phy sisch im MWN bef nde Auf diese Weise ist die Nutzung von speziellen Diensten im MWN aus dem Internet m glich NTP Server Weitergabe der vom LRZ empfangenen exakten Funk Uhr Zeit TUM Authentifizierungsdienst F r die zentralen IT Dienste der TU M nchen wird ein hochverf gbarer LDAP basierter Verzeich nisdienst betrieben der aus den Verwaltungssystemen der TU gespeist wird und die Authentifizie rung aller Hochschulangeh rigen auf Basis einer einheitlichen Kennung erm glicht myTUM LDAP F r das Web Portal der TU M nchen werden zwei LDAP Server auf Basis von Novell eDirectory unter SuSE Linux betrieben Sie dienen der Authentifizierung und Autorisierung sowie der Speiche rung von myTUM Benutzerprofilen Shibboleth Identity Provider Im Rahmen der Authentifizierungs und Autorisierungsinfrastruktur des Deutschen Forschungsnet zes DFN AAI wird vom LRZ je eine Instanz der Software Shibboleth Identity Provider f r d
159. S Active Directory Betriebs Client Windows Be SRV Windows Terminalserver pg systeme A AA LRZ LRZ Infra Strukturen IP SAN Mail Prozesse BVW Policies Abbildung 28 Gesch ftsmodell der PC Gruppe am LRZ Diese Darstellung kann wie folgt von unten nach oben gelesen werden Auf der Basis vorhandener LRZ Infrastrukturen Datennetz Dienste Prozesse usw werden mit PC Netzwerkbetriebssystemen Windows Server inkl Terminal Services und Middleware wie Directory Services Novell eDirectory Microsoft Active Directory AFS Clients Citrix Metaframe Terminalserver usw verschiedene Arbeitsplatztypen Schulungsr ume off Arbeitspl tze Spezialsysteme Mitarbeiter PCs Application Server betrieben 130 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Aus dem Betrieb der Produktionssysteme wird haupts chlich Wissen in den Bereichen System Applikationsmanagement und Directory Services erworben und in Form von Beratung Schulungen und m glichst in produktiven Services Remote Desktop Management Application Services an die Kunden und Arbeitskreise innerhalb und au erhalb des LRZ weitergegeben Die Farbkodierung blau f r Windows rot f r Novell eDirectory L sungen Gr n f r Linux verdeut licht die jeweiligen Betriebssystemabh ngigkeiten der Services Anhand dieser Darstellung kann das Kompetenzspektrum des LRZ f r PC Desktop und Applik
160. S Server ein Dynamic DNS Physisch betrachtet besteht der DHCP Dienst aus zwei Servern die sich z Zt beide im LRZ Geb ude befinden Zur Ausfallsicherheit arbeiten die Server redundant d h bei einem Ausfall eines Servers ber nimmt der zweite automatisch die Funktion des anderen Au erdem findet zwischen den beiden Servern eine Lastteilung statt F r das Jahr 2008 sind einige Erweiterungen des DHCP Dienstes geplant So soll der Dienst zuk nftig von drei statt bisher zwei Servern erbracht werden wobei die Server dann auch r umlich getrennt aufges tellt werden LRZ Geb ude TU Nordgel nde LMU Stammgel nde um so eine noch h here Ausfallsi cherheit zu gew hrleisten Dar ber hinaus ist geplant im Laufe des Jahres neben DHCP f r IPv4 auch DHCP f r IPv6 als Dienst anzubieten 7 2 10 Voice over IP VoIP Im Jahr 2007 wurde das Exzellenzcluster Origin and Structure of the Universe welches R umlichkei ten im ITER Geb ude auf dem Gel nde des MPI bezogen hat ber die LRZ Telefonanlage angeschlos sen F r das Exzellenzcluster sind 100 Rufnummern vorgesehen Die Telefone vom Typ Snom 320 mel den sich direkt am LRZ Asterisk Telefon Server an Im Webinterface der Telefonanlagen wurde f r diese Nutzer eine eigenen Gruppe eingerichtet wodurch die Trennung der Nutzer sichergestellt ist Insgesamt wurden im Jahr 2007 durch die VoIP Telefonanlage des LRZ ca 192 000 Gespr che mit einer durchschnittlichen L nge von 2 36 Minu
161. S wurde im Lauf des Jahres die Benutzer Authentifizierung von Heimdahl Kerberos5 nach Microsoft Active Directory ADS umgestellt Alle LRZ CIFS Shares stehen dadurch automatisch auch auf Linux Arbeitspl tzen zur Verf gung Hierzu waren ausf hrliche Tests und Anpassungen der f r SLED10 SP1 vom Distributor bereitgestellten CIFS Anbindung und Kerberos5 Autenthifizierung erforderlich W hrend des gesamten Berichtszeitraumes traten auch im aktuellen Berichtsjahr immer wieder Arbeiten zur Unterst tzung von Multiboot L sungen sowie neuer Hardware auf wie z B Laptops Multimedia Ausstattung von Mitarbeiterrechnern und Support von USB Ger ten Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 129 5 8 Desktop und Applikationsservices 5 8 1 Motivation Gesch ftsmodell Die Projektarbeiten der Gruppe Desktop Management im Bereich Desktop und Applikations Services sind darauf ausgelegt am LRZ Basiswissen im Sinne eines Kompetenz Zentrums f r PC Desktop und Netzwerkbetriebssysteme im universit ren Umfeld zu erarbeiten In der erforderlichen Qualit t und Quantit t kann dies am besten an Produktionssystemen erfolgen die f r den internen Betrieb Mitarbeitersysteme und externe Dienstleistungen Kursumgebungen ff Arbeits pl tze Applikationen usw erforderlich sind Zwischen den Extremen rein produktionsorientierter L sungen und reiner angewandter Forschung in Laborl sungen muss ein ausgewogener Weg gefunden wer
162. Scale Gyrokinetic Turbulence Computational Seismology Dynamics of Binary Black Hole Systems Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 147 Chair of Fluid Mechanics TU Miinchen Coarse Structure Simulation LES and Direct Numerical Simulation DNS of Turbulent Compressible Streams in Nozzles Astrophysical Institute Potsdam Local Supercluster Simulation Max Planck Institute for Plasmaphysics Scaling Properties of Convective Turbulence Centre of Computational Chemistry University of Molecular Dynamics Investigation of Important Protein Erlangen N rnberg Systems Institute of Theoretical Physics University of Regens Dynamical Lattice QCD with Ginsparg Wilson type Fer burg mions Department of Chemistry TU M nchen Advanced Quantum Control by Gradient Flow Algorithms on Parallel Clusters IAC CNR and CINECA Rom HEAVY impurities and micro droplets in a turbulent envi ronment Tabelle 16 Die 20 gr ten Projekte am HLRB 6 1 1 3 1 Mehr Supportanfragen und Nutzung des Trouble Ticketsystems Die deutlich gesteigerte Anzahl von Nutzern und der gro e Job Durchsatz am HLRB und am Linux Cluster haben zu einer betr chtlichen Steigerung von Supportanfragen gef hrt Der bisher von den An wendern gew hlte Weg ber die Email Listen hirb admin lrz de oder lx admin lIrz de mit den Anwen derberatern in Kontakt zu treten entwickelte sich zunehmend als Schwachstelle da eine gezielte Abarbei tung und Nachv
163. Server MeN MeH MeH Abbildung 18 Architekturmodell der neuen LRZ Benutzerverwaltung 5 4 2 4 Aktivit ten 2007 Im Jahr 2007 wurden die folgenden Aktivit ten durchgef hrt Die Kopplung mit dem Verzeichnisdienst der LMU wurde von Studenten auch auf Mitarbeiter aus gedehnt Im Zuge dieser Umstellung wurde wiederum eine umfangreiche Datenbereinigung durch gef hrt um die noch verbliebenen Inkonsistenzen zu eliminieren Zusammen mit der LMU wurden Ma nahmen zur Vermeidung der Mehrfacherfassung von Personen diskutiert und umgesetzt sie sind im Hochschulumfeld besonders relevant da f r die Verwaltung von Studenten und von Mitar beitern typischerweise unterschiedliche Softwaresysteme eingesetzt werden sich aber naturgem ein hoher berlappungsgrad ergibt z B Studenten die als Tutoren an Lehrst hlen arbeiten bzw Mitarbeiter die f r ein Promotionsstudium eingeschrieben sind Hierbei konnten insbesondere auch Erfahrungen aus dem IntegraTUM Projekt gewinnbringend eingesetzt werden Die Implementierung der web basierten Managementwerkzeuge wurde fortgef hrt sie bieten nicht nur den LRZ Mitarbeitern die zur Verwaltung der Daten notwendigen Funktionen sondern fungie ren auch als Frontends f r die delegierte Administration durch die Master User und geben jedem Benutzer im Rahmen so genannter Self Services die M glichkeit beispielsweise die E Mail Adresskonfiguration und Passwort nderungen f r alle LRZ Dienste durchzuf h
164. System zur Lokalisierung von Rechnern in gro en Netzwerken anhand IP oder MAC Adressen In 21 DFN Arbeitstagung ber Kommunikationsnetze 2007 Kaiserslautern Deutschland Juni 2007 ISBN 13 978 3836414241 MARCU P IT Dienstmanagement Ein Modell der Abh ngigkeiten Vdm Verlag Dr ISSN 1436 753X ISBN 978 3 86541 228 7 ISSN 1436 753X ISBN 978 3 939551 05 8 M ller Saarbr cken Juni 2007 MATEESCU G Overcoming the processor communication overhead in MPI applications High Performance Computing Symposium HPC 2007 Norfolk Virginia USA March 25 29 2007 AGARWAL A MATEESCU G et al BaBar MC Production on the Canadian Grid using a Web Services Approach To appear Proceedings of CHEP 2007 Journal of Physics Conference Series JPCS PALML H chstleistungsrechner des Leibniz Rechenzentrums unter den Top Ten der Welt In Akademie Aktuell Zeitschrift der Bayerischen Akademie der Wissenschaften Aus gabe 3 Oktober 2007 PLUTA D ACL Design behind IntegraTUM s Decentralized and Delegable Group Man agement In Proceedings of the LDAPcon Ist International Conference on LDAP Up Times Issue 3 2007 Cologne Germany September 2007 REINER B Sicherung des Weltkulturerbes am Leibniz Rechenzentrum In Akademie Aktuell Zeitschrift der Bayerischen Akademie der Wissenschaften Ausgabe 3 Oktober 2007 REINER B DUNAEVSKIY A So sichert man die Petabytes Linux Technical Review Thema Storage und Backup Ausg
165. Systemen erh ht insbesondere bei Personen die z B aufgrund unterschiedlicher Namensschreibweisen in den Quellsystemen nicht automatisch korreliert werden konnten trat das Problem auf dass f l schlicherweise eine redundante Kennung vergeben wurde was zu einer Beeintr chtigung der Da tenqualit t f hrte Zur Bearbeitung entsprechender Supportanfragen wurde vom Teilprojekt Ver zeichnisdienst ein auf der Open Source Software OTRS basiertes Trouble Ticket System in Be trieb genommen das zuk nftig von dem im Aufbau befindlichen TUM Service Desk bernom men werden soll e F r das zusammen mit Teilprojekt Systemadministration realisierte Microsoft Active Directory Verzeichnisdienstkonzept wurde in den LRZ Kursr umen eine Testumgebung aufgebaut in der verschiedene L sungsans tze mit mehreren Servern und Clients evaluiert werden konnten e F r die Teilnahme an der von DFN Verein angebotenen deutschlandweiten Authentifizierungs und Autorisierungsinfrastruktur DFN AAI wurden die sog Identity Provider Komponenten der DFN weit verwendeten Software Shibboleth in Betrieb genommen Alle ber die DFN AAI an gebotenen Dienste die keine expliziten Vertr ge zwischen Dienstleister und TUM ben tigen k nnen somit von allen Angeh rigen der TUM bereits genutzt werden e Zur Kontrolle der Qualit t der aus den Quellsystemen gelieferten Daten und zur berpr fung auf eventuelle Implementierungsfehler wurde eine Reihe von Pr fwerkzeugen impleme
166. Uhr Da die meisten Arbeiten jedoch nur lokale Teilnetze betreffen ist meistens trotzdem der gr te Teil des Hochschulnetzes erreichbar Gr ere Eingriffe oder Umbauten am Netz werden an Samstagen durchgef hrt Die Unterbrechungen wann ungef hr wie lange und welche Bereiche oder Dienste betroffen sind werden rechtzeitig ber die aktuellen LRZ Informationen ALI und durch Mail an die Netzverant wortlichen bekannt gegeben 3 3 3 Das LRZ Geb ude Der Neubau des LRZ ist der modernste und mit ca 5 700 qm Hauptnutzfl che und ca 5 000 qm Funkti onsfl che der gr te Neubau eines wissenschaftlichen Rechenzentrums in Deutschland Er ist architekto nisch in drei gro e Bereiche unterteilt Rechnergeb ude H chstleistungsrechner Server f r Netz und IT Dienste Linux Cluster und die umfangreichen Daten archive sowie die aufwendige technische Infrastruktur zur Elektrizit tsversorgung und K hlung werden in einem markanten w rfelf rmigen Trakt Kantenl nge 36 m untergebracht Hier gelten erh hte Sicher heitsanspr che und es gibt keinen Publikumsverkehr Die Stromversorgung Anschlusswert 4 8 MV A ist f r 2 Megawatt Rechnertechnikbedarf und 2 Megawatt Klimatechnikbedarf ausgelegt Es stehen unterb rechungsfreie Stromversorgungen zur Verf gung F r die Luftk hlung des H chstleistungsrechners wird ein Durchsatz von 400 000 m Stunde ben tigt Ausgefeilte Sicherheits und Feuerl schsysteme sorgen f r den Schutz der techni
167. Umgebung je zwei Client Access Hub Transport und Mailbox Server WWWSServer Das LRZ betreibt eine aus 12 Rechnern bestehende Webserver Farm auf der folgende Dienste reali siert werden virtuelle WWW Server Betrieb von Web Servern f r Institute und Lehrst hle die das nicht selbst tun m chten f r die Inhalte der dargebotenen Information miissen sie allerdings selbst sorgen Dieser Dienst der der zeit von ca 360 Einrichtungen in Anspruch genommen wird erfordert nicht f r jeden Web Server einen eigenen physischen WWW Server Rechner daher der Name virtueller Server WWW Server des LRZ Auf diesem Server stellt das LRZ die Dokumentation f r seine Benutzer zur Verf gung 58 Teil I Das Dienstleistungsangebot des LRZ Spezielle WWW Server In diese Kategorie geh ren z B die Server webmail Irz de Bearbeiten von E Mails ber eine Web Schnittstelle und idportal Irz de Tools zur Administration der eigenen Kennung Suchmaschine Aufbau von und Netzzugriff auf Datenbanken zur Stichwortsuche ber WWW Seiten des LRZ und derjenigen Institute die ihren WWW Server vom LRZ betreiben lassen FTP Server Verteilung von Dateien im Internet Zur Vermeidung von Doppelarbeit zwischen dem LRZ und LEO einem weltweit stark genutzten Archiv von frei verteilbarer Software und Dokumenten von den In formatik Instituten der beiden M nchener Universit ten bietet das LRZ praktisch nur solche Datei en an die entweder L
168. Universit t Dresden Technische Universit t M nchen TUM Zuse Institut Berlin ZIB 232 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes eo D Grid CSM QA ALRZr Gridr Geant2r Apple 14 r Amazon eBay Yahoo News 243 r CID Dynamisch erstellte Karte yon Ressourcenanbietern Wartungszustand Kiel ease a oo MOREEN Cp A PA RR gt f a m j SH Aa g Te 3 A Szczecin Br Er Legende I Leeuwarden YA AY F AR SS meek 2 L aut A aA Q Groningen Bremen 5 537 f K rf keine Wartung IS Oldenburg bs lt lt F S N FL 00m Pe Oldenbusa Na ji terdam Wartung geplant iden o A z Er nster ee gt K 7 m Lp aoe pf u DAS BGA RI N pat AL Knoten unter Wartung e i y Nijmegen P PE as ee Fa oA x ee Se Padero v Rec 7 ei gt Esieng AG e u passer Diss RTA gt iruxelles Maasin i Ceska Republika 2 re Czech Republi ic ki Smo N amp r K EN a u p a N at uN F SS A gt je AW a gt Strasbourg fom gt Q g y g Y Geomaint MDS Dynamic Map gt fe RR TEN z y T 1 p Fan 5 gt FR Reutingen 7 N Kor COEK Bratis geocounter wered by AR N ers PE N os wien a 2 ne rar A e EEREN eyes ie Sin An f Y x N Mulhouse of fe ER END 2908 PPA IK Felg Atlas Z nttsheafri it Abbildung 92 Monitoring System D Grid Sondermittel f r das D Grid Das BMBF hat im Sommer 2007 ebenso wie bereits 2006 Sondermittel f r d
169. Update 50 FunkLAN WLAN 49 Verkabelung Anschluss 49 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 91 5 1 6 bersicht ber die Nutzung des Quick Ticket Systems QT Im Jahr 2007 war die Quick Ticket Anwendung das dritte Jahr in der Hotline in Betrieb Die Motivation f r die Einf hrung war eine bessere m glichst l ckenlose Erfassung und Dokumentation von Beratungsleistungen und Serviceleistungen des First Level Support zu erreichen Auch werden ber LRZ Post eingegangene Anfragen als Quick Ticket aufgenommen und bei Bedarf hieraus ein Trouble Ticket erzeugt 343 Tickets Die Auswertung der Daten der erzeugten Quick Tickets hat eine Statistik erm glicht welche die von der LRZ Hotline und LRZ Beratung erbrachte Beratungsleistung und den Benutzern gegebene Hilfestellung die sich in keinem Trouble Ticket niederschl gt darstellt Damit k nnen eventuelle Schw chen unseres Dienstangebotes aufgezeigt werden die dann durch z B verbesserte Dokumentation andere Verfahrens abl ufe etc behoben werden Im Jahr 2007 wurden insgesamt 4 144 Quick Tickets 2006 3 222 eingetragen davon entfielen auf 2 670 telefonische Beratung 2006 1 548 775 LRZ Post 858 669 Pr senzberatung 780 Zu folgenden Diensten bzw Dienstleistungen wurden die meisten Quick Tickets erzeugt 201 VPN 2006 226 117 Gastkennungen 211 80 Ausdrucke 164 60 Reservierungen 103 45 Verbindungsproblem 85 37 WLAN 67 5 1 7 St
170. Voreinstellung eine zus tzliche Archivkopie auf einem weiteren Magnetband angelegt Somit liegen Archivdateien auf mindestens zwei unterschiedlichen Magnetb n dern Soweit wirtschaftlich sinnvoll machbar wird das Medium der zus tzlichen Archivkopie an einem Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 271 geographisch entfernten Ausweich Rechenzentrum gespeichert um das Risiko eines Datenverlusts weiter zu minimieren Das LRZ beh lt sich vor dieses Konzept im Bedarfsfall nach entsprechender Ank ndi gung zu ndern Da das Kopieren Backup der Archivdaten in ein zweites Rechenzentrum asynchron erfolgt k nnen Verz gerungen bei der Erstellung auftreten in der Regel lt 1 Woche Um einem Daten verlust durch Medienfehler vorzubeugen wird dem Kunden empfohlen Daten nach dem Archivierungs vorgang nicht sofort aus dem eigenen Datenbestand zu l schen sondern die Generierung der Zweitkopie abzuwarten Aufbewahrungsdauer der Backupdaten Von Backup Dateien werden am LRZ per Voreinstellung von jeder Datei bis zu 3 Versionen aufbewahrt Auf Nachfrage kann die Anzahl der Versionen auch erh ht werden Die inaktiven sprich am Client nicht mehr vorhandenen Versionen einer Datei werden nach 6 Monaten automatisch gel scht aktive Versionen werden einzeln nie gel scht Die Lebensdauer der aktiven Versionen richtet sich nach der Lebensdauer des zugeh rigen Nodes 8 Datenschutz Der Node Inhaber erkl rt sich mit der Benutzung des
171. WN weiter Dienst ange boten Der Service ist seit langerem mit guten Erfahrungen innerhalb des LRZ in Benutzung und kann auch von allen Endkunden im MWN ber das LRZ benutzt werden Die hohe Akzeptanz des Service im M nchner Wissenschaftsnetz verdeutlicht die folgende Grafik der Serveranfragen in 2007 weiterf hrende Serviceinformationen siehe http www Irz de services security mwnsus TR et eee ee ee ee Sere unnnnnnnngennn nn nn en sy alls _ 4 ME EEE 4 A visitors unnn nn nun denn nn nn nn nn nn FF nun nn nun nn nn nn de nun nn nn nn nn 0 p 01 01 2007 01 03 2007 01 05 2007 01 07 2007 01 09 2007 01 11 2007 01 01 2008 Date Abbildung 30 Anfragen zum Software Update Service SUS pro Tag in 2007 5 8 2 3 Interne Projektarbeiten Diverse Arbeiten der PC Gruppe dienten auch in 2007 dem Erfahrungs und Know how Gewinn f r an stehende Projekte bzw zuk nftige Entwicklungen Eines der Themen war und ist die Virtualisierung f r Labor aber auch Produktivsysteme Nachdem sich der LRZ weite Einsatz von VMWare ESX abzeichnet wurde f r PC Belange eine VMWare Infrastructu re 3 L sung aufgebaut 132 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Nachdem im vergangenen Jahr eine auf Bart PE basierende Desaster Recovery L sung fiir Desktops ein gef hrt wurde ist in 2007 eine analoge Systemwiederherstellungsinfrastruktur basierend auf Acronis True Image f r ausge
172. We euey JUL LN IBAON IS epelo sesegejeq Sa9IAIOS asnoyu paseg SM X Jd Cc D gt UOMJN soualos YOUN or UOISI AUOD skejay TIV NMW OL NA AE eipay SOIXOld MMM yawayyzqebi l w s 0 euoqyoeg 4 pr j j u Wi N ee y I II em a Pus6sT Tr 4 osoegw4 ddvyen x ozu X 1 NN A i a abei0 s ssew ssa00y youseyy 00LSVIXE 0057SaAXZ N S OWEN tonezijensi 10 18 519 xnu y u qojoH NULL uolezijensi ouoayoe UOHEZIJENSIA wey I qyoeg ZU1 Bunndwg BOULWIOLIId SapoNn zwniuey jend 29 Dunndwog gt aoeds ys p L 099 SOPON zuiniue PENH 44 2002 9002 002 Aiowaw sy gL 6E ZXG00ZE XIV 15s 8109 gz Z 491L 991 00ZpXnIy 16s 8100 9776 0027 XIII IBS 8109967 6uyndwoyg 48 sn J OVI 49 sn 9 7002 euopeu OdH 7002 5002 leuoIbal JdH s 9 sellasx NAI 8L Jojsn y J N S4I4JUNS OL 49 sn 9D SUulTX4d Td XZ s y qe1 L yzs se punes 79 v8gE EI Z H Aeq soyAqeial 0221 sebpupes Lyse o00ss1S ALS Ili Aeq 200 z 3 qw 9 q uoieinbiyuoy Bunndwog euas ZU1 Abbildung 3 Rechnerkonfiguration 24 Teil I Das Dienstleistungsangebot des LRZ 2 3 1 Bereitstellung von Hochleistungsrechenkapazit t 2 3 1 1 Der neue H chstleistungsrechner in Bayern HLRB II SGI Altix 4700 Schon im Dezember 2004 wurde mit der Firma SGI ein Vertrag ber die Lieferung eines S
173. Web Formular Hotline Web http hotline Irz de zur Verf gung Es wird dabei auto matisch ein Trouble Ticket erzeugt wobei ein Mitarbeiter der Hotline noch die Zuordnung von Sachge biet und Zust ndigem vornimmt Der Weg mittels Electronic Mail an die Adresse hotline lrz de ist weiterhin m glich Die Beitr ge werden direkt beantwortet oder an einen Spezialisten bzw Zust ndigen weitergeleitet Zus tzlich dazu kann der Beitrag auch in eine der lokalen News Gruppen z B rz questions eingebracht werden siehe Abschnitt 2 6 3 um Benutzern die M glichkeit zur Diskussion mit anderen Benutzern und dem LRZ zu geben F r Fragen und W nsche zur Softwarebeschaffung gibt es die Adresse lizenzen lrz de Elektronische Post kann auch ganz allgemein f r Briefe an das LRZ genutzt werden Diesem Zweck dient der Sammelbriefkasten mit der Adresse rzpost Irz de Alle an diese Kennung adressierte Post wird t glich kontrolliert und an zust ndige Mitarbeiter weitergeleitet 2 1 3 Kurse Veranstaltungen Vom LRZ werden regelm ig berwiegend w hrend der Semester Benutzerkurse angeboten Sie sind h ufig mit praktischen bungen verbunden und berwiegend so konzipiert dass sie nicht nur f r Benut zer der Rechnersysteme am LRZ sondern f r alle Interessierten n tzlich sind Das Kursangebot orientiert sich vorrangig am Bedarf Typische Themen dieser Kurse sind e Einf hrung in Unix e Systemverwaltung unter Unix am Beispiel v
174. Wege Knoten mit Gigabit Ethernet Interconnect e 64 bit Intel Montecito 8 Wege Knoten mit Gigabit Ethernet Interconnect e 64 bit Intel Itantum2 128 Wege SGI Altix 3700 Bx2 mit propriet rem ccNUMA Interconnect e 64 bit Intel Montecito 256 Wege SGI Altix 4700 mit propriet rem ccNUMA Interconnect 30 Teil I Das Dienstleistungsangebot des LRZ Trotzdem gelingt es dem LRZ durch eine durchg ngige Softwareumgebung diese Unterschiede vor dem Benutzer weitest gehend zu verbergen und mittels geeigneter Steuermechanismem Programme der An wender auf den f r sie am besten geeigneten Teil des Clusters zu leiten Die Ausf hrung paralleler Programme ist hierbei nur auf den Altix Systemen sowie in geringerem Um fang auf dem Itanium basierten Myrinet bzw GE Cluster m glich Alle brigen Systeme werden f r den seriellen Durchsatzbetrieb benutzt Die nominelle theoretische Leistungsf higkeit des Linux Clusters von 13 Teraflop s betr gt etwa ein F nftel der Spitzenrechenleistung des neuen Bundesh chstleistungs rechners HLRB II 2 3 1 2 2 IA64 Cluster Das Itanium basierte Cluster besteht aus zwei Segmenten Zum Einen 16 mit Myrinet vernetzte 4 Wege Knoten zum Anderen 67 mit Gigabit Ethernet vernetzte 2 Wege Knoten Auf beiden Segmenten kann in kleinem bis mittleren Umfang parallel gerechnet werden auf den 2 Wege Knoten wird auch serieller Durchsatzbetrieb gefahren insbesondere f r Programme mit sehr hohem Hauptspeicherbedarf Technisch
175. abe 3 Juni 2007 REINER B WOLF KLOSTERMANN T BABS kooperative Langzeitarchivierung von Bib liothek und Rechenzentrum Workshop Aus der Praxis der Langzeitarchivierung Baye rische Staatsbibliothek Miinchen 11 Mai 2007 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 251 8 10 Promotionen am LRZ Auch 2007 haben wieder einige Mitarbeiter erfolgreich ihr Promotionsvorhaben am LRZ abgeschlossen Folgende Arbeiten entstanden in diesem Zusammenhang e Weinert P Computergest tzte Visualisierung eines Human Embryonalen Gehirns Ludwig Maximilians Universit t M nchen Marz 2007 e Hommel W Architektur und Werkzeugkonzepte f r f deriertes Identit ts Management Disser tation Ludwig Maximilians Universit t M nchen Juli 2007 e Hanemann A Automated IT Service Fault Diagnosis Based on Event Correlation Techniques Ludwig Maximilians Universit t M nchen Juli 2007 e Block A Unsicherheiten in Oberfl chen und Bodenparametern und ihre Auswirkungen auf die Ergebnisse regionaler Klimasituationen Brandenburgische Technische Universit t Cottbus Sep tember 2007 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 253 9 Programmausstattung des LRZ An den Rechnern des Leibniz Rechenzentrums ist ein umfangreiches Angebot an kostenloser und kosten pflichtiger Anwender Software u a aus den folgenden Sachgebieten verf gbar e Chemie e Computer Algebra e Datenbankprogramme e Finite Elemente Ingenieuranwendun
176. aben inzwischen eine ansehnliche Verbreitung gefunden arbeiten mit preiswerten Bandkassetten und sind unkompliziert in der Handhabung Dabei liegt die Aufzeichnungsqualit t bei Digital Video deutlich ber der von S VHS und reicht f r die Belange des Hochschulbetriebs meist v llig aus Insbesondere die digi tale Art der Aufzeichnung pr destinieren DV Material als Basis zur rechnergest tzten Verarbeitung Im Multimedialabor des LRZ stehen den Nutzern daf r zwei DV basierte Videoschnittpl tze zur Verf gung Basis dieser Arbeitspl tze sind Doppelprozessor Macintosh PowerMac G5 und Intel Xeon mit Firewire Schnittstellen IEEE 1394 und den Schnittprogrammen iMovie Final Cut Pro und Adobe Pre miere Eine Reihe von Peripherieger ten erlaubt neben der direkten Verarbeitung von DV Material auch die Ein und Ausgabe unterschiedlicher Medien wie miniDV DVCAM und DVCPRO sowie analoger Formate wie VHS und S VHS Beide Schnittpl tze verf gen ber einen kombinierten DVD CD Brenner Damit k nnen am Video schnittplatz Filme auch auf eine Video DVD gespeichert werden die in handels blichen DVD Spielern wiedergegeben werden kann Mit dem intuitiv zu bedienenden Programm iDVD wird der Inhalt der Vi deo DVD zusammengestellt und das Hauptmen entworfen das die Navigation zu den Filmen oder Film abschnitten erm glicht F r ambitioniertere Projekte steht daneben DVD Studio Pro zur Verf gung das alle M glichkeiten professionellen DVD Authoring
177. abh ngiger Server und f hrt seine eigenen Dienste aus als ob es sich auf einem separaten Rech ner bef nde 64 Teil I Das Dienstleistungsangebot des LRZ F r Linux basierte Server stehen mit VMware und Xen zwei Software Produkte zur Server Virtualisierung zur Verf gung deren Leistungsf higkeit und Eignung f r den produktiven Einsatz im Rahmen dieses Projektes untersucht werden Insbesondere wurde im Berichtsjahr die Eignung dieser Pro dukte f r die Realisierung von produktiven HA L sungen untersucht Aufgrund der vollst ndigen Unters t tzung der Betriebssysteme Microsoft Windows und Linux der Verf gbarkeit von Mechnismen zur zentralen Verwaltung der virtuellen Maschinen sowie der umfangreichen M glichkeiten zur Realisierung von virtualisierten HA L sungen ist mit einem breiteren Produktionseinsatz von VMWare am LRZ in den n chsten Jahren zu rechnen 2 13 2 Identity Management im M nchner Wissenschaftsnetz Die intensive Zusammenarbeit des LRZ mit den Verwaltungen der beiden Universit ten in den Bereichen Identity Management Authentifizierung Autorisierung und Verzeichnisdienste wurde erfolgreich weiter gef hrt Im Hinblick auf die gezielte IT Unterst tzung der universit ren Gesch ftsprozesse mit dem Ziel eines integrierten und benutzerfreundlichen Informationsmanagements wurden 2007 die folgenden Meilen steine erreicht e Im dritten Quartal 2007 wurde die Meta Directory Infrastruktur f r die TUM die vom LRZ im Rah
178. ahr 289 18 F lle stellen nur einen Teil unserer Aktivit ten im Be reich Sicherheit dar Der L wenanteil wird vom Sicherheits Management abgewickelt Bei den hier behandelten F llen fallen zwei der drei Anti Virus Dienste AVD ins Auge Dienstklassifikation Gesamt QT TT AVD gt Sophos Anti Virus 112 87 29 72 45 40 42 AVD gt Sophos remote Update 109 95 15 59 34 50 61 AVD gt Virusbefall 21 19 11 14 13 7 6 Die gezeigten Dienste beziehen sich auf das eingesetzte Anti Viren Programm der Firma Sophos Die tief in das Betriebssystem eingreifende Installation ist immer wieder eine Quelle fiir Probleme auch Fragen zur Handhabung fallen hier an Der zweite Punkt betrifft das Update bei dem Probleme auftreten wenn die Konfiguration nicht stimmt oder wenn es mit der daf r notwendigen VPN Verbindung nicht klappt Beratungen zu wirklichen Infektionen mit Schadprogrammen Viren W rmern Troj Pferden treten dagegen deutlich zur ck e Problembereich Anwendungen Die hier erfassten 316 Vorjahr 199 59 F lle werden vom Dienst Internet Clients gt Mail Clients angef hrt 73 61 20 Dies unterstreicht die im Problembereich Netz Systemdienste un ter Mail aufgef hrten F lle Vermutlich w ren sogar viele der dort aufgef hrten F llen richtiger weise hier anzuordnen gewesen Konfiguration eines E Mail Clients e Bedienung der peripheren Ger te Farblaserdrucker Scanner CD RO
179. alliert um deren Aktualisierung sich die Benutzer nicht zu k mmern brauchen wie sie es auf ihrem Instituts oder Heim PC selbst tun m ssten Dar ber hinaus dienen die Systeme Windows Benutzern im MWN als X Server f r Unix Anwendungen Es ist geplant diesen Dienst der zahlreichen Kunden in 2007 ca 900 verschiedene Kennungen Arbeit abnimmt auch in Zukunft auf kleiner Flamme weiter anzubieten wenn die Nachfrage sich nicht in die eine oder andere Richtung drastisch ndert 2 4 Datenhaltung und Datensicherung Das LRZ hat in zunehmendem Ma e die Aufgabe bernommen in einer heterogenen leistungsm ig breiten und geographisch weit gestreuten IT Landschaft als ein Zentrum f r Datenhaltung zu agieren Die daf r aufgebaute Infrastruktur dient einerseits zur langfristigen zuverl ssigen Aufbewahrung von Daten einer gro en Anzahl kleinerer bis mittlerer Rechner andererseits stellt sie gemeinsamen Speicher f r Universit tseinrichtungen und f r die Ein und Ausgabedaten einer Reihe von Hochleistungssystemen bereit die bayern oder deutschlandweit genutzt werden Das LRZ bietet dazu eine Reihe von Diensten an die dem unterschiedlichen Datenprofil und den ver schiedenen Anforderungen im Zugriffsverhalten der Anwendungen Rechnung tragen Ein erheblicher Teil dieser Dienste wird durch ein leistungsstarkes Archiv und Backupsystem erbracht Es ist das Bestreben des LRZ alle Speicherdienste die von den verschiedensten Plattformen aus genutz
180. alls NumaLink4 Verbindungen zur Verf gung Diese sind jedoch nur als sog Mesh Topologie ausgelegt und weisen damit weniger bertragungsbandbreite auf 28 Teil I Das Dienstleistungsangebot des LRZ 32 6 4 GByte s 204 8 Gbyte s Y N 2 cables per line SKE 9 ZE be a En see ee EREEREER persis tela m aed 19005 Jod srergo 80 2 s q9 en IN IN 1 IN 32 6 4 GByte s 204 8 Gbyte s Abbildung6 NUMALink Interconnect innerhalb einer Partition Inter Partition NUMAlink a Each grey box Bisection Bandwidths per blade pair 512 core partition SSI intra partition 2 0 8 GB s u any 2 vertical partitions 2 0 4 GB s L login B batch 4 partitions 2 0 2 GB s Each line represents assumes only 32 cables used shortest paths 2NUMAlink4 planes with 16 many hops for bad choice gt less bandwidth cables total total system 2 0 1 GB s each cable 2 3 2 GB s ag density partitions share les in each line factor 2 indicates per direction Abbildung 7 _Inter Partition NUMALink Interconnect Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 29 2 3 1 2 Das Linux Cluster 2 3 1 2 1 Zeitliche Entwicklung und berblick Schon im Jahr 1999 war begonnen worden ein kleines Linux Cluster mit Fast Ethernet und Myrinet Vernetzung am LRZ aufzubauen Die durchwegs positiven Erfahrungen des LRZ mit dem Betrieb und der Leistungsf higkeit des Clusters
181. als Schnittstelle zu den weiteren organisatorischen Einheiten des Kunden Die Notwendigkeit eines zweistufigen Managementmodells mit einer vom Kunden gestellten Betreuung der Arbeitsplatzsysteme und Endbenutzer ergibt sich schon allein aus der r umlichen Ausdehnung des M nchner Wissenschaftsnetzes und den begrenzten Personalressourcen in der Gruppe Desktop Management die diese Services betreut Es ist nicht m glich als Standarddienstleistung LRZ Personal zur Verwaltung von Arbeitsplatzrechnern oder zur Problembehebung jeweils vor Ort zu schicken Im Einzelnen zeigte sich bei den diversen Projekten in diesem Betriebsmodell Die LRZ Windows Server f r Active Directory Dom nencontroler Softwareupdates Anti Viren Update und Druckerverwaltung konnten die zus tzlichen Benutzer Client PCs und Drucker per formant zus tzlich versorgen Analoges gilt f r die Fileservices Network Attached Storage Systeme die als Member Server in die Windowsdom ne eingef gt werden verrichten ihren Dienst ebenfalls performant Die Stabilit t des Systems zu blichen Nutzungszeiten ist sehr gut Durch das pers nliche Enga gement der Mitarbeiter k nnen Netz und Systemwartungen an den Servern zumeist au erhalb der Nutzungszeiten bzw in Absprache mit den Betreuern durchgef hrt werden Eine geringere lokale Flexibilit t f r nderungen an den Arbeitspl tzen ergibt sich wegen der er forderlichen Einhaltung von Richtlinien und Abl ufen Softw
182. ampus Lizenz f r das MWN aus e Sonstiges e Nyx ein Werkzeug zur Korrelation von IP Adresse und Switchport eines Rechners anhand seiner MAC Adresse wurde weiterentwickelt Damit werden Netzverantwortliche dabei unterst tzt auf f llige Rechner in ihrem Zust ndigkeitsbereich z gig zu lokalisieren Dar ber hinaus ist die zeitna he Zuordnung von IP Adresse Switchport notwendige Voraussetzung f r den zuk nftigen Betrieb eines Quarant nenetzes e Export von Netflow Daten auf den MWN Routern Sammeln der Daten auf einem dedizierten Kol lektor und automatische Analyse der Daten siehe Monitoring Accounting e Regelm ige Verteilung sicherheitsrelevanter Informationen an die Netzverantwortlichen e St ndige Software Aktualisierung aller aktiven Netzkomponenten Router Switches im MWN im Hinblick auf m gliche Sicherheitsl cken 7 4 3 Accounting am X WiN Zugang Ein Accounting im engeren Sinne wird nicht durchgef hrt da die Finanzierung der X WiN Anbindung nicht volumenabh ngig ist Dennoch wird am X WiN Zugang ermittelt wie sich der ein und ausgehende Datenverkehr zusammensetzt Anhand einer Kopie des X WiN Verkehrs werden die Top Verursacher des Ingress und Outgress Datenvolumens herausgefiltert Dies geschieht in unterschiedlichen Zeitinter vallen und sowohl f r Subnetze als auch f r einzelne Rechner Das Ergebnis ist ber eine Web Schnittstelle zug nglich Diese Daten dienen sowohl dem Netz Management als auch dem Monit
183. ang zu den Ressourcen regeln soll Das LRZ ist als GCS Partner in das europ ische Konsortium PRACE Partnership for Advanced Computing in Europe einge bunden das sich aufgrund eines EU Projektes im siebten Rahmenprogramm zum Ziel gemacht hat f r die Einrichtung eines ESFRI HPC Infrastrukturdienstes ein European HPC Ecosystem aufzubauen 17 L nder haben das Konsortialabkommen unterzeichnet das Gau Zentrum und damit auch das LRZ geh rt zu den sog Principal Partners also den Kandidaten f r einen Standort eines europ ischen HPC Zentrums Als nationales H chstleistungsrechenzentrum ist das LRZ konform mit den Absichten der bayerischen Staatsregierung bestrebt alle Voraussetzungen f r ein europ isches H chstleistungsrechenzentrum zu schaffen Das LRZ bem hte sich deshalb sp testens seit Anfang 2007 intensiv die infrastrukturellen He rausforderungen an ein zuk nftiges Petaflop H chstleistungsrechenzentrum zu eruieren Dazu fanden etliche Gespr che mit allen potenziellen einschl gigen Systemlieferanten z B IBM Cray HP Intel SGI statt Sofort nach Bekanntwerden der doch erheblich ber die M glichkeiten des jetzigen LRZ Neubaus hinausgehenden Anforderungen zu Energie und K hlung f r ein zuk nftiges HPC System der Petaflops Klasse einerseits und der unerwartet hohen zus tzlichen Nachfrage nach Server Hosting an dererseits wurde mit LRZ Schreiben vom 16 08 2007 zum fr hest m glichen Zeitpunkt das Ministeri
184. angen werden konnte 5 7 Einsatz von Linux und Solaris Die T tigkeiten im Bereich der Server Dienste zeichnen sich auch im Jahre 2007 vor allem durch die st ndigen Arbeiten aus die zur Aufrechterhaltung eines stabilen Betriebes notwendig sind Diese Aussage gilt unabh ngig vom Typ des Betriebssystems das benutzt wird Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 127 5 7 1 Linux Serversysteme Im aktuellen Berichtsjahr wurde die Fernwartungs Funktionalit t der Linux Serverinfrastruktur weiter ausgebaut und vervollst ndigt Viel Koordinationsaufwand und vorbereitende Tests waren auch f r den Rollout von SLES10 SP1 auf den Serversystemen im Herbst n tig Motiviert von einem m glichst schonenden und nachhaltigen Umgang mit Energie und Hardwareres sourcen als auch getrieben von einer schon nach eineinhalb Jahren nach dem Bezug des LRZ Neubaus zunehmenden Knappheit von Energie K hlungs und Stellplatzreserven im Netz und Serverraum NSR wurde Ende dieses Jahres mit der Einf hrung von VMware Infrastructure 3 als plattform bergreifende L sung f r Servervirtualisierung am LRZ begonnen Durch den verst rkten Einsatz von Virtualisierung im Serverberich sollen in den n chsten Jahren vor allem folgende Ziele erreicht werden 1 Eine deutliche Reduzierung der f r den Betrieb der LRZ Serverinfrastruktur ben tigten Energie und Stellplatzressourcen 2 Die schnelle Provisionierung von neuen Serverinstanzen 3 Bereitstellun
185. annt e den st ndigen Sekret r der Kommission f r Informatik der Bayerischen Akademie der Wissenschaf ten kraft Amt e den Vorsitzenden des Direktoriums des LRZ kraft Amt e den Sprecher des KONWIHR kraft Amt e den Vertreter der nicht M nchener Hochschulen in der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften kraft Amt e einen Vertreter bayerischer Wissenschaftler von der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften benannt e sechs Vertreter au erbayerischer Wissenschaftler von der DFG benannt Die letztgenannten acht Wissenschaftler sollen Repr sentanten der wichtigsten Anwendungsgebiete des HLRB sein Die Mitglieder des Lenkungsausschusses werden f r 2 Jahre benannt eine neuerliche Benennung ist m glich 3 Verfahren Der Lenkungsausschuss trifft sich mindestens einmal j hrlich Er ist beschlussf hig wenn mehr als die H lfte seiner Mitglieder anwesend sind Beschl sse bed rfen der Mehrheit der anwesenden Mitglieder Das Stimmgewicht ist gleichm ig auf die Mitglieder des Ausschusses verteilt Der Lenkungsausschuss w hlt aus seiner Mitte einen Vorsitzenden und dessen Stellvertreter f r 2 Jahre Eine Wiederwahl ist m glich 3 Begutachtung von Projekten 1 Aufgaben Der Zweck der Begutachtung von Projekten durch den Lenkungsausschuss ist die Entscheidung ber die Genehmigung von Projekten f r den HLRB und die Festlegung von Rechnerressourcen Ja
186. antwortli chen Mitarbeitern Das LRZ wird hier eine einfach zu bedienende sichere und zentral administrierte Al ternative anbieten Durch eine enge Kopplung mit Verzeichnisdiensten wird jeder Mitarbeiter und Studie rende sowohl ber pers nlichen Speicherplatz wie auch ber den Zugang zu Projektablagen verf gen Gemeinsamer Projektspeicherplatz erm glicht eine sehr beliebte Art der Kooperation zwischen verschie denen Einheiten die bisher wegen der dezentralen Strukturen nicht m glich war Weiteres Ziel ist die Versorgung anderer hochschulweiter Dienste mit sicherem hochverf gbarem Speicherplatz Innerhalb des Projekts IntegraTUM das Ende 2004 als Kooperation zwischen LRZ und TUM gestartet wurde wurden 2007 die technischen Grundlagen und Randbedingungen f r eine hochschulweite Bereit stellung von Speicher weiter evaluiert e Da Microsoft Exchange f r die gesamte TUM eingef hrt werden und vom LRZ betreiben werden soll wurde das Mail System f r erste Pilotkunden am LRZ installiert und evaluiert Die Datenbasis liegt dabei auf einem NAS Filer und ist ber iSCSI angebunden Zus tzlich wurden mehrere Tools von Netapp f r eine vereinfachte Administration getestet e Eine Datenkomprimierungs Appliance wurde evaluiert Da nur ein recht geringer Komprimierungs faktor erreicht wurde ist das Einsparungspotential nicht ausreichend um eine komplexere Infrastruk tur zu rechtfertigen e Untersuchung der Datendeduplizierung Funktionalit t A S
187. arametric Technology insbesondere des CAD CAM Systems Pro Engineer SamplePower Zusatzprogramm zu SPSS Sch tzung der Stichprobengr e SAS Datenmanagementpaket einschlie lich Statistik Aktuell ist nach wie vor Version 9 13 Scientific Word Scientific WYSIWYG Oberfl che f r LaTeX mit Maple Kernel Bisher nur WorkPlace Einzelplatzlizenzen Erweiterung auf floating licenses geplant Erneute Vertragsverl ngerung Ende 2007 um ein Jahr Sense8 Campusprogramm zum Bezug der Sense8 Produkte WorldToolKit WorldUp und World2World zur Entwicklung von Virtual Reality Anwendungen SGI Varsity Campusprogramm von Silicon Graphics mit Systemsoftware Upda tes NFS Compilern Entwicklungstools Graphik und Multime diaprogrammen Sophos landesweiter Rahmenvertrag im Februar 2007 um 5 Jahre verl n gert Auch der Einsatz am h uslichen PC ist f r den bezugsberech tigten Personenkreis enthalten Deckt auch die kostenfreie Nutzung aller Komponenten des Produktes PureMessage ab Personal Fire wall nicht im Rahmenvertrag enthalten SPSS Statistisches Programmsystem Seit Juni 2006 Landesvertrag In 2007 ca 4000 Lizenzen SPSS Science Diverse Programme rund um die Statistik z B SigmaPlot Table Curve aber ohne SPSS selbst bundesweit g ltiges Lizenzprog ramm StarOffice Programmpaket zur Textverarbeitung Tabellenkalkulation Grafik und Pr sentation Sun Software Betriebssystem Wartung und diverse Software f r Sun Work
188. archiv erfolgen 2 5 Software Angebot 2 5 1 Programmangebot auf LRZ Rechnern Basis f r die Nutzung der am LRZ eingesetzten Rechensysteme bilden die verschiedenen einf hrenden LRZ Beitr ge unter www Irz de services compute Hier ist das Wichtigste f r das Arbeiten mit den Hoch leistungssystemen unter verschiedenen Varianten des Betriebssystems Unix wie SGI Altix unter Linux und dem Linux Cluster zusammengestellt Um einen vielseitigen Einsatz der Rechner zu erm glichen stehen Dienstprogramme der Betriebssyste me bersetzer f r Programmiersprachen Programmbibliotheken und zahlreiche Anwendungspakete zur Verf gung Der Beitrag www Irz de services software enth lt eine Zusammenstellung aller an LRZ Systemen vorhandenen Programme mit Hinweisen auf das Einsatzgebiet die Verf gbarkeit unter den verschiedenen Betriebssystemen und Verweisen auf weiterf hrende detaillierte Dokumentationen die teilweise auch in gedruckter Form vorliegen siehe www Irz de services schriften Die Software an den verschiedenen Unix Rechnern des LRZ umfasst folgende Gebiete jeweils mit eini gen typischen Produkten e Compiler f r Fortran C und C Intel Portland Group e Numerische und statistische Unterprogrammbibliotheken BLAS LAPACK NAG e Finite Elemente Methoden NASTRAN ANSYS CFX e Chemische Anwendungsprogramme GAUSSIAN MOLPRO AMBER e Graphik Visualisierung Amira Ensight Paraview Patran e Textverarbeitung LaTeX
189. ard Waener Str 18 M Stammeel nde Pr sidialbereich M Stammeel nde M Stammeel nde Audimax M Stammsel nde Cafeteria M Stammeel nde Architekturfakultat M Stammeel nde Architekturmuseum M Stammeel nde Bauinformatik M Stammeelande Fak Bauingenieurwesen M Stammeel nde Bauklimatik und Haustechnik M Stammeel nde Betriebswirtschaft M Stammeel nde Bibliothek M Stammsel nde Bildnerisches Gestalten M Stammeel nde Datenverarbeitung M Stammeel nde Datenverarbeitung Eikon Turm M Stammeel nde Entwurfsautomatisierung M Stammeelande Fachschaft Architektur M Stammeel nde Geod sie M Stammeel nde Hvdraulik und Gew sserkunde M Stammeel nde Kommunikationsnetze M Stammsel nde LMU Geogranhie M Stammeel nde STAR Tmunich e V Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 201 Ludwigstr 29 Ludwigstr 31 TUM Stammsel nde Theresianum TUM Stammsel nde Wasserbau Wasserwirtschaft Ludwiestr 33 TUM Stammeel nde Wirtschaftswissenschaften Luisenstr 37 TUM Weihenstenhan Altes Molkereigeb ude Martinsried Biozentrum TUM Weihenstenhan Bibliotheksgeb ude Martiusstr 4 TUM Weihenstephan Biologie der Lebensmittel Meiserstr 10 Arch ologie TUM Weihenstevhan Biowissenschaften Menzinger Stra e 67 TUM Weihenstenhan Bodenkunde Geb ude 217 Oberschlei heim Klauentierklinik TUM Weihenstephan Botanik Oberschlei heim Schleicherbau TUM Weihenstephan Braufakult t Geb ude 112 Oberschlei heim Vogelklinik TUM
190. are sowie drastisch reduzierte Fehlerraten im NUMALink Netzwerk zur ckf hren l sst HLRB Il Verf gbarkeit 22 Sept 2006 31 Dez 2007 Upgrade auf Phase 2 100 00 90 00 80 00 o I 70 00 DO 60 00 50 00 G i o Q 40 00 5 E 30 00 L 20 00 gt E HLRB II nicht verf gbar 10 00 HLRB II verf gbar 0 00 22 09 2006 22 10 2006 22 11 2006 22 12 2006 22 01 2007 22 03 2007 22 05 2007 22 10 2007 22 11 2007 22 12 2007 22 02 2007 22 04 2007 22 06 2007 22 07 2007 22 08 2007 22 09 2007 Abbildung 33 bersicht ber die Verf gbarkeit des HLRB II Phase 1 2 SGI Altix 4700 Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 143 Der HLRB II Phase 2 war seit Aufnahme des vollen Benutzerbetriebs zu 95 7 fiir den Benutzerbetrieb verf gbar wobei als Hauptursachen f r etwaige Nichtverf gbarkeiten des Systems vorher angek ndigte und geplante Systemwartungen 1 53 eine Fortpflanzung von Systemfehlern ber das NumaLink4 Netzwerk 0 84 sowie fehlerhafte RAID Firmware 0 81 zu nennen sind siehe Abbildung 34 Gr ere Betriebsprobleme gab es im Berichtszeitraum auch durch eine fehlerhafte Berechnung der von Benutzerprogrammen belegten Speicherseiten seitens des Linux Betriebssystems sowie an Hand von Softwarefehlern im Stapelverarbeitungssystem PBSPro Die Hauptursache f r die Fehlerfortpflanzung ber das NumaLink4 Netzwerk wurde noch Ende Dezem ber von sgi durch einen Kernelupdate b
191. areinstallationen m ssen z B die Benutzerverwaltung ber cksichtigen Administrative Rechte werden lokalen Benutzern blicher weise entzogen Der Betrieb neu aufgesetzter B roarbeitspl tze mit einem eingeschr nkten Softwareportfolio BAdW Verwaltung ist in diesem Modell naturgem sehr viel einfacher zu bewerkstelligen als die nachtr gliche Integration eines bereits in Produktion befindlichen Pools TUM Sport Der Initialaufwand der berf hrung eines vorhandenen Systems in das neue Betriebskonzept ist f r beide Partner hoch Der Betriebsaufwand f r den LRZ Kunden reduziert sich gegen ber einer vollst ndig eigenen L sung zur Laufzeit aber betr chtlich Der Vor Ort Betreuer kann diese Zeit in Kundenkontakt und verbesserte Systempflege investieren also in eine Qualit tssteigerung des Services Die Qualit t Stabilit t Performance Sicherheit und der Umfang der Serviceleistungen Benut zerverwaltung Fileablage f r Projekte Druckeraccounting Backup Archiv k nnen gegen ber Eigenl sungen meist deutlich gesteigert werden Die Akzeptanz und Leistungsf higkeit des Gesamtsystems h ngt entscheidend von der Qualit t und dem Engagement der Vor Ort Betreuung ab Diese Funktion als PC Systemverwalter und als Schnittstelle zum Endkunden sowie den weiteren organisatorischen Einheiten des Kunden ist sei tens des LRZ unverzichtbare Voraussetzung dieses Betriebsmodells Es fehlt eine Kosten und Leistungsrechnung mit
192. arsatip Tarahsl e Abbildung 45 bersichtskarte ber die DEISA Systeme in Europa 6 2 2 3 DEISA Accounting und DART Um die von den Benutzern verbrauchte Rechenzeit auf den verteilten DEISA Systemen erfassen und abrechnen zu k nnen wurde ein verteiltes Accounting System entwickelt das die Verbrauchsdaten an Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 163 den einzelnen Sites einsammelt und den anderen Sites zug nglich macht W hrend eines Praxissemesters am LRZ realisierte ein Student an der Hochschule f r angewandte Wissenschaften M nchen die Anbin dung des DEISA Accounting Tools an das lokale auf den Rohdaten des HLRB II Batchsystems basie rende Accounting System des LRZ Dazu war es notwendig die Daten in das vom Open Grid Forum entwickelte Standardformat OGF Usage Records OGF UR umzuwandeln sowie eine XML Datenbank aufzusetzen zu bef llen und mit den Datenbanken an den anderen Sites zu koordinieren Um diese Daten auch den Benutzern zur Verf gung zu stellen wurde ein Software Tool ben tigt das diese verteilten Accounting Daten von den verschiedenen Sites zusammenf hrt und f r den jeweiligen Benutzer ma geschneidert aufbereitet Das DEISA Accounting Report Tool DART wurde im Rahmen einer Bachelorarbeit entworfen und implementiert Vier Monate lang erfolgte diese Arbeit am niederl n dischen Rechenzentrum SARA Computing and Networking Services in Amsterdam wo das Tool in Ab stimmung mit den dort ans ss
193. asst wurde Die Qualit t des dahinter stehenden Konzepts und der Implementierung u ert sich in der f r das IT Umfeld extrem hohen Lebensdauer und der Anwendbarkeit auch auf modernste Rechnerplattformen 106 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Trotzdem haben sich mittlerweile viele neue Anforderungen ergeben die umfangreiche Anderungen an der Benutzerverwaltung notwendig gemacht hatten Einige Beispiele Die bisherige ZBV W ist nur zur Verwaltung der Kennungen f r Rechner Plattformen nicht aber f r die anderen Dienste des LRZ beispielsweise Mail und TSM Backup geeignet Diese Dienste setzen mittlerweile eigene Benutzerverwaltungen ein wodurch es technisch zu Redundanzen und Inkonsis tenzen kommt organisatorisch zu erh htem Aufwand durch die Mehrfachregistrierung der Benutzer sowohl auf Kunden als auch auf LRZ Seite Zum Datenaustausch mit externen Benutzerdatenbest nden beispielsweise denen der LMU und TUM fehlen LRZ seitig Standard Schnittstellen wie LDAP oder SQL wodurch auf beiden Seiten aufwendige Speziall sungen realisiert werden m ssen In der bisherigen ZBVW ist es erforderlich Benutzer bzw deren Organisationen oder Einrichtungen in ein starres hierarchisches Schema einzuordnen das f r den M nchner Raum von 1975 konzipiert worden war Deshalb mussten beispielsweise f r die aus ganz Deutschland stammenden Benutzer des H chstleistungsrechners SR8000 Sonderl sungen gefunden werden
194. ateisysteme Die Herstellung einer einheitlichen Umgebung ber unterschiedliche Systeme hinweg erfordert den Be trieb zahlreicher Server die vom Endbenutzer i d R nicht wahrgenommen werden Die hier genannten Server sind logische Instanzen Manche von ihnen erfordern einen eigenen Rechner manche dagegen sind zusammen mit anderen einem einzigen Rechner zugeordnet schlie lich sind wieder andere auf meh rere Rechner verteilt Das Konzept des Zugriffs auf gemeinsame Daten wird praktisch an allen Servern angewandt siehe Abschnitt 2 4 1 Benutzerverwaltung Die f r alle Plattformen gemeinsame Benutzerverwaltung erfordert die Installation von Servern mit denen die zentral gehaltenen Daten auf die einzelnen Rechnerplattformen verteilt werden Radius Proxy F r Benutzer die sich ber W hlmodem FunkLAN oder vorgegebene Datendosen einw hlen ist es nicht erforderlich dass sie an einem Rechner des LRZ bekannt d h mit Benutzernummer und Pass wort registriert sind es gen gt wenn das an einem Rechner im MWN der Fall ist dessen Betreiber eine entsprechende Abmachung mit dem LRZ getroffen haben Der Radius Proxy vermittelt zwi schen dem Einwahlserver und dem Rechner an dem sich der Benutzer ausweist Paketfilter Firewall Zwischen Subnetzen mit unterschiedlichen Sicherheitsanforderungen oder mit unterschiedlicher Zu g nglichkeit von au en sollen nur solche Datenpakete ausgetauscht werden die zu zugelassenen Jahresbericht 20
195. atensteckdosen ohne Zustim mung des LRZ betrieben werden e Erweiterungen ohne Abstimmung mit dem LRZ erfolgen Bei Beschwerden von Benutzern entscheidet die Kommission f r Informatik der Bayerischen Akademie der Wissenschaften soweit sie nicht vom Direktorium des LRZ geregelt werden k nnen Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 269 Anhang 6 Richtlinien zur Nutzung des Archiv und Backupsystems 01 03 2008 Basisversion 1 6 F r die Nutzung des Archiv und Backupsystems ABS des Leibniz Rechenzentrums zur Datensiche rung Archivierung lt 10 Jahre und Langzeitarchivierung gt 10 Jahre von Daten gelten die folgenden Richtlinien 1 Allgemeine Bestimmungen Es gelten die Benutzungsrichtlinien f r Informationsverarbeitungssysteme _ http www lrz muenchen de wir regelwerk benutzungsrichtlinien des LRZ 2 Kosten Der Service ist bis auf weiteres f r den Benutzerkreis des LRZ der Aufgabengruppe 1 siehe http www Irz muenchen de wir regelwerk gebuehren kostenlos Das LRZ beh lt sich vor in der Zu kunft f r die Nutzung des Archiv und Backupsystems Geb hren zu erheben und oder den Umfang der Nutzung einzuschr nken F r den nicht in Aufgabengruppe 1 liegenden Benutzerkreis ist es gegebenen falls m glich Sondervereinbarungen zu treffen Hierbei werden Geb hren gem des aktuell g ltigen Kostenmodells erhoben Geb hrenordnung auf Anfrage erh ltlich Es gelten insbesondere die Pflichten des Kun
196. ationfilter am Beameraus gang filtern das Licht wobei die Polarisationsebenen der beiden Beamer zueinander um 90 Grad gedreht sind Die Polarisationsbrillen der Betrachter sorgen schlie lich daf r dass die korrekte Ansicht der Vir tual Reality Szene vom linken bzw rechten Auge wahrgenommen wird Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 55 Die beiden kompakten leistungsstarken Christie DS 26 Beamer sind in einem Tandemgestell montiert das komplett mit Polarisationsfiltern und Brillen in einem stabilen Transportkoffer Platz findet Die pola risationserhaltende Leinwand ist einrollbar und steckt zum Transport ebenfalls in einem robusten Metall geh use 2 8 84 Head Mounted Display Mit dem Head Mounted Display HMD Triviso 3Scope V1 wird das Angebot des LRZs zur 3 D Darstellung von Virtual Reality Szenarien sinnvoll erg nzt Bei einem HMD wird die Darstellung einer Szene f r das linke und rechte Auge getrennt auf zwei kleine TFT Displays ausgegeben die mithilfe ei ner helm hnlichen Vorrichtung in kurzem Abstand vor den Augen des Betrachters positioniert sind Diese Art der Visualisierung blendet die real existierende Umgebung visuell aus was zum Beispiel bei verhal tenspsychologischen Experimenten von Nutzen ist Das HMD ist vor allem portabel d h auch in Institu ten einsetzbar 2 9 Betrieb von Netz Rechnern und Serversystemen 2 9 1 Netzkomponenten und Rechenanlagen Offensichtliche Aufgaben eines wissensc
197. ationsergebnisse vereinfacht und beschleunigt Die sehr hohe Grafikleistung wird durch zwei Nvidia Quadroplex Einheiten mit insgesamt vier Quadro FX5500 Grafikkarten erreicht Im Gegensatz zu herk mmlichen Visualisierungsl sungen kann diese Gra fik Leistung auch remote genutzt werden d h von einem Standard PC aus der ber das Netz mit dem Grafik Server verbunden ist Aufgrund der enormen Datenraten die mit 3D Grafik verbunden sind ist dies an sich nur mit sehr schnellen Netzverbindungen m glich Die auf dem Server benutzten Kompressi onstechniken VirtualGL reduzieren den Datenstrom jedoch so stark dass bei einer moderaten Daten rate von nur 20 30 MBit s der Bildschirminhalt praktisch verlustfrei bertragen werden kann Selbst ber normale DSL Leitungen kann noch gearbeitet werden wenn man gewisse Einschr nkungen in der Bild qualit t und wiederholrate in Kauf nimmt Neben der hohen Grafikleistung besteht ein weiterer Vorteil des Systems darin dass der Endanwender auf diesem System auf eine Reihe hochwertiger und deshalb auch leider sehr teurer Softwarepakete zur Visualisierung zugreifen kann AVS DESKTOP PC a a a co Lu Ic zu oo GRAPHICS DRIVER f UNCOMPRESSED 2D IMAGES 60 MBYTE S TURBOVNC VIEWER 3D DATA COMMANDS 2D UP TO 4 GBYTE S b gt 2D COMPRESSED 2D IMAGES GUI OPENGL TURBOVNC THIES APPLICATION SERVER MOUSE KBD EVENTS Abbildung 50 Prinzip der Remote Visualisierung
198. ationsser vices abgesch tzt werden Die Umsetzung dieses Gesch ftsmodells erfolgt seit 2001 In 2003 wurde mit diversen Pilotprojekten die Grundlage f r eine Verlagerung des Schwerpunktes von reinen Beratungsleistungen hin zu kompletten Serviceangeboten im Bereich Remote Desktop Management gelegt In 2004 wurden diese Piloten in Produktionsbetrieb berf hrt und mit der Erfahrung aus den Pilotprojek ten heraus zus tzliche Schwerpunkte in der effizienten Organisation des Service Management gesetzt In 2005 wurde die Implementation der Services erneut konsolidiert insbesondere mit Hilfe virtualisierter Systeme und nicht zuletzt vor dem Hintergrund der Umzugsplanung nach Garching Der Kundenkreis f r Desktop Management Services konnte wiederum erweitert werden hat mittlerweile allerdings eine kriti sche Gr e erreicht Die Besch ftigung mit sog Best Practice Verfahren im Servicemanagement wie der IT Infrastructure Library ITIL und den zugeh rigen Werkzeugen aus dem Microsoft Solutions und Operations Frame work MSF MOF ergibt sich zwangsl ufig aus dem Druck nach h herer Effizienz der Arbeit und Quali t t der Dienstleistungen Nat rlich macht es wenig Sinn diese Denkweisen und Verfahren nur isoliert in einer Gruppe umzusetzen deren Serviceportfolio von vielen hausweiten Zulieferdiensten abh ngt Eine Umsetzung von solchen Best Practice L sungen kann langfristig nur mit einem hausweiten Ansatz erfol gen wa
199. auch f r andere Veranstaltungen genutzt Softwarefirmen hatten die Gelegen heit neue Produkte bzw neue Versionen bekannter Produkte zu pr sentieren Dabei standen Beispiele f r die Nutzung in Forschung und Lehre im Vordergrund Ein herausragendes Beispiel war ein Kurs der Fa National Instruments zur Nutzung der Labor und Messtechniksoftware LabVIEW Bei diesem Kurs stellte das LRZ die gesamte Infrastruktur wobei einige Softwarekomponenten zus tzlich auf die Klas senraum PCs gebracht werden mussten und die Fa National Instruments steuerte den Referenten bei Die Veranstaltung war ein voller Erfolg Die Nutzung der hervorragenden r umlichen und seminartechni schen Voraussetzungen beim LRZ in dieser Richtung wird fortgesetzt In den folgenden statistischen bersichten sind solche singul ren Ereignisse allerdings nicht sichtbar Hervorgehoben werden sollte dass das Kursprogramm im Umfeld des Hochleistungsrechnens naturge m besonderen Zuspruch fand Hier ist dar ber hinaus erw hnenswert dass dank Video bertragung auch Interessenten teilnehmen konnten die vom eigentlichen Ort des Geschehens r umlich entfernt war en Kurse zu PCs und PC Software 2007 Dauer Anzahl Stunden Teilnehmer Teilnehmer Kurstitel Stunden Kurse insgesamt angemeldet teilgenommen Textverarbeitung mit Word 2003 im Herbst mit Version 2007 Kompaktkurs 2 2 4 70 58 Word 200
200. auf neue interdisziplin re Studieng nge und Projekte wird eine hoch schulweit zug ngliche Dateiablage die Zusammenarbeit f r Wissenschaftler wesentlich erleichtern und auch Studenten einen einfachen Zugang zu ihren Daten auf dem gesamten Campus bieten Im Vergleich zu E Mail und Groupware Systemen sind Dateidienste gerade bei gro en maschinell er zeugten Daten wie Bildern Sensordaten oder CAD Zeichnungen ein sehr einfacher und bei Benut zern sehr beliebter Weg f r den Datenaustausch Ein solcher Dienst kann jedoch nur auf der Ebene der gesamten Hochschule sinnvoll implementiert werden e Sicherheit digitaler Daten und Dokumente Dokumente Daten und Ergebnisse aus Projekten in Forschung und Lehre liegen oft nur noch in digitaler Form vor und unterliegen dazu Anforderungen an die Dauerhaftigkeit der Aufbewahrung im Rahmen der Regeln guter wissenschaftlicher Praxis So fordert etwa die DFG f r alle von ihr gef rderten Projekte eine 10 j hrige Aufbewahrung von wissenschaftlichen Prim rdaten W hrend das LRZ Backup und Archivdienste f r Serverbetreiber im M nchner Hochschulumfeld anbietet werden derzeit in der Regel keine Einzelbenutzer wie Stu denten oder einzelne Mitarbeiter versorgt Das geplante System wird diese L cke schlie en e Entlastung wissenschaftlicher Mitarbeiter Die Systembetreuung dezentraler Systeme wird oft von wissenschaftlichen Mitarbeitern auf Zeitstellen nebenbei erledigt was gerade im Bereich der Da t
201. auf verschiedenen Rechnerarchitekturen auf ihre Eig nung getestet werden Die anderen Rechenzentren werden in allen Fragen unterst tzt die den HLRB Betrieb betreffen Schlie lich obliegt es der Betreuergruppe in Zusammenarbeit mit dem Kompetenznetzwerk regelm ige Berichte ber die Arbeiten am HLRB zu erstellen 2 System und Rechnerbetrieb Der Gruppe Hochleistungssysteme obliegt die Einstellung der Betriebsparameter und die laufende ber wachung des Betriebs Die sorgf ltige Durchf hrung der operativen Aufgaben ist f r einen effizienten Betrieb unerl sslich und zahlt sich durch optimale Ressourcen Nutzung aus Es fallen im Einzelnen folgende Aufgaben an e Das LRZ stellt R umlichkeiten Energie Klimatisierung K hlung und die Kommunikationsnetz Anbindung zur Verf gung e Das LRZ betreibt und administriert den HLRB eigenverantwortlich nach den vom Lenkungsaus schuss erlassenen Regeln Dazu geh ren Betriebsplanung Rechnerkonfiguration Betriebsmodelle Konzepte zum optimalen Betriebsablauf Konzepte zur Betriebssteuerung Blockbetrieb Stapelbetrieb Interaktivbetrieb Warteschlangen verwaltung Konfigurationsmanagement Engpass Analysen Planung und Realisierung von Erweiterungsbeschaf fungen wie der 2 Ausbaustufe des HLRB Administration und Operating 24 Stunden Betrieb Technische Realisierung und Uberwachung der Betriebsvorgaben Fehlerverfolgung und behebung Gew hrl
202. aus dem Bereich der Forschung und Lehre an anderen bayerischen Hochschulen die berwiegend aus Mitteln dieser Einrichtungen oder aus Zuwendungen des Bundes eines Landes der DFG oder der Stiftung Volkswagenwerk finanziert werden Aufgabengruppe 3 Aufgaben aus dem Bereich der Forschung und Lehre an nichtbayerischen Hochschulen und an anderen Einrichtungen Die Aufgaben werden berwiegend aus ffentlichen Mitteln oder aus Mitteln der Max Planck Institute finanziert Aufgabengruppe 4 Aufgaben aus dem Bereich der Forschung und Lehre die nicht aus ffentlichen Mitteln finanziert werden Es liegt ein ffentliches Interesse zur Durchf hrung dieser Aufgaben vor Aufgabengruppe 5 Sonstige Aufgaben Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 377 Anhang 8 Zuordnung von Einrichtungen zu LRZ Betreuern ab 01 01 2008 Institution bzw Fakult t Betreuer TUM Mathematik und Informatik Heilmaier Physik Heilmaier Chemie Heilmaier Wirtschafts und Sozialwissenschaften Weidner Bauingenieur und Vermessungswesen Weidner Architektur Weidner Maschinenwesen Weidner Elektrotechnik und Informationstechnik Weidner Wissenschaftszentrum Weihenstephan Weidner f r Ern hrung Landnutzung und Umwelt Medizin Leschhorn Sportwissenschaft Weidner Verwaltung und Zentralbereich Schr der LMU Katholische Theologie Schr der Evangelische Theologie Schr der Juristische Fakult t Schr der Betriebswirtschaft Schr der Volkswirtschaft Schr
203. b ge nommen Nach Inbetriebnahme der neuen Rechen und Speichersysteme werden den Linux Cluster Nutzern insgesamt 3574 Prozessor Kerne mit einer Spitzenleistung von 22 7 TFlop s sowie 486 TByte an Hintergrundspeicher zur Verf gung stehen Gr ere nderungen am Linux Cluster umfassten dar ber hinaus e die Inbetriebnahme von insgesamt 47 EM64T Opteron Systemen f r die D Grid Community e die Inbetriebnahme eines 256 Core SGI Altix 4700 e die Inbetriebnahme von 17 Opteron basierten Compute Systemen und 10 Opteron basierten dCa che Servern f r das LCG ATLAS Tier 2 Zentrum am LRZ e die Inbetriebnahme eines neuen hochverf gbaren parallelen Dateisystems Lustre mit 51 TByte Hintergrundspeicher sowie das Update des parallelen Dateisystems Lustre auf Version 1 4 11 bzw Version 1 6 01 e ein Upgrade aller 64 Bit Clusterknoten auf SLES10 SP1 148 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme e ein Upgrade des Stapelverarbeitungssystems Sun Grid Engine SGE am 64 Bit Cluster auf Ver sion 6 1 e der Ersatz der Textdatei basierten Web Tools zur Abfrage der HPC Rechnernutzung durch Da tenbank basierte Versionen sowie eine Erweitung und Vereinfachung von deren Funktionalitaten durch vordefinierte Abfragem glichkeiten e die Installation und Inbetriebnahme von dedizierten Datenbank Servern zur Speicherung der HPC Auslastungsdaten e sowie die Umstellung des Clusters auf Kerberos5 Authentifizierung 6 1 2
204. bbildung 39 Abgegebene Rechenzeit des Linux Clusters in CPU Stunden f r serielle Jobs bzw Core Stunden f r parallele Jobs parallel Mai Jun Jul Okt Nov CPU or Core Hours 00 2007 Abbildung 40 Abgegebene Rechenzeit des Linux Clusters in CPU Stunden f r serielle Jobs bzw Core Stunden f r parallele Jobs fiir 2007 152 Teil II Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 450 400 350 300 a 250 amp o Altix 2 200 m 4way_itanium2 GB 2way_itanium2 150 100 50 0 Aug Sep Okt Nov Dez 2007 Abbildung 41 Monatsmittel der Rechenleistung f r die A64 System im Linux Cluster Beitr ge der einzelnen Teilsysteme zur Gesamtleistung Aufgrund von Problemen mit dem Linux Kernel waren vor August 2007 keine kontinuierlichen Performancemessungen im Cluster m glich 6 1 3 Nutzungs Auslastungsstatistiken f r 2007 6 1 3 1 H chstleistungsrechner in Bayern II SGI Altix 4700 System HLRB Nutzung nach Jobklassen Jobs Systemzeit Anzahl Core Std N64 65198 60 74 11773081 64 30 00 N510 2453 2 29 5958578 70 15 18 N256 6922 6 45 5300750 23 13351 N2040 865 0 81 4354323 29 11 120 N128 5501 5 12 3690860 73 9 41 N1020 1484 1 38 2940345 32 7 49 special 762 0 71 2005901 62 5 11 N255 1653 1 54 1386702 25 3753 N64L 1819 1 69 993297 67 2 53 N16 6636 6 18 348327 76 0 89 N4080 160 015 241155 56 0 61 I 9561 8 91 151831 53 0 39 Summe 107341 100 00 39241555 26 100 00 Die S
205. ber die History Log Page einsehbar e Im Trouble Ticket Formular wurde ein Button Offene Tickets Gruppe eingebaut Uber die sen Button kann jeder Mitarbeiter die offenen Tickets seiner Gruppe anschauen e Die studentischen Operateure k nnen die Web Tickets einsehen und bearbeiten Sie haben die gleichen Rechte wie die Hotliner bekommen damit sie auch an den Wochenenden die Prob lemmeldungen die ber Hotline Web ankommen an den entsprechenden Verantwortlichen weiterleiten k nnen e Die Trouble Tickets k nnen per Mail in den Zustand In Bearbeitung oder Geschlossen ge setzt werden Ebenso kann per Mail ein neuer Verantwortlicher ausgew hlt werden 218 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 7 3 5 IT Service Management F r ein optimales Dienstmanagement reicht es nicht aus sich nur mit dem Management der technischen Komponenten zu befassen Die Qualit t eines IT Dienstes ist ebenso von der Effektivit t der Kommuni kation Kooperation und Koordination der an der Diensterbringung und aufrechterhaltung beteiligten Mitarbeiter abh ngig Es m ssen also auch die betrieblichen Abl ufe d h die Prozesse des IT Service Providers gesteuert und koordiniert werden Ans tze f r die Gestaltung eines solchen organisatorischen bzw prozessorientierten IT Service Managements ITSM liefern verschiedene Rahmenwerke beispielsweise die vom britischen Office of Government Commerce OGC publiz
206. berechtigungen zu erhalten oder um nderungen der zugeteilten Betriebs mittel zu erreichen Zusammenfassend ergibt sich also folgendes Schema f r den Kontakt zwischen Be nutzer und LRZ in organisatorischen Fragen LRZ Betreuer Betreuer Master User Master User Master User IN Master User Mu eee MU MU MU Projekt ne Projekt Projekt 7 Projekt Benutzer Benutzer Benutzer Benutzer Kennung Kennung Kennung UUS Kennung Abbildung 13 Schema der hierarchischen Benutzerverwaltung am LRZ Ein Projekt Konto wird am LRZ durch eine Projekt Nummer gekennzeichnet Die Nummern werden vom LRZ bei der Beantragung des Projekts vergeben Die zu einem Projekt geh renden Benutzer kennungen sind in der Regel siebenstellig Der Master User kann die ihm zugeteilten Benutzerkennungen auf die Einzelbenutzer seines Bereichs verteilen da LRZ Kennungen im Gegensatz zur fr heren Praxis zuk nftig personengebunden sein wer 82 Teil I Hinweise zur Benutzung der Rechensysteme den d rfen sie nur einmalig vergeben werden Bei Bedarf k nnen nicht mehr ben tigte Kennungen deak tiviert und daf r neue beantragt werden Der Endnutzer darf seine Kennung nicht an Dritte weitergeben und hat sie durch die Wahl eines sicheren Passworts gegen unbefugte Nutzung zu sch tzen siehe Ab schnitt
207. bertragene Datenmegen 240 000 220 000 200 000 180 000 160 000 140 000 120 000 100 000 80 000 60 000 40 000 20 000 0 Giga Byte Achsentitel Abbildung 22 Entwicklung der Nutzung des WiN Anschlusses des M nchner Wissenschaftsnetzes Die Steigerungsraten bezogen auf die jeweils im Vorjahr transportierte Datenmenge sind nachfolgend graphisch dargestellt Bezogen auf das Jahr 1997 wurde im Jahr 2007 die 72 fache Datenmenge transpor tiert Seit September 2003 ist der WiN Anschluss vertragstechnisch ein so genannter Clusteranschluss bei dem die vom MWN versorgten teilnehmenden Institutionen als eigenst ndige Partner mit eignem Tarif bezo gen auf den eingehenden Datenverkehr aufgefasst werden Zu diesem Zweck wurden die laufenden Mes sungen kumuliert um eine Verteilung des Datenverkehrs zu bekommen Die prozentuale Verteilung des Datenvolumens am X WiN Zugang Messzeitraum Januar 2008 zeigt Tabelle 9 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 115 21997 m1998 01999 02000 m2001 m2002 m2003 02004 m2005 m2006 2007 Abbildung 23 Steigerungsraten des bertragenen Datenvolumens pro Jahr Institution Total Bytes LRZ und BAdW 58 7 TUM 23 8 LMU 13 0 FH M nchen 2 0 Sonstige 2 1 FH Weihenstephan 0 2 GATE 0 2 Tabelle 9 Prozentuale Verteilung des Datenverkehrs am X WiN Zugang Die prozentuale Verteilung des gesamten Verkehrs gegen ber Werten des Vorjahres hat
208. berzus tellen das im Folgenden dargestellt wird 2 11 Application Service Provisioning Mit Application Service Provisioning ASP wird ein Betriebs und Servicekonzept bezeichnet in dem von einem zentralen Server Anwendungen zur Verf gung gestellt werden die der Endkunde von seinem lokalen PC zur Ausf hrung am Server starten kann Lediglich Tastatur Maus und Bildschirminforma tionen werden zwischen dem Client PC und dem Server ausgetauscht Zus tzlich besteht die M glichkeit lokale Client Dateisysteme am Server zur Verf gung zu stellen sog Laufwerksmapping f r den Da tenaustausch zwischen Client und Server Ebenso ist es m glich Ausdrucke an den lokalen Client PC oder einen Netzwerkdrucker beim Kunden vor Ort zu schicken Der Vorteil f r den Endkunden liegt darin dass alle Servicekomponenten von der Hardware ber die Netzanbindung ber die Betriebssystempflege bis hin zur Anwendungs Installation Konfiguration und Personalisierung zentral verwaltet werden und die komplette Betriebsverantwortung beim Dienstleister liegt Lediglich die Funktionalit t der Softwarekomponente am Client f r die Kommunikation mit dem Dienstanbieter muss er sicherstellen blicherweise k nnen diese Anwendungen ber Telefon Modemleitungen genutzt werden also Netzverbindungen geringer Bandbreite F r den Austausch von gro en Dateien oder Druckjobs ist eine solche Modemverbindung nicht zu empfehlen Hierf r ist ein DSL Anschlu
209. bschnitt 3 1 Das LRZ bietet auf sehr verschiedenen Leistungs und Funktions Ebenen Rechenkapazit t an Zusam menfassend betreibt das LRZ siehe auch Abbildung 3 e einen H chstleistungsrechner SGI Altix 4700 der bundesweit genutzt wird e Linux Cluster die vorzugsweise den Instituten der M nchener Hochschulen aber auch allen anderen bayerischen Hochschulen zur Verf gung stehen um darauf eigene Programme oder lizenzierte An wendersoftware ablaufen zu lassen Das LRZ stellt somit eine Hierarchie von Plattformen zur Verf gung die im unteren Leistungsbereich entscheidend durch eine dezentral an den Instituten verf gbare Rechner Infrastruktur erg nzt wird Es ergibt sich damit eine Leistungspyramide wie sie von den Strukturkommissionen f r die IT Ausstattung an den Hochschulen gefordert wird Einerseits eine zahlenm ig breite Ausr stung am Ar beitsplatz der Wissenschaftler die den Normalbedarf abdeckt und andererseits eine nur in Sonderf llen ben tigte Hochleistungs und Spezialausr stung die zentral in kleiner Anzahl betrieben wird Zu einigen dieser Dienstangebote soll im Folgenden ausf hrlicher Stellung genommen werden 23 Jahresbericht 2007 des Leibniz Rechenzentrums Teil I ha D C 6 N YIOMJON sea nlag abe10js Bulluo Sb snipey at al 094 alge 99 JUe
210. ceeererees wba 22 3 07 Abbildung 66 SAN Topologie In den Speichernetzen des LRZ werden ausschlie lich Plattensysteme eingesetzt deren Controller von LSI Logic stammen Da die Ger te im Laufe mehrerer Jahre ber verschiedene Ausschreibungen be schafft wurden sind die Modellnamen allerdings recht unterschiedlich StorageTek D280 Storageserver Der Storageserver D280 der Firma STK hat vier 2 Gbit Fibre Channel Anschl sse ins SAN ber die eine aggregierte Leistung von 800 MB s erreicht wird Intern sind die Systeme mit 146 Gigabyte Plat ten best ckt und ebenfalls ber Fibre Channel verkabelt Die Gesamtkapazit t betr gt 14 Terabyte Der Plattenplatz der Systeme wird von den AFS Fileservern und einem MySQL Server genutzt StorageTek Flexline 380 Storageserver Anfang 2007 wurden die beiden StorageTek Flexline 380 mit jeweils 12 300 Gigabyte FibreChannel Festplatten erweitert Der Storageserver Flx380 der Firma STK hat acht 4 Gbit Fibre Channel Anschl sse ins SAN ber die eine aggregierte Leistung von 1600 MB s erreicht wird Intern sind die Systeme sowohl mit 146 Gigabyte Platten als auch 300 Gigabyte Platten bestiickt und ebenfalls tiber Fibre Channel verkabelt Die Gesamtkapazit t betr gt 88 Terabyte Der Plattenplatz der Systeme wird ausschlie lich von den TSM Servern genutzt Die 146 Gigabyte Platten werden als Speicher fiir die TSM Datenbanken ver wendet die 300 Gigabyte Platten fiir die Plattenpools der Server IB
211. ch diese Aktivit ten bew hren soll die Lehrlingsausbildung am LRZ zuk nftig verstetigt werden und ber entsprechende Stellen abgesichert werden 8 8 Betreuung von Diplom Bachelor Master und Studienarbeiten Folgende Diplom Bachelor Master und Studienarbeiten wurden von Mitarbeitern der Abteilung Be nutzernahe Dienste und Systeme betreut e Fourkiotis A Design and Implementation of a Web Service Interface to an Identity Management solution for Account Provisioning under consideration of modern Web Service Security mechan isms Diplomarbeit Ludwig Maximilians Universit t M nchen November 2007 e H rtl M Konzeption und Realisierung der technischen Unterst tzung eines zentralen IT Service Desk mit OTRS an der TUM Diplomarbeit Ludwig Maximilians Universit t M nchen Juli 2007 e Schedel D Evaluation von Tools und Sprachen zur Prozessmodellierung am Beispiel des Inci dent Management Prozesses am LRZ Diplomarbeit Ludwig Maximilians Universit t M nchen April 2007 Folgende Diplom Bachelor Master und Studienarbeiten wurden von Mitarbeitern der Abteilung Kommunikationsnetze betreut e Beyer H Dienstorientierte Ereigniskorrelation Diplomarbeit Technische Universit t M nchen Januar 2007 e Engel T Evaluierung und Positionierung biometrischer Authentisierungsverfahren bei der BMW Group Diplomarbeit Ludwig Maximilians Universit t M nchen M rz 2007 e Giese C Development of an Operation Support
212. chen Archivierungs und Bereitstellungssystems BABS zu einem vertrauensw rdigen und skalierbaren digi talen Langzeitarchiv weitere Personalstellen bewilligt Es wurden noch weitere EU und BMBF Projekte eingereicht ber die aber noch nicht entschieden wurde Es ist selbstverst ndlich dass ber die For schungs und Entwicklungsarbeiten publiziert wurde Auch wurden entsprechende Promotionsvorhaben erfolgreich abgeschlossen Liest man den vorgelegten Jahresbericht aufmerksam so stellt man fest dass die F lle der Aufgaben ge gen ber dem Vorjahr erneut gr er geworden ist zudem unterliegt das Aufgabenspektrum aufgrund der hohen technischen Innovationsraten einem steten und raschen Wandel Die Mitarbeiterzahl Planstellen des LRZ ist aber seit Jahren nicht gewachsen wohl konnten wir neben den erw hnten Drittmittelstellen auch 2007 wieder weitere Projektstellen neu hinzugewinnen Umso mehr m chte ich an den Beginn die ses Jahresberichts ein explizites Dankesch n an alle Mitarbeiterinnen und Mitarbeiter stellen Ohne ihr Engagement w re kein Erfolg des LRZ m glich Auch im Jahr 2007 war die Belastung durch den regul ren Dienst und Systembetrieb aber auch aufgrund der vielen neuen und herausfordernden Aktivit ten besonders hoch Es sollte nicht unerw hnt bleiben dass sowohl der Aufwind im IT Markt als auch die Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 9 Einf hrung eines neuen Tarifvertragswerkes f r den ffentl
213. chen 5 411 Bayer Akademie der Wissenschaften inklusive LRZ 718 Fachhochschule M nchen 288 andere bayerische Hochschulen 255 andere wissenschaftliche Einrichtungen 2 569 16 301 die Fakult t Physik der Technischen Universit t M nchen 2 166 das myTUM Portal der Technischen Universit t M nchen 32 501 Studenten der Ludwig Maximilians Universit t M nchen Campus 44 892 Studenten anderer M nchner Hochschulen 1 395 Gesamt 97 255 5 5 4 9 Nutzung von E Mail Verteilerlisten Das LRZ bietet seinen Nutzern die M glichkeit eigene E Mail Verteilerlisten einzurichten auf Basis des Programms Majordomo Ende 2007 gab es 505 Listen Vorjahr 450 die sich wie folgt verteilten ote E Mail Pionichtiig Verteilerlisten Ludwig Maximilians Universit t M nchen 141 Technische Universit t M nchen 142 Bayer Akademie der Wissenschaften inklusive LRZ 123 andere Hochschulen und hochschulnahe Einrichtungen 99 Gesamt 505 5 5 5 Web Services Wie in Abschnitt 2 6 1 dargestellt besteht die Hauptaufgabe der Webserver des LRZ darin den Einrich tungen im M nchner Wissenschaftsnetz eine Plattform f r ihre Web Auftritte zu bieten eine Aufgabe die kurz als Web Hosting bezeichnet wird Schon seit einigen Jahren zeichnet sich eine neue Tendenz ab immer mehr Betreiber virtueller am LRZ gehosteter Webserver setzen Programme aus dem Internet f r ihren Webauftritt ein unter anderem zur Verwaltun
214. chenzentrums Teil II 317 VistaPortal Die Inbetriebnahme der neuen Version der Web Schnittstelle VistaPortal SE 2 2 wurde bereits 2006 vor bereitet siehe Jahresbericht 2006 und 2007 durchgef hrt Die Version 2 2 behebt einen Fehler der in der Version 2 1 ein w chentliches Neustarten des VistaPortal Dienstes auf dem Server notwendig machte da ansonsten der Dienst irgendwann nicht mehr auf Anfragen antwortete Au erdem besitzt mit der Version 2 2 ein Teil der eingesetzten Diagramme interaktive Eigen schaften Anklicken von Graphen mit der Maus Zoomen die bisher nur im Windows Client oder gar nicht verf gbar waren 7 3 4 Action Request System ARS Das Action Request System ARS von BMC wird am LRZ nunmehr seit 13 Jahren f r Problemmanage ment Beschaffungswesen Asset Management und IP Adressverwaltung eingesetzt Die Arbeiten im Jahr 2007 haben sich auf Wartung und Pflege konzentriert Au erdem wurden zahlreiche Schulungen f r Hotline studentische Operateure und LRZ Mitarbeiter zur Benutzung des ARS Tools gegeben An den Doku Ticket Formularen wurden folgende nderungen durchgef hrt e Im Doku Ticket k nnen alle Einzelteile aus dem Ger t auf einmal ausgebaut werden e Im Einzelteil Ticket wird der Brutto Preis automatisch aus dem Netto Preis berechnet e Die Mailzustellung an das Doku Team wurde mit ARS Features umgesetzt vorher PerlSkript e Ohne Eingabe einer MAC Adresse kann kein Ticket mit PXE Gruppe abgesp
215. chivsysteme und Visualisierungs Einrichtungen mitbenutzen sofern dadurch der satzungsm ige Nutzerkreis nicht in deren Nutzung be eintr chtigt wird 6 Inkrafttreten Diese Nutzungs und Betriebsordnung f r den H chstleistungsrechner in Bayern HLRB tritt mit der Billigung durch den Lenkungsausschuss und das Bayerische Staatsministerium f r Wissenschaft For schung und Kunst am 30 Mai 2000 in Kraft Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 289 Anhang 11 Mitglieder des Lenkungsausschusses des H chstleistungsrechners in Bayern HLRB Stand 31 Dezember 2007 Der Lenkungsausschuss f r den H chstleistungsrechner in Bayern HLRB setzt sich folgenderma en zusammen 12 Mitglieder e Vertreter des Bayerischen Staatsministeriums f r Wissenschaft Forschung und Kunst MR Georg Antretter e Der St ndige Sekret r der Kommission f r Informatik der Bayerischen Akademie der Wissen schaften Prof Dr Christoph Zenger e Der Vorsitzende des Direktoriums des LRZ Prof Dr Heinz Gerd Hegering e Der Sprecher des Kompetenznetzwerks f r Technisch Wissenschaftliches Hoch und H chstleis tungsrechnen in Bayern KONWIHR Prof Dr Arndt Bode TU M nchen e Der Vertreter der Nicht M nchener Hochschulen in der Kommission f r Informatik der Bayeri schen Akademie der Wissenschaften Prof Dr Werner Hanke Universit t W rzburg Von der Bayerischen Akademie der Wissenschaften benannter Vertreter e Prof Dr
216. cht mehr die zuvor be nutzte Testlizenz f r geringeren Umfang Der Dienst ist 2007 auf eine der neu beschafften Ma schinen verlagert worden e Das Content Management System Fiona der Fa Infopark ist f r die Bayerische Akademie der Wissenschaften seit Mitte 2007 im Produktionseinsatz Dabei ist das u ere Erscheinungsbild des Webauftritts im Wesentlichen beibehalten worden allerdings wurde die Barrierefreiheit des Auf tritts deutlich verbessert F r den Webauftritt des LRZ selbst gibt es eine Testinstallation 5 5 5 2 Zugriffe auf die WWW Server am LRZ Auf die zentralen WWW Server am LRZ wurde im Jahr 2007 durchschnittlich ca 39 Millionen Mal pro Monat zugegriffen Diese Zahl ist allerdings aus mehreren Gr nden nur bedingt aussagekr ftig Zum ei nen ist eine echte Z hlung der Zugriffe gar nicht m glich da auf verschiedenen Ebenen Caching Mechanismen eingesetzt werden Browser Proxy Andererseits werden nicht Dokumente sondern http Requests gez hlt Wenn also z B eine HTML Seite drei GIF Bilder enth lt so werden insgesamt vier Zugriffe registriert Die folgende Tabelle zeigt die durchschnittliche Zahl der Zugriffe und den durchschnittlichen Umfang der ausgelieferten Daten pro Monat die Daten sind nach den vom LRZ betreuten Bereichen aufgeschl s selt Die Zahlen f r das LRZ enthalten auch die Zugriffe auf viele pers nliche WWW Seiten von Hoch schulangeh rigen Zus tzlich wird die Zahl der Seitenaufrufe das ist die
217. d Dokumentation sowie Aufarbeiten von erkannten M ngeln Diese Konsolidierung hat 2007 erhebliche Personalkapazit t des LRZ gebunden Ein herausragendes Ereignis im Jahre 2007 war sicherlich die Inbetriebnahme der zweiten Lieferstufe des nationalen H chstleistungsrechners SGI Altix 4700 im M rz Mit seinen Systemdaten 62 3 Teraflops Peakleistung 39 TByte Hauptspeicher 660 TByte Plattenspeicher war dieser in der am 21 06 2007 ver ffentlichten TOP 500 Liste der leistungsf higsten Rechner weltweit auf Platz 10 vorger ckt Auch die nationalen und internationalen Aktivit ten im Umfeld des H chstleistungsrechnens High Per formance Computing HPC haben im Jahr 2007 das LRZ stark besch ftigt Beginnend mit einem Memo randum of Understanding unterzeichnet am 01 02 2007 und dann mit der Gr ndung des Gauss Centre for Supercomputing GCS e V am 13 April 2007 ist eine intensivierte formale Zusammenarbeit der drei nationalen H chstleistungsrechenzentren in Deutschland JSC in J lich LRZ in Garching und HLRS in Stuttgart eingeleitet worden Das GCS soll die oberste HPC Versorgungsebene in Deutschland b n deln und im EU Umfeld die deutschen Interessen mit einer gemeinsamen Stimme vertreten Im Jahre 2007 wurde an der Erstellung eines entsprechenden Betriebs und Organisationskonzepts gearbeitet das neben einer GCS Aufgabenverteilung auch gemeinsame Finanzfragen die Koordination von Beschaf fungsma nahmen und einen einheitlichen Zug
218. d Serversystemen cccsccesccesscessceeeeeeeeeeeeeeseeeseeeeeeaeesaees 55 2 9 1 Netzkomponenten und Rechenanlagen eccceecceeseeeseeeneeeceeeeeeecssecneeneeneeees 55 2 9 2 Serversysteme und deren Funktionen ceccceesceescesseeeeeeeeeeeeeeessecseceeenseeseeees 56 2 10 Remote Desktop Management Zentrale Betriebsverantwortung f r dezentrale Rechner 60 ii Inhaltsverzeichnis 2 11 Application Service Provisioning cccecccesecesecssecesscseeeeeeeeeseeeseeeseecssecseecsaecnsecnseeeeesaeenes 2 12 Bibliotheksverbund Bayern ccccccssscssecesecesecesecseeceeeeeseeesseceseecseeeaeecsaecsaecssecnsecnaeeeaeeees 2 13 Erprobung neuer Konzepte der Informationsverarbeitung an den Hochschulen 2 13 1 Im Test befindliche Dienste des LRZ nnnnsensnnessennnesnennneenennnn 2 13 2 Identity Management im M nchner Wissenschaftsnetz eenen 2 13 3 Das Projekt IntegraTUM ceensensennsennseennennnennnennennnnnnnnennn esse ene nennen 3 Infrastruktuir des LR2 ousussnesennssns nennen nennen anne in anne nn en ann in anne he sese he hen hene een 3 1 3 2 3 3 Die maschinelle Ausstattung uueeeeesseessseneesnnesnsnnnnennneenneennennennnnnnnenneenne nn essen 3 1 1 Systemen nenn dil etd es an 3 1225 Speicheiraten ssattesssatewen sleep ever obdouns estates irren Organisationsstruktur des LRZ ussenssesseeeseensnennnennnennnennnennn
219. d h sammeln teilweise effizienter und detailierter Informationen als OVO eigene Mittel Nicht zu untersch tzen ist der Wegfall von Lizenzgeb hren bei Nagios Daduch kann auf den Einsatz hunderter OVO Agenten verzichtet werden Die Verantwortung f r Konfigurationsarbeiten kann subsidiar auf mehrere Schultern verteilt werden Fehler in der Bedienung der Subinstanzen werden nicht auf benachbarte Bereiche bertragen Das Zentralsystem bleibt unber hrt nderungen k nnen ohne Abstimmung mit der OVO Administration vorgenommen werden Aufgrund der vorgenannten Vorteile konnte das Kontingent der lizenzpflichtigen OVO Agenten im Be richtsjahr von 20 auf jetzt 5 herabgesetzt werden Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 141 6 Entwicklungen und Tatigkeiten im Bereich der Hochleistungs systeme 6 1 Entwicklungen bei den Rechensystemen 6 1 1 H chstleistungsrechner in Bayern HLRB II SGI Altix 4700 6 1 1 1 Kennzahlen des Systems Abbildung 32 SGI Altix 4700 im Rechnerraum des LRZ Phase 1 Installation des Systems Mai Juli 2006 Inbetriebnahme 21 Juli 2006 Tests Konfiguration Leistungspriifung erste Nutzer August September 2006 Aufnahme des regul ren Benutzerbetriebs 22 September 2006 Phase 2 Installation des Systems und Leistungstests M rz April 2007 Aufnahme des regul ren Benutzerbetriebs 16 April 2007 Zuverl ssigkeitspr fung April Mai 2007 Offizielle Endabnahme des Gesamtsystems
220. d schon seit Langerem mit den anderen Partnern im Gau Zentrum koordiniert Das LRZ konzentriert sich hierbei auf die rechnernahen Bereiche e Parallele Programmierung e Programmiersprachen und Tools e Programmierung und Nutzung von Hoch und H chstleistungsrechner e Performanceoptimierungen e Erstbenutzerkurse Innerhalb Bayerns werden diese Art Kurse gemeinsam vom LRZ und der HPC Gruppe am Regionalen Rechenzentrum Erlangen entwickelt und veranstaltet u a e Programmierung von Hochleistungsrechnern 6 10 M rz 2007 am RRZE Erlangen e Kompaktkurs Iterative Gleichungssysteml ser und Parallelisierung 17 21 Sep 2007 am LRZ e Multi Core Training 23 26 Juli 2007 zusammen mit Intel am LRZ 6 3 4 HLRB Result and Reviewing Workshop Perspectives of High End Com puting Am 3 und 4 Dezember 2007 fand der Third Joint HLRB and KONWIAR Result and Reviewing Work shop statt In 41 gr tenteils sehr hochwertigen Vortr gen wurde ber die Arbeiten auf dem HLRB be richtet Um die Vielzahl der Anmeldungen bew ltigen zu k nnen mussten zum ersten Mal bei diesem Workshop die Vortr ge in parallelen Sitzung stattfinden Die Teilnehmer brachten in ihren Vortr gen Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 167 auch zum Ausdruck dass weiterhin ein gro er Bedarf an H chstleistungsrechenkapizit t besteht Mit mehr als 80 Teilnehmern war die Veranstaltung sehr gut besucht Am letzten Tag des Workshops konnten dann di
221. dardm ig werden am Leibniz Rechenzentrum alle Daten unverschl sselt auf den B ndern gespei chert Die Daten gehen per Voreinstellung auch unverschl sselt vom Client aus ber das Netz zum Ser ver Vom Kunden kann eine AES 128 bit oder eine DES 56 bit Verschl sselung am TSM Client aktiviert werden Die Verwahrung und Verwaltung des Schl ssels liegt alleinig beim Kunden Bei Verlust des Schl ssels ist eine Dechiffrierung nicht mehr m glich 7 Aufbewahrungsregeln und fristen Lebensdauer eines Nodes Archiv und Backupdateien werden in so genannten Nodes verwaltet Ein Node entspricht in der Regel einem Rechner von dem gesichert oder archiviert werden soll Nodes werden auf den ABS Servern zu sammen mit der Adresse einer Kontaktperson registriert Diese Kontaktperson ist ma geblicher Ans prechpartner f r das LRZ und ist f r die im ABS archivierten bzw gesicherten Daten auch dessen In halt alleinig verantwortlich Nodes werden nicht gel scht solange sie aktiv sind d h solange unter einem Node Daten gesi chert archiviert oder zur ckgeholt restauriert werden Erfolgt unter einem Node l nger als 18 Monate kein Zugriff versucht das LRZ den jeweiligen Ansprechpartner unter der angegebenen Kontaktadresse zu erreichen Wird die Kontaktperson oder deren Vertreter Nachfolger innerhalb weiterer drei Monate nicht erreicht bzw wird kein Einspruch erhoben werden die Daten dieses Nodes ohne weitere R ckfragen gel scht Diese Regelu
222. dateien und bei der Dokumenta tion von IntegraTUM und LRZ SIM eingesetzt Wiki Server Wissensmanagement Tool welches es erlaubt Dokumente per Web Browser zu ndern Wiki wird am LRZ haupts chlich zur Ablage von nur im Intranet abrufbaren Dokumenten wie z B Operateur sanleitungen FAQs f r Administratoren Systemdokumentation usw verwendet VMware Server F r wenig ressourcenintensive Dienste als auch den Aufbau von Laborumgebungen wird verst rkt auf Virtualisierung gesetzt Mit der Software VMware ESX Server 3 ist es m glich auf einer phy sisch vorhandenen Maschine mehrere virtuelle PCs zu simulieren wodurch eine optimierte Nutzung der realen Hardware m glich wird 2 10 Remote Desktop Management Zentrale Betriebsverantwortung f r dezentrale Rechner Mit Remote Desktop Management wird ein Betriebs und Servicekonzept f r Windows PC Arbeitspl tze bezeichnet in dem mit zentralen Dienstleistungen des LRZ und einer Anwendungs und Kundenbetreuung vor Ort eine Anzahl von Schulungs Pool Spezial oder Mitarbeiter Arbeitspl tzen den Endkunden zur Verf gung gestellt wird Die zentralen LRZ Dienstleistungen umfassen die Versorgung mit DNS DHCP die Aufnahme der Sys teme in die Active Directory Dom ne des LRZ eine Benutzerverwaltung pers nliche Fileservices f r Benutzer Dateiablagesysteme f r Projekte mit Zugriffsrechteverwaltung Backup und ggfs Archivie rungsm glichkeiten f r alle Fileablagen die automat
223. demie der Wissenschaften LRZ zur maximalen Nutzung von Synergieeffekten mit den anderen dort bereits seit langem installierten Hochleistungsrechnern betrieben und betreut Die Organisation des HLRB Betriebs erfolgt im Zusammenwirken von e Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften als Betreiber des HLRB e Lenkungsausschuss des HLRB e Kompetenznetzwerk f r Technisch Wissenschaftliches Hoch und H chstleistungsrechnen in Bayern KONWIHR Darstellung der verschiedenen Aufgaben und Instanzen zum HLRB Vorgaben f r Betrieb Projektantr ge steuert und koordiniert Die beteiligten Organisationen erf llen dabei die nachfolgend in den 1 bis 4 festgelegten Aufgaben 81 Rechnerbetrieb am LRZ Der Betrieb des HLRB wird nach den vom Lenkungsausschuss erlassenen Regeln organisiert Das LRZ fungiert als Betreiber des H chstleistungsrechners in Bayern als erste Beratungsinstanz insbesondere f r die rechnernahe Basisbetreuung der Benutzer und als Bindeglied zwischen Benutzern Lehrst hlen Insti tuten und Kompetenznetzwerk Da die am LRZ vorhandenen Gruppen e Hochleistungsrechnen in der Abteilung Benutzerbetreuung e Hochleistungssysteme in der Abteilung Rechensysteme und e Netzbetrieb in der Abteilung Kommunikationsnetze bereits durch den Betrieb der Landeshochleistungsrechner gut f r den Betrieb des HLRB vorbereitet sind wird aus Gr nden der Nutzung von Synergien auf die Einf hrun
224. den Punkt 14 3 Lesbarkeit der Daten Das Leibniz Rechenzentrum bem ht sich nach Kr ften mit den zur Verf gung stehenden Mitteln die bestm glichen technischen Voraussetzungen f r eine hohe Lebensdauer und Sicherheit der Daten zu schaffen Dazu geh ren u a die Qualit tssicherung Punkt 4 und der Geb udeschutz Punkt 5 Eine hundertprozentige Garantie f r die unbefristete Lesbarkeit der Daten auf den Speichermedien des Archiv und Backupsystems gibt es nicht Weder der Hersteller der Datentr ger noch das LRZ als Dienst leister K nnen im Fehlerfall haftbar gemacht werden 4 Qualitatssicherung Zu den am Leibniz Rechenzentrum eingesetzten bzw durchgef hrten Qualit tssicherungsma namen z hlen Unterbringung aller Speichersysteme in speziell daf r gebauten R umen des Rechenzentrums mit geeigneter Klimatisierung konstante optimale Feuchtigkeit und Temperatur Brandschutz rest riktive Zutrittskontrolle unterbrechungsfreie Stromversorgung usw Nutzung redundanter Systeme soweit technisch m glich und wirtschaftlich sinnvoll zur Mini mierung des Ausfallrisikos Einsatz qualitativ hochwertiger Komponenten und Systembestandteile bew hrter Hersteller zur Minimierung des Ausfallrisikos Ausschlie liche Verwendung von hochwertigen Datenmedien und gleicherma en hochwertigen High End Laufwerken bekannt zuverl ssiger Hersteller Automatisches Pr flesen Error Recovery Doppelte Datenhaltung f r alle Archiv
225. den um moderne schlanke Services zur Deckung des Hauptteils des Kundenbedarfs anbieten zu k nnen unter gleichzeitiger Beachtung des Ressourceneinsatzes Der heterogenen Servicelandschaft des LRZ wird versucht dahingehend Rechnung zu tragen dass die zentralen Dienste angebunden genutzt und den Endkunden auch ber PC Systeme zur Verf gung gestellt werden Es werden damit keine monolithischen Strukturen aufgebaut sondern offene Systemlandschaften auch im PC Bereich gepflegt Das erworbene Wissen wird im Sinne eines Gesch ftsmodells weitergegeben und die erarbeiteten L sungen m glichst auch in extern angebotenen Diensten zur Verf gung gestellt Diesbez glich sind einige neue Pilotprojekte gestartet und in Produktion gegangen mit dem Ziel Synergien zu schaffen und moder ne Dienstleistungen verst rkt anzubieten insbesondere ber das LRZ hinaus Eine schematische Darstellung dieses komplexen Gesch ftsmodells wird in der folgenden Abbildung Sys Manager AkNetz M Wissenschafts Netz versucht AppservProv Services Beratung Schulung Desktopsyst Mgmt Service Wissen AppMgmt DirectoryServices eDir ADS SysMgmt VVINxx i 2 Linux MA X11 asp ciient re Spezialsysteme MA PC AFS Client ar ASP TSRV PC Pools EG OG ext Schulungsr ume Spezialserver AFS Client DirServices DirXML bidirektionale Synchronisation ADS Domains AFS Client Middleware Novell eDirectory Services M
226. den Benutzer angelegt werden AFS Kennungen k nnen f r mehrere Zwecke genutzt werden u a f r E Mail f r den Zugang zu einfachen Workstations und f r den W hl bzw VPN Zugang ins MWN Au erdem sind sie die Voraussetzung f r Kennungen am Li nux Cluster Einrichtung PC AFS eee Paes Leibniz Rechenzentrum 710 1 684 437 56 Bayerische Akademie der Wiss ohne LRZ 486 576 12 Ludwig Maximilians Universit t M nchen 664 15 975 455 3 Technische Universit t M nchen 1 243 14 304 581 6 Fachhochschule M nchen 8 1 170 50 andere bayerische Hochschulen 2 741 176 ffentlich rechtliche Einrichtungen 471 4 317 7 sonstige Einrichtungen 1 28 11 Nutzer des Bundesh chstleistungsrechners 16 Gesamt 3 585 38 795 1 729 81 Tabelle 7 Vergabe von Kennungen fiir LRZ Plattformen Nicht in der Tabelle enthalten sind die Kennungen f r den Bundesh chstleistungsrechner die SGI Altix 4700 da es hier h ufig Kooperationen gibt und daher keine klare Zuordnung zu einer Einrichtung m g lich ist Ende 2007 waren f r diesen Rechner ingesamt 1 075 Kennungen vergeben 5 4 1 2 An Studenten vergebene Kennungen Die Vergabe von Kennungen an Studenten erfolgt bei der Ludwig Maximilians Universit t und bei der Technischen Universit t gekoppelt mit der Vergabe von Kennungen f r das jeweilige Web Portal Cam Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 105 pus bzw myTUM F r Studen
227. den Cisco Catalyst 6509 Switch Router die untereinander mit 10 GBit s verbunden sind Die Anbindung der Stan dorte erfolgt ber Glasfaserleitungen LWL Lichtwellenleiter die von der Telekom oder von M net angemietet sind Alle Telekom Glasfasern enden im zentralen Netzraum des TUM Stammgel ndes Die M net Glasfasern enden im zentralen Netzraum des LMU Stammgel ndes Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 195 Das Router Backbone selbst ist durch die Dreieck Struktur redundant Die Router unterhalten sich tiber die Punkt zu Punkt Verbindungen mittels OSPF Open Shortest Path First Der Verkehr flie t von der Quelle zum Ziel ber die Leitungen mit der kleinsten Hop Anzahl Weg der ber die wenigsten Rou ter f hrt Ausnahmen zu dieser generellen Regel bildet der ber Policy Based Routing gef hrte Verkehr der in einem eigenen VLAN Virtual LAN flie t und spezielle VLANs die ber das gesamte MWN gezogen wurden Diese sind n tig um die besonderen Anforderungen von MWN Mitnutzern MPG Institute Staatsbibliothek zu erf llen Auch die Internet Anbindung ist redundant ausgelegt Sollte der X WiN Zugang zum DFN ausfallen so bernimmt eine M net Backup Leitung die Au enanbindung Die Umschaltung wird automatisch ber Routing Protokolle gesteuert In den Campus Standorten sind die anzubindenden Geb ude in der Regel sternf rmig mittels in eigener Regie verlegter Glasfaserkabel an einen zentralen Sta
228. den von Spam Mails missbraucht wird oder mit einem Wurm infiziert ist der sich von dort eigenst ndig weiter ver breiten will Der MWN Rechner ffnet innerhalb kurzer Zeit extrem viele Verbindungen zu anderen Rechnern im Internet Durch zus tzliche Indikatoren kann man erkennen ob es sich wahrscheinlich um einen mas siven Port Scan oder um einen Denial of Service Angriff DoS handelt Der Rechner f llt durch einen extrem hohen Datenverkehr auf Es handelt sich dabei berwiegend um Rechner die f r die Verteilung urheberrechtlich gesch tzter Daten missbraucht wurden Im Gegensatz zu den vorhergehenden Indikatoren kommt es in diesem Fall auch manchmal vor dass der Rechner nicht kompromittiert ist sondern dass ein legitimer MWN Benutzer wissentlich durch Copyright Verletzungen gegen die MWN Nutzungsordnung verst t 138 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme e Seit Ende 2006 sucht ein spezialisiertes Intrusion Detection System nach kompromittierten Rechnern die an einem Botnet teilnehmen und deshalb von au en ferngesteuert werden k nnen um z B Spam Mails zu verschicken Zu den aufgef hrten Indikatoren gibt es nat rlich jeweils eine Ausnahmeliste von bekannten sauberen Rechnern die dadurch vor einer Sperre gesch tzt werden Neben den Monitoring Funktionen am Internet bergang verbessert auch noch der sogenannte NAT o MAT siehe 7 4 1220 durch automatisierte Mechanismen die Sicher
229. der Medizin Leschhorn Tiermedizin Leschhorn Geschichts und Kunstwissenschaften Leschhorn Philosophie Wissenschaftstheorie und Statistik Leschhorn Psychologie und P dagogik Leschhorn Altertumskunde und Kulturwissenschaften Leschhorn Sprach und Literaturwissenschaft Leschhorn Sozialwissenschaft Leschhorn Mathematik und Informatik Heilmaier Physik Heilmaier Chemie und Pharmazie Heilmaier Biologie Heilmaier Geowissenschaften Heilmaier Verwaltung und zentrale Einrichtungen Schr der Bayerische Akademie der Wissenschaften Schr der Fachhochschule M nchen Schr der Nutzer des H chstleistungsrechners in Bayern Wendler K rperschaften Weidner S mtliche andere Einrichtungen Schr der 278 Betreuer Herr J Heilmaier Herr K Leschhorn Frau G Schroder Herr K Weidner Frau C Wendler Vertretung fiir Frau Wendler Frau I Christadler Zi 1 1 067 Zi 1 1 063 Zi 1 1 099 Zi 1 1 023 Zi 1 3 074 Zi 1 2 035 Tel 35831 8776 Tel 35831 8828 Tel 35831 8754 Tel 35831 8743 Tel 35831 8857 Tel 35831 8861 Teil III Anhang 8 heilmaier lrz de leschhorn lrz de schroeder lrz de weidner lrz de wendler lrz de christadler lrz de Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 279 Anhang 9 Betriebs und Organisationskonzept f r den H chstleistungsrechner in Bayern HLRB Stand 30 Mai 2000 Pr ambel Der H chstleistungsrechner in Bayern HLRB wird vom Leibniz Rechenzentrum der Bayerischen Aka
230. der Dringlichkeit gering Folgende Abbildung gibt einen berblick ber die Gesamtanzahl der monatlich erstellten Tickets und verdeutlicht den im Jahre 2007 stark angewachsenen Anteil an Problemmeldungen die ber Hotline Web ARWeb eingegangen sind Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 89 ARS Opened and Closed Tickets Submitter Generated 01 12 2007 Periodicity Monthly Report for Trouble Tickets Neu Opened and closed tickets per month 250 al 200 150 Opened 100 50 0 Jan 2007 Mrz 2007 Mai 2007 Jul 2007 Sep 2007 Nov 2007 EM 4Arweb E Other Closed 0 Jan 2007 Mrz 2007 Mai 2007 Jul 2007 Sep 2007 Nov 2007 EM arweb BE Other Abbildung 14 Trouble Tickets pro Monat Die Diagramme der folgenden Abbildung zeigen die Entwicklung der Bearbeitungszeiten von Trouble Tickets ber die letzten drei Jahre hinweg j hrlich monatlich ARS Tickets Average Processing Time Priority Generated 01 12 2007 Periodicity Monthly Report for Trouble Tickets Neu Average processing time per year hours 150 EB Kritisch 50 E amp Mitte E Niedrig 0 2005 2006 2007 Average processing time per month hours 1200 1000 800 EB Kitisch 600 Mittel EI Niedrig 400 200 0 Jan 2007 Apr 2007 Jul 2007 Okt 2007 Abbildung 15 Bearbeitungszeiten von Trouble Tickets 90 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Die Ursache f r die extrem lange Bearbeitungszeit von Tickets m
231. der Weg frei f r Integrationstests mit realen Nutzdaten aufgrund nicht immer optimaler Datenqualit t in den f hrenden Systemen z B Tippfehler Eintragungen in falsche Datenfelder k nnen somit zus tzlich zu Last und Performancetests auch Fehlersituationen die unter Um st nden sonst erst im Produktionsbetrieb auftreten w rden gefunden werden Mitwirkung an der Prozessoptimierung In intensiver Zusammenarbeit mit TP Verwaltung und im Rahmen des TUM internen Arbeitskreises Prozesse wurden nderungen an den bestehenden Prozessen diskutiert die insbesondere auf eine effiziente Korrelation von Identit ten abzielen Die Entscheidung ob ein Student auch gleichzeitig Mitarbeiter ist kann nicht vollst ndig auto matisiert getroffen werden da Studenten und Personalverwaltung bisher noch kein gemeinsames Schl sselattribut f r Datens tze verwendet haben da falsche automatische Entscheidungen bei spielsweise auf Basis eines Vergleichs von Vorname Nachname Geburtsdatum und Geburtsort der Person nicht komplett ausgeschlossen werden k nnen z B aufgrund von Tippfehlern oder unterschiedlichen Schreibweisen f r ausl ndische Orte sind in die Prozesse manuelle Entschei dungen zu integrieren die ber geeignete Hilfsmittel unterst tzt werden Als Ergebnis werden beispielsweise die Mitarbeiter Einstellungsformulare um Felder erg nzt ber die fr here oder pa rallele Zugeh rigkeiten zur TUM angegeben werden k nnen Konzeption d
232. des Kommunikationsnetzes Statische Portsperren am X WiN Zugang wurden in diesem Zusammenhang kaum mehr verwendet da die dabei h ufig auftretenden Seiteneffekte f r regul re Software in der Vergangenheit oft aufwendige Fehleranalysen nach sich zogen 7 4 5 Sicherheitswerkzeug Nyx Nyx ist ein im Rahmen eines Fortgeschrittenenpraktikums entstandenes Sicherheits und Netzwerkmana gementwerkzeug mit dem einzelne Rechner im MWN lokalisiert werden k nnen d h man bekommt nach Eingabe einer bestimmten MAC oder IP Adresse eines Rechners den Switch und den Port gemel det an dem der Rechner angeschlossen ist Im Januar 2007 wurde die 2006 weiterentwickelte Nyx Version mit maschinellem Lernen in Produktion genommen Dadurch hat die Topologieerkennung wieder zuverl ssig funktioniert Der maschinelle Lern algorithmus wird mit statistischen Daten der Switches trainiert um Up und Downlink Ports von den interessanten Daten Ports unterscheiden zu k nnen Diese Daten werden regelm ig im 15 Minutentakt erhoben Eine detaillierte Evaluation dieser Form der Topologieerkennung ist f r 2008 im Rahmen eines Fortgeschrittenenpraktikums geplant Das Nyx Projekt wurde Ende Mai 2007 auf der 21 DFN Arbeitstagung http dfn2007 uni kl de in Kaiserslautern vorgestellt Der Vortrag und die zugeh rigen Folien k nnen unter http www nyx Irz de eingesehen werden Dort wurde im Juni auch das Projekt als Open Source Software ver ffentlicht Wichtige Mei
233. deutschen Hochschulen 2 Forschung und Lehre anderer deutscher Institutionen die berwiegend von der ffentlichen Hand getragen werden 3 der deutschen Industrie im Rahmen der staatlichen Vorgaben sofern sie den in 1 festgelegten Betriebszielen entsprechen F r Nutzer aus den obigen Gruppen 1 und 2 ist die Nutzung des HLRB bis auf Widerruf unentgeltlich 4 Zulassungsverfahren Projektantr ge auf Nutzung des HLRB werden ber das LRZ gestellt Die Beantragung erfolgt in der Regel in elektronischer Form Ein Antrag muss folgende Angaben enthalten e Projekttitel e Angaben zur beantragenden Institution und deren Leitung e Angaben zur Person des Projektverantwortlichen Der Projektverantwortliche ist f r die administrativen Aufgaben innerhalb des Projektes zust ndig z B Vergabe Verwaltung und berwachung der zugeteilten Nutzungskennzeichen und Ressourcen e Telefonnummern und E Mail Anschriften aller Personen die im Rahmen des Projekts Zugang zum HLRB erhalten sollen e gegebenenfalls Angaben zu Projektpartnern au erhalb der beantragenden Institution e Beschreibung des Projektes Einordnung des Anwendungsgebietes Biologie Chemie Fluiddynamik Physik etc Kurzbeschreibung des Projektes ca 300 Worte Die Kurzbeschreibung des Projektes sollte in der Regel in Englisch erfolgen da diese zur Darstellung der Arbeiten am HLRB ver ffentlicht werden soll Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 287 ausfthrlich
234. die Nutzungsm glichkeiten der Holobench in kleinen Gruppen bis zu 15 Teilneh mern e Vortr ge zum Thema wissenschaftliche Datenvisualisierung und Virtual Reality im Rahmen einer stark wachsenden Zahl von F hrungen und Pr sentationen e Ausbildung und Betreuung von Praktikanten mit dem Schwerpunkt Virtual Reality und Datenvisuali sierung 54 Teil I Das Dienstleistungsangebot des LRZ Beratung zum Thema Virtual Reality wird zunehmend nachgefragt insbesondere wenn Institute eine eigene Installation von Low Cost L sungen erw gen 2 8 8 1 Holobench Die Holobench zeigt computergenerierte Darstellungen auf zwei Projektionsscheiben der Gr e 1 80 x 1 10 m die L f rmig in der H he eines Arbeitstischs angeordnet sind Die Projektion erfolgt als R ckpro jektion durch zwei R hrenprojektoren im Aktiv Stereo Modus die bei der Betrachtung mit Shutter Brillen zu einem sehr guten r umlichen Eindruck f hrt Der Einsatz eines elektromagnetischen Tracking Systems erlaubt dabei die Anpassung der Perspektive an den Betrachterstandort und die Manipulation von virtuellen Objekten mit der Hand und bewirkt einen guten Eindruck der Immersion der Virtual Reality Anwendungen m glich macht 2 8 8 2 PC Cluster f r VR Anwendungen Schon 2004 begann schrittweise der Umstieg von einer SGI Onyx2 IR2 auf ein PC Cluster mit High End Graphikkarten zur Ansteuerung der Holobench Damit wurde die M glichkeit gegeben von der berlege nen Performanc
235. dlage f r die Entwicklung von Virtual Reality Anwendungen geschaffen Die im LRZ mittlerweile erworbene Erfahrung auf dem Gebiet der Virtual Reality Technologie wird vorwiegend im Rahmen von Kursen Beratungsgespr chen und Projektbetreuung eingesetzt Einsatzgebiete des VR Labors Die folgenden Beispiele illustrieren den Einsatz der VR Ausstattung des LRZ insbesondere der Holo bench e Wissenschaftliche Datenvisualisierung d h Aufbereitung von Datens tzen aus dem H chstleistungs rechnen aus Messungen Computertomographie etc f r die Untersuchung in einer VR Umgebung Projekte kommen u a aus dem Bereich der Astrophysik Hydromechanik Medizin Arch ologie Architektur e Einbindung in Lehrveranstaltungen Seminare Praktika e Projektbeteiligung bei der Erstellung von Visualisierungsanwendungen e Software Evaluation z B um die Eignung von VR Softwareprodukten f r den Einsatz im LRZ oder an institutseigenen Projektionsanlagen zu untersuchen e Entwicklung kleiner prototypischer VR Anwendungen e Beratung bei der Konzeptionierung eigener Instituts Installationen Die Holobench ist als Beispiel moderner Visualisierungsmethoden auch fester Bestandteil des Programms bei F hrungen von Studenten oder Besuchergruppen durch das LRZ Kurse und Beratung Projekte im Bereich Virtual Reality sind sehr betreuungsintensiv Neben der Betreuung von Einzel projekten werden folgende Informationsm glichkeiten angeboten e Einf hrungen in
236. dleware bergreifenden Monitoringsystems Im D Grid werden die Middleware Technologien Globus GT4 UNICORE und gLite unterst tzt Dies ist ein Allein stellungsmerkmal und f r andere Grid Projekte weltweit nicht blich Allerdings bringt dies f r das Mo Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 333 nitoring auch Probleme mit sich Im Grunde wird ein Monitoringsystem ben tigt das alle drei Middlewa res unterst tzten kann und in der Lage ist eine einheitliche Sicht auf Systeme und Ressourcen zu bieten egal welche Middleware benutzt wird Die Entwicklung eines derartigen Middleware bergreifenden Systems horizontale Integration ist ein Ziel von D MON Das zweite Ziel das sich unter dem Begriff der vertikalen Integration subsumieren l sst ist die durchgehende Unterst tzung von VO Virtuelle Orga nisationen Informationen Das D Grid unterst tzt viele sogenannte Virtuelle Organisationen VO F r eine VO ist es wichtig im Hinblick auf das Monitoring nur die Daten zu sehen die auch die entsprechen de VO betreffen Das Projekt l uft vom 01 07 2007 bis zum 30 06 2009 Als Partner f r das Projekt konnten Kompetenz tr ger f r die zu untersuchenden Middlewares und die zu entwickelnde Oberfl che gewonnen werden Das Forschungszentrum J lich FZJ besch ftigt sich verst rkt mit Fragen zu UNICORE das For schungszentrum Karlsruhe FZK ist Kompetenztr ger f r gLite und das Max Planck Institut f r Gravita tionsphysik
237. durch eine einzige geeig nete europ ische Organisationsstruktur Zusammengefasst sollen also die Voraussetzungen f r einen eu rop ischen Tier0 HPC Service geschafft werden Dazu m ssen unter Anderem folgende Grundlagen erarbeitet werden e Fine rechtliche Struktur und eine organisatorische Struktur in der Leistungs und Partnerschafts fragen genau so gekl rt sind wie das Verh ltnis zur EU Kommission oder die Relation zu den wissenschaftlichen Anwendern e Erarbeitung von Finanzierungs und Nutzungsmodellen sowie zugeh rige Vertr ge f r eine nachhaltige Absicherung eines permanenten europ ischen HPC Dienstes e Definition eines Peer Review Prozesses und eines einheitlichen Zugangsverfahrens e Festlegung eines konsistenten Betriebsmodells aller Tier0 Zentren e _Portierung Optimierung und Petascaling ausgew hlter Anwendungen Wie blich sieht der PRACE Antrag Arbeitspakete vor Diese sind wie folgt gegliedert e WPI Management des Projektes verantwortlich GCS Deutschland e WP2 Organisationskonzept f r die HPC Infrastruktur BSC Spanien e WP3 Offentlichkeitsarbeit f r Ergebnisse und Training Dissemination CSC Finnland e WP4 Integrationsmanagement mit existierenden Infrastrukturen ETHZ Schweiz e WP5 Einsatz von Prototyp Systemen NSF Niederlande e WP6 Software f r Petaflops Systeme EPSRC Gro britannien e WP7 Petaflop Systeme f r 2009 2010 GENCI Frankreich e WP8 Petaflop Technologien der Zu
238. e Beschreibung des Projektes Stand der Technik verwendete Verfahren Referenzen tiber bisherige Arbeiten etc Dauer des Projekts e Angaben zu den ben tigten Ressourcen Rechenzeit des Gesamtprojektes Parallele Laufzeit Anzahl Prozessoren Plattenplatz f r das Gesamtprojekt permanent und tempor r Ressourcenbedarf eines typischen Einzellaufes und des Bedarfs bei Interaktiv Nutzung maximale Anzahl der Prozessoren Hautspeicher Rechenzeit Plattenplatz etc Angaben zum ben tigten Archivbedarf Gr e H ufigkeit des Zugriffs auf das Archiv etc Angaben ber die zu verwendende Software Compiler Bibliotheken Tools etc Angaben zu speziellen Anforderungen Blockbetrieb zeitkritische Durchf hrung von Projekten Be darf an Visualisierungskapazit t etc Angaben zum Umfang und zur H ufigkeit des Datentransfers zwischen Endbenutzer und LRZ e IP Adressen der Endger te keine Subnetze von denen aus der Zugriff auf den HLRB erfolgen soll e Angaben zur Nutzung anderer Supercomputer f r das beantragte Projekt e Zusicherung bei einem l nger laufenden Projekt j hrlich einen Zwischenbericht bzw in jedem Fall einen Abschlussbericht zu liefern und die erhaltenen Ergebnisse in geeigneter Form zu ver ffentli chen Bei begr ndetem Interesse des Antragstellers kann davon auf Antrag abgesehen werden e Zusicherung die Betriebsregeln des HLRB und LRZ einzuhalten e Zustimmung zur Weitergabe der
239. e Daten e 17 Knoten mit jeweils 4 Prozessoren vom Typ Itanium2 Madison mit 1 3 GHz Taktfrequenz 3 MByte L3 Cache 5 2 Gigaflop s Spitzenleistung pro Prozessor und 8 MByte Hauptspeicher e 67 Knoten mit jeweils 2 Prozessoren vom Typ Itanium2 Madison mit 1 6 GHz Taktfrequenz 3 MByte L3 Cache 6 4 Gigaflop s Spitzenleistung pro Prozessor und 12 MByte Hauptspeicher e Spitzenleistung des Gesamtsystems 1 31 Teraflop s e ca 51 Terabyte gemeinsamer Plattenplatz FC RAID Disk Subsysteme und Lustre als parallelem Dateisystem Bandbreite ca 2 0 Gigabyte s Charakteristik und Anwendungsgebiete e Hochleistungsdurchsatzmaschine f r serielle parallele Anwendungen e Verf gbarkeit vieler kommerziellerer Pakete aus Strukturmechanik Fluiddynamik und Computa tional Chemistry e Die g ngigen Programmiermodelle shared bzw distributed memory werden in Form von OpenMP bzw MPI unterst tzt Versorgungsbereich e Bayerische Hochschulen 2 3 1 2 3 128 Prozessor SGI Altix 3700 Bx2 F r die Abarbeitung komplexer paralleler Anwendungen wurde Anfang Februar 2005 eine Maschine vom Typ SGI Altix 3700 Bx2 installiert Es handelt sich um ein sogenanntes ccNuma cache coherent non uniform memory access System bestehend aus 16 Compute Bricks Nodes mit je 8 Prozesoren Die Nodes sind ber ein Hochgeschwindigkeits Netzwerk vom Typ NUMALink4 gekoppelt und werden im ccNUMA Betrieb gefahren Damit steht ein Single System Image Distributed Shared Memory Syst
240. e Nutzer des HLRB mit den Verantwortlichen am LRZ ber aktuelle Frage zum Betrieb des Systems und zuk nftige Anforderungen diskutieren Die schriftlichen Betr ge zum Workshop sollen im Laufe des Jahres 2008 in einem Berichtsband ver f fentlicht werden 6 3 5 InSiDe InSiDe Innovatives Supercomputing in Deutschland ist die Zeitschrift der drei deutschen H chstleis tungsrechenzentren HLRS Stuttgart NIC J lich und LRZ Die Zeitschrift wird an zahlreiche Institutio nen und Personen sowie die Nutzer der H chstleistungsrechner verschickt Online Ausgaben der Zeit schrift sind unter http inside hirs de htm editions htm verf gbar Im Berichtszeitraum wirkte das LRZ an zwei Ausgaben mit teils durch Benutzerberichte teils durch eigene Beitr ge siehe Ver ffentlichungen der Mitarbeiter 2007 6 3 6 Remote Visualisierungsserver Die auf dem HLRB II oder dem Linux Cluster erzeugten Datens tze haben nun oftmals eine Gr e er reicht die eine Visualisierung auf PCs oder einfachen Workstations nicht mehr gestatten Deshalb wurde im Zuge des HLRB II Ausbaus ein System f r die Remote Visualisierung beschafft das aus einem Sun x4600 Rechner mit 16 Cores 8 Dual core Opterons besteht und mit 128 Gigabyte Hauptspeicher ausges tattet ist Es stehen 3 Terabyte lokaler RAID Plattenplatz zur Verf gung au erdem sind die Dateisysteme des HLRB II und des Linux Clusters direkt mit hoher Bandbreite angebunden was den Zugriff auf Simu l
241. e Produkten Begleitmaterial zu LRZ Kursen und die beliebten und kos teng nstigen Einf hrungsschriften die vom Regionalen Rechenzentrum f r Niedersachsen ber eine F l le von DV Themen herausgegeben werden Die zuletzt genannten Schriften sind deswegen so preisg ns tig weil die akademischen K ufer hier nur f r Material Druck und Versandkosten aufkommen m ssen Der Erwerb und die Nutzung dieser Schriften sind an Voraussetzungen gekn pft und an Bedingungen gebunden die vom LRZ laufend berwacht werden Eine bersicht ber das Schriftenangebot finden Sie unter www lrz de services schriften Es wird laufend aktualisiert Nicht alle Schriften die seitens des RRZN angeboten werden werden auch vom LRZ vorr tig gehalten Es ist aber das gesamte Angebot bestell und lieferbar es sei denn dass die gew nschten Schriften vergriffen sind Aktuelle Informationen ber das LRZ erh lt man durch Abonnement des regelm ig erscheinenden LRZ Newsletter Diese Nachrichten werden ber E Mail verteilt und sind daher m glichst kurz gehalten F r die Details wird auf entsprechende WWW Seiten verwiesen Um die LRZ Newsletter zu erhalten muss auf der entsprechenden WWW Seite des LRZ www Irz de home die Anmeldung dazu angeklickt und ausgef llt werden Genauso einfach kann man sich auch wieder abmelden 2 1 2 Beratung und Unterst tzung 2 1 2 1 LRZ Hotline Ohne Beratung und Unterst tzung kann das vielf ltige DV Angebot nicht si
242. e aktueller PC Prozessoren und Graphiksysteme zu profitieren Bis Mitte 2007 wurde die Holobench mit einem PC Cluster aus f nf Rechnern ein Master und vier Render Clients betrieben die ber die Compositor Boards der Firma ORAD gekoppelt waren Die Rechner des ORAD Clusters enthielten jeweils Dual Opteron 64 Bit Prozessoren 2 4 GHz 8 GB Hauptspeicher und Graphikkarten vom Typ nVidia Quadro FX 4000 Die so genannten DVG Boards von ORAD erm glichten die Koppelung von mehreren Grafikkarten zur synchronisierten Ausgabe von Aktiv Stereo Bildinformation auf die zwei Darstellungsfl chen der Holobench F r diese Art des Betriebs muss ten die nVidia Karten von der Firma ORAD modifiziert werden Das ORAD Cluster wurde im Juni 2007 durch ein PC Cluster von SGI ersetzt das jetzt aus drei wesent lich leistungsf higeren Rechnern besteht Die PCs vom Typ VSS40 sind mit jeweils zwei Dual Core Pro zessoren vom Typ Intel Xeon 5160 3 GHz 32 GByte Hauptspeicher und je einer Grafikkarte vom Typ nVidia Quadro FX 5600 ausgestattet Die Synchronisation der Aktiv Stereo Ausgabe erfolgt jetzt ber nVidia GSync Boards Damit ist ein kompletter Umstieg auf handels bliche Komponenten erfolgt Hardware Upgrades die w hrend der Einsatzzeit der neuen PCs zu erwarten sind k nnen damit erheblich einfacher und kosteng nstiger durchgef hrt werden Als Betriebssysteme kommen wahlweise Windows XP oder SUSE Linux zum Einsatz beide Systeme in der 64 B
243. e bei der System pflege und Weiterentwicklung der Systeme erarbeiteten Erfahrungen bilden die Basis f r die Beratung in Bezug auf PCs PC Netze und die gro e Menge dort vorhandener Anwendungssoftware 2 3 3 Workstations zur allgemeinen Verwendung Neben den PCs stellt das LRZ seinen Kunden auch zwei Workstations unter dem Unix Betriebssystem Solaris zur Verf gung Urspr nglich waren Workstations dieser Art zur Deckung des Rechenbedarfs sol cher Kunden beschafft worden f r die PCs nicht ausreichten und Hochleistungsrechner berdimensio niert waren eine L cke die sich l ngst geschlossen hat Au erdem erforderten manche Grafikprogram me damals den unmittelbaren Zugang zum Rechner Auch daf r besteht inzwischen kein Bedarf mehr deswegen wurden die letzten ffentlich zug nglichen Maschinen im Oktober 2003 aus den Benutzerr u men entfernt so dass diese Workstations nur noch ber das Netz zu erreichen sind Die Maschinen haben mittlerweile f r zahlreiche Nutzer des LRZ einen anderen Verwendungszweck bekommen sie dienen ihnen als Zwischenstation bei der Nutzung anderer LRZ Rechner und als Sprung brett ins Internet Typische Nutzer sind solche die ohnehin ihre Daten am LRZ halten bzw pflegen vir tuelle Webserver und denen die gewohnten Arbeitsweisen f r ihre Bed rfnisse ausreichen so dass sie keinen Grund daf r sehen sich auf einem PC eine neue Umgebung einzurichten Au erdem ist dort auch die eine oder andere Software inst
244. e eingespeist werden k nnen Die Daten werden aus den f hrenden Systemen der Verwaltung aggregiert konsolidiert und aufbereitet dadurch k nnen Redundanzen und Inkonsistenzen erkannt und eliminiert werden Die Stammdaten wer den um zus tzliche Informationen beispielsweise einen hochschulweit einheitlichen Loginnamen f r alle Dienste erg nzt und mit Gruppenzugeh rigkeiten angereichert Auf Basis eines Rollenkonzepts werden die Daten selektiv an die jeweiligen Systeme der brigen Teilprojekte weitergeleitet und st ndig aktuell gehalten so dass ein automatisches Anlegen Modifizieren und letztendlich auch L schen von Accounts erreicht wird wodurch die zust ndigen Systemadministratoren von aufwendigen Routinearbeiten entlastet werden Die Aufgaben dieses Teilprojekts umfassen die folgenden Schritte e Detaillierte Anforderungsanalyse In bilateralen Gespr chen projektweiten Workshops und pro jekt bergreifenden Arbeitskreisen wurden die technischen und organisatorischen Aspekte der Anbindung der brigen Teilprojekte an den Verzeichnisdienst durchleuchtet Dies umfasste die o Daten die zwischen den beteiligten Systemen ausgetauscht werden m ssen wobei die zum Teil stark unterschiedlichen Syntaxen und Semantiken ber cksichtigt konsolidiert und einheitlich spezifiziert wurden F r jedes Datum wurde die autoritative Datenquelle festgelegt und definiert welche Systeme lesenden bzw schreibenden Zugriff darauf er halten sollen o
245. e enormen Datenbest nde der BSB schritt weise in einer angemessen Zeit archivieren und eine Sicherung des Weltkulturerbes realisieren Die Digi talisierungs und Archivierungsma name umfasst 36 150 Titel mit ber 7 2 Millionen Seiten welche in den Bandlaufsystemen des LRZ gespeichert werden Das Archivierungsvolumen steigt dadurch im Ver gleich zum BABS Projekt um den Faktor 10 auf ca 100 Terabyte pro Jahr Dieses erhebliche Datenauf kommen und der hohe Automatisierungsgrad stellen neue Herausforderungen an die verwendeten Spei chersysteme und erfordern einen speziellen Workflow Folgende Abbildung zeigt die Architektur des Gesamtsystems und das Zusammenspiel der einzelnen Komponenten mit dem zentralen NAS Speicher Die Komponenten des gef rbten Bereiches stehen am LRZ und werden auch dort betrieben Scan Roboter V2 A Scan Scan Rechner Rechner LRZ Archivsystem ao O iad i Ei Speicher J eee Archivierung eg Retrieval Abbildung 61 Systemarchitektur des Projektes vd16digital Um den Anforderungen gerecht zu werden und um einen geeigneten Datenfluss gew hrleisten zu k nnen wurde als zentraler Datenspeicher ein NAS System FAS3050 Cluster der Firma Netapp mit dem Be triebssystem ONTAP GX beschafft Neben einer hohen Skalierbarkeit und einem globalen Namensraum bietet das System auch den notwendigen Multiprotokollzugriff CIFS und NFS da das Scannen unter dem Betriebssystem Windows und das Archivierung unter de
246. e existieren Hier muss in den n chsten Jahren nachger stet werden da bei einem Teil der Strecken die entsprechenden Glasfasertypen OM3 Monomode nicht vorhanden sind diese aber aufgrund der gestiegenen bertragungsraten notwendig sind 7 1 8 Anbindung Studentenwohnheime Das LRZ erm glicht Wohnheimen eine feste Anbindung ber Standleitung DSL Technik oder WLAN Funk LAN an das MWN und damit an das Internet Die Kosten der Anbindung hat der Heimtr ger zu bernehmen f r die Netznutzung werden aber keine Geb hren verlangt Zum Jahresende 2007 sind 12 Heime ber eine Glasfaserleitung LWL mit 100 MBit s 15 Heime ber Funkstrecken 9 Heime ber S DSL und 9 Heime ber 100 MBit s Laserlinks an das MWN angeschlossen Die nachfolgende Tabelle zeigt die Wohnheime die Ende 2007 am MWN angeschlossen sind Name Adresse Tr ger Pl tze Anschluss Studentenstadt Christoph Faber Studentenwerk 2440 LWL zu MPI Freimann Freimann Stra e 10 Studentenviertel auf dem Oberwiesenfeld Helene Mayer Ring 9 Studentenwerk 1801 LWL zu YL Kreittmayrstra e Kreittmayrstra e 14 Studentenwerk 45 Funk zu FH Erzgie ereistr 14 Adelheidstra e mit Deutschkurse f r Aus Adelheidstra e 13 Studentenwerk 374 Laser zu FH Dachauerstra e l nder John Mott Haus Theo Prosel Weg 16 CVJM M nchen e V 60 Funk zu YQ Oberschlei heim Obersch leihen Studentenwerk 171 LWL zu V Am Sch feranger 9 15 Verein evangelischer Studen Funk zu Z1 Georg Lanzensti
247. e parallele Anwendung f r Los 2 wurde ein Durchsatz orientierter SPECint 2000 Benchmark gefordert und f r die Lose 5 und 6 die Durchf hrung von iozone zur Feststellung der I O Bandbreite Die Ausschreibung wur de noch innerhalb des Berichtsjahres durchgef hrt und ergab folgendes Resultat Los 1 Systeme mit maximal 4 Kernen f r seriellen Durchsatz die Firma MEGWARE liefert 232 dual core dual socket Systeme mit AMD Prozessoren Los 2 Systeme mit maximal 4 Kernen f r die LHC Tier 2 Infrastruktur die Firma MEGWARE liefert 99 quad core Systeme mit Intel Prozessoren Los 3 Systeme mit mindestens 8 Kernen f r moderat parallele Rechnungen die Firma MEGWA RE liefert 38 dual core quad socket systeme mit AMD Prozessoren Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 149 Los 4 Systeme mit mindenstens 16 Kernen und gro em Hauptspeicher f r Projekte der Mathema tik der TU Miinchen die Firma circular liefert 15 dual core 8 socket Systeme des Typs Sun X4600 Los 5 Plattensysteme und Lustre Server fiir den Ausbau der parallelen Dateisystem Infrastruktur die Firma SGI liefert 12 OST Server und 130 Terabyte Netto Plattenkapazitat Los 6 Plattensysteme fiir die Nutzung als LHC Tier 2 DCache die Firma MEGWARE liefert 15 Server mit einer eingebauten Plattenkapazit t von 140 Terabyte 6 1 2 5 Softwarekomponenten fiir das Linux Cluster 6 1 2 5 1 Applikations Konfiguration und Applikations Versionierung und Software Tests Auf der
248. e wurden in 2007 weitere Switches in die berwachung durch InfoVista aufgenommen insbesondere Switches aus den Bereichen File Server Linux Cluster und VMware Server Switch Ger te Report mit Mbit s anstatt Auslastung Der Standard Report zur Anzeige der Interfaces eines Switches stellte bisher den Verkehr in Form der Auslastung auf dem Interface dar Auf verschiedentlichen Wunsch ist derselbe Report jetzt auch mit dem Verkehr in Mbit s verf gbar Switch Reports f r Innovationszentrum ITEM F r das Innovationszentrum ITEM wurden hnlich wie f r das Gr nderzentrum GATE Reports instan ziiert um den Internet Verkehr der dort angesiedelten Firmen zu monitoren Switch Reports f r Netzverantwortliche Zu den bereits in den Jahren 2003 2006 instanziierten Reports f r Netzverantwortliche kamen 2007 noch Reports f r folgende Institute hinzu e Ludwig Maximilians Universit t Department Biologie I Mikrobiologie und Genetik e Zentralinstitut f r Kunstgeschichte e Ludwig Maximilians Universitat Tier rztliche Fakult t e Bayerische Landesanstalt f r Wald und Forstwirtschaft Die Institute haben damit ber die WWW Schnittstelle VistaPortal http vistaportal Irz muenchen de zu InfoVista eine bersicht ber das Ger t und auch ber die Port Auslastung der Switche Die Fehlersuche kann dadurch erleichtert werden Die Reports k nnen in HTML PNG PDF Text oder Excel Format abgerufen werden Jahresbericht 2007 des Leibniz Re
249. ebseiten und f hrt ihn auf ein Web Formular in dem er schriftlich seine Frage stellen bzw sein Problem beschreiben kann Dabei werden durch dieses Formular gewisse Angaben die zur Bearbeitung notwendig sind direkt angefordert Das hilft die Qualit t des daraus erzeugten Trouble Tickets zu verbessern und seine Bearbei tungszeit zu verk rzen Die immer noch zahlreich eingehenden Anfragen an hotline lrz de enthalten oft nur mangelhafte Anga ben zum Anliegen des Benutzers so dass R ckfragen erforderlich werden bevor berhaupt mit der eigent lichen Bearbeitung begonnen werden kann Diese Anfragen konnten jedoch durch das neue Formular reduziert werden Hotline Web soll gegen ber E Mails an hotline Irz de der Vorrang gegeben werden Im Jahr 2007 wurden f r die HLRB und Linux Cluster Nutzer Webschnittstellen f r die Problemmeldun gen unter http www rz muenchen de services compute hIrb troubleticket http www Irz muenchen de services compute linux cluster troubleticket eingef hrt Das Werkzeug Hotline Web wird zwischenzeitlich wesentlich h ufiger genutzt als die alte Remedy Web Schnittstelle Im Jahr 2007 wurden 1 029 Tickets per Web Formular erfasst 5 1 5 bersicht ber die Nutzung des Trouble Ticket Systems Im Jahr 2007 wurden insgesamt 1 785 Vorjahr 1 531 Trouble Tickets eingetragen davon waren 69 50 Tickets mit der Dringlichkeit kritisch 1699 1418 Tickets mit der Dringlichkeit mittel 17 63 Tickets mit
250. ebung vorgenommen Die Firewall Blades sind seit Anfang 2007 in folgende Router eingebaut e LRZ Hausrouter e LMU Stammgel nde e TU Stammgel nde beide Router e Router auf dem TU Campus in Garching Im Sommer 2007 wurde mit dem Pilotbetrieb bei einigen ausgesuchten Kunden begonnen Da dieser sehr zufriedenstellend lief wurde im November 2007 eine Schulung f r alle Interessierten im LRZ H rsaal veranstaltet um ab Dezember 2007 in den produktiven Betrieb berzugehen Seitdem versorgt das LRZ 20 Kunden inklusive der Pilotkunden mit virtuellen Firewalls wovon sich zehn bereits im produktiven Betrieb befinden Die Restlichen befinden sich noch im Teststadium wobei sich die lokalen Verwalter noch mit der Konfiguration der Firewall vertraut machen Das LRZ betreibt selbst produktiv drei virtuelle Firewalls Ein Ausbau der Firewall Blade Infrastruktur ist f r 2008 geplant Im Zuge dieser Ma nahmen sollen vor allem noch Firewall Service Module in die restlichen Campus Router eingebaut werden L ngerfristig ist auch an eine redundante Ausstattung der Router mit Firewall Service Modulen gedacht Dann w rde Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 227 jeder Router zwei Module bekommen wobei das zweite bei einem Ausfall des ersten die Funktionalit t nahtlos bernehmen k nnte Ziel ist es den Dienst der virtuellen Firewalls im MWN bekannter zu machen und mehr Kunden zu ver sorgen Zur Zeit Ende 2007 w ren bis zu 100 Kund
251. echender Anforderungen aus Grid Projekten in sbesondere DEISA gefordert ist ist dieser Aufwand jedoch unvermeidlich Um Grid spezifische Setzun gen vornehmen zu k nnen wurde in die LRZ Module soweit notwendig zus tzliche Funktionalit t ein gebaut die f r Grid Nutzer automatisch aktiviert wird Das LRZ wirkt auch dar ber hinaus an der Wei terentwicklung der Modul Software mit 6 1 2 5 2 Intel und SGI Entwicklersoftware Debugger Im Hinblick auf die Beschaffungsentscheidung beim HLRB II wurde Ende des Jahres 2004 mit der Firma Intel ein auf 5 Jahre angelegter Lizenz Vertrag ber die Nutzung aller Entwicklersoftware Produkte auf den LRZ Systemen sowie f r Forschung und Lehre in ganz Bayern abgeschlossen Im Einzelnen handelt es sich um e optimierende Compiler Fortran C C e mathematische Bibliotheken Math Kernel Library MKL Integrated Performance Primitives IPP Threading Building Blocks TBB e Performance Tools MPI Tracing Threading Tools VTune e MP I Implementierung Diese Produkte sind mit einigen Einschr nkungen sowohl f r Linux als auch f r Windows und meist auch auf mehreren Plattformen 32 und 64bit CPUs erh ltlich Zur Erzielung hoher Rechenleistung sind hochwertige Implementierungen insbesondere der ersten beiden oben aufgef hrten Punkte unabdingbar Auf den LRZ Systemen ist der Compiler 9 1 als Default Version im Einsatz aktuellere Versionen k nnen vom Benutzer auf Wunsch zugeschaltet werden Bei de
252. echtigungen und Betriebsmitteln in gewissem Umfang zu dezent ralisieren Das hei t dass sich i Allg nicht Einzelbenutzer an das LRZ wenden k nnen wenn sie eine Benutzerkennung erhalten oder gewisse Berechtigungen ndern lassen m chten sondern das nur berech tigten Einrichtungen bzw deren Leitern oder Beauftragten m glich ist F r alle benutzungsberechtigten Einrichtungen ist ein Betreuer am LRZ bestimmt dieser ist u a zust n dig f r alle organisatorischen Absprachen bez glich der Rechnerbenutzung durch die entsprechende Ein richtung Institut oder Lehrstuhl im Hochschulbereich Die aktuelle Zuordnung einer Einrichtung zu einem LRZ Betreuer findet sich in der Betreuerliste s Anhang 8 bzw unter www Irz de wir betreuer Als formaler Rahmen f r die Nutzung von LRZ Systemen mit pers nlichen Kennungen ist stets ein LRZ Projekt notwendig das vom Institutsvorstand oder Lehrstuhlinhaber beantragt wird Entsprechen de Formulare Antrag auf ein LRZ Projekt sind im LRZ Benutzersekretariat oder bei den Betreuern zu erhalten bzw online im PDF Format unter www Irz de wir kennung Dabei wird insbesondere ein Verantwortlicher Master User als Ansprechpartner f r das LRZ benannt Dieser setzt sich dann mit seinem LRZ Betreuer zwecks weiterer Regelungen wie Zuteilung von Benut zerkennungen in Verbindung Der Master User verwaltet Benutzerkennungen seines Bereichs Einzelbenutzer wenden sich an ihren Master User um Nutzungs
253. eeeeeeeeseeeeeseeeseeesaes 6 1 1 H chstleistungsrechner in Bayern HLRB I SGI Altix 4700 _ 631 27 Enux Glustert rn ernennen 6 1 3 Nutzungs Auslastungsstatistiken f r 2007 cseeseenseenseensneenneennennnennnnnn 6 2 Gmd Comp tine u are ra a A speeds sebaeeeecacestesutseveeces a a nan 6 2 1 D Grid F rderung e Science und vernetztes Wissensmanagement des BMBE u 2 E ea er stehen slide G22 VDEISA HA es ne ge ne she 6 2 3 Tier 2 Zentrum des Large Hadron Collider Computing Grid LCG 6 2 4 Sonstige Grid Aktivitaten 0 0 0 cc ceeccssceeceeseeeeeeseeeseeeeeeseeesaecseeneceeeeaeees 6 3 Weitere Aktivit ten und Projekte im Bereich Hochleistungsrechnen 6 3 1 Supercomputing Konferenzen in Dresden und Reno iii iv Inhaltsverzeichnis 6 3 2 Eigenentwicklung FGSL n irosececiean orii i e a i a i eaae 166 6 3 3 Veranstaltungen im Bereich Hochleistungsrechnen cccsceeseeeteeeteceteeeteeees 166 6 3 4 HLRB Result and Reviewing Workshop Perspectives of High End COMPUT G saes reae a aa E a a ao a Ari EEES 166 637 MSDE neasa ae h E Sees Ba col Pin u lee a inne 167 6 3 6 Remote Visualisierungsserver ccccsccesccessceesceeeeeeseeeseeeseeessecsaecaecssecnseceeesaeeees 167 6 3 7 Aktivit ten f r ein nationales und europ isches HPC Konzept n 168 6 3 8 Computational Steering uunesseesseessneesnesnnnennennnennnennnnenneennennnennnen
254. eg ration in das Betriebssystem Der Vorteil liegt in der sicheren Verbindung Verschl sselung zwischen Rechner und Accesspoint einem verbesserten automatischen Ablauf und der M glichkeit sofort E Mails zu versenden und zu empfangen ohne vorher einen Webbrowser benutzen zu m ssen In der erweiterten Form mit der SSID eduroam statt 802 1X ist nicht nur das Roaming innerhalb Deutschlands sondern auch in vielen L nden Europas und in Australien m glich Die SSIDs eduroam und 802 1X werden auf ber 600 Accesspoints im MWN zur Verf gung gestellt Weiteres siehe http www dfn de dienstleistungen dfnroaming 7 2 4 Unterst tzung von Veranstaltungen Das LRZ richtet f r Veranstaltungen im M nchner Wissenschaftsnetz MWN auf Bedarf ein spezielles Netz ein damit die Tagungsteilnehmer das Netz ohne besondere Authentifizierung nutzen k nnen Hier bei wird davon ausgegangen dass die Nutzer dieses Netzes nicht unbedingt aus dem Kreise der M nch ner Hochschulen stammen sondern auch Firmen u dgl das Internet und das MWN ohne spezielle Vor kehrungen ohne VPN Client Installation ohne Validierung nutzen k nnen Eine Anmeldung und die bei frei zug nglichen Netzanschl ssen ansonsten obligatorische Verwendung eines VPN Zugangs werden hier nicht gefordert Diese offene Konfiguration bleibt auf den Zeitraum und den Ort der Veranstaltung begrenzt Der Zu gang ist sowohl ber feste Netzanschlussdosen 100 Mbit s LAN als auch drahtl
255. ege Nachfrage ca 70 Teilnehmer und positives Feedback honoriert Projekt vdl6digital Der im letzen Jahr an die DFG gestellte Projektantrag f r ein weiteres Projekt im Bereich der Langzeit archivierung wurde genehmigt und das Projekt vd16digital im Juni 2007 gestartet Das Ziel des Projekts ist die Digitalisierung und Archivierung der an der Bayerischen Staatsbibliothek vorhandenen im deut Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 181 schen Sprachbereich erschienenen Drucke des 16 Jahrhunderts und die Bereitstellung dieser Digitalisate im Internet Das Projekt versteht sich als breit angelegter Einstieg in die gro fl chige weitgehend automa tisierte Digitalisierung s mtlicher im VD 16 nachgewiesener Drucke und setzt erstmals neueste roboter gesteuerte Scantechnologie f r die rasche und verl ssliche Digitalisierung fr herer Drucke ein Hierzu wurden weltweit die ersten beiden ScanRobots der Firma Treventus mit einer Scan Kapazit t von je 1 100 Seiten Stunde in Betrieb genommen Der ScanRobot ist ein bahnbrechendes Scannerkonzept mit dem die Buchseiten vollautomatisch mit einem Minimum an beweglichen Teilen umgebl ttert sowie komplett verzerrungsfrei gescannt werden Ein wichtiger Vorteil des ScanRobots ist dass die zu scannen den B cher nur um etwa 60 Grad ge ffnet werden m ssen Dadurch werden die Buchr cken w hrend des Scannprozesses besonders geschont Nur durch eine angemessene Automatisierung lassen sich di
256. egend von Profis und teilweise hoch qualifizierten Spezialisten entwickelt Dementsprechend nahm die Qualitat dieser Tools kontinuierlich zu e Die Zahl der elektronischen Sch dlinge Viren W rmer trojanische Pferde usw nahm drastisch zu oft tauchen an einem Tag mehr als 1 000 neue Sch dlinge bzw Varianten Modifikationen schon existierender Sch dlinge auf Au erdem versuchen die Sch dlinge immer intensiver sich vor einer Entdeckung zu sch tzen Als Folge nahm die Erkennungsrate der Viren Scanner ab e Leider ist das Sicherheitsbewu tsein bzw verhalten zu vieler MWN Benutzer nach wie vor unzurei chend Diesem setzt das LRZ diverse sicherheitsrelevante Dienste entgegen siehe 2 7 1 e Die deutliche Zunahme der vom LRZ selbst entdeckten F lle liegt u a daran dass s mtliche VPN verbindungen durch den NAT o MAT siehe 7 4 1 geleitet werden siehe unten und die VPN Nutzung sich in etwa verdoppelte 1800 1600 1400 1200 1000 800 EVomLR 600 selbst entdeckte 400 m lle eidete F lle 200 0 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 Abbildung 31 Entwicklung der Missbrauchsf lle im MWN seit 1998 136 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Im Jahr 2007 gab es insgesamt 1577 Abuse F lle die 1562 MWN Rechner betrafen und zu denen es 272 Hinweise Beschwerden Anfragen usw gab die dem LRZ von au erhalb geschickt wurden Zum G
257. ehe auch Abschnitt 2 8 4 Diese PCs sind in einem einheitlichen PC Netz zu Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 37 sammengefasst das von Servern unter den Betriebssystemen Windows gesteuert und mit Software versorgt wird Als Betriebssystem an den PCs selbst wird Windows XP eingesetzt Die Benutzung der PCs im LRZ Geb ude ist montags bis freitags bis 20 45 Uhr d h auch nach der Schlie ung des Geb udes m glich daf r sorgt ein Dienst mit studentischen Hilfskr ften F r das Arbeiten an die sen Ger ten ist eine pers nliche Kennung erforderlich c Die Macintosh im PC Arbeitsraum und im Multimedialabor mit dem Betriebssystem Mac OS X werden von Microsoft Active Directory mitversorgt das die Validierung Login der Benutzer bernimmt Deren private Verzeichnisse Home werden vom NAS Filer bereit gehalten Damit haben die Nutzer ein einheitliches Login an allen ffentlich zug nglichen Macintosh Arbeitspl tzen und finden an jedem der Rechner dieselbe eventuell individuell angepasste Arbeits umgebung vor d Die Mitarbeiter des LRZ benutzen nat rlich ebenfalls PCs sowohl unter Microsoft Betriebssystemen wie auch unter Linux oder Mac OS Alle diese Systeme m ssen gewartet und gepflegt werden Das auf diesen Rechnern angebotene Spektrum an Anwendungssoftware Textverarbeitung Statistik Graphikprogramme CAD usw ist wesentlicher Bestandteil des in die Breite wirkenden Versorgungsspektrums des Rechenzentrums Di
258. ehmen SAN Storage Area Network Neben der reinen Rechenleistung wurde Hintergrundspeicher zu einer immer bedeutenderen Planungs gr e Kurz vor der Jahrtausendwende wurde daher damit begonnen f r Anwendungen mit besonders hohem Datenaufkommen ein eigenes Speichernetz Storage Area Network SAN aufzubauen W hrend NAS und AFS den Zugriff auf Filesystemebene regeln und die Daten ber das LAN transportiert werden erlaubt ein Speichernetzwerk den direkten Zugriff auf Blockebene auf die angeschlossenen Massenspei cher ber dedizierte Netzinfrastruktur und ist damit vor allem f r Anwendungen mit intensivem Daten transfer geeignet Zu solchen Anwendungen geh ren die Fileserver und Compute Server Cluster des LRZ ebenso wie die Plattencaches und Bandlaufwerke des Archiv und Backupsystems Die Trennung der Massenspeicher vom Server hat sich in ihrer Gesamtheit sehr bew hrt Zu den Vortei len der Speicherkonsoliderung am LRZ z hlen e Die Beschaffung gr erer Systeme ist kosteng nstiger e Der Verschnitt ist geringer die Skalierbarkeit deutlich h her e Das Datenmanagement ist flexibler Es ist nun m glich rasch auf wechselnde Anforderungen zu reagieren da im SAN grunds tzlich Reserven f r solche Zwecke vorgehalten werden k nnen e Die Administratoren lokaler Fileserver und Plattenspeichersysteme werden entlastet e Bestimmte Dienste wie Hochverf gbarkeitsl sungen Archiv Dienste Zugriff auf die Daten ber das Internet
259. ehoben Eine fehlerbereinigte Firmware f r die LSI RAID Kontroller wurde ebenfalls noch Ende des Jahres von sgi zur Verf gung gestellt konnte jedoch nicht mehr auf dem System installiert werden Durch diese beiden Verbesserungen ist f r 2008 ein Anstieg der Systemverf gbarkeit auf Werte oberhalb von 97 im Jahresmittel zu erwarten Die Darstellung der aktuellen Betriebssituation des HLRB II auf den LRZ Webseiten wurde im Berichts zeitraum kontinuierlich verbessert und vervollst ndigt Neben der aktuellen Maschinenauslastung aus Sicht des Schedulingsystems werden nun auch Datei Ein und Ausgabe Auslastungsdaten sowie die Hauptspeicherbelegung des Systems oder einzelner Partitionen auf den HLRB II Webseiten angezeigt HLRB Il Ausfallstatistik 2007 1 80 1 60 1 40 1 20 2 1 00 So o9 D Q Q z z Nichtverf gbarkeit 0 40 0 20 0 00 N Fehlerursachen RG a Abbildung 34 HLRB II Ausfallstatistik f r 2007 6 1 1 3 Nutzungsaspekte Die abgegebene Rechenleistung des HLRB II und des Migrationssystems HLRB2i sind in der folgenden Tabelle aufgef hrt Die mittlere Leistung des fertig ausgebauten Systems zwischen 3 5 und 5 Teraflop s kann als befriedigend eingestuft werden Sie betr gt damit das F nfzehnfache der Leistung des Vorg n gersystems HLRB I Hitachi SR8000 Insgesamt wird jedoch angestrebt eine mittlere Leistung von mehr als 10 der Spitzenrechenleistung zu erreichen d h m
260. ehr als 6 Teraflop s 144 Teil II Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme D hirb2i B hirb2 Dez Jan Feb Mrz Apr Mai Jun Jul Sep Okt Nov Aug 2007 Abbildung 35 Monatsmittel der Rechenleistung des H chstleistungrechners in Bayern HLRB II Altix 4700 und additiv die Rechenleistung des Migrationssystems HLRB2i Die Verteilung der abgegebenen Rechenzeit auf einzelne Jobklassen ist in der folgenden Abbildung dar gestellt Der Schwerpunkt der Nutzung liegt zwischen 128 und 512 Prozessorkernen Typischerweise liegen die verwendeten Anzahl von Cores an der jeweiligen Obergrenze der angegeben Intervalle Etwa ein Viertel der Jobs verwendet bis zu 64 Cores Diese Jobs stammen aus Projekten bei denen eine sehr gro e Anzahl oft mehrere Hunderte solcher Jobs gerechnet werden und die Einzelergebnisse dann zu sammengefasst werden Werden mehr Cores verwendet so wird meist nur an einer Einzelsimulation gearbeitet Erstaunlich ist dass die Jobgr e zwischen 65 und 128 Cores kaum mehr von Bedeutung ist d h die Einzelprobleme sind jetzt so gro dass mehr als 128 meist mehr als 256 Cores verwendet wer den m ssen Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 145 m 2049 4096 E 1025 2048 E 513 1024 D 257 512 129 256 E 65 128 E 0 64 Okt Sep Nov Usage by Jobsize Jul Aug Abbildung 36 Verteilung der Rechenzeit nach Jobgr e Legende gibt die Anzahl
261. eht vorteilhaft oder von Nachteil je nachdem von welcher Seite man es betrachtet In den meisten Lizenzvertr gen f r den akademischen Bereich ist eine akademi sche Einrichtung so definiert dass sie Pr fungen durchf hrt Zeugnisse ausstellt und akademisch Grade verleiht Diese Vertragsvoraussetzungen sind beim LRZ nicht gegeben Daher tut sich manch ein Ver tragspartner schwer seine meist von einer juristischen Abteilung des Mutterkonzerns im Ausland vorgegebenen Bedingungen f r die Vergabe von g nstigen Forschungs und Lehrelizenzen an die organi satorischen Rahmenbedingungen beim LRZ zu adaptieren Dass das LRZ mit Mitteln des Freistaats Bayern als gemeinsames Rechenzentrum f r Forschung und Lehre f r alle M nchner Hochschulen ge schaffen wurde und wie es daher im Zusammenhang mit der Beschaffung und Weitergabe von Software lizenzen einzuordnen ist bedarf in der Regel l ngerer Ausf hrungen in den jeweiligen Verhandlungen Und nicht immer reagieren die Firmen flexibel genug um einen Vertragsabschluss zuzulassen Dennoch erwarten Institute Lehrst hle und Departments der M nchner Hochschulen auch weiterhin zu recht vom Leibniz Rechenzentrum dass es g nstige Einkaufs und Nutzungskonditionen bei den Soft ware Herstellern und Lieferanten erreicht vorrangig f r die Anwender im Hochschulbereich des M nchner Campus eventuell f r ganz Bayern oder gar dar ber hinaus Dass aktuelle Lizenzangebote jetzt dabei auch die Stud
262. ei der Archivierung von Daten die Originale anschlie end in der Regel gel scht Dies stellt besonders hohe Anforderungen an die Datensicherheit des Archivs Am LRZ wird diesem Anspruch dadurch Gen ge getan dass von allen Archivdaten Kopien auf ge sonderten Magnetb ndern angelegt werden Diese B nder befinden sich nicht in Massenspeichern am LRZ selbst sondern in einem anderen Rechenzentrum RZG auf dem IPP Gel nde in Garching Ei ne konsequente Umsetzung der Vorsorgema nahmen w rde die Spiegelung aller Daten in ein geog raphisch entfernt liegendes Datenzentrum erfordern Eine Realisierung kam bisher aus r umlichen finanziellen und personellen Gr nden nicht in Frage Insgesamt zeigt sich dass der Bereich Archivie rung am LRZ einen immer h heren Stellenwert einnimmt Teilte sich das am LRZ gesicherte Daten volumen vor wenigen Jahren noch je zur H lfte zwischen Backup und Archivierung auf so ist inzwi schen der Archivierungsanteil auf fast 2 3 gestiegen Backup 1 3 e Langzeitarchivierung Die Aufbewahrung von Daten ber Jahrzehnte hinweg stellt besondere Anforderungen an die Ver waltung dieser Daten Siehe n chster Abschnitt Langzeitarchivierung e Bereitstellung von Massenspeicher Vorwiegend an den Hochleistungsrechnern und Compute Clustern fallen Daten in einem Umfang an der den Einsatz besonders leistungsf higer Speichersysteme notwendig macht Neben ausreichender Kapazit t ist vor allem eine hohe Durchsatzrate ein entsch
263. eibt zwei gro e Systeme mit Bandrobotern ein neueres Hochleistungssystem HABS und ein lteres System mit LTO Bandlaufwerken f r moderatere Anforderungen LABS Nach dem Umzugsjahr 2006 und der erfolgreichen Inbetriebnahme der neuen Infrastruktur des HABS sowie Erweiterungen des LABS stand das Jahr 2007 im Zeichen der e Verbesserung der Verf gbarkeit e der Verfeinerung der Konfiguration und der berwachung e der Homogenisierung der Software Versionen e Verbesserung der Leistungsf higkeit der Systeme e und Vorarbeiten zur n chsten Erweiterung und Umbau der Systeme F r die Archivierungsprojekte wurden ferner eigene Archivserver eingerichtet Die Server die den Bun desh chstleistungsrechner bedienen wurden auf eine neuere und deutlich leistungsf higere Hardware Plattform verlagert F r Anfang 2008 wurde eine gro e Erweiterung des HABS geplant Die STK SL8500 Library wird auf 8000 Stellpl tze erweitert die Laufwerksanzahl wird auf 26 erh ht Zus tzlich werden Erweiterungsbla des f r die FC Direktoren beschafft die Plattensubsysteme vergr ert und teilweise umgebaut Die wich tigsten Vorarbeiten Planung und Tests der notwendigen Ver nderungen der Konfiguration im Vorfeld usw f r diese Aktion sind im Jahr 2007 geschehen Insbesondere wurde Anfang 2007 ein Gro ger te antrag geschrieben in dem die notwendigen Gelder angefordert wurden Der Antrag wurde im Sommer genehmigt Da es sich nur um zus tzliche Komponenten d
264. eichert werden e In der IP Adress Verwaltung wurde ein Button eingebaut der die abgelaufenen IP Adressen anzeigt Au erdem wird automatisch das Ablaufdatum gel scht wenn der Status von einer IP Adresse von testweise vergeben auf einen anderen Status gesetzt wird e Man kann ber die Felder Inventarnummer Alt und Neu und die Klassifikation in Einzelteil Tickets suchen vorher waren diese Felder gesperrt und nur ber ein Makro suchbar e Das Kopieren eines Ger te Tickets mit der Funktion STRG T funktioniert jetzt auch wenn in dem entsprechenden Ger t schon einmal ein Einzelteil eingebaut war e Im Einzelteil Ticket wurde ein neues Feld Garantie bis vom Typ Date eingebaut Somit kann auch nach dem Datum komfortabler auch in einem Zeitintervall gesucht werden Das alte Feld vom Typ Character wurde auf hidden gesetzt e Im Einzelteil Ticket wurde ein Feld Sonstige Notizen eingebaut Dieses Feld ist nur sichtbar wenn ein Einzelteil im Zustand Teil zur Reparatur oder Einzelteil defekt ist Das Makro HP Teile Reparatur zeigt alle HP Teile die sich in der Reparatur befinden Am Trouble Ticket Formular wurden folgende nderungen durchgef hrt e Neue Online Seite f r Problemmeldeformular f r die HLRB und Linux Cluster Nutzer entwi ckelt siehe 5 1 4 e Der Bearbeiter eines Trouble Tickets erh lt optional eine Kopie der E Mail an den Kunden e Zum Trouble Ticket bisher versandte E Mails sind
265. eidendes Kriterium f r die Eignung der einzusetzenden Medien Neben den Hochleistungsrechnern wird dieses Angebot zunehmend im Mul timedia Bereich f r die mittelfristige Aufbewahrung von Video Daten Postererstellung und hnli ches genutzt Die Kunden des LRZ nutzen das zentrale Archiv und Backupsystem explizit oder implizit Je nach Art der Rechner und des genutzten Dienstes fallen in unterschiedlichem Umfang Daten an Man kann zwi schen dem zentralen und dezentralen Nutzerkreis unterscheiden e Rechner und Rechner Cluster im M nchener Wissenschaftsnetz Die in der Regel netztechnisch gut angebundenen Rechner im MWN betreiben vorwiegend Datensi cherung teilweise auch Archivierung Es handelt sich dabei um Rechner aller Plattformen PCs und PC Cluster Server unter Netware und Windows Unix Workstations Unix Cluster Server Der Trend geht hier definitiv in Richtung Linux und Windows Server die heute 90 Prozent aller registrierten Server ausmachen e Hochleistungsrechner und Server des LRZ Durch die Hochleistungsrechner und Compute Server des LRZ fallen sehr groBe Datenmengen an Durch die brigen Rechner im Rechenzentrum wird ebenfalls ein beachtliches Datenaufkommen produziert da zu diesem Bereich auch verschiedene speicherintensive Dienste wie etwa die NAS Systeme geh ren Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 41 Datenfluss im Archiv und Backupsystem GE Backbone QQQ Storage Tape Librarie
266. eil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme allgemeinen per nlichen Beratungsleistungen Dieser Wunsch wird von uns sehr erst genommen und wir loten die Realisierungschancen hinsichtliche R umen und personeller Ausstattung aus haben aber leider noch keine praktikable L sung gefunden 5 9 Umzug der IT des Bibliotheksverbund Bayern an das LRZ Im Rahmen der Zentralisierung der IT Infrastruktureinrichtungen des Freistaates Bayern wurde in 2006 der Umzug des Rechenzentrums der Verbundzentrale des Bibliotheksverbundes Bayern BVB in das Leibniz Rechenzentrum LRZ beschlossen Die Anwendungsbetreuer verbleiben in der Innenstadt Mit der Erstellung eines Dienstleistungsvertrags bestehend aus Rahmenvertrag Leistungsvereinbarung und Leistungsscheinen f r Anwendungen wurde die neue Outsourcing Situation definiert und die geplan ten Abl ufe f r die Serviceerbringung dokumentiert Vertragspartner sind die Bayerische Staatsbibliothek und das Leibniz Rechenzentrum die die Rahmenvereinbarung in 2007 unterzeichnet haben Damit war der Startschuss f r die konkreten Umzugstermine gegeben Allen Anwendern wurde gegen Ende 2007 Anfang 2008 das gesamte Vertragswerk noch einmal vorgelegt bevor die endg ltige Unterzeichnung erfolgen soll Ziel war es zun chst in den Dokumenten den Ist Zustand festzuhalten und die bisherige Servicequalit t mindestens aufrecht erhalten zu k nnen Perspektiven f r die Zukunft ber hren Themen wie R
267. eils ben tigten Formaten bereitstellen und ber ein so genanntes Meta Directory untereinander abgeglichen wer den Die nachfolgende Abbildung zeigt die logische Struktur dieser Architektur Datenquellen lt A L pf a SOS te IntegraTUM Verzeichnis dienst O Administrations Satellit Zielsysteme lt TUM TP TP TP Portal Admin E Mail Storage LMS Ein Abbildung 19 Architekturmodell der Verzeichnisdienste f r IntegraTUM Die Daten aus den f hrenden Systemen Personalverwaltung mit SAP HR Studentenverwaltung mit HIS SOS dedizierte web basierte G steverwaltung werden in einem verwaltungsspezifi schen Verzeichnisdienst aggregiert und konsolidiert um beispielsweise Studenten die als studen tische Hilfskr fte auch Mitarbeiter sind nur einmal und nicht mehrfach zu erfassen Sie flie en ber das Meta Directory an weitere Verzeichnisdienste an welche die Zielsysteme angeschlossen werden Die Zuordnung der Zielsysteme zum jeweiligen Verzeichnisdienst basiert auf einer Gruppierung anhand der jeweils ben tigten Datenformate Datenmengen und Synchronisations frequenzen um eine m glichst gleichm ige Auslastung des Gesamtsystems zu erzielen Die im Bild dargestellten Pfeile entsprechen den Konnektoren Deployment Spezifikation F r die Instantiierung der ersten Version der Verzeichnisdienst Architektur wurde die ben tigte Hardware Software und Konfiguration dokumentiert Dabei wurden insbesondere die Aspekte Repl
268. einen Benutzerberatung sind Montag bis Freitag 9 bis 17 Uhr Nach 17 Uhr eintreffende Fragen werden von der Leitwarte aus beantwortet siehe auch www Irz de wir zeiten Bei schwierigen und speziellen Problemen verweist die allgemeine Benutzerberatung auf kompetente Spezialisten Fachberatung LRZ Mitarbeiter bieten Fachberatung auf vielen Gebieten an z B e Numerik e Graphik und Visualisierung e Textverarbeitung e Programmierung in g ngigen Sprachen e Kommunikationsnetz e _Systemverwaltung von Unix und Linux Rechnern e Systemverwaltung von PC Netzwerken e Nutzung der Hochleistungssysteme Vektorisierung Parallelisierung e Sicherheitsmafinahmen bei vernetzten Rechnern Wir empfehlen dringend den Kontakt mit der Benutzer oder Fachberatung z B ber den Betreuer siehe Abschnitt 4 1 bereits in der Planungsphase eines DV Projekts zu suchen um z B Fragen e des methodischen Vorgehens e der M glichkeit der Nutzung fertiger L sungsans tze Computer Anwendungsprogramme e der Datenstrukturierung und Speicherung z B von gro en Datenmengen e der Rechnerauswahl f r dezentrale oder zentrale Anlagen und f r Arbeitsplatzrechner e der L sungsverfahren Verwendung geeigneter Programme oder Programmbibliotheken mit uns zu diskutieren Jede individuelle Beratung ist sehr personalintensiv Das LRZ h lt diesen intensiven Personaleinsatz aber dennoch f r lohnend und auch notwendig Erst wenn eine geeignete Methode gefunde
269. eiser Einsatz neuer Technologien Austausch mit ande ren Rechenzentren und dem DFN CERT e Viren Filterung und Anti Spam Ma nahmen bei den Mail Systemen des LRZ Daneben bietet das LRZ seinen Kunden diverse sicherheitsrelevante Dienste an die sie jedoch individuell und aktiv nutzen m ssen e Kostenlose Bereitstellung von Antiviren Software f r alle LRZ Kunden einschlie lich f r die priva ten Rechner und Betrieb eines entsprechenden Update Servers siehe Abschnitt 2 7 2 Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 49 e Betrieb eines Servers f r den Windows Server Update Service WSUS f r Microsoft Client Ser ver Betriebssysteme und Microsoft Anwendungen Dies hilft bei der kontinuierlichen Aufgabe bei den eigenen Rechnern neu entdeckte Sicherheitsl cher zu beseitigen besonders bei vorliegenden Warnungen wie sie etwa das DFN CERT verbreitet e Technische Unterst tzung zur Verbesserung der Netzsicherheit im MWN z B private IP Adressen NAT o MAT und Standard Firewall Pakete siehe Abschnitt 7 4 2 e Bereitstellung von Sicherheitsinformationen per Web diversen Mail Verteilern Schriften Kursen und Informationsveranstaltungen Erfahrungsgem ergeben sich die gr ten Sicherheitsprobleme aus zu geringem Problembewusstsein und mangelndem Wissen von Endbenutzern wie leider auch von Systemverwaltern viele L cken sind eine Folge der unbeabsichtigten Verletzung elementarster Sicherheitsregeln Da durch diesen
270. eistung der erforderlichen Sicherheitsvorgaben evtl auch durch zus tzliche Hardware wie etwa Firewall Rechner Zugang vom Kommunikationsnetz nur ber zugelassene Hostrechner z B keine Netzrouten keine Default Route Zugang zum HLRB nur ber die Produkte der Secure Shell Familie z B ssh scp Kein telnet rsh rep oder ftp Implementierung aller zweckm igen neuen Verfahren zur Aufrechterhaltung und Erh hung der Si cherheit Einbettung des Rechners in eine Benutzerverwaltung die Sicherheit und Schutz vor missbr uchlichem Zugriff auf Daten anderer bzw vor Ver nderung von Programmen bietet Folgende Aufgaben werden von der Betriebs und Betreuergruppe gemeinsam durchgef hrt e Das LRZ ist verantwortlich f r die effiziente Nutzung des Rechners soweit dies betrieblich beeinf lussbar ist Dies betrifft insbesondere auch die F lle in denen auf Grund von Beobachtungen im Be trieb R cksprachen mit Benutzern erforderlich werden schlechte Programm Performance Betriebs probleme durch Programme Benutzerberatung wegen offensichtlich ung nstiger Verfahren usw 286 Teil III Anhang 10 e Das LRZ organisiert den aktuellen Betrieb wann Blockzeiten wann Durchsatzbetrieb wann kann trotz Blockzeit noch ein Programm nebenher gerechnet werden usw e Das LRZ f hrt die Betriebsstatistiken des HLRB und die Abrechnung der verbrauchten Ressourcen durch Davon abgeleitet werden die Priorit ten der Auftragsabwicklung
271. eiten Damit ergibt sich pro Prozessorkern eine Spitzenleistung von 6 4 Gigaflop s 6 4 Milliarden Gleitkomma Operationen pro Sekunde Jeder Prozessor ist dar ber hinaus mit 256 Kilobyte Level 2 Cache und 9 Me gabyte Level 3 Cache ausgestattet im Unterschied zum normalen Hauptspeicher laufen diese Caches mit der vollen Systemfrequenz sodass solche Anwendungen die ausreichend oft Daten aus dem Cache wiederverwenden k nnen eine sehr hohe Anwendungsleistung erzielen Auf der am LRZ installierten Altix 4700 sind die Speicherb nke der 13 Single Socket Blades mit 8 Gigabyte pro Blade und der 6 Dual Socket Blades mit 16 Gigabyte pro Blade best ckt Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 27 Ein Ein Ausgabe Knoten besteht aus einer Cache Koh renzschnittstelle TIO Chip und einem ASIC der die g ngigen IO Schnittstellen wie zum Beispiel PCI X oder PCI Express bereitstellt Die Koh renz schnittstelle erlaubt es Daten cache koh rent direkt von der IO Schnittstelle z B PCI X Karte ber den Numalink4 Interconnect in den verteilten Hauptspeicher auf den Prozessorknoten zu transportieren Aufbau des Interconnect Der NumaLink4 Interconnect der Altix 4700 verbindet die einzelnen Blades miteinander Er unterschei det sich von handels blichen Netzwerk Technologien dadurch dass der Zustand des gesamten Haupt speichers zu jeder Zeit f r alle Prozessoren sichtbar ist Dar ber hinaus ist die Latenz beim Zugriff auf Daten au
272. eitigen X WiN Anbindung von 10 GE ist die Unsch rfe verh ltnism ig gro Inzwischen holen allerdings die PC Bussysteme gegen ber den hohen Datenraten im Netz auf und erlauben zuk nftig wieder Monito ring Accounting Systeme die auf PC Hardware basieren o Erkennung von Bot Netz Mitgliedern Bot Netze sind Verb nde kompromittierter Rechner die f r verschiedene Zwecke z B DoS Angriffe SPAM z T vermietet von au en ferngesteuert werden Basierend auf dem Intrusion Detection System IDS BRO wird mithilfe entsprechender Signaturen der Verkehr auf m gliche Bot Netz Mitglieder im MWN untersucht Dies geschieht an zwei Stellen am NAT o MAT und an einem dedizierten BRO System das auf einer Kopie des MWN Verkehrs operiert und den Rest bernimmt Nachdem ein Bot Netz Mitglied im MWN entdeckt wurde wird automatisch der zust ndige Netzverant wortliche informiert Am NAT o MAT wird der Delinquent auch automatisch am X WiN Zugang gehin dert w hrend das bei dem BRO System manuell erst nach mehrfachem Auffallen geschieht Zuk nftig wird hier auch automatisch gesperrt werden e Statistische Verfahren o Erkennung von Portscans und Denial of Service Angriffen Die Erkennung von Portscans und Denial of Service DoS Angriffen die vom MWN ausgehen tr gt nach wie vor zu einem stabilen MWN Betrieb bei Ein von einem Rechner ausgehender Portscan hat sich als sehr sicheres Indiz daf r herausgestellt dass dieser Rechner in irgendeiner Wei
273. el Haus Kieferngartenstra e 12 tenwohnheime 135 LWL zu YY IMC Okumenisches Studenten Steinickeweg 4 Verein evangelischer Studen 70 Rank dx Uhrenturm heim tenwohnheime Hugo Maser Haus Arcisstr 31 voce evangelischer Stiden 70 Funk zu Uhrenturm tenwohnheime Studen tenivohnheim Ge Steinickeweg 7 Studenten Onn ene 227 SDSL M net 2 MBit Linux Router schwister Scholl schwister Scholl e V St Albertus Magnus Haus Avenariusstra e 15 St Albertus Magnus Stiftung 108 SDSL M net Pasing Kath Wohnheimsiedlung tak Hess Stra e 77 Wobnhe medline 124 Funk zu FH Dachauerstra e mannplatz Ma mannplatz e V Jakob Balde Haus Theresienstra e 100 Studienseminar Neuburg 110 LWL zuBl Donau Internationales Haus Adelheidstra e 17 Studentenwerk 93 uber Adelneidste 13 angeschlossen Hedwig Dransfeld Allee oe Diasteld elles Studentenwerk 100 100 MBit s Laserlink SDSL M net f r Uniradio Stettenkaserne Schwere Reiter Str 35 Studentenwerk 186 100 MBit s Laserlink zur FH in der Dachauerstra e Heidemannstra e Paul Hindemith Allee 4 Studentenwerk 310 100 MBit s Laserlink 100 MBit s Richtfunk zur Studenten Felsennelkenanger Felsennelkenanger 7 21 Studentenwerk 545 stadt von dort per LWL zu MPI Heiglhofstra e Heiglhofstra e 64 66 Studentenwerk 415 N En 2 MBit Funk Backup 204 Sauerbruchstra e Garching I Garching II Dominohaus Maschinenwesen Ehemalige Hausmeisterwoh nung T rkenstra e Weihenstephan II Lange Point Weihe
274. elassen 6 1 2 3 Notwendigkeit weiterer 64 bit Systeme Erstmals sind am 32 Bit Cluster im Laufe des Jahres mehrfach Probleme dadurch aufgetreten dass Be nutzerprogramme Speicheranforderungen deutlich jenseits von einem GByte hatten die einerseits zu Engp ssen Paging und damit gelegentlich zu Instabilit ten am 32 Bit Cluster f hrten Andererseits kann 32 Bit Linux zwar bis zu 64 GByte an physischem Hauptspeicher verwalten eine einzelne Applikation jedoch nicht mehr als 2 GByte RAM allozieren Die Notwendigkeit der 2007 begonnenen generellen Migration aller Cluster Systeme auf 64 Bit Hardware k ndigte sich damit auch auf Anwenderseite an 6 1 2 4 Erweiterung des Linux Clusters Auf Grund der deutlich gestiegenen Benutzeranforderung nach Durchsatzkapazit t sowie des unzurei chenden Hauptspeicherausbaus der 32 Bit Systeme ergab sich die Notwendigkeit im Rahmen einer Neu beschaffung diese Systeme durch Mehrkernsysteme mit Standard 64 Bit Prozessoren zu ersetzen Die Heterogenit t der Nutzeranforderungen sowie die Beteiligung von LHC und der TU M nchen am Aus schreibungsverfahren resultierte in einer Unterteilung der Beschaffung in 6 Lose Erstmals wurde der Energieverbrauch der angebotenen Systeme bei der Bewertung der Angebote quantitativ mit einbezogen Um den Aufwand f r die Durchf hrung der Leistungsmessungen seitens der Hersteller gering zu halten beschr nkte sich die Benchmarksuite neben den synthetischen Programmen auf eine einzig
275. elf ltigen LRZ Rechnerplattformen und des LRZ Portals mit Management Funktionalit t sowie dem geplanten Datenaustausch mit den beiden M nchner Universit ten das Meta Directory im Zentrum koordiniert den Abgleich der Datenbest nde Die Directory Struktur wird auf Basis der Novell Produkte eDirectory und Identity Manager 2 in einer Pilotumgebung implementiert und getestet die Umstellung der Benutzerverwaltung auf das neue System soll nach Fertigstellung geplant und durchgef hrt werden Bei der Konzeption konnten die im Rahmen von Kooperationen mit der LMU und der TUM erworbenen Kenntnisse in den Bereichen Campus Portale Identity Management und LDAP erfolgreich angewandt und vertieft werden Durch die aktive Teilnahme an bayern und bundesweiten Arbeitskreisen zum The ma Meta Directories konnten hochschul bergreifende Synergieeffekte erzielt werden Dabei zeigte sich dass das LRZ sowohl hinsichtlich der Anzahl der zu verwaltenden Benutzer als auch der zur Verf gung gestellten Dienste und Rechnerplattformen an einer der im deutschen Hochschulumfeld aufwendigsten Identity Management L sungen mit sehr hohen Anforderungen arbeitet 108 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme S S S Self Services SW Download IntegraTUM gt Wel MeN S geo geet yX T ae Portal Satellit i Import Meta Dir ctory Export en Satellit Hausinterne Datenbank _ Ruthentiizierungs Satellit e 3S SIM ID
276. em mit 128 Prozessoren zur Verf gung das auch MPI und OpenMP Programmiermodelle unterst tzt Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 31 I I Technische Daten e 128 Prozessoren vom Typ Itanium2 Madison mit 1 6 GHz Taktfrequenz 6 MByte L3 Cache und 6 4 Gigaflop s Spitzenleistung pro Prozessor e Spitzenleistung des Gesamtsystems 819 Gigaflop e 512 Gigabyte Hauptspeicher als Distributed Shared Memory Peak Bandbreite zum lokalen Spei cher 6 4 Gigabyte s e ca 11 Terabyte lokaler Plattenplatz FC RAID Disk Subsystem Peak Bandbreite ca 1 6 Giga byte s e ca 51 Terabyte gemeinsamer Plattenplatz FC RAID Disk Subsysteme und Lustre als parallelem Dateisystem Bandbreite ca 2 0yte s e das System wurde in 2 Compute Racks und 1 Disk Rack aufgestellt Charakteristik und Anwendungsgebiete e Hochleistungsdurchsatzmaschine f r komplexe parallele Anwendungen e Verf gbarkeit vieler kommerziellerer Pakete aus Strukturmechanik Fluiddynamik und Computa tional Chemistry e Die g ngigen Programmiermodelle shared bzw distributed memory werden in Form von OpenMP bzw MPI einschlie lich der CRAY SHEM Bibliotheken unterst tzt Versorgungsbereich e Bayerische Hochschulen 2 3 1 2 4 SGI Altix Systeme F r die Abarbeitung komplexer paralleler Anwendungen stehen zwei Altix Systeme zur Verf gung Zum Einen seit Anfang Februar 2005 eine Maschine vom Typ SGI Altix 3700 Bx2 linker Bildteil unten mit 128 Madis
277. en zu beantworten so wird die elektronische Verteilung und die damit verbundene Dokumentation die Antwort auf derartige Fragestellungen k nftig zumindest unterst tzen 5 4 Benutzerverwaltung und Verzeichnisdienste Bei der Vergabe von Kennungen an Hochschuleinrichtungen und Studenten arbeitet das LRZ sehr eng mit den beiden M nchner Universit ten zusammen Abschnitt 5 4 1 gibt einen berblick ber die derzeit vergebenen Kennungen und ihre Verteilung auf die LRZ Plattformen In Abschnitt 5 4 1 2 wird das Pro jekt LRZ SIM Secure Identity Management beschrieben das auf eine Modernisierung der LRZ internen Benutzerverwaltung durch den Einsatz von LDAP basierten Verzeichnisdiensten abzielt Die neue LRZ Benutzerverwaltung wird direkt mit den Hochschulverzeichnisdiensten von LMU und TUM gekoppelt sein Im Rahmen der Projekte myTUM siehe Abschnitt 5 4 2 4 und IntegraTUM siehe Abschnitt 5 4 4 wirkt das LRZ unmittelbar am Aufbau und Betrieb einer integrierten hochschul bergreifenden Benutzer verwaltungsarchitektur mit 5 4 1 F r LRZ Systeme vergebene Kennungen 5 4 1 1 An Hochschuleinrichtungen vergebene Kennungen Die folgende Tabelle gibt einen berblick ber die vom LRZ an Hochschuleinrichtungen via Master User vergebenen Kennungen und zwar pro Plattform und mit Stand von Ende 2007 Eine Anmerkung zur Plattform AFS AFS steht f r Andrew File System und ist das Dateisystem unter dem die Home Directorys der betreffen
278. en 20 je Standort m glich 7 5 Projektarbeiten im Netzbereich 2007 7 5 1 Vodafone Ger te Im Rahmen des Sponsorings von Vodafone f r Exzellenz Universit ten wurden die Ludwig Maximilians Universit t und die TU M nchen mit UMTS f higen Ger ten f r die mobile Sprach und Datenkommunikation und Access Points f r WLAN ausgestattet Neben der berlassung von Endger ten f r den Zeitraum von 5 Jahren beinhaltet der Sponsoringvertrag auch die bernahme aller dienstlichen Telefonate im Inland und ein monatliches Datenvolumen von 5 GB pro Endger t im Inland Im Ausland werden Geb hren bis zu 100 Euro bernommen Von der Ludwig Maximilians Universit t wurden Smartphones vom Typ Vodafone vpa III compact mit Windows Mobile 6 und UMTS Einschubkarten f r Notebooks ausgew hlt Da es keinen kostenfreien VPN Client f r diese Smartphones gibt und der Zugriff auf MWN interne Dienste erleichtert werden sollte wurde im Rahmen von Vodafone Connect ein eigener UMTS Zugangspunkt zum MWN eingerich tet Die Einrichtungskosten die monatlichen Kosten sowie die notwendigen Einrichtungsarbeiten wurden vom LRZ bernommen In der genutzten Infrastruktur wird jeder SIM Karte anhand ihrer Rufnummer durch den Vodafone Ein wahl Server eine feste MWN interne IP Adresse zugewiesen Die IP Pakete werden ber einen VPN Tunnel vom Vodafonenetz ber das LRZ in das MWN geleitet Dort k nnen die Nutzer alle MWN internen Dienste nutzen Der Zugang ins Internet
279. en EEEE E EEEE EEE EE EEE EEEE EEEE EEEE EEE EEE EEEE EE EEEE EEEE E EEE EEEE EEEE EEE EEE EEEE erre ereer rererere TET ECE TE TERETE TEES E E EE E EEE E EE E EEEE E E E EEE E E EE E E EE EEE EE E EE E EEEE E E E EEEE E EEE E Heh ern oh he ae DDR2 DIMM DDR2 DIMM 5 E Single Socket IE a DDR2 DIMM DDR2 DIMM ah ae Compute Blade ahd i ah i Kr DDR2 DIMM DDR2 DIMM Het HE Het at oe ah re ce Montecito SHub is Socket F i a 2 0 NumaLink4 6 4GB s ii HEE 8 5 GB s re a Het et oe Het ie ahd fet Kr DDR2 DIMM DDR2 DIMM et HE ah ne DDR2 DIMM DDR2 DIMM IE fet oe a DDR2 DIMM DDR2 DIMM Fa et ot Het Hdd He ee HU EEEE EEEE M a R Ecce eo eC ee A eR Eee Re EE eee eee ee oe ee ed a ch ch hy ch ch ch ch ch ch pr ch ch ch ch ch hy a ch nu ch hy u ch ch hy ch ch hy ch ch ch u ch ch pr ch ch ch ch ch ch ch ch ch gr ch ch u ch ch ch ch ch ch a a ch ch ch nu ch ch ch ch ch ch ch ch ch t ch ch u ch ch ch ch ch ch ch ch ch u ch ch gr ch at 8 Dt oats 5 ne ph n oo oe BOSS eh hah fet ne Dual Socket DDR2 DIMM DDR2 DIMM 5 oo Be se Compute Blade DDR2 DIMM DDR2 DIMM DDR2 DIMM DDR2 DIMM Montecito Socket SHub 2 0 NumaLink4 6 4GB s 8 5 GB s ee Montecito DDR2 DIMM DDR2 DIMM Socket DDR2 DIMM DDR2 DIMM
280. en 3COM Switches Inbetriebnahme vor 2002 durch HP Switches ersetzt werden Zum Jahresende 2007 wurden vom LRZ insgesamt 843 Switches betrieben Ein Vergleich zum Vorjahr zeigt folgende Tabelle Ende 2007 Ende 2006 Ende 2005 Ende 2004 Anzahl Switches 843 780 732 681 davon HP Switches 843 738 644 520 davon 3Com Switches 42 88 161 Anzahl TP Ports 47 212 42 050 38 252 33 837 Anzahl Glasfaser Ports 5 302 5 110 4 901 4 274 196 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Die Verteilung nach Switchtypen zeigt die folgende Tabelle Switches der Firma Hewlett Packard Typ Gesamtanzahl verf gbare TP Ports verf gbare Glasfaserports 10 100 1000 10GE 100 1000 10GE Modulare Switches Sen 2 289 125 157 HP5412zI HP5304 x 1 HP4208vI 3 174 227 HP4204vI a 24 229 3 459 HP4104 gl HP4000 se ee I Gesamt sr sss as Stackables Hpeato ft HP3448 toe a Pam Kae Bm aa sum HP2900 24G 0 HP2900 48G 9 Hp2610 206 12 ga Hp2810 48G 8 P2848 335 HP2824 HP2626 HP2524 aro Hp2512 tT 2 KK e HPe2510 eee Dr u o Gesamt 270 8816 13 J o 142 34 HP gesamt aa 13 san n 7 1 3 Rechenzentrumsnetz Das neue Rechnergeb ude besteht im Bezug auf das Datennetz im Wesentlichen aus drei verschiedenen Bereichen Dem Daten und Archiv Raum DAR in dem sich das Backup und Archiv System befindet dem Netz und Server Raum
281. en Betrieb eines Spezial PCs eine loka le Backup L sung f r die Datenbank und Spezialwissen zur Installation Konfiguration und Wartung der Anwendungssoftware Diese Aufgaben werden im ASP Betriebsmodell vom LRZ erledigt Auch dieser Service kann aus Personalressourcengr nden und den hohen Lizenzkosten derzeit nur restrik tiv und nicht als Regelservice zur Verf gung gestellt werden 2 12 Bibliotheksverbund Bayern In 2006 wurde im Rahmen der Zentralisierung der IT Infrastruktureinrichtungen des Freistaates Bayern der Umzug des Rechenzentrums der Verbundzentrale des Bibliotheksverbundes Bayern BVB in das Leibniz Rechenzentrum LRZ beschlossen Die ersten Umz ge erfolgten in 2007 so dass am LRZ nun die Lokalsysteme der Universit ten M nchen LMU Augsburg und Regensburg sowie die Lokalsysteme der Fachhochschulen N rnberg Kempten Rosenheim Landshut M nchen Augsburg W rzburg Hof Neu Ulm Deggendorf Amberg Weiden Ansbach stehen Unter Lokalsystem ist der Katalog der Be st nde der jeweiligen Bibliothek zu verstehen sowie die IT Unterst tzung aller zugeh rigen Bestell und Ausleihprozesse Der Umzug wird in 2008 abgeschlossen werden so dass dann alle BVB Services von der IT am LRZ erbracht werden 2 13 Erprobung neuer Konzepte der Informationsverarbeitung an den Hochschulen 2 13 1 Im Test befindliche Dienste des LRZ 2 13 1 1 Server Virtualisierung Die j ngsten Leistungssteigerungen bei Prozessoren haben in v
282. en H chstleistungsrechnen und Capability Computing auch im europ ischen Rahmen GCS dient als Basis f r die Koordination der drei nationalen HLR Zentren Dies betrifft die Interoperabi lit t zwischen den Zentren die Optimierung von Rechnerarchitekturen und deren Beschaffungen Es be deutet auch die Festlegung einer gemeinsamen Nutzungs und Zugangspolitik Durch die Gr ndung von GCS wurden die unter dem Druck der europ ischen Aktivit ten zeitkritischen Ziele nach au en erreicht und die nationalen Handlungsf higkeit in Europa gest rkt Bereits vier Tage nach Vereinsgr ndung konnte der Konsortialvertrag der PRACE Initiative das PRACE Memorandum of Understanding durch den GCS Sprecher Prof Bachem unterschrieben werden siehe Abschnitt 6 3 7 2 An den GCS Zielen nach innen wurde intensiv gearbeitet Um gemeinsam handlungsf hig zu sein und um eine vereinheitliche Schnittstelle f r die Anwendern zu schaffen sollen folgenden Ma nahmen umge setzt werden Abgestimmtes Antrags Zugangs und Review Verfahren Gemeinsame Use Policy Enge Verzahnung der Lenkungsaussch sse der Partnerzentren Abgestimmte Benutzerverwaltung und Nutzungsdokumentation Abgestimmte methodisch orientierte Benutzerunterst tzung u U unter Ber cksichtigung der Schwerpunktsetzung e Gemeinsame Schulungs und Trainingsma nahmen Zum Austausch von Informationen zwischen den Zentren zur Vermeidung von Doppelantr gen werden folgende Information zwisch
283. en Netzen wie Funk LAN Netze Internet in si chere Netze zu gelangen Dabei wird ein so genannter IPsec Tunnel zum VPN Server aufgebaut es wird eine Benutzervalidierung durchgef hrt und es wird dann eine neue IP Adresse zugeteilt Die Nutzung des VPN Servers IPsec ist erst nach Installation einer speziellen Software m glich die kostenfrei von berechtigten Benutzern ber eine WWW Seite zu beziehen ist Die VPN Server werden f r folgende Zwecke am LRZ verwendet e Zugang zum MWN ber das vom LRZ betreute Funk LAN e Nutzung ffentlicher Anschlussdosen f r mobile Rechner e Zugang zu zugangsbeschr nkten internen MWN Diensten z B Online Zeitschriften f r Nutzer von privaten IP Adressen z B in Studentenwohnheimen e Nach dem Verbindungsaufbau zum VPN Server erhalten die Nutzer eine IP Adresse aus einem be stimmten Bereich Damit k nnen Dienste die den Zugang anhand der IP Adresse erm glichen ent scheiden ob der Nutzer zugelassen wird oder nicht e Zugang zu internen MWN Diensten ber fremde Internet Anbieter z B T DSL T Online Zunehmend werden neben den vom LRZ angebotenen Einwahldiensten auch Angebote anderer Internet Provider zum Zugang zum MWN genutzt Die Gr nde daf r sind zum einen g nstigere Kos ten und zum anderen Breitbandtechnologien wie etwa xDSL Hierbei kann man die M glichkeit nut zen mit einem VPN Server eine IP Adresse aus dem Bereich des MWN zu bekommen Dadurch k nnen auch ber fremde Zug nge
284. en USA dem wichtigsten Treffpunkt der internationalen High Performance Computing Community wurden Simulationen aus dem Bereich der Astrophysik dargestellt Gro en Anklang fanden auf beiden Konferenzen die Informationen des LRZ zum neuen H chstleistungsrechner sowie zum Neubau des LRZ 166 Teil II Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme T G4 r Leibniz Computing Centre German National High End Computing lt lt Abbildung 49 Links Prof Hegering besucht den LRZ Stand auf der ISC in Dresden Rechts Stand des LRZ auf Supercomputing Conference in Reno 6 3 2 Eigenentwicklung FGSL Um die Jahreswende 2006 2007 wurde in mehreren Fortran Compilern erstmals die C Interoperabilitats Funktionalit t aus dem Fortran 2003 Standard verf gbar die es in portabler Weise erm glicht C Schnitt stellen an Fortran Programme anzubinden Dies wurde zum Anlass genommen eine typ sichere Schnitt stelle zur GSL GNU Scientific Library zu entwickeln Ver ffentlichungen hier ber sind in InSide http inside hirs de htm Edition_01_07 article_09 html und dem ACM Fortran Forum erschienen w h rend der Implementierung konnten in jedem verwendeten Compiler noch Fehler identifiziert werden die durch die Hersteller behoben wurden Details hierzu unter http www lrz muenchen de services software mathematik gsl fortran 6 3 3 Veranstaltungen im Bereich Hochleistungsrechnen Das Aus und Weiterbildungsprogramm des LRZ wir
285. en den Zentren ausgetauscht und den Lenkungsgremien zur Verf gung ge stellt Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 169 e Information ber Neu und Verl ngerungsantr ge e Accounting Informationen und Informationen zur Ressourcennutzung Zum Austausch von Informationen ber Projekte und ber die Nutzung der Ressourcen sind ein einheitli che Vorgehen und gemeinsames Verst ndnis bei folgenden Punkten notwendig e Einheitliche Klassifizierungen f r Projekten nach Fachgebieten Organisationen etc e Vereinheitlichte Informationen ber Projekte Dies die gemeinsame Zeitschrift inside und gemeinsames Auftreten bei einschl gigen Veranstaltungen im In und Ausland z B bei den Supercomputing Konferenzen sorgen f r eine abgestimmte Au endar stellung In diese Arbeiten sind die Fachministerien der Sitzl nder Baden W rttemberg Bayern Nord rhein Westfalen sowie das BMBF involviert Die Ressourcen und Aktivit ten der drei Zentren werden auf einer gemeinsamen Webseite beschrieben http www gcfs eu Gauss Centre for Supercomputing Abbildung 51 Logo des GCS und Rechner der im Gauss Centre zusammengeschlossenen Partner 6 3 7 2 PRACE Partnership for Advanced Computing in Europe Ziel der PRACE Initiative ist die Schaffung einer weltweit konkurrenzf higen HPC Infrastruktur in Eu ropa in den n chsten Jahren Durch den Aufbau von 3 bis 5 Petaflop Zentren in Europa soll erreicht wer den vergleichbar mit z B
286. ene CA betreiben 44 neue Zertifikate im Jahr 2007 e eine Server RA f r die TU M nchen 14 neue Zertifikate im Jahr 2007 e eine Server RA f r die LMU M nchen 37 neue Zertifikate im Jahr 2007 e eine Server RA f r Grid Server im M nchner Wissenschaftsnetz und an der Universit t der Bun deswehr M nchen 63 neue Zertifikate im Jahr 2007 e eine Nutzer RA f r Grid Nutzer im M nchner Wissenschaftsnetz und an der Universit t der Bundeswehr M nchen 30 neue Zertifikate im Jahr 2007 Die drei erstgenannten geh ren dabei jeweils zu einer CA bei der jeweiligen Einrichtung die beiden Grid RAs geh ren zu CAs die von der DFN PCA betrieben werden 5 10 2 Bearbeitung von Missbrauchsf llen Das LRZ ist bei der DENIC eG d h bei der Registrierungsstelle f r Domains unterhalb der Top Level Domain DE als Ansprechpartner f r Domains des M nchner Wissenschaftsnetzes MWN eingetragen u a f r uni muenchen de Imu de tu muenchen de tum de und fh muenchen de hnliches gilt f r die IP Netze die dem LRZ zugeteilt wurden Damit ist das LRZ Anlaufstelle f r sehr viele Anfragen und Beschwerden die diese Domains bzw IP Adressen betreffen Im Jahr 2007 nahm die Zahl der Missbrauchsf lle gegen ber dem Vorjahr deutlich zu siehe Abbildung 31 Nach den Erfahrungen des LRZ hat dies folgende Gr nde e Durch die zunehmende Kriminalisierung des Internet werden die Tools der Hacker Viren Bastler und Spammer inzwischen berwi
287. enhaltung zu Schwierigkeiten mit der Dauerhaftigkeit und Kontinuit t des Betriebs f hren kann Solche kleineren Teileinheiten und Arbeitsgruppen sollen eingesammelt werden indem eine pro fessionell verwaltete und integrierte Alternative zu lokalen System angeboten wird Damit k nnen sich die Wissenschaftler wieder ganz ihrer Forschungs und Lehrt tigkeit widmen Zentrale Speichersysteme erlauben eine bessere Ressourcennutzung als dies bei einer gleichwertigen Menge von vielen kleineren Speichersystemen der Fall ist Speicherplatz kann auf Anforderung schnell bereit gestellt werden Dem stehen h here Kosten f r gro e gemeinsame und sichere Datenspeicher ent gegen so dass gemeinsamer Datenspeicher am LRZ nur bei begr ndetem Bedarf und nachweisbar g ns tigem Nutzen Kosten Verh ltnis angeboten wird Im IntegraTUM Projekts mit der TUM siehe Ab schnitt 2 13 1 wird genau diesem Gedanken Rechnung getragen AFS Andrew Filesystem Der Zugriff auf gemeinsame Daten wurde am LRZ im Unix Bereich in der Vergangenheit prim r durch den Einsatz des Dateisystems AFS erreicht AFS ist ein Dateisystem auf das mehrere Rechner gleichzei tig zugreifen k nnen und das diese Zugriffe synchronisiert Es zeichnet sich durch einen weltweiten ein heitlichen Namensraum durch eine erh hte Sicherheit der Kerberos Authentisierung durch vom Benut zer auf Directory Ebene flexibel w hlbare Zugriffsrechte und durch niedrige Netzbelastung aufgrund seines Cac
288. ens noch leicht modifiziert haben z B Bauk sten f r W rmer oder trojanische Pferde Wegen der Komplexit t der heutigen Betriebssysteme und Anwendungsprogramme den kurzen Entwick lungszyklen und der leider sehr oft fehlenden Umsicht der Entwickler ist es bis auf weiteres unvermeid lich dass immer wieder Design und Programmierfehler auftreten die mehr oder weniger gravierende Sicherheitsl cken darstellen Inzwischen suchen die Angreifer sogar systematisch nach derartigen L cken Au erdem hat sich die Zeitspanne zwischen dem Bekanntwerden einer neuen Sicherheitsl cke und dem Auftauchen eines dazu passenden Schadprogramms Malware auf wenige Tage verk rzt Daneben gibt es immer noch viele Nutzer mit unzureichendem oder sogar komplett fehlendem Problem bewusstsein die dadurch unbeabsichtigt elementare Sicherheitsregeln verletzen Trotz der h ufigen War nungen in der Tagespresse und im Fernsehen werden z B immer noch Programme aus dubiosen Quellen oder Anh nge bei E Mails von unbekannten Absendern kritiklos ausgef hrt ausf hrbare Dokumente Makros Plug Ins Active X Ein derartiges Verhalten l dt geradezu zu Angriffen ein und hebelt jegliche zentrale Schutzma nahme aus Diese Nutzer schaden damit nicht nur sich selbst sondern auch allen Kol legen in ihrem Umfeld Zum Gl ck gibt es nur relativ wenige lokale Nutzer die absichtlich Sicherheits probleme verursachen oder sogar als schwarze Schafe andere Rechne
289. entsprechenden Planungs und Verlaufsdokumentationen ent nommen werden hier sollen nur die einzelnen Phasen des Projekts grob skizziert werden Die im Be richtsjahr durchgef hrten T tigkeiten sind weiter unten in Abschnitt 5 4 2 4 aufgef hrt Den Anfang bildet die Datenerhebung mit Hilfe von Interviews und eines Fragenkatalogs der den Dienst und Plattformverantwortlichen nach Absprache mit den Abteilungs und Gruppenleitern vorgelegt wird werden Informationen ber vorhandene Datenbest nde Datenfl sse und zugrunde liegende Prozes se zusammengetragen und im Rahmen der Auswertung konsolidiert Das Resultat ist ein fundierter ber blick ber die Integration der ZBVW im LRZ Dienstespektrum und das Wissen welche Benutzerdaten von welchem Dienst ben tigt werden und welche koh sionsbedingten Konsequenzen eine Reorganisation der ZBVW auf den jeweiligen Dienst hat Im Rahmen einer Potentialanalyse wird untersucht ob und wie die Anforderungen der LRZ Benutzerverwaltung gegenw rtig mit Hilfe kommerzieller Identity Management L sungen abgedeckt werden k nnen da der Markt f r IM Produkte noch vergleichsweise jung ist und sich noch in einem st ndigen Wandel befindet liegt die Schwierigkeit bei der Implementierung nicht nur im Aufwand f r das Customizing sondern vor allem auch darin flexibel f r zuk nftige Erweiterungen und nderungen zu bleiben F r das Architekturdesign wird eine top down Vorgehensweise gew hlt da nur so
290. enzentrum zur Bayerischen Akademie der Wissenschaften Es wird von deren Kommission f r Informatik beaufsichtigt die aus Vertretern der M nchner Hochschulen der bayerischen Hochschulen au erhalb M nchens und nat rlich der Bayerischen Akademie der Wissen schaften gebildet wird Diese Kommission bestimmt aus ihrer Mitte ein Direktorium dessen Vorsitzender Prof Dr H G Hegering das Rechenzentrum leitet Die weiteren Mitglieder des Direktoriums sind Prof Dr Chr Zenger und Prof Dr A Bode Bayerische Akademie der Wissenschaften Kommission Direktorium Leitung f r Informatik des LRZ des LRZ LMU Die verschiedenen organisatorischen Regelungen sind in Teil III zusammengestellt e Satzung der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften und des Leibniz Rechenzentrums Anhang 1 e Die Mitglieder der Kommission f r Informatik Anhang 2 Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 13 e Benutzungsrichtlinien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Baye rischen Akademie der Wissenschaften Anhang 3 e Betriebsregeln des Leibniz Rechenzentrums Anhang 4 e Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes Anhang 5 e Richtlinien und Grunds tze zur Nutzung des Archiv und Backupsystems Anhang 6 e Geb hrenordnung des Leibniz Rechenzentrums Anhang 7 e Zuordnung von Einrichtungen zu LRZ Betreuern Anhang 8 e Betriebs und Organisationskonzept f r den
291. eporting zu SLA Vereinbarungen sowie die Schaffung von Synergien im IT Betrieb Die Endanwender sollten diesen Umzug m glichst kaum sp rbar wahrnehmen Vor dem Hintergrund der Erfahrungen des LRZ Umzugs nach Garching in 2006 wurde mit den IT Verantwortlichen im BVB ein analoges Umzugskonzept erarbeitet das jetzt in mehreren Schritten umgesetzt wird Die Integration der Infrastruktur in die LRZ Rechnerr ume funktionierte problemlos abgesehen von sich versch rfenden Raum und Stromversorgungsengp ssen Die administrative Integration soweit sinnvoll wird noch einige Zeit in Anspruch nehmen Zum Ende 2007 ist etwa die H lfte der IT ans LRZ umgezogen und hier in Betrieb gegangen Das Kern system der Verbundkatalog steht noch in der Innenstadt F r das LRZ ist das Thema Bibliotheks IT sehr neu und wir m ssen uns in die Materie und Rahmenbe dingungen bei den Kunden auch erst einarbeiten um kundenorientiert und konkret mitarbeiten und mit gestalten zu k nnen 5 10 Sicherheitsfragen und Missbrauchsf lle 5 10 1 Serverzertifizierung nach X 509 Das LRZ ist mit mehreren Zertifizierungs und Registrierungsstellen CAs und RAs in die Public Key Infrastruktur des Deutschen Forschungsnetzes DFN PCA eingebunden Bereits seit Mitte 2005 nimmt es an der Zertifizierungshierarchie Classic teil und erstellt Serverzertifikate f r mehrere Einrichtungen im M nchner Wissenschaftsnetz besonders auch f r die TU M nchen Seit Anfang de
292. er Bezold itSMF Kongress 04 12 2007 05 12 2007 Berlin Brenner IC Consult Workshop Identity und IT Service Management 06 12 2007 06 12 2007 Stuttgart Brenner Abteilung Zentrale Dienste DFN Betriebsausschusssitzung 14 02 2007 14 02 2007 Berlin Apostolescu Uni Einweihung des Landes H chstleistungsrechners 26 02 2007 26 02 2007 Karlsruhe Apostolescu OTTI Fachforum Gesicherte Stromversorgung Referent 28 02 2007 01 03 2007 Regensburg Breinlinger ZKI AK Software Lizenzen 05 03 2007 06 03 2007 Dortmund Oechsle ZKI Fr hjahrstagung 2007 05 03 2007 07 03 2007 Dortmund Apostolescu Seminare 15 04 2007 19 04 2007 Koblenz Apel DFG Netzsitzung 2007 19 04 2007 19 04 2007 Berlin Apostolescu Univ RZ Einweihung der neuen Clusteranlage 16 05 2007 16 05 2007 Erlangen Apostolescu Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 247 e BRZL Sitzung 02 07 2007 03 07 2007 Hirschberg Apostolescu e Uni RZ Thementag Literaturverwaltung 17 07 2007 17 07 2007 W rzburg Oechsle e ZKI AK Software Lizenzen 03 09 2007 05 09 2007 Leipzig Oechsle e Uni RZ BSK Sitzung Herbst 2007 25 09 2007 25 09 2007 N rnberg Oechsle e Uni Webshop Sitzung zur Vorbereitung eines gemeinsamen Webshops 27 09 2007 27 09 2007 N rnberg Bayer Oechsle e Uni RZ Erlangen N rnberg DV Fachseminar 2007 07 11 2007 14 11 2007 Immenreuth Mende e DEN Betriebsausschusssitzung 12 11 2007 12 11
293. er Anwenderseite Virtuelle Maschinen die auf Mehr kernrechner laufen richtig zu lizenzieren wird zunehmend schwieriger Selbst die Hersteller der Software sind mittlerweile teilweise berfordert wenn es darum geht passende und handhabbare Lizenzmodelle zu schaffen 100 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 3 7 Kurzdarstellung aktuell bestehender SW Bezugsm glichkeiten Gegenw rtig gibt es ber das Leibniz Rechenzentrum die folgenden Software Bezugsm glichkeiten meist ganze Produktgruppen die sich in mehrere 100 Einzelprodukte aufteilen lassen Im Rahmen des CLP Vertrages mit Adobe kann der Gro teil der Adobe und ehemals Macromedia Produkte bezogen werden Die Bestellung erfolgt ber das LRZ ebenso die Lieferung der Daten tr ger Rechnung und Lizenznachweis bekommt das Institut von einem von Adobe autorisierten H ndler Der seit 2 Jahren bestehen de Vertrag l uft im Okt 2008 aus und steht zur Erneuerung an Im Rahmen des ZKI profitieren weiterhin akademische Einrichtungen aus ganz Deutschland von diesem Vertrag Amira im medizinischen wissenschaftliche Datenvisualisierung mit Schwerpunkt auf den Umfeld Gebieten der interaktiven Bildsegmentierung Rekonstruktion von Avizo im technischen Um polygonalen Oberfl chen und Tetraeder Volumenmodellen sowie feld Volumenvisualisierung Campusvereinbarung mit der Firma Mer cury vormals TGS die in Abh ngigkeit von der jeweiligen Insti
294. er Aufgaben ca 260 PCs und andere Desktop Workstations als Arbeitspl tze ca 18 Dell Pentium 4 bis 3 2 GHz 1 1 GB Benutzerarbeitsplatze LRZ 4 Dell Pentium III IV 0 7 bis 3 2 GHz 1 2 1 4 GB Applikationsserver Windows App von Unix Systemen aus ca 160 Meist Dell Pentium 4 2 8 GHz Dual Core 3 GHz 1 1 2 GB Mitarbeiter Arbeitsplatze incl Operateure Hotline Beratung stud Hilfskrafte Windows 2000 XP oder Linux ca 88 Dell Fujitsu Siemens Pentium III bis 850 MHz Core 2 Duo 1 256MB 2 GB Laptops f r Pr sentationen Notebooks f r Mitarbeiter 1 8 GHz ca 15 Dell Apple Verschiedene 1 2 0 5 2 GB Benutzerarbeitsplatze f r spezielle Ger te Multimedia ACAD Arbeitspl tze Scanner Multimedia Belegleser Videoschnittplatz 30 Dell Pentium 4 2 8 GHz Dual Core 3 GHz 1 1 2 GB Arbeitspl tze in Kursr umen 4 Sun Verschiedene Sparc 1 0 5 1GB Compute Server 2 davon f r allg Nutzer 2 davon LRZ intern ca 500 Server ohne direkten Benutzerzugang ca 58 Dell Verschiedene 1 2 1 16 GB Serverdienste unter Windows ADS DDNS Fileserver SQL Exchange 20 Dell Verschiedene Serverdienste unter Linux Novell eDirectory Fileservices Identity Mgmt Inte graTUM myTUM ca 330 Dell Advanced Uni Verschiedene 1 4 1 16 GB Serverdienste unter Linux DNS E Mail AFS Druck Poster und Diaausgabe byte Sun Firewall Zertifizierung Konsolen Betriebs berwachung Datenbanken WWW Content Management Authentication 2 Network A
295. er G steverwaltung Um in den Verzeichnisdienst auch Daten ber Personen ein speisen zu k nnen die nicht von der zentralen Personal bzw Studentenverwaltung erfasst wer den beispielsweise Gastdozenten und Konferenzteilnehmer wurden zuerst die verf gbaren Sys teme hinsichtlich ihrer Eignung als autoritative Datenquelle f r G ste untersucht Hierbei wurde insbesondere das f r Gastdozenten Erfassung bereits eingesetzte System UnivIS untersucht bei dem sich jedoch auch herausstellte dass es nicht universell f r alle Arten von G sten eingesetzt werden kann nicht alle ben tigten Datenfelder erfasst und nur unzureichend geeignete Schnitt stellen bietet Aus diesen Gr nden wurde ein dediziertes web basiertes Management Interface f r die Erfassung von G sten der TUM konzipiert das in enger Kooperation mit TP Portal umgesetzt und ins TUM Portal integriert werden soll Konzeption der Gruppenverwaltung Viele Systemberechtigungen beispielsweise zur Benutzung von Rechnerpools sollen nicht individuell vergeben werden sondern an Gruppen von Benutzern beispielsweise alle Studenten um den individuellen Verwaltungsaufwand zu reduzieren Kooperation mit anderen Hochschulen Im Rahmen des ZKI Arbeitskreises Verzeichnisdienste dem Arbeitskreis Meta Directories der Runde der bayerischen Rechenzentrumsleiter und dem neu geschaffenen Arbeitskreis M nchner Verzeichnisdienste wurden die im Rahmen des Teil projekts entstandenen
296. er IA 64 Itanium Systeme f hrt das Scheduling von parallelen Jobs unvermeidlich zu gewissen Leerst nden 100 80 60 1A32 altix t 64 bit IA64 Opteron EM64T 40 t Auslastung nach Cluster Pools 20 0 Jan07 Feb07 Mrz07 Apr07 Mai07 Jun07 Jul07 Aug07 Sep07 Okt07 Nov07 Dez07 Abbildung 38 Auf die theoretisch m glichen Prozessor Stunden pro Monat normierte Auslastung der verschiedenen Rechnerpools des Linux Clusters Im Laufe der letzte Jahre konnte durch den Austausch Systemen und durch Neubeschaffungen eine leich te Steigerung der abgegebenen Rechenzeiten erreicht werden s Abbildung 39 und Abbildung 40 Die Wartezeiten im Cluster blieben jedoch noch sehr hoch so dass erst mit der Inbetriebnahme der Cluster Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 151 erweiterung im Jahr 2008 Abhilfe zu erwarten ist Im Bereich der parallelen Jobs brachte die Inbetrieb nahme einer zweiten SGI Altix Maschine durch Umwidmung des HLRB Migrationssystems ab Septem ber 2007 eine leichte Entspannung Bez glich der tats chlich erreichten Rechenleistung Performance hat das zweite Altix System jedoch eine deutliche Steigerung gebracht siehe Abbildung 41 Hier kom mem die besseren Hardwareeigenschaften und das schnelle Kommunikationsnetzwerk der Altix Systeme zum Tragen parallel u serial CPU or Core Hours A
297. er anrufen um Fragen zur Nutzung der Diens te und Rechner des LRZ zu stellen Da das Dienste Spektrum sehr weit gefasst ist siehe Teil 1 Kapitel 2 k nnen sich die Fragen auf fast jeden Bereich aus der Datenverarbeitung der Informations Technologie der Programmentwicklung usw beziehen Die Hotline Beratung wird zu den meisten Fragestellungen sofort eine Antwort geben k nnen Da dies aber nicht bei jedem Problem m glich ist werden solche Anf ragen schriftlich aufgenommen und an die entsprechenden Fachleute in der Hintergrund Unterst tzung Second Level Support weitergeleitet Dazu dient am LRZ ein System das die Anfragen und Fehler meldungen verwaltet deren Weitergabe erlaubt Workflow Management und eine Kontrolle der Bear beitungszeiten zul sst Damit wird erreicht dass Fragen schnellstm glich beantwortet werden k nnen Es konnte so eine zuverl ssige zweistufige Beratung aufgebaut werden Die ffnungszeiten der Beratung und damit die Hauptzeiten der Hotline wurden beibehalten Montag bis einschlie lich Freitag von 9 00 bis 17 00 Uhr Diese Zeit wurde durch zehn Doppelschichten von je vier Stunden abgedeckt Au erhalb dieser Zeiten sind ber die Telefonnummer der Hotline die diensttuenden studentischen Ope rateure erreichbar In Ausnahmef llen ist ein Anrufbeantworter verf gbar Fragen sowie Problemmeldungen k nnen ausserdem rund um die Uhr ber Ahttp hotline Irz de mittels eines Webformulares gestellt we
298. er beiden Universit ten bez glich der Vergabe von Kennungen und Berechtigungen an Studenten gemeinsamer Studieng nge wie Medizin oder Bio Informatik zu unterst tzen 2 13 3 Das Projekt IntegraTUM Mitte 2002 haben die TU M nchen und das LRZ einen Projektvorschlag erarbeitet der bei einem von der DFG ausgelobten Wettbewerb Leistungszentren f r Forschungsinformation eingereicht wurde Bei diesem Wettbewerb ging es um die Entwicklung und Realisierung von neuen und beispielgebenden Kon zepten des wissenschaftlichen Informationsmanagements an den deutschen Hochschulen Der Projektvorschlag der TUM wurde im 2 Quartal 2003 von der DFG als einer von vieren ausgew hlt Die TUM durfte diesen Vorschlag verfeinern und erhielt daf r eine erste finanzielle Unterst tzung Auch an dem verfeinerten Vorschlag arbeitete das LRZ wieder mit Er wurde Anfang 2004 eingereicht und von der DFG Mitte Juni 2004 als zu f rdern ausgew hlt zun chst f r 2 Jahre Eine im April 2006 durchge f hrte Begehung verlief positiv und war ausschlaggebend f r den Beschluss die F rderung f r weitere 3 Jahre fortzusetzen Die TUM hat den Rahmen des Projekts das jetzt IntegraTUM hei t sogar noch ausgeweitet und stellt ber die F rdermittel der DFG hinaus weitere Mittel und Projektstellen zur Verf gung Dies geschieht im Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 65 Rahmen der Neuordnung innerhalb der Universit t die unter der Projektb
299. er die Zeit zu messen und in Diagrammen wiederzugeben Weiterhin kann komfortabel berechnet werden wie viele Daten in einem bestimmten Zeitintervall durch einen SAN Port geflossen sind Zus tzlich kann man akkumulierte Auslastungsdiag ramme von logisch zusammenh ngenden Ports z B alle Ports eines Servers erzeugen lassen Mit diesem Tool k nnen nun Engp ssen im SAN Bereich pro aktiv erkannt und so fr hzeitig geeignete Gegenma nahmen ergriffen werden Eine weitere z B bei Performancemessungen sehr n tzliche Eigenschaft dieses Werkzeugs ist dass die Auslastungsdaten in Echtzeit abgefragt werden k nnen und man sich so den ak tuellen Datendurchsatz eines SAN Ports sekundenaktuell anzeigen lassen kann So leistete dieses Feature z B bei der Performanceoptimierung und messung der beiden HLRB II Archivserver gute Dienste Fehlermeldungen gehen nicht ausschlie lich an die Leitwarte Sie werden auch direkt an die Fachverant wortlichen weitergemeldet Beispielsweise werden Fehlersituationen in denen die TSM Serverinstanz zwar noch Anfragen von Clients entgegennimmt aber keine weiteren Aktionen veranlasst auch per Mail an die zust ndigen Verantwortlichen gemeldet Ferner werden Werkzeuge zur Logdateiauswertung von Betriebssystem FC Switch und TSM Logdateien eingesetzt Dieses Auswertungstool durchsucht die genannten Datenquellen in regelm igen Abst nden nach Eintr gen welche ein oder mehrere von den Administratoren vordefinierten
300. erechtigten Hochschule 1 Absatz 2b entstehen keine Geb hren Die Kosten f r maschinell erfasstes Verbrauchsmaterial sind ebenfalls in der Geb hrenordnung des Leib niz Rechenzentrums festgelegt und gelten f r s mtliche Aufgabengruppen 5 Eingeschr nkte Nutzung von Supercomputern 88 Absatz 2 Angeh rige oder Organisationen einiger L nder d rfen aufgrund von Bestimmungen der Ausfuhrbeh rde der Vereinigten Staaten von Amerika US Supercomputer nicht benutzen Analoge Regelungen gelten auch f r japanische Supercomputer Derzeit betreffen diese Einschr nkungen nur die L nder Irak Iran Kuba Libyen Nordkorea Sudan und Syrien Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 265 Anhang 5 Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes MWN Fassung vom 19 10 2007 Pr ambel Diese Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes kurz MWN sollen die Zusammenarbeit zwischen Einrichtungen der berechtigten Institutionen vgl Benutzungsrichtlinien des Leibniz Rechenzentrums und dem Leibniz Rechenzentrum LRZ regeln damit ein m glichst reibungsloser und optimaler Betrieb des MWN erm glicht wird Sie gelten im gesamten Versorgungsbereich des Wissenschaftsnetzes Die Nutzung vor allem durch Einzelbenutzer ist in den entsprechenden Benutzungsrichtlinien f r Informationsverarbeitungssysteme des LRZ und der jeweiligen Institution festgelegt 81 Das M nchener Wissenschaftsnetz 1 Struktur des Netz
301. erfolgung der Abfragen nicht m glich ist Es wurden deshalb spezielle Webformulare f r den HLRB und das Linux Cluster bereitgestellt mit deren Hilfe die Benutzer ein Trouble Ticket erstellen k nnen Diese M glichkeit der Kontaktaufnahme wurde von den Benutzern sehr gut angenommen 6 1 2 Linux Cluster 6 1 2 1 Organisatorische Aspekte AG Linux Cluster Die Arbeit der Linux AG wurde im Jahre 2007 mit dem bereits in 2005 definierten Aufgabenbereich fort gef hrt Schwerpunkte waren neben den Wartungsaufgaben die Vorbereitung der 64 Bit Erweiterung W hrend die Administrations und Konfigurationsmethoden die im Rahmen der Arbeit der Linux AG entwickelt und implementiert wurden auch auf dem HLRB II zum Einsatz gebracht wurden erstreckt sich die unmittelbare Verantwortlichkeit der AG nicht auf dieses System Im Laufe des Jahres 2007 wur den eine Reihe von Wartungsma nahmen durchgef hrt Einzelheiten dieser Ma nahmen werden nachste hend behandelt 6 1 2 2 Betriebliche Aspekte Im Bereich Linux Compute Cluster sind im Berichtsjahr 2007 die Beantragung und Beschaffung von weiteren Rechenknoten f r serielle und parallele Programme sowie von zus tzlich 130 TByte Hinter grundspeicher und weiteren 12 Lustre Object Storage Servern zu nennen F r das M nchner Tier 2 Zentrum am LRZ f r das Large Hadron Collider Computing Grid LCG wurden noch Ende 2007 122 Quad Core Rechenknoten sowie 28 dCache Knoten mit 266 TByte Hintergrundspeicher in Betrie
302. erforderlich Der Vorteil f r den Dienstleister liegt ebenfalls darin dass alle Servicekomponenten in seiner Verantwor tung liegen und damit Funktions und Qualit tsgarantien einfacher spezifiziert und eingehalten werden k nnen Diesen Vorteilen stehen Nachteile in der Flexibilit t der Konfiguration und der Anpassung an spezielle Kundenbed rfnisse gegen ber Sonderl sungen f r spezielle Kundenkreise sind in diesem Modell zwar abzubilden verursachen aber analog zu anderen Betriebsmodellen erhebliche Zusatzaufwendungen Dieses Betriebsmodell wird am LRZ intern eingesetzt in Form der Windows Applikationsserverfarm mit Citrix Metaframe die es Linux und Macintosh Benutzern erm glicht Windows basierte Anwendungen aufzurufen Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 63 berlegungen dieses am LRZ eingesetzte Modell mit einem kompletten Portfolio an B roanwendungen im M nchner Wissenschaftsnetz einzusetzen scheitern bisher an den Lizenzkosten der Betriebssystem und Softwarehersteller In einem speziellen Anwendungsfall der Softwarel sung Bayerisches Mittelbewirtschaftungssystem BayMBS wird eine ASP L sung am LRZ implementiert und f r externe Kunden an der Bayerischen Akademie der Wissenschaften zur Verf gung gestellt Die Applikationsnutzer wurden mit der n tigen Client Software ausgestattet und in die Benutzung der Anwendung eingewiesen Jeder dieser Kunden spart sich damit vor Ort die Investition und d
303. ericht 2007 des Leibniz Rechenzentrums Teil I 7 Entwicklungen und entspricht ja auch der allgemein anzutreffenden Absicht Synergiepotential zu nutzen Dieses ist auch global ber den M nchner Wissenschaftsraum LMU TU BAdW LRZ etc betrachtet in der Tat vorhanden da die IT Dienste wirtschaftlicher und qualitativ besser vom LRZ erbracht werden k nnen als jeweils in einzelnen Fakult ten bzw Abteilungen Dabei werden aber Anforderungen an Stell fl che Strom Klimatisierung sowie Personalkapazit t zwangsweise von den Nutznie ern der Rezentrali sierung n mlich den Wissenschaftseinrichtungen an das LRZ verlagert das f r solche Anforderungen nat rlich ger stet sein muss In diesem Zusammenhang sei erw hnt dass 2007 in Abstimmung mit der Bayerischen Staatsbibliothek und dem zust ndigen Ministerium der Serverbetrieb des Bibliotheksverbundes Bayern BVB ein Zu sammenschluss von ber 100 wissenschaftlichen Bibliotheken an das LRZ bergeben wurde Damit ver bunden war die bernahme von Personal und Ger t Die bisherigen Umzugsma nahmen verliefen ohne Probleme die Migration endet April 2008 Zus tzlicher Hosting Bedarf entstand und entsteht auch durch die erfolgreichen Einwerbungen im Zu sammenhang mit den Exzellenz Initiativen an den M nchner Hochschulen die zum Teil mit einem er heblichen Ausbau der IT Infrastruktur z B gro e Linux Cluster mit Tausenden von Knoten verbunden sind F r deren Betrieb sind in den Hochsc
304. erlaubt weder zu kopieren noch weiterzugeben noch zu anderen als den erlaubten insbesondere nicht zu gewerbli chen Zwecken zu nutzen Zuwiderhandlungen k nnen Schadensersatzanspr che begr nden 87 4 Selbstverst ndlich darf die IV Infrastruktur nur in rechtlich korrekter Weise genutzt werden Es wird ausdr cklich darauf hingewiesen dass insbesondere folgende Verhaltens weisen nach dem Strafge setzbuch unter Strafe gestellt sind a Ausforschen fremder Passworte Aussp hen von Daten 202 a StGB b unbefugtes Ver ndern L schen Unterdr cken oder Unbrauchbarmachen von Daten 303 a StGB c Computersabotage 303 b StGB und Computerbetrug 263 a StGB d die Verbreitung von Propagandamitteln verfassungswidriger Organisationen amp 86 StGB oder rassistischem Gedankengut 131 StGB e die Verbreitung gewisser Formen von Pornographie im Netz 184 Abs 3 StGB f Abruf oder Besitz von Dokumenten mit Kinderpornographie 184 Abs 5 StGB g Ehrdelikte wie Beleidigung oder Verleumdung 185 ff StGB Der Systembetreiber beh lt sich die Verfolgung strafrechtlicher Schritte sowie zivilrechtlicher Ans pr che vor 87 5 Dem Benutzer ist es untersagt ohne Einwilligung des zust ndigen Systembetreibers a Eingriffe in die Hardware Installation vorzunehmen b die Konfiguration der Betriebssysteme oder des Netzwerkes zu ver ndern Die Berechtigung zur Installation von Software ist in Abh ngigkeit vo
305. ernde Umzugspause und zum anderen bedingt durch die r umliche Distanz zur Hauptnachfragegruppe LMU gesunken waren wurde im Jahr 2007 das Kursan gebot hinsichtlich H ufigkeit und Inhalt den ver nderten Gegebenheiten angepasst Bei den Standard themen aus dem Microsoft Office Bereich muss au erdem der Start der Office Programme 2007 ber ck sichtigt werden W hrend vom Kursprogramm des LRZ einerseits Aktualit t erwartet wird hinkt die Ak zeptanz der Anwender in Bezug auf neue Programmversionen dieser Erwartungshaltung h ufig hinterher Das Resultat sind m glicherweise geringere Teilnehmerzahlen da die Arbeitsumgebung der Interessen ten eventuell nicht mit den Programmversionen bereinstimmen auf die die Kurse aufbauen Positive Auswirkungen auf die Nutzung des LRZ Kursangebots sind vermutlich von der wieder besseren Erreichbarkeit der R umlichkeiten des LRZ ausgegangen Nachdem die U Bahnlinie U6 mittlerweile von der Innenstadt bis zum Campus in Garching verkehrt k nnen viele Kursinteressenten das LRZ Ausbil Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 93 dungsangebot wieder wahrnehmen ohne eine Anfahrtsodyssee daf r in Kauf nehmen zu m ssen Die Bem hungen des LRZ beim MVV f r die Kursteilnehmer aus der Gruppe der Studierenden g nstigere Tarife zu erreichen blieben allerdings erfolglos Zus tzlich zum regul ren Kursprogramm wurde die vorhandene moderne Infrastruktur im H rsaal den Seminar und Kursr umen
306. ert e Konzeption eines Datenmodells f r den zentralen Verzeichnisdienst d h eines LDAP Schemas f r das Meta Directory Da sich die von Verzeichnisdienst Software Herstellern vorgefertigten LDAP Schemata f r das Projekt als nicht ausreichend geeignet erwiesen wurden mehr als 20 Objektklassen Datentypen mit insgesamt ber 100 Attributen Datenfeldern erarbeitet und hin sichtlich ihrer Syntax Semantik und Soll Verwendung spezifiziert und in Form von Schema Dateien zur Konfiguration der Server Software bereitgestellt Ebenso wurde die interne Struktur des Verzeichnisdienstes Directory Information Tree DIT die die Anordnung der Objekte im hierarchischen Verzeichnisdienst vorgibt spezifiziert 110 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Spezifikation der Datenkonvertierungsregeln die beim Austausch zwischen dem Verzeichnis dienst und den angeschlossenen Systemen durchzuf hren sind Sie betreffen wiederum die Syn tax der Datenfelder z B hinsichtlich des Formats in dem Telefonnummern Datumsangaben und Adressen ben tigt werden und deren Semantik Definition einer Verzeichnisdienstarchitektur Hierbei wurden die Aspekte Skalierbarkeit Ver f gbarkeit und Wartbarkeit besonders ber cksichtigt Im Unterschied zu vielen vergleichbaren Projekten basiert der IntegraTUM Verzeichnisdienst nicht auf einem zentralen LDAP Server sondern auf einem Geflecht mehrerer Verzeichnisdienste die die Daten in den jew
307. erungen und Testbeds machen uns zu einem Netzkompetenzzentrum von dem unsere Kunden profitieren durch immer innovative Technologie und ein modernes und st ndig weite rentwickeltes Dienstleistungsangebot Es ist selbstverst ndlich dass trotz aller eingangs erw hnten frei willigen Rezentralisierungstendenzen die dezentralen Systeme unterst tzt werden durch ad quate Ser verangebote Dateidienste Archivdienste Software Verteilung Einw hldienste und ein sehr aufw ndi ges aber effektiv organisiertes Beratungssystem Help Desk Hotline Trouble Ticket Systeme Indivi dualberatung Kursangebot Software Lizenzen Dokumentationen Zu den Diensten des LRZ geh rt auch die Erarbeitung von Unterst tzungskonzepten f r den Betrieb dezentraler Cluster und virtueller Ser ver Neu hinzu kommen die Fragestellungen einer st rker integrierten IT Unterst tzung aller Hochschul prozesse der Auswirkungen von Multimedia und zunehmend ausschlie lich elektronisch vorliegenden Dokumenten und Fachinformationen sowie der Tendenzen von Re Zentralisierung im IT Bereich Das LRZ beteiligt sich hier aktiv an Pilotprojekten Ich nenne hier als Beispiele BMBF Projekte zusammen mit der Bayerischen Staatsbibliothek zur Langzeitarchivierung und das DFG Projekt IntegraTUM das die TU M nchen nun seit mehreren Jahren bereits zusammen mit dem LRZ durchf hrt und das der Verein heitlichung von IT Prozessen in der Hochschule dient Neben der Rolle eines modernen Hochsc
308. erver Dienste und Anbindungen wird permanent kontrolliert Auf den Systemen laufen regelm ig Skripte um die Hardware die Konsistenz der Systemkonfiguration sowie der installierten Softwarepakete zu pr fen und gegebenenfalls zu korrigieren Die zust ndigen Diensteverantwortlichen werden im Fehlerfall automatisch benachrichtigt Der Kunde kann sich jeder Zeit einen berblick ber seine gesicherten und archivierten Daten und den Zustand der Serversysteme ber die Webschnittstelle des LRZ DatWeb _http datweb Irz muenchen de cgi bin DATWeb Version2 1 worktop scripts login pl verschaffen Zus tzlich erh lt der Ansprechpartner eines Nodes jeden Monat eine Statusmeldung via E Mail 12 Beschr nkung der Datenmenge Augenblicklich wird die Datenmenge die im Backup und Archivsystem abgelegt werden darf nicht beschr nkt Bei der Anmeldung eines Nodes wird lediglich eine Absch tzung der zu erwartenden Daten menge verlangt Gr ere sp tere nderungen im zu speichernden Datenumfang m ssen via E Mail abs admin AT Irz muenchen de rechtzeitig mitgeteilt werden Bei berm iger Abweichung vom angegebenen Datenvo lumen beh lt sich das Leibniz Rechenzentrum vor regulierende Schritte einzuleiten Es liegt in der Verantwortung des Kunden in Absprache mit dem LRZ die Gr e des Datenbestands in nerhalb eines Nodes auf ein sinnvolles Ma zu beschr nken Nodes mit sehr gro em Datenumfang bzw mit sehr starkem Datenwachstum m ssen
309. es Das MWN ist eine nachrichtentechnische Infrastruktureinrichtung zum Zwecke der Datenkommunikati on Das MWN besteht aus e den Geb udenetzen e den Campusnetzen die die Geb udenetze miteinander verbinden und e dem Backbone Netz das die Campusnetze miteinander verbindet Geb ude und Campusnetze existieren im Wesentlichen im Bereich der Ludwig Maximilians Universit t M nchen Garching und Gro hadern Technischen Universit t M nchen Garching und Weihenstephan Fachhochschule M nchen Fachhochschule Weihenstephan Bereich Freising und Bayerischen Akademie der Wissenschaften Zum MWN geh ren alle bertragungseinrichtungen Kabel aktive und passive Komponenten etc einschlie lich der Anschlusspunkte f r Endger te Ausgenommen sind bertragungseinrichtungen in der Zust ndigkeit anderer Stellen wie etwa die Telefonnetze der Hochschulen oder instituts oder fakult ts interne Netze z B Medizinnetz Im WWW Server des LRZ http www Irz de services netz mhn ueberblick ist die Struktur des MWN beschrieben Das MWN hat Anbindung an nationale und internationale Netze z B deutsches Wissenschaftsnetz WiN Internet In vielen Geb uden ist eine drahtlose Zugangsm glichkeit WLAN eingerichtet Des Weiteren werden f r berechtigte Benutzer W hl Eing nge f r den Zugang zum MWN aus den ffentlichen Fernsprechnetzen analoges Telefonnetz und ISDN zur Verf gung gestellt 2 Anschluss an das Netz Das Backbo
310. es Angebot f r Forschung und Lehre e Der Bedarf ist auf wenige Nachfrager beschr nkt Es besteht kein allgemeines Interesse an einer Beschaffung im gro en Stil e Der Beschaffungs und Verwaltungsaufwand ist zu gro als dass er mit den personellen und or ganisatorischen M glichkeiten des LRZ bew ltigt werden k nnte Dies muss aber nicht bedeuten dass diese Produkte auf Dauer nicht ber das LRZ beschaffbar bleiben In den meisten F llen wird versucht mit dem Lieferanten in Verhandlung zu treten nachdem eine kritische Nachfragemenge erreicht wurde Ziel dabei ist es f r alle Beteiligten eine win win Situation herzustel len Das hei t dem Verk ufer der Software einen Vertriebskanal ber das LRZ ffnen und dem Nach frager eine g nstige Bezugsm glichkeit schaffen Wer jeweils welche Software ber das LRZ beziehen kann ist Produkt spezifisch auf den entsprechenden Internetseiten hinterlegt Wer im Einzelfall eine bestimmte Software auf diesem Weg erhalten darf wird vom jeweiligen Lieferanten definiert W hrend die Softwareanbieter jeweils versuchen den Kreis klein zu halten ist es das zentrale Anliegen des LRZ den Kreis derer die etwas davon haben sollen m glichst gro zu gestalten 2 6 Netz Dienste Das Internet ist ein internationaler Verbund von Netzwerken und Rechnern die ber die Netz Protokolle TCP IP erreichbar sind Auch das M nchner Wissenschaftsnetz MWN ist in diesen Verbund eingeglie
311. es Softwarebezugs dadurch Rechnung getragen dass in der Regel Studierende nicht zum Kreis der Bezugsberechtigten geh rten Da auch die Firmen in der Vergangenheit Lizenzmodelle f r den Bereich Forschung und Lehre anboten in denen die Studierenden nicht vorkamen konnten alle Beteiligten gut mit der Situation leben Von den f r die Studierenden interessanten Soft wareprodukten gab und gibt es immer noch Schul und Studentenversionen die ber den Softwarehandel Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 97 g nstig beziehbar sind und im Preis der reduzierten Finanzierungskraft der Studierenden entgegen kom men Auch die Firmen verwiesen immer wieder auf diesen preisg nstigen Beschaffungsweg Seit auch in Bayern den Studierenden Studienbeitr ge abverlangt werden nimmt die Zahl der Campusan gebote zu die eine fl chendeckende Versorgung der jeweiligen Hochschule mit einer Software unter Einbeziehung der Studierenden zum Ziel haben Die f r die Beschaffung der Software und die Verhand lungen mit den Firmen Zust ndigen geraten dabei von zwei Seiten unter Druck Zum einen kommen zu der schon bisher schier un berschaubaren Anzahl von Lizenzmodellen weitere dazu zum anderen kom men aus den Reihen der Studierenden berechtigte Forderungen nach der Versorgung mit attraktiven Softwareprodukten Schon bisher war die organisatorische Sonderstellung des LRZ wenn es um die Aufgabe der Beschaffung von Software zu g nstigen Konditionen g
312. es gleichen Herstellers handelte wurden die beantragten Ger te im Rahmen einer freih ndigen Vergabe im Verhandlungsverfahren beschafft Im Jahr 2007 gab es zwei gr ere Aktionen am LABS 174 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme e Umbau der Platten Volumes und Performance Tuning von Platten Subsystemen die als prim re Disk Caches den TSM Server Instanzen dienen und e die Verlagerung von gro en TSM Nodes auf HABS zur Entlastung des Systems Durch die Optimierung der Plattenzugriffe ist es m glich geworden von der aufwendigen dreistufigen Storagehierarchie FCAL Platten gt SATA Platten gt Tape zu der einfacheren und besser handhabbaren zweistufigen FCAL oder SATA Platten gt Tape Hierarchie zur ckzukehren Durch die rasche Zunahme von NAS Systemen im LRZ sind die Anforderungen an die NDMP Bandsicherung von NAS Replikationssystemen erheblich gestiegen Die entstandenen Stabilit tsproble me konnten inzwischen als Ergebnis recht langwieriger Untersuchungen auf ein Minimum reduziert wer den Die Ergebnisse der Evaluierung verschiedener Testszenarien und die Betriebserfahrungen im Zusammen hang mit den Systemen wurden in mehreren Vortr gen auf dem internationalen TSM Symposium 2007 in Oxford vorgestellt Hochleistungsarchiv und Backupsystem HABS Das Hochleistungsarchiv und Backupsystem HABS besteht aus e 16 Serverrechner Sunfire X4200 e 2 Serverrechner Sunfire X4200m e 2SAN Direkt
313. esch ft Vortrag OVUA Scicomp Shibboleth Workshop Colubris Workshop NI Education Firmenveranstaltung Krakau Delegation Zus tzlich wurden die Kursr ume intensive f r Lehrveranstaltungen Vorlesungen Seminare Praktika des Lehrstuhls Hegering sowie f r interne Weiterbildungsveranstaltungen des LRZ genutzt 5 2 3 F hrungen Im Jahr 2007 fanden weit ber 100 F hrungen statt an denen ber 3 000 Personen teilgenommen haben Herausragend waren hier die F hrungen die in der Langen Nacht der Wissenschaft durchgef hrt wur den Knapp 1 000 Personen wurden in einer besonderen logistischen Leistung durch den gesamten Ge 96 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme b udekomplex und vor allem durch den Rechnerwiirfel geleitet und mit allen Informationen versorgt die nachgefragt wurden Die meisten der Besuchergruppen kamen aus Bildungseinrichtungen verschiedene Schulen und Hoch schulen berwiegend mit informationstechnischen Schwerpunkten Gro es Interesse zeigten auch Besu cher aus IT Firmen wie Cray HP IBM Intel SGI Siemens T Systems u a Auch politische Entschei dungstr ger aus Garching dem Umland und dem Freistaat Bayern nutzten die Gelegenheit das LRZ zu besichtigen Besonders sollen Delegationen aus Frankreich Kasachstan Polen Saudi Arabien Thailand und Usbekistan z T mit hohen Ministeriumsvertretern erw hnt werden 5 2 4 Erstsemesterveranstaltungen Wie schon im Vor
314. etriebsparameter des Rechners m ssen auf das Aufgabenprofil hin optimiert werden 8 Die f r die Aufgabe erforderliche Software und die notwendigen Softwarewerkzeuge m ssen zur Ver f gung stehen Die Einhaltung der Kriterien 1 und 2 sichert der Lenkungsausschuss der Kriterien 3 bis 5 die Benut zerbetreuung des LRZ und der Kriterien 6 bis 8 das LRZ in Zusammenarbeit mit KONWIHR 2 Betriebsregelungen 1 Nutzerbetreuung Die Beteiligung der Benutzer bei grunds tzlichen organisatorischen Entscheidungen zum HLRB ist durch den Lenkungsausschuss gew hrleistet Alle HLRB Projekte werden von wissenschaftlichen Mitarbeitern des LRZ aus der Gruppe Hochleis tungsrechnen w hrend der gesamten Laufzeit betreut Der Betreuer ber t vom Lenkungsausschuss zuge lassene Nutzer w hrend der Bearbeitungszeit des Projekts Er setzt die vom Lenkungsausschuss aufges tellten Vorgaben f r das Projekt um wie etwa die Organisation der f r die Bearbeitung genehmigten Be triebsmittel Er verweist die Bearbeitung gegebenenfalls an andere geeignete Rechner kleinere Anlagen oder Gro rechner anderer Architektur innerhalb eines deutschen H chstleistungsrechnerverbundes Er sichert die Einhaltung der Kriterien 3 4 und 5 aus 1 Die Betreuergruppe veranstaltet ggf in enger Zusammenarbeit mit dem Kompetenznetzwerk Kurse und Fortbildungsma nahmen um den Aufwand f r Einzelbetreuung zu minimieren Kriterium 6 aus 1 Diese Kurse k nnen auch als Pr sen
315. etry boundary conditions AE Abbildung 53 Computational Steering Werden Geometrie oder Randbedingungen links im Bild inter aktiv ver ndert so wird das Rechengebiet in Sekundenbruchteilen neu vernetzt diese nderun gen einem Hochleistungsrechner mitgeteilt rechts ein neues Berechnungsergebnis z B der Str mungsverlauf unmittelbar zur ckgeliefert und dieses in VR dargestellt 172 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Auf der International Superomcomputing Conference in Dresden wurde vom LRZ die Simulation der Str mung in einem Operationssaal vorgef hrt X iFluids interactive Fluid Flow Simulation 1 wv Se lt gt Beleg gt Ll x Rotx Roty Abbildung 54 Computional Steering bei einer Simulation der Str mung in einem Operationssaal 6 4 Entwicklungen im Bereich der Datenhaltung 6 4 1 berblick Die Belegung der Archiv und Backupsysteme nahm weiterhin zu Zum Jahresende wurde die 3 Petabyte Grenze erreicht Anfang 2007 waren es noch deutlich unter 2 Petabyte Im Fr hjahr wurde daher ein Gro ger teantrag f r die Erweiterung des Hochleistungsarchivs gestellt und im Sommer genehmigt Die Erweiterung die im Wesentlichen aus weiteren Stellpl tzen f r Kassetten Bandlaufwerke und Platten speicher bestand wurde Ende 2007 geliefert Ihre Inbetriebnahme wird die Kapazit t des Systems ann hernd verdoppeln In 2008 l uft der f nfj hrige landesweite Rahmenlizen
316. ezeichnung InnovaTUM l uft Das LRZ ist einer der wichtigsten Kooperationspartner der TUM bei der Projektdurchf hrung von Integ raTUM sowie Dienstleister f r die IT Services Projektbeginn war am 1 7 2004 Zu diesem Zeitpunkt wurde mit der Stellenbesetzung begonnen Zu n chst waren nur zwei Stellen eine davon am LRZ mit bestehenden Mitarbeitern besetzt Die Besetzung der restlichen Stellen war relativ schwierig und hat sich weit in das Jahr 2005 hineingezogen so dass etwa erst ein Jahr nach dem offiziellen Projektbeginn die vorgesehene Personalst rke erreicht war Die T tigkeitsberichte zu den einzelnen Teilprojekten am LRZ finden sich in Teil II dieses Jahresberichts bei den einzelnen Fachthemen 2 13 3 1 Projektdarstellung Forschung Lehre und Verwaltung der TU M nchen ben tigen Informations und Kommunikationsdiens te zur Erf llung ihrer Aufgaben Historisch bedingt werden diese Dienste noch vielfach dezentral in Ver antwortung der Lehrst hle Fakult ten oder anderer Organisationseinheiten erbracht Diese Vorgehens weise f hrt zu Redundanzen und unn tiger Doppelarbeit Ziel des Projekts ist es diese Situation durch die Schaffung einer benutzerfreundlichen und nahtlosen Infrastruktur f r Information und Kommunikation IuK zu verbessern Geplant ist die Rezentralisierung des Betriebs durch Nutzung modernster Techniken bei Aufrechterhaltung der dezentralen Verantwort lichkeit f r Inhalte und Abl ufe in Fakult ten u
317. ezogener Daten ist durch die Datenschutzgesetze des Lan des und des Bundes geregelt Benutzer die personenbezogene Daten verarbeiten oder speichern wollen sind f r die ordnungsgem e Datenverarbeitung im Rahmen des Datenschutzes selbst verantwortlich ber die im LRZ realisierbaren technischen und organisatorischen Datenschutzma nahmen k nnen die einzelnen Benutzer im Detail unterrichtet werden Allgemein kann gesagt werden dass auf Benutzersystemen z B Home Directories und Datenbanken selbst f r Daten der niedrigsten Schutzstufe die bestehenden Schutzma nahmen am LRZ kaum ausrei chen d h dass ohne Sonderabsprachen und regelungen personenbezogene Daten insbesondere an den zentralen Anlagen des LRZ nicht verarbeitet und gespeichert werden d rfen Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 83 4 4 Schutzma nahmen gegen Missbrauch von Benutzer Kennungen Benutzerkennungen an den zentralen Rechensystemen und mit ihnen ihre Betriebsmittel und ihre Dateien sind gegen unbefugte Nutzung jeweils durch ein Passwort gesichert Dieser Schutz greift aber nur wenn der Benutzer e das Passwort gegen ber Dritten geheim h lt e keine leicht erratbaren Passw rter verwendet e das Passwort hinreichend oft ndert Am LRZ sollte ein Passwort sp testens alle 90 Tage ge ndert werden Passwort nderungen sind aus schlie lich ber WWW m glich idportal Irz de die entsprechenden Systemkommandos wie passwd sind deak
318. f r dieses Teilprojekt war dass die E Mail Infrastruktur an der TU M nchen sehr heterogen und un bersichtlich ist Viele Einrichtungen m ssen wertvolle Arbeitskraft auf die Admi nistration eigener Mailserver verwenden Das Teilprojekt E Mail sollte daher einen zentralen Mailservice bereitstellen der es den Einrichtungen erm glicht diese Aufgaben sofern sie das m chten zu delegieren ohne ihre Verwaltungshoheit oder ihre Maildomains aufgeben zu m ssen Als Basis sollte der innerhalb des myTUM Portals aufgebaute myTUM Mailservice dienen Im Laufe des Projekts wurden jedoch verst rkt W nsche nach Groupware Funktionalit ten wie Kalender und Adressbuch offenkundig Daher wurde das Projektziel dahingehend erweitert dass ein integrierter Mail und Groupware Service aufgebaut werden soll und zwar entsprechend einem Beschluss der TUM Hochschulleitung vom Juli 2007 auf Basis von Microsoft Exchange Die k nftigen Services f r die TUM werden am LRZ gehostet werden Zum Gesamtkonzept geh ren auch die LRZ Mailrelays die die TUM mit Mail aus dem Internet versorgen und dabei u a f r einen zentralen Viren und Spamschutz sorgen All diese Dienste werden hochverf gbar und skalierbar ausge legt Die Leitung dieses Teilprojekts liegt beim LRZ Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 67 2 13 3 1 5 Zentraler Datenspeicher Ziel dieses Teilprojekts ist die Bereitstellung von Speicherkapazit ten f r alle Mitglieder der Hoch
319. f anderen Blades gering Der Interconnect besteht aus 8 Port Routern 8 Port Metaroutern und Backplaneverbindungen der Nodeboards mit den Routern sowie Kabelverbindungen der Router mit den Metaroutern Jede NumaLink4 Verbindung leistet 6 4 Gigabyte s 3 2 Gigabyte s je Richtung non blocking Die Router und Metarouter sind als non blocking Crossbar Einheiten realisiert und verf gen ber acht NumaLink Ports acht Eing nge und acht Ausg nge Der Grundbaustein einer Partition ist ein Blade Chassis das ber zehn Blade Sch chte verf gt in die Prozessor oder Ein Ausgabe Blades eingeb racht werden k nnen Die NumaLink Ports werden dabei mit der Backplane verbunden die die Verbin dung dieser zehn Blade Slots untereinander und zu anderen Blades hin bereitstellt Das folgende Diag ramm zeigt die Topologie einer Backplane eines Blade Chassis PCI FC 4 morr um G aa a Tl N Abbildung 5 Aufbau von Blade Chassis und Interconnect Die 8 Port Router verbinden jeweils vier Prozessor Blades und maximal einen I O Blade untereinander und ber eine zweistufige Hierarchie von Meta Routern hier nicht gezeigt mit dem System Interconnect Diese zweistufige Hierarchie ist doppelt ausgelegt sodass man die Topologie des Intercon nects auch als dual plane fat tree bezeichnet Auf ihrer Basis beruht die Kommunikation innerhalb einer 512 Prozessorkern Partition F r die Kommunikation zwischen unterschiedlichen Partitionen stehen ebenf
320. g daf r ist dass diese Mailrelays in der Lage sind alle g ltigen Adressen zu bestimmen Postfix kann daf r e auf eine lokale Datenbank zugreifen e auf eine entfernte SQL Datenbank zugreifen e auf ein LDAP Directory zugreifen e oder ber SMTP bei einem lokalen Mailserver nach der G ltigkeit der Adressen fragen Mitte September wurden die neuen Server f r die Domain der LRZ Mitarbeiter als Testkandidat in Be trieb genommen Da es leider nicht m glich war die bisherigen Mailrelays komplett und an einem St ck durch die neuen Postfix Mailrelays zu ersetzen muss jede Domain unserer Kunden einzeln umgeschaltet werden Ende September wurde mit den Domains mit dem meisten Verkehr begonnen Bis zum Ende des Jahres konnten bedingt durch andere Aufgaben nur eine Handvoll der mehrere hundert umfassenden Domains umgeschaltet werden Bis zum Ende der Migration wird es noch einige Zeit dauern insbesonde re da bei jedem Mailserver gekl rt werden muss wie die G ltigkeit der Adressen berpr ft werden kann 5 5 4 3 Aufbau von Weiterleitungsservern Ein weiterer Schritt zur Abl sung der alten Mailrelays auf Basis der Software eMail Sentinel von Syn tegra ist die neue Realisierung der Komponente Address Mapping zur Realisierung von Mail Weiterleitungen bzw zur Abbildung von Mailadressen in technische Adressen zur Ablage in einem LRZ Mailserver Um Erfahrungen mit der Postfix Software auf diesem Gebiet zu gewinnen sollte die Weiter leitun
321. g der E Mails an Adressen der Dom nen uni muenchen de bzw Imu de migriert werden Dabei sollte auch gleich getestet werden wie die Directories des LRZ SIM Projekts mit der Belastung in einem Produktionsbetrieb zurechtkommen Bei Spam Mails sind die Absendeadressen in aller Regel gef lscht K nnen die Mails nicht zugestellt werden so gehen die entsprechenden Fehlermeldungen non delivery notifications also an unschuldige Dritte die dann oft unter Massen von Fehlermails zu leiden haben Solche Mails bezeichnet man als Backscatter Spam Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 121 Ende 2007 waren zur Ausfallsicherheit zwei Rechner mit der neuen Postfix Konfiguration versehen und betriebsbereit Es fehlte noch die Konfiguration einiger Funktionsadressen durch die LMU bevor die Umschaltung stattfinden konnte Diese ist f r Anfang 2008 geplant 5 5 4 4 Umstellungsarbeiten f r LRZ SIM Die Migration der alten Benutzerverwaltung auf eine neue LDAP basierte LRZ SIM geplant f r Fr h jahr 2008 hat auch Auswirkung auf E Mail Momentan werden die Daten die f r die Abbildung von benutzerfreundlichen E Mailadressen auf technische E Mailadressen ben tigt werden in einem eigenen LDAP Directory des Mailsystems gehalten Zur Verwaltung dient ein in per geschriebenes Kommando das von den Benutzern direkt oder ber eine Webschnittstelle aufgerufen wird In Zukunft soll die Verwaltung dieser Daten in die neue Benutzerverwaltung in
322. g der Web Inhalte Content Management Systeme CMS zur Pr sentation von Inhalten die sich in Datenbanken befinden und zur Realisierung von Web Portalen Nicht immer lassen sich solche L sungen die meist prim r f r einzelne Webserver auf dedizierten Maschinen und nicht f r Verbunde vieler virtueller Webserver in Webfarmen entworfen sind nahtlos in die jetzige Serverarchitektur einf gen Da es f r diese Zwecke hunderte von unabh ngigen Produkten gibt kann das LRZ auf keinen Fall Unterst tzung bei der Benutzung jedes einzelnen davon bieten und auch nicht in beliebigem Umfang zus tzliche Softwareoptionen im Interesse solcher Anwendungen in die Konfiguration seiner Webserver bernehmen Stattdessen wird darauf gesetzt allgemein verwendbare L sungen besonders im Content Management bereitzustellen so dass es sich er brigt dass die Kunden sich eigene L sungen zusammen suchen Das CMS Plone steht unter dem Applikationsserver Zope zur Verf gung und das bisher nur in tern verwendete CMS Fiona soll zunehmend f r die Anwendung durch Kunden ge ffnet werden Um diese und andere Erweiterungen der Funktionalit t der Webdienste zu erreichen wird wie im Ab schnitt 5 5 5 des Jahresberichtes 2006 ausf hrlicher dargestellt das Betriebskonzept der Webdienste zur Zeit berarbeitet und auf eine neue Hardware und Softwarebasis gestellt Die im Jahr 2006 beschafften 124 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Kompone
323. g einer einheitlichen Virtualisierungsl sung f r alle Betriebssystemplattformen am LRZ Linux Windows Solaris und somit eine m glichst effiziente Nutzung von Personal und Hardware ressourcen 4 Die Abdeckung neuer Anforderungen wie z B Server Hosting und Hochverfiigbarkeit Insgesamt verzeichnet der Bereich Linux Server einen Zuwachs um 108 Server auf insgesamt 390 Den Hauptteil der Neuzug nge bilden SUN Fire X4100 basierte Diensterweiterungen f r Web MySQL IntegraTUM LRZ SIM eLearning Printing NYX NAT VPN u s w gefolgt von 25 Hosts f r Grid Computing 9 Grafik Cluster Knoten 8 ESX Server f r VMware und 5 SLB Testrechnern Linux Systeme am LRZ a E SGI Altix RE u Mitarbeiter Arbeitspl tze E Server u Kurs Cluster 1999 2000 2001 2002 2003 2004 2005 2006 2007 Abbildung 27 Anzahl der Linux Systeme am LRZ 5 7 2 Server unter Solaris Bei den In und Au erbetriebnahmen von Serverrechnern und der Verlagerung von Diensten spielt wie im Vorjahr die Migration in Richtung auf Linux eine gro e Rolle die meisten au er Betrieb genommenen Server wurden durch Linux Systeme ersetzt Daneben gibt es aber auch eine Reihe Dienste bei denen eine vorhandene Solaris Installation vollst ndig berarbeitet wurde Herausragende Themen im Jahr 2007 waren dabei 128 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme e Inbetriebnahme neuer Server aus dem HBFG Antrag Webdienste Struktur siehe 5 5 5
324. g neuer Organisationsstrukturen verzich tet Die Festlegung der Aufgaben der drei beteiligten Gruppen erfolgt in der Nutzungs und Betriebsordnung f r den H chstleistungsrechner in Bayern 280 Teil II Anhang 9 2 Lenkungsausschuss 1 Aufgaben Der Lenkungsausschuss legt Ziele und Schwerpunkte fiir die Nutzung des Rechners fest und kontrolliert deren Einhaltung Der Lenkungsausschuss tibernimmt die folgenden Aufgaben e Billigung der Nutzungs und Betriebsordnung e Bestimmung des Anwendungsprofils und Billigung der dazu notwendigen Betriebsformen e Beratung bei der Festlegung von Abrechnungsformalismen e Aufstellung von Regeln f r die Vergabe von Rechnerressourcen e Empfehlungen zu Software Beschaffung und Hardware Erweiterungen e Entgegennahme des j hrlichen HLRB Betriebsberichts des LRZ und Besprechung der grundlegenden Betriebsfragen e Anh rung des KONWIHR e Beratung den Verbund der Supercomputer Zentren in Deutschland VESUZ betreffender Fragen e Entscheidung ber die Projektantr ge und die Vergabe von Rechnerressourcen Der Lenkungsausschuss kann Aufgaben auch an Nicht Mitglieder oder das LRZ delegieren 2 Mitglieder Der Lenkungsausschuss besteht aus Vertretern des Bayerischen Staatsministeriums f r Wissenschaft Forschung und Kunst der DFG und bayerischen Wissenschaftlern Er hat zw lf Mitglieder e einen Vertreter des Bayerischen Staatsministeriums f r Wissenschaft Forschung und Kunst wird von diesem ben
325. gebung wird ein Modul Konzept entwickelt und umgesetzt Damit ist es m glich Software unabh ngig von spezifischen lokalen Umgebungsvariablen oder Installationsverzeichnissen global einheitlich zu nutzen In DEISA findet ein Modul Konzept bereits Anwendung Das LRZ ist f r die Konzeption und Umsetzung des Modul Konzeptes voll verantwortlich In der Prototyp Phase wird das Konzept ebenso wie das CPE einem Praxistest bei ausgew hlten Nutzergruppen unterzogen um es dann in den Produktivbetrieb zu bernehmen Im FG 2 3 kooperiert das LRZ mit dem Fraunhofer Institut f r Techno und Wirtschaftsmathematik ITWM dem Forschungszentrum J lich FZJ dem Forschungs zentrum Karlsruhe FZK und dem Regionales Rechenzentrum f r Niedersachsen RRZN als assoziier tem Partner Steuerungsausschuss Seit September 2007 ist das LRZ auch im Steuerungsausschuss des D Grid vertreten Der Steuerungsaus schuss besteht aus den Projektleitern der DGI I Teilprojekte den Projektleitern der Community Projekte sowie den Projektleitern der Gap Projekte Der Steuerungsausschuss koordiniert die Zusammenarbeit zwischen den einzelnen Projekten und trifft projekt bergreifende Entscheidungen oder ber die strategi sche Ausrichtung des D Grid 7 6 Netzanbindung f r DEISA Im DEISA Distributed European Infrastructure for Supercomputing Applications Projekt siehe Ab schnitt 6 2 2 haben sich 11 europ ische Forschungsrechenzentren zusammengeschlossen um ihre Super com
326. geln des Leibniz Rechenzentrums in der jeweils aktuellen Fassung Insbesondere gelten die 4 bis 8 der Benutzungsrichtlinien f r Infor mationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaf ten uneingeschr nkt 4 Pflichten des Benutzers 5 Aufgaben Rechte und Pflichten der Systembetreiber 6 Haftung des Systembetreibers Haftungsausschluss 7 Folgen einer missbr uchlichen oder gesetzteswidrigen Benutzung 8 Sonstige Regelungen F r die Nutzung der Einrichtungen des Kommunikationsnetzes am LRZ gelten sinngem die diesbez g lichen Regelungen in den e Richtlinien zum Betrieb des M nchner Hochschulnetzes MHN sowie die e Benutzungsordnung des DFN Vereins zum Betrieb des Wissenschaftsnetzes in der jeweils aktuellen Fassung Sofern Nutzer den HLRB gegen Entgelt nutzen siehe unten 1 und 3 sowie 2 und 4 der Benutzungs richtlinien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akade mie der Wissenschaften gelten die aktuellen e Geb hren des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften 81 Betriebsziele Der H chstleistungsrechner in Bayern dient dem Ziel rechenintensive Aufgaben im Grenzbereich des heute technisch Machbaren bearbeiten zu k nnen Er steht in erster Linie der Wissenschaft zur Verf gung soll aber auch f r die Industrie zug nglich sein um die internationale Wettbewerbsf higkeit in diese
327. gen Finite Differenzen Fluiddynamik Strukturmechanik e Grafik und Visualisierung e Internet und Kommunikations Software Mail News WWW Dateitransfer IRC X Server e Mathematische Programmbibliotheken e Parallelisierung und Vektorisierung e Programmiersprachen und Programmiertools Compiler Tools Quellverwaltung Debugger e Statistik e Textbe und verarbeitung Textverarbeitung Textsatz und Desktop Publishing Editoren e Utilities Dienst und Hilfsprogramme Archivierungsprogramme Shells Skript und Kommandosprachen Viren Scanner Die bisher bliche Auflistung in diesem gedruckten Bericht ist nicht mehr zeitgem Eine vollst ndige und st ndig aktuelle bersicht bieten Ihnen die Internetseiten des LRZ unter www lrz muenchen de services software Unter www Irz de services swbezug lizenzen finden sich am LRZ WWW Server Informationen dar ber fiir welche Produkte es am Leibniz Rechenzentrum Landes Campus oder Sammellizenzen zu giinstigen Konditionen gibt Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 255 Teil IH Anh nge Anhang 1 Satzung der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften und des Leibniz Rechenzentrums 81 Aufgaben Die Kommission f r Informatik der Bayerischen Akademie der Wissenschaften dient wissenschaftlichen Bem hungen auf dem Gebiet der Informatik im Freistaat Bayern Insbesondere betreibt sie das Leibniz Rechenzentrum Das Leibniz Rechenzentrum
328. gen Standard Edition und Advanced Edition die ganz neue Version des HPOV NNMi 8 0 und der Tivoli NetworkManager von IBM Neben diesen gibt es eine ganze Reihe von kommerziellen und Open Source Werkzeugen im Bereich Netz und Dienstmanagement die aber aus unterschiedlichen Gr nden nicht in die engere Auswahl gezogen wurden weil sie jeweils bestimmte An forderungen nicht erf llen konnten oder f r ein Netz in der Gr e des MWN als nicht geeignet erschei nen Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 215 Die Evaluation und Auswahl welches Werkzeug zukiinftig den NNM 6 4 ersetzen soll konnte 2007 nicht mehr abgeschlossen werden und wird deshalb 2008 fortgesetzt WWW Server zum Netzmanagement Auf einem Web Server sind seit 2002 f r die Nutzer des M nchner Wissenschaftsnetzes aktuelle Infor mationen ber die Topologie und die Performance des MWN Backbone abrufbar Unter http wwwmwn Irz muenchen de werden Performance Daten zu den wichtigsten Elementen des MWN Backbone X WiN Anbindung Demilitarisierte Zone DMZ des LRZ IPv6 Tunnel einige serielle An schl sse von weiter entfernten Standorten Modem und ISDN Zugang usw dargestellt Die Performance Daten werden dazu jeweils in Form von MRTG Statistiken bereitgestellt MRTG siehe http www mrtg org ist ein Werkzeug zur berwachung des Verkehrs auf Netzwerkverbindungen kann aber auch zur berwachung anderer Kennzahlen eingesetzt werden Der WWW Server zum Ne
329. gen keine Probleme Dies zeigte sich auch im Be trieb Bei der Einf hrung der obigen Restriktionen wurde eine Whitelist mit ca 70 IP Adressen von Mail servern angelegt bei denen die DNS Konfiguration falsch war hnlich wie beim Greylisting war danach zu Beginn etwa einmal pro Woche ein Fall zu bearbeiten bei dem ein Mailserver bedingt durch eine fal sche Konfiguration von uns abgewiesen wurde In der Regel wurde daraufhin die Konfiguration durch den Betreiber des Mailservers korrigiert In den wenigen F llen wo dies nicht geschah wurde die IP Adresse des Mailservers bei uns in die Whitelist aufgenommen damit die Kommunikation zwischen den Endkunden erfolgen konnte In der Zwischenzeit umfasst diese Liste nur noch ca 50 Eintr ge da die DNS Konfiguration von den Betreibern der Mailserver korrigiert wurde Insgesamt haben sich die neuen berpr fungen als Erfolg herausgestellt insbesondere ist die Belastung der Greylisting Komponente stark zur ck gegangen Durchschnittlich gibt es jetzt pro Tag noch ca eine Million Abweisungen die vom Greylisting herr hren Auch die Anzahl der Spam Mails in den Mailbo xen der Endkunden ist dadurch weiter zur ckgegangen Ein weiteres Ziel beim Aufbau der Server war die Vermeidung von so genanntem Backscatter Spam durch unsere Mailserver Dazu ist es notwendig dass E Mails an nicht existierende Empf nger gar nicht erst angenommen sondern bereits an den Front Mailrelays abgewiesen werden Voraussetzun
330. gesetzt e Das LRZ f hrt Standards am HLRB ein bzw betreibt deren schnelle Einf hrung durch den Herstel ler die f r ein problemloses Zusammenspiel von Rechnern und die reibungslose Nutzung des HLRB notwendig sind e Das LRZ sorgt f r die Zusammenarbeit mit anderen deutschen und internationalen Hochleistungsre chenzentren z B durch die Mitarbeit bei Projekten wie dem BMBF Projekt bei der gegenseitigen Zertifizierung und Validierung usw Insbesondere werden Beschl sse und Empfehlungen des Ver bundes der Supercomputer Zentren in Deutschland VESUZ nach M glichkeit umgesetzt e Erstellung des j hrlichen HLRB Betriebsberichts f r den Lenkungsausschuss 3 Kommunikationsnetz Anschluss Die Netzbetriebsgruppe am LRZ sorgt f r die erforderliche hochwertige Anbindung des HLRB an das weltweite Kommunikationsnetz Im Einzelnen beinhaltet dies e bestm gliche Anbindung an das Backbone Netz des LRZ zur Nutzung anderer Dienste des LRZ und f r die Archivierung und Visualisierung von Daten e bestm glichen Anschluss an das deutsche Wissenschaftsnetz des DFN damit der bundesweite Aus tausch von Daten der Nutzer m glichst unbehindert vonstatten gehen kann e Wahrung aller Sicherheitsaspekte die mit dem Anschluss des HLRB ans Kommunikationsnetz zu sammenh ngen und durch Ma nahmen im Kommunikationsnetz abgedeckt werden m ssen 3 Nutzerkreis Am HLRB grunds tzlich zul ssig sind Projekte aus 1 Forschung und Lehre an staatlichen
331. gssysteme betreut 8 9 Haupt S Entwurf und Implementierung eines Reporting Tools f r Grid Accounting Bachelor arbeit Fachhochschule M nchen Oktober 2007 Leiter B Analyse von Management und Steuerungsprozessen am LRZ anhand der Empfehlun gen des ITIL Frameworks Diplomarbeit Technische Universit t M nchen Januar 2008 Ver ffentlichungen der Mitarbeiter 2007 ISBN 1 4244 0799 0 AL SHAER E HEGERING H G KELLER A eds Proceedings of the 10 IFIP IEEE Sym posium on Integrated Network Management IM 2007 Munich May 21 25 2007 IEEE Press Piscateway 2007 BADER R Upgrading the Altix 4700 InSide Innovatives Supercomputing in Deutsch land Vol 5 No 1 BADER R A Fortran Binding for the GNU Scientific Library Kurzdarstellung InSide Innovatives Supercomputing in Deutschland Vol 5 No 1 BADER R A Fortran Binding for the GNU Scientific Library ausf hrliche Darstellung ACM Fortran Forum Vol 26 No 2 August 2007 ISBN 978 3 540 75693 4 BAUR T BEL HAJ SAAD S Customer Service Management for Grid Monitoring and Accounting Data In Proceedings of the 18th IFIP IEEE International Workshop on Dis tributed Systems Operations and Management DSOM 2007 2007 IFIP IEEE Octo ber 2007 ISBN 1 4244 0799 0 BAUR T BEL HAJ SAAD S Virtualizing Resources Customer Oriented Cross Domain Monitoring for Service Grids In Moving from Bits to Business Value Proceedings of the 2007 Integrated Netwo
332. h hohen ausgehenden Datenvolumina Weist ein Rechner im MWN ein ungew hnlich hohes ausgehendes Datenvolumen auf so handelt es sich in der Regel um einen bekannten Server der einen Internet Dienst anbietet Kommt ein unbekannter Rechner in den Bereich der f r einen Server typisch ist ist dies ein Indiz daf r dass dieser missbraucht wird In diesem Fall wird manuell der zust ndige Netzverantwortliche informiert und der Rechner bei Bedarf am X WiN Zugang gehindert o Erkennung von SPAM Rechnern Das Verfahren zur Erkennung kompromittierter Systeme durch eine unverh ltnism ig hohe Anzahl an Verbindungen auf Port 25 ins Internet Hinweis auf das Versenden von SPAM E Mails funktioniert zu verl ssig und tr gt wesentlich zum Erfolg beim Auffinden kompromittierter Rechner im MWN bei 7 4 4 2 Eingehender Verkehr Nat rlich war das MWN auch 2007 permanenten Angriffen aus dem Internet ausgesetzt Automatisierte Angriffe werden beim Monitoring Accounting am X WiN Zugang durch eine hohe Anzahl an Verbin dungen oder Verbindungsversuchen zu Ports im MWN erkannt Die Sch den durch diese Angriffe hielten sich jedoch in Grenzen da die Angebote zur automatischen Software und Virenscanner Aktualisierung zunehmend angenommen wurden und au erdem verst rkt Personal und Instituts Firewalls zum Einsatz kamen und der ab 2007 angebotene neue Dienst virtuelle Firewall zunehmend genutzt wurde 226 Teil II Entwicklungen und T tigkeiten im Bereich
333. h zwei statt vorher drei Hierarchieebenen im Netz Auf der Netzebene gibt es 44 Standorte die jeweils einen Router enthal ten Diese Router sind direkt d h ohne das fr here Zugangsnetz mit den Anwendern verbunden und enthalten auch verschiedene Verbindungen zu kommerziellen Netzbetreibern sowie dem europ ischen Wissenschaftsnetz Geant2 Die Anwendung wurde im April 2004 f r alle X WiN Anwender freigegeben und ist seitdem im Betrieb Abbildung 89 zeigt die Oberfl che der CNM Anwendung Topologie e CNM Anwendung Verkehrsbeziehungen Bereitstellung von IP Accounting Daten Mit Hilfe dieser Funktionalit t k nnten DFN Anwender nachvollziehen mit welchen anderen DFN Anwendern sie innerhalb des X WiN wie viel IP Verkehr ausgetauscht haben Diese Funktionalit t ist nicht implementiert worden da die erforderlichen Daten weiterhin nicht zur Verf gung gestellt werden konnten und andere Priorit ten gesetzt wurden e CNM Anwendung Datenvolumen Bereitstellung von IP Interfacestatistiken f r die DFN Anwender Mit dieser Funktionalit t k nnen DFN Anwender nachvollziehen welches Verkehrsvolumen sie aus dem X WiN empfangen bzw gesendet haben Diese Funktionalit t ist in der CNM Anwendung f r das X WiN implementiert f r jeden bestellten IP Dienst wird f r den Anwender ein eigenes CNM Auswahlfenster f r IP Interfacestatistiken bereitgestellt F r jeden Tag wird jeweils ein Wert f r gesende te und empfangene Daten berechnet Nach der
334. haben f r den Bericht wieder bewusst die bew hrte Gliederungsform gew hlt die mehrere Zielgrup pen ansprechen kann Teil I stellt im wesentlichen eine Einf hrungsschrift des LRZ dar in leicht lesbarer Form wird ein berblick gegeben ber die Aufgaben das Dienstleistungsangebot die systemtechnische Ausstattung und unsere Nutzungsregelungen Der Teil II der vorliegenden Schrift ist der Jahresbericht im engeren Sinne hier wird ber die im Jahre 2007 erzielten Fortschritte im Bereich der Dienste und Nut 8 Teil I Vorwort zung der Systemausstattung der Kommunikationsnetze der Programmausstattung und des Betriebs be richtet Die Darstellung beschr nkt sich nicht auf eine Faktenaufz hlung an vielen Stellen werden die Zahlen kommentiert Ma nahmen motiviert bzw begr ndet und Alternativen diskutiert Entscheidungs kriterium war immer bei gegebener Personal und Finanzkapazit t Dienstg te und Kundennutzen zu maximieren Seit vielen Jahren unterst tzt das Leibniz Rechenzentrum als Voraussetzung f r eine dezentrale DV Grundversorgung gezielt kooperative verteilte Versorgungskonzepte Deshalb steht im Fokus unserer Arbeit als Hochschulrechenzentrum das verbindende Element aller verteilten DV Ressourcen der Hoch schulen n mlich das Kommunikationsnetz mit seinen facettenreichen Netzdiensten Auf diesem Gebiet leisten wir Planung Bereitstellung und Betrieb aber auch international anerkannte Entwicklung und For schung Pilotimplementi
335. haftlichen Rechenzentrums f r den Gro raum M nchen sind nat rlich der Betrieb der zentralen Rechenanlagen und des M nchner Wissenschaftsnetzes MWN De tails der maschinellen Ausstattung finden sich in Abschnitt 3 1 Zur Durchf hrung dieser Aufgabe sind u a folgende Ma nahmen notwendig e Installation Pflege und Weiterentwicklung der zentralen Systeme 56 Teil I Das Dienstleistungsangebot des LRZ e Anpassung der Betriebssysteme an spezielle Bed rfnisse am LRZ Auftragsverwaltung Kontingentierung e Installation und Betreuung von Anwendersoftware e Ma nahmen zur Fehlererkennung und behebung e regelm ige Dateisicherung an den verschiedenen Rechnern e Ausbau und Betrieb des weitverzweigten MWN samt der notwendigen Netzdienste Nameserver Mail Gateways usw e Ma nahmen zur Erh hung der Sicherheit im Netz und zum Schutz der Rechenanlagen vor Hacker Angriffen und Schadsoftware Am LRZ werden die Systeme rund um die Uhr betrieben und mit Ausnahme einiger Schichten am Wo chenende sogar stets unter der Aufsicht von Bedienungspersonal Au er w hrend einiger Stunden im Monat die f r vorbeugende Hardware Wartung und notwendige Systemarbeiten ben tigt werden stehen die Anlagen stets dem Benutzerbetrieb zur Verf gung Die wesentlichen Komponenten des Wissenschaftsnetzes sowie die Zug nge zu den nationalen und inter nationalen Netzen X WiN Internet sollten ohne irgendwelche Unterbrechungen verf gbar sein Falls dennoch
336. haftsnahe Institutionen Fachhoch schulen Bibliotheken Max Planck Institute Studentenwerk usw das LRZ gebeten IT Dienste f r sie zu betreiben und zu betreuen IT Outsourcing Bis auf die Ausnahme der Mitnutzung des M nchner Wissenschaftsnetzes wurde dies immer wieder im Rahmen von Einzelfallentscheidungen gel st Mit dem Umzug des LRZ in den Neubau in Garching sowie auf Grund der durch den Ministerrat beschlossenen Konsolidierung der Rechen und IT Betriebszentren im Bereich der Verwaltung und damit entsprechen der Rezentralisierungsma nahmen in den Hochschulen selbst ist dieser Wunsch immer mehr gewachsen und l sst sich mittlerweile nicht mehr nur durch Einzelfallentscheidungen l sen Deshalb hat das LRZ in Absprache mit seinem zust ndigen Ministerium Bayerisches Staatsministerium f r Wissenschaft Forschung und Kunst einen Dienstleistungskatalog entwickelt der im ersten Schritt nur diejenigen Dienste enth lt die bisher f r andere Institutionen schon betrieben bzw von anderen Insti tutionen aktiv nachgefragt wurden Teil des Dienstkatalogs ist auch eine aktualisierte Klasseneinteilung m glicher Nutzer Kunden Anhand dieser Einteilung werden die Institutionen klassifiziert und die aus der Dienstleistung resultierenden Kosten berechnet Dieser Entscheidungsprozess ber die Einteilung ist noch nicht vollst ndig abgeschlossen er erfolgt in enger Abstimmung mit der Bayerischen Akademie der Wis senschaften und unserem Ministerium
337. he Konzeptes aus F r das LRZ als Betreiber hat sich dar ber hinaus die M glichkeit sehr bezahlt gemacht Teilbereiche der AFS Daten im laufenden Betrieb von einem physischen Server auf einen anderen verlagern zu k nnen Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 39 Dadurch konnten immer wieder Probleme bei der Plattenplatzverwaltung behoben werden die bei ande ren Dateisystemen eine Betriebsunterbrechung notwendig gemacht h tten Durch die von den AFS Fileservern bereitgestellte Kapazit t wird der allgemeine Bedarf an Online Speicherplatz von ber 30 000 zentral registrierten Benutzerkennungen abgedeckt Ferner versorgt AFS einige Applikationsserver wie z B WWW mit Plattenplatz AFS Daten werden ber das Archiv und Backup System gesichert Der Zugang auf die AFS Daten ist allerdings erst nach Installation der frei verf gbaren AFS Client Software von einem Rechner aus m glich NAS Network Attached Storage ber 10 Jahre lang war AFS das zentrale gemeinsame Dateisystem aller Unix Plattformen am Rechen zentrum Im Jahr 2004 wurde am LRZ erstmals Network Attached Storage NAS eingesetzt Auf Network Attached Storage kann ber verschiedene Protokolle NFS CIFS zugegriffen werden CIFS eignet sich besonders f r den gemeinsamen Zugriff von Windows basierten Systemen aus kann aber auch unter Unix MacOS u A benutzt werden An den vom LRZ betreuten Einrichtungen ist der Prozentsatz von Arbeitsplatzsystemen die
338. heim Paulinum e V Kath Kath Siedlungswerk Stud Verbindungen Albertia Ottonia Erwinia Ingeborg van Calker Stiftung Evangelische Studentenwohn heime Katholische Kirche Studentenwerk Orden der Armen Schul schwestern Orden der Armen Schul schwestern Studentenwerk Katholisches Ordinariat 259 110 112 81 97 226 382 239 122 125 160 26 68 58 120 25 40 65 35 348 50 82 580 73 100 MBit Laserlink mit integriertem 2 MBit Funk Backup 100 MBit Laserlink zu TU Feuerwehr 100 MBit Laserlink zu TU Heizkraftwerk LWL zu TU Heizkraftwerk Speed VDSL Intern mit Funk vernetzt Internet Anbindung tiber 2 T DSL Anschliisse LWL tiber Weihenstephan IV LWL zu FH Heizhaus LWL zu Q1 LWL zu alter DVS Funk zur FH SchachenmeierstraBe SDSL M net Funk zu KH Rechts der Isar Funk zu Monumenta Auch intern Funk AP Funk zu TUM Uhrenturm M net 4 6 MBit s SDSL Funk zu Richard Wagner Str 18 LWL zu Richard Wagner Str 18 Funk zu TU Feuerwehr Funk 802 11a zur FH Telekom LWL zu B M net SDSL M net SDSL LWL zu Campus Gro hadern Funk zu Georgenstra e 11 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 205 7 2 Dienste 7 2 1 Wahlzugangsserver Die Nutzung ist weiterhin zur ckgehend Im M rz 2007 wurden die bis dahin noch im Altbau des LRZ installierten S Anschl sse der Fa M net nach Garching umgezogen die Anza
339. heit des MWN Es handelt sich dabei prim r um ein transparentes NAT Gateway das bei den Rechnern mit privater IP Adresse nicht konfiguriert werden muss Zus tzlich zur Adressumsetzung sorgt ein AutoMAT f r eine Bandbreiten regelung und verhindert weitgehend Angriffe auf andere Rechner durch Port Scans DoS und Spam Versendung Der NAT o MAT blockt automatisch kompromittierte Rechner die den Betrieb beeintr ch tigen und veranlasst den Besitzer eines derartigen Rechners durch geeignete Hinweise seinen PC zu s ubern In schweren F llen schickt der NAT o MAT au erdem noch eine Hinweis Mail an die zust ndigen Netz verantwortlichen In der Statistik werden nur diese F lle gez hlt Im Jahr 2006 konnte die Schutzfunktion des NAT o MAT noch weiter gesteigert werden e Das Botnet Monitoring wurde relativ bald auch in den NAT o MAT integriert e Der NAT o MAT wirkt sich nicht mehr nur auf Rechner mit privaten IP Adressen aus die Dienste im Internet in Anspruch nehmen wollen Durch ein geeignetes Policy based Routing werden jetzt auch s mtliche VPN und Einwahlverbindungen Modem ISDN und M net zwangsweise durch den NAT o MAT geleitet Dementsprechend nahmen auch die vom NAT o MAT erkannten Missbrauchsf lle drastisch zu Art des Monitoring Anzahl der F lle Anzahl der durch das die verd chtigen Rechner entdeckt wurden Rechner Entdeckte kompromittierte Rechner NAT o MAT schwere F lle 847 847 Botnet 141 140 Port
340. hinsichtlich des Daten transfers und des zu sichernden Datenvolumens kontinuierlich zu berwachen und zu pr fen da eine Kostenkorrektur ber Quartalsgrenzen hinweg nicht m glich ist Der Kunde wird angehalten Probleme fr hzeitig dem LRZ via E Mail abs admin_AT_Irz muenchen de zu melden um einen korrekten Betrieb zu gew hrleisten Der Nutzer ist verpflichtet die automatisch erzeugten Mitteilungen des Backupsystems zur Kenntnis zu nehmen und im Bedarfsfall zeitnah zu beantworten bzw Einspruch zu erheben Die Mitteilungen gelten als akzeptiert wenn nicht innerhalb eines Monats Einspruch erhoben wird 15 Salvatorische Klausel Unwirksamkeitsklausel Sollte eine oder mehrerer Bestimmungen vorstehender Richtlinie unwirksam sein oder unwirksam wer den so hat dies keinen Einfluss auf die G ltigkeit der brigen Richtlinien bzw Bestimmungen 16 Inkrafttreten Diese Richtlinie tritt am 1 M rz 2008 in Kraft 17 Schlussbestimmungen Das LRZ beh lt sich das Recht vor die Richtlinien zur Nutzung des Archiv und Backupsystems zu n dern Dies gilt insbesondere dann wenn eine nderung aufgrund zwingender gesetzlicher Vorschriften erforderlich wird nderungen dieser Vertragsbedingungen werden dem Nutzer in elektronischer Form per E Mail bekannt gegeben Sie gelten als genehmigt wenn der Nutzer nicht schriftlich bzw per E Mail Widerspruch erhebt Der Nutzer muss diesen Widerspruch innerhalb eines Monats nach Bekanntgabe der nder
341. hl wurde dabei von 10 auf 4 reduziert Der veraltete Server Ascend MaxTNT wurde dabei au er Betrieb genommen Alle Anschl sse 4 S2m der Telekom 4 S2 von M net 1 Querverbindung zur TUM und 1 Querverbindung zur LMU terminieren nun an den beiden Servern Cisco 5350 XM im Netz und Serverraum des LRZ Neubaus Die folgende Tabelle zeigt die im Dezember 2007 angebotenen Modem ISDN Zug nge mit den jeweili gen Anbietern und Rufnummern im berblick TUM und Beh rden 089 35831 9000 LCR LMU und Beh rden 089 35831 9000 LCR Die Anschl sse der Firma M net stehen nur M net Kunden zur Verf gung F r diese sind Verbindungen in der Nebenzeit 18 8 Uhr und Sa So kostenfrei 7 2 2 VPN Server Im MWN werden VPN Server f r folgende Anwendungsbereiche eingesetzt e Zugang ber vom LRZ betreute WLANs e Zugang ber ffentliche Anschlussdosen f r mobile Rechner e Zugang zu internen MWN Diensten z B Online Zeitschriften f r Bewohner von Studentenwohn heimen e Zugang zu internen MWN Diensten ber fremde Internet Anbieter z B T DSL T Online Arbeitsschwerpunkte 2007 e Aufr stung der VPN Server Aufgrund der weiterhin steigenden Auslastung der vorhandenen VPN Server wurde der VPN Cluster aufger stet Der Datendurchsatz ist seit 2005 j hrlich um den Faktor zwei gestiegen Anfang 2007 wur den zwei Appliances im Austausch f r die alten VPN Server beschafft Sie sind in der Lage in dem be stehenden VPN Cluster mitzuwirken u
342. hner 0L ZAT Sop npn gsegu OL 2 Hochleistungs Linux System Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller Kompo oer hes Daten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur nenten aupt Aufgabe Anzahl und speicher F Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente Linux 1 Am LRZ Teilweise 505 2400 505 Linux Cluster zur Bearbeitung blicher auf Linux Cluster selbst konfi mit GBit verf gbarer Anwendungsprogramme und f r Program guriert Myrinet oder me die moderat mittels MPI parallelisierbar sind Der 10 Gbit Cluster besteht aus den im folgenden aufgez hlten Ethernet Komponenten vernetzte Rechenkno ten 2 DELL 1 128MB Komponente des Linux Clusters Pentium II 200 MHz Konsol und Installationserver 2 Advanced Unibyte 2 2 GB Komponente des Linux Clusters Xeon 2800 MHz SGE 5 1 und SGE 6 0 Master Server 2 SUN X4100 2 4GB Komponente des Linux Clusters Opteron 2600 MHz SGE 6 1 Master Server SGE 6 1 Secondary Server DNS Master Server 1 SUN X4100 4 8 GB Komponente des Linux Clusters Opteron 2600 MHz Zentraler nagios Uberwachungsserver 2 Advanced Unibyte 2 2 GB Komponente des Linux Clusters Xeon 2800 MHz Hochverfiigbarer Lustre Metadaten Server 8 SGI Altix XE 240 4 2 GB Komponente des Linux Clusters
343. hner Universit ten erhalten diese bereits bei der Immatrikulation Mitarbeiter in der Regel ber ihre Einrich tung Institut oder Lehrstuhl Die Betreuung der f r den Mail Betrieb notwendigen Server erfolgt f r die Studenten ganz f r die Mitarbeiter berwiegend durch das LRZ Um E Mails empfangen und versenden zu k nnen ben tigt man neben der E Mail Adresse ein entspre chendes Mail Programm Mail User Agent Daf r kommt z B das kostenlose Produkt Thunderbird in Frage Mail Clients stehen nat rlich auch auf s mtlichen LRZ Rechnern zur Verf gung auf Windows Rechnern in der Regel Thunderbird auf Linux und Unix Rechnern daneben auch pine Alternativ zur Verwendung eines Mail Programms kann man heutzutage oft auch ber eine Web Schnittstelle auf seine Mailbox zugreifen Studenten der beiden M nchner Universit ten k nnen das ber das jeweilige Web Portal tun campus Imu de bzw www tum de Mitarbeiter deren Mailbox am LRZ liegt ber webmail Irz de F r die Bereitstellung der Mail Dienste betreibt das LRZ verschiedene Mail Server Mail Stores die einlaufende Nachrichten f r die Benutzer von LRZ Systemen speichern sowie mehrere Mail Server die als Umsetzer Mailrelays f r den M nchner Hochschulbereich fungieren An den Mailrelays werden au erdem alle aus dem Internet eintreffenden E Mails auf Viren untersucht sowie daraufhin bewertet ob es sich um Spam Mails handelt N here Einzelheiten ber
344. hre Beziehungen zur Benutzerverwaltung wichtig sind Die Dienstleistungen reichen dabei vom Internetzugang ber Posterdruck und Betrieb von virtuellen Webservern bis hin zur Nutzung von H chstleistungsrechnern Alle betrachteten Dienste haben gemeinsam dass sie nur genutzt werden k nnen nachdem man sich als legitimierter Benutzer ausgewie sen hat gegenw rtig blicherweise durch die Angabe eines g ltigen Benutzernamens auch als Kennung bezeichnet samt zugeh rigem Passwort Zu den Kunden des LRZ geh ren neben den Studenten und Mitarbeitern aus dem akademischen Umfeld in M nchen zunehmend auch Hochschul und Forschungseinrichtungen aus ganz Deutschland im Rah men von Grid Projekten sogar aus ganz Europa Die Verwaltung der Zugangsberechtigungen zu den ver schiedenen Rechner Plattformen des LRZ erfolgt schon seit langem e zentral im Hinblick darauf dass sich die Administratoren der einzelnen Plattformen nicht selbst dar um k mmern m ssen dass neue Benutzer auf ihrer Plattform eingetragen werden aber e dezentral unter dem Aspekt dass die Vergabe von Kennungen an so genannte Master User dele giert wird die f r die Verteilung der Ressourcen innerhalb ihrer Einrichtungen zust ndig sind Die bisher eingesetzte Software zur zentralen Benutzerverwaltung hier fters als bisherige ZBVW bezeichnet ist eine LRZ Eigenentwicklung die Ende der 1970er Jahre entstanden ist und nur wenige Male an neue Anforderungen angep
345. hresbericht 2007 des Leibniz Rechenzentrums Teil II 175 Ausbau Hochleistungsarchiv und Backupsystem 2007 Bandkapazitat 800 TB 1600 Titanium Cartridges Bandlaufwerke 16 x Titanium 10 x Titanium Plattenkapazitat 73 TB FCAL 19 TB Geplante Erweiterungen rot schraffiert hinterlegt Router MWN Wissenscha TTT IT 10GE Switch Cisco 6509 2x GE Switch HP 3448CL leistungs 20 10Gbit Ports 96 Gbit Ports so 16 x 10Gbit Ename ftsnetz Bundes h chst 2x 10Gbit Ethernet _ 8 x Gbit Ethernet 56 x Gbit Ethernet 8 Gbit Ethernet 2 x Sun Fire X4200 14 x Sun Fire X4200 2 x Sun Fire X4200 2 x OPTERON 2 6 GHz 6 GB Memory OPTERON dual opu 4 FC 2 Gbit OPTERON dual cpu j 39 S63 4 x GE port trunking 2 x OPTERON 2 6 GHz 6 GB Memory 4x FC 2 Gbit 4 x GE port trunking s35 s38 4x10GE SLES 9 kernel 2 6 5 7 191 TSM server 5 3 SLES 9 kernel 2 6 5 7 191 TSM server 5 3 8 x 2 Gbit FC 54 x 2 Gbit FC 8 x 4 Gbit FC 9 x 2 Gbit FC Storage Area Network 4 GBit FC Direktor 64 Port 4 GBit FC Direktor 64 Port 32 Ports 32 Ports 16 x 2 Gbit FC 10 Gbit FC 16 x 4 Gbit FC 8 x 4 Gbit FC 10 x NAS Filer 3 x NAS Filer 4x2 Gbit F OOO0O00000 29229 OOO0O00008 9290 STK FLX380 STK FLX380 STK SL8500 tape library FC AL FC AL 16 fc tape drives Titanium 10 fc tape drives 44 TB slots 4904 sl
346. hresbericht 2007 des Leibniz Rechenzentrums Teil III 281 Die Gutachter beurteilen dazu den wissenschaftlichen Anspruch und die wissenschaftliche Kompetenz der Antragsteller auf Nutzung des HLRB im Rahmen der allgemeinen Vorgaben des Lenkungsausschus ses Sie stellen fest dass die beantragten Projekte nicht an kleineren Rechnern der hierarchischen Versor gungsstruktur Arbeitsplatzrechner Institutsrechner Compute Server in Universit tsrechenzentren Lan deshochleistungsrechner bearbeitet werden k nnen Sie achten auch darauf dass die beantragten Projekte f r den HLRB geeignet sind und pr fen gegebenenfalls ob sie nicht besser an H chstleistungsrechnern anderer Architektur bearbeitet werden sollten F r genehmigte Projekte legt der Lenkungsausschuss die Laufzeit des Projekts Kontingentgrenzwerte und eventuell Priorisierungen f r die Bedienungsg te am HLRB fest 2 Begutachtungsverfahren Antr ge auf Nutzung von HLRB Ressourcen sind an das LRZ zu richten Der Lenkungsauschuss be stimmt Obleute f r die jeweiligen Fachgebiete aus seinem Kreis die das weitere Begutachtungsverfahren initiieren Die Obleute bedienen sich f r jeden Antrag mindestens zweier externer Gutachter Die externen Gutachter sollen aus Wissenschaftlern aus den wichtigsten Anwendungsgebieten des HLRB bestehen und berwiegend berregional ausgew hlt werden Der Obmann erstellt ein endg ltiges Votum und leitet es dem LRZ zur weiteren Veranlassung zu Auftre
347. hrieben deren Umsetzung durch die Domains in eigener Regie erfolgt Sp ter soll ein von I SHARe erstelltes Tool zum Management der Prozesse dienen d h deren Ablauf durch Dokumentation der Schrit te unterst tzen sowie ben tigte Daten verwalten bzw Referenzen enthalten wenn die Daten sinnvoller weise bereits von existierenden Systemen verwaltet werden Die Aktivit t wurde im September 2007 gestartet und wird u a von zwei Mitarbeitern des DFN am LRZ bearbeitet Ein erstes Deliverable zur Prozessanalyse wird im April 2008 vorgelegt Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 8 Organisatorische Ma nahmen im LRZ 8 1 Personalver nderungen 2007 8 1 1 Zug nge Datum Name Dienstbezeichnung Abteilung 01 01 2007 Berger Georg stud Hilfskraft Hochleistungssysteme 01 01 2007 Veits Bastian stud Hilfskraft Zentrale Dienste 01 02 2007 Berner Stefan wiss Mitarbeiter Hochleistungssysteme 01 02 2007 Breitwieser Otto Leo stud Hilfskraft Benutzernahe Dienste und Systeme 01 02 2007 Hofer Catherine stud Hilfskraft Benutzernahe Dienste und Systeme 05 02 2007 Stiegler Andreas Praktikant Benutzernahe Dienste und Systeme 01 03 2007 Braum ller Mario stud Hilfskraft Benutzernahe Dienste und Systeme 01 03 2007 Lindinger Tobias wiss Mitarbeiter Kommunikationsnetze 01 03 2007 Saverchenko Ilya
348. hulen i a keine Voraussetzungen Raum Strom Klima Be treuung gegeben weshalb man den Systembetrieb in das LRZ outsourcen m chte Hieraus entsteht na t rlich ein erh hter Fl chenbedarf im Rechnerw rfel aber auch zus tzlicher Bedarf an B ror umen f r das hierf r notwendige Betriebspersonal Dieser Bedarf erh ht sich weiter durch eine gesteigerte Drittmit teleinwerbung insbesondere im Rahmen europ ischer HPC Projekte Zusammen mit dem oben geschilderten HPC bedingten Bedarf ergibt sich insgesamt die Notwendigkeit und Dringlichkeit f r einen Erweiterungsbau des LRZ sowohl in Bezug auf den Rechnerw rfel als auch in Bezug auf den Institutstrakt Ende 2007 wurde ein entsprechender Bauerweiterungsantrag vorbereitet und dem zust ndigen Ministerium am 10 01 2008 zugeleitet F r das Jahr 2007 weiter erw hnenswert ist die Erstellung eines LRZ Dienstleistungskataloges in dem alle vom LRZ angebotenen Dienste einheitlich dokumentiert werden Die Dokumentation enth lt neben der funktionalen Beschreibung des Dienstes eine Spezifikation des Leistungsumfangs der Randbedin gungen der Diensterbringung sowie der Dienstg teparameter zu deren Einhaltung sich das LRZ in Servi ce Level Agreements verpflichtet Der Dienstleistungskatalog enth lt auch eine Dienstleistungsmatrix in der eine dienstspezifische Kategorisierung von Benutzerklassen und Kostenzuordnung festgeschrieben ist Erg nzend wurden erhebliche Anstrengungen unternommen um die oh
349. hulrechenzentrums hat das LRZ die Rolle des Landeshochleis tungsrechenzentrums in Bayern und die eines nationalen H chstleistungsrechenzentrums Technisch wissenschaftliches Hochleistungsrechnen gewinnt eine immer gr ere Bedeutung da es in vielen Berei chen zur kosteng nstigen systematischen und teilweise oft schneller zum Ziel f hrenden Alternative gegen ber zeitraubenden teuren und oft umweltbelastenden Experimenten wird Selbstverst ndlich ist das LRZ auch eingebunden in Forschungs und Entwicklungsarbeiten auf dem Gebiet des Hochleistungs rechnens z B im Bereich des weiteren erheblichen Ausbaus effizienter Linux Cluster im Grid Computing durch Mitarbeit in Projekten und durch Kooperation mit anderen Hochleistungsrechenzentren in nationalem und internationalem Umfeld Im Jahr 2007 kann das LRZ auf weiterhin zunehmende Erfolge bei Forschungs und Entwicklungsprojek ten verweisen Im Bereich HPC und Grid Computing warb das LRZ sowohl im Rahmen der EU Projekte PRACE und im DEISA Nachfolgeprojekt DEISA2 wie auch bei den vom BMBF gef rderten Aktivit ten im Umfeld der deutschen Grid Initiativen D Grid2 DGP DMON und IVOM erhebliche zus tzliche Drittmittelstellen ein Auch konnte sich das LRZ im BMBF Projekt 100GET E3 Optische Weitverkehrs netze auf der Basis von 100Gigabit Ethernet erfolgreich durchsetzen Ferner wurden im Rahmen eines weiteren mit der Bayerischen Staatsbibliothek durchgef hrten Projektes Ausbau des Bibliothekaris
350. ical Commission IEC through their Joint Technical Committee 1 JTC1 International Standardization Subcommittee for programming languages SS22 Working Group 5 Fortran Abteilung Kommunikationsnetze e BHN Bayerisches Hochschulnetz e Projektgruppe Datenverkabelung ffentlicher Geb ude in Bayern e HP Software University Association HP SUA 07 e Programm Komitee DFN CERT PCA Workshop 2007 e Autonomous Infrastructures Management and Security AIMS 2007 e International Conference on Networking and Services ICNS 07 e TIEFE International Conference on Communications ICC 2007 e IFIP IEEE Symposium on Integrated Management IM07 Abteilung Zentrale Dienste e ZKI Arbeitskreis Softwarelizenzen e ZKI Arbeitskreis Kosten und Leistungsrechnung e ZKI Arbeitskreis IT Sicherheit e BSK Arbeitskreis Bayerische Software Kooperation 8 5 Mitarbeit bei und Besuch von Tagungen und Fortbildungsveranstal tungen Abteilung Benutzernahe Dienste und Systeme e ZKI Arbeitskreis Verzeichnisdienste 12 02 2007 13 02 2007 Halle Hommel e DFN Betriebstagung eigener Vortrag 28 02 2007 28 02 2007 Berlin Hommel e Fr hjahrssitzung des AK AkNetzPC 08 03 2007 08 03 2007 Passau Cramer Fakler e Sitzung des BRZL AK MetaDirectory mit eigenem Vortrag 09 05 2007 09 05 2007 Erlangen Hommel e Bit Management Software 11 06 2007 11 06 2007 Berg Brossmann Dreer Krimmer Weinert e IronPort Systems IT Verans
351. ich durch falsche Programmierung der von einem Botnet eingesetzten SMTP Engine Da RFC 2821 als Timeout f nf Minuten Wartezeit verlangt waren permanent alle verf gbaren Verbindungen durch den Spammer belegt und regul re E Mailserver wurden deshalb abgewiesen Dadurch kam es zu sp rbaren Verz ge rungen bei der Annahme von regul ren Mails und in Folge zu Beschwerden durch unsere Nutzer Als erste Ma nahmen zur Entspannung der Situation wurden die Anzahl der zul ssigen Verbindungen von 200 auf 300 erh ht mehr war mit den vorhanden Ressourcen nicht m glich und der Timeout auf Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 119 eine Minute herabgesetzt Da die neuen Front Mailrelays auf Basis von Postfix noch nicht betriebsbereit waren blieb uns als letztes Mittel nur noch der Einsatz einer Blacklist und zwar der DNSBL RBL zum direkten Abweisen von Verbindungen anstatt diese nur als eine der Komponenten zur Erstellung einer Spam Markierung zu verwenden Im Gegensatz zum Anstieg der Anzahl der Spam Mails ging die Zahl der mit einem Virus bzw Wurm infizierten E Mails am Jahresanfang noch einmal etwas zur ck und hat sich inzwischen auf etwas mehr als 1 000 Viren Mails am Tag eingependelt Der Hauptweg f r eine Infektion eines PCs ist inzwischen im Web und nicht mehr bei E Mail zu finden In den beiden folgenden Tabellen sind die monatlichen Daten zur Anzahl der ausgefilterten Viren der markierten Spam Mails und der regul
352. iche Protokolle k nnen nur in Ausnahmef llen f r einen begrenzten Einsatz zugelassen werden F r einen sicheren Betrieb des MWN kann es notwendig sein Einschr nkungen einzuf hren Diese sind unter http www lrz muenchen de services netz einschraenkung beschrieben Das Vorgehen bei der Neueinrichtung von Anschl ssen durch das LRZ ist im WWW unter http fwww Irz de services netz anschluss beschrieben 3 Betriebskosten Die Kosten f r den Betrieb des Wissenschaftsnetzes sowie die Kosten f r die Anbindung an die nationa len und internationalen Datennetze werden f r die satzungsgem en Benutzer zur Zeit zentral durch das LRZ bernommen Der Erlass einer Geb hrenordnung mit einer anderen Kostenverteilung bleibt vorbe halten 4 Betriebszeiten Das MWN wird m glichst st rungs und unterbrechungsfrei betrieben F r Wartungsarbeiten ist jeweils der Dienstag in der Zeit von 7 30 bis 9 00 Uhr vorgesehen Unterbrechungen wann ungef hr wie lange und welche Bereiche oder Dienste betroffen sind werden mindestens am vorausgehenden Tag bekannt gegeben Die Ank ndigungen erfolgen ber die e aktuelle Kurzmitteilungen http www Irz de aktuell und e eingerichtete Mailverteilerlisten an die Netzverantwortlichen 82 Verteilung von Aufgaben und Verantwortlichkeiten 1 Aufgaben des LRZ Betreiber des MWN ist das LRZ Es sorgt im Rahmen seiner M glichkeiten f r einen sicheren und m g lichst st rungs und unterbrechungsfreien
353. ichen Das LRZ nimmt aufgrund seiner Gr e und Organisationsform des Umfangs seines Versorgungsbereiches seiner Anzahl der Nutzer Anzahl Vielfalt und Heterogenit t der Systeme Beteiligung an Entwicklungsprojekten usw eine deutliche Sonderstellung ein die auch im Bericht sicht bar wird Eine moderne IT Infrastruktur ist essentiell f r die Wettbewerbsf higkeit der Hochschulen und des Lan des und so muss auch das IT Kompetenzzentrum eng im Hochschulumfeld verankert sein Das Leibniz Rechenzentrum als das technisch wissenschaftliche Rechenzentrum f r die M nchner Hochschulen und als nationales H chstleistungsrechenzentrum wird sich auch in Zukunft den Anforderungen eines moder nen IT Kompetenzzentrums stellen und das nicht nur durch den zuverl ssigen Betrieb von IT Infrastruktur sondern auch durch aktive Beteiligung an Forschung und Entwicklung in den Bereichen Kommunikationssysteme IT Managementprozesse Computational Sciences und Grid Computing Hier zu z hlen auch die Initiativen im Rahmen von ISO 20000 Wir sind berzeugt davon dass es dem LRZ auch im Jahr 2007 erneut gelungen ist die Erwartungshal tung seiner Nutzer einerseits aber auch seiner Finanzgeber andererseits zu erf llen und seine Dienstquali t t und IT Kompetenz erneut zu steigern Univ Prof Dr H G Hegering Vorsitzender des Direktoriums des Leibniz Rechenzentrums Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 11 Teil I Das LRZ Entwicklungs
354. ichen Dienst das Gewinnen neuer Kr fte f r das LRZ seit 2006 sp rbar erschweren Ich m chte an dieser Stelle ebenfalls dem HLRB Lenkungsausschuss unserer Kommission f r Informa tik und der Leitung der Bayerischen Akademie der Wissenschaften danken die sich im Jahre 2007 ber die bliche Arbeit hinausgehend konstruktiv eingebracht haben Ein eigenes und ausdr ckliches Ver gelt s Gott sei an dieser Stelle auch meinen beiden Mit Direktoren Prof Bode und Prof Zenger gesagt die sich intensivst beteiligt haben bei den vielen politischen Aktivit ten rund um die Findung nationaler und europ ischer HPC Konzepte bei den Vorbereitungen zum Gau Zentrum und bei allen grundlegen den Entscheidungen zur LRZ Weiterentwicklung Ebenso m chte ich meinen Stellvertreter Dr Aposto lescu namentlich dankend erw hnen der mir viel Last abnahm und insbesondere die schwierige Aufstel lung des Dienstleistungskataloges sowie der Haushaltsplanungen koordinierte An dieser Stelle sei erw hnt dass Ende 2008 altersbedingt meine Amtszeit als Vorsitzender des LRZ Direktoriums und als Lehrstuhlinhaber an der LMU ausl uft Im Jahr 2007 fand deshalb bereits die Suche nach einer Nachfolge statt Eine mit Vertretern der Informatik von LMU und TUM sowie der Bayeri schen Akademie der Wissenschaften BAdW und des Ministeriums besetzte Berufungskommission der Universit t und die Kommission f r Informatik der BAdW waren mit dieser Aufgabe befasst Im Januar
355. ie LMU und die TUM betrieben Sie erm glicht den Angeh rigen der beiden Universit ten die hoch schul bergreifende Nutzung von IT Diensten die ber die DFN AAI angeboten werden diese wer den derzeit insbesondere in den Bereichen der elektronischen Bibliotheksdienste der Softwarevertei lung und des E Learnings aufgebaut Weitere Dienste f r Endbenutzer Datenbankserver Server f r den Zugriff auf Datenbanken unter Oracle und MySQL bei denen die Datenbank zentral auf dem Server gehalten wird insbesondere auch zum Zugriff ber das WWW Softwareverteilung F r Solaris Digital Unix und Ultrix Systeme wird System und Applikationssoftware im Netz campusweit verteilt Dies geschieht zum Teil h ndisch ber CDs aber auch ber Netzdienste f r die Server bereitgestellt werden Printserver Ansteuerung von Druckern Plottern und hnlichen Ausgabeger ten einschlie lich der Verwaltung der Auftragswarteschlangen vor diesen Ausgabeger ten Die Printserver gestatten es dass auf ein gegebenes Ger t von unterschiedlichen Systemen PC Netzen Hochleistungsrechnern etc auf glei che Weise zugegriffen und die Ausgabe abgerechnet werden kann Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 59 List Server Erm glicht das Senden von E Mail an vorgefertigte Listen von Personen am LRZ tiber Majordomo Lizenzserver Mehrere unabh ngige verteilte Systeme zur Z hlung des aktuellen Gebrauchs von Softwarelizenzen im Netz float
356. ie Beschaffung von Hard ware Rechen und Speichersysteme f r das D Grid in erheblichem Umfang zur Verf gung gestellt So wohl die Community Projekte als auch die Ressourcen Provider konnten Antr ge stellen Zur Sicherung der Nachhaltigkeit musste sich jedoch jeder Antragsteller bei einer Antragstellung verpflichten die vollen Betriebskosten Strom und Personal f r die zu beschaffende Hardware zu bernehmen Wegen der damit verbundenen erheblichen zus tzlichen Kosten die dem LRZ entstanden w ren allein ca 10 der An schaffungskosten nur f r den Strom hat das LRZ nur in sehr bescheidenem Umfang 50 000 Euro Son dermittel beantragt D Grid 2 Call Gap Projekte Mitte 2006 wurde vom BMBF eine weitere Ausschreibung im Rahmen von D Grid 2 Call ver ffent licht Mit diesem Call konnten weitere Community Projekte eine F rderung beantragen Dabei wurden die sechs bisherigen auf insgesamt 17 Community Projekte erweitert Au erdem bestand f r Projekte die w hrend der bisherigen Projektlaufzeit inhaltliche L cken identifiziert hatten mit der Ausschreibung die Gelegenheit notwendige Erg nzungen zu beantragen Die entsprechenden Projekte werden als Gap Projekte bezeichnet Vom LRZ wurden in diesem Rahmen Antr ge im Bereich VO Management und Monitoring eingereicht und bewilligt D MON Das Projekt horizontale und vertikale Integration des Ressourcen und Dienstmonitorings D MON besch ftigt sich mit der Entwicklung eines Mid
357. ie Betreuung in allen rechnerspezifischen und rechnernahen Fragen insbesondere Fragen zur effi zienten Nutzung der vorliegenden Rechnerarchitektur und der vorhandenen Speichermedien e Qualit tskontrolle der Programme Anleitung zur Minimierung des Ressourcenverbrauchs und ent sprechende Beratung der Kunden Entwicklung der hierzu notwendigen Werkzeuge Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 285 e Evaluierung Auswahl Lizenzierung Installation Test und Pflege von Compilern Hochleistungs tools Bibliotheken und allgemeiner Anwender Software e die Softwareinstallation und deren finanzielle Abwicklung e die konkrete Fehlerverfolgung und dokumentation bei Compilern und Anwendersoftware e die Unterst tzung der Benutzer bei der graphischen Darstellung ihrer Ergebnisse Visualisierungs service und bei der Vor und Nachbearbeitung der Daten e die Dokumentation der Betriebs und Softwareumgebung e eine Bindegliedsfunktion Kontakt zu Endbenutzern um die Mittlerrolle des LRZ in Bezug auf das Kompetenznetzwerk erf llen zu k nnen und organisatorische Koordination des LRZ mit dem Kom petenznetzwerk e die Organisation von Benutzertreffen Kursen Seminaren und virtuellen Workshops mit dem Ziel das erworbene Wissen direkt in die praktische Arbeit einflie en lassen zu k nnen Die Zusammenarbeit mit anderen H chstleistungsrechenzentren liegt ebenfalls bei der LRZ Betreuergruppe So sollen z B Programme auch
358. ielen Anwendungsbereichen dazu gef hrt dass Serversysteme ihr Leistungspotential bei weitem nicht voll aussch pfen Moderne Betriebssysteme erm glichen durch Multitasking zwar den Betrieb mehrerer Anwendungen pro Betriebssystemsinstanz dieser Konsolidierungsansatz hat jedoch den entscheidenden Nachteil dass eine fehlerhafte Anwendung andere Applikationen auf dem System behindern oder sogar blockieren kann Ein wesentlich modernerer Konsolidierungsansatz wird derzeit unter dem Begriff Server Virtualisierung zusammengefasst Unter den Begriff Server Virtualisierung fallen momentan eine ganze Reihe von Ideen die nicht alle das selbe Konzept meinen So kann beispielsweise Microsofts Webserver IIS virtualisiert werden um mehre re Websites zu beherbergen als ob diese sich auf unterschiedlichen Computern bef nden In Wirklichkeit teilen sie sich aber dasselbe Betriebssystem Andere Konzepte der Virtualisierung arbeiten auf einer so niedrigen Ebene dass nicht einmal das jeweilige Gast Betriebssystem wei dass eine Virtualisierung im Spiel ist Dieser Art von Server Virtualisierung gilt momentan die meiste Aufmerksamkeit da anstelle der Kontrol le aller Anwendungen durch ein einziges Betriebssystem eine noch enger an die Hardware gebundene Softwareschicht daf r sorgt dass Prozessor Speicher und Peripherieger te zwischen mehreren unabh n gigen Betriebssystemen hin und her wechseln k nnen Jedes Gast Betriebssystem fungiert hierbei als quasi un
359. ien sind insgesamt 3 Terabyte belegt Das LRZ nimmt regelm ig an dem j hrlichen AFS Workshop teil Hier ergab sich eine fruchtbare mit der Uni Paderborn die sich f r die Managementl sung SIB f r AFS interessierte und diese seither in einer Basis Version nutzt 6 4 4 Betriebs berwachung Die gesamte System berwachung musste nach dem Umzug nach Garching an die ver nderten Verh ltnis se angepasst werden Die neu eingerichtete Leitwarte am bergang zum Rechnerw rfel wurde mit mo dernster berwachungstechnologie ausgestattet Die Verbesserung der berwachung ist ein kontinuierli cher Prozess der auch 2007 einiges an Kr ften band 190 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Abbildung 69 Die Leitwarte des Leibniz Rechenzentrums Kritische Fehlermeldungen von Komponenten erscheinen auf den zentralen Konsolen der Leitwarte OVO und Nagios und werden von dort aus an die verantwortlichen Stellen weitergeleitet Fiir die Uberwachung der Speicherkomponenten stehten 4 weitere dedizierte Bildschirme zur Verfiigung Sie werden als Monitore fiir die Beobachtung der Bandroboter und laufwerke der NAS Filer und TSM Serverinstanzen genutzt Selbstvert ndlich bilden die Monitore der Leitwarte nur ein Visualisierungsfrontend f r eine ganze Reihe von berwachungsma nahmen Eine Eigenentwicklung eines Werkzeugs zur Datenflussanalyse erm g licht zum Beispiel die Auslastung der einzelnen SAN Ports b
360. ienst YA Dienst ZA Teams Anwendung Anwendung Hosting Anwendung Leibnize nechenzentrumi Abbildung 17 radeon f r die Teen aes Service Desks IntegraTUM und LRZ Grunds tzlich sollte diese Modellvorstellung langfristig auf alle Supplier Beziehungen des LRZ zu Ge schaftskunden anwendbar sein also z B auf die TU im Rahmen von IntegraTUM Dienstleistungen die Hochschule Musik und Theater und die Bayerische Akademie der Wissenschaften im Rahmen der Desk top Management Dienstleistungen sowie auf den Bibliotheksverbund Bayern dessen Anwendungsbe treuung an der Staatsbiblitohek auch einen Service Desk f r Anwender betreibt Eine L sung wird immer dr ngender da z B die Anfragen an den TUM Service Desk stark zunehmen und damit auch eine nahtlose und effiziente Integration der LRZ Service Management Prozesse erforder lich wird Ziel muss es sein die Serviceverantwortlichen Administratoren und Fachleute am LRZ von Ist Level Support Anfragen soweit wie m glich frei zu halten Gleichzeitig ist vom LRZ f r die F lle neuer Servi ces mit neuen Kundenkreisen ein gut funktionierender Support aufzubauen und aufrecht zu erhalten 5 2 Kurse Veranstaltungen F hrungen 5 2 1 Kurs bersicht Statistik 2007 Die Teilnehmerzahlen aus dem Jahr 2007 bei Kursen und Veranstaltungen sind nur bedingt mir denen des Vorjahres vergleichbar Nachdem im Jahr 2006 die Teilnehmerzahlen bei einigen Kursen zum einen bedingt durch die eineinhalb Monate andau
361. ienste die f r anonymen Zugang eingerichtet sind z B Informationsdienste Bibliotheksdienste kurzfristige Gastkennungen bei Tagungen 2 Systembetreiber ist das Leibniz Rechenzentrum 3 Der Antrag auf eine formale Benutzungsberechtigung soll folgende Angaben enthalten e _ Betreiber Institut oder organisatorische Einheit bei der die Benutzungsberechtigung beantragt wird e Systeme f r welche die Benutzungsberechtigung beantragt wird e Antragsteller Name Adresse Telefonnummer bei Studenten auch Matrikelnummer und evtl Zu geh rigkeit zu einer organisatorischen Einheit der Universit t e Uberschlagige Angaben zum Zweck der Nutzung beispielsweise Forschung Ausbildung Lehre Verwaltung e die Erkl rung dass der Benutzer die Benutzungsrichtlinien anerkennt e Eintr ge f r Informationsdienste Weitere Angaben darf der Systembetreiber nur verlangen soweit sie zur Entscheidung ber den Ant rag erforderlich sind 4 ber den Antrag entscheidet der zust ndige Systembetreiber Er kann die Erteilung der Benutzungsbe rechtigung vom Nachweis bestimmter Kenntnisse ber die Benutzung der Anlage abh ngig machen 5 Die Benutzungsberechtigung darf versagt werden wenn a nicht gew hrleistet erscheint dass der Antragsteller seinen Pflichten als Nutzer nachkommen wird b die Kapazit t der Anlage deren Benutzung beantragt wird wegen einer bereits bestehenden Aus lastung f r die beabsichtigten Arbeiten nicht ausreicht
362. ierenden mit einbeziehen hat die Aufgabe nicht einfacher gemacht Doch gerade im Jahr 2007 ist es bereits in mehreren F llen gelungen die Interessen zu koordinieren und zu guten Ergebnissen zu kommen Besonders hervorzuheben sind e Die Fa Microsoft hat im Jahr 2007 versucht die zu den Hochschulen geh renden Kliniken aus den bestehenden Select Vertr gen heraus zu brechen Dies ist verst ndlich vor dem Hintergrund der organisatorischen Neuorientierung dieser Einrichtungen Dennoch hat das LRZ mit dem Hinweis auf den bis Juli 2009 g ltigen Vertrag bisher erfolgreich abwenden k nnen dass den Universit tskliniken die bestehende g nstige Bezugsm glichkeit genommen wurde Im Jahr 2009 wenn der Selectvertrag zum erneuten Abschluss ansteht muss aber damit gerechnet wer den dass die Universit tskliniken zumindest in einem separaten Vertragsteil zusammen gefasst werden wenn sie nicht sogar ganz aus der Bezugsberechtigung herausgenommen werden e Ein Erfolgserlebnis der besonderen Art gab es bei den Verhandlungen ber Vertragsverl ngerung mit der Fa Adobe Im Zusammenhang mit der Einf hrung der neuen Acrobat Version war seitens Adobe vorgesehen das Produkt in Verbindung mit einem Lizenzaktivierungsprogramm auf den Markt zu bringen Jede einzelne Installation sollte mit separatem Lizenzschl ssel aktiviert wer den Gemeinsam mit den im ZKI Arbeitskreis Softwarebeschaffung zusammen geschlossenen Kolleginnen und Kollegen in ganz Deut
363. ierte IT Infrastructure Library ITIL ITIL hat in der seiner zwei ten Version ITIL V2 eine erhebliche Popularit t erreicht und die beiden Kernb nde der ITIL V2 Servi ce Support und Service Delivery sind beinahe synonym fiir ITSM geworden Seit der Ver ffentlichung des letzten Jahresberichtes hat sich die Landschaft der ITSM Rahmenwerke insbesondere durch die Ver ffentlichung der dritten ITIL Version ITIL V3 bereits wieder signifikant ver ndert In der praktischen Umsetzung des IT Service Managements nach ITIL V2 spielten in aller Regel ausschlie lich die B nde Service Support und Service Delivery eine Rolle vgl Jahresbericht 2006 die ITIL V3 hat die dort enthaltenen Prozesse nun zusammen mit erheblichen Erweiterungen in eine f nf B nde umfassende an einem Service Lifecycle orientierte Struktur integriert Hierdurch und die nun erheblich deutlichere Betonung strategischer Management Aspekte ist die ITIL in der dritten Version nun umfassender aber eben auch erheblich komplexer geworden Mittlerweile gewinnt auch der Ende 2005 erschienene Standard f r IT Service Management ISO IEC 20000 zunehmend an Bedeutung Das Prozessrahmenwerk der ISO IEC 20000 siehe folgende Abbil dung schlie t zwar einige L cken der ITIL V2 z B im Bereich der Relationship Processes weist aber nicht die Breite und Komplexit t der ITIL V3 auf Auch wenn seine Urspr nge in einem britischen Standard liegen ISO IEC 20000 ist im Gegensatz z
364. ifizierungsstelle CA zur jeweiligen Universit t und das LRZ nimmt im Auftrag der CA die Registrierung vor F r andere Ein richtungen im M nchner Wissenschaftsnetz kann das LRZ ber seine eigene CA Zertifikate ausstellen Zu dieser Thematik gibt es eine ausf hrliche Dokumentation auf dem WWW Server des LRZ unter wwm Irz de services pki Neben Benutzungsanleitungen enth lt sie auch einf hrende Erl uterungen der den Techniken zugrundeliegenden Ideen Dieselbe Art der Zertifizierung ist auch f r Einzelpersonen statt f r Serverrechner sinnvoll Eine Person kann auf diese Weise Dateien insbesondere E Mails glaubw rdig mit ihrem Namen verbinden Das LRZ hat nicht vor Zertifikate f r die Angeh rigen der Hochschulen auszustellen es verf gt auch gar nicht ber die Personendaten die dazu notwendig w ren Ein Sonderfall ist das Grid Computing Dort werden f r berschaubare Anzahlen von Serverrechnern und Personen Zertifikate gebraucht Daf r betreibt das LRZ eine Registrierungsstelle der bei der DFN PCA angesiedelten Grid CA 2 8 Grafik Visualisierung Multimedia Neben den Anwendungsprogrammen auf den PCs und Workstations zu Bildbearbeitung und Layout zu 2D und 3D Konstruktion oder zur Visualisierung stellt das LRZ eine Reihe von Spezialger ten und Ser vern sowie dedizierte Arbeitspl tze in diesem Bereich zur Verf gung 2 8 1 Dateneingabe und Ausgabeger te e Grofformatscanner DIN AO Farbe insbesondere zur Erfassung von Ko
365. igen Entwicklern des DEISA Accounting Tools erstellt wurde W Distributed x European x mew DEISA Accounting Report Tool S8 8 we Applications Role selection Execution Site selection DEISA user Y SARA Y LRZ DEISA project DEISA site v FZJ CINECA Y CSC w BSC DEISA supervisor Date selection Toggle selection Starttime YYYY MM DD 2008 01 01 Endtime YYYY MM DD 2008 01 31 Save Settings Dart Revision 1 0 0 You running Sun Microsystems Inc Java 1 6 0_04 Abbildung 46 Das DEISA Accounting Report Tool DART 6 2 2 4 DEISA Executive Committee Die Koordinierung der elf f hrenden europ ischen H chstleistungsrechenzentren zur gemeinsamen Ab wicklung der ehrgeizigen Ziele einer verteilten europ ischen H chstleistungs Rechnerinfrastruktur erfor dert regelm ige Management Treffen des DEISA Exekutivkomitees Diese fanden als pers nliche Tref fen Telefonkonferenzen und Videokonferenzen statt und sind das regelm ige Alltagsgesch ft eines europ ischen Gro projekts Die Arbeiten f r ein DEISA Nachfolgeprojekt wurden 2007 mit Einreichung des Antrags f r DEISA 2 bei der EU abgeschlossen Das LRZ beteiligt sich dabei insbesondere an den Service Activities Techno logies Application Enabling und Operations sowie einer Joint Research Activity
366. ik Alumni VP 2007 Hochschulkontaktmesse 2007 HOKO Maucher Cotesys MVV Kognimobil Offentlichkeitsarbeit Musing BIK Nokia Finland BDSU_Kongress 2008 Case Study Course in Strategic Manage MSD Tagung Dgrid Monitoring Workshop Academia Days Dgrid Monitoring Workshop 2 PANDA DAQ Hlrb Workshop JOBcon Finance LMU Zeit Campus Grid Monitoring Workshop Hygienic Design FOR538 Tabelle 17 Liste der unterst tzten Veranstaltungen im Jahr 2007 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 209 7 2 5 Internet Zugang Den Zugang zum Internet zeigt folgendes Bild M net LMU Stammgel nde Brienner Str Bis 2007 Reduktion auf 300 Mbit s Router Router csrigz LRZ Garching IPP Garching Router WiN csr1 2wr Kernnetz Router DE Ethernet Verbindung 1 000 Mbit s Ethernet Verbindung 10 000 Mbit s Abbildung 77 Anbindung des MWN an das Internet Aufgrund von mehrst ndigen bzw mehrt gigen Ausf llen der Verbindung zum Internet ber das G WiN im Jahr 2002 wurde im Februar 2003 eine Backup Schaltung ber M net realisiert Die geplanten und unvorhergesehenen Ausf lle des WiN Zugangs k nnen somit ohne wesentlich merkbare Unterbrechung f r den Benutzer ber den M net Zugang berbr ckt werden Das LRZ Netz kann n mlich mit einem Gro teil seiner IP Adressen als autonomes System im Internet agieren Der WiN Anschluss des LRZ erfolgt ber das IPP Max Planck Institut f r Plasmaphysik in Garching Dort
367. ikation Standortwahl und System und Dienstsicherheit ber cksichtigt Die zentralen Maschinen sind dabei bereits ausreichend dimensioniert um sp ter noch weitere Systeme problemlos integrieren zu k nnen Aufbau von Entwicklungs und Testumgebungen F r die Implementierung der systemspezifi schen Konnektoren und f r teilprojekt individuelle Tests wurde eine Laborumgebung aufgebaut die im nachfolgenden Bild dargestellt ist Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 111 Virtuelle Laborumgebung VMware TP Storage TP SysAdmin Abbildung 20 Konzept fiir IntegraTUM Testumgebungen EEE TA IntegraTUM Directory Einrichtung 1 Einrichiung 2 Einrichtung N z B Lehrstuhl X z B Lehf stuhl Y z B Lehrstuhl Z Abbildung 21 Einspeisen von Benutzerkonten in Rechnerpools in IntegraTUM Um Interferenzen mit anderen Testumgebungen auszuschlie en wird f r jedes Teilprojekt ein dedizierter Verzeichnisdienst aufgebaut der mit dem jeweiligen System und dem zentralen Meta Directory verbunden ist Zur Reduktion des Hardwareaufwands besteht die Laborumgebung aus 112 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme virtuellen PCs auf Basis des Produkts VMware GSX Server Nach Abschluss von Implementie rung und Test der Konnektoren sind diese zu konsolidieren so dass im Produktionsbetrieb mit drei ber das Meta Directory verbundenen Verzeichnisdiensten gearbeitet werden kann Die
368. in nachhaltig zu betreibendes Grid Der Antrag wurde Ende 2007 bewilligt und startet zum 1 1 2008 bei einer Laufzeit von drei Jahren Das LRZ wird mit knapp 3 Mitarbeitern f r drei Jahre gef rdert Im folgenden wird die Projektstruktur von DGI II sowie die Beteiligung des LRZ kurz erl utert DGI II besteht aus den sechs Fachgebieten FG FG 1 Support FG 2 Betrieb der D Grid Infastruktur FG 3 Sicherheit FG 4 Daten und Informationsmanagement 234 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes e FG 5 Entwicklungsprojekte e FG 6 Nachhaltigkeit und Koordination Der prim re Fokus von DGI II liegt auf dem Betrieb und der Betriebsunterst tzung Im Gegensatz zum DGI I sollen nur noch sehr wenig Entwicklungsprojekte durchgef hrt werden Das LRZ ist als gef rder ter Partner in den Fachgebieten 1 und 2 beteiligt Im FG 5 ist das LRZ assoziierter Partner Das LRZ bringt als Kompetenzzentrum f r Globus sein Wissen in das FG 1 2 Verteiltes Kompetenz zentrum Middleware ein Das Ziel dieses FG ist die Unterst tzung sowohl der Nutzer als auch der Res sourcen Betreiber im D Grid Dabei sollen alle vom D Grid unterst tzten Middleware Technologien durch Kompetenzzentren vertreten sein die in der Lage sind hochwertigen Support zu liefern Dies um fasst neben Schulungsangeboten dem Aufbau und der Dokumentation von Referenzinstallationen Hilfe bei der Installation der Middleware auch die Unterst tzung der Se
369. ind e Pool von PCs um die Administration von Unix am Beispiel von Linux zu lehren Moderne PCs unter Linux sind in einem Kursraum zusammengestellt in dem die Teilnehmer an den regelm igen Unix Administrator Kursen dem Rechner Betriebspraktikum und den Kursen zur Sicherheit von Systemen auch kritische Operationen Systeminstallationen Re boots Intrusions Versuche und deren Entdeckung ohne Beeintr chtigung des brigen Betriebs ben k nnen e PC Kursr ume Um der hohen Nachfrage nach Anleitung und praktischer Ausbildung in der Nutzung von PCs und PC Programmen gerecht zu werden sind zwei dedizierte Kursr ume eingerichtet Es han delt sich um einen Raum mit 13 Arbeitspl tzen im LRZ Geb ude UG H rsaalgeb ude sowie um einen zweiten Raum mit 17 Arbeitspl tzen Alle Kurs PCs werden unter Windows XP be trieben und von Windows Servern versorgt Die beiden R ume sind jeweils mit einem p dago gischen Netzwerk ausgestattet das vor allem dazu benutzt werden kann ein Abbild des Bild schirms des Lehrenden auf die Bildschirme der Sch ler zu bertragen und dar ber hinaus eine individuelle und effiziente Schulung der Teilnehmer erm glicht Diese Kursr ume stehen auch Instituten f r eigene Veranstaltungen zur Verf gung b Das LRZ betreibt ffentlich zug ngliche PC Pools mit insgesamt ca 28 Ger ten sowie einige Spezialarbeitspl tze auf PC Basis wie CAD Station CD Brenner Papier Scanner Video Schnittsystem si
370. ing am CERN astronomische Teleskope u Das Grid Computing wird seit September 2005 im D Grid Projekt vom Bundesministerium f r Bildung und Forschung gef rdert Die F rderung des BMBF verteilt sich auf wissenschaftliche Verbundprojekte die Grids nutzen die so genannten Community Projekte CPs und ein Verbundprojekt von Partnern die Grid Infrastrukturen entwickeln und betreiben und den Community Projekten zur Verf gung stellen Das letztgenannte Projekt wird als D Grid Integrationsprojekt DGI bezeichnet Das LRZ ist im DGI an Pro jekten in f nf Fachgebieten FG beteiligt 1 FG 1 2 Integration Globus 2 FG 1 10 Virtuelle Organisationen VO Management Werkzeuge 3 FG 2 2 Aufbau des Kern D Grid und Integration der Ressourcen und Dienste 4 FG 2 6 Monitoring 5 FG 2 7 Accounting Die Koordination und Leitung dieser Teilprojekte liegt bei der Gruppe Netzplanung Die Arbeiten in FG 1 2 und FG 2 2 werden fachlich und inhaltlich in der Abteilung HLS bearbeitet Die anderen Teilprojekte werden in Zusammenarbeit mit der Ludwig Maximilians Universit t M nchen Lehrstuhl Prof Hegering sowie der Universit t der Bundeswehr Lehrstuhl Prof Dreo Rodosek durchgef hrt Das DGI Projekt und insbesondere die Teilprojekte des LRZ konnten im Jahr 2007 erfolgreich abge schlossen werden Die inhaltlichen Schwerpunkte der einzelnen Teilprojekte wurden im Jahresbericht 2006 ausf hrlich dargestellt Die in den Teilprojekten entwickelten Kon
371. ing licence Ben tigt mehrere physische und logische Server einerseits weil ver schiedene Softwareprodukte unterschiedliche Lizenzserver voraussetzen andererseits weil nicht alle Lizenzserver flexibel genug verschiedene Softwareprodukte berwachen k nnen Linux Softwareserver Neue Linux Software wird zentral am Softwareserver installiert Der Softwarestand der Linux PCs wird t glich mit dem Softwarestand des Softwareservers verglichen und automatisch auf den neuen Stand gebracht Fontserver Das X11 Protokoll gestattet das Nachladen von Zeichens tzen fonts von einem Fontserver Grid Server Benutzern kann der Zugang zu Hochleistungs Rechenressourcen auch ber einen zertifikatsbasierten Mechanismus gew hrt werden Die zur Bereitstellung dieses Dienstes notwendige Infrastruktur um fasst u a folgende Server e UNICORE Gateway und NJS Zertifikatsbasierter Zugang zu den Hochleistungsrechnern fiir Job submission und Datentransfer f r LRZ Nutzer sowie f r die Nutzer aus den Grid Projekten DEISA und D Grid e MDS WebMDS Monitoring Server zur Uberwachung der Globus Container auf den HPC Ressourcen am LRZ sowie fiir das gesamte D Grid e myproxy Server Zentraler Dienst zur Auslagerung von Zertifikaten fiir Nutzer der Grid Infrastrukturen von D Grid und am LRZ e INCA Zu Uberwachung und Statuskontrolle der Benutzerumgebung wird das Tool INCA eingesetzt Der zentrale Server fiir das DEISA Projekt wird vom LRZ betrieben
372. inikum rechts der Isar aufgebaut Hierdurch erspart man sich das Anmieten eigener Standleitungen Dies erforderte den WDM Einsatz an zwei Stellen erstens auf der Anbindung des betreffenden Standortes zu einem der beiden Kernnetzstandorte des MWN Backbones TU Nordgel nde und LMU Stammgel nde und zweitens auf der Verbindung der Kernnetzstandorte Es ist geplant diese WDM Verbindungen im Jahr 2008 durch eine andere Technik MPLS zu ersetzen 7 1 5 WLAN Wireless LAN Die seit Ende des Jahres 2000 eingef hrten Zugangsm glichkeiten ber WLAN wurden 2007 weiter aus gebaut Ende Dezember 2007 waren 810 Vorjahr 650 WLAN Access Points in 189 159 Geb uden installiert Die Access Points sind vor allem in ffentlichen Bereichen wie H rs len Seminarr umen Bibliotheken und Foyers installiert Das Angebot erfreut sich steigender Beliebtheit zeitweise sind mehr als 1 400 gleichzeitige aktive Verbindungen aufgebaut ber 31 000 verschiedene Ger te MAC Adressen konnten im Jahr 2007 registriert werden Die am st rksten frequentierten Access Points sind mit bis zu 75 gleichzeitigen Verbindungen belegt 1000 0 Thu 00 00 Thu 06 00 Thu 12 00 Thu 18 00 Fri 00 00 Fri 06 00 Fri 12 00 Abbildung 73 Anzahl aktiver Funk LAN Verbindungen 5 Minuten Mittel Die Entwicklung tiber das ganze Jahr 2007 ist durch eine Umstellung bei der Auswertung in zwei Teilen dargestellt Jan Feb Mar Apr May Jun Abbildung 74 Entwicklung der Belegung ber
373. insatz in der DEISA Infrastruktur gepr ft Nach Abschluss dieser Arbeiten wurde die berf hrung in den Produktiv Betrieb auf allen DEISA Sites in Angriff genommen In weiteren eDEISA Aktivit ten wurde u a ein Portal auf gesetzt das insbesondere den Benutzern aus der Life Science Community den Zugang zur DEISA Infrastruktur erleichtern soll Das LRZ diente hierbei als Pilot Site f r die Bioinformatik Anwendung RAxML Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 159 J DEISA Life Sciences Portal Mozilla Firefox Eile Edit View History Bookmarks Tools Help X X t NA https bioportal deisa eu enginframe deisa deisa xml _service RAXML LRZ g Deisa Life Sciences Applications BLAST TEST CINECA BLAST TEST FZJ This service allows users to submit RAXML jobs Please choose the input parameters BLAST BLAST TEST IDRIS RAxML job name RAXML optional Pees TQ IDRIS Sequence file name sample_alignment Browse NAMD IDRIS NAMD TEST IDRIS NAMD CSC Substitution model DNA xj NAMD TEST CSC zj NAMD BSC RAxML LRZ RAxML TEST LRZ Number of categories Please insert only integer number in the range 0 N BLAST TEST RZG Completely random starting tree yes RAxML TEST SARA RAxML LRZ Output file name raxml out Please insert only alphanumeric code Q D D D D D D D D 0 D D D D no Algorithm rapid hill climbing optimize tree bipartitions onto a single tree Number of bootstrap rep
374. ipzig LMU und TU M nchen Univ Regensburg Institute of Aerodynamics and Gasdynamics Universi ty of Stuttgart Institute of Phycics Uni M nster Institute of Aerodynamics TU M nchen Institute of Theoretical Physics University of W rzburg Institute of Hydromechanics University of Karlsruhe Chair of Fluid Mechanics TU M nchen Institute of Hydromechanics University of Karlsruhe Department of Earth and Environmental Sciences Uni versity of M nchen Max Planck Institute for Plasmaphysics Institute of Applied and General Geophysics Universi ty of M nchen Institute of Theoretical Physics Friedrich Schiller Uni versity Jena Project Title The Aquarius Project Cold Dark Matter under a Numerical Microscope Simulation of Quantum Chromodynamics with Dynamic Fermions Simulation ofthe Unsteady Flow around the Stratospheric Observatory for Infrared Astronomy SOFIA Twisted Mass QCD and Overlap Fermions Phenomenologi cal Applications at Light Quark Masses Large Scale CFD for Complex Flows Quantum Monte Carlo and Exact Diagonalization Studies of Correlated Electron Systems Periodic Unsteady Flow in Turbo Machinery Direct Numerical Simulation of Turbulent Flows in Consid eration of Microstructure by Monte Carlo Methods Large Eddy Simulation of open channel flow through vege tation Structure Properties and Reactivity of Mineral Surfaces and Interfaces a Density Functional Theory DFT Multi
375. ische Aktualisierung der Betriebssystemsoftware der Antiviren Software und weiterer LRZ konform installierter Anwendungen sowie die M glichkeit der Druckerabrechnung Je nach Integrationstiefe vorhandener Hardware und der Softwareausstattung k n nen auch die LRZ Verfahren zur automatischen Erstinstallation Aktualisierung und Lock Down die Abschottung von Systemen gegen ber Ver nderungen durch Nutzer eingesetzt werden Alle angebote Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 61 nen zentralen Serviceleistungen werden in gleicher Weise auch f r die LRZ internen Windows Arbeitspl tze eingesetzt so dass durch die Wiederverwendung von internen Serviceleistungen im Ideal fall kaum Mehraufwand entsteht Der Vor Ort Betreuung obliegen alle T tigkeiten die zur Personalisierung und kundenspezifischen Aus stattung dieser Arbeitspl tze erforderlich sind also z B die Pflege von Benutzerdaten Anwendungspa keten Benutzerprofilen die Hardwarewartung und der allgemeine Endkundensupport Alle zur Erledi gung der T tigkeiten erforderlichen Rollen und Rechte im Active Directory im Filesystem und auf den Arbeitspl tzen sowie die zugeh rigen Werkzeuge werden eingerichtet und bergeben Im Regelfall sollte der Alltagsbetrieb und die laufende Aktualisierung der Arbeitspl tze also keine Mitwirkung von LRZ Personal erfordern Die Vor Ort Betreuung ist blicherweise auch der Partner des LRZ im Projektmana gement und fungiert
376. isdn An das MWN sind derzeit mehr als 65 000 Ger te angeschlossen Die meisten davon sind Arbeitsplatz rechner Personal Computer Workstations andere sind selbst wieder eigene Rechnernetze Dazu kom men noch eine Vielzahl von Peripherie Ger ten die entweder direkt am Netz h ngen und ber Server rechner betrieben werden oder direkt an Arbeitsplatzrechner angeschlossen sind z B Laserdrucker Plot ter u 4 20 Teil I Das Dienstleistungsangebot des LRZ Munchner Wissenschaftsnetz Teil 1 SWH MPG SWH SWH FHW TUM LMU TUM FHW Maschinenwesen Garching Hochschulhaus Jochbergweg Triesdorf Wasserbau Wendelstein Straubing Garching Obernach _ Po af Pi TUM we er Veitshof Sy s Weihenstephan N TUM teen TUM SWH AB w Excellenz Cl es Eichenau Garching 2 The TUM LMU LMU UFS TUM p SWH Campus FFB Zugspitze Iffeldorf Karlstr 32 SWH Garching Domino GATE es lt m gt ITEM _ 120 Kan le Met _ P N Modem ISDN Zugang ee ee in ISDN SWH swn Giggenhauser SWH 120 Kan le Telekom V ttinger Str 25 und 29 RO TUM IZB TUM FHG HMTM SWH hi Freising M hlenweg IVV Arcisstr Sauerbruchstr z am as Freising Giggenhauser Str u G s SWH LMU Heiglhofstr Meiserstr 10 Fi U SWH 7 a SWibtethofstr LMU 5 cae Lange Point 7 OSD ee Martinsried gt aor LMU LMU 7 2 TUM Kliniku
377. isiert und entwickelte sich zu einem zentralen Anlaufpunkt f r wichtige Informationen aus dem Grid Umfeld f r Benutzer aus der ganzen Welt Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 165 Abschlie end zeigt die folgende Abbildung eine bersicht ber die im Bereich des Linux Clusters vor handenen Grid Systeme bersicht der Grid Ressourcen im Cluster Login Knoten 64 bit Cluster 4 bit Clust 64 bit Cluster 32 bit Cluster 32 bit Cluster tanium Opteron Xeon 64EMTHT Dual Xeon Dual Xeon Load Balanced x64ia2 1x64la3 1x32ia 1x32ia2 12GB Ix dial 64 bit Cluster 32 bit Cluster En Cluster Housing E LRZ Cluster Storage NAS Lustre gfO1 cos Irz muenchen de 1x325231 1x325236 Netapp 3050 8tb Lustre IO Server 36TB Abbildung 48 Grid Ressourcen im LinuxCluster 6 3 Weitere Aktivit ten und Projekte im Bereich Hochleistungsrechnen 6 3 1 Supercomputing Konferenzen in Dresden und Reno Wie auch in den vergangenen Jahren pr sentierte sich das Leibniz Rechenzentrum auf der Internationalen Supercomputing Konferenz 2007 in Dresden mit einem Stand Die St nde der Partner im Gau Zentrum LRZ HLRS Stuttgart NIC J lich lagen alle beisammen und waren durch ein gemeinsames umlaufendes Logo gekennzeichnet In Dresden pr sentierte das LRZ mit Hilfe seiner mobilen Stereo Projektionsanlage Applikationen aus dem Bereich Computational Steering In Reno auf der Supercomputing Conference in d
378. istrationsportal f r die im Rahmen von IntegraTUM vorgese henen Anwendungen und die Benutzerverwaltung Die Verzeichnisdienst und E Mail Services f r das myTUM Portal werden am LRZ betrieben Die Be treuung der myTUM Portal Web Farm und der Datenaustauschprozesse zum Verzeichnisdienst liegt in der Verantwortung der TUM 2 13 3 1 8 Zentrale eLearning Plattform Ziel des Teilprojekts Zentrale eLearning Plattform ist es eLearning fest an der TUM zu verankern Dabei erg nzt und erweitert eLearning das klassische Lehrangebot Durch die Bereitstellung einer zentral be triebenen und betreuten Lernplattform k nnen sich die Lehrenden auf die Erstellung von Inhalten kon zentrieren und m ssen keine eigene Infrastruktur schaffen Mit Schulungen und zus tzlicher didaktischer Unterst tzung werden die Lehrenden bei ihrer Arbeit unterst tzt Gleichzeitig ist die Lernplattform offen f r Kooperationen wie die mit der vhb virtuelle Hochschule Bayern oder f r den Ausbau beruflicher Fort und Weiterbildungsangebote Der Aufbau der Plattform wird durch Anreize f r Lehrende und Stu dierende begleitet 68 Teil I Das Dienstleistungsangebot des LRZ Die Serverplattform fiir das eLearning System Clix wird am LRZ betrieben Die Anwendungsbetreuung liegt in der Verantwortung der TUM 2 13 3 1 9 Ausweitung elektronischer Angebote der Bibliothek Ziel des Teilprojekts sind die Einrichtung eines Medienservers und damit Ausbau der elektronischen Dienstleistu
379. it Be nutzername und Passwort ausweisen daf r ist er danach weit gehend frei welche Programme und Appli kationen er auf dem Server f r sich arbeiten lassen will Die Hochleistungsrechner sind dabei als Mehr benutzersysteme ausgelegt die gleichzeitig f r viele Benutzer arbeiten w hrend die meisten Rechner in der zweiten und dritten Gruppe zu jedem Zeitpunkt haupts chlich einem Benutzer zur Verf gung stehen Die maschinelle Rechner Ausstattung des LRZ im Jahr 2007 1 Hochleistungssysteme Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller Kompo Gesamter paten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur DEREN Haupt Aufgabe Anzahl und speicher 5 Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente H chst 1 SGI Cluster 19 Partitio 38912 19 6 Shared Memory Je Partition 19x2 TB H chstleistungsrechner f r Benutzer aus den Hochschu leistungs Altix4700 nen Partitionen mit Dual 512 Montecito len in Deutschland f r die Nutzungsberechtigung ist rechner Socket Blades eine spezielle Begutachtung durch einen wissenschaftli 13 Shared Memory Partitionen mit Single Socket Blades Alle Partitionen sind ber das NumaLink4 Verbindungsnetzwerk eng gekoppelt Prozessorkerne chen Lenkungsausschuss notwendig Typ Parallel Rec
380. it Version um das volle Leistungspotenzial und den erweiterten Adressraum der 64 Bit Prozes soren zu nutzen Der Einsatz von Windows Vista ist vorbereitet Ein 8x4 Videoswitch erm glicht das problemlose Verschalten der Bildsignale von unterschiedlichen PCs auf die Projektionsfl chen der Holobench So kann bei Anwendungen die zwar Stereo Tracking und Multipipe f hig sind aber keine Cluster Unterst tzung bieten auch ein einzelner PC zum Einsatz kom men Das neue VR Cluster kann neben seinem Einsatz im VR Labor des LRZ auch als Referenzsystem be trachtet werden an dem Instituten die die Anschaffung eigener Installationen erw gen der Einsatz von Distributed Rendering Anwendungen auf relativ kosteng nstiger Hardware demonstriert werden kann 2 8 8 3 Mobile stereoskopische 3 D Projektionsanlage Die mobile Projektionsanlage erm glicht es eine 3 D Stereoprojektion nicht nur im Visualisierungslabor des LRZ sondern auch in Seminaren Vorlesungen oder bei Konferenzen zu realisieren Die Anlage be steht aus einem leistungsf higen PC oder Notebook mit stereof higer Grafikkarte und einer ca 2 mal 3 m gro en portablen Projektionsleinwand und ist geeignet mit preiswerten Polarisationsbrillen 3 D Pr sentationen mit einer gr eren Teilnehmerzahl durchzuf hren Bei solch einer passiven Stereoprojektion werden die Bildinformationen f r linkes und rechtes Auge ge trennt von je einem Beamer auf die gemeinsame Leinwand projiziert Polaris
381. it der Priorit t niedrig im Monat April war ein Ticket das zwei Jahre lang im Status ge ffnet war anstelle von ausgesetzt und das erst im April 2007 geschlossen wurde Aufgrund der geringen Anzahl von Tickets mit niedriger Priorit t 17 hat die ses Ticket mit langer Bearbeitungszeit auch eine gro e Auswirkung auf die Jahres bersicht Die folgende Abbildung zeigt die Verteilung der Tickets nach Dienstklassen Der Gro teil der Tickets betrifft Netz und Systemdienste ARS Opened and Closed Tickets Service Generated 01 12 2007 Periodicity Monthly Report for Trouble Tickets Neu Opened and closed tickets per month Opened Jan 2007 Mrz 2007 Mai 2007 Jul 2007 Sep 2007 Nov 2007 HB Anwendungen E Netz Systemdienste E Netzberatung EI Organisatorisches EB Sicherheit EI Systemberatung 5007 400 300 Closed 200 100 0 Jan 2007 Mrz 2007 Mai 2007 Jul 2007 Sep 2007 Nov 2007 HB Anwendungen DH Netz Systemdiente DJ Netzberatung ME Organisatorisches Sicherheit EI Systemberatung Abbildung 16 Trouble Tickets klassifiziert nach Dienstklassen Zu folgenden 10 Diensten wurden die meisten Tickets ge ffnet Top Ten Dienst Anzahl Tickets VPN 302 Mail gt Zentrale Mailserver 130 Verbindungsproblem 118 Mail gt Anwenderproblem 107 HLRB 106 Benutzerzugang Verwaltung gt Studentenken 57 nungen Benutzerzugang Verwaltung gt Institutskennun 50 gen Anti Virus Dienst gt Sophos
382. iz Rechenzentrums der Bayerischen Akademie der Wissenschaften srsssssnssnssnnssnnssnnnsnnnsnnnssonssnnnsnnnsnnnsnnnsnnnssnnssnnnsnnnsnnnsnsnsssnssonnsnnnnne 275 Anhang 8 Zuordnung von Einrichtungen zu LRZ Betreuern ab 01 01 2008 cse0e0 277 Anhang 9 Betriebs und Organisationskonzept f r den H chstleistungsrechner in Bayern HLRB srssusssoussnssonssonsssnnsnonsnonsnsnssonsssnnssnnsnnssnnssnnssnnssnnnsnnnsnnnsnanssannsen 279 Anhang 10 Nutzungs und Betriebsordnung f r den H chstleistungsrechner in Bayern HERB 2s00r00r00eesorsonesnessernnesnessernnnsnnensensesnnesnensersnnsnssssrnansnnesnensensnnsnessersonsnnensnenansane 283 Anhang 11 Mitglieder des Lenkungsausschusses des H chstleistungsrechners in Bayern HERB E EEE E EN 289 6 Teil I Vorwort Vorwort Das Leibniz Rechenzentrum LRZ legt hiermit seinen Jahresbericht 2007 vor Das Jahr 2006 wird als das Jahr des Umzuges von Miinchen nach Garching in die Geschichtsschreibung des LRZ eingehen Das aktuelle Berichtsjahr 2007 war dagegen das erste volle Jahr des LRZ in Garching Im Innenbetrieb war es ein Jahr der Konsolidierung fiir das Personal fiir die Systemprozesse ftir die ELT Infrastruktur aber auch ftir die Benutzer mit ihren neuen Kontaktschnittstellen Konsolidierung be deutet aber f r uns nicht Routine oder Eint nigkeit sondern sorgf ltige Planung und berpr fung von Systemkonfigurationen Betriebsprozeduren Dienstprozessen un
383. jahr hat sich das Leibniz Rechenzentrum auch in diesem Jahr zu Beginn des Winterse mesters an der Erstsemesterveranstaltung der Ludwig Maximilians Universit t die durch die Hochschul leitung organisiert wird mit einem Stand beteiligt An dem Stand konnten sich die neu eingeschriebenen Studenten und Studentinnen ber das Leistungsspektrum informieren das speziell f r Studierende ange boten wird Au erdem wurde Hilfestellung beim Einrichten der f r das Studium notwendigen VPN Verbindung angeboten sowie Informationen zum Thema Sicherheit im Internet verteilt Dar ber hinaus beteiligte sich das LRZ auf dem Campus Garching in enger Zusammenarbeit mit den Studentenvertretern der Fachschaften Maschinenbau sowie Mathematik Informatik und Physik an deren Einf hrungsverans taltungen zum Wintersemester Wegen des beraus positiven Zuspruchs ist auch weiterhin geplant derartige M glichkeiten der Pr senta tion und des unmittelbaren Kontaktes zu Studierenden zu nutzen 5 2 5 Sicherheit im Internet Ferienprogramm f r Sch ler In den Osterferien 2007 stellte das Leibniz Rechenzentrum R ume und Infrastruktur f r eine gemeinsame Veranstaltung des Stadtjugendamtes M nchen und des Bayerischen Landeskriminalamtes zum Thema Sicherheit im Internet zur Verf gung F r die Veranstaltung im Rahmen des Ferienprogramms waren zwei Termine vorgesehen es konnten jeweils 40 Kinder und Jugendliche im Alter von 11 bis 15 Jahren teilnehmen Die Karten
384. keit mit der die Daten ge schrieben und gelesen werden 1 Quartal 1996 1 Quartal 2006 Schreibgeschwindigkeit auf Kassette 3 9MB Sek 30 120 MB Sek Gesamtbandbreite 80 MB Sek 3 200 MB Sek Fassungsverm gen der B nder 1 10 GB 200 500 GB Belegter Speicher 1 000 GB gt 1 000 000 GB Anzahl gespeicherte Dateien 700 000 2 000 000 000 Eingehende Datenmenge pro Tag 50 GB 5 000 GB Anzahl Klienten 60 3 600 6 4 2 3 Langzeitarchivierung Die Kooperation mit der Bayerischen Staatsbibliothek im Bereich der Langzeitarchivierung wurde weiter intensiviert Neben dem laufenden Projekt BABS Bibliothekarisches Archiv und Bereitstellungssystem wurde mit BABS16 vd16digital im Juli 2007 ein weiteres DFG gef rdertes Projekt gestartet Mit diesem Projekt erfolgt der Einstieg in die gro fl chige Digitalisierung und Archivierung s mtlicher im 16ten Jahrhundert nachgewiesenen Drucke ber 7 Millionen Seiten mittels modernster Scan Technologie Neu gegen ber dem Projekt BABS ist hier dass der bergang von einer manuellen Digitalisierung hin zu einer Digitalisierung mit Scan Robotern 3 000 Seiten Stunde vollzogen wird Dadurch werden pro Jahr ca 100 Terabyte an neuen Digitalisaten erzeugt und am LRZ gespeichert Mit BABS2 liegt der DFG aktuell ein weiteres Projekt zur Begutachtung vor Die Ziele beinhalten den Aufbau eines vertrauensw rdigen Langzeitarchivs und die Evaluierung der Skalierbarkeit des Gesamtsys
385. ken etc Hochschuleinrichtungen z B Lehrst hle Institute k nnen ihre Webauftritte in einer vom LRZ bereit gestellten Webumgebung betreiben Dadurch k nnen sie sich auf die Inhalte und Anwendungen konzent rieren w hrend der Betrieb der Server beim LRZ liegt Von diesem Angebot machen derzeit ber 400 Einrichtungen des MWN Gebrauch Auch der LRZ eigene WWW Server www Irz de sowie eine Reihe von Spezial Servern z B webmail werden in dieser Umgebung betrieben Das Webhosting wird auf der Basis des Apache Webservers unter dem Betriebssystem Linux angeboten Die bestehende Weblandschaft am LRZ wird zur Zeit erweitert und den neuen Anforderungen angepasst Dazu geh rt neben dem mittlerweile abgeschlossenen Umstieg von Solaris auf Linux vor allem die Ent wicklung neuer Betriebskonzepte Zope ist ein Applikationsserver der in letzter Zeit zunehmend an Bedeutung gewinnt und entweder zu sammen mit Apache Webhosting oder auch als unabh ngiger Webserver genutzt werden kann Noch nicht weit verbreitet ist es jedoch Zope in einer Hosting Umgebung anzubieten Um hier Erfahrungen zu sammeln wurde eine Testumgebung aufgebaut auf der bisher einzelne Institute ihre neue Webpr senz entwickeln konnten und inzwischen auch erfolgreich betreiben Im Zuge der erw hnten Erweiterungen wird Zope Hosting neben dem bisherigen Apache Webhosting am LRZ verf gbar sein und das Dienstan gebot entsprechend erweitern Die Suche nach Informationen im WWW ist
386. kunft ab 2010 GCS Deutschland Nach der zweijahrigen Preparatory Phase 2008 2009 wird ab 2010 eine Implementation Phase folgen die von weiteren EU Projekten begleitet werden soll 6 3 7 3 Kooperationen mit Herstellern Im Umfeld von PRACE haben sich auch projektgem erste Konsortien unter Einbezug von Industriefir men gebildet um sich systemm ig auf Petaflop Computing vorzubereiten Beispiele sind TALOS Part ner BULL CEA Intel Quadrics und HLRS vom Gau Zentrum oder PROSPECT Partner BSC Barce lona IBM Intel ParTec Quadrics Alenia Aeronautica Deutscher Wetterdienst Universit ten Heidel berg Regensburg Karlsruhe und vom Gau Zentrum FZJ und LRZ Letztere planen ein gemeinsames Projekt zur Thematik Energy aware High Performance Computing Networking and Storage Der Schritt zum Petascale Computing mit Zigtausenden von Manycore Prozessoren ist in der Tat eine riesige Herausforderung f r Hardware Software Betrieb und Infrastruktur Sie betrifft die Bereiche Program miermodelle und Prozessorarchitekturen Algorithmen Programmierwerkzeuge Dateisysteme und Spei chermanagementsysteme das Monitoring das Batch Scheduling das Energiemanagement usw IBM Die Partner im Munich Computational Sciences Center TUM M nchen Rechenzentrum Gar ching der Max Plankgeselleschaft LRZ haben mit IBM w hrend eines zweit gigen Workshops in New York intensive Gespr che ber eine Zusammenarbeit auf den Gebieten Prozes
387. l ck verletzten nur bei ganz wenigen Sicherheitsvorf llen MWN Benutzer absichtlich die Nut zungsregeln der berwiegende Teil der F lle betraf Rechner e die von W rmern Trojanischen Pferden usw befallen wurden die eingedrungenen elektronischen Sch dlinge versuchten dann ihrerseits sich weiter zu verbreiten oder der Rechner wurde zu einem Teilnehmer an einem Botnet und verursachte danach Sch den z B durch Versenden von Spam Mails e die ber aktuelle Sicherheitsl cken angegriffen kompromittiert und dann f r weitere Angriffe miss braucht wurden 3 Anzahl Involvierte Rechner Eingegangene Ppt sen OT NES der F lle Benutzer des MWN BEE Anfragen usw F lle im Bereich E Mail Unberechtigte Spam Beschwerden 71 71 Spam Versand ber kompromittierte Rechner 22 22 35 Beschwerden an die falsche Stelle 2 2 Sonstige Mail F lle 5 2 5 Teilsumme 100 24 113 Organisatorische Vorg nge Aktualisierung der Monitoring Ausnahmelisten 45 53 9 Aufheben von Sperren 12 18 12 Sonstige F lle 3 2 3 Teilsumme 60 73 24 F lle mit rechtlichen Aspekten Copyright Verletzungen 44 51 54 Anfragen von Strafverfolgungsbeh rden 4 4 4 Sonstige F lle 6 2 6 Teilsumme 54 57 64 Sonstige kompromittierte Rechner Vom DFN CERT gemeldete F lle 15 37 16 Port Vulnerability Scans 15 19 15 Sonstige Beschwerden u a DoS 5 25 5 Teilsumme 35 81 36 Sonstige F lle 9 fl 9 Summe der gemeldeten F lle 258
388. l virtueller WWW Server 5 5 5 4 Zope Hosting Zum Jahresende gab es insgesamt 16 unabh ngige gehostete Sites und zwar 11 individuelle Zope Instanzen mit individuellen Sites meist Plone sowie eine TUM Zope Instanz mit 5 elevatelT Sites 5 5 6 Datenbanken Am LRZ sind diverse Datenbankdienste unter Oracle MySQL Microsoft SOL Server DB2 V arianten im Einsatz Die am LRZ betriebenen Datenbankserver dienen sowohl administrativen hausinternen Aufga ben als auch der Anbindung dynamischer Webseiten von virtuellen Webservern welche am LRZ betrie ben werden Datenbanken sind heute unverzichtbarer Bestandteil von webbasierten Systemen F r die Anbindung komplexer Internetanwendungen an die Datenbanken stehen neben den klassischen Programmiersprachen auch Interpretersprachen wie PHP Python Java und Perl zur Auswahl Zu den administrativen Aufga ben z hlen die datenbankgest tzte Verwaltung der Studentendaten die internetbasierte Kursverwaltung am LRZ die Inventarisierung die Netz berwachung die Verwaltung der Netzverantwortlichen sowie das Trouble Ticket System der Firma Remedy welches auf einem Oracle Datenbanksystem aufsetzt Der Schwerpunkt des Oracle Datenbankservers liegt hierbei bei transaktionsorientierten Aufgaben w h rend MySQL haupts chlich der Bereitstellung dynamischer Inhalte von virtuellen Webservern dient Viele Open Source basierte Internetanwendungen auf den Webservern z B Content Management Systeme z B J
389. larbeitspl tze zu tun hat Die seit dem Umzug langsam wieder ansteigenden Kundenzahlen zeigen dass die r umliche Ver nderung doch deutliche Auswirkun gen auf die Kundenakzeptanz hat Dieser Tatsache wollten wir Rechnung tragen und mit einer Kundenumfrage zu den Pr senzdiensten des LRZ versuchen unser Angebot mehr auf die lokalen Erfordernisse auszurichten Dazu wurde in Zusam menarbeit mit einer Beratungsfirma Forschungplus ein dynamischer Fragenkatalog erarbeitet Diese Arbeiten zeigten allerdings dass es wenig Sinn macht die Umfrage auf den lokalen Kundenkreis in Gar ching zu beschr nken Eine von uns gew nschte Potentialanalyse erfordert vielmehr den gesamten Kun denkreis zu erfassen alle vorhandenen Pr senzdienste abzudecken und auch Raum f r neue Vorschl ge und Ideen zu geben zun chst ungeachtet der tats chlichen Realisierbarkeit Die Online Umfrage zu den Pr senzdiensten des LRZ wurde in Zusammenarbeit mit der Beratungsfirma von Ende April bis Anfang Juni 2007 durchgef hrt Sehr deutlich wurden Defizite im Marketing f r die LRZ Dienste erkennbar wohingegen die Zufriedenheit mit der Qualit t der Dienste durchweg hoch ist Nachwievor ist das Thema Pr senz des LRZ in der Innenstadt akut und die LRZ Angebote an den St tzpunkten der Bibliotheken von LMU und TUM f r Poster und Schriftenkauf sind wenig bekannt oder entsprechen nicht dem Bedarf nach z B Arbeits und Schulungspl tzen Druckm glichkeiten und 134 T
390. lasfaser Glasfaser Glasfaser DSL auld Stand 31 12 2007 Kantor Abbildung 1 Das M nchner Wissenschaftsnetz Teil 1 Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 21 Munchner Wissenschaftsnetz Teil 2 SWH SWH ABK Akademiestr Salvatorstr SWH SWH LMU TUM HFF LMU MPG _ SWH Stettenkas CVJM BLLV Helene Mayer Deutsches Frankenthaler Leopoldstr 13 F hringer Ring Freimann Schwere Reiter ek Cimbernstr Ring Museum Str Str 35 eg AD 2 A S ry e a a lt SWH LMU Y Paul Hindemith Leopoldstr 139 TUM TUM SWH Allee Winzererstr Connollystr SWH SWH Georgen Kiefern Felsennelken y S4 garten anger Bay Theat Ak TUM Ka a Prinzregenten ee 2 F Platz 12 rankenhaus LMU 4 Amalienstr 17 TUM Baumbachstr MPG Amalienstr 33 3 i KUMI LMU LMU Martiusstr Infanteriestr 5 SWH Kaulbachstr 49 SWH TUM n Hedwig Ini tum WR cece Dransfeld Allee Ingolstadt a a q lt lt lj iTS stl e SWH SWH Geschwister Willi Graf Scholl Hiltenspergerst Steinickeweg 7 SWH PWH wu Arme Schul ertus i Schwestern BS aus Unterer Anger 2 SWH wo Se SS x Arme Schul e K N W a Schwestern e N MOON we Unterer Anger 17 w Sey sey m BESTEN E t ks N sy Augsburg w w w a Prinzregenten e N M 2 i N e str 7 Po 4 MN w BYBN X i H
391. lassen sich erst ab einer bestimmten Gr e sinnvoll realisieren e Dadurch dass die Bandlaufwerke direkt ans Netz angeschlossen sind l sst sich ein deutlich h herer Nutzungsgrad der teuren Ger te erzielen Die Laufwerke werden dynamisch dem jeweiligen Server zugewiesen e Das LAN wird deutlich entlastet 40 Teil I Das Dienstleistungsangebot des LRZ 2 4 2 Archiv und Backupsystem Das hochschulweit zug ngliche Archiv und Backupsystem des LRZ ist ein kosteng nstiges sicheres und leistungsstarkes Repositorium f r kleine und gro e Datenmengen Das Archiv und Backupsystem bietet mehrere Arten von Speicherdiensten die sich in der Zielsetzung und damit auch im Verkehrsprofil stark unterscheiden e Datensicherung Mit Hilfe von TSM k nnen die Dateien von am MWN angeschlossenen Rechnern bequem regelm Big und automatisch auf einem zentralen Server gesichert werden Der Benutzer kann mehrere Ver sionen der gesicherten Dateien vom Server jederzeit wieder abrufen Die Datensicherung ist in Hin sicht auf die bertragungsraten im Netz der am intensivsten genutzte Dienst des ABS Nat rlich werden auch die Daten auf den Rechnern die das LRZ selbst betreibt auf diese Weise gesichert e Archivierung von Daten Das LRZ stellt den Dienst bereit Projektdaten von Hochschuleinrichtungen ber eine l ngere Zeit spanne hinweg aufzubewahren Der Transfer der Daten geschieht mit der Archiv Funktion von TSM Im Gegensatz zur Datensicherung werden b
392. latz 1 Geschwister Scholl Platz 1 Adalberttrakt Geschwister Scholl Platz 1 Biicherturm Geschwister Scholl Platz 1 Hauptgeb ude Geschwister Scholl Platz 1 Philosonhie Geschwister Scholl Platz 1 Segafredocafe Gro hadern Chemie Pharmazie Gro hadern Genzentrum Kaulbachstr 37 Kaulbachstr 5la K nieinstra e Chirureische Tierklinik Leopoldstra e 13 Haus 1 Geb 0601 LeonoldstraBe 13 Haus 2 Geb 0602 Leopoldstra e 13 Haus 3 Geb 0603 Ludwiestr 14 Ludwiestr 25 Ludwigstr 27 Ludwiestr 28 BSISESSISSYH zsESZZzzEZzg See 66 ECS ca ee ZEEEZELESELESEEESEEEE Ge Ge Cees aa l C iS z Musikhochschule Arcisstr 12 Pinakotheken Freifl che Nord TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU M Deutsches Museum M Fichenau M Garching Chemiegeb ude M Garching Maschinenbau M Garching Medizintechnik M Garching Mensa M Garching Phvsikdenartment M Garching Phvsikdenartment II M Garching Phvsikdenartment E18 Neutronenhiitte M Garching Umformtechnik und Gie ereiwesen M Iffeldorf Limnologische Station M Katholische Hochschulgemeinde M Klinikum rechts der Isar M LothstraBe 17 M Mensa M Nordsel nde N1 M Nordsel nde N4 M Nordsel nde N5 M Nordsel nde N8 M Obernach Versuchsanstalt f r Wasserbau M Pasing Grundbau und Bodenmechanik M Rich
393. ldet teilgenommen Train the Trainer Das Leibniz Rechenzentrum Einf hrung Insgesamt mit F hrung durch das LRZ Tabelle 6 Weitere Kurse 5 2 2 Nutzung der LRZ Kursr ume Die LRZ Kurs und Seminarr ume und der H rsaal werden falls vom LRZ nicht selbst ben tigt auch anderen Hochschuleinrichtungen f r Einzelveranstaltungen zur Verf gung gestellt die dieses Angebot vor allem wegen der Infrastruktur mit Lernunterst tzungshardware p dagogischem Netz gerne nutzen Au erdem finden am Standort in Garching verst rkt Veranstaltungen statt in denen auch Firmen die M glichkeit haben vor einem gr eren Publikum zu pr sentieren Dabei wird gr ter Wert darauf ge legt dass solche Veranstaltungen nicht ins Marketing abgleiten sondern den Teilnehmern handfeste neue f r Studium und Wissenschaft verwertbare Erkenntnisse z B in der Handhabung und dem Einsatz einer speziellen Software bieten Auch im Berichtsjahr wurde dieses Angebot von verschiedenen Einrichtun gen halb oder ganzt gig in Anspruch genommen W hrend der Veranstaltungen selbst ist ein Bereit schaftsdienst notwenig da das LRZ externe Referenten und Nutzer unterst tzt wenn es aus irgendwel chen Gr nden zu Problemen kommt Die vorhandene Technik hat sich allerdings als intuitiv bedienbar erwiesen Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 95 Die folgende Terminauflistung zeigt ohne dabei den Anspruch auf Vollst ndigkeit
394. le wissenschaftliche Programme in regelm igen Abst nden Daten herausschreiben oder einlesen wird hierdurch ein mitunter deutlicher Flaschenhals der auf anderen Systemen zu leer stehenden Prozessoren f hrt behoben 4 F r die Benutzerverzeichnisse mit Programmquellen Konfigurationsdateien usw stehen weitere 60 Terabyte an extrem ausfallsicher ausgelegtem Plattenplatz zur Verf gung auf den ein Zugriff auch von au erhalb des Systems m glich ist Dieser Plattenbereich zeichnet sich durch hohe Transaktions raten aus so dass die effiziente Verarbeitung einer Vielzahl von kleinen Dateien gew hrleistet ist 5 Da das System aus Intel Montecito Prozessoren aufgebaut ist und als Betriebssystem das inzwischen weit verbreitete Linux verwendet wird steht ein gro es Spektrum an Standard Softwarepaketen zur Verf gung die ohne gro en Portierungsaufwand auf dem System eingesetzt werden k nnen F r die von Forschern selbst erstellten Programme steht eine vollst ndige Entwicklungsumgebung zur Verf gung die einen fast nahtlosen bergang von Arbeitsplatzsystemen oder von Clustern auf den neuen H chstleistungsrechner erm glicht Die folgende Tabelle gibt eine bersicht ber die wesentlichen Leistungszahlen des neuen Systems im Vergleich zum Vorg nger Jahresbericht 2007 des Leibniz Rechenzentrums Teil I connects HLRB II SGI Altix HLRB II SGI Altix Hitachi SR8000 F1 4700 4700 2000 2006 Phase 2
395. lensteine waren neben der Open Source Ver ffentlichung vor allem das Sammeln von Be triebserfahrung mit der neuen Nyx Version Zudem wurden auch aus betrieblicher Notwendigkeit neue Funktionen wie z B ein MAC Flooding Filter hinzugef gt Ende November 2007 wurde der Nyx Applikationswebserver erneuert Bisher wurde eine Maschine von Advaned Unibyte mit 4 GB RAM und zwei 2 8 GHz Xeon Prozessoren mit Hyperthreading also vier CPUs eingesetzt Die neue Maschine besteht aus einem Server der Firma SUN mit 8 GB Hauptspeicher und zwei Quad Core CPUs also 8 CPUs mit je 2 66 GHz Takt Die Aufr stung war notwendig da die bisherige Maschine mit Nyx ihre Leistungsgrenze erreicht hatte 7 4 6 Virtuelle Firewalls Das LRZ m chte Einrichtungen und Organisationen im MWN mit individuell konfigurierbaren Firewalls versorgen Die Entscheidung fiel schlie lich darauf die vom LRZ betriebenen Router im MWN f r diese Aufgabe einzusetzen Die modulare Bauweise der Router erlaubt es durch sogenannte Blades Router Einsch be spezielle Funktionalit t nachzur sten In diesem Fall bietet sich das Cisco Firewall Services Module FWSM an Seine Mandantenf higkeit erlaubt es auf einfache Weise vollwertige virtuelle Fire walls in einer Grundkonfiguration zur Verf gung zu stellen Diese Grundkonfiguration kann dann vom Kunden bei Bedarf individuell ver ndert werden Per Web Schnittstelle werden die Anpassungen in einer eigenen kundenspezifischen Konfigurationsumg
396. licates Please insert only decimal number in the range 10 1000 Random number seed for bootstrapping Please insert only integer number in the range 1 N Weight file name Browse How long to optimize Please insert only decimal number in the range 0 N Multi furcating constraint file Browse Binary constraint file Browse Initial rearrangements Please insert only integer number in the range 1 N Write intermediate trees Multiple model file Browse User starting tree Browse Only parsimony tree Trees to optimize Browse Type of job Submit job gt bioportal deisa eu 1 Abbildung 43 DEISA Life Science Portal 6 2 2 1 Application Task Force DEISA Extreme Computing Initiave Die DEISA Extreme Computing Initiative DECI erfolgte auf Grund einer Entscheidung des DEISA Consortiums ohne Verz gerung mit dem zu beginnen was als Kern dieses Infrastrukturprojektes angese hen wird n mlich Forschung Wissenschaft und Technik Die Initiative besteht aus der Identifikation jeweils im Mai der Installation und dem Betrieb einer klei nen Anzahl von Flaggschiff Applikationen die sich mit komplexen herausfordernden und innovativen Simulationen besch ftigen die ohne die DEISA Infrastruktur nicht m glich w ren Ein weiteres Ziel ist es auch die internationale Zusammenarbeit zwischen den Forschergruppen und Rechenzentren zu f r dern Die Projekte wurden auf Basis ihres Inn
397. lierten Softwarestack das sog DEISA Common Production Environment CPE Die Farbgebung eine LRZ Erweiterung von INCA erlaubt ein sofortiges intuitives Erfassen der Gesamtsituation Gr nt ne signalisieren hohe Softwarever f gbarkeit w hrend r tliche T ne auf Probleme hindeuten Durch Klicken auf Links in der Tabelle kann man sich detailliertere Informationen beschaffen Mit der Umstellung von INCA 1 auf INCA2 wurde ein neues Feature zur Darstellung der DEISA Sites auf einer bersichtskarte von Europa eingef hrt Durch Klick auf die Symbole der Sites k nnen detailliertere Informationen ber den dortigen Zustand der Systeme abgerufen werden 162 Teil IL Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Mozilla Firetox Eile Edit View History Bookmarks Tools Help z D i we X A https inca lrz muenchen de inca xsltjsp xsl google xsl amp xmlFil DEISA DISTRIBUTED EUROPEAN INFRASTRUCTURE FOR SUPERCOMPUTING APPLICATIONS INCA STATUS PAGES Summary Status for CPE Click on resource markers to view test errors for individual resources any cross resource tests will have toggle buttons to display them under the map image Mosk Moc o Sg Poznan Polska OWarszawa Strasbourg M f f Istanbul 2 Samsun Ankara e gt Orr A Faura Izmir Eski ehir T rkiye BS Kane ey o Ea 38 G f Anteiya L Adanalg i 2 ite anois Map data 2008 Bas
398. llungen statistische Werte F r Einrichtungen mit zentralem Einkauf besteht die M glichkeit die am meisten nachgefragten Soft warelizenzen online zu bestellen Hierzu z hlen die M nchner Unikliniken mit ihrem jeweiligen Zentraleinkauf die Uni Augsburg einige Fachhochschulen aus dem s dbayerischen Raum sowie einige kleinere Einrichtungen Anzahl der Bestellvorg nge die im Jahr 2007 online get tigt wurden Anzahl Bestellvorg nge Anzahl Lizenzen Microsoft 398 3867 Adobe 248 794 Endnote 33 70 Corel 26 102 Apple 10 48 5 3 5 E Commerce Zusammenarbeit mit Rechenzentren anderer Universit ten Ziel der Zusammenarbeit ist die Neu oder Weiterentwicklung des produktiv arbeitenden Webshops des Rechenzentrums der Uni W rzburg unter Einbeziehung anderer bayerischer Rechenzentren Dabei soll gepr ft werden inwieweit eine Zusammenarbeit zu Einsparungseffekten bei der SW Verteilung beitragen k nnte Es fanden Treffen mit Vertretern der Rechenzentren der Universit ten W rzburg Erlangen Bay reuth Passau FH Coburg und dem LRZ statt um die Anforderungen der Beteiligten herauszuarbeiten und um das weitere Vorgehen abzustimmen Ein Webshop welcher auf der aktuellen Architektur des Webshops des RZ der Uni W rzburg basiert wurde dem LRZ Ende 2007 zu Testzwecken zur Verf gung gestellt Es ist noch nicht gekl rt in welcher Form dieses Projekt umgesetzt wird d h welche Architektur zum Einsa
399. ltix System sowie 67 mit Giga bit Ethernet vernetzte Dual Itanium2 Knoten erweitert e Im Zuge eines weiteren Ausbaus sind Ende 2005 5 weitere Intel Xeon EM64T und 10 AMD Opte ron Knoten in das Cluster integriert worden e Im Rahmen einer Sonder Investition wurden im Dezember 2006 weitere 20 Dual Core Dual Socket Opteron 64bit Systeme beschafft Im Gegenzug wurden 13 32 bit Intel PentiumIll 2 Wege Knoten au er Betrieb genommen e Im Rahmen einer Sonder Investition wurde im M rz 2007 der Hintergrundspeicher des Linux Clusters auf 51 Terabyte ausgebaut e Im August 2007 wurde das urspr ngliche HLRB II Migrationssystems SGI Altix 4700 auf 128 Montecito Prozessoren und 1 Terabyte Hauptspeicher zur ckgebaut und in das Linux Cluster integ riert e Im November 2007 wurden am Linux Cluster weitere 63 Intel Quad Core Single Socket Systeme sowie 15 Dual Core Dual Socket Systeme f r das M nchner LCG Tier 2 Zentrum sowie 34 Intel Quad Core Single Socket Systeme f r die Bayerische Staatsbibliothek in Betrieb genommen Das Linux Cluster ist nicht homogen aufgebaut sondern besteht aus folgenden Teilen e 32 bit Intel Xeon 4 Wege Knoten e 32 bit Intel Pentium4 1 and 2 Wege Knoten e 64 bit AMD Opteron 2 Wege Knoten e 64 bit AMD Opteron 4 Wege Knoten e 64 bit Intel EM64T 2 Wege Knoten mit Infiniband Interconnect e 64 bit Intel EM64T 4 Wege Knoten e 64 bit Intel Itanium2 4 Wege Knoten mit Myrinet Interconnect e 64 bit Intel Itantum2 2
400. lung die ftir die interne Organi sation zust ndig ist und drei Fachabteilungen Die sich daraus ergebende Gesamtorganisation sieht wie folgt aus Direktorium des LRZ Vorsitz Prof Dr H G Hegering Prof Dr Chr Zenger Prof Dr A Bode Leitung des LRZ Leiter Prof Dr H G Hegering Stellvertreter Dr V Apostolescu 77 Abteilung Benutzernahe Dienste und Systeme Dr N Hartmannsgruber Abteilung Hochleistungssysteme Dr H D Steinh fer Abteilung A L pple Kommunikationsnetze Abteilung Zentrale Dienste Dr V Apostolescu Die detaillierte Gliederung der Abteilungen in Gruppen zeigt eingehender wie sich die Aufgaben vertei len Stand 1 1 2008 1 Abteilung Benutzernahe Dienste und Systeme BDS Leitung Dr Norbert Hartmannsgruber Vertreter Ado Haarer Directorys E Mail E Mail Benutzerverwaltung und Internetdienste und Datenbanken Web Dienste Da tenbanken Internet Dienste au er E Mail Server unter Graphik Visualisierung und Multimedia 3D Graphik Videoschnitt Postererstellung Macintosh Betreuung 1 1 Verzeichnisdienste 1 2 Solaris 1 3 1 4 Desktop Management alle Themen rund um PCs und deren Verwaltung mit Microsoft Betriebssystemen 2 Abteilung Hochleistungssysteme HLS Leitung Dr Horst Dieter Steinh fer Vertreter Dr Matthias Brehm Compute Server SGI Li
401. m NearStore r umliche Trennung SnapMirror asynchrone Replikation gt Sicherung auf Band via TSM Abbildung 67 NAS Sicherungskonzept Seit Inbetriebnahme im M rz 2006 nahm der belegte Speicherplatz kontinuierlich zu was unter anderem auf die Verlagerung weiterer Dienste auf die NAS Filer zur ckzuf hren ist Folgende Abbildung zeigt die Speicherentwicklung im Jahr 2007 188 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Yolune Capacity Used 30 0 23 0 26 0 24 0 22 0 20 0 18 0 16 0 14 0 12 0 TB 10 0 TB I 0000 Apr Jul oct Jan E Capacity Used OJ Trend Abbildung 68 Speicherentwicklung NAS Systeme Der deutliche Anstieg des Datenvolumens im Januar 2008 ist durch die Entscheidung zu erkl ren die VMWare Datenbereiche auf die NAS Speichersysteme zu legen Wie bereits in den letzen Jahren wird die Speicherlandschaft am LRZ weiter konsolidiert und es werden weitere Dienste auf die NAS Speichersystem verlagert 6 4 3 3 Speicher f r die Wissenschaft Das LRZ bem ht sich seit langen um die Bereitstellung von Speicherkapazit ten f r alle Studierende und Mitarbeiter der Hochschulen Die derzeitige Infrastruktur f r die Speicherung von Dateien und Dokumen ten an den Hochschulen ist dezentralisiert und die Qualit t der angebotenen Dienstleistungen schwankt in Abh ngigkeit von der zust ndigen Teileinheit verf gbaren Budgets und den f r den Betrieb ver
402. m Betriebssystem Linux erfolgt In einem ersten Schritt werden die von den beiden Scan Robotern Windows digitalisierten Daten auf dem NAS Speicher abgelegt Falls eine Nachbearbeitung erforderlich ist wird durch Stichproben ermittelt werden die Daten durch einen entsprechenden Server angepasst Nach dieser Anpassung erfolgt die Archivierung ber einen Linux Rechner auf Magnetb nder Zus tzlich werden f r die Bereitstellung im Internet Thumbnails generiert und auf einem Online Speicher abgelegt 182 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Aufgrund der Automatisierung entstehen immense Datenmengen Die folgenden beiden Abbildungen zeigen die bisherige und prognostizierte zuk nftige Entwicklung des Archivvolumens und der Anzahl an archivierten Dateien der BSB im LRZ Archiv Zu erw hnen ist noch dass die gleiche Menge an Daten zusatzlich noch als Kopie am MPI Rechenzentrum fiir den Desaster Fall gespeichert wurden gt a t N 420 8 Prognose A oO w a oO 288 6 w oO N a N Q oO 8 A a oO Datenvolumen in Terabyte oO a 8 wo 2004 2005 2006 2007 2008 2009 2010 Abbildung 62 Entwicklung des Datenvolumens der BSB im LRZ Archiv Anzahl Dateien in Millionen 2004 2005 2006 2007 2008 2009 2010 Abbildung 63 Zeitliche Entwicklung der Dateienanzahl der BSB im LRZ
403. m Genzentrum TUM JH N ae Scheyern Gro ha A TS T dern TUM Hirschau si Eh Wasserchemie Campus Weihenstephan 7 MPG SWH Thalhausen Biochemie Maximilianeum LMU eMU Oen jenstr Siemens MPG A Konradstr g 2 Pharmazie Neurobiologie Stift FH Gro hadern bir Preysingstr 83 ABK Schellingstr TUM LMU Zurnhausen an Kaulbachstr 37 Staatsbib TUM r d lsar LMU Ludwigstr 16 Biederstein Veterin rstr HS MPG Mm Philosophie BAdW Hofgartenstr Kaulbachstr 31 SWH ER gt SWH Alfons Goppel Str KWK Kaulbachstr 29 Kaulbach Str 25 up aria i TUM Theresia Str Lothstr 17 LMU Scheinerstr 1 LMU Herzzentrum Ziemssenstr Lazarettstr LMU LMU LMU SWH Oberschlei heim Zentnerstr 31 Giselastr Kreittmayrstr SWH Sch f FHM SWH ch feranger Lothstr 34 Nymphen Oberschlei heim burger Str TUM LMU SWH Luisenstr y SWH w SWH A TOM Lothstr 62 Arcisstr 31 Steinickeweg 4 Paulinum Menzin Pin d Mod ger gt O zu Str Barer Str 40 lt D SWH SWH SWH LMU SWH TUM LMU WH SWH SWH Richard Wagner Gabelsbergerstr Chiemgaustr Theresienstr Jakob Balde Schragenhofstr Maria Ward Str Span Kolleg Adelheidstr He str Str 16 Haus Dachauer Str iss Studentenwohnheim 10 20 Mbit s Hochschule Wiss ige Einrich k mum 2 Mbit s f Einrichtung sonstige Einrichtung 10 Gbit s 1 Gbit s 100 Mbits 256Kbit s 16Mbit s 11 100 Mbit s ME EEE m 64 128 Kbit s nunennnnnnn ecccccece G
404. m und M net ein Hierdurch lassen sich auf Leitungsebene getrennte Strukturen aufbauen WDM Systeme werden derzeit im MWN dazu verwendet um die verf gbaren Glasfaserleitungen parallel zum Produktionsnetz f r folgende Dienste zu nutzen e Kopplung von Nebenstellenanlagen TK Kopplung e Realisierung von standort bergreifenden Intranets z B Medizin Verwaltung 198 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes e Realisierung von Testnetzen parallel zum Produktionsnetz ATM Pilotprojekte Fiber Channel Kopplung von Speichernetzen usw Im MWN werden aktuell auf 14 Verbindungen WDM Systeme eingesetzt TU Nordgelande LMU Stammgelande TU Nordgelande Garching TU Nordgelande Klinikum Rechts der Isar LMU Stammgelande Zentrale Hochschulsportan lage ZHS LMU Stammgelande Schwabinger Krankenhaus LMU Stammgelande Amalienstra e LMU Stammgel nde Martiusstra e FH M nchen 7 externe Standorte MRV LambdaDriver 800 MRV LambdaDriver 800 ONI Online 2500 ADVA OCM4 ADVA OCM4 MRV FiberDriver MRV FiberDriver ADVA FSP1 Verbindung der Backbone Router 1 x 10GE Medizinisches Intranet des Klinikums Rechts der Isar 3x 1GE ATM Testnetz Erlangen IRT 1 x OC48 Verbindung der Backbone Router 1 x 10GE Verbindung der Backbone Router 1 x 10GE Medizinisches Intranet 3 x 1GE Anbindung der ZHS ans MWN 1 x 1GE Medizinisches Intrane
405. men des Projekts IntegraTUM konzipiert und implementiert wird in den Produktivbetrieb berf hrt Damit kann zuk nftig ein automatischer Abgleich der Benutzerdaten die von der Stu denten und der Personalverwaltung der TUM eingespeist werden zwischen allen angeschlosse nen Diensten und Systemen der TUM durchgef hrt werden Das Verfahren wird derzeit bereits erfolgreich mit der zentralen Groupware L sung und dem Rechnerpool Management dreier Fa kult ten pilotiert Weitere zentrale Dienste wie das Learning Management System der TUM und die Bibliotheksdienste sollen im Laufe des n chsten Jahres angebunden werden ebenso ist eine selektive bermittlung der Kennungsdaten an die zentrale Benutzerverwaltung des LRZ in Pla nung e Der im letzten Jahr eingef hrte automatische Datenabgleich zwischen Campus und den zent ralen Verzeichnisdiensten des LRZ wurde von Studenten nun auch auf Mitarbeiterkennungen ausgeweitet Die bisherige L sung zur Einrichtung von LMU Mitarbeiter E Mail Adressen mit der Domain Imu de konnte dadurch abgel st werden und vermeidet die damit bislang verbunde nen Probleme insbesondere die vereinzelten Inkonsistenzen zwischen dem LMU und dem LRZ seitigen Datenbestand Die Verfahren zur Verbesserung und Sicherstellung der Qualit t der verarbeiteten Personendaten wurden weiter verfeinert Neben der Vermeidung der unn tigen Mehrfacherfassung von Benutzern wurden damit auch die Grundlagen geschaffen um die Verwaltungen d
406. mit 10 Mbit s an das X WiN 202 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 30 08 2007 Anschluss der KHG der TUM in der KarlstraBe tiber ADSL 26 09 2007 Inbetriebnahme des Netzes im Neubau der FH Weihenstephan in Triesdorf und Ersetzung der Netzkomponenten im Altbau 01 10 2007 Anschluss des LMU Geb udes in der Zentnerstr 31 ber eine LWL Strecke der Telekom 25 10 2007 Ersetzung des letzten Switches der Firma 3COM 15 11 2007 Anbindung des TUM Geb udes Augustenstr 44 mit 2 SDSL Strecken von M net 01 12 2007 Anbindung des TAZ Geb udes auf dem FRMII Gel ndes ber LWL Strecke 06 12 2007 Ersetzung der 64 kbit s Anbindung des Versuchsgut Thalhausen durch eine Verbindung ber Satelliten SAT DSL 1 Mbit s 7 12 2007 Anschluss des Studentenwohnheims des Studentenwerks in der Lothstra e ber eine LWL Strecke der Telekom 13 12 2007 Anschluss des Studentenwohnheims Marie Antonie Haus des Studentenwerks in der Kaulbachstra e ber eine LWL Strecke der Telekom 7 1 7 Netzausbau Verkabelung Mit NIP Netzinvestitionsprogramm in Bayern wurde zwar eine fl chendeckende Vernetzung erreicht diese ist jedoch an der TUM in M nchen und Garching noch zu einem Teil in Koax ausgef hrt Bis Ende 2008 soll diese Koax Verkabelung durch eine strukturierte Verkabelung Kupfer oder Glas ersetzt wer den Im Bereich der TU M nchen ohne Weihenstephan sollen die im Folgenden aufgef hrten Geb ude im Jahr 2008 mi
407. mmunikationsnetze 30 04 2007 Hindelang J rgen techn Angest Benutzernahe Dienste und Systeme 30 04 2007 Krummen Tobias stud Hilfskraft Benutzernahe Dienste und Systeme 15 06 2007 Hansemann Helge wiss Mitarbeiter Benutzernahe Dienste und Systeme 30 06 2007 Braum ller Mario stud Hilfskraft Benutzernahe Dienste und Systeme 30 06 2007 Lehl Martin stud Hilfskraft Kommunikationsnetze 31 07 2007 Eilfeld Petra Dr wiss Mitarbeiter Hochleistungssysteme 31 07 2007 Hofer Catherine stud Hilfskraft Benutzernahe Dienste und Systeme 31 08 2007 Kaindl Andreas Verw Angest Zentrale Dienste 31 08 2007 Meyer Dominik stud Hilfskraft Benutzernahe Dienste und Systeme 16 09 2007 Brossmann Christian wiss Mitarbeiter Benutzernahe Dienste und Systeme 30 09 2007 Busch Nico Mario stud Hilfskraft Benutzernahe Dienste und Systeme 30 09 2007 Sch fer Hans Ulrich wiss Mitarbeiter Hochleistungssysteme 14 10 2007 Hanemann Andreas wiss Mitarbeiter Kommunikationsnetze 31 10 2007 Mehammed Hamza wiss Mitarbeiter Hochleistungssysteme 31 12 2007 Becher Mike wiss Mitarbeiter Hochleistungssysteme 8 2 Geb udemanagement und Geb udebetrieb Das Jahr 2007 war in geb udetechnischer Hinsicht gekennzeichnet vom bergang des Einlebens in den Neubau und dem Vertrautwerden mit seinen zahlreichen technischen Einrichtungen in einen konsolidier ten Routinebetrieb Dabei stellte sich die bergabe der Betreuung der Kern Infrastruktur an die Kompe tenz des
408. mte Dienste im MWN bei Zugang ber einen Fremd Provider Die Dienste umfassen Mailversand Lesen und Schreiben von News Zu gang zu Online Zeitschriften und Datenbanken der Bibliotheken Dateitransfer FTP zu Studenten servern usw E Mail ist ein weiterer wichtiger Punkt Die Klassifizierung Zentrale Mailserver umfasst neben Restaurierungsw nschen insbesondere die Zur ckweisung von verd chtiger E Mail durch unsere oder fremde Server Verd chtig hei t hier dass der Standard verletzt wird Dies ist oft bei Spam der Fall und wird bei uns entsprechend ausgenutzt Greylisting Reverse Mapping Fremde Server sind dabei oft falsch konfiguriert Echte Ausf llen unserer E Mail Server sind recht selten Obwohl zu den einzelnen Bereichen Installationsanleitungen zur Verf gung stehen geschieht es oft dass diese nicht gelesen bzw befolgt werden Andererseits sind die technischen Gegebenheiten vor handene Leitung benutztes Modem oder ISDN Karte verwendete Netzwerkkarte eingesetzter PC Mac Notebook etc derart vielf ltig dass die Dokumentation stets nur f r g ngige Standardtypen ausreicht bzw der Kunde oft berfordert ist e Problembereich Organisatorisches Hier sind 1308 Vorjahr 923 42 F lle erfasst Die gr ten Unterpunkte sind alle aus dem be reich Benutzerzugang Verwaltung BZ VW Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 87 Dienstklassifikation Gesamt QT TT BZ VW gt Studentenkennungen
409. munikation und Information e ZKI Arbeitskreis Universit ten und Fachhochschulen e MPG Beratender Ausschuss f r Rechensysteme e DEN Diverse Gremien und Aussch sse e DFG Gutachtersitzungen e Wissenschaftsrat Nationaler Koordinierungsausschuss f r H chstleistungsrechnen e IFIP IEEE Diverse Working Groups Program and Organization Committees e GI Erweitertes Leitungsgremium Fachgruppe KIVS e D Grid Steuerungsausschuss und D Grid Beirat e DEISA Executive Committee e Gau Zentrum e NESTOR Beirat Abteilung Benutzernahe Dienste und Systeme e ZKI Arbeitskreis Verzeichnisdienst e ZKI Arbeitskreis Multimedia und Grafik 242 Teil I Organisatorische Ma nahmen im LRZ e ZKI Arbeitskreis Verteilte Systeme e Regionale DOAG Arbeitsgruppe Miinchen Deutsche Oracle Anwendergemeinde e Arbeitskreis vernetzter Arbeitsplatzrechner AKNetzPC e Arbeitskreis Metadirectory in Bayern e WVHB Arbeitskreis Authentifizierungs und Autorisierungsinfrastruktur Abteilung Hochleistungssysteme e ZKI Arbeitskreis Supercomputing e KONWIHR Kompetenznetzwerk f r Technisch Wissenschaftliches Hoch und H chstleistungs rechnen in Bayern e UNICORE Forum UNICORE User Group e Program Committee UNICORE Summit e DEN German Grid Group vormals AK Wissenschaftl Rechnen Middleware Grid e Gelato e SGI User Group e Fortran Standardisierung International Organization for Standardization ISO and the International Electrotechn
410. n ber die Identit ten und Autorisierungen von Hochschulangeh rigen Mitarbeiter Studenten G ste Alumni ab gerufen und in angeschlossene Systeme eingespeist werden k nnen Der Verzeichnisdienst ist die Vor aussetzung f r die Nutzung der zentralen Dienste Die Daten werden aus den f hrenden Systemen der Verwaltung aggregiert konsolidiert und aufbereitet Dadurch k nnen Redundanzen und Inkonsistenzen erkannt und eliminiert werden Die Stammdaten wer den um zus tzliche Informationen beispielsweise einen hochschulweit einheitlichen Loginnamen f r alle Dienste erg nzt und mit Gruppenzugeh rigkeiten angereichert Auf Basis eines Rollenkonzepts werden die Daten selektiv an die jeweiligen Systeme der brigen Teilprojekte weitergeleitet und st ndig aktuell gehalten so dass ein automatisches Anlegen Modifizieren und letztendlich auch L schen von Accounts erreicht wird Dadurch werden die zust ndigen Systemadministratoren von aufwendigen Routinearbeiten entlastet Die Leitung dieses Teilprojekts liegt beim LRZ 66 Teil I Das Dienstleistungsangebot des LRZ Verwaltungs S EDV y sa wo ar organs Abbildung 12 Teilprojekte in Integra TUM 2 13 3 1 3 Verwaltungs EDV Ziel des Teilprojekts ist die Integration der Systeme der Verwaltungs EDV vor allem SAP HR Perso nalverwaltung und HISSOS Studierendenverwaltung mit dem Verzeichnisdienst 2 13 3 1 4 Rezentralisierung E Mail Services Urspr ngliche Motivation
411. n Servern sind haupts chlich Arbeitsplatzrechner oder Notebooks angebunden Dabei werden nicht alle Systeme von individuellen Firewalls und Antiviren Programmen gesch tzt wodurch sich Schadprog ramme oft schnell und ungehindert weiterverbreiten k nnen F r einen Netzbetreiber stellt sich so zu nehmend das Problem befallener Systeme Im MWN bedeutet ein Anteil von nur einem Prozent an infi zierten Rechnern rund 650 potentielle Verursacher von St rungen Die Bearbeitung dieser Sicherheits probleme stellt einen erheblichen personellen Aufwand dar Zu Behebung dieser Problematik wurde am LRZ ein dynamisches proaktives und generisches Intrusion Prevention System IPS mit einer Komponente zur dynamischen Bandbreitenbeschr nkung entwickelt Dieses System befindet sich unter der Bezeichnung NAT o MAT seit Mitte 2005 erfolgreich im pro duktiven Einsatz Funktionsweise des NAT o MAT Die Grundidee des NAT o MAT ist ein NAT Gateway das zu einem universellen IPS erweitert wird und auch in der Lage ist bei hohen Bandbreiten den Netzverkehr in Echtzeit zu analysieren F r die Erken nung auff lliger Systeme wird deshalb auf eine aufw ndige Pr fung von Signaturen verzichtet Der NAT o MAT berwacht den Netzverkehr auf Basis einzelner Hosts und Verbindungen und arbeitet mit einem Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 221 Regelwerk das den Verkehr klassifiziert Grunds tzlich werden die Richtlinien dieses Regelwerks in Abh
412. n mindestens zwei Dritteln der bei der Beschlussfassung anwesenden Mitglieder der Kommission 87 Inkrafttreten der Satzung Diese Satzung tritt am 14 12 2007 in Kraft Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 257 Anhang 2 Mitglieder der Kommission f r Informatik am 31 12 2007 a Mitglieder ex officio Prof Dr jur Dietmar Erwin Willoweit Prasident der Bayerischen Akademie der Wissenschaften Miinchen Vorsitzender der Kommission fiir Informatik Prof Dr Heinz Gerd Hegering Institut f r Informatik der Ludwig Maximilians Universit t M nchen Vorsitzender des Direktoriums des Leibniz Rechenzentrums b Gew hlte Mitglieder Prof Dr Dr h c mult Friedrich L Bauer Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Arndt Bode Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Wilfried Brauer Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Hans Joachim Bungartz Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Dr h c Roland Bulirsch Zentrum Mathematik der Technischen Universit t M nchen Prof Dr Franz Durst Lehrstuhl f r Str mungstechnik Friedrich Alexander Universit t Erlangen Prof Dr Heinz Gerd Hegering Institut f r Informatik der Ludwig Maximilians Universit t M nchen Prof Dr Dr h c mult Karl Heinz Hoffmann Zentrum Mathematik der Technischen Universit t M nchen Prof Dr Helmut Kremar
413. n sind Hilfe zur Selbsthilfe und betreffen zum Beispiel folgende Bereiche e Beratung bei der Auswahl von Rechnern Speichertechnologien und Betriebssystemen diese Bera tung betrifft sowohl die technische Auswahl die Marktsituation und Preisstruktur wie auch die for malen Bedingungen von Beschaffungen Beantragungsverfahren ber das HBFG die rechtlich vor geschriebenen Ausschreibungsmodalit ten nach VOL A Vertrags und Abnahmebedingungen nach BVB EVB IT usw e Das LRZ ber t auch bei Entsorgung von Altger ten e Hinweise und Hilfen bei Auswahl und der Konfiguration lokaler Vernetzungen vor allem bei der Erstellung von Clustern z B Linux Clustern oder PC Services unter Microsoft Systemen e Beratung ber die M glichkeiten der Datensicherung z B mittels der vom LRZ angebotenen auto matischen Datensicherheitsdienste ber TSM e Beratung in Bezug auf Sicherheitsfragen wie z B Systemsicherheit Firewalls Verhinderung von Sicherheitsl cken im Mail Bereich Virenkontrolle usw e Beratung in Bezug auf die Nutzung von Public Domain Software soweit Kenntnisse dar ber im LRZ bestehen e Beratung ber die M glichkeiten die Dienste des LRZ E Mail Webdienste Datenbanken Grafik im Umfeld des jeweiligen Istituts einzusetzen 2 1 2 5 Elektronischer Briefkasten Schon seit langem empfiehlt das LRZ seinen Benutzern Fragen W nsche Anregungen und Beschwer den in elektronischer Form zu senden Daf r steht das
414. n Bereichen sicherzustellen Wegen der hohen Kosten ist eine sachgem e und strenge Auswahl der auf diesem Rechner zu bearbei tenden Aufgaben notwendig Gleichzeitig sollte den Nutzern eine m glichst weit gehende Unterst tzung gew hrt werden um einen optimalen Nutzen zu erzielen Folgende Kriterien sind dabei ma gebend 1 Die Aufgabenstellung muss wissenschaftlich anspruchsvoll und ihre Bearbeitung muss von gro em Interesse sein 2 Die Bearbeiter m ssen wissenschaftlich ausgewiesen und zu einer erfolgreichen Bearbeitung der Auf gabenstellung in der Lage sein Dies ist durch Vorarbeiten und Publikationen zu belegen 284 Teil II Anhang 10 3 Die Bearbeitung der Aufgabe darf nicht auf kleineren Rechnern durchf hrbar sein 4 Die Bearbeiter m ssen Erfahrung in der Nutzung leistungsf higer Rechenanlagen haben Dies ist durch entsprechende Vorarbeiten nachzuweisen 5 Die Programme zur Bearbeitung der Aufgabe m ssen die spezifische Eigenschaft des Rechners in m glichst optimaler Weise nutzen Dies ist w hrend der Projektlaufzeit regelm ig zu berpr fen und die Ressourcen sind dementsprechend zu verteilen Dabei sollen vorbereitende Entwicklungsarbeiten kleinere abtrennbare Aufgabenteile und auch Auswertungen nach M glichkeit auf Rechnern geringe rer Leistungsf higkeit durchgef hrt werden 6 Den Bearbeitern m ssen die erforderlichen Spezialkenntnisse zur effektiven Nutzung der Rechner vermittelt werden 7 Die B
415. n Zentrums f r H chstleistungsrechnen entwickelte Seit Juli 2006 trafen sich die Leitungen der drei nationalen Rechenzentren HLRS Stuttgart NIC J lich LRZ regelm ig um ber Formen der Kooperation zu beraten F r den angestrebten engeren Verbund unter dem Namen Gau Zentrum f r Supercomputing bzw Gauss Centre for Supercomputing GCS wurde Prof Bachem J lich als erster Sprecher einvernehmlich gew hlt Am 1 Februar 2007 wurde ein Memorandum of Understanding zum Gauss Centre for Supercomputing unterzeichnet und im gemeinsamen GCS Webportal http www gauss centre eu ver ffentlicht Danach wurde eine Satzung f r einen gemeinn tzigen eingetragenen Verein Gauss Centre for Supercomputing GCS e V entwickelt Am 13 04 2007 wurde schlie lich dieser Verein mit Sitz in Berlin gegr ndet Die Gr ndungsmitglieder sind die Tr gerorganisationen der drei nationalen H chstleistungsrechenzentren ihre Leiter und ihre Lenkungsausschuss Beiratsvorsitzenden ber die Vereinsgr ndung und ihre Ziele wurde die interessierte ffentlichkeit am 14 Mai 2007 im Wissenschaftszentrum in Berlin durch GCS informiert Die Ziele und Aufgaben des Vereins k nnen wie folgt umrissen werden F rderung von Wissenschaft und Forschung durch Gewinnung von neuen technischen Erkenn tnissen und Erfahrungen auf dem Gebiet des wissenschaftlichen Supercomputing insbesonde re durch B ndelung der Supercomputer Ressourcen in den Bereich
416. n den jeweiligen rtlichen und systemtechnischen Gegebenheiten gesondert geregelt 6 Der Benutzer ist verpflichtet ein Vorhaben zur Bearbeitung personenbezogener Daten vor Beginn mit dem Systembetreiber abzustimmen Davon unber hrt sind die Verpflichtungen die sich aus Bestim mungen des Datenschutzgesetzes ergeben Dem Benutzer ist es untersagt f r andere Benutzer bestimmte Nachrichten zur Kenntnis zu nehmen und oder zu verwerten 7 Der Benutzer ist verpflichtet a die vom Systembetreiber zur Verf gung gestellten Leitf den zur Benutzung zu beachten b im Verkehr mit Rechnern und Netzen anderer Betreiber deren Benutzungs und Zugriffsrichtli nien einzuhalten 85 Aufgaben Rechte und Pflichten der Systembetreiber 1 Jeder Systembetreiber soll ber die erteilten Benutzungsberechtigungen eine Dokumentation f hren Die Unterlagen sind nach Auslaufen der Berechtigung mindestens zwei Jahre aufzubewahren 2 Der Systembetreiber tr gt in angemessener Weise insbesondere in Form regelm iger Stichproben zum Verhindern bzw Aufdecken von Missbrauch bei Hierf r ist er insbesondere dazu berechtigt 262 Teil III Anhang 3 a die Aktivit ten der Benutzer zu dokumentieren und auszuwerten soweit dies zu Zwecken der Ab rechnung der Ressourcenplanung der berwachung des Betriebes oder der Verfolgung von Feh lerf llen und Verst en gegen die Benutzungsrichtlinien sowie gesetzlichen Bestimmungen dient b bei Verdacht auf Vers
417. n entsenden ihre Mitglieder auf die Dauer von vier Jahren Wie derentsendung ist m glich 83 Organe der Kommission Die Kommission w hlt aus ihrer Mitte den St ndigen Sekret r der ihre Gesch fte f hrt Das Leibniz Rechenzentrum der Kommission hat ein Direktorium Es besteht aus einer von der Kommis sion festzusetzenden Anzahl von bis zu sechs Mitgliedern der Kommission Das Direktorium hat einen Vorsitzenden der einen eigens bezeichneten Lehrstuhl an einer M nchener Hochschule innehat Dem 256 Teil II Anhang 1 Direktorium muss ferner mindestens ein Lehrstuhlinhaber derjenigen Mtinchener Hochschule die nicht bereits den Vorsitzenden stellt angeh ren Die Kommission bestimmt den Vorsitzenden des Direktoriums im Einvernehmen mit der in Abs 2 Satz 3 bezeichneten M nchener Hochschule die ihn zur Berufung vorschl gt Er wird damit Mitglied der Kommission 2 Abs 1 Die Kommission w hlt aus ihrer Mitte die Mitglieder des Direktoriums auf eine von ihr zu bestimmende Dauer 84 Abgrenzung der Befugnisse Die Kommission gibt sich eine Gesch ftsordnung und ist zust ndig f r die Gesch ftsordnung des Leib niz Rechenzentrums Die Kommission setzt die Ziele des Leibniz Rechenzentrums im Rahmen dieser Satzung fest Sie stellt den Vorentwurf des Haushalts auf Im Rahmen der gesetzlichen und tariflichen Bestimmungen hat sie die Personalangelegenheiten der am Leibniz Rechenzentrum t tigen Beamten Angestellten und Arbeiter dem Pr
418. n ihrer Funktion zentral betrieben werden m ssen z B Mailgateway oder deren Betrieb dezentral nicht wirtschaft lich oder technisch nicht m glich ist z B Hochleistungsrechensysteme Datensicherung und Archi vierung e Unterst tzung und Beratung bei Fragestellungen der Informationsverarbeitung kompetenz zentrum Diesen aus der dezentralen DV Organisation entstehenden Aufgaben stehen jedoch in letzter Zeit in ganz Deutschland zunehmend auch W nsche an die Hochschulrechenzentren gegen ber die allgemein unter dem Begriff Rezentralisierung zusammengefasst werden k nnen Das LRZ untersucht zusammen mit den M nchner Hochschulen inwieweit und unter welchen Bedingungen solchen W nschen entgegenge kommen werden kann und welche Institutionen sich ihrer annehmen k nnten Beispiele f r solche W n sche sind e Verallgemeinerung der bereits bestehenden Datensicherungsdienste Backup Restore und Archivie rung und Verf gbarkeit eines allgemein zugreifbaren Datenspeichers e Zentrale berwachung des E Mail Verkehrs z B um unaufgeforderte Reklame Briefe Spams zu reduzieren und Viren auszuschlie en e Betrieb von E Mail und Webservern f r Hochschuleinrichtungen e Betrieb zentraler Verzeichnisdienste e Hosting von Rechnern d h die bernahme des zuverl ssigen Betriebs von Rechnern meist Ser vern die zwar zentral untergebracht sind um Raumbedarf Energie und Klimaversorgung abzude cken sowie ggf
419. n ist lassen sich die schnellen Rechner effektiv einsetzen Die Benutzer m ssen andererseits Verst ndnis daf r aufbringen dass die LRZ Beratung zwar helfen aber dem Benutzer nicht die Arbeit abnehmen kann 2 1 2 3 Netzanschluss und Netzberatung Von Benutzern beschaffte Ger te z B PCs Workstations oder ganze lokale Netze Institutsnetze k n nen an das M nchner Wissenschaftsnetz nur nach Absprache mit dem LRZ angeschlossen werden da gewisse Regeln z B IP Adressen Domainnamen eingehalten werden m ssen Neben dieser Koordinierungsaufgabe leistet das LRZ auch Hilfestellung beim Aufbau von Institutsnetzen und zwar durch Beratung bei der Auswahl der Netzkomponenten und Netzsoftware dar ber hinaus durch Vermessen der Verkabelungsstruktur und Mithilfe beim Installieren von Netzkomponenten Bei Bedarf kann eine Beratung ber die LRZ Hotline Tel 089 35831 8800 angemeldet und vereinbart werden Der Kontakt kann auch ber den Netzverantwortlichen im Institut mit dem Arealbetreuer am LRZ erfolgen siehe hierzu www rz de services netz arealbetreuer Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 17 2 1 2 4 Systemberatung Die verschiedenen Systemgruppen am LRZ unterst tzen Hochschulinstitutionen bei der Anbindung an und Nutzung von zentralen Infrastrukturdiensten sowie ggfs beim Aufbau eigener dezentraler Versor gungsstrukturen Termine dazu k nnen ber die Hotline vereinbart werden Solche Beratungsleistunge
420. n mathematischen Bibliotheken fokussiert sich das Interesse im Hochleistungsrechnen auf die MKL w hrend die IPP eher f r den Bereich Multimedia inter essant ist Im Bereich der Tools stehen f r die Analyse MPI paralleler Programme die Intel Tracing Tools zur Ver f gung die sehr ausgereift sind und neben Intels eigener MPI Version auch MPICH und damit Parastati on sowie SGI s MPT unterst tzen Die Funktionalit t der Threading Tools insbesondere zum Auffinden fehlerhafter paralleler Open MP Konstrukte hat sich gegen ber dem Vorjahr deutlich verbessert Das VTune Tool zur Einzelprozessor Optimierung von Programmen steht sowohl f r die Kommandozeile als auch mit grafischer Benutzeroberflache f r Itantum Systeme zur Verf gung 150 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme SGI stellt neben mehreren Kommandozeilen Tools zur Handhabung des NUMA Placement und zur Per formance Analyse auch ein graphisches Tool SpeedShop bereit das in seiner Inkarnation unter Linux als quelloffene Version OpenSpeedShop verf gbar ist Jedoch ist die Portierung auf Linux noch unvoll st ndig insbesondere die MPI Analyse ist noch nicht integriert F r Fehlersuche in Programmen steht ein gr eres Spektrum an Tools zur Verf gung Etnus Totalview gdb der Intel Debugger Allinea s DDT Auf den 32 bit sowie den EM64T Opteron Systemen gibt es au erdem das sehr n tzliche Tool Valgrind mit dem sich Profiling sehr
421. nExchange Gesunde Hochschule KMOS 2007 AFSM 2007 CLEO WOP Twistor Firmenkontaktgespr ch Vodafone DEISA eSA4 T3 meeting ifo Institut f r Wirtschaftsforschung 2007 IKOM 2007 MIB 2007 HP SUA 2007 Marketing Symposium 2007 Hinz 01743118300 ScicomP amp SP XXL 2007 ERA Chemistry Kick Off D MON Projekt SprachChancen Projekte 2007 Intel Multicore Training 2007 PIA Workshop Geant2 cNIS 25 09 28 09 01 10 05 10 02 10 12 10 03 10 05 10 04 10 06 10 04 10 05 10 05 10 06 10 05 10 06 10 05 10 06 10 07 10 07 10 08 10 09 10 08 10 09 10 08 10 09 10 09 10 12 10 10 10 12 10 12 10 14 10 17 10 20 10 17 10 19 10 18 10 18 10 19 10 23 10 24 10 24 10 24 10 26 10 25 10 25 10 02 11 04 1 06 11 07 1 08 11 09 1 09 11 10 1 14 11 15 1 14 11 14 1 15 11 16 1 16 11 18 1 19 11 21 1 24 11 25 1 26 11 29 0 28 11 29 1 29 11 29 1 29 11 30 1 30 11 30 1 03 12 05 12 03 12 04 12 04 12 04 12 04 12 04 12 06 12 06 12 11 12 13 12 17 12 19 12 GEWISOLA Veranstaltung Institut f r Marketing ASC Summer School SFB Begehung AGNP Kongress TIME Konferenz Klimaschutz durch Moorschutz Vegetations kologie Tagung Vegetations kologie ASC Sommerschule Naturwissenschaft entdecken 2007 Lehrerfortbildung ZLL IMAPS Jahrestagung des Vereins f r Sozialpolitik GACM Colloquium SPGM 2007 I Learning FUHagen Packet100 Projekt Kick Off Colubris Workshop M nchner Wissenschaftstage EURECA Meeting Technologieseminar Informat
422. naue Datens tze von syntheti schen Seismogrammen erzeugt werden die wertvolle Informationen f r Bauingenieure darstellen die erdbeben sichere Geb ude erstellen m chten F r andere Projekte ist das LRZ Execution Site aber nicht Home Site Dazu z hlen die Projekte COR COMPA Gyro3D GYROKINETICS HEAVY MOLSWITCH und SIMU LU Auch in 2007 hat das LRZ dem DEISA Projekt wieder Rechenzeit in signifikantem Umfang zur Verf gung gestellt Projekt Home Site Forschungsgebiet CPU h in 2007 LIAMS EPCC Molekulardynamik 9 341 HEAVY CINECA Fluiddynamik 436 545 GYROKINETICS RZG Plasmaphysik 99 072 SIMU LU BSC Kosmologie 137 111 SIN LRZ Fluiddynamik 61 331 SEISSOL LRZ Seismologie 769 230 BBH LRZ Astrophysik 1 204 542 Gyro3D RZG Plasmaphysik 124 230 Molswitch RZG Festk rperphysik 768 547 TRIPOD SARA Chemie 261 538 CORCOMPA EPCC Fluiddynamik 523 077 In 2007 wurde der dritte Aufruf zur Einreichung von DECI Projekten durchgef hrt Insgesamt wurden ber 60 Antr ge eingereicht ber das LRZ wurden sechs Antr ge eingereicht die auch genehmigt wur den 6 2 2 2 INCA INCA ist ein Framework f r vollautomatische Tests von Softwarestacks in Grid Umgebungen das am San Diego Supercomputing Center SDSC f r die US Grid Initiative TeraGrid entwickelt wurde INCA soll Funktionalit ten aus der Sicht des Benutzers testen es ist nicht gedacht als berwachungstool f r Systemdienste Zur Durchf hr
423. nd die vorhandene Infrastruktur f r die Authentisierung und Auto risierung der Nutzer zu verwenden Durch den Einsatz der neuen VPN Server wurde die verf gbare VPN Bandbeite von 850 MBit s auf 1 250 MBit s gesteigert Zugang f r Heimarbeitspl tze des LRZ Mitarbeiter m ssen die Ressourcen im LRZ w hrend ihrer Arbeit zu Hause nutzen k nnen Dazu erhalten sie einen VPN Router an den sie Rechner und IP Telefon am Heimarbeitsplatz anschlie en k nnen Der VPN Router ist so konfiguriert dass er automatisch eine Verbindung zum VPN Server im LRZ aufbaut ber diese Verbindung einen IPsec Tunnel mit 3DES Verschl sselung wird ein Subnetz mit der Sub netzmaske 255 255 255 248 geroutet Damit stehen sechs IP Adressen f r Router Rechner ggf Laptop und IP Telefon zur Verf gung Bei dem VPN Router handelt es sich um das Modell WRV54G von Link sys Das IP Telefon ist an der VoIP Telefonanlage des LRZ angeschlossen und so konfiguriert dass der Mitarbeiter am Heimarbeitsplatz ebenso erreichbar ist mit der gleichen Telefonnummer wie an seinem Arbeitsplatz am LRZ 206 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Technik Der VPN Dienst basiert auf einer Appliance vom Typ VPN Concentrator 3030 und vier Appliances vom Typ Adaptive Security Appliances 5540 der Firma Cisco Der VPN Concentrator dient in erster Linie fiir die Anbindung von externen Instituten tiber LAN to LAN Tunnel Die vier ASA Appliances
424. nd zentralen Einrichtungen Redundanzen in Technik Daten und Verantwortlichkeiten sollen vermindert die Qualit t der Versorgung verbessert werden IuK Dienste die alle Mitglieder der Hochschule ben tigen sollen also zentral zur Verf gung gestellt werden Das Projekt IntegraTUM ist in neun Teilprojekte gegliedert s Abbildung 12 Eingebettet und begleitet von organisatorischen Ma nahmen gliedern sich die Teilprojekte um den technischen Kern Verzeichnis dienst Der Verzeichnisdienst wird ber die Verwaltungs EDV mit Informationen ber Mitglieder und G ste der Hochschule versorgt Auf der linken Seite der Grafik finden sich die eher technisch orientierten auf der rechten Seite die fachlich ausgerichteten Teilprojekte F r die Teilprojekte Verzeichnisdienst Rezentralisierung E Mail und Zentraler Datenspeicher liegt die Leitung beim LRZ 2 13 3 1 1 Organisatorische Ma nahmen Das Teilprojekt Organisatorische Ma nahmen sorgt f r die Koordination des Gesamtprojekts Zu den Aufgaben geh ren neben der Steuerung des Change Management Prozesses die ffentlichkeitsarbeit die Koordination mit dem Datenschutzbeauftragten der TUM und die Unterst tzung des CIO Chief Informa tion Officer in allen IuK relevanten Belangen 2 13 3 1 2 Verzeichnisdienst Als zentrales technisches Teilprojekt hat das Projekt Verzeichnisdienst die Aufgabe eine Hochschul verzeichnisdienst Infrastruktur zu konzipieren und umzusetzen mit der aktuelle Informatione
425. ndortverteiler angebunden Hierzu wurden in der Vergangenheit anf nglich Mischkabel mit mindestens 8 Fasern multimode LWL Lichtwellenleiter und 4 Fasern monomode LWL verlegt In einer zweiten Runde wurde die Anzahl der Fasern auf 16 multimode und 8 monomode erh ht Mit der Verabschiedung des Standards f r 10 Gigabit Ethernet hat sich die not wendige Nutzung von Monomodefasern deutlich erh ht so dass bei Neuinstallationen genauso viele Mo nomode wie Multimode Fasern verlegt werden 7 1 2 Geb ude Netz In den Geb uden existiert berwiegend eine strukturierte Verkabelung bestehend aus Kupferkabeln Ka tegorie 5 6 TP oder Multimode Lichtwellenleiter Kabeln 50 1251 zu einem geringen Teil ist jedoch noch immer Ethernet Koax Kabel yellow cable verlegt Als aktive Komponenten zur Verbindung mit den Endger ten werden Level2 Switches eingesetzt Ab Oktober 2000 erfolgte nach einer l ngeren Auswahlphase der Einsatz von Switches der Firma HP wobei zurzeit vor allem Switches mit der Typenbezeichnung HP ProCurve 4000M 4104 bzw 4108 4204 bzw 4208 im Einsatz sind Diese Ger te sind modular aufgebaut und bieten ber einzubauende Schnitt stellenkarten Anschluss von bis zu 192 Ger ten Andere stackable HP Switches vom Typ 26xx und 25xx sind in kleineren Netzanschlussbereichen vom Typ 28xx 53xx und 54xx f r Serveranschl sse bei Insti tuten und im Rechnerw rfel des LRZ in Betrieb Im Oktober 2007 konnten die letzten vom LRZ betrieben
426. ne Netz die Campusnetze und eine Grundausbaustufe der Geb udenetze wurden im Rahmen einer zentralen Bauma nahme NIP bereitgestellt Erforderliche Erweiterungen der Geb udenetze m ssen gesondert in Zusammenarbeit von Benutzer Bauamt und LRZ als Bauma nahmen oder im Wege der Endger tebeschaffung beantragt werden Die f r die Netzanbindung von Endger ten erforderlichen Hardware und Software Komponenten hat der Benutzer in Abstimmung mit dem LRZ selbst zu beschaffen Ein Anschluss an das MWN darf nur nach vorheriger Abstimmung mit dem jeweiligen Netzverantwortlichen siehe 2 Absatz 2 und dem LRZ erfolgen Dies gilt auch f r nderungen an einem Anschlusspunkt Angeschlossen werden k nnen 266 Teil II Anhang 5 e Rechner direkt oder e selbst ndige Netze z B eines Instituts oder einer Fakult t ber eine segmentierende Netzwerk Komponente z B Switch Router Firewall Der Betrieb von W hlmodems bzw ISDN Anschl ssen von Funk LAN Zugangspunkten oder frei nutz baren Datensteckdosen mit Zugangsm glichkeiten zum MWN durch Fachbereiche Institute bedarf der Zustimmung des LRZ um MWN einheitliche Sicherheitsstandards und Abrechnungsgrundlagen sicher zustellen Beim Aufbau eigener Wireless Netze sind die Regeln f r den Betrieb von Institutseigenen Funk LANs einzuhalten Als bertragungsprotokoll ist IP festgelegt um die Komplexit t des MWN so gering wie m glich zu halten und Interkonnektivit t sicherzustellen Zus tzl
427. nehin recht gute Diensterbrin gungsqualit t am LRZ durch eine weitere Professionalisierung des Dienstmanagements noch zu verbes sern Dazu wurde der Beschluss gefasst mittelfristig eine institutionelle Zertifizierung nach ISO IEC 20000 anzustreben Hierf r wurde 2007 ein Arbeitskreis IT Servicemanagement eingerichtet der sich zun chst abteilungs bergreifend um ein einheitliches kontrolliertes Dokumentationskonzept f r alle Dienst und Betriebsprozesse k mmert Gleichzeitig wurde eine breite LRZ weite Ausbildung im Bereich IT Dienstprozesse ISO 20000 Foundations begonnen die jeweils mit einer Pr fung und pers nlicher T V Zertifizierung abschlie t An der Ausbildung haben inzwischen bereits ber 60 Mitarbeiterinnen und Mitarbeiter erfolgreich teilgenommen Als weitere Neuerung aus dem Jahr 2007 sollte im Vorwort noch Erw hnung finden dass das LRZ zum ersten Mal als Ausbildungsbetrieb auftritt Drei junge Auszubildende bereiten sich auf die Berufe Fachin formatiker Systemintegration und IT Systemelektroniker vor Auf viele oben genannte Punkte wird im vorliegenden Jahresbericht nat rlich noch ausf hrlicher einge gangen Ansonsten soll dieser Bericht wieder unsere Kunden insbesondere die M nchner Hochschulen unsere Finanzgeber und die interessierte Offentlichkeit informieren ber e das vielf ltige Aufgabenspektrum e die umfangreichen Aktivit ten und getroffenen Ma nahmen sowie e die Dienstangebote und Systeme am LRZ Wir
428. nennennennnnnn 171 6 4 Entwicklungen im Bereich der Datenhaltung 00000sssenseenseenseenneennnnnnn ee 172 GAM BELbHcK en nein a aA O E ORI 172 6 4 2 Archiv und Backupsystem ccccccccscesscesscsesceeeeeeseeeseeeseecseecsaecsaecaecesecnaeenseenas 173 0 43 Online Speicher ur rs in e e i 184 6 4 4 Betriebs berwachung 0 cccccesccsssceseceseceseceeeeeeeeeeeeeeseesseeeseecsaecsaecsaeensecnseenaeenes 189 7 Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes e sesssesesssesoessecsosse 193 7 1 Netz193 EAA Backbone N t irenda ania a aa te eaa Eaa AE ID 194 TEZ Geb ude Netz biaen stelle a a E A a Cinch E A 195 7 1 3 t RechenzentrumsnetZ anae enn rar edee E aa ei sei AE een 196 7 1 4 Wellenlngenmultiplexer ccc cecccsccessceseceesceeeceeseeeseeeseeeeecssecssecsecssecseeseenes 197 7 1 5 WLAN Wireless LAN ea nennen 199 7 1 6 Wesentliche Netz nderungen im Jahr 2007 ccccccccsseesseestecsteestecnecseenteeseeees 201 7 1 7 Netzausbau Verkabelung cccecccesccesscessceesceeeeeeeeeeseeeseeeaeecsaecsaecsaecnsecnseenaeenes 202 7 1 8 Anbindung Studentenwohnheime ssssesennsessensenneennnnsensennnsnennennnnn 203 PAA DNS E ENO ERTE I RE A EET imi EATE 205 7 2 1 W abhlZ gangsservef ienne a a a a a a a a aAa 205 7 2 2 VEN Sefver a 2 22 20 Res E T TE O tein are end 205 7 2 3 DFNRoaming und Eduroam eeeessssseesssesnsennnennnennneenneennennnennnnnnnnnnnn
429. ner HLRB II die Linux Cluster die Server des Backup und Archivsystems und die zahlreichen Server Systeme sind untereinander gr tenteils bereits mit 10 Gbit s mittels Switches verbunden Diese Netzstruktur der zentralen Rechner ist ber einen Router 10 Gbit s mit dem MWN Backbone verbunden e Im MWN wird das Protokoll TCP IP benutzt Weitere Einzelheiten ber das MWN sind im WWW www Irz de services netz beschrieben Das LRZ besitzt einen Anschluss von 10 Gbit s an das deutsche Wissenschaftsnetz WiN des Vereins Deutsches Forschungsnetz DFN der aus Kostengr nden auf die bertragungsrate von 5 432 Gbit s begrenzt ist ber diesen Anschluss l uft somit e der Datenverkehr zu allen Hochschulen au erhalb des eigentlichen LRZ Einzugsbereichs e der Datenverkehr zu allen im internationalen Internet zusammengeschlossenen Datennetzen Weitere Informationen zu TCP IP und zu den Internet Diensten finden sich unter www Irz de services netzdienste internet Das LRZ betreibt eine Anzahl von analogen und digitalen Telefonnetz Zug ngen Modemserver vom Typ Cisco AS5350 zum MWN Internet siehe Abschnitt 2 6 4 Ein Teil der W hlanschl sse werden von M net gef rdert Zum 1 2 2008 waren installiert 60 W hlanschl sse der Telekom 120 W hlanschl sse von M net Details zu den LRZ W hlanschl ssen derzeit verf gbare Rufnummern unterst tzte Modemtypen und Protokolle finden sich unter www Irz de services netzdienste modem
430. nes Botnets ber Stunden waren alle verf gbaren SMTP Verbindungen aus dem Internet be legt obwohl die Spam Rate nur bei 10 Millionen lag Zu diesem Zeitpunkt fanden wir keine Ursache f r dieses Ph nomen Am vorletzten Wochenende im Juli wurde von einem Botnet mit ca 50 000 Rechnern unser Greylisting zum ersten Mal in gro em Umfang ausgehebelt In drei Tagen kamen etwa 350 000 Spam Mails durch das Greylisting Da wir dies rechtzeitig bemerkten und da die Spam Mails einen sehr einfachen Aufbau hatten waren wir in der Lage sie zum gr ten Teil auszufiltern bevor sie den Nutzern zugestellt wurden Als Gegenma nahme wurde in das Greylisting zus tzlich eine Ablehnung von Verbindungen eingebaut wenn zur sendenden IP Adresse kein Reverse Mapping im DNS konfiguriert war und der Server sich damit nicht mit seinem Namen ausweisen konnte Dies stabilisierte die Situation wieder Durch diese Probleme war aber auch klar dass wir mit der momentan eingesetzten Mailrelay Software von Syntegra kaum weitere Mittel in der Hand hatten um uns gegen die Spammer zur Wehr zu setzen Es wurde daher beschlossen die Front Mailrelays zum Internet eine Teilkomponente der Mailrelays neu aufzusetzen und dabei die Open Source Software Postfix zu verwenden siehe n chsten Abschnitt Ende August kam es nicht nur bei uns zu einem massiven Problem mit h ngenbleibenden SMTP Verbindungen die erst nach einem Timeout abgebaut wurden Ausgel st wurde dies vermutl
431. ng hat Vorrang vor der im n chsten Punkt dargestellten Fristenregelung und schr nkt damit die Aufbewahrungsdauer von Dateien zus tzlich ein Das LRZ beh lt sich vor dieses Konzept im Bedarfsfall nach entsprechender Ank ndigung und Vorlaufzeit zu ndern Mit Ausnahme des automatisierten L schens inaktiver Nodes kann aus Datenschutzgr nden das L schen eines Nodes ausschlie lich durch den Ansprechpartner Node Inhaber erfolgen Aufbewahrungsdauer der Archivdaten W hrend der Lebensdauer eines Nodes siehe oben werden Archiv Dateien per Voreinstellung f r 10 Jahre aufbewahrt Nach Ablauf der 10 Jahre gerechnet vom Zeitpunkt der Archivierung werden die Da ten automatisch ohne vorherige R ckfrage gel scht Auf Anfrage kann diese Zeitspanne in besonderen begr ndeten F llen Langzeitarchivierung auch h her angesetzt werden Wenn die Aufbewahrung der Daten am LRZ nicht mehr gew hrleistet werden kann z B Einstellung des Archivierungsdienstes wird der Kunde fr hzeitig dar ber informiert um seine Daten gegebenenfalls aus dem Archivsystem holen zu k nnen Dies gilt vor allem f r verl ngerte Aufbewahrungszeiten im Bereich der Langzeitarchivierung gt 10 Jahre Das LRZ migriert die Archivdaten bei einem anstehenden Systemwechsel sowohl Hardware als auch Software auf das Nachfolgesystem wenn dies aus technischer Sicht m glich ist und vom Kunden ge w nscht wird Kopien der Archivdaten Von Archiv Dateien wird am LRZ per
432. ngen der Bibliothek der Ausbau des Bibliotheksportals und die Anbindung der Bibliotheks systeme an den zentralen Verzeichnisdienst 2 13 3 2 Die Rolle des LRZ in IntegraTUM Das LRZ ist innerhalb von IntegraTUM sowohl Projektpartner als auch Unterauftragnehmer Fiir den Produktivbetrieb ist es Dienstleister Die erarbeiteten technischen und organisatorischen L sungskonzep te und Prototypen m ssen betriebstauglich sein d h den Anforderungen hinsichtlich Verf gbarkeit Zu verl ssigkeit Sicherheit Reporting Skalierbarkeit Change Management Rollenfestlegung etc gen gen Neben der technisch verteilten Systeml sung interessiert insbesondere auch der Aspekt einer sauberen Spezifikation der organisatorischen Arbeitsteilung Prozessdefinitionen Workflows und der Dienst schnittstellen QoS SLAs im Sinne einer Outsourcing Situation Die besondere Rolle des LRZ als Dienstleister im M nchner Wissenschaftsnetz f r alle Hochschulen erfordert dass die L sungsans tze Vorbildcharakter haben Die L sungskonzeption muss im Grundsatz wieder verwendbar d h generisch sein Insbesondere muss sie in den Grundz gen z B auch f r die Ludwig Maximilians Universit t M nchen anpassbar sein damit das LRZ nicht doppelte L sungskon zepte und Infrastrukturen aufbauen und betreiben muss Vor diesem Hintergrund werden alle am LRZ verantworteten Teilprojekte von IntegraTUM bearbeitet Um die Anwender bei der Nutzung der zentralen IT Dien
433. nnnn 206 7 2 4 Unterst tzung von Veranstaltungen uneesseesseessennseenneenneennnennneennenne nennen 207 3 29 lnternel Zugan8 2 a a E sandeesassaaasteinnewen a E aA 209 7 2 6 Service Load Balancer SLB cccesccesssessesesceeeeeeeeeeseeeseeeaeecsaecaecsaeenseeneenseeeas 209 7 2 7 Proxies und Zeitschriftenzugang cccccceccsesceseeeeeceeeeeseeeeecseecssecseeneceeeeeeees 209 7 2 8 Domain Name System ora eeann aeei a E a NE EEEE Rai 210 1 2 9 DCP Serve rinses cit ved ae ienei i e i a ir ei dia 210 T210 Voiceover IP Vo P jorii AEREE en dees 211 721 SUP MG Im MWN MALEN DEINER 211 IS Managemen taaan a a a a a a anata A 212 7 3 1 Weiterentwicklung und Betrieb der Netzdokumentation nneeee 212 7 3 2 Netz und Dienstmanagement cccceeccesscessceeeeesseeeseeeseeeseecsaecsaecaeensecnseenaeenes 214 7 3 3 berwachung der Dienstqualit t des MWN mit InfoVista eeeeene 215 7 3 4 Action Request System ARS ccccsccesccssscseseseeeeeseeeseeeseeeseecseecsaecssecnseceeesaeenes 217 7 3 5 IT Service Management osion eona orean e E EEN EE Rai 218 PA Sicherheit he a ER ES A EAA EET E EAE 220 TAT NAFO MAT A RRSN raoun ene a a a a O a ai 220 TAZ Netzsicherheit e t peri ara pt er ae e a a ETE ES A 222 7 4 3 Accounting am X WiN Zugang uneeesesseesnnesnsennseenseennennennnnnenne nennen 223 7 44 Monitoring am X WIN ZUgang cccceccccccescsssceesceeseeeseeeseecseeessecssecseceeceeeseeses 224
434. nnnnnnnnnnnnsennsennse ernennen essen R umlichkeiten und ffnungszeiten u 3 3 1 Lage und Erreichbarkeit des LRZ scsenseenseenseesneenneeennennneenne nennen ne 3 32 hfnungszeiten a rasen 3 33 DAS ERZ Geb ude 2 2m este aed a epee ta rea E teens take 4 Hinweise zur Benutzung der Rechensysteme cossessnusssonsesnnssssnnnsnsnnesnnsnsnnnssnsnnnsnnnnennnnsssnnnenen 4 1 4 2 4 3 4 4 4 5 4 6 Teil II Vergabe von Kennungen ber Master User 00 cccceccccssseesseesseeseeeeeensecesecnseeeeeeeeeeneeeeneenaes Vergabe von Internet und PC Kennungen an Studenten eseenenenesennenn Datenschutzes ainn a a T a ae Schutzma nahmen gegen Missbrauch von Benutzer Kennungen cnenenen Datensicherung und Archivierung unssensensessensennenssennensennnnnnnennn sonne Projektverwaltung und kontrolle durch Master User ensenenensennensensennn Die Entwicklung des Dienstleistungsangebots der Ausstattung und des Betriebs im Jahr 2007 saussonsssesssonssnnssnnssnnssnnssnnnsnnnsnnnsnsnsnonssonnssnnssnnssnnssnnssnnssnnnsnnnee 5 Entwicklungen im Bereich Benutzernahe Dienste und Systeme soussonssonsssonssnnssnnssnnssnnnsnne 5 1 3 2 5 3 Be ratting und Hotline 2222er meines ap a A A A rende tee 5 1 1 Umfang und Art der LRZ Beratung csensenseenseenseensnennnenennnennnenne nennen ne 5 1 2 Einsatz studentischer Hilfskr f
435. nnvoll benutzt werden Aus diesem Grund unternimmt das LRZ gro e Anstrengungen auf dem Gebiet der Ausbildung Unterst tzung und Information seiner Benutzer Wir haben als zentrale Anlaufstelle f r alle DV Probleme der Hochschulangeh rigen die LRZ Hotline Tel 089 35831 8800 geschaffen die organisatorisch mit der Pr senzberatung allgemeine Benutzerberatung im LRZ Geb ude verbunden ist Kann die LRZ Hotline ein Problem nicht selbst l sen so sorgt sie daf r dass es den ent 16 Teil I Das Dienstleistungsangebot des LRZ sprechenden Fachleuten im LRZ zugeleitet wird oder sie vermittelt den Benutzer an einen anderen zu st ndigen Gespr chspartner Zur Unterst tzung dieser Aufgabe wird vom LRZ als Trouble Ticket Sys tem das Produkt Action Request System ARS der Fa Remedy einer Gesellschaft von BMC Soft ware eingesetzt Es dokumentiert von der Erfassung eines Problems bis zu seiner L sung die jeweils Zust ndigen und ihre Aktionen Zus tzliche Mechanismen dienen der Einhaltung gewisser Reaktionszei ten hinsichtlich der Bearbeitung 2 1 2 2 Pr senzberatung Einen breiten und wichtigen Raum nimmt am LRZ die individuelle Beratung der Benutzer ein Sie gibt generell Hilfestellung bei der Benutzung zentraler und dezentraler Rechner insbesondere bei Fragen zu Anwendersoftware bei der Bedienung von Spezialger ten und bei Schwierigkeiten mit dem Zugang ins M nchner Wissenschaftsnetz MWN Die ffnungszeiten der allgem
436. nsortium der f hrenden nationalen H chstleistungsrechenzentren in Europa und betreibt eine langfris tig angelegte verteilte Produktionsumgebung f r H chstleistungsrechnen im europ ischen Ma stab Der Zweck dieser derzeit in FP6 gef rderten Forschungs Infrastruktureinrichtung ist es wissenschaftliche Forschung in einem breiten Spektrum von Fachgebieten und Technikbereichen zu f rdern indem europ ische Kapazit ten im H chstleistungsrechnen verst rkt und erweitert werden Dies geschieht augenblick lich durch eine tief greifende Integration nationaler H chstleistungsplattformen die durch ein dediziertes europ isches H chstleistungsnetz mit Hilfe innovativer System und Grid Software eng vernetzt sind Das LRZ richtete gemeinsam mit dem MCSC Partner RZG das DEISA Symposium 2007 aus das in der M nchner Residenz stattfand ber 100 Teilnehmer befassten sich zwei Tage lang mit Petascale Compu ting in Europa Au erdem nahmen Vertreter des LRZ an DEISA Technical Meetings in Bologna Br ssel Paris und Stuttgart an DEISA Training Sessions in J lich und Helsinki sowie an zahlreichen DEISA Videokonferenzen teil und beteiligten sich aktiv an Diskussionen in ber 20 DEISA Mailinglisten Am LRZ wurde ein internationales Arbeitstreffen zum Thema Benchmarking ausgerichtet Im Rahmen von eDEISA leitete das LRZ die sub task eSA3 T2 Recent Middleware Developments Die neueste Version von Globus GT4 wurde auf Tauglichkeit f r den produktiven E
437. nstephan II Weihenstephan IV V ttinger Stra e Weihenstephan I Roncallicolleg KHG BLLV Wohnheim Stiftung Maximilianeum Kardinal Wendel Kolleg Studentenheim Paulinum Studentenheim Willi Graf Albertia Ottonia Erwinia Wohnheim Richard Wagner str 16 Hochschulhaus Garching Spanisches Kolleg Chiemgaustra e Am Anger I Am Anger II Wohnheim Stiftsbogen Priesterseminar St Johannes der T ufer Teil I Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Sauerbruchstra e Garching Jochbergweg 1 7 Garching Enzianstra e 1 3 Garching Unterer Strass cker 21 Garching T rkenstra e 58 Giggenhauser Str 25 85354 Freising Lange Point 1 35 85354 Freising Giggenhauserstra e 27 33 V ttinger Stra e 49 85354 Freising Nymphenburger Str 99 Cimbernstra e 68 Max Planck Str 1 Kaulbachstr 29a RambergstraBe 6 80799 M nchen Hiltenspergerstr 77 Gabelsbergerstr 24 Richard Wagnerstr 16 Kieferngartenstra e 12 Dachauerstra e 145 Traunsteiner Stra e 1 13 Unterer Anger 2 Unterer Anger 17 Schr felhofstra e 4 Georgenstra e 14 Studentenwerk Studentenwerk Studentenwerk Dominobau Studentenwerk Studentenwerk Studentenwerk Studentenwerk Studentenwerk Studentenwerk Roncalli Colleg Prof Fuchtmann Bayerischer Lehrer und Leh rerinnen verband BLLV Stiftung Maximilianeum Jesuiten Studentenwohn
438. nstruktionszeichnungen und Kartenmaterial e Flachbettscanner zum Erfassen von Bildern oder Durchsichtvorlagen bis zu einer Gr e von DIN A3 Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 51 e Farblaserdrucker zur preiswerten Farbausgabe im Format DIN A4 und DIN A3 ein oder doppelseitig e _Gro format Tintenstrahldrucker zur Erzeugung hochwertiger Farbausgabe Poster im Format bis DIN AO und berl nge auf unterschiedlichen Medien Die Drucker f r die Ausgabe von Gro formaten ben tigen eine fachkundige Bedienung Diese Ger te dienen haupts chlich der Erstellung von Postern die zur Darstellung von Forschungsresultaten auf Ta gungen bestimmt sind Allein f r diesen Service sind 1 Mitarbeiter des LRZ st ndig im Einsatz Dabei zeigt sich leider dass in einer gro en heterogenen Forschungslandschaft wie der der M nchener Univer sit ten die Anzahl der unterschiedlichen Anwendungssoftware zur Erstellung der Poster sehr gro ist Eine Normung auf einige wenige Pakete ist wegen der verschiedenen Anforderungen und Kenntnisse in den unterschiedlichen Fachgebieten nicht durchsetzbar Daher muss die Steuerung der Plotter wiederum viele unterschiedliche grafische Darstellungen zulassen und es kommen h ufig Problemf lle vor die eine eingehende Beratung erfordern Weitere Einzelheiten ber diese Ger te am LRZ finden Sie unter www rz de services peripherie 2 8 2 St tzpunktkonzept Die qualitativ hochwertige und f r
439. nten wurden im Jahr 2007 in Betrieb genommen Daneben wurden natiirlich die bisherigen Dienste weiter betrieben 5 5 5 1 Inbetriebnahme neuer Hardware und Software Wie in den Vorjahren berichtet ist im Jahre 2005 ein HBFG Antrag mit dem Titel Ersetzung und Aus bau der bestehenden Webdienste Struktur f r das M nchner Wissenschaftsnetz gestellt und im darauf folgenden Jahr genehmigt und hinsichtlich der Beschaffungen von Hardware und Software abgewickelt worden Seine Hardwarebasis n mlich 24 Linux Servermaschinen mit meist 4 Prozessoren wurde Ende 2006 beschafft und betriebssystemseitig installiert Diese Maschinen haben dann im Berichtsjahr die vor gesehenen Dienste 2007 bernommen indem zun chst die bisherigen Dienste auf der neuen Hardware und dem neuen System Linux bisher Solaris weitergef hrt werden danach werden dann die geplanten nderungen und Erweiterungen des Dienstangebots Zug um Zug in Betrieb gehen Folgende Komponen ten sind 2007 in Betrieb gegangen e Die Linux Server haben bis auf wenige Relikte die bisherigen Solaris Server abgel st Durch den Wechsel des Betriebssystems mussten beim LRZ selbst wie auch bei Kunden die Webauftritte ber das LRZ realisieren einige Skripte angepasst werden insgesamt ist das aber weitgehend reibungslos verlaufen e Die Suchmaschine Webinator der Fa Thunderstone wickelt die Suchanfragen f r 15 gehostete Such Indizes ab wobei jetzt die regul re Lizenz zum Einsatz kommt ni
440. nternet Berechtigungen u a Mail und W hlzugang erfolgt f r Studenten der Ludwig Maximilians Universit t M nchen und der Technischen Universit t M nchen durch die Universit ten selbst f r Studenten anderer Einrichtungen direkt durch das LRZ 2 Erg nzende Leitf den und Benutzungsordnungen 84 Absatz 7 Der Benutzer ist verpflichtet folgende Leitf den Richtlinien und Benutzungsordnungen zus tzlich zu beachten e Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes MWN e Leitfaden zu ethischen und rechtlichen Fragen der Softwarenutzung e Leitfaden zur verantwortungsvollen Nutzung von Datennetzen e Benutzungsordnung des DFN Vereins zum Betrieb des Wissenschaftsnetzes 3 Speicherung von Projektdaten 5 Absatz 1 Die Angaben die bei der Beantragung bzw Verl ngerung eines Projekts am LRZ gemacht werden sowie die anfallenden Verbrauchsdaten werden vom LRZ maschinell gespeichert und mindestens zwei Jahre lang aufbewahrt Alle im Rahmen eines Projekts von Benutzern auf Datentr gern des LRZ gespeicherten Daten k nnen vom LRZ 6 Monate nach Ablauf des Projekts gel scht werden 4 Geb hrenordnung 88 Absatz 1 F r die Nutzung von LRZ Systemen und die Nutzung des M nchner Hochschulnetzes k nnen Geb hren gem der Geb hrenordnung des Leibniz Rechenzentrums anfallen Die Geb hren richten sich nach der im Antrag auf ein Projekt festgelegten Aufgabengruppe F r Aufgaben aus dem Bereich einer nut zungsb
441. ntiert die die Teilprojektmitarbeiter und verwaltungsseitigen Ansprechpartner automatisch per E Mail auf po tentielle Konflikte und Qualit tsprobleme hinweisen Dadurch wird nicht nur erreicht dass m g licherweise inkorrekte Daten nicht mehr unbesehen an Zielsysteme weitergegeben werden son dern auch eine Verbesserung der Datenqualit t direkt in den Quellsystemen angesto en 114 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme e Mit der Alumni Verwaltung wurden erste Gespr che zur Lieferung von Daten ber ausgeschie dene Studenten und Mitarbeiter gef hrt diesbez glich sind insbesondere noch die Prozesse zu untersuchen ber die ein Alumnus sein Einverst ndnis zur Weitergabe seiner Daten an die Alumni Verwaltung geben kann Der Schwerpunkt der n chsten Projektphase wird wiederum die produktive Anbindung weiterer Zielsys teme sein f r die bereits einige Prototypen implementiert wurden 5 5 Netzdienste 5 5 1 Internet Der Zugang zum weltweiten Internet wird ber das Deutsche Wissenschaftsnetz WiN realisiert Im Jahr 2007 war das MWN mit 10 Gbit s am X WiN angeschlossen der aus Kostengr nden auf die bertra gungsrate von 2 285 ab 2008 5 432 Gbit s begrenzt ist Als Backup dient ein Anschluss mit 0 3 Gbit s ab 2008 1 Gbit s an M net Die monatliche Nutzung bertragene Datenmenge des WiN Anschlusses seit Juni 1996 zeigt das fol gende Bild WIiN Anschlu M nchner Wissenschaftsnetz monatlich
442. nux Cluster Server und Hochleistungsrechnen Benutzerbetreuung und verwaltung f r die Hochleistungsrechner und deren Verteilte Ressourcen Grid Computing Grid Middle ware nationale und internationale Grid Projekte 2 1 Arbeitsplatzrechner 2 2 Software 2 3 2 4 Datei und Speichersysteme AFS Archive und Ba ckup Server SAN NAS Ado Haarer Dr Helmut Richter Karl Weidner Dr Norbert Hartmannsgruber Dr Herbert Huber Dr Matthias Brehm Dr Helmut Heller Werner Baur 78 Teil I Infrastruktur des LRZ 3 Abteilung Kommunikationsnetze KOM Leitung Alfred L pple Vertreter Dr Helmut Reiser 3 1 Betrieb Kommunikationsnetze Betrieb des MWN Wolfgang Beyer DNS Remote Access Funk LAN VPN Proxy Server 3 2 Planung Kommunikationsnetze Planung und Dr Helmut Reiser Management des MWN Betrieb von Management Plattformen und Anwendungen Technologie und Produktevaluation Pilotprojekte 3 3 Wartung Kommunikationsnetze Betreuung von Ver Heinrich Glose netzungsma nahmen Inbetriebnahme neuer Netze Fehlerbehebung und Messarbeiten in Datennetzen 4 Abteilung Zentrale Dienste Leitung Dr Victor Apostolescu Vertreter Helmut Breinlinger 4 1 Verwaltung Hannelore Apel 4 2 Geba udemanagement Helmut Breinlinger 4 3 Offentlichkeitsarbeit Lizenzen Kurse Verwaltungs Dr Victor Apostolescu DV 4 4 Benutzersekretariat und DV Unterst tzung Chri
443. nzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente Grafik 1 Am LRZ Mit 10 Gbit 5 FSC 2 8 GB Immersive 3D Projektionstechnik im Visualisierungs Hoch selbst konfi E vernetzte Opteron 2400 MHZ Labor als Rechen Cluster fiir eine Holobench leistungs guriert AMD Opte Cluster ron Systeme Grafik Am LRZ Mit 10 Gbit 3 SGI VSS40 2 32 GB Immersive 3D Projektionstechnik im Visualisierungs Hoch selbst konfi E vernetzte Intel Xeon 5160 3 GHz Labor als Rechen Cluster f r eine Holobench leistungs guriert Intel Xeon Nvidia Quadro FX5600 Cluster Systeme mit Gsync Remote 1 SUN Fire Mit 10 Gbit 128 1 SUN Fire X4600 mit 4 16 128 GB Remote Visualisierung von umfangreichen Datensatzen Visualisie X4600 E vernetztes Nvidia Quadroplex rungssystem AMD Opte Einheiten mit insgesamt ron System 4 Quadro FX5500 Grafikkarten 4 Grid Rechner Anz Hersteller Typ Anz Prozes Hauptspeicher Aufgaben sorkerne 2 SUN X4100 2 8GB Grid Managementserver Unicore und Webserver 1 SUN X4100 2 16GB Grid Managementserver Monitoring 3 Dell PowerEdge 2450 2 256MB Testserver 3 Dell PowerEdge 1650 2 1GB Naregi Testserver 4 SUN X2200 M2 4 8GB Virtueller Trainingscluster vL ZAT Sop npyn ysegug I TOL 5 Server Benutzer und Mitarbeiter Arbeitsplatzrechner Anz Hersteller Typ Anz Proz Hauptspeich
444. oder Servicelandschaft zu erforschen und Fehler zu suchen son dern einen Komplettservice des LRZ einfordern Naturgem kann der LRZ Support aber lokale Proble me der Serviceverantwortlichen an Instituten oder der Studenten zu Hause weder analysieren noch l sen Die Anzahl der Zugriffe im Jahre 2007 verdeutlicht die folgende Grafik Es ist zu ber cksichtigen dass PC Clientsysteme oft mehrmals am Tag zugreifen Als jeweils ein Client werden auch sog Proxys ge z hlt die wiederum eine Weiterverteilung der Daten an ihre PC Clientsysteme erm glichen Die tats ch liche Zahl von Clients wird auf ca 15000 gesch tzt weiterf hrende Serviceinformationen siehe http www Irz de services security antivirus Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 131 suunausmnnssnuhsunnmansanundununnusmummnn bnnnnnnninsnndnnsaunnunmunchbsunnmnnnnnme 110 000 100 000 pian anian an an a nn ee aa rau aa Besucher eaa aaa u oe ne baaa aaa aaa aaa E es en T L E asm cs nm ako TNTA E I E ET TATA TS eee eee ee ee ee eee ETETETT ee ee ee un nn nn nn nenn 0 01 01 2007 01 03 2007 01 05 2007 01 07 2007 01 09 2007 01 11 2007 01 01 2008 Datum Abbildung 29 Anfragen an den Sophos Antivirenservice im Jahre 2007 5 8 2 2 Windows Software Update Service Als weiterer Basisservice f r das automatische Update von Windows Betriebssystemen Internet Explorer und Media Player wird der Windows Software Update Service WSUS als M
445. oft Corel und Adobelizenzen ber ein Online Formular auszuf hren Im Jahre 2007 wurde das Onli ne Bestellangebot um weitere Softwareprodukte erweitert Lizenzen f r das Literaturverwaltungsprog ramm EndNote und Lizenzen f r das aktuelle Betriebssystem der Fa Apple geh ren seitdem dazu Be reits seit der Verf gbarkeit der Betriebssystemversion Mac 10 4 Tiger war der Bezug ber das LRZ m glich Die Grundlage bildete eine Vereinbarung zwischen den Firmen Apple Cancom und dem LRZ Auch die aktuelle Betriebsystemversion Mac 10 5 Leopard kann gekoppelt mit dem Produkt IWorks g nstig bezogen werden Diese neuen Bestellm glichkeiten wurden von Kundenseite sehr positiv aufgenommen Es ist vorgesehen die Bestellung von Softwarelizenzen ber das Internet sukzessiv einem weiteren Kun denkreis insbesondere Einrichtungen der TUM und der LMU anzubieten Hier versprechen wir uns von der Nutzung von Meta Directory Strukturen die L sung der Frage der Berechtigungspr fung im Einzel Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 99 fall In einem ersten Schritt soll erreicht werden dass seitens der Leitungen der Institute Mitarbeiter und Vertretungen definiert werden die f r Softwarebestellungen f r das Institut berechtigt sind Dieser Pro zess der Erteilung der Berechtigung soll den Projektantr gen vergleichbar in definierten Zeitintervallen von z B einem Jahr erneuert werden m ssen 5 3 4 Online Beste
446. oftwareumgebung und die Administration der Rechner durch das jeweils gleiche Personal erfolgt und sich somit zahlreiche Synergieeffekte ergeben 2 3 1 6 Konsolidierung der Leistungspyramide unter Linux Bis 2005 war die Leistungspyramide am LRZ durch eine Vielzahl von Prozessortechnologien Pseudo Vektorprozessoren Vektorprozessoren RISC Prozessoren unterschiedliche Betriebssysteme und Prog rammierumgebungen gekennzeichnet Dies bot zwar den Anwendern die M glichkeit diejenige Archi tektur zu w hlen auf der ein gegebenes Programm optimal l uft f hrt aber zwangsl ufig zu einem h he Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 35 ren Personaleinsatz bei der Administration und Pflege der Systeme bei der Beratung der Anwender und bei der Dokumentation der Nutzung Seither ist es erfolgreich gelungen alle durch unter Linux betriebene Systeme zu ersetzen F r die Nach folge des H chstleistungsrechners SR8000 die 2006 au er Betrieb genommen wurde standen solche berlegungen zwar nicht im Vordergrund hier war die Entscheidung rein von der zu erwartenden Appli kationsleistung bestimmt Umso g nstiger war es dass auch hier die Enscheidung zugunsten eines unter Linux betriebenen Systems mit Intel Montecito Prozessoren fiel Die 128 fach bzw 256 fach SMP Rechner SGI Altix und das 67 Knoten IA64 MPP System sind voll in das Linux Cluster integriert Der H chstleistungsrechner wird dagegen als eigenst ndiger Rechner rein
447. ojekte durchgef hrten Arbeiten ausf hrlicher 6 2 1 D Grid F rderung e Science und vernetztes Wissensmanagement des BMBF In Deutschland hat insbesondere die D Grid Initiative die Auswirkungen der neuen Technologie Grid auf das wissenschaftliche Arbeiten thematisiert und ein entsprechendes Forschungs und Entwicklungs programm vorgeschlagen D Grid hat es sich zum Ziel gesetzt alle Grid Aktivit ten in Deutschland zu b ndeln um so intern Syn ergieeffekte auszun tzen und nach au en mit einer einheitlichen Stimme sprechen zu k nnen Die vom BMBF f r den Zeitraum von 2005 bis 2008 mit 20 Mio EURO gef rderte D Grid Initiative will in Deutschland eine e Science Kultur hnlich der beraus erfolgreichen britischen e science initiative auf bauen Im Rahmen von D Grid nahm das LRZ 2007 an mehr als 20 Workshops und Treffen teil und rich tete selbst ein Kern D Grid Arbeitstreffen aus Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 157 D Grid e Science Framework Communities als VOs e Science Simulation N gt Experiment Anwendung i rc ae Resourcesharing Services ter gq Datensharing Middleware gt Ressourcen Netze G WiN virtuelle Netze Rechner Programme Gro ger te Datenarchive Abbildung 42 D Grid Framework Als Rechenzentrum war das LRZ nat rlich vorrangig am so genannten Integrationsprojekt beteiligt auf grund langj hriger guter Kontakte zu HPC Benutzern aus der
448. ommen Der Kunde l scht oder veranlasst die L schung von Daten und Nodes die nicht mehr ben tigt werden Werden die Daten verschl sselt liegt die Verwahrung und Verwaltung des Schl ssels alleinig beim Kunden Bei Verlust des Schl ssels ist eine Dechiffrierung nicht mehr m glich Bei der Anmeldung eines Nodes wird eine Absch tzung der zu erwartenden Datenmenge ver langt Gr ere sp tere nderungen im zu speichernden Datenumfang m ssen via E Mail abs admin AT lrz muenchen de rechtzeitig mitgeteilt werden Ein Wechsel des Node Inhabers bzw nderungen bei den zus tzlichen Ansprechpartnern sind dem LRZ fr hzeitig vor Verwaisung des Nodes mitzuteilen abs admin_AT_Irz muenchen de Anderenfalls kann dies zu Unregelm igkeiten im Betrieb des Nodes f hren da z B das Zur ck setzen des Passwortes aus Datenschutzgr nden nur durch die eingetragenen Node Inhaber veran lasst werden kann Punkt 8 Der Kunde ist f r den ordnungsgem en Betrieb seines TSM Clients selbst verantwortlich Das LRZ beh lt sich vor s mtliche Kosten die durch einen nicht ordnungsgem en Betrieb eines TSM Clients entstehen dem Kunden in vollem Umfang in Rechnung zu stellen Zu einem ord nungsgem en Betrieb geh ren insbesondere der Einsatz einer von IBM TSM unterst tzten Kon figuration und die Beachtung der Informationen aus dem TSM Benutzerhandbuch sowie der Re lease Notes Der Kunde verpflichtet sich den Backup und Archivdienst
449. on Cores zum Anderen seit August 2007 eine Maschine vom Typ SGI Altix 4700 rechter Bildteil unten mit 256 Montecito Cores Beide sind sogenannte ccNuma cache coherent non uniform memory access Systeme deren Prozessoren jeweils ber ein Hochgeschwindigkeits Netzwerk vom Typ NUMALink4 gekoppelt sind Damit stehen zwei getrennte Single System Image Distributed Shared Memory Systeme zur Verf gung die sowohl MPI als auch OpenMP Programmiermodelle unterst tzen 32 Teil I Das Dienstleistungsangebot des LRZ Technische Daten e 128 Prozessoren vom Typ Itanium2 Madison mit 1 6 GHz Taktfrequenz 6 MByte L3 Cache und 6 4 Gigaflop s Spitzenleistung pro Prozessor bzw 128 Dual Core Prozessoren vom Typ Ita nium2 Montecito mit 1 6 GHz Taktfrequenz 9 MByte L3 Cache und 6 4 Gigaflop s Spitzenleis tung pro Core e Spitzenleistung des Gesamtsystems 2457 Gigaflop e 512 bzw 1024 Gigabyte Hauptspeicher als Distributed Shared Memory Peak Bandbreite zum lokalen Speicher 6 4 bzw 8 5 Gigabyte s e ca 11 bzw 7 Terabyte lokaler Plattenplatz FC RAID Disk Subsystem Peak Bandbreite ca 1 6 Gigabyte s e ca 51 Terabyte gemeinsamer Plattenplatz FC RAID Disk Subsysteme und Lustre als paralleles Dateisystem Bandbreite ca 2 0 Gigabyte s e die Systeme sind in 2 Compute Racks und 1 Disk Rack bzw 4 Compute Racks und 1 Disk Rack aufgestellt Charakteristik und Anwendungsgebiete e Hochleistungsdurchsatzmaschine f r komplexe parallele Anwendungen
450. on Linux e Datenbanken e _ Internet Nutzung e Textverarbeitung e Tabellenkalkulation e Statistik 18 Teil I Das Dienstleistungsangebot des LRZ e Graphikbearbeitung e Nutzung der Hochleistungssysteme e System und Netzsicherheit Programmierkurse im engeren Sinn werden vom LRZ blicherweise nur im Hochleistungsrechnen ange boten Ansonsten wird auf das umfangreiche Vorlesungs und Ubungsangebot der Universit ten und Fachhochschulen verwiesen Zus tzlich werden Veranstaltungen zu speziellen Themen abgehalten z B Firmenpr sentationen Work shops die sich an erfahrene Benutzer oder an Benutzer mit ganz bestimmten Interessen wenden Kurse wie auch sonstige Veranstaltungen werden ber das WWW angek ndigt Soweit m glich werden auch die Kursunterlagen ber das WWW bereitgestellt Au erdem besteht f r interessierte Personen und Gruppen im Rahmen von Einf hrungsvortr gen und F hrungen die M glichkeit das LRZ mit seinen Einrichtungen und Dienstleistungen n her kennen zu lernen 2 2 Planung und Bereitstellung des Kommunikationsnetzes Das vom LRZ betriebene Kommunikationsnetz das M nchner Wissenschaftsnetz MWN bietet den angeschlossenen Rechnern vom PC bis zum Gro rechner vielf ltige Kommunikationsm glichkeiten sowohl untereinander als auch mit externen Systemen Mit dem Internet ist das MWN ber das Deutsche Wissenschaftsnetz WiN und im Back up Fall ber M net verbunden Das M nchner Wissenschaftsnet
451. on Personendaten in mehrere Zielsysteme wurde der urspr ng lich untersch tzte Bedarf an Werkzeugen zur Verwaltung von Gruppen und Rollen sehr deutlich F r die Gruppenadministration wurde ein dedizierter Verzeichnisdienst konzipiert und prototy pisch implementiert der insbesondere eine sehr restriktive Vergabe von Berechtigungen erm g licht beispielsweise kann zwischen Administratoren die Gruppenmitglieder pflegen und sol chen die Gruppenmitglieder nur lesen k nnen auf verschiedenen Hierarchieebenen Fakult ten Lehrst hle unterschieden werden wobei Berechtigungen auch delegiert werden k nnen Diese Backend L sung f r die nun noch ein geeignetes Web Frontend zu entwickeln ist steht ebenfalls als Open Source zur Verf gung und wurde anderen Hochschulen demonstriert e Die Provisionierung der Zielsysteme Microsoft Active Directory Microsoft Exchange und OpenLDAP wurde implementiert getestet und in Produktionsbetrieb berf hrt Die Anbindungen der Zielsysteme im c Clix und SISIS SunRise wurde implementiert und befindet sich in der Test phase dabei wurden insbesondere zusammen mit Teilprojekt Bibliothek auch intensive Gespr che mit dem Softwarehersteller gef hrt um verbesserte Schnittstellen zur nahtlosen Verzeichnis dienst Integration zu schaffen e Nachdem die Kennungen zentral ausgegeben und die ersten Zielsysteme damit versorgt werden hat sich die Anzahl von Benutzeranfragen zur Nutzung der Kennung in verschiedenen
452. on TSM TSM ist zur Zeit die ausge reifteste am besten skalierende und g nstigste Datensicherungsplattform f r gro e heterogene Umgebun gen Trotz einiger technischer Vorteile anderer Produkte berwiegen bei diesen die Nachteile im Ver gleich zu TSM Der enorme Aufwand einer Verlagerung weg von TSM w rde Jahre in Anspruch nehmen und sehr hohe finanzielle und personelle Kosten verursachen 184 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 6 4 3 Online Speicher Wie in fast allen gro en Rechenzentren wird am LRZ je nach Einsatzgebiet sowohl SAN als auch NAS als Speicherarchitektur genutzt visuali compute printer afs zation server server clients Mailserver HLRB Il tsm tcpip local area network gigabit ethernet p lt gt u u NAS filer tivoli storage manager tsm servers library manager storage area network core edge technology 6 switches directors 384 ports NetAPP FAS6070C NetAPP FAS3050C R200 6070 SATA 36 95 TB mass storage capacity 552 TB on disks 3 294 TB on cartridges uncompressed Abbildung 65 Speicherarchitektur 6 4 3 1 Plattenspeicher im SAN Das Storage Area Netzwerk SAN des LRZ bildet die Grundlage f r die Vernetzung der Massenspei cherkomponenten Das urspr ngliche SAN dessen Anf nge auf das Jahr
453. oomla Typo3 Diskussionsforen etc setzen des Weiteren MySQL als Datenbankserver voraus F r beide Datenbankl sungen steht die Anbindung an virtuelle Webserver am LRZ ber PHP und Perl zur Verf gung au erdem phpMyAdmin als Administrationswerkzeug f r MySQL Datenbanken Am Jahresende 2007 betrieb das LRZ 5 Instanzen von MySQL 4x MySQL 4 1 und 1x MySQL 5 die etwa 250 GByte Daten verwalten Damit werden unter anderem ca 150 virtuelle Webserver versorgt Dar ber hinaus finden die MySQL Services hausintern in 25 Projekten intensiven Gebrauch Auch die Performan cedaten des HLRB II werden in einer MySQL Datenbank gespeichert und dadurch konsolidiert im Inter net angezeigt Der MySQL Datenbankserver verarbeitet derzeit permanent ca 250 Anfragen aus dem Netz pro Sekunde Der hausinterne Oracle Datenbankserver der Version Oracle9i l uft unter Sun Solaris 64 Bit Die MySQL Datenbankserver laufen auf Intel basierten Systemen unter SuSE Linux Enterprise Server Die Oracle9i Datenbankinstanz erlaubt den am LRZ betriebenen virtuellen Servern eine dynamische Anbin dung von Datenbankinhalten mit internationalen Zeichens tzen Diverse am LRZ gehostete virtuelle Webserver nutzen Microsoft Technologien um Datenbankinhalte dynamisch an das Internet anzubinden Daf r steht ein Windows Server mit Internet Information Server 126 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme IS 6 0 um Microsoft Access Datenbanken dynamisch als
454. or eine VPN Verbindung aufgebaut werden Was im Einzelnen zu tun ist erf hrt man auf der Webseite www Irz de services security antivirus 50 Teil I Das Dienstleistungsangebot des LRZ 2 7 3 Zertifizierung von Serverrechnern nach X 509 Eine Sicherheitsma nahme die Betreiber von Servern etwa von WWW Servern oder von E Mail Servern mit POP oder IMAP ergreifen k nnen ist die optionale Verschl sselung von Zugriffen mittels Public Key Verfahren durch das Protokoll SSL Der ffentlich zug ngliche Teil des vom Server benutz ten kryptografischen Schl ssels wird dabei durch ein sogenanntes Zertifikat beglaubigt also mit dem Namen des Servers in nicht f lschbarer Weise verkn pft Mit einem solchen Zertifikat kann ein Server system seine Identit t gegen ber den Zugreifern nachweisen au erdem ist die Existenz des Zertifikats eine Voraussetzung f r verschl sselten Datenaustausch mit dem Server auch dann wenn von der Schl s selbeglaubigung durch das Zertifikat gar kein Gebrauch gemacht wird F r WWW Server die vertrauli che Information wie Passw rter entgegennehmen sollen und f r E Mail Server bei denen die bermittelte Information eigentlich immer vertraulich ist sollte der Einsatz dieser Technik mindestens f r die Ver schl sselung der Daten m glichst auch f r die berpr fung der Authentizit t des Servers Standard sein Die Echtheit des Zertifikats wird wiederum mit denselben Mitteln gew hrleistet die kryptografische
455. oren Silkworm48000 e 2 Storage Servern STK FLX380 mit 88 Terabyte FCAL Platten e und einer Tape Library STK SL8500 mit 4000 Kassetten Stellplatzen mit 16 STK Til0000A Laufwerken Auf dem System laufen 16 TSM Serverinstanzen mit einer aggregierten I O Bandbreite von 2 Gigabyte s siehe Abbildung 55 Dieser Teil des ABS steht prim r den Kunden mit hohen Leistungsanforderungen zur Verf gung Ein im Hinblick auf die Performance besonders optimierter Teil von HABS besteht aus 2 Sunfure X4200m2 Server und je einer TSM Server Instanz mit speziell konfigurierten Platten Er dient der Archivierung der Daten des HLRB2 Supercomputer Jeder dieser Server erreicht Transferraten von bis zu 480 MB Sek bei der Archivierung unter TSM D h den HLRB2 Nutzern steht ein Archivsystem mit einer aggregierten Bandbreite von fast 1 Gigabyte s zur Verf gung Die hohe Bandbreite ist durch sehr spezielle und aufwendige Untersuchungen und Tuning Ma nahmen erreicht geworden LTO Archiv und Backupsystem LABS Das LTO Archiv und Backupsystem LABS steht Nutzer mit etwas moderateren Leistungsanforderungen zur Verf gung Es besteht aus e 18 Servern IBM X Series X346 e 4FC Switches Silkworm 3900 e 5 Storage Servern IBM FastT900 alias DS4500 mit insgesamt 95 Terabyte FCAL und SATA Platten e 2 IBM 3584 alias TS3500 Tape Libraries mit je 12 Frames und je 5000 Kassetten Stellpl tzen sowie je 20 IBM LTO2 Laufwerken Auf diesem System laufen 21 TSM Server Instanzen Ja
456. oring Da dies ein statistisches Verfahren ist siehe Abschnitt Monitoring am X WiN Zugang wird mittel fristig das Accounting auf der Basis der Netflow Informationen durchgef hrt werden Es folgt eine Tabel le mit den aktivsten Subnetzen Hochschule Institution Zweck IKZ Total Giga Total Bytes en Bytes In GigaBytes Bytes Out Subnetz Bytes Yo Yo Out 138 246 7 LRZ NAT Pool 43212 0422 36 4194 31934 2211 48 2129 11277 8211 21 2879 141 84 69 St WH Freimann KNO3 20246 1794 17 0636 9980 1921 15 0676 10265 9873 19 3780 129 187 254 LRZ DMZ A282 5109 9849 4 3067 2162 3183 3 2646 2947 6666 5 5640 131 159 0 TUM Informatik T120 3350 7216 2 8240 1206 5743 1 8216 2144 1472 4 0473 224 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 141 40 43 TUM ServerWeihenstephan T 32935764 2 7758 1113 5837 1 6812 2179 9927 4 1149 138 245 0 LMU Med Gro hadern U7X0 23023046 2 0163 1380 3963 2 0841 1011 9083 1 9101 129 187 14 LRZ Server A282 2075 8616 1 795 696 3084 1 0513 1379 5532 2 6040 129 187 43 ST WH ie Studentenwohn g assz anna 1188 3560 1 7941 367 3827 0 6935 141 39 240 FH M nchen eooo 1458 4255 1 2292 499 9433 0 7548 9584821 1 8092 129 187 19 LRZ Transportnetze la2s2 920 1278 0 7755 727 3168 10081 192 8109 0 3639 141 39 128 TUM Klinikum rechts der Isar TBOX 865 7417 0 297 601 8467 0086 263 8051 0 4981 129 187 41 TUM VPN Server ir 6208
457. orschungsnetze National Research and Education Network NREN wie z B dem X WiN sowie dem europ ischen Verbundnetz Geant2 Diese Netze werden direkt auf Glasfasern bzw Wellen l ngen als so genannte Optical Private Networks OPN aufgebaut Das DEISA Netz wurde im Jahr 2007 auch konsolidiert In der Vergangenheit waren die deutschen Part ner ber eine Netzkomponente des DFN und dann ber eine optische Verbindung mit einer Netzkompo nente von Geant2 verbunden an der wiederum alle anderen Partner angebunden waren vgl auch Jahres bericht 2006 Dieser Doppelstern wurde nun durch einen zentralen Knotenpunkt in Frankfurt mit einem zentralen DEISA Switch an den alle Partner angebunden sind ersetzt Die folgende Abbildung stellt die neue Netzstruktur dar Dedicated 10 Gb s wavelength 1 Gb s GRE Tunnel Abbildung 93 DEISA Netzstruktur 7 6 1 G ant2 E2E Link Monitoring Geant2 ist eine Weiterentwicklung des europ ischen Wissenschaftsnetzes das ca 30 nationale Wissen schaftsnetze verbindet Neben klassischen IP Verbindungen k nnen im Rahmen des G ant2 Verbundes auch End to End E2E Links eingerichtet werden Ein E2E Link ist eine dedizierte optische Multi Gigabit Verbindung zwischen zwei wissenschaftlichen Einrichtungen Endpunkte die sich im Allgemeinfall in unterschiedlichen L ndern befinden Die End punkte sind zun chst an die jeweiligen NRENs angebunden die wiederum ber G ant2 oder in Ausnah mef llen auch direkt
458. os WLAN nach IEEE 802 11b g m glich Die Realisierbarkeit h ngt aber von der vorhandenen Infrastruktur ab nicht in allen Geb uden und R umen ist eine solche M glichkeit gegeben Der Zugang wird seit 2006 bevorzugt per WLAN zur Verf gung gestellt Der Netzname SSID ist dabei con er kann seit September 2005 auch von den meisten Access Points im MWN ausgestrahlt werden Es wird keine WEP Verschl sselung verwendet um Probleme mit der Weitergabe und Einstellung der Schl ssel zu vermeiden 2007 wurden 125 21 gegen ber Vorjahr Veranstaltungen unterst tzt Datum Veranstaltung Datum Veranstaltung 05 01 06 01 FCHO Workshop 30 07 30 07 MEOW 2007 11 01 12 01 Prolehre 12 08 17 08 9th EMU Sommerschule 17 01 17 01 SGI Journalist 14 08 14 08 InfoWAN 26 01 27 01 Duel 2007 26 08 29 08 TSFP5 31 01 02 02 Software Workshop Physik 29 08 02 09 ESVP 13 02 14 02 GRACE Project Meeting 06 09 09 09 ESVOT Tagung 14 02 14 02 Storage Consortium 08 09 12 09 Dreil ndertagung f r Angiologie 14 02 15 02 Forum Life Science 2007 0 09 13 09 Flugsaurier 14 02 15 02 DEISA Applications Meeting 0 09 14 09 ESSCIR 21 02 23 02 Perl Workshop 2007 3 09 14 09 GI ITG Fachtagung Ortsbasierte Dienste 23 02 24 02 Journalismus online Partizipation oder Profession 7 09 19 09 Microswim 23 02 25 02 World of Photonics Congress Meetings 7 09 21 09 Lineare Gleichungsl ser 26 02 27 02 European Grid Initiative 8 09 19 09 Kollogium Wildemann 26 02 03 03 REW
459. ots Capacity 1770 TB 364 disks 96 disks cartridges 3541 uncompressd total capacity 88 TB 19 TB Abbildung 55 HABS Hochleistungsarchiv und Backupsystem 2007 176 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme LABS LTO Archiv und Backupsystem 2006 Bandkapazit t 1320 TB 6600 LTO II Cartridges Bandlaufwerke 40 x LTO II Plattenkapazit t 32 TB FCAL 63 TB SATA Router MWN II 10 Gbit GE Switch HP 3448CL 48 Gbit Ports M nchner Wissenschaftsnetz 36 x Gbit Ethernet 18 x IBM xSeries dual processors 2 x XEON 3 0 GHz 4 GB Memory 3 x FC 2 Gbit 2 x GE port trunking XEON dual cpu SLES 8 kernel 2 4 21 295 S11 34 TSM server 5 3 54 x 2 Gbit FC Storage Area Network 2 GBit FC Switch 32 Port 2 GBit FC Switch 32 Port 2 GBit FC Switch 32 Port 2 GBit FC Switch 32 Port 40 x 2 Gbit FC 20 x 2 Gbit FC 5044 slots 3055 cartridges IBM DS4500 IBM DS4500 available capacity FC AL FC AL IBM TS 3500 tape library 611 terabytes 20 fc tape drives LTO Il 5056 slots IBM DS4500 IBM DS4500 IBM DS4500 4568 cartridges SATA SATA SATA available capacity 21 TB 21 TB 21 TB IBM TS 3500 tape library 913 terabytes 20 fc tape drives LTO Il 490 disks total capacity 95 terabytes Total library capacity 1324 terabytes Abbildung 56 LABS LTO Archiv und Backupsystem 2007 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 177 Daten und Archivraum
460. ots haben Benutzer eine einfache Datensiche 34 Teil I Das Dienstleistungsangebot des LRZ rung mit der sie auf altere Versionen der Dateisysteme zur ckgreifen und selbst Dateien wiederherstellen k nnen F r Zwischenergebnisse von Berechnungen steht ein 51 Terabyte grosses Speichersystem mit 8 Servern und einer Bandbreite von bis zu 2000 MB s zur Verf gung Das bereits 2005 am LRZ eingef hrte Open Source Dateisystem Lustre hat in 2007 mit der Version 1 6 nochmals zahlreiche Verbesserungen erfahren und verh lt sich im t glichen Betrieb mit hunderten von Rechnerknoten stabil Damit wurde Lustre zum Standard Dateisystem f r alle tempor ren Daten im Cluster Zus tzlich wurden auch die beiden Altix Systeme angeschlossen Die hohe Auslastung des Lustre Dateisystems zeigt deutlich die Notwendigkeit eines anstehenden Ausbaus in 2008 Lustre 1 4 G a ALAA EAT Y AC NN M 0 04 Apr May Jul Aug E Lesen W Schreiben lov ec Abbildung9 Lustre E A Lastdiagramm von Juni 2006 bis November 2007 Aufgetragen ist jeweils die f r Lese und Schreibvorg nge genutzte E A Bandbreite in Gigabyte s 2 3 1 5 Gegen berstellung der verschiedenen Hochleistungsrechner am LRZ Zwischen dem Bundesh chstleistungsrechner Altix 4700 HLRB I und dem IA64 Cluster existieren zwei grundlegende Unterschiede hinsichtlich des m glichen Nutzungsprofils e Der HLRB II darf nur von Projektgruppen genutzt werden die schon ber erhebliche Erfahrung im
461. ovationspotentials ihrer wissenschaftlichen G te und ihrer Rele vanz f r das Forschungsgebiet von den lokalen Begutachtungsgremien bewertet und danach vom DEISA Executive Commitee einem Ranking unterzogen In allen beteiligten Rechenzentren wurde eine ApplicationTask Force gebildet die diese Projekte identifi ziert und anschlie end die Benutzer bei ihren Projekten unterst tzt Aus dem Bereich des LRZ wurden f r 2007 drei Projekte eingereicht die auch genehmigt und in Folge realisiert wurden BBH Binary Black Holes Astrophysik Der Astrophysikcode bam Prof Br gmann Universit t Jena ist Teil des SFB Transregio 7 Gravitati onswellenastronomie und dem LRZ bereits aus der intensiven Optimierungsoffensive des LRZ bestens bekannt Im Jahr 2006 wurde die Einzelprozessorperformanz des Codes im Rahmen dieser Initiative be reits verbessert Im Rahmen der Deisa Extreme Computing Initiative wurden dem Team aus Jena 3 Mo nate enabling Work zugestanden die zur Skalierung des Codes auf bis zu 128 Prozessoren im Jahr 2007 verwendet wurde 160 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme ICAROS Innovative Chemical Assimilation of Remote Sensing Observations of the Stratosphere Geowissenschaften Der im Rahmen des BMBF Projekts entwickelte Code SACADA Synoptic Analysis of Chemical Consti tuentsbyAdvancedData Assimilation wurde von Dr Frank Bayer vom Deutschen Zentrum f r Luft und Raumfahr
462. pazit t ueeesseesseesseessennnennneennennnensnnennnennnnnnsennnnennennne ons ennn nenn 22 2 3 1 Bereitstellung von Hochleistungsrechenkapazit t ueseenseesseenseeenneenneeenneennnnnnn 24 2 3 2 Arbeitsplatzsysteme PCs unersessseeeneesnesnnsnnennnnnnnnennnennneennenneennennennannnnnnnn 36 2 3 3 Workstations zur allgemeinen Verwendung ssenenneeeeseeenneennneennnnnnnnn 37 2 4 Datenhaltung und Datensicherung uu usssenseenseennneenneennennnennnnnnnnennnnnnsennsn esse ense ons ennn nenn 37 2 4 1 Zugriff auf gemeinsame Daten unnsssessessnsnneensennneennennnensnnnnnnne nennen 38 2 4 2 Archiv und Backupsystem uesseesssessseesnenennesnnennennnnnnnennnensennnennennnnnnnnnnnnn 40 2 4 3 Lean ZertarChivieruin gy cc eines a e E Bekan n A 41 2 5 Software Angebot aiten it a a a a aana aa aae aa 42 2 5 1 Programmangebot auf LRZ Rechnern usnnsenssennsennennnnnnennne nennen 42 2 5 2 Programmangebot f r Nicht LRZ Rechner Campus Vertr ge uneneen 43 2 6 Netz Dienste un 2en se venta ocd Sadek ak ed a ereineehpsneirent 43 2 6 1 WWW Zope und Suchmaschinen cccecceeccescsescesseeeseeeseeeseeeeeceecsseceaeeneesseeees 44 2 6 2 Proxy und Gatewaydienste cccccsscssscesecessceseceescseeeeeseeeseeeseeeseecsuecsaecnseenseenseeees 44 2 6 3 News anonymous PIP eier men 45 2 04 E Mail eien ar EHRE 46 2 0 5 W hlzug nges nun aan ern een en idee a 46 2 6 6 Zugang f
463. ppliances NetCache C720 Alpha 700 MHz WWW Proxy Cache f r http 18 IBM xSeries 3 0 GHz 2 4 GB Archiv Backup Server Rechner 3 IBM 43P 1 512 MB AFS Backup 6 Oxygen Pentium4 2 8 GHz 2 2 GB AFS Fileserver 11 Oxygen Intel Xeon 2 8 GHz AFS MGMTserver KerbV Testserver 18 Sun Verschiedene 1 2 GB LRZ SIM und IntegraTUM MetaDirectory 9 Sun Verschiedene 2 4 8 GB LRZ SIM und IntegraTUM MetaDirectory ca 45 Sun Verschiedene Sparc 1 2 0 5 2 GB weitere in Abschnitt 2 9 1 aufgez hlte Dienste insbesondere WWW E Mail FTP CNM Lizenzserver Authentication Groupware Help Desk Mgmt I IO Suinquozuayoey zIUqIsT Sop LOOT JOLogsoryer SL 16 Teil I Infrastruktur des LRZ 3 1 2 Speicher Ein weiterer Schwerpunkt der technischen Ausstattung des LRZ sind die Massenspeichersysteme Bei der Zusammenstellung wurden nur diejenigen Speichermedien beriicksichtigt die unmittelbar der Massenda tenhaltung Archiv und Backup dienen bzw gro e Mengen Online Speicher zentral bereitstellen nicht enthalten sind die an den einzelnen Serverrechnern lokal installierten Platten sowie die Plattenfarmen des Bundesh chstleistungsrechners In den folgenden beiden Tabellen wird zwischen sogenannten Nearline und Onlinespeichersystemen unterschieden Unter Nearlinesystemen versteht man Speicher die nicht in direktem Zugriff sind der Datentr ger in der Regel eine Kassette muss erst in ein Laufwerk geladen werden Ka
464. puting Ressourcen untereinander in einem Grid nutzbar zu machen Um H chstleistungsrechner in einem europ ischen Verbund effizient nutzen zu k nnen wurde im DEISA Projekt ein dediziertes euro paweites Hochleistungsnetz auf Basis der bestehenden nationalen und europ ischen Forschungsnetze aufgebaut Das LRZ ist seit Mai 2005 in dieses Projekt eingebunden und ist seitdem auch in das DEISA Netz integ riert Das DEISA Netz ist innerhalb der beteiligten Forschungsnetzprovider als VPN virtual private network gef hrt also in der Anwendung v llig von den ffentlich zug nglichen Forschungsnetzen separiert Da Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 235 mit bietet der Netzverbund die M glichkeit innerhalb des DEISA Verbundes gro e Datenmengen schnell zwischen den Rechenzentren zu verlagern Damit l sst sich ein DEISA umspannendes Dateisystem auf bauen das es Benutzern erm glicht ohne R cksicht auf die Verteilung der Daten an jedem beliebigen Standort des DEISA Verbundes zu rechnen Im Jahr 2006 wurden die ersten DEISA Partner mit 10 Gbit s angebunden Das so entstehende Hochge schwindigkeitsnetz diente als Proof of Concept um im Jahr 2007 alle Partner mit 10 Gbit s anzubinden Zwei Partner konnten noch nicht ber 10 Gbit s angebunden werden dies lag aber an deren lokalen In frastrukturen Realisiert wurde dieses Netz als eigenst ndige Netzinfrastruktur auf Basis der n chsten Generation der nationalen F
465. r uchlichen Benutzung der IV Infrastruktur zu unterlassen Er ist insbesondere dazu verpflichtet a ausschlie lich mit Benutzerkennungen zu arbeiten deren Nutzung ihm gestattet wurde die Wei tergabe von Kennungen und Passw rtern ist grunds tzlich nicht gestattet b den Zugang zu den IV Ressourcen durch ein geheimzuhaltendes Passwort oder ein gleichwertiges Verfahren zu sch tzen Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 261 c Vorkehrungen zu treffen damit unberechtigten Dritten der Zugang zu den IV Ressourcen ver wehrt wird dazu geh rt es insbesondere primitive naheliegende Passw rter zu meiden die Passw rter fter zu ndern und das Logout nicht zu vergessen Der Benutzer tr gt die volle Verantwortung f r alle Aktionen die unter seiner Benutzerkennung vor genommen werden und zwar auch dann wenn diese Aktionen durch Dritte vorgenommen werden denen er zumindest fahrl ssig den Zugang erm glicht hat Der Benutzer ist des weiteren verpflichtet d bei der Benutzung von Software Quellen Objekte Dokumentationen und anderen Daten die ge setzlichen Regelungen Urheberrechtsschutz Copyright einzuhalten e sich ber die Bedingungen unter denen die zum Teil im Rahmen von Lizenzvertr gen erworbene Software Dokumentationen oder Daten zur Verf gung gestellt werden zu informieren und diese Bedingungen zu beachten f insbesondere Software Dokumentationen und Daten soweit nicht ausdr cklich
466. r Anwender auf dem M nchner Campus mit preiswerten Software produkten ist eine der Dienstleistungen des LRZ deren schon bisher vorhandene beachtliche Au enwir kung weiter zunimmt Die beim LRZ m ndende B ndelung des Bedarfs resultiert in einer St rkung der Verhandlungsposition gegen ber den Anbietern und Lieferanten Dies ist ein nicht zu untersch tzender Vorteil gegen ber der Beschaffung durch einzelne Institutionen selbst Das LRZ bietet den Nutzern auf dem M nchner Campus und bei vielen Vertr gen auch weit dar ber hinaus durch die Bereitstellung zahlreicher Landes Campus und Sammellizenzen den unkomplizierten und kosteng nstigen Bezug von h ufig nachgefragten Software Produkten Dies gilt vor allem aber nicht ausschlie lich f r Standard Software f r Arbeitsplatzrechner und Workstations W hrend sich die Aktivit ten auf diesem Gebiet bisher mit wenigen Ausnahmen auf die Versorgung der Institutionen beschr nkten so hat die Einf hrung der Studienbeitr ge in vielen Bundesl ndern und auch in Bayern eine Umorientierung zu Folge Immer mehr Firmen die Software f r Forschung und Lehre anbieten schn ren seither besondere Angebotspakete zur fl chendeckenden Versorgung der Hochschulen mit ihrer Software Neu und bemerkenswert dabei ist die Einbeziehung der Studierenden und dass es sich bei diesen neuen Angebotspaketen berwiegend um Mietangebote mit relativ kurzen Laufzeiten handelt Gleichg ltig ob Miete oder Kauf die
467. r oder Nutzer angreifen Das universit re Umfeld lebt von seiner Offenheit eine strenge berwachung des gesamten Datenver kehrs ist weder w nschenswert noch technisch realisierbar Trotzdem muss jedes Hochschulrechenzent rum so gut wie m glich versuchen die Sicherheitsprobleme auf ein ertr gliches Ma zu beschr nken Alle zentralen Anstrengungen sind jedoch mehr oder weniger zum Scheitern verurteilt wenn nicht jeder einzelne Nutzer sich seiner Verantwortung bewusst ist und seinen eigenen Beitrag zur Gesamtsicherheit leistet 2 7 1 Sicherheitsma nahmen des Rechenzentrums Das LRZ versucht das MWN und die daran angeschlossenen Rechner auf zwei Wegen so gut wie m g lich zu sch tzen Einerseits kommen zentrale Sicherheitsma nahmen allen Nutzern des MWN zugute ohne dass diese individuell aktiv werden m ssten Andererseits sollen diverse Dienste den Kunden helfen bzw sie dabei unterst tzen die eigene oder die Sicherheit des lokalen Umfelds durch eigenes Handeln zu verbessern Das LRZ f hrt u a folgende zentrale und kundenunabh ngige Sicherheitsma nahmen durch e Standardfilter in den Routern z B zur Verhinderung von IP Spoofing oder Sperrung problematischer Ports e Monitoring des Netzverkehrs zur Erkennung und Sperrung kompromittierter Rechner siehe Abschnitt 7 4 4 e Bearbeitung von Missbrauchsf llen siehe Abschnitt 5 10 1 e Schutz der Netzkomponenten und der LRZ Rechner e Sammlung von Sicherheits Know how pilotw
468. r weltweit f hrenden Marktforschungsinstitute im IT Bereich einen Vertrag abgeschlossen der allen Angeh rigen Mitarbeiter und Studenten der LMU der TUM und der Bayerischen Akademie der Wissenschaften den Zugang zu deren Core Research Paket erm glicht Weitere Informationen dazu finden Sie unter gartner it info Irz de 2 7 Sicherheit bei Rechnern und Netzen Eine wesentliche Aufgabe jedes Hochschulrechenzentrums ist die Absicherung der von ihm betriebenen Netze und Rechner gegen Angriffe von au en aber auch gegen unberechtigte bergriffe innerhalb dieser 48 Teil I Das Dienstleistungsangebot des LRZ lokalen Netze Umgekehrt sollen nat rlich auch externe Rechner des X WiN und des Internet vor eigenen kompromittierten Systemen gesch tzt werden Die Angriffe erfolgen aus den unterschiedlichsten Motiven wie z B Neugier Abenteuerlust Vandalis mus Spionage oder kriminelles Gewinnstreben hnlich vielf ltig sind die Ziele der Angreifer Unerlaub ter Zugang zu Information oder zu Diensten Umgehung von Auflagen des Urheberrechts Verwendung einer Durchgangsstation zur Verschleierung des Ausgangspunkts bei Angriffen auf andere Rechner mutwillige Zerst rung von Daten Lahmlegen von Diensten Denial of Service Bei den vielen verf g baren Angriffsmethoden berwiegen Verfahren und Tools die die Angreifer nicht selbst entwickelt son dern einsatzbereit im Internet vorgefunden oder im Untergrund gekauft und dann h chst
469. rategie berlegungen Die weiter steigende Inanspruchnahme des LRZ als IT Dienstleister f r Kern Gesch ftsprozesse der Uni versit ten beispielhaft sei das Projekt IntegraTUM genannt wie auch f r den Bibliotheksverbund Bayern bedeutet eine neue Qualit t der Anforderungen an das LRZ Ein funktionierender Service Desk f r den Kontakt zu den Nutzern der LRZ Dienste ist eine Basisvoraussetzung f r einen IT Dienstleister um diesen Anforderungen gerecht zu werden Als weitere Herausforderung kommt hinzu dass ein Service Desk ber Organisationseinheiten hinweg erforderlich ist am Beispiel von IntegraTUM ber die TUM ihre Organisationseinheiten und das LRZ mit all seinen beteiligten Organisationseinheiten F r den Bibliotheksverbund Bayern ist die Integration der Anwendungsbetreuer sowie deren Service Desk zu den Nutzerbibliotheken voranzutreiben Die Modernisierung und der Umbau unserer Hotline und Beratung zu einem Service Desk als definierte Schnittstelle f r die Anwender aber auch als prim rer Integrationspunkt f r die Incident Management Prozesse der Gesch ftskunden ist mittel bis langfristig unumg nglich In 2007 sind diesbez glich nur sehr vereinzelt Verbesserungen gelungen Die Thematik wird in den Gesamtkontext des ISO IEC 20000 Projekts am LRZ zu integrieren sein In dieser Notation bernehmen wir die Rolle eines Suppliers f r unsere Gesch ftskunden Insbesondere die strategische Auslegung der Hotline und ihrer
470. rden Eine zus tzliche telefonische Beratung f r Probleme mit W hlzug ngen wird von speziell geschulten Operateuren in den Abendstunden ebenfalls unter der Hotline Telefonnummer 089 35831 8800 durchgef hrt Das am LRZ seit langem eingesetzte und sehr gut bew hrte Trouble Ticket System eine Anwendung des Action Request System der Firma BMC Remedy wird im Hause kontinuierlich weiterentwickelt Im Jahr 2007 wurden 3405 Vorjahr 2334 46 Beratungsnachfragen vermerkt Dies ist fast die H lfte mehr als im Vorjahr Die Anzahl der insgesamt im LRZ anfallenden Beratungsf lle d rfte h her sein da direkte Anfragen bei den zust ndigen Spezialisten hier nicht mitgez hlt sind 5 1 2 Einsatz studentischer Hilfskr fte in der LRZ Hotline Schon seit vielen Jahren ist uns gelungen die Beratung Hotline vorwiegend durch studentische Hilfskr f te SHKs zu besetzen Dabei sind wir aber auf qualifizierte zuverl ssige Studentinnen und Studenten angewiesen da die T tigkeit eine entsprechende fachliche Eignung und gute Kommunikationsf higkeit verlangt Erschwerend ist berdies die notwendige Pr senz der studentischen Hotliner an festen Vormit tagen 9 13 Uhr bzw Nachmittagen 13 17 Uhr was nicht zur Vernachl ssigung ihrer Studienveranstal tungen f hren darf Mit dieser personellen Ver nderung in der Hotline ist eine klare Trennung gemacht worden zwischen der ersten Stufe Problem Annahme und sofortige Antwort einfacher
471. reits seit L ngerem an einem Computational Steering Projekt COMFSIM Interaktive Str mungssimulation und lokale Komfortanalyse in Innenraumen unter Verwen dung von H chstleistungsrechnern und VR Techniken des Lehrstuhls f r Bauinformatik der TU M nchen mit Im Rahmen dieses Projektes sollen Luftstr mungen in Innenr umen z B B ros Maschinenr ume Pas sagierabteile in Z gen und Flugzeugen simuliert und hinsichtlich des Komfortempfindens darin befindli cher Personen ausgewertet werden Parallel zur Simulation erfolgt dabei die Visualisierung der Ergebnis se in den Virtual Reality Umgebungen des Lehrstuhls f r Bauinformatik und des LRZ ber die auch eine Ver nderung der Randbedingungen und der Geometrie des Rechengebietes zur Laufzeit m glich ist Ziel des Projektes COMFSIM ist die Entwicklung eines neuartigen Klimakomfortmodells und dessen Integration in eine echtzeitf hige interaktive 3D Simulationsumgebung Computational Steering Envi ronment kurz CSE die eine unmittelbare Auswertung von Ergebnissen unter Verwendung von Virtual Reality VR Verfahren beinhaltet Erm glicht wird dies durch den Einsatz und die Weiterentwicklung von Techniken des wissenschaftlichen H chstleistungsrechnens womit erstmalig komplexe Behaglich keitsstudien in Innenr umen durchgef hrt werden k nnen bei denen die Geometrie des Rechengebietes zur Laufzeit ver ndert werden kann Interface analysis Virtual Reality amaai Geom
472. ren Die neue Software f r die zentrale Benutzerverwaltung befindet sich seit dem 4 Quartal 2007 im LRZ weiten Testbetrieb Die endg ltige Abl sung der bisherigen Software ist f r Februar 2008 geplant zur Vermittlung der vielen neuen M glichkeiten f r Master User werden im Vorfeld noch Schulungen und Informationsveranstaltungen angeboten werden 5 4 3 Directory Applikationsservice f r das myTUM Webportal Das LRZ betreibt eine hochverf gbare LDAP Server L sung f r das Hochschulportal der Technischen Universit t M nchen http www tum de Nach der Einf hrung einer dedizierten Service Monitoring L sung im Jahr 2006 die durch die komplexe Verteilung der Portalkomponenten auf TUM und LRZ motiviert wurde konnten die 2007 verh ltnism ig wenigen Supportf lle sehr effizient bearbeitet werden Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 109 Bei der eingesetzten LDAP Server Software traten mitunter typische Langzeitbetriebsprobleme auf fiir die geeignete Pr ventionsma nahmen konzipiert wurden 5 4 4 IntegraTUM Teilprojekt Verzeichnisdienst Als zentrales technisches Teilprojekt hat das vom LRZ durchgef hrte IntegraTUM Teilprojekt TP Ver zeichnisdienst die Aufgabe eine Hochschulverzeichnisdienst Infrastruktur zu konzipieren und umzuset zen ber die aktuelle Informationen ber die Identit ten und Autorisierungen von Hochschulangeh rigen Mitarbeiter Studenten G ste abgerufen und in angeschlossene System
473. ren erw nschten E Mails Ham graphisch dargestellt Es handelt sich dabei um die E Mails die aus dem Internet von den Mailrelays angenommen und an die Scan Rechner weitergeschickt wurden Spam Mails die bereits von den Mailrelays abgewiesen wurden ca 99 5 aller Spam Mails sind hierin nicht erfasst 5 000 000 4 500 000 4 000 000 3 500 000 3 000 000 E Viren 2 500 000 E Spam 2 000 000 m Ham 1 500 000 1 000 000 500 000 Jan Feb Mrz Apr Mai Aug Sep Okt Nov Dez 120 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 5 4 2 Aufbau neuer Mailrelays auf Basis von Postfix Mit dem Aufbau der neuen Front Mailrelays die einen Teil der Komponenten der existierenden Mailre lays ersetzen sollten verbanden wir vor allem das Ziel die Kommunikation auf solche Mailserver einzu schr nken die wir als vertrauenswirdig einsch tzen Unter Vertrauensw rdigkeit verstehen wir im Wesentlichen die Kriterien e Korrekte Definition ber Name und IP Adresse des sendenden Mailserver im DNS Dabei muss das R ckw rts Mapping IP Adresse gt Domainname und das Vorw rts Mapping Domainname gt IP Adresse bereinstimmen e Keine Annahme von E Mails von Rechnern mit dynamisch zugewiesener IP Adresse Bei solchen Rechnern handelt es sich zu ber 99 um Rechner von Endanwendern nicht aber um Server End anwender sollten immer den Mailserver ihres ISPs verwenden Gut gepflegte Mailserver haben mit beiden Bedingun
474. richt 2007 des Leibniz Rechenzentrums Teil II 219 7 3 5 1 Arbeitskreis IT Service Management am LRZ Im Oktober 2007 wurde am LRZ der Arbeitskreis IT Service Management AK ITSM gegr ndet der die Aktivit ten im Bereich des prozessorientierten ITSM am LRZ koordinieren soll Entsprechend der organisationsumfassenden Natur eines prozessorientierten Ansatzes sind im Arbeitskreis IT Service Management alle Abteilungen des LRZ vertreten Die ersten Aufgaben des Arbeitskreises bestanden darin zun chst die kurz und mittelfristigen Teilfrages tellungen auf dem Weg zur Etablierung eines qualit tsorientierten IT Service Managements am LRZ zu identifizieren und priorisieren Diese Analyse und die Erarbeitung der entsprechenden Empfehlungen wurde nach den drei Hauptaspekten People Process Technology Menschen Prozesse Technologie strukturiert Geordnet nach diesen Aspekten lassen sich die Ergebnisse wie folgt zusammen fassen People e Um das Verst ndnis bzw Awareness f r die auf das LRZ in diesem Bereich zukommenden Aufgaben und Ver nderungen auf m glichst breiter Basis zu f rdern und wichtige Grundkenn tnisse zu vermitteln soll grunds tzlich allen Mitarbeitern Gelegenheit gegeben werden an einer Schulung zu Grundlagen des IT Service Managements teilzunehmen und entsprechende Qualifi kationszertifikate zu erwerben e F r eine erfolgreiche Umsetzung eines prozessorientierten Managementansatzes muss ein Kon zept erstell
475. rk Management Symposium IM 2007 IFIP IEEE Munich May 21 25 2007 ISSN 1436 753X BEZOLD CHATWIN M Jugendschutz am Leibniz Rechenzentrum Die Kriminalpolizei in formiert Kinder und Jugendliche ber Gefahren im Internet In Akademie Aktuell Zeit schrift der Bayerischen Akademie der Wissenschaften Ausgabe 3 Oktober 2007 ISBN 978 3939551058 BIARDZKI C Lustre Verteiltes Dateisystem f r Hochleistungsrechner in Linux Magazin Technical Review 03 Storage und Backup Linux New Media Verlag 2007 S 114 121 ISBN 978 3 00 021690 9 BOURSAS L REISER H Propagating Trust and Privacy Aspects in Federated Identity Management Scenarios In Proceedings of the 14th Annual Workshop of HP Software University Association Infonomics Consulting Stuttgart Juli 2007 356 p BOURSASL Virtualization of the Circle of Trust amongst Identity Federations Proceed ings of the 1st Workshop of Systems and Virtualization Management 2007 ISBN 978 3 00 021690 9 BRENNER M KNITTL S Building Blocks for Release Management Unification in Large Scale Environments In Proceedings of the 14th Annual Workshop of HP Software University Association Infonomics Consulting Stuttgart Juli 2007 356 p 250 ISBN 978 3540747383 ISBN 978 3 939551 05 8 Teil II Organisatorische Ma nahmen im LRZ BRUGMANN B GONZALES J HANNAM M HUSA S SPERHAKE U CHRIS TADLER I Toward conquering the parameter space of gravitational wave signals from black
476. rke zu verbinden und f r die Daten bertragung der Archivkopien zu nutzen Im Projekt SAN Testbett IPP LRZ wurden die Vor und Nachteile einer direkten Verbindung der beiden Speichernetzwerke bzw die direkte Anbindung von Server und Storagekomponenten des jeweils anderen Rechenzentrums untersucht Die ersten Tests die noch im Jahr 2006 begonnen wurden stellten reine Funktionstests der Fibre Channel Verbindung zwischen den beiden Standorten ber eine Longwave Monomode Glasfaserstrecke dar Dazu wurden einfache Schreib und Lesevorg nge auf ber diese Strecke angebundene Platten und Bandspei chersysteme durchgef hrt Die erfolgreich verlaufenen Tests dieser direkten Fibre Channel Verbindung stellten die Grundlage f r weiterf hrende Untersuchungen im Jahr 2007 dar Dabei wurden die verschiedenen M glichkeiten eines sinnvollen Einsatzes dieser Technologie im Rahmen des Katastrophenschutzprojekts evaluiert Die Eva luierung zeigte dass die technische Umsetzung beim Einsatz entsprechender Hardware z B Longwave LWL problemlos durchf hrbar ist Wegen der aufwendigen und komplizierten Konfiguration auf Soft wareseite Abh ngigkeiten von Softwareversionen und Firmwarest nden usw wurde der Weg einer direkten SAN Verbindung der beiden Rechenzentren vorerst nicht weiter verfolgt 6 4 3 2 Network Attached Storage NAS Network Attached Storage NAS im weiteren Sinne hat am LRZ durch das seit Anfang der 90er Jahre etablierte Andrew File S
477. rkeit der Daten ist der Kunde selbst verantwortlich etwa durch die Verwaltung geeigneter Metadaten Aus Datenschutzgr nden kann das Zur cksetzen bzw Neusetzen eines Passwortes nur durch den einget ragenen Ansprechpartner des Nodes Node Inhaber bzw durch weitere eingetragene Ansprechpartner veranlasst werden Aus diesem Grund sollte dem LRZ ein Wechsel des Ansprechpartners fr hzeitig mit geteilt werden Verwaiste Nodes k nnen nur durch den Leiter der Organisationseinheit reaktiviert wer den 9 Verf gbarkeit Wartungszeiten Das LRZ ist rund um die Uhr bem ht die Funktionalit t des Archiv und Backupsystems sicher zu stel len Dennoch k nnen gelegentliche Systemausf lle nicht vollst ndig ausgeschlossen werden Wenn Wartungsarbeiten an Hard und Software durchgef hrt werden m ssen die eine Unterbrechung des Betriebs erfordern wird dies sofern vorhersehbar fr hzeitig auf den Webseiten des LRZ auf Wunsch auch per Mail angek ndigt Statusmeldungen und Informationen ber Ausf lle werden zeitnah auf den Webseiten des LRZ bereitgestellt Zwei Prozent der durchschnittlichen j hrlichen Verf gbarkeit werden f r geplante Wartungsarbeiten ber die der Kunde vorab unterrichtet wird reserviert Auf weitere zwei Prozent wird die maximale St rungszeit durch Ausf lle von Hardware Warten auf Ersatzteile und St rungen der Software gesch tzt Die durchschnittliche j hrliche Verf gbarkeit des ABS Systems betr gt somit
478. rmo a tum Institut f r Landtechnik Weihenstephan Lehrstuhl A f r Thermodynamik tphys Imu Institut Theoretische Physik LMU tumphy Physik TU Garching uni passau Rechenzentrum der Universit t Passau usm Uni Sternwarte vm08 fhm Fachbereich 08 FH M nchen vsm tum Lehrstuhl f r Verkehrs und Stadtplanung wzw tum Informations Technologie Weihenstephan zi lmu Zoologisches Institut der LMU zmk imu Zahnklinik der LMU zv tum Zentrale Verwaltung TUM 5 5 4 E Mail Services 5 5 4 1 Spam und Virenabwehr Auch in 2007 war ein starker Zuwachs an Spam Mails zu verzeichnen Waren am Anfang des Jahres im Monatsdurchschnitt ca 2 Millionen Spam Mails pro Tag abzuwehren so stieg diese Zahl bis zum Jahres ende auf fast 6 Millionen An Spitzentagen stieg das Volumen auf bis zu 20 Millionen abgewehrter E Mails an Damit war die maximale Kapazit t unseres auf dem Greylisting basierenden Abwehrsystems erreicht Die MySQL Datenbank die das Greylisting versorgt war nicht in der Lage mehr als 1 000 000 Abfragen pro Stunde zu verarbeiten Nach umfangreichen Tests konnte die Bandbreite zwischen Haupt speicher und CPU als der limitierende Faktor identifiziert werden Abhilfe w re durch eine Migration der MySQL Datenbank auf eine leistungsst rkere Hardware m glich gewesen Tests ergaben dabei eine Per formance Verbesserung um den Faktor 2 8 Im Juli kamen aber noch weitere Probleme hinzu In der zweiten Woche hatten wir Probleme durch den Angriff ei
479. rn besetzen Aktuelle AFS Plattenplatzbelegung Ermittelt die aktuelle Belegung des AFS Plattenplatzes f r alle Kennungen eines Projekts Statistiken ber Nutzung von Hochleistungsrechnern Mit diesem Dienst k nnen bersichten ber die Nutzung aller in den letzten Jahren am LRZ einge setzten Hochleistungsrechner auf Monats und Jahresbasis abgerufen werden das sind IBM SMP Fujitsu VPP700 Linux Cluster Hitachi SR8000 SGI Altix Daneben gibt es noch jeweils f r die letzten Wochen eine t glich aktualisierte bersicht ber alle Jobs eines Projekts an den verschiede nen Plattformen Statistiken ber die Nutzung von Ausgabeger ten Zur Kontrolle der Nutzung von kostenpflichtigen und automatisch abgerechneten Ausgabeger ten Laserdrucker des LRZ stehen bersichten auf Monats und Jahresbasis zur Verf gung Detaillierte Angaben zu diesen Diensten liefert der Beitrag www Irz de wir muserv_www Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 85 Teil II Die Entwicklung des Dienstleistungsangebots der Ausstattung und des Betriebs im Jahr 2007 5 Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 1 Beratung und Hotline 5 1 1 Umfang und Art der LRZ Beratung Die allgemeine Beratung im LRZ Geb ude und die LRZ Hotline waren im Jahr 2007 wie in den vergan genen Jahren organisatorisch gekoppelt und zu den normalen Dienstzeiten in gemeinsamen R umen un tergebracht Kunden k nnen hier pers nlich vorsprechen od
480. rte unensennseenseneseensneennenneenne san 5 3 5 E Commerce Zusammenarbeit mit Rechenzentren anderer Universit ten 5 3 6 Lizenzlandschaft wird komplexer ueeesseessesssesnseenseenneennennennnennnen nennen 5 3 7 Kurzdarstellung aktuell bestehender SW Bezugsm glichkeiten 5 3 8 Statistik und Ausblick sisiran ae atana aeaa na aoaia ia aai 5 4 Benutzerverwaltung und Verzeichnisdienste ccccesccessceeeceseeeeeeeeseeeeeeseeeseeesaes 5 4 1 F r LRZ Systeme vergebene Kennungen un ncnnenneeneenseenneennnennne nennen 5 4 2 Projekt LRZ Secure Identity Management unsenseeneeneesneenneenneennnennnnenn 5 4 3 Directory Applikationsservice f r das myTUM Webportal 5 4 4 IntegraTUM Teilprojekt Verzeichnisdienst neenseenseerseeeneenneeeneeennnnnn 993 LNetzdienste nn a ee ee 39 1 Internet 22a EEE EE AEE EE E E 5 5 2 Domain Name Systesi nesoen a a 5 5 3 W hlzug nge Modew ISDN sseessessenseenseenneennenneenee nennen 329324 JE M ll Services a ne ED er ee ee elle 5 35 WebServices haenen eee iie a i t a eaa ol aa e reeda ernennen sense 5 5 6 Datenbanken ou iccceccccccccccsssssssscssccceessesessssscescessessaussscesceseessseeeesesens 5 6 Grafik Visualisierung Multimedia ccceccescsseceseceseceesceeeeeeeeeeceeeseeeseeeseeeeeesaes 5 0 Virt akReality apeere rrena eee en E Ren een edlen 5 6 2 Workshop Videoschnitt und DVD Authoring
481. rver mailin ohne Probleme 5 5 4 6 Pilotbetrieb f r Microsoft Exchange Im Rahmen des IntegraTUM Projekts wurden im ersten Halbjahr verschiedene M glichkeiten untersucht einen Groupware Service anzubieten Zur Diskussion stand der Einsatz eines reinen Kalender Servers unter Beibehaltung der bisherigen Maildienste der Einsatz von Open Xchange Open Source Produkt mit kostenpflichtigem Plug in f r Microsoft Outlook und einer Ajax basierten Weboberfl che unter weitge hender Beibehaltung der bisherigen Maildienste und der Einsatz eines monolithischen umfassenden Groupware Produkts wie Microsoft Exchange Der TUM wurden so Entscheidungshilfen verschafft 122 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Im Juli entschied sich die TUM fiir den Einsatz von Microsoft Exchange 2007 und beauftragte das LRZ mit der Erarbeitung eines Beschaffungs und Betriebskonzepts sowie dem Aufbau einer Pilotinstallation f r die Fakult t Elektrotechnik und Informationstechnik EI In der Folge wurde die notwendige Hard ware beschafft das von Exchange ben tigte Active Directory AD aufgebaut und ans IntegraTUM Iden tity Management gekoppelt die einzelnen Server Rollen hochverf gbar eingerichtet und Dokumentation f r den Endbenutzer vorbereitet so dass der Pilotbetrieb planm ig Ende September aufgenommen wer den konnte Zugriff auf Exchange ist entweder ber Outlook oder ber die Weboberfl che OWA Outlook Web Ac cess m glich
482. rver sowie allerdings nur f r die Technische Universit t auch der Directory Server wird durch das LRZ betrieben Studenten anderer M nchner Hochschulen mit Ausnahme der Fachhochschule M nchen k nnen entsprechende Internet Kennungen ber das LRZ Benutzersekretariat erhalten Studenten die weder einen eigenen PC noch Zugang zu einem CIP Pool ihrer Hochschule haben k nnen au erdem auch eine Berechtigung zur Nutzung der ffentlich zug nglichen PCs im LRZ Geb ude erhal ten und dort Internet Dienste nutzen Die Vergabe von PC Kennungen ist nur zus tzlich zu einer bereits vorhandenen Internet Kennung m glich und erfolgt ber das LRZ Benutzersekretariat Die Kennungen von Studenten der Ludwig Maximilians Universit t und der Technischen Universit t werden von der jeweiligen Hochschule verwaltet und bleiben daher automatisch bis zur Exmatrikulation g ltig Mit einigen weiteren Hochschulen z B Katholische Stiftungsfachhochschule und Akademie der Bildenden K nste hat das LRZ ein vereinfachtes Verfahren zur Verl ngerung der Kennungen vereinbart Bei Studenten dieser Hochschulen werden die LRZ Studentenkennungen automatisch verl ngert wenn die R ckmeldung an der jeweiligen Hochschule erfolgt Bei Studenten anderer Hochschulen gen gt die Einsendung einer Immatrikulationsbescheinigung f r das Folgesemester Weitere Details finden sich un ter www Irz de wir studserver 4 3 Datenschutz Die Verarbeitung und Speicherung personenb
483. rvice Support Prozesse Incident Prob lem Change und Release Management sowie die Unterst tzung des Service Level Managements In FG 1 2 kooperiert das LRZ mit dem Forschungszentrum J lich FZJ dem Forschungszentrum Karlsruhe FZK dem Albert Einstein Institut AEI Sun Microsystems und der T Systems Solutions for Research TS SfR Das FG 2 3 Betrieb der Ressourcen im D Grid befasst sich mit dem Betrieb von Basisdiensten f r das gesamte D Grid Das LRZ kann in diesem Projekt seine Vorarbeiten zum Monitoring aus DGI I versteti gen Es ist f r den Betrieb der am LRZ entwickelten Monitoring Infrastruktur zust ndig Au erdem sol len neue Provider und neuere Entwicklungen integriert werden Das LRZ kooperiert in diesem Teilprojekt mit dem Forschungszentrum J lich FZJ dem Forschungszentrum Karlsruhe FZK dem Fraunhofer Institut f r Rechnerarchitektur und Softwaretechnik Berlin FhG FIRST und den beiden assoziierten Partnern Regionales Rechenzentrum f r Niedersachsen RRZN sowie der Universit t Dortmund Im Fachgebiet 2 4 einheitliche Betriebsumgebung f r Produktions Jobs sollen einheitliche Zugangs m glichkeiten zum D Grid erarbeitet werden Dazu wird ein Konzept f r ein so genanntes Common Pro duction Environment CPE entwickelt Das Konzept wird prototypisch umgesetzt mit ausgew hlten Nut zergruppen getestet und verbessert um es dann in die Produktion zu bernehmen Als Basis f r eine ein heitliche Software Um
484. s 2 4 3 Langzeitarchivierung Ver ffentlichungen in digitaler Form nehmen im Wissenschaftsbetrieb wie auch im gesellschaftlichen Leben insgesamt einen immer h heren Stellenwert ein Oftmals wird wie z B bei Dissertationen und bei amtlichen Publikationen auf ein gedrucktes Pendant ganz verzichtet W hrend die Digitalisierung f r den Nutzer den Zugang und den Umgang mit der Information beschleunigt und insgesamt erleichtert entste hen weltweit dadurch sowohl aus organisatorischer und rechtlicher als auch aus technischer Sicht neue Herausforderungen Zus tzlich wird die Welt mit einer j hrlich stark steigenden Zahl von digitalen Ob jekten konfrontiert Die Objekte sollen nicht nur verwaltet und gespeichert sondern auch langfristig zu g nglich gemacht werden Diese Aufgabe wird erschwert durch den raschen technologischen Wandel im Bereich der Hard und Software und der Datentr ger Seit 2004 gibt es eine Kooperation zwischen der Bayerischen Staatsbibliothek BSB und dem Leibniz Rechenzentrum die inzwischen durch zwei DFG gef rderte Projekte BABS Bibliothekarisches Archi vierungs und Bereitstellungssystem www babs muenchen de und vdl6digital ausgeweitet wurde Das Ziel des BABS Projektes war der exemplarische Aufbau einer organisatorischen und technischen Infrast ruktur f r die Langzeitarchivierung von Netzpublikationen und sonstiger E Medien unterschiedlicher Provenienz Das Projekt BABS wurde im Sommer 2007 mit einem g
485. s Solid State 13638 12 71 5259778 57 13 40 Chemistry 16593 15 46 3000917 81 7 65 Geophysics 5478 5 10 2617904 37 6 67 Physics others 1805 1 68 1453897 87 3 71 Support Benchmarking 7240 6 74 945587 59 2 41 Biophysics Biology Bioinformatics 1385 1 29 759796 72 1 94 Engineering others 360 0 34 343273 70 0 87 Enviromental Sciences 388 0 36 246540 20 0 63 Informatics Computer Sciences 8945 8 33 110641 33 0 28 eteorology Climatology Oceanography 1261 1 17 83441 71 0 21 DEISA Support 631 0 59 444 80 0 00 Grid Computing 155 0 14 0 22 0 00 Summe 107341 100 00 39241555 26 100 00 HLRB Nutzung nach institutioneller Zugeh rigkeit der Antragsteller Jobs Systemzeit Anzahl Core Std Universit ten 78545 73 17 25381504 75 64 68 Max Planck Gesellschaft 4072 3 79 6277930 04 16 00 Helmholtz Gemeinschaft incl DESY 3673 3 42 2651736 97 6 76 DEISA 6863 6 39 2194998 81 5 59 D Grid 7059 6 58 1797603 57 4 58 Leibniz Rechenzentrum 6997 6 52 932918 18 2 38 Sonstige 1 32 0 12 4862 93 0 01 Summe 107341 100 00 39241555 26 100 00 6 1 3 2 Linux Cluster 32bit IA32 und EM64T Teil Jobs Systemzeit Rechner Jobklasse Anzahl SBU Std Linux IA32 serial 522706 100 00 1808323 57 100 00 Summe 522706 100 00 1808323 57 100 00 Die Systemzeit SBU ist am Linux Cluster die abgerechnete CPU Zeit e bei Jobs in Parallelpools die Belegungszeit multipliziert mit der Anzahl der belegten Cores e bei sonstigen Jobs die vom Batchsystem gelieferte Summe der CPU Zeit ber deren
486. s Jahres 2007 hat die DFN PCA eine neue Zertifizierungshierarchie Global eingef hrt in der das Wurzelzertifikat von einer kommerziellen CA T TeleSec Trust Center der Deutschen Telekom AG beglaubigt wird Damit ist die Notwendigkeit f r die Endbenutzer entfallen das Wurzelzertifikat explizit durch Import als ver trauensw rdig zu kennzeichnen soweit das schon vom Hersteller der Software erledigt wurde Es ist dies eine ganz wesentliche Erleichterung f r die Endbenutzer die von vielen Betreibern von Webservern be reits dringend gew nscht worden war Das LRZ betreibt im Rahmen dieser neuen Hierarchie seit Januar 2007 eine Zertifizierungs und Regist rierungsstelle und hat bei den beiden M nchener Universit ten darauf hingewirkt dass diese jeweils ebenfalls eine Zertifizierungsstelle einrichten was im Laufe des Jahres 2007 geschehen ist F r beide Universit ten betreibt das LRZ jeweils eine Registrierungsstelle Die vorher betriebene Server Zertifizierungsstelle f r das M nchener Wissenschaftsnetz ist damit obsolet geworden Ihre Zertifikate bleiben g ltig es werden aber keine neuen Zertifikate mehr ausgestellt Insgesamt gibt es am LRZ f nf Registrierungsstellen die derzeit neue Zertifikate ausstellen Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 135 e cine RA f r die Bayerische Akademie der Wissenschaften einschlie lich des LRZ selbst sowie f r solche Einrichtungen im M nchner Wissenschaftsnetz die keine eig
487. s Rechenzentrum der Max Planck Gesellschaft in Garching 837 Terabyte und umgekehrt 845 Terabyte Den Datenzuwachs im Jahr 2007 zeigen die beiden folgenden Abbildungen 400 000 Backup Archiv 350 000 300 000 250 000 200 000 150 000 100 000 u 0 Jan Feb Mrz Apr Mai Jun Jul Aug Sep Okt Nov Dez Abbildung 58 Datenverkehr Backup TI gg Archiv Jan Feb Mrz Apr Mai Jun Jul Aug Sep Okt Nov Dez Abbildung 59 Datenumfang Der Archiv Anteil am Datenbestand ist relativ statisch Archivdaten werden in der Regel einmal ins Archiv bertragen und dort sehr lange aufbewahrt im Fall der Langzeitarchivierung f r Jahrzehnte Da tensicherungen finden regelm ig statt Backupdaten werden daher h ufig ins System geschrieben und Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 179 die veralteten Daten werden automatisch aus dem Bestand gel scht Durch diese Dynamik erkl rt sich die im Vergleich zur Archivierung mehr als doppelt so hohe Dateneingangsrate Anfang 2006 feierte das Archiv und Backupsystem sein zehnj hriges Bestehen unter dem IBM Tivoli Storage Manager Anfang 1996 waren in einer Bandbibliothek der Firma StorageTek auf 1000 Kassetten rund 1 000 Gigabyte Daten gespeichert 10 Jahre sp ter steckten in den drei Bibliotheken im Archivraum knapp 8 000 Kassetten mit weit mehr als 1 000 000 gespeicherten Daten Das Fassungsverm gen einer Kassette vervielfachte sich in diesen 10 Jahren ebenso wie die Geschwindig
488. s bietet Weitere Informationen zum DV Videoschnitt am LRZ finden Sie unter wwu Irz de services peripherie dvschnitt 2 8 5 Multimedialabor Im Multimedialabor stehen neben den im vorigen Abschnitt beschriebenen Videoschnittpl tzen au erdem PCs mit spezieller Hard und Software Ausstattung f r die Verarbeitung von Audiomaterial zur Verf gung Geeignete Peripherieger te erlauben die Erfassung und Bearbeitung der Audioquellen von unter schiedlichen Tontr gern etwa Kassette CD oder Mini Disk Speziell im Hochschulbereich wird ein nennenswerter Teil der Arbeitsplatzrechner unter Linux betrieben Um die M glichkeiten zur Bearbeitung von Audio und Videomaterial unter Linux zu demonstrieren wurde im Multimedialabor des LRZ ein entsprechender Linux PC aufgebaut und mit geeigneten Prog rammen ausgestattet Dort k nnen DV und VHS B nder eingelesen werden und die so erzeugten Dateien k nnen genauso wie Dateien die an den Videoschnittpl tzen erzeugt wurden im Batch Betrieb neu ko diert werden Das entlastet die interaktiv genutzten Schnittpl tze Mit Hilfe eines einfachen Schnittprog ramms und weiterer Software k nnen auch komplette Video DVDs erzeugt werden 2 8 6 CAD und Visualisierungslabor F r umfangreiche und aufw ndige Aufgaben aus den Bereichen Bildverarbeitung Konstruktion oder Visualisierung stehen im CAD und Visualisierungslabor leistungsf hige Arbeitspl tze mit Doppelpro zessorsystemen und Highend Grafikkarten zur
489. s gegeben Backbone Volume des MWN Seit 2007 wird erstmals der aggregierte Durchsatz Volume ber alle Backbone Router in verschiedenen Reports dargestellt Zur Berechnung dieses MWN Backbone Volume werden alle ausgehenden Bytes auf den verschiedenen Routern zusammengez hlt und die Ergebnisse der einzelnen Backbone Router werden dann wiederum aufsummiert diese Berechnungs Methode beinhaltet absichtlich dass Bytes die durch mehrere Router bertragen werden auch mehrmals gez hlt werden In der Abbildung ist als Beispiel der t gliche MWN Backbone Volume Report dargestellt Zu sehen sind die aufsummierten Durchs tze seit der Aktivierung des Reports am 6 8 2007 Sch n zu sehen ist die Re duzierung des Durchsatzes im MWN in der Weihnachtszeit und am Jahresende 2007 Neben dem t gli chen Report gibt es noch Reports mit den Zeitintervallen 5 min tlich st ndlich w chentlich monatlich und j hrlich 216 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Cisco Routers Volume Daily MWN Backbone Router Generated 12 02 2008 00 00 00 Periodicity Daily MWN Backbone Volume TByte I 1107 100 30 807 70 607 50 407 D 4 12 02 2007 12 04 2007 12 06 2007 12 08 2007 12 10 2007 12 12 2007 12 02 2008 Abbildung 82 MWN Backbone Volume t glich seit dem 6 8 2007 Reports zu Switches im LRZ Neben den schon 2006 in InfoVista aufgenommenen Switches im neuen LRZ Geb ud
490. s m ssen daher Produkte anderer Anbieter untersucht werden die als Front End zum Active Directory dienen k nnten 5 5 4 7 Mailhosting virtuelle Mailserver Das LRZ bietet Hochschul und hochschulnahen Einrichtungen die keinen eigenen Mailserver Message Store mit POP IMAP Zugriff betreiben wollen an den Maildienst am LRZ zu hosten Es wird dann eine virtuelle Maildomain eingerichtet in der sich der Name der betreffenden Einrichtung widerspiegelt z B jura uni muenchen de und Angeh rige dieser Einrichtungen erhalten entsprechende Mailadressen Ende 2007 waren am LRZ 226 Vorjahr 235 virtuelle Mailserver eingerichtet Eine Aufteilung auf die Hauptnutzer ist der folgenden Tabelle zu entnehmen un Virtuelle Ene Mailserver Ludwig Maximilians Universit t M nchen 93 Technische Universit t M nchen 56 Bayer Akademie der Wissenschaften inklusive LRZ 41 andere Hochschulen und hochschulnahe Einrichtungen 36 Gesamt 226 5 5 4 8 Nutzung der Message Store Server Ende 2007 hatten 97 255 Personen Vorjahr 90 689 eine Mailbox auf einem der f nf Message Stores POP IMAP Server des LRZ Nachfolgend eine Aufteilung nach Server bzw Benutzergruppen Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 123 POP IMAP Server fiir an Benutzer Mitarbeiter der vom LRZ bedienten Einrichtungen Mailserver mailin Ludwig Maximilians Universit t M nchen 7 060 Technische Universit t M n
491. s sich auch in 2006 best tigte Die ITIL Awareness konnte bei vielen Mitarbeitern durch die Teil nahme an ITIL Planspielen gest rkt werden In 2007 erforderte die mittel bis langfristige Zielrichtung neue MWN weite Infrastrukturservices wie Exchange Groupware File und Desktop Management Services anzubieten neue konzeptionelle L sun gen im sog Backend also den Basisdiensten die eine moderne Windows Netzwerkumgebung erfordert Vor diesem Hintergrund wurden die Projekte und Arbeiten der Gruppe auch in 2007 geplant und durchge f hrt 5 8 2 Basis Services f r Desktops im MWN 5 8 2 1 Antiviren Service Auf der Grundlage eines Landesvertrages tiber die Antiviren Software der Fa SOPHOS hat das LRZ eine Server und Service Infrastruktur zur automatischen Verteilung und Installation von SOPHOS Virensignaturen f r alle Nutzer im M nchner Wissenschaftsnetz eingerichtet verbunden mit entspre chenden Beratungsleistungen zur Nutzung f r Endbenutzer Dieses herstellerspezifische Verfahren wird am LRZ auch im Rahmen von internen und externen Remote Desktop Management Diensten als Basis Service mit benutzt Das Jahr 2007 war gekennzeichnet durch eine F lle von Aufgaben im Rahmen der erneuten Umstellung auf eine aktuelle Sophos Version des Enterprise Managers Dabei hat das bertragene Volumen in 2007 die Menge von 5 5 TByte erreicht Leider ist auch festzustellen dass die Kunden zunehmend weniger gewillt sind ihre eigene Client Server
492. s wurde im Jahr 2007 dadurch erm glicht dass sowohl die LDAP Verzeichnisdienste der TUM als auch der LMU produktiv in Betrieb gingen Durch die Nutzung dieser Verzeichnisdienste f r die Authentifizierung wurde gew hrleistet dass ausschlie lich Mitarbeiter der M nchner Universit ten Zugriff auf die Software erhalten Des Weiteren musste eine M glichkeit gefunden werden tempor re symbolische Downloadlinks aus Zufallszeichenfolgen zu erzeugen um unrechtm ige Zugriffe auf die Installationsfiles so weit wie m g lich zu verhindern Eine Forderung der Fa Mindjet war die l ckenlose Dokumentation der Downloadaktivit ten Dies wurde durch die Verkn pfung der generierten Downloadlinks mit den Kundendaten erreicht Somit kann genau nachvollzogen werden welcher Kunde zu welchem Zeitpunkt die Installationsdateien herunter geladen hat Seit der produktiven Inbetriebnahme Mitte Oktober 2007 wird dieses Angebot von Mitarbeitern beider Hochschulen intensiv genutzt Auch im Fall dieses Vertrags sind die Studierenden nunmehr berechtigt die Software zu nutzen sowohl an den Arbeitspl tzen in den Hochschulen als auch zuhause Die Verteilung erfolgt bei dieser Nutzer gruppe jedoch nicht ber das Downloadverfahren beim LRZ sondern ber entsprechende Server bei Partnern des Softwareanbieters 5 3 3 Online Bestellverfahren ausgeweitet Seit 2004 ist es f r ausgew hlte Kunden mit zentraler Einkaufsabteilung m glich Bestellungen von Mic ros
493. sarbeit F hrungen Besucher am LRZ Tag der offenen T r 247 8 7 LRZ als Ausbildungsbetrieb cc cccccccessecsseesseensecssecssecsseceseceseeeeeeseeeseeeceseeeseeeeeenaeessees 248 8 8 Betreuung von Diplom Bachelor Master und Studienarbeiten eeee 248 8 9 Verdffentlichungen der Mitarbeiter 2007 uueeseenssesseessnessnessnnsnnnnnnnnnnsnnnnennnennnn ernennen 249 8 10 Promotionen am LRZ u nern asian nee it 251 9 Programmausstattung des LRZ usssssssssssssnnssnonnesnssssnnsssnnnsnnnnesnnsnusnnnsnsnnnsnnnnesnnssssnnnsnsnnnnnn 253 Teil IM Anh nge sscesssacesssssensessensnsssnsenssssenenesenukensetsennnensss sensutennserenshenssndesunsesshesnssessetendenseen 255 Anhang 1 Satzung der Kommission fiir Informatik der Bayerischen Akademie der Wissenschaften und des Leibniz RechenZentrum ccccccscssscssscssscsssosseenes 255 Anhang 2 Mitglieder der Kommission f r Informatik am 31 12 2007 ssssscsscseseseeeee 257 Anhang 3 Benutzungsrichtlinien fiir Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften 259 Anhang 4 Betriebsregeln des Leibniz Rechenzentrums ssurssusssonssnnssonssonssnnnsnonsnonsnannnee 263 Anhang 5 Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes MWN 0080 265 Anhang 6 Richtlinien zur Nutzung des Archiv und Backupsystem sscsssssseseseeess 269 Anhang 7 Geb hren des Leibn
494. sbr uchlichen oder gesetzeswidrigen Benutzung 1 Bei Verst en gegen gesetzliche Vorschriften oder gegen die Bestimmungen dieser Benutzungsrich tlinien insbesondere des 4 Pflichten des Benutzers kann der Systembetreiber die Benutzungsbe rechtigung einschr nken ganz oder teilweise entziehen Es ist dabei unerheblich ob der Versto einen Schaden zur Folge hatte oder nicht 2 Bei schwerwiegenden oder wiederholten Verst en kann ein Benutzer auf Dauer von der Benutzung s mtlicher IV Ressourcen nach 1 ausgeschlossen werden 3 Verst e gegen gesetzliche Vorschriften oder gegen die Bestimmungen dieser Benutzungsrichtlinien werden auf ihre strafrechtliche Relevanz sowie auf zivilrechtliche Anspr che hin berpr ft Bedeut sam erscheinende Sachverhalte werden der jeweiligen Rechtsabteilung bergeben die die Einleitung geeigneter weiterer Schritte pr ft Der Systembetreiber beh lt sich die Verfolgung strafrechtlicher Schritte sowie zivilrechtlicher Anspr che ausdr cklich vor 88 Sonstige Regelungen 1 F r die Nutzung von IV Ressourcen k nnen in gesonderten Ordnungen Geb hren festgelegt werden 2 F r bestimmte Systeme k nnen bei Bedarf erg nzende oder abweichende Nutzungsregelungen festge legt werden 3 Bei Beschwerden von Benutzern entscheidet die Kommission f r Informatik der Bayerischen Akade mie der Wissenschaften soweit sie nicht vom Direktorium des Leibniz Rechenzentrums geregelt wer den k nnen 4 Gerichtss
495. schen Anlagen Erweiterungen f r zuk nftige Anforderungen im Klima Strom und Rechnerbetrieb sind jederzeit m glich Institutsgeb ude Im Institutsbereich befinden sich die Arbeits und Laborr ume der ca 170 Mitarbeiter Das Erdgeschoss ist f r den Publikumsverkehr vorgesehen Benutzersekretariat Zeitarbeitspl tze f r Studenten R ume f r Beratung Hotline Multimedialabor Scanner und CAD Arbeitspl tze In den drei oberen Stockwerken sind Mitarbeiter Besprechungs und Laborr ume sowie die Rechnerleitwarte H rsaal und Seminargeb ude Das neue LRZ Geb ude verf gt ber einen H rsaal 120 Sitzpl tze und mehrere Seminar und Kursr u me abgestufter Gr e Dieser Bereich mit intensivem Publikumsverkehr wird vor allem von Studenten und Wissenschaftlern der M nchner Hochschulen im Rahmen von LRZ Veranstaltungen z B Work shops zu Computational Sciences DEISA D Grid oder Vortragsreihen und Kursen genutzt Dar ber hinaus befindet sich in diesem Geb ude noch das Virtual Reality Labor Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 81 4 Hinweise zur Benutzung der Rechensysteme Die folgenden Hinweise sind f r einen Anf nger am LRZ gedacht versierte Benutzer sollten sich nicht scheuen dennoch darin zu bl ttern 4 1 Vergabe von Kennungen ber Master User Der gro e Benutzerkreis des LRZ hat es notwendig gemacht die Vergabe und Verwaltung von Benutzer kennungen sowie die Zuteilung von Ber
496. schiedene administ rative Dom nen und daher auch ber unterschiedliche technische Infrastrukturen Um den Nutzern von E2E Links gewisse Dienstg teparameter Ende zu Ende garantieren zu k nnen ist es notwendig Be triebsprozesse z B im Hinblick auf die Einhaltung von Zeitbedingungen f r das Monitoring der Verbin dungen sowie die Beseitigung von St rungen einzuf hren 238 Teil I Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Die Notwendigkeit der Prozessunterstiitzung besteht nicht nur im Zusammenhang mit E2E Links son dern auch ftir das Management anderer Netzdienste im GN2 Projekt Um Prozesse im Multi Domain Umfeld zu vereinbaren und mit einem Informationssystem unterst tzen zu k nnen wurde daher im Sep tember 2007 die GN2 Aktivit t I SHARe Information Sharing across Heterogeous Administrative Regi ons gestartet Das Ziel der GN2 Aktivit t I SHARe ist die Unterst tzung dieser und weiterer Multi Domain Betriebsprozesse durch die Konzeption und Implementierung eines Informationssystems Als Vorausset zung daf r hat sich die Notwendigkeit einer systematischen Beschreibung und Dokumentation der Pro zesse gezeigt Die Prozessanalyse bezieht sich insbesondere auf die Schritte bei denen die Zusammenar beit mehrerer Domains erforderlich ist Diese Schritte m ssen detailliert festgelegt werden um Unklar heiten zu vermeiden Aktivit ten innerhalb einer Domain werden hingegen nur durch die Ergebnisse be sc
497. schland intervenierte das LRZ gemeinsam mit der Vorsit zenden des AK bei der Fa Adobe Das Unternehmen gab schlie lich dem inzwischen weltweiten Druck der Anwender nach und entfernte den aufw ndigen Aktivierungsmechanismus wieder aus dem Produkt e Der Mitte 2006 zu einem Landesvertrag Bayern erweiterte urspr nglich nur als Campusvertrag abgeschlossene Vertrag mit der Fa SPSS wurde von den beteiligten Hochschulen drau en im Land erfreulich gut angenommen Dies d rfte dem wesentlich g nstigeren Preis und dem Um stand zu verdanken sein dass die Aufgabe der Verteilung ganz beim LRZ verblieben ist Gerade der zus tzliche Arbeitsaufwand der hier entstanden ist macht deutlich dass das LRZ zus tzliche Aufgaben bei der Versorgung der beteiligten Institutionen mit g nstigen Lizenzprogrammen nur bew ltigen kann wenn bei gleich bleibender Personalst rke mehr automatisiert und rationalisiert werden kann 98 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 3 2 Softwaredownload als praxisorientierte Nutzung der Verzeichnisdienste am Beispiel Mindmanager Wie eine Versorgung der zum Bezug Berechtigten k nftig berwiegend aussehen k nnte soll am Bei spiel der Verteilung einer Software zur Erstellung sog Mindmaps aufgezeigt werden Mindmaps helfen bei der Strukturierung von Aufgabenstellungen Ideen und Gedanken und k nnen gerade im wissenschaft lichen Umfeld die Arbeit sehr erleichtern Das Programm
498. schule durch das LRZ Der Aufgabenbereich umfasst die Konzeption und den Betrieb von Dateidiensten sowie technische Dienstleistungen im Bereich von Speichersystemen f r andere IntegraTUM Teilprojekte z B E Mail Durch eine enge Kopplung mit dem IntegraTUM Verzeichnisdienst wird jeder Mitarbeiter und Student sowohl ber pers nlichen Speicherplatz wie auch ber den Zugang zu Projektablagen verf gen Gemein samer Projektspeicherplatz erm glicht eine sehr beliebte Art der Kooperation zwischen verschiedenen Einheiten der TUM die bisher wegen der dezentralen Strukturen nicht m glich war Eine Verbesserung der Funktionalit t und Dienstqualit t im Bereich der Dateidienste ist ein erkl rtes Ziel des Teilprojekts Das betrifft insbesondere den Zugang mit den an der Hochschule verbreiteten Plattfor men Windows und Linux sowie ein weltweit zug ngliches Web Interface Um gespeicherte Daten zu sch tzen wird die gesamte Datensicherung vom LRZ bernommen Trotzdem k nnen Benutzer sehr einfach selbst auf ltere Versionen von Dateien zur ckgreifen Die Leitung dieses Teilprojekts liegt beim LRZ Das Teilprojekt Datenspeicher ist eingebettet in das allgemeinere Vorhaben unter dem Label Speicher f r die Wissenschaft einen Datenspeicher mit gemeinsamen Zugriff f r alle M nchner Hochschulen anzubieten siehe 2 4 1 2 13 3 1 6 Neuorganisation Systemadministration Im Rahmen von Pilotprojekten in zwei ausgew hlten Fakult ten Physik
499. se kompromittiert ist Ebenso verh lt es sich bei potentiellen DoS Angriffen die durch ein asynchrones Verkehrsaufkommen d h das ausgehende Datenvolumen bertrifft wesentlich d h um einen Faktor 1500 das eingehende Datenvolumen oder durch eine ungew hnlich geringe durchschnittliche Paketl nge kleiner als 100 By tes bei aus und eingehenden Verkehr erkannt werden In den meisten F llen handelt es sich um aus der Sicht des Rechnerbesitzers unerw nschte Programme die ber Schwachstellen des Betriebssystems oder eines Anwenderprogramms den Weg auf den Rechner gefunden haben Allerdings weisen auch un sachgem konfigurierte Peer to Peer P2P und Internettelefonie Programme ein Verhalten auf das einem Portscan hnelt In diesen F llen hat sich eine zeitnahe Sperrung als das Mittel der Wahl erwiesen F r eine automatische Sperrung sind allerdings die bisher verwendeten Analyseverfahren zu ungenau Aber auch hier stellt die steigende Datenrate das LRZ vor neue Herausforderungen siehe automatische Sperrung von auff lligen FTP Servern Deshalb werden zu diesem Zweck parallel die von den Backbo ne Routern gelieferten Netflow Informationen ausgewertet Das Resultat wird datenbankgest tzt gespei chert Die gewonnenen Netflow Informationen haben den Vorteil dass auch der Verkehr innerhalb des MWN analysiert werden kann Sie werden mittelfristig die alleinige Basis f r alle statistischen Verfahren bilden o Erkennung von ungew hnlic
500. sferiert werden m ssen Nachdem wir bereits gute Erfahrung mit der Software Courier beim Aufbau des Mailservers f r myTUM gemacht hatten sollte in Zukunft diese Software auch f r die mailin eingesetzt werden Bei dem von Courier benutzten maildir Format zur Speicherung von E Mails wird jede E Mail als eine eigene Datei abgelegt Dies f hrt im Be trieb zu wesentlich weniger Datentransfers Die gr te Herausforderung stellte die Migration der E Mails aus dem mbox in das maildir Format dar Mit einigem Programmieraufwand gelang es diese Daten inklusive aller Metadaten wie Zeitstempel und Flags E Mail gelesen E Mail beantwortet E Mail bereits heruntergeladen etc verlustfrei zu migrie ren ohne dass die meisten Nutzer selbst etwas machen mussten Die Migration erfolgte Ende M rz 2007 Da auf den Mailboxen Quotas vergeben werden sollten und in Zukunft auch Quotas gr er als 2 GByte m glich sein sollten musste zus tzlich von einer 32 bit Hardware Software auf eine 64 bit Hardware Software migriert werden Leider stellte sich dabei heraus dass Courier in der 64 bit Umgebung nicht so stabil wie in der 32 bit Umgebung l uft Aus diesem Grund haben wir schon nach kurzer Zeit die IMAP Software gewechselt und sind von Cou rier auf Dovecot umgestiegen Dies war nur m glich da Dovecot explizit als Ersatz f r Courier vorgese hen war und somit keine erneute Migration von Daten notwendig war Seit der Migration l uft der Mail se
501. shop 20 06 2007 21 06 2007 Wuppertal T Baur Reiser 246 Teil II Organisatorische Ma nahmen im LRZ FH BHN Sitzung 05 07 2007 05 07 2007 N rnberg L pple DFN Workshop 05 07 2007 06 07 2007 Wulkow Reiser FH BHN Sitzung 05 07 2007 05 07 2007 N rnberg Tr bs DFN Betriebsausschusssitzung 12 07 2007 12 07 2007 Berlin L pple D Grid Gespr che bzgl D Grid Sonderinvestitionen 31 07 2007 31 07 2007 Frankfurt Reiser D Grid All Hands Meeting eigener Vortrag 10 09 2007 12 09 2007 G ttingen T Baur D Grid All Hands Meeting 10 09 2007 12 09 2007 G ttingen Reiser ICSOC Konferenz 2007 16 09 2007 20 09 2007 Wien A Hamm Hanemann HP Procurve Endkunden Council 24 09 2007 28 09 2007 Roseville USA May D Grid SLA4 D Grid Meeting 05 10 2007 05 10 2007 Dortmund Reiser D Grid Nachhaltigkeits Workshop sowie Steuerungsausschusssitzung 09 10 2007 10 10 2007 Berlin Reiser DFN Betriebstagung und Teilnahme an zwei Workshops 15 10 2007 18 10 2007 Berlin Kornberger 18th IFIP IEEE Distributed Systems Operations and Management DSOM 2007 28 10 2007 01 11 2007 Silicon Valley USA T Baur BMCSoftware GmbH BMC Remedy User Group RUG 2007 05 11 2007 06 11 2007 K ln Ghareh Hassanloo Brenner Uni RZ Erlangen N rnberg DV Fachseminar 2007 07 11 2007 14 11 2007 Immenreuth Arndt G rtner ComConsult Akademie Wireless LAN Forum 2007 18 11 2007 21 11 2007 K nigswint
502. sidenten der Akademie gegen ber vorzubereiten insbesondere Vorschl ge f r die Ans tellung Bef rderung H hergruppierung und Entlassung von Bediensteten abzugeben Die Kommission kann einzelne ihrer Aufgaben dem Direktorium bertragen Die Kommission gibt dem Direktorium Richtlinien f r den Betrieb des Leibniz Rechenzentrums Sie kann Berichterstattung durch das Direktorium verlangen Die Kommission entscheidet bei Beschwerden von Benutzern der Einrichtungen des Leibniz Rechenzentrums soweit sie nicht vom Direktorium gere gelt werden k nnen Dem Direktorium obliegt der Vollzug der ihm von der Kommission bertragenen Aufgaben und des Haushalts Der Vorsitzende des Direktoriums vollzieht die Beschl sse des Direktoriums und leitet den Betrieb des Leibniz Rechenzentrums Er sorgt f r die wissenschaftliche Ausrichtung der Arbeiten am Leibniz Rechenzentrum 85 Vertretung der wissenschaftlichen Mitarbeiter am LRZ Die am LRZ hauptberuflich t tigen wissenschaftlichen Mitarbeiter w hlen f r die Dauer von jeweils zwei Jahren in geheimer Wahl eine Vertrauensperson aus ihrer Mitte Fragen der Planung und Verteilung der die wissenschaftlichen Vorhaben des LRZ betreffenden Aufgaben der Personalplanung und der Dienst ordnung sollen zwischen dem Vorsitzenden des Direktoriums und dieser Vertrauensperson besprochen werden 86 Satzungs nderungen nderungen dieser Satzung bed rfen der Zustimmung von mindestens der H lfte aller Mitglieder und vo
503. sie die Betriebsabl ufe f r die betref fenden Abschnitte organisieren Dabei kooperieren die Dom nen weitgehend gleichberechtigt so dass klassische hierarchische Entscheidungsstrukturen in den Betriebsprozessen nicht angewendet werden k nnen Zudem stellt sich das Problem wie ein dom nen bergreifendes Ende zu Ende QoS Monitoring realisiert werden kann um den Nutzern eine definierte Service Qualit t gew hrleisten zu k nnen Existie rende L sungen k nnen die Anforderungen dieses Szenarios nicht erf llen Im Rahmen dieses Projekts wird daher ein Multi Domain Monitoring System f r E2E Links entwickelt Das im Februar 2006 gestartete Projekt wird von zwei Mitarbeitern des DFN am LRZ durchgef hrt Interdomain Link Bone Pains EndPoint A eo Domain 3 Meas Point EndPoint B Meas Archive Meas Pont J Ff E2E Monitoring System Users fih ole E2ECU Abbildung 95 G ant2 E2E Monitoring System Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 237 Ausgehend von dem in den Vorarbeiten erarbeiteten Betriebskonzept wurde das Design eines Monitoring Systems konzipiert sowie die Implementierung durchgef hrt Die Anforderungen und Konzepte wurden in intensiver Zusammenarbeit mit den europ ischen Projektpartnern abgestimmt Neben dem grafischen User Interface mit unterschiedlichen anwenderspezifischen Sichten bietet das Sys tem offene Schnittstellen zur Integration mit anderen
504. sind daher datenintensive und rechenintensive Berechnungen die auf Ressourcen innerhalb sogenannter virtueller Organisationen VOs verteilt werden Beispiele finden sich in der Wettervorhersage in Astronomie Projekten der Hochenergiephysik in biologischen Genom Projekten in der Medikamentenforschung oder in den Wirtschaftswissenschaften In der letzten Zeit hat auch die Industrie ein zunehmendes Interesse am Grid Computing signalisiert Schon heute sind sich deshalb viele Analysten dar ber einig dass Grid Computing sich zu einer der wichtigsten Technologien der n chsten Jahre entwickeln und zum Motor v llig neuer Anwendungen werden wird Die Arbeiten im Bereich Grid Computing erfordern ein breit gef chertes Know how und werden deshalb von den Abteilungen e Kommunikationsnetze e Hochleistungssysteme und e Benutzernahe Dienste gemeinsam durchgefiihrt Als abteilungstibergreifende Einrichtung war der Arbeitskreis Grid Computing AK Grid ma geblich an der Koordinierung der verschiedenen Grid Projekte D Grid DEISA eDEISA LCG Tier 2 LRZ Grid innerhalb des LRZs beteiligt half Synergien auszunutzen und Doppelarbeit zu vermeiden Die zunehmende Bedeutung des Grid Computings am LRZ und die berf hrung der Grid Dienste in den Regelbetrieb erforderte die B ndelung der Aktivit ten in einer eigenen Gruppe Verteilte Ressourcen die in der Abteilung Hochleistungssysteme entstand Im Folgenden beschreiben wir die in einigen der Grid Pr
505. so dass sich ein Gesamtumsatz von ca 1 4 Mio Euro ergibt Viele Kunden auf dem Campus wollen nach wie vor nicht darauf verzichten ihre Software auf einem Datentr ger CD oder DVD in die Hand zu bekommen Aus diesem Grund werden deshalb auch im mer noch zwei halbautomatische Brenner f r die Vervielf ltigung der Originaldatentr ger betrieben die fast pausenlos in Betrieb sind Voraussetzung f r das Brennen ist nat rlich dass die Erlaubnis des Ver tragspartners vorliegt diese Originaldatentr ger zu kopieren Zunehmende Volumina in Verbindung mit ebenfalls zunehmender Diversifikation bei den Produkten gestalten die Vervielf ltigung und Distribution in Form von CDs und DVDs immer schwieriger Die Be m hungen gehen daher mit Nachdruck in Richtung Download und Web Shop Die gemachten Erfah rungen auf diesem Gebiet in Verbindung mit der erst seit kurzem m glichen Nutzung der jeweiligen Ver zeichnisdienste berechtigen zu der Annahme dass dies Art der Verteilung zu einer Verschlankung und Beschleunigung der Prozesse f hren wird 104 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Hochwillkommener Nebeneffekt wird dabei wohl auch sein dass sich das Software Asset Management verbessern kann War es bisher aus organisatorischen und personellen Gr nden meist nicht m glich Anf ragen der Art Kann uns das LRZ mitteilen wie viele Lizenzen wir vom Produkt XYZ in den letzten Jahren erworben hab
506. sorarchitek turen Programmiermodelle und Algorithmen Tools Parallele Filesysteme und hierarchiche Sys temsystem sowie Batchscheduling f r Petascalesysteme gef hrt ber die Zusammenarbeit wurde ein Letter of Intent unterzeichnet 6 3 7 4 BMBF Antr ge Die Steigerung von Effizienz Qualit t und Zuverl ssigkeit der mit Hoch und H chstleistungsrechnern erzielbaren Simulationen sowie die Reduktion des Energieverbrauchs h ngen dabei nicht nur von der zu Grunde liegenden Hardware ab Es kommt auch darauf an mit Hilfe intelligenter Software mehr Leistung Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 171 aus der vorhandenen und sich st ndig weiter entwickelnden Hardware zu erzielen Daher hat das Bun desministerium f r Bildung und Forschung im Rahmen des F rderprogramms IKT 2020 Forschung f r Innovationen einen Call f r HPC Software f r skalierbare Parallelrechner herausgegeben Zusammen mit verschiedenen Partnern hat das LRZ Vorantr ge f r drei Projekte erarbeitet und einge reicht e Effiziente Nutzung von Manycore Systemen am Beispiel der Automobilindustrie EMaCS Mo bil Partner TUM BMW Exa Intel LRZ e Integrierte System und Anwendungsanalyse f r massivparallele Rechner ISAR Partner TUM IBM Partec LRZ e Tools und Libraries f r Manycore Architekturen Toolman Partner HLRS FZJ Partec TU Dresden Dynamore GmbH LRZ 6 3 3 Computational Steering In diesem Bereich wirkt das LRZ be
507. ss alle Benutzerdateien bei einem Platten oder Systemfehler in der Regel auf den Stand des Vortages zur ckgesetzt werden k nnen Nach aller Erfahrung gibt es immer wieder Engp sse bez glich des Plattenplatzes der dem Benutzer zur Verf gung steht Daher sollten gro e Daten und Programmbest nde die ein Benutzer l ngere Zeit nicht zu verwenden gedenkt von ihm selbst auf andere Medien ausgelagert werden Archivierung Die ent sprechenden Dateien auf Platten sollten gel scht werden Dies sollte immer auch umgehend bei nicht mehr ben tigten Dateien geschehen Sofern keine entsprechenden Archivierungssysteme an dem jeweili gen System verf gbar sind k nnen die Daten zun chst auf eine andere Plattform transferiert und dann von dort aus gesichert werden Gr ere Datenbest nde k nnen relativ bequem mit dem Archivsystem TSM gespeichert und wieder ge holt werden Die entsprechende Software ist an allen Rechnern des LRZ f r den Endbenutzer verf gbar und kann ohne zus tzliche Berechtigung verwendet werden F r die Nutzung dieses Archivsystems von institutseigenen Rechnern aus kann die Software kostenlos vom LRZ bezogen werden Eine Anleitung zur Nutzung f r den Endbenutzer findet sich unter http www Irz de services datenhaltung adsm Auf den genannten Seiten findet man auch die Nutzungsrichtlinien f r das Archiv und Backupsystem An dieser Stelle sei nur darauf hingewiesen dass das LRZ im Konsens mit den Empfehlungen der DFG
508. ssettenspeichersysteme Bandlaufwerke Kassetten Kapazit t IBM UltraScalable Tape Library L52 20 x IBM LTO II 3 055 611 TB IBM UltraScalable Tape Library L32 20 x IBM LTO II 4 568 913 TB Library SUN SL8500 16x SUN T10K 3 541 1 770 TB Gesamt 11 164 3 294 TB Durch die Hardwarekomprimierung der Bandlaufwerke wird in der Praxis eine deutlich h here Speicher belegung erreicht Plattensystem Storageserver Plattentyp Anzahl Platten Kapazitat 2 x SUN Flexline 380 Storageserver Fibre Channel 364 88 TB 1 x STK D280 Fibre Channel 98 14 TB 2 x IBM DS4500 Fibre Channel 238 32 TB 3 x IBM FASTt900 SATA SATA 252 63 TB 3 x NetApp FAS3050C Fibre Channel 634 160 TB 1 x NetApp FAS270C Fibre Channel 14 0 5 TB 2x NetApp FAS6070 Fibre Channel 224 64 TB 1 x NetApp FAS6070 SATA 126 95 TB 1 x NetApp R200 SATA 112 36 TB Gesamt 2062 552 5 TB Die Tabelle gibt jeweils das Bruttovolumen der Online Speichersysteme an Netto ist ein Abzug von 25 und mehr zu veranschlagen je nachdem wie redundant das System konfiguriert ist RAID Check summen Hotspare Die Plattensysteme sind mit den Rechnern und Bandlaufwerken ber die SAN Infrastruktur verbunden Den Kern der Speichernetze bilden Brocade Switches mit insgesamt 384 Ports Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 3 2 Organisationsstruktur des LRZ Das LRZ ist seit vielen Jahren in vier Abteilungen gegliedert Eine Abtei
509. stand zum Jahresende 2007 1 Einordnung und Aufgaben des Leibniz Rechenzentrums LRZ Das Leibniz Rechenzentrum LRZ ist das Hochschulrechenzentrum f r die Ludwig Maximilians Universit t die Technische Universit t M nchen und die Bayerische Akademie der Wissenschaften Auch die Fachhochschule M nchen und die Fachhochschule Weihenstephan sowie zahlreiche weitere Wissenschaftsinistitutionen nutzen Leistungen des LRZ Zus tzlich betreibt das LRZ Hochleistungsre chensysteme f r alle bayerischen Hochschulen sowie einen nationalen H chstleistungsrechner der zu den leistungsf higsten Rechnern in Europa z hlt und der der wissenschaftlichen Forschung an allen deut schen Hochschulen offen steht Im Zusammenhang mit diesen Aufgaben f hrt das LRZ auch Forschungen auf dem Gebiet der angewand ten Informatik durch Welche Aufgaben hat ein Hochschulrechenzentrum Die heutzutage und besonders an bayerischen Hochschulen bereits weit gehend erreichte dezentrale Ver sorgung mit Rechenleistung durch PCs und Workstations an den Lehrst hlen und Instituten erfordert die Durchf hrung und Koordination einer Reihe von Aufgaben durch eine zentrale Instanz das Hochschulre chenzentrum e Planung Bereitstellung und Betrieb einer leistungsf higen Kommunikationsinfrastruktur als Binde glied zwischen den zentralen und dezentralen Rechnern und als Zugang zu weltweiten Netzen e Planung Bereitstellung und Betrieb von Rechnern und Spezialger ten die wege
510. stations SYSTAT Statistisches Programmsystem Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 103 Textsatzsystem TeX einschl LaTeX TUSTEP Das T binger System von Textverarbeitungsprogrammen erm g licht u a den Vergleich unterschiedlicher Textfassungen Index und Registererstellung Erzeugung von Konkordanzen kritische Editionen LRZ beteiligt sich nach wie vor an den Weiterentwick lungskosten Nachfrage lasst stark nach 5 3 8 Statistik und Ausblick Statistische Werte Die nachfolgende Tabelle listet die wertm ig umsatzst rksten Softwarepakete auf Die Virenschutz Software Sophos ist wiederum nicht zahlenm ig aufgef hrt da hier eine f r den Endbenutzer kostenlose Verteilung stattfindet St ck in Wert der ausge Hersteller Name Beschreibung 2007 lieferten Lizenzen a im Jahr 2007 Applikationen System und Server Software 26 603 699 905 Adobe Acrobat Acrobat Photoshop GoLive Ilustrator Premiere GoLive Illustrator Premiere 2 948 356 910 a a f r alle Rechnerplattformen 90 per download frosts a pee Ausblick Der Wert der von den berechtigten Einrichtungen tiber das LRZ beschafften Software betrug wie aus o g Tabelle ersichtlich im Jahr 2007 ber 1 1 Mio Euro wenn nur die Massenprodukte ber cksichtigt werden Werden au erdem noch die Produktpakete Mathematica SPSS Matlab ArcGIS SAS und Lab VIEW einbezogen so kommen weitere ca 250 Tsd Euro hinzu
511. ste besser unterst tzen zu k nnen wurde ein TUM weiter Service Desk in Anlehnung an die Referenzprozesse der ITIL IT Infrastructure Library aufgebaut Das LRZ hat zun chst auf technischer Ebene die Analyse der Anforderungen und die Evalua tion geeigneter Werkzeuge f r den Service Desk durchgef hrt Daran anschlie end wurden das Hosting und der Betrieb des ausgew hlten Open Source Werkzeugs OTRS bernommen Aufgrund der sehr guten Akzeptanz des Service Desks durch die Benutzer und der durch die gro e An zahl an Supportanfragen au erordentlich hohen zus tzlichen Arbeitsbelastung wurde die TUM seitige Schaffung einer neuen Projektstelle motiviert die den organisatorischen und technischen Ausbau der Supportinfrastruktur weiter vorantreiben soll Inzwischen arbeiten an TUM und LRZ bereits mehr als 30 so genannte Supportagenten zur Beantwortung von Benutzeranfragen mit dem neuen System Jahresbericht 2007 des Leibniz Rechenzentrums Teil I 69 3 Infrastruktur des LRZ 3 1 Die maschinelle Ausstattung 3 1 1 Systeme Die folgende Tabelle gibt einen berblick ber die Ausstattung des LRZ mit Rechnern aller Gr enord nungen vom Hochleistungsrechner bis hin zu den Arbeitspl tzen f r Benutzer und Mitarbeiter Stand Ende des Jahres 2007 Die Rechner der letzten Gruppe der Liste erbringen dabei feste Dienste f r die sich die Endbenutzer nicht auf der Maschine selbst einloggen Bei den anderen muss sich der jeweilige Benutzer pers nlich m
512. stechnik Fachschaften MPI Institut f r medizinische Informationsverarbeitung Biometrie und Epidemiologie Institut f r Kommunikationswissenschaft Fachschaft Elektro amp Informationstechnik Institut f r Medizinische Optik LMU Informatik TUM Katholische Universit t Eichst tt Lehrstuhl f r Experimentalphysik LMU Garching Lehrstuhl f r Ergonomie TU Lehrstuhl f r Kommunikationsnetze Lehrstuhl f r Landschafts kologie TU Lehrstuhl f r Prozessrechner Institut f r Informatik der LMU Institut f r Informatik der LMU Mathematisches Institut LMU Zentrum Mathematik TU M nchen Medizin der LMU Gro hadern Meteorologisches Institut LMU Firma M net angeschlossene Institute Studenten und Mitarbeiter der TUM Institut f r Organische Chemie und Biochemie Lehrstuhl II Institut f r Organische Chemie und Biochemie Lehrstuhl III Institut f r Physikalische Chemie TUM 118 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme photo tum Lehrstuhl fur Photogrammetrie und Fernerkundung phy Imu CIP Pool der Physik LMU phym Imu CIP Pool der Physik LMU Mitarbeiter radius wzw tum rcs tum Informationstechnologie Weihenstephan ITW Lehrstuhl fur Realzeit Computersysteme regent tum Lehrstuhl fur Rechnergest tztes Entwerfen rz fhm Rechenzentrum der FH Munchen Studenten staff fhm Rechenzentrum der FH Munchen Mitarbeiter stud ch tum Fachschaft f r Chemie Biologie und Geowissenschaften tec agrar tum the
513. stian Mende 4 5 Auszubildende Von den im Jahr 2007 insgesamt 133 am LRZ angestellten Mitarbeitern Stand 31 12 2007 waren 74 wissenschaftliche Mitarbeiter 21 Informatiker FH und MTAs 28 technische Angestellte 5 Verwaltungsangestellte 5 Besch ftigte in Haustechnik und Reinigungsdienst Davon waren 9 Mitarbeiter nur zur H lfte besch ftigt Dabei sind befristet angestellte Mitarbeiter in den Zahlen mit ber cksichtigt die oft wechselnde Anzahl der studentischen Hilfskr fte einschl der studentischen Nachtoperateure und Abendaufsichten jedoch nicht 3 3 R umlichkeiten und ffnungszeiten 3 3 1 Lage und Erreichbarkeit des LRZ Das Leibniz Rechenzentrum befindet sich auf dem Garchinger Hochschul und Forschungsgel nde ca 16 Kilometer nordnord stlich der M nchner Innenstadt Anschrift Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften Boltzmannstra e 1 85748 Garching bei M nchen Verkehrsverbindungen Vom Hauptbahnhof mit U4 U5 zum Odeonsplatz dann U6 Richtung Garching Forschungs zentrum Vom Flughafen S Bahn S8 in Richtung Hauptbahnhof bis zur dritten Haltestelle Isma ning etwa 13 Minuten Dauer Dort mit Regionalbus 230 Richtung Gar ching Forschungszentrum Haltestelle Boltzmannstra e Jahresbericht 2007 des Leibniz Rechenzentrums Teil I Rufnummern Durchwahlen spezieller Anschliisse 089 35831 Benutzersekretariat 8784 LRZ Hotline mit Benutzerberatung 8800 Hauptsekre
514. t e gegen die Benutzungsrichtlinien oder gegen strafrechtliche Bestim mungen unter Beachtung des Vieraugenprinzips und der Aufzeichnungspflicht in Benutzerdateien und Mailboxen Einsicht zu nehmen oder die Netzwerknutzung durch den Benutzer mittels z B Netzwerk Sniffer detailliert zu protokollieren c bei Erh rtung des Verdachts auf strafbare Handlungen beweissichernde Ma nahmen wie z B Key stroke Logging oder Netzwerk Sniffer einzusetzen 3 Der Systembetreiber ist zur Vertraulichkeit verpflichtet 4 Der Systembetreiber gibt die Ansprechpartner f r die Betreuung seiner Benutzer bekannt 5 Der Systembetreiber ist verpflichtet im Verkehr mit Rechnern und Netzen anderer Betreiber deren Benutzungs und Zugriffsrichtlinien einzuhalten 86 Haftung des Systembetreibers Haftungsausschluss 1 Der Systembetreiber bernimmt keine Garantie daf r dass die Systemfunktionen den speziellen An forderungen des Nutzers entsprechen oder dass das System fehlerfrei und ohne Unterbrechung l uft Der Systembetreiber kann nicht die Unversehrtheit bzgl Zerst rung Manipulation und Vertraulich keit der bei ihm gespeicherten Daten garantieren 2 Der Systembetreiber haftet nicht f r Sch den gleich welcher Art die dem Benutzer aus der Inans pruchnahme der IV Ressourcen nach 1 entstehen ausgenommen ist vors tzliches Verhalten des Sys tembetreibers oder der Personen deren er sich zur Erf llung seiner Aufgaben bedient 87 Folgen einer mis
515. t genutzt um Fehler in der chemischen Re Analyse von durch Fernerkundung gewonnene Daten ber stratosph risches Ozon besser charakterisieren zu k nnen Es handelte sich um ein mittelgro Bes Projekt das keine extensiven Resourcen ben tigte Dennoch war es f r DEISA von gro em Interesse aufgrund der damit verbundenen Notwendigkeit die Applikation f r die Verwendung auf den DEISA Ressourcen aufzubereiten Das Projekt konzentriert sich auf die Daten Assimilation die sich ideal f r eine Anwendung in einem Grid eignet da sie die Zusammenf hrung und Verarbeitung von Daten aus verschiedenen Quellen beinhaltet Im ersten Teil des noch laufenden Projekts wurde der Code auf die IBM AIX Plattform portiert SEISSOL Seismic Wave Propagation Solutions for Realistic 3D Media Numerische Seismologie Das vordringliche Ziel des von Dr Martin K ser Geophysik Ludwig Maximilians Universit t M n chen und Dr Michael Dumbser Aerodynamik und Gasdynamik Universit t Stuttgart durchgef hrten Projekts war die Durchf hrung von hochaufl senden Simulationen des seismischen Wellenfeldes mit Hilfe von aktuellen numerischen Algorithmen Im Zuge der Codeanalyse ergaben sich Fragen zur Last verteilung die zus tzlichen Aufwand erforderlich machten um die Skalierbarkeit des Codes zu verbes sern Als Ergebnis umfangreicher Verbesserungsarbeiten die am LRZ durchgef hrt wurden konnte der Code auf bis zu 1024 cores ausgef hrt werden Dadurch konnten hochge
516. t das Rechenzentrumsnetz ein das die zentralen Rechner im Rechnerw rfel des LRZ miteinander verbindet Das LRZ ist f r das gesamte Backbone Netz und einen Gro teil der angeschlossenen Institutsnetze zu st ndig Eine Ausnahme bilden die internen Netze der Medizinischen Fakult ten der M nchner Universi t ten u a Rechts der Isar TUM Gro hadern und Innenstadt Kliniken LMU sowie der Informatik der TUM Sie werden von den jeweiligen Rechenzentren der Fakult ten betrieben und betreut Das LRZ ist jedoch f r die Anbindung dieser Netze an das MWN zust ndig Die Bilder in Abschnitt 2 2 zeigen die f r das Backbone Netz verwendeten Strecken deren bertra gungsgeschwindigkeiten und Endpunkte Hieraus l sst sich die Ausdehnung des Netzes ablesen 7 1 1 Backbone Netz Das Backbone des M nchner Wissenschaftsnetzes bestehend aus Routern und Glasfaserstrecken zeigt folgendes Bild Internet Anbindung Campus Garching Fast Ethemet Gigabit Ethemet 10 Gigabit Ethemet Switch mit Layer 2 Funktion Router mit Layer 3 Funktion Wellenl ngen Multiplexer Fallback Internet Anbindung serielle Anschl sse 64 KBit s und 128 KBit s brodq1 Weihenstephan Weitere Areale mit MNet Glasfaserstrecken Campus Weihenstephan Weitere Areale mit Telekom Stand 2007 Campus Gro hadern Glasfaserstrecken Abbildung 71 Backbone Netz des MWN Aus der Abbildung ist die Struktur des Backbones ersichtlich Den Kern des Backbones bil
517. t des Klinikums Rechts der Isar 1 x 1GE Anbindung des Schwabinger Krankenhauses ans MWN 1 x 1GE Medizinisches Intranet des Klinikums Rechts der Isar 1 x 1GE Anbindung des Geb udes Amalienstra e ans MWN 1 x 1GE TK Anlagen Kopplung 1 x S2m Anbindung des Geb udes Martiusstra e ans MWN 1 x 1GE Intranet der LMU Verwaltung 1 x 1GE TK Anlagen Kopplung 1 x S2m Anbindung zur Zentrale in der Lothstra e 34 von folgenden Standorten Pasing Am Stadtpark 20 Lothstr 21 Schachenmeierstr 35 Karlstr 6 Infanteriestr 13 Erzgie ereistr 14 Dachauer Str 98b TK Anlagen Kopplung Intranet der FH Verwaltung Zusammenfassend ergibt dies folgende TK Anlagen Kopplungen im MWN FH Miinchen Stand 31 12 2007 e Pasing Am Stadtpark 20 e Lothstr 21 e Schachenmeierstr 35 e Karlstr 6 e Infanteriestr 13 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 199 e 6ErzgieBereistr 14 e Dachauer Str 98b LMU M nchen Stand 31 12 2007 e Amalienstr 17 e Martiusstr 4 Die medizinische Fakult t der TUM ist ber mehrere Standorte im MWN verteilt Klinikum Rechts der Isar Klinikum am Biederstein Poliklinik f r Pr ventive und Rehabilitative Sportmedizin und Schwabin ger Krankenhaus Da hier auch patientenbezogene Daten bertragen werden wurde hierf r ein separates Intranet ber die einzelnen Standorte auf der Basis eigener WDM Kan le mit einer Kapazit t von jeweils 1 Gbit s mit der Zentrale im Kl
518. t einer strukturierten Verkabelung versehen werden Einige Geb ude im Nordgel nde und Garching wurden bereits 2007 fertiggestellt Innenstadt 0102 N2 HOCHVOLTHAUS 0103 N3 EL MASCH GERAETE 0106 N6 MATERIALPRUEF AMT 0201 GABELSBERGERSTR 43 0202 GABELSBERGERSTR 39 0203 GABELSBERGERSTR 45 0204 GABELSBERGERSTR 49 0502 BESTELMAYER SUED 0503 THIERSCHBAU 0508 WAERMEKR HYDR INST 0509 NEUBAU INNENHOF Obernach 3101 OBERNACH BUEROGEBAEUDE 3102 OBERNACH VERSUCHSHALLE 1 Garching 5111 WASSERWIRTSCHAFT GARCH 5402 LABORGEB CH 2 3 6 7 GARCH Iffeldorf 3150 HOFMARK 3 3152 HOFMARK 3 LMU M nchen Im Bereich der LMU M nchen sind alle Geb ude mit einer strukturierten Verkabelung versehen Es gibt jedoch teilweise Defizite in der Verwendung der installierten Medien nur 4 drahtiger Anschluss Cable sharing oder Installation von Kat5 Kabeln Hier muss in den n chsten Jahren nachinstalliert werden Die ersten Kostensch tzungen hierf r wurden erstellt Weihenstephan TU M nchen Im Campus Weihenstephan der TU M nchen sind alle Geb ude mit einer strukturierten Verkabelung versehen entweder Kupfer Kat 6 Kabel oder Glas multimode Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 203 LWL Netze auf den Campus Gel nden Auf den Campusgel nde TUM Stamm Nordgel nde LMU Stammgel nde TUM Garching TUM Weihenstephan und LMU Gro hadern Martinsried sind privat verlegte Glasfaserstrecken installiert die teilweise schon ber 15 Jahr
519. t es aber bei den Clients f r die Mail und Kalendernutzung Hier scheinen einzig Outlook und Outlook Express in der Lage zu sein die formatierten E Mails ber Kalen derereignisse so zu behandeln dass der Nutzer Termineintr ge funktionssicher und komfortabel verwal ten kann Die eingehendere Untersuchung anderer plattform bergreifender Client Software mit entspre chenden Connectoren zur Behandlung von Kalender E Mails steht noch aus Diese Test wurden in 2006 ebenfalls durchgef hrt Die Softwareentwicklung schreitet voran so dass das oben skizzierte Zugriffs problem nicht mehr so stark auftritt Insbesondere aktuelle Entwicklungen bei den Kundenanforderungen an der TUM und der LMU die ver st rkt zu integrierter Groupware tendieren erfordern eine intensivere Besch ftigung mit dem Thema Zum Jahreswechsel 2006 2007 wurde dem mit der Installation einer Exchange 2007 Instanz f r interne Tests und Evaluationen Rechnung getragen Die TUM hat sich dann im Juli 2007 f r Exchange als Groupwarel sung entschieden und das LRZ mit dem Aufbau einer Serviceumgebung beauftragt Die doch recht arbeitsintensive und in Zusammenarbeit mit einer Beratungsfirma durchgef hrte Planung zur Skalierung der Server und Datenbanken Hochverf gbarkeitsl sungen f r die Rollen sowie die Installati on der Serviceumgebung konnten bis Ende September termingerecht fertig gestellt werden Anfang Okto ber des Jahres ging die L sung in den Pilotbetrieb f r die TUM ber
520. t werden unter einem einheitlichen Konzept zu organisieren 38 Teil I Das Dienstleistungsangebot des LRZ 2 4 1 Zugriff auf gemeinsame Daten Die Dezentralisierung der Rechnerversorgung in den Hochschulen hat dazu gef hrt dass die Online Daten einer Hochschule vielerorts gespeichert sind auf Arbeitsplatzsystemen Servern und Spezialrech nern in Instituten und den Hochschulrechenzentren wie dem LRZ Diese Daten unterscheiden sich stark hinsichtlich ihrer Herkunft und Verwendung e Standardsoftware projektspezifische Software Texte Multimedia Daten Datenbanken maschinell zu verarbeitende Daten Ergebnisse e Projektdaten wissenschaftlicher Projekte Verwaltungsdaten e weltweit zugreifbare WWW Seiten global abfragbare Datenbanken lokal verbreitete institutsin terne private und vertrauliche Daten e kurzlebige oder langlebige Daten F r viele Anwendungsprofile besteht die Notwendigkeit des wechselseitigen Zugriffs Nur selten reichen dazu die M glichkeiten von WWW oder FTP alleine aus Ein komfortabler Zugang auf Dateisystemebene ist notwendig Es ist offensichtlich dass dezentrale Datenhaltung in bestimmten Bereichen gravierende Nachteile hat die durch zentrale Datenhaltung vermieden werden e Interdisziplin re Zusammenarbeit eine kleinteilige IT Infrastruktur erschwert bisher den Daten austausch zwischen unterschiedlichen Fakult ten und teilweise sogar Lehrst hlen die separate Sys teme betreiben Im Hinblick
521. t werden wie sich die Organisation der Prozessrollen kompatibel mit der Aufbauorga nisation des LRZ realisieren l sst Process e Ohne dass die bernahme von Konzepten aus der ITIL V3 oder anderen Rahmenwerken z B CobiT eTOM MOF zu einem sp teren Zeitpunkt ausgeschlossen werden soll wird empfohlen sich bei der Einf hrung eines Managementsystems f r die IT Diensterbringung am LRZ zun chst am vergleichsweise bersichtlichen Prozessrahmenwerk der ISO IEC 20000 zu orientieren Zwar ist f r die Interpretation der Norm die Kenntnis anderer Rahmenwerke beinahe unumg nglich die vollst ndige Ausgestaltung eines IT Service Managementsystems unter ausschlie lichem R ckgriff auf die Inhalte der Normdokumente ist nur schwer vorstellbar die Belastbarkeit der dort formulierten Anforderungen erm glicht jedoch eine Priorisierung der teilweise sehr umf ng lichen und allgemein gehaltenen Empfehlungen der anderen Rahmenwerke Einen zus tzlichen Vorteil kann man in der Zertifizierbarkeit der ISO IEC 20000 sehen Es sollte erwogen werden das Erreichen einer entsprechenden Zertifizierung mit der sich die F higkeit zur effektiven Diensterbringung nach Kundenbed rfnissen durch eine unabh ngiges Audit belegen l sst als l ngerfristige Zielsetzung f r das LRZ zu definieren e Mittelfristiges Ziel muss sein f r alle im Kontext der qualitativ gesicherten Diensterbringung wichtigen Prozesse den Reifegrad 3 im Sinne der Reifegrade von CMM vgl
522. taltung Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 243 21 07 2007 27 07 2007 San Francisco USA Diehn Uni RZ WS Erstinstallation 27 07 2007 27 07 2007 Augsburg Cramer Fakler Strigl ZKI AK Verzeichnisdienste E Learning Verwaltungs DV 10 10 2007 12 10 2007 Hamburg Hommel Uni RZ Erlangen N rnberg DV Fachseminar 2007 mit eigenem Vortrag 07 11 2007 14 11 2007 Immenreuth Oesmann Uni RZ Arbeitskreis AKNetzPC Thementag Softwareverteilung 08 11 2007 08 11 2007 Erlangen Niedermeier Uni RZ G4 Treffen 20 11 2007 20 11 2007 Regensburg Cramer IC Consult Workshop Identity und IT Service Management 06 12 2007 06 12 2007 Stuttgart Hommel PRO7 Rechenzentrumsbesichtigung 06 12 2007 06 12 2007 Unterf hring W Baur Beyer Brunner Glose Heller Kornberger Niedermeier Vukasinov Weidner Weinert Uni RZ Workshop zu Chancen M glichkeiten und Voraussetzungen der DFN PKI 13 12 2007 13 12 2007 Regensburg Cramer Abteilung Hochleistungssysteme D Grid Treffen 15 01 2007 16 01 2007 Karlsruhe Heller Mehammed DESY SRM dCache Workshop 17 01 2007 19 01 2007 Hamburg Heller NetApp Teilnahme an einem Presse Event auf Einladung der Firma 22 01 2007 24 01 2007 Barcelona SP Biardzki DEISA Executive Committee 24 01 2007 24 01 2007 Paris F Steinh fer Uni Performanceoptimierungsprojekt 31 01 2007 02 02 2007 Jena Christadler FZ J lich Workshop zum Con
523. tand f r alle aus dem Benutzungsverh ltnis erwachsenden rechtlichen Anspr che ist M n chen Diese Benutzungsrichtlinien wurden am 17 12 1996 von der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften verabschiedet und mit sofortiger Wirkung in Kraft gesetzt Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 963 Anhang 4 Betriebsregeln des Leibniz Rechenzentrums Fassung vom Oktober 2007 Hinweis Aufgrund der nderung der Satzung der Kommission f r Informatik vom 14 12 2007 werden hieraus ab geleitete Regelungen wie Benutzerrichtlinien Betriebsregeln und Geb hrenordnung zeitnah berarbeitet Basis f r die Nutzung des Leistungsangebots des Leibniz Rechenzentrums sind die Benutzungsrichtli nien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften vom 17 12 1996 Erg nzend und jeweils mit Bezug auf diese Benutzungsrichtlinien gelten die folgenden Betriebsregeln 1 Vergabe von Kennungen f r LRZ Systeme 83 Absatz 3 Die Berechtigung zur Nutzung von LRZ Systemen mit pers nlichen Kennungen wird vom Leibniz Rechenzentrum normalerweise nicht direkt an den Benutzer vergeben sondern ber den Beauftragten einer Einrichtung Master User Dazu ist als formaler Rahmen ein LRZ Projekt notwendig das vom jeweiligen Leiter der Einrichtung mit dem Formblatt Antrag auf ein LRZ Projekt zu beantragen ist Die Ausgabe von Studentenkennungen mit I
524. tariat LRZ 8703 LRZ Telefax 9700 3 3 2 ffnungszeiten LRZ Geb ude Boltzmannstra e 1 85748 Garching bei M nchen Montag mit Donnerstag 7 30 bis 18 00 Uhr Freitag 7 30 bis 17 00 Uhr Benutzersekretariat in der Eingangshalle Montag mit Donnerstag 7 30 bis 17 30 Uhr Freitag 7 30 bis 16 30 Uhr Beratung Raum 1 E 042 in der Eingangshalle Montag mit Freitag jeweils 9 00 bis 17 00 Uhr Flughafen M nchen U Bahn Ausgang S d i ef wy Fe _ FMI P g 79 80 Teil I Infrastruktur des LRZ Die LRZ Hotline ist rund um die Uhr unter der Telefonnummer 089 35831 8800 erreichbar Zu den Hauptzeiten d h Montag mit Freitag jeweils 9 00 bis 17 00 Uhr erreichen Sie dort speziell geschulte studentische Mitarbeiter zu den brigen Zeiten studentische Opera teure PC Arbeitsplatze Raum I E 076 direkt hinter der Eingangshalle Montag mit Freitag jeweils 7 30 bis 20 45 Uhr Betriebszeiten e Die Anlagen des LRZ Rechner Speichersysteme Netze sind abgesehen von Wartungszeiten rund um die Uhr in Betrieb e F r die Wartung von Rechnern und Speichersystemen gibt es keine regelm igen Wartungszeiten Wartungsarbeiten erfolgen nach Bedarf und werden einige Tage vorher als aktuelle LRZ Information ALI angek ndigt Diese Informationen werden ber verschiedene Kan le publiziert u a am LRZ Webserver e Wartungsarbeiten an Netzkomponenten erfolgen in der Regel dienstags zwischen 7 30 und 9 00
525. tation ber Internet zur Verf gung gestellt werden so dass eine zeit lich und rtlich entkoppelte Kursteilnahme m glich ist Die Betreuergruppe ist erster Ansprechpartner in allen Fragen der Benutzer die das installierte Rechen system die auf ihm installierte Anwendersoftware die Fehlerverfolgung und korrektur die Erstellung von Dokumentationen die rechnerspezifischen Programmoptimierungen sowie die Kooperationsm g lichkeiten zwischen Benutzern unterschiedlicher Fachbereiche Synergie betreffen In allen methodischen fachspezifischen und wissenschaftlichen Fragen vermittelt das LRZ die Benutzer an das Kompetenznetzwerk weiter Dieses ber t vertieft in methodischen und fachlichen Fragen des Hochleistungsrechnens sowie in Fragen der Programmanpassungen an die verschiedenen Rechnertypen die in Deutschland bzw in Europa zur Verf gung stehen Auf Hinweise aus der Betreuergruppe des LRZ leitet es Synergieeffekte zwischen Projekten ein Im Gegensatz zu der wissenschaftlichen Ausrichtung des Kompetenznetzwerks sind die Aufgaben der LRZ Betreuungsgruppe rechnernah und service orientiert Im Einzelnen sind es e die Beratung von Benutzern im Vorfeld eines Projektes z B zur Einsch tzung der auf dem vorhan denen Rechner ben tigten bzw vorhandenen Ressourcen e die Zuteilung von Benutzerberechtigungen und Rechnerressourcen nach Ma gabe der vom Len kungsausschuss aufgestellten Regeln und der festgestellten Bewertung des Projekts e d
526. te in der LRZ Hotline enenen 5 1 3 Be rat ngss hwerp nkte ssteissi e iieii nn esse ia 5 1 4 Online Problem Management des LRZ Hotline Web nonsense 5 1 5 bersicht ber die Nutzung des Trouble Ticket Systems c c ccccccsesesssssseseeeees 5 1 6 bersicht ber die Nutzung des Quick Ticket Systems QT c c ccccessssssseseeeees 5 1 7 Strategie berlegungen u n amp 2 22 22 2 mar sn ELSE Kurse Veranstaltungen F hrungen ussssensensennennennnnnneennn essen nne ne 5 2 1 Kurs bersicht Statistik 2007 oo cccccccsesssssccccceeessessscssesccsssesesseessessesceesesssaeeeeees 5 2 2 Nutzung der LRZ Kursr ume essssessessensennennnennnennnnnennennne essen 3 23 FUNNEN re re ee RE er TAE een 5 2 4 Erstsemesterveranstaltungen nenessessensnnneennennnenneennnnnnnnnneenne nn essen 5 2 5 Sicherheit im Internet Ferienprogramm f r Sch ler nen Software Versorgung f r Rechnersysteme au erhalb des LRZ neene 5 3 1 Vielfalt der Lizenzmodelle f r Softwareprodukte w chst 5 3 2 Softwaredownload als praxisorientierte Nutzung der Verzeichnisdienste am Beispiel Mindmanager cccccscccsscessceesceeeceeseeeseeeseeeeecseecaecaecnaecnseeeseenes 5 3 3 Online Bestellverfahren ausgeweitet uuessenseeseenseensneenneennnennnn esse nnne nennen Jahresbericht 2007 des Leibniz Rechenzentrums 5 3 4 Online Bestellungen statistische We
527. tegriert werden Da damit LRZ SIM der Ort der Wahrheit ist muss das LDAP Directory des Mailsystems von LRZ SIM aus pro visioniert werden Vom Mailteam wurde eine API zur Verwaltung der Maildaten geschrieben auf die das neue Webinterfa ce des ID Portals aufsetzen kann Die Implementation der Provisionierung erfolgt dann Anfang 2008 5 5 4 5 Migration des Mitarbeiterservers mailin F r den Mailserver mailin Irz muenchen de auf dem sich haupts chlich die Mailboxen von Mitarbeitern der LMU TUM BAdW und LRZ befinden wurde seit Jahren die IMAP und POP Software der Univer sity of Washington eingesetzt Diese Software setzt auf das sogenannte mbox Format zur Speicherung der E Mails auf Bei diesem Format befinden sich alle E Mails eines Folders wie zum Beispiel der INBOX in einer gro en Datei Bei der Ankunft jeder neuen E Mail oder auch nur bei der Abfrage ob eine neue E Mail angekommen ist muss diese Datei vom Datei Server zum Mailserver bertragen werden Dies f hrte zu einem sehr gro en Datenvolumen das zwischen Datei und Mailserver bertragen werden musste Nachdem in den Jahren zuvor bereits durch Upgrade der Hardware des Datei und des Mailser vers Engp sse beseitigt wurden war seit Ende des Jahres 2006 die Verbindung zwischen Datei und Mailserver am Limit angelangt Eine grunds tzliche L sung war in unseren Augen nur m glich durch eine Migration vom mbox Format auf ein Format bei dem im Betrieb weniger Daten tran
528. teln und die Hotline und Beratung zu einem geschulten Team werden zu lassen Das Konzept wurde in 2007 umgesetzt und auch weitgehend auf die Ausbildung der Operateure bertragen Noch nicht ganz absehbar sind die Auswirkunden des ISO 20000 Projektes am LRZ auf die Positionie rung der Hotline und der sich daraus ergebenden Aufgabengebiete Anspr che an Wissen und F higkeiten der stud Hilfskr fte 5 1 3 Beratungsschwerpunkte In den folgenden bersichten sind in den Zahlen auch die Anfragen enthalten die mitteils E Mail an die Adressen Hotline lrz de und LRZPost lrz de gehen In den folgenden Tabellen stehen Quick Tickets QT f r Beratungsleistungen und den Benutzern gegebene Hilfestellungen der LRZ Hotline und LRZ Beratung First Level Support Leistungen die sich in keinem Trouble Ticket TT niederschla gen e Problembereich Netz Systemdienste einschl E Mail und Rechner mit Peripherie Mit 3028 Vorjahr 2342 29 F llen steht dieser Punkt wieder an erster Stelle Die gr ten Un terpunkte sind Dienstklassifikation Gesamt QT TT VPN 712 493 44 410 284 302 209 Mail gt Zentrale Mailserver 271 195 39 141 89 130 106 Mail gt Anwenderproblem 216 212 2 109 123 107 89 Verbindungsproblem 209 237 12 91 98 118 139 HLRB 111 5 106 VPN betrifft VPN Verbindungen durch die man eine IP Adresse aus dem MWN enth lt Eine solche ist notwendig generell bei Zugang ber WLAN und f r bestim
529. ten anderer M nchner Hochschulen erfolgt die Vergabe individuell und direkt durch das LRZ Ende 2007 hatten ca 69 000 Studenten Vorjahr ca 71 000 eine Kennung die u a f r Mailzwecke und f r den W hl bzw VPN Zugang ins MWN genutzt werden konnte Hier die Aufteilung auf die Hoch schulen mit den meisten Kennungen Anzahl Hochschule Kennun gen Ludwig Maximilians Universit t M nchen 44 892 Technische Universit t M nchen 22 882 Hochschule f r Musik und Theater M nchen 945 Akademie der Bildenden K nste M nchen 99 Verwaltungs und Wirtschaftsakademie M nchen 64 Hochschule f r Philosophie M nchen 65 Hochschule f r Fernsehen und Film M nchen 62 Hochschule f r Politik M nchen 26 Fachhochschule Weihenstephan 20 FernUniversit t Hagen 26 Katholische Stiftungsfachhochschule M nchen 8 sonstige Hochschulen 80 Gesamt 69 169 Tabelle 8 Vergabe von Kennungen an Studenten 5 4 2 Projekt LRZ Secure Identity Management Das Projekt LRZ Secure Identity Management hat zum Ziel die Benutzerverwaltung des LRZ auf die Basis sicherer verteilter Verzeichnisdienststrukturen umzustellen Gleichzeitig ist es das Pilotprojekt mit dessen Wissen und Erfahrung die Beteiligung des LRZ an IntegraTUM siehe 5 4 4 im Bereich Ver zeichnisdienste durchgef hrt wird Da das LRZ seinen Kunden ein breites Spektrum an Diensten anbietet mussten im Rahmen dieses Pro jektes rund 50 Dienste analysiert werden die im Hinblick auf i
530. ten oder insgesamt ca 500 000 Gespr chsminuten erfolgreich vermittelt Dies entspricht einem Zuwachs von ca 75 in der Anzahl der Gespr che wobei sich die durchschnittliche Dauer der Gespr che um 4 Sekunden verringerte Nur ca 1 230 Gespr chsminuten konnten direkt ber SIP zu externen Teilnehmern abgewickelt werden Zu den ber SIP erreichbaren Zielen geh ren die Universit ten in Mannheim Eichst tt W rzburg Saar land Jena Ulm Regensburg Mainz Innsbruck und die ETH Z rich Zum Ende des Jahres wurde die Netzwartung mit neuen Mobiltelefonen vom Typ Nokia E65 ausgestattet da diese Ger te neben der GSM Erreichbarkeit auch ber WLAN und SIP mit der LRZ Telefonanlage verbunden werden k nnen Durch die Einbindung der Mobiltelefone in die Telefonanlage ist eine kosten neutrale Erreichbarkeit in der MWN weiten WLAN SSID Irz oder jedem anderen auf dem Ger t konfi gurierten WLAN m glich Weitere Informationen zur VoIP Telefonanlage wie z B den Aufbau k nnen dem Jahresbericht 2006 entnommen werden 7 2 11 IPv6 im MWN Auch im Jahr 2007 wurde die Nutzung von IPv6 im MWN weiter vorangetrieben Zum Jahresende waren f r 35 14 im Zeitraum eines Jahres MWN Institutionen IPv6 Subnetze reser viert darunter f nf Studentenwohnheime sowie der Master Server des KDE Projekts Davon waren 27 Subnetze bereits auf den Routern konfiguriert und damit betriebsf hig Die neuen auf Postfix basierenden Mailserver des LRZ bieten
531. tende Zweifelsfragen und Einspr che von Benutzern gegen die Begutachtung behandelt der Len kungsausschuss 84 KONWIHR Aufgaben und Arbeitsweise des Kompetenznetzwerks f r Technisch Wissenschaftliches Hoch und H chstleistungsrechnen in Bayern KONWIHR sind in dessen Gesch ftsordnung festgelegt 5 Inkrafttreten Dieses Betriebs und Organisationskonzept f r den H chstleistungsrechner in Bayern HLRB tritt mit der Billigung durch den Lenkungsausschuss und das Bayerische Staatsministerium f r Wissenschaft Forschung und Kunst am 30 Mai 2000 in Kraft Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 283 Anhang 10 Nutzungs und Betriebsordnung f r den H chstleistungsrechner in Bayern HLRB Stand 30 Mai 2000 Pr ambel Mit dem H chstleistungsrechner in Bayern HLRB soll der Wissenschaft und Forschung in Deutschland ein Werkzeug zur Erschlie ung neuer M glichkeiten f r das technisch wissenschaftliche H chstleis tungsrechnen geboten werden Der Betrieb des HLRB erfolgt in Abstimmung und Koordination mit den anderen H chstleistungsrechenzentren in Deutschland Soweit Nutzungs und Betriebsaspekte des HLRB nicht in dieser Nutzungs und Betriebsordnung eigens geregelt sind beispielsweise f r den zugelassenen Benutzerkreis siehe 1 und 3 gelten die e Benutzungsrichtlinien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Baye rischen Akademie der Wissenschaften und die e Betriebsre
532. tent Management System 05 02 2007 06 02 2007 J lich Palm DEISA Training Session 06 03 2007 09 03 2007 Barcelona SP Berner Vortrag an der Universit t Erlangen N rnberg 15 03 2007 15 03 2007 Erlangen Christadler IDRIS eDEISA Training Session 21 03 2007 23 03 2007 Paris F Frank Saverchenko DEISA Meeting 26 03 2007 26 03 2007 Paris F Steinh fer TU Dresden Einladung zur Einweihungsfeier des Hochleistungsrechners 02 04 2007 02 04 2007 Dresden Steinh fer DEISA meeting SA3 eSA3 SA5 11 04 2007 13 04 2007 Bologna I Frank Heller Mateescu Sitzung der Task Force Betriebskonzept 12 04 2007 12 04 2007 J lich Mehammed ICE Itanium Conference amp Expo EigenerVortrag 14 04 2007 20 04 2007 San Jos USA Christadler Zentralinstitut f r angewandte Mathematik 15 04 2007 18 04 2007 J lich Berner Saverchenko HLRS 6th HLRS htww Workshop on Scalable Global Parallel File Systems 16 04 2007 17 04 2007 Stuttgart Biardzki German e Science Conference 2007 02 05 2007 04 05 2007 Baden Baden Frank Leong 244 Teil II Organisatorische Ma nahmen im LRZ 20th Open Grid Forum 06 05 2007 11 05 2007 Manchester GB Mateescu SGIUG 2007 18 05 2007 26 05 2007 Minneapolis USA Steinh fer SGIUG 2007 Technical Conference und Tutorials Eigener Vortrag 19 05 2007 26 05 2007 Minneapolis USA Bader DEISA Training Session 29 05 2007 01 06 2007 Espoo F Christadler Vortrag
533. ter das tiber eine eigene Infrastruktur mit 3 Core Switches und ca 30 Edge Switches verfiigt Die Core Switches sind untereinander in einem Ring mit 20 Gbit s verbunden An diese Switches sind sowohl die Edge Switches als auch einzelne Ser ver mit jeweils 10 Gbit s angebunden HRR Raum Der im Jahr 2006 neu installierte Bundesh chstleistungrechner besteht in der ersten Ausbau stufe aus insgesamt 16 Knoten wobei jeder Knoten ber zwei 10 Gbit Netzwerkkarten verf gt Diese Knoten sind mit jeweils einem Interface an zwei unterschiedlichen Routern angeschlossen Einer dieser Router ist mit dem MWN verbunden der andere verf gt ber einen eigenen 10 Gbit Anschluss an das X WiN und wird ausschlie lich f r die Verbindung zu anderen H chstleistungsrechnern im Rahmen des DEISA Projektes verwendet Neben den beiden Routern befinden sich auch noch einige Switches im HRR Raum die f r die interne Vernetzung des H chstleistungsrechners CXFS Dateisystem Manage ment verwendet werden In der folgenden Abbildung sind die wesentlichen Netzstrukturen dargestellt NSR Raum 1 Gbit s 10 Gbit s HRR Raum DAR Raum HLRB II Abbildung 72 Struktur des Rechenzentrumsnetzes 7 1 4 Wellenlangenmultiplexer Das LRZ setzt seit 1997 Wellenl ngenmultiplexer Wavelength Division Multiplexer WDM auf den angemieteten Glasfaserleitungen der lokalen Provider Teleko
534. terprise Webplattform f r den Zeitschriftenzugriff Die Webplattform DocWeb http docweb Irz muenchen de erfreut sich wachsender Beliebtheit Da DocWeb auch ohne den Einsatz von VPN genutzt werden kann empfehlen die Bibliotheken DocWeb auch verst rkt ihren Benutzern DocWeb und damit auch die Zeitschriftenproxies k nnte aber in Zu kunft durch Einf hrung des Shibboleth Bibliotheksystems abgel st werden Bei Shibboleth m ssen die 210 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Benutzer nicht mehr ber einen Proxy bzw ein Webportal gehen um autorisiert auf elektronische Zeit schriften zugreifen zu k nnen Vielmehr k nnen sie direkt die Verlagswebseite besuchen und sich dort anmelden Die Autorisierung beim Verlag erfolgt dann ber spezielle Server im MWN die vom Verlag abgefragt werden 7 2 8 Domain Name System An der 2006 eingef hrten Konfiguration des DNS im MWN wurden keine wesentlichen nderungen vorgenommen Erw hnenswert ist die endg ltige Abschaltung der alten Resolveradresse 129 187 10 25 aus Sicherheitsgr nden Dies hat jedoch einen betr chtlichen Aufwand bez glich Hilfeleistungen bei den Nutzern nach sich gezogen Neben IPv4 werden auch IPv6 Eintr ge unterst tzt Der Webdns Dienst wird inzwischen von 114 Nut zern au erhalb des LRZ zur Pflege der DNS Eintr ge verwendet Die Anzahl der ber Webdns verwalte ten DNS Zonen stieg von 896 auf 1064 Als neuer Dienst des LRZ
535. tiviert Hat ein Benutzer sein Passwort vergessen kann es nur vom Master User siehe Abschnitt 4 6 oder dem zust ndigen Betreuer am LRZ wieder aktiviert werden W nsche nach Aktivierung gesperrter Kennungen akzeptiert das LRZ nicht von dem betroffenen Endbe nutzer sondern nur vom zust ndigen Master User dessen offiziellem Vertreter oder einem zeichnungsbe rechtigten Mitglied des Instituts Sind diese jeweils dem Betreuer oder seinem Vertreter nicht pers nlich bekannt sind solche W nsche aus nahe liegenden Sicherheitsgr nden schriftlich zu stellen 4 5 Datensicherung und Archivierung F r die langfristige Speicherung von Daten und Programmen steht den Benutzern permanenter Speicher platz im Gegensatz zu tempor rem oder pseudotempor rem Platz der regelm ig gel scht wird im Rahmen der ihnen einger umten Berechtigungen zur Verf gung Diese Berechtigungen werden am H chstleistungsrechner und dem Linux Compute Cluster pro Projekt an den anderen Unix Plattformen pro Benutzerkennung vom LRZ vergeben Das LRZ erstellt an allen zentralen Systemen regelm ig Sicherheitskopien der permanenten Dateien Backup Sie dienen als Vorkehrung f r den Fall von Platten oder Systemfehlern erlauben aber auch im Einzelfall die Wiederherstellung versehentlich gel schter oder besch digter Dateien Die verwendeten Sicherungsverfahren sind zwar an den einzelnen Plattformen unterschiedlich ganz allgemein kann man jedoch davon ausgehen da
536. trum der Bayerischen Akademie der Wissenschaften LRZ im folgenden auch Betreiber oder Systembetreiber genannt betreibt eine Informationsverarbeitungs Infrastruktur IV Infrastruktur bestehend aus Datenverarbeitungsanlagen Rechnern Kommunikationssystemen Netzen und weiteren Hilfseinrichtungen der Informationsverarbeitung Die IV Infrastruktur ist in das deutsche Wissenschaftsnetz WiN und damit in das weltweite Internet integriert Die vorliegenden Benutzungsrichtlinien regeln die Bedingungen unter denen das Leistungsangebot ge nutzt werden kann Die Benutzungsrichtlinien e orientieren sich an den gesetzlich festgelegten Aufgaben der Hochschulen sowie an ihrem Mandat zur Wahrung der akademischen Freiheit e stellen Grundregeln f r einen ordnungsgem en Betrieb der IV Infrastruktur auf e weisen hin auf die zu wahrenden Rechte Dritter z B bei Softwarelizenzen Auflagen der Netzbe treiber Datenschutzaspekte e verpflichten den Benutzer zu korrektem Verhalten und zum konomischen Gebrauch der angebote nen Ressourcen e kl ren auf ber eventuelle Ma nahmen des Betreibers bei Verst en gegen die Benutzungsrichtli nien 81 Geltungsbereich und nutzungsberechtigte Hochschulen 1 Diese Benutzungsrichtlinien gelten f r die vom Leibniz Rechenzentrum bereitgehaltene IV Infrastruktur bestehend aus Rechenanlagen Rechner Kommunikationsnetzen Netze und weiteren Hilfseinrichtungen der Informationsverarbeitung
537. ts fiir PCs unter Windows das zur Steuerung von Messger ten Datenerfassung und umfang reiche Analyse von Messdaten eingesetzt werden kann EndNote Landesvertrag ber einen kosteng nstigen Bezug von Einzelplatzli zenzen Lieferung der SW auf Datentr gern seitens des LRZ ERDAS Campusvertrag zum Bezug von ERDAS Rasterbildsoftware ER DAS IMAGINE Professional Vector Virtual GIS ERDAS Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 101 IMAGINE OrthoBASE mit Stereo Analyst EEE ESRI Campusvertrag mit ESRI zum Bezug von Software f r Geographi sche Informationssysteme GIS ArcINFO ArcView ArcCAD usw Mehrere Untervertr ge zur vereinfachten Weitergabe auf dem Campus geschlossen WZW HM FH Weihenstephan UniBW FTN90 f95 FTN90 Fortran 90 Compiler f r PCs unter Windows wurde man gels Nachfrage nicht fortgesetzt Die Linux Implementierung wird weiter gef hrt PC Software zur Datenanalyse und visualisierung die Hochschul mitarbeiter und Studenten kostenlos beziehen k nnen Intel 4 Jahresvertrag noch bis 2009 ber die landesweite Nutzung von Intel Compiler Software Lizenzserver beim LRZ LabVIEW Software zur Datenerfassung und Steuerung zur Datenanalyse und pr sentation Campusvertrag mit der Fa NI In der Regel je ein Update im Fr hjahr und im Herbst eines jeden Jahres aktuell V 8 5 Mehrere Subvertr ge zur vereinfachten Weitergabe geschlossen TUM Maschinewesen Physikdepartment TUM u LMU
538. tuellen Hardware und Systemproblemen und die Pflege der Dokumentation f r Benutzer und Operateure Dazu geh ren insbesondere auch die Ma nahmen zur Erh hung der Sicherheit Absicherung der Solaris Maschinen durch Securitytools Zugangsbeschr nkungen und Deaktivierung nicht unbedingt notwendiger Dienste hardening Strukturierung des Zugriffs und der Zugangspfade zu den Servern durch Platzie rung bzw Verlagerung von Servern in Subnetze einer geeigneten Sicherheitszone Behebung aktueller Sicherheitsl cken durch Installation von Security Patches Des weiteren unterst tzt die Solaris Mannschaft auch andere Solaris Betreiber im M nchner Wissen schaftsnetz mit Rat und Tat bei der Beschaffung Installation und Konfiguration von Sun Hardware und Software bei Hardware und Softwareproblemen und bei Fragen der Rechnersicherheit Au erdem stellt sie Sun Software im Rahmen des Campus Vertrags bereit Nicht zu vernachl ssigen ist ferner der Aufwand f r die Pflege von Software f r die Lizenzverwaltung die laufende Anpassungsarbeiten und st ndige Kundenbetreuung erfordert 5 7 3 PCs unter Linux als Mitarbeiterarbeitspl tze Insgesamt nahm die Zahl der Linux Mitarbeiter PCs im Berichtszeitraum durch die auch im Berichtsjahr weiter angestiegene Zahl von LRZ Mitarbeitern Mitarbeiterinnen leicht zu Im Zuge des Rollouts von SLED10 SP1 auf allen Linux Mitarbeiterrechnern und vor allem wegen der geplanten Abl sung von AFS durch NAS und CIF
539. tz MWN mittels NFS an das LZA Managementsystem der BSB angebunden ist kann dieser Speicherplatz als lokale Festplatte behandelt werden Beim Einf gen von Daten werden die Dateien auf der lokalen NFS Festplatte des HSM Clients abgelegt Der HSM Client verschiebt die Dateien zum HSM Server Dieser wiederum mig riert die Dateien auf Magnetb nder Zur Steigerung der Zugriffsperformance werden die Festplattensys teme des HSM Clients und des HSM Servers als Cache genutzt Dies bedeutet dass Dateien die auf Magnetband migriert wurden erst von den Plattenspeichern verdr ngt werden wenn neuer Speicherplatz ben tigt wird Erst bei einem direkten Zugriff z B Lesezugriff auf eine Datei wird diese falls sie sich nicht im Cache befindet vom Magnetband geladen Um die Skalierbarkeit des Gesamtsystems zu steigern wurde ein neues Datenorganisationskonzept entwi ckelt das auf Identifier basiert Dabei wurde eine Virtualisierungsschicht etabliert die es erlaubt Daten auf unterschiedliche Nodes TSM Datenorganisationseinheit und unterschiedliche Server zu verteilen Somit wird das Datenwachstum einzelner Nodes eingeschr nkt und zugleich eine Lastverteilung reali siert Als positiver Nebeneffekt kann zuk nftig eine fast unterbrechungsfreie Migration durchgef hrt werden Ein im Mai 2007 durchgef hrter Workshop mit dem Titel Aus der Praxis der Langzeitarchivie rung stie auf gro es Interesse Die praxisorientierte Ausrichtung wurde durch r
540. tz kommt wer in welcher Form an der Entwicklung beteiligt sein wird und wo der Shop letztendlich betrieben wird zentral oder dezentral Seitens des LRZ besteht der Wunsch nach Verf g barkeit der Software und der Daten vor Ort Zugleich ist es aber auch berlegenswert ob durch Vereinfa chungen und arbeitsteilige Vorgehensweise nicht auch Einsparungen erzielt werden k nnen 5 3 6 Lizenzlandschaft wird komplexer Eine wichtige Aufgabe des LRZ ist es im Zusammenhang mit dem Angebot Software ber das LRZ auf der Basis der geschlossenen Vertr ge beziehen zu k nnen daf r zu sorgen dass die mit dem Hersteller vereinbarten Bedingungen hinsichtlich Bezugsberechtigung und Nutzung eingehalten werden Besonderes Gewicht liegt auf der Pr fung der Bezugsberechtigung Die Konditionen zu denen ber das LRZ Soft ware bezogen werden kann sind meist verlockend St ndige organisatorische Ver nderungen auf der Nachfrageseite Zuordnungen von Personen und Einrichtungen wechseln h ufig gestalten diese Auf gabe schwierig Hinsichtlich der Nutzung bleibt die Verantwortung beim Endkunden indem er bli cherweise schriftlich versichert sich an die vorgegebenen Bedingungen zu halten Ebenso liegt die mengenm ig richtige Lizenzierung im Verantwortungsbereich des Kunden Die zuneh mende Virtualisierung zwingt die Hersteller neue Lizenzmodelle zu erfinden Dabei steigt der Mess aufwand sowohl auf der Hersteller als auch auf d
541. tzmanagement dient als Schnittstelle zu den Kunden im MWN um die Netz Dienstleistung MWN des LRZ transparenter zu machen InfoVista Im Bereich des Netz und Dienstmanagements spielt auch das Service Level Management Tool InfoVista eine gro e Rolle um wichtige Netz und Dienstparameter zu berwachen Auf dieses Werkzeug und auf die damit durchgef hrten Managementaufgaben wird im folgenden Abschnitt detaillierter eingegangen 7 33 berwachung der Dienstqualit t des MWN mit InfoVista Das Service Level Management Werkzeug InfoVista dient dazu die Qualit t von IT Diensten zu berwa chen und in Form von graphischen Reports darzustellen Es wird seit dem Jahr 2000 zur berwachung der Dienstqualit t im M nchner Wissenschaftsnetz MWN eingesetzt Die im Jahr 2006 siehe Jahresbericht 2006 schon vorbereitete Migration von InfoVista 2 3 auf die Ver sion 3 2 wurde im Jahr 2007 durchgef hrt InfoVista 3 2 basiert im Vergleich zu Version 2 3 auf einer neuen Kommunikationsinfrastruktur und bietet au erdem deutlich verbesserte String Operatoren Generell besteht st ndig die Notwendigkeit das InfoVista System an Entwicklungen im MWN anzupas sen bzw Ver nderungen im Netz in InfoVista nachzuziehen Im Jahr 2007 wurde die berwachung der IT Dienste mit InfoVista in einigen Bereichen um weitere Reports erg nzt bzw es wurden bestehende Reports verbessert Im Folgenden wird ein berblick ber die wichtigsten Neuerungen bei den InfoVista Report
542. u U aufgeteilt werden Die sinnvolle Auswahl der Dateien und Dateisysteme die gesichert werden sollen wird allein vom Kun den vorgenommen 13 Laufzeiten nderungen und K ndigung Die Dauer der vom LRZ angebotenen Backup und Archivierungs Dienste ist befristet Wenn nicht an ders vereinbart gelten die bei der Einrichtung eines Nodes g ltigen Archivierungszeitr ume Etwaige nderungsw nsche z B andere Archivierungszeiten erweiterte Funktionalit t usw des Kun den sind dem Leibniz Rechenzentrum fr hzeitig anzuk ndigen nderungen bed rfen der Textform Die Inanspruchnahme eines Dienstes kann vom Kunden vorfristig gek ndigt werden Alle gespeicherten Daten werden in diesem Fall gel scht 14 Pflichten und Obliegenheiten des Kunden Die aufgez hlten Punkte wurden bereits weiter oben detailliert beschrieben und sind hier noch einmal zusammengefasst Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 373 Es liegt in der Verantwortung des Kunden durch regelm ige Updates seines Systems f r einen aktuellen Stand zu sorgen der zur eingesetzten Archiv und Backupsoftware kompatibel ist F r die Inhalte der gespeicherten Daten ist alleinig der Kunde verantwortlich Der Kunde ver pflichtet sich sensible Daten z B personenbezogene Daten nicht unverschl sselt zu speichern bzw zu archivieren Die sinnvolle Auswahl der Dateien und Dateisysteme die gesichert werden sollen wird allein vom Kunden vorgen
543. uierung eines vertrauensw rdigen und skalierbaren digitalen Langzeitarchives als Teil eines Netzwerks f r den Erhalt digitaler Information in Deutschland Diese Aktivit ten basieren auf der im Rahmen des DFG Projektes BABS aufgebauten organisatorisch technischen Infrastruktur f r die Langzeitarchivierung von Netzpublikationen 6 4 2 4 IBM Landeslizenz Die f r den Betrieb des Archiv und Backupsystems ben tigte Software ist im bayerischen Landeslizenz vertrags mit der Firma IBM der im September 2003 abgeschlossen wurde enthalten Dieser Vertrag l uft Ende September 2008 aus Bereits Ende 2006 wurde in ersten Treffen damit begonnen die M glichkeiten f r einen Nachfolgever trags zu untersuchen In verschiedenen Veranstaltungen mit den anderen bayerischen Hochschulrechen zentren und IBM wurden die M glichkeiten eines neuen f r alle Beteiligten vorteilhaften Rahmenver trags diskutiert Der aktuelle Bestand wurde erfasst eine detaillierte Trendanalyse f r den zu erwartenden F nfjahresbedarf wurde erstellt und die Verhandlungen mit IBM wurden aufgenommen Ergebnis dieser Verhandlungen die vor allem im vierten Quartal 2007 intensiv gef hrt wurden ist ein finanziell attrakti ves Angebot von IBM das die Grundlage f r einen Antrag bildet der Anfang 2008 gestellt werden soll Dabei wurde besonderes Augenmerk darauf gelegt ein Angebot zu erarbeiten das ohne wesentliche n derungen als sp tere Vertragsgrundlage dienen kann Durch
544. um ber drohende bauliche Engp sse f r die Weiterentwicklung des LRZ informiert Im Herbst 2007 wurden die technischen Erkundungen erh rtet und Elektro und Klimaplaner um Auf wandsabsch tzungen befragt Ferner wurden im Rahmen der auch politisch unterst tzten Bem hungen das LRZ zu einem m glichen Standort f r ein europ isches H chstleistungsrechenzentrum zu machen innerhalb des EU Projektes PRACE Planungen zur Vorbereitung auf einen Petaflop Computer intensi viert F r das LRZ ergibt sich damit als sp tester Installationszeitraum f r ein Nachfolgesystem das Jahr 2011 Unabh ngig vom europ ischen Planungsaspekt ist dann auch die Planstandzeit des jetzigen Sys tems abgelaufen Zu diesem Zeitpunkt m ssen also die Installationsvoraussetzungen am LRZ geschaffen sein falls man das eingangs genannte auch f r den Wirtschafts und Wissenschaftsraum Bayern wichtige Ziel eines europ ischen Supercomputers am Standort LRZ nicht aufgeben will Aufgrund der guten Dienstleistungsqualit t des LRZ und der gegen ber fr her deutlich verbesserten Ge b udeinfrastruktur findet seit dem Umzug des LRZ nach Garching eine erhebliche und in diesem Ma e v llig unerwartete Nachfrage nach Server Hosting und Attended Server Housing statt Ursache sind er hebliche und zunehmende IT Rezentralisierungs und Konsolidierungstendenzen in den vom LRZ ver sorgten Hochschulen Dieses ist konform mit den ebenfalls in der Wirtschaft zu beobachtenden IT Jahresb
545. um Kavaliersdelikte auch nach deutschem Recht ist es nicht erlaubt copyright gesch tztes Material berwiegend Filme und MP3s und teilweise auch Software in P2P Netzen anzubieten Unabh ngig davon verst t es auch gegen die Nutzungs ordnung des LRZ bzw MWN Zu den von au erhalb gemeldeten F llen kamen weitere auf die das LRZ im Rahmen der Netz ber wachung selbst aufmerksam wurde siehe Tabelle 13 Die Monitoring Funktionen am Internet bergang d h am bergang vom MWN zum X WiN sind trotz ihrer Einfachheit erstaunlich wirksam folgende Indikatoren eignen sich erfahrungsgem sehr gut um kompromittierte Rechner zu entdecken Auf dem Rechner l uft ein FTP Server der auf einem Nicht Standard Port arbeitet d h nicht auf dem allgemein blichen Port 21 Dieser Indikator ist derart treffsicher dass das LRZ riskiert alle auf diese Art auff llig gewordenen Rechner automatisch am Internet bergang zu sperren die zust ndigen Netzverantwortlichen werden selbstverst ndlich ebenso automatisch sofort davon verst ndigt Bei den restlichen Indikatoren werden Benachrichtigungs Mails vorformuliert ein Mitglied des Abu se Response Teams entscheidet jedoch jeweils ob die E Mail auch abgeschickt und der Rechner evtl zus tzlich gesperrt werden soll Der MWN Rechner ffnet innerhalb kurzer Zeit viele Mail Verbindungen zu anderen Rechnern im Internet Diese MWN Rechner sind fast immer kompromittiert wobei der Rechner zum Versen
546. und Chemie sollen Vorgehens weisen erarbeitet werden die unter der Ausnutzung der neu zur Verf gung gestellten zentralen Dienste Verzeichnisdienst E Mail Dateispeicher die Systemadministration auf eine neue Grundlage stellen Ziel ist die vereinfachte Administration von Rechnern und die Erh hung der Systemsicherheit bei gleich zeitiger Entlastung der mit der Systemadministration betrauten meist in Nebent tigkeit daf r eingesetz ten wissenschaftlichen Mitarbeiter In 2007 hat das LRZ sehr intensiv an der Entwicklung MWN weiter Systemadministrationskonzepte auf der Basis einer Active Directory Instanz gearbeitet und in der TUM pilotiert Diese Konzepte bilden die Basis f r alle zuk nftigen LRZ Services im Bereich des Manage ments von Windows Desktop Systemen Bisherige Kunden solcher Services incl der LRZ Windows Arbeitspl tze selbst werden in 2008 sukzessive in die neue Struktur migriert 2 13 3 1 7 Ausbau der Webdienste Das myTUM Web Portal stellt heute den zentralen Einstiegspunkt f r Informationen f r Wissenschaftler und Studierende dar Das im Rahmen des myTUM Projekts konzipierte zentrale LDAP System und das myTUM Mailsystem waren Basis und Grundlage f r das IntegraTUM Mailkonzept und den zentralen Verzeichnisdienst Da beide Dienste bereits seit 2003 produktiv sind muss eine nahtlose und unterbre chungsfreie berf hrung dieser Dienste in das IntegraTUM System vorgesehen werden Ziel des Projektes ist der Ausbau als Admin
547. und organisatorischer Fragen und der Hintergrund Unterst tzung durch entsprechende Fachleute die die schwierigeren Anfragen ber das TTS erhalten und dadurch nicht ungeplant in ihrer Arbeit unterbrochen werden Im Rahmen dieser Umstellung haben wir auch f r die neuen studentischen Hotliner einige separate Schu lungen angeboten in denen LRZ Mitarbeiter aus ihren Spezialgebieten berichteten um damit den Studen 86 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme ten ein besseres Fundament f r ihren Beratungsjob zu geben und ihnen n tzliche Informationen f r spezi ell in der Hotline anfallende Probleme zu vermitteln Bedingt durch den Umzug des LRZ nach Garching ist die Lage des Arbeitsplatzes LRZ nicht mehr so attraktiv wie in der Innenstadt 80 des Hotlinepersonals musste in 2006 neu gefunden werden und auch im Laufe des Jahres 2007 war die Fluktuation sehr hoch Durch die h ufigen Wechsel der studentischen Mitarbeiter f llt hier ein st ndiger Schulungsaufwand an der mit einem modularisierten Schulungssystem besser formalisiert wurde Die Studenten sollen zu von ihnen gew hlten Zeitpunkten vor oder nach den Schichten einzelne Module von LRZ Tutoren bekommen bis alle Module von allen durchlaufen sind Die Dynamisierung der Termine ist vor allem aufgrund von Zeitproblemen bei beiden beteiligten Gruppen erforderlich Auch f r die Serviceverantwortlichen und Experten am LRZ ist dies ein neuer Ansatz ihr Wissen zu vermit
548. ung an das LRZ absenden Das Leibniz Rechenzentrum beh lt sich weiterhin das Recht vor bei einem Versto gegen die hier aufge f hrten Grunds tze geeignete Ma nahmen einzuleiten Dies kann bis zum Ausschluss des Nutzers von den Backup und Archivierungsdiensten des Leibniz Rechenzentrums f hren Jahresbericht 2007 des Leibniz Rechenzentrums Teil III 275 Anhang 7 Geb hren des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften Hinweis Aufgrund der nderung der Satzung der Kommission f r Informatik vom 14 12 2007 werden hieraus ab geleitete Regelungen wie Benutzerrichtlinien Betriebsregeln und Geb hrenordnung zeitnah berarbeitet Unter Bezug auf die Benutzungsrichtlinien des Leibniz Rechenzentrums werden folgende Geb hren festgelegt Definition der Aufgabengruppen siehe umseitig 1 Benutzerkennungen f r Internet Dienste Bei den Aufgabengruppen 3 4 und 5 wird pro Benutzerkennung f r W hlzugang und Internet Dienste auf einem LRZ System eine Pauschalgeb hr erhoben Aufgabengruppe 3 EUR 15 Jahr Aufgabengruppe 4 EUR 30 Jahr Aufgabengruppe 5 EUR 60 Jahr 2 Benutzerkennungen f r PCs Workstations inklusive Internet Dienste Bei den Aufgabengruppen 3 4 und 5 wird pro Benutzerkennung f r LRZ PCs oder LRZ Workstations mit Nutzung der installierten Software eine Pauschalgeb hr erhoben Aufgabengruppe 3 EUR 50 Jahr Aufgabengruppe 4 EUR 100 Jahr Aufgabengruppe 5 EUR 200 Jahr
549. ung der Tests werden auf den einzelnen Grid Ressourcen in periodischen Abst nden unter der Kennung eines regul ren Benutzers Testskripten gestartet und die Testergebnisse an Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 161 den zentralen INCA Server geschickt Auf diesem werden die Testergebnisse aller Grid Ressourcen in einer Datenbank gespeichert Analysiert werden k nnen die Testergebnisse ber eine zugeh rige Websei te die diese Datenbank auswertet In DEISA ist das LRZ f r den Betrieb des INCA Frameworks verantwortlich Der zentrale INCA Server und die zugeh rige Webseite werden vom LRZ f r ganz DEISA betrieben Der Zugriff auf die INCA Ergebnisse ist f r die Administratoren in DEISA m glich nicht jedoch f r Benutzer und Au enstehende Eile Edit View History Bookmarks Tools Help a ta KA httpsv inca Iz muenchen de inca xsltjsp xsl summary xsl amp suiteName CPE amp resourcelD DEISA amp xmIFile cp 7 J D G DEISA INCA STATUS PAGES CURRENT DATA HISTORICAL DATA INFO Page loaded 02 20 2008 05 07 PM GET RAIN does not apply to resource BE 100 90 99 60 89 BE 50 59 B 29 BE DEISA Common Production Environment Summary BSG CINECA CSG ECMWF EPCC FZJ IDRIS LRZ RZG SARA Applications Compilers Libraries Shells Tools Abbildung 44 INCA Darstellung im Web Abbildung 44 zeigt einen berblick ber den an den DEISA Sites instal
550. unter dem Gesichtspunkt einer m glichst hohen Leistungsabgabe betrieben so z B mit einem eigenen Batchsystem und eigenen Hochleistungsfilesystemen Die Softwarebasis die Programmierumgebung die Compiler und Tools sind jedoch weit gehend identisch zu den im Linux Cluster eingesetzten Auf lokaler regionaler und nationaler Ebene ist die Konsolidierung mittlerweile abgeschlossen Die Er fahrungen mit dem neuen Bundesh chstleistungsrechner zeigen dass es auch beim bergang auf die n chst h here Leistungsstufe keine wesentlichen Schwierigkeiten gibt Die Vorteile dieser durchg ngigen Leistungspyramide sind e hohe Benutzerakzeptanz e gro es und einheitliches Softwareangebot e einheitliche Systemadministration e einheitliche Optimierungsstrategien f r den Benutzer Abbildung 10 Entwicklung der Rechnerpyramide Die Rechnerlandschaft am LRZ im Bereich Hoch und H chstleistungsrechnen wird somit in den n ch sten Jahren etwa wie folgt aussehen 36 Teil I Das Dienstleistungsangebot des LRZ EM64T Opteron Xeon Opteron Abbildung 11 bersicht ber die Hoch und H chstleistungsrechnerlandschaft Au erdem soll die Nutzung von Rechenressourcen innerhalb Bayerns verst rkt ber Grid Methoden er m glicht werden 2 3 2 Arbeitsplatzsysteme PCs Intel basierte PCs bilden das R ckgrat f r sehr viele der benutzernahen und viele der LRZ internen Dienste a Das LRZ betreibt 3 Kursr ume die mit PCs ausger stet s
551. ur ITIL einer informellen und wenig belastbaren Sammlung von Best Practices durch die britische OGC ein zertifizierbarer internationaler Standard Service Design amp Management Processes Security Management Service Level Management Capacity Management Availability amp Service Reporting Financial Management Service Continuity Control Processes Configuration Management Change Management Relationship Release Process Processes Resolution Processes Incident Management Business Relationship Release Management Management Problem Management Supplier Management Abbildung 83 Prozessrahmenwerk der ISO IEC 20000 Mit den Neuheiten im Bereich der ITSM Rahmenwerke gehen nderungen der entsprechenden Ausbil dungs und Qualifikationskonzepte einher Die bislang sehr popul ren Personenzertifizierungen f r ITSM nach ITIL V2 werden voraussichtlich nur noch kurze Zeit angeboten Ausbildungswege und Personen qualifikationsschemas f r ITIL V3 oder ISO IEC 200000 welche diese L cke f llen k nnen werden zur Zeit geschaffen stehen bislang aber erst in Teilen zur Verf gung An der der Entwicklung eines neuen Ausbildungs und Personenqualifikationsschemas f r IT Service Management nach ISO IEC 20000 durch T V S d und EXIN ist das LRZ nicht nur durch die Mitgliedschaft von Prof Hegering und Dr Brenner in der Kommission sondern auch durch Erstellung von Schulungsunterlagen beteiligt Jahresbe
552. urden 1202 Nodes neu registriert und 450 alte Nodes inklusive ihrer gespeicherten Daten gel scht Durch das explizite L schen von Nodes sowie durch automatische L schprozesse nicht mehr ben tigter Daten wird daf r ge sorgt dass das Archiv und Backupsystem nicht zum Datengrab wird Um die Datenflut so weit als m glich zu begrenzen ist es notwendig den Kunden des Archiv und Ba ckupsystems den Umfang ihrer abgelegten Daten bewusst zu machen und sie zum sinnvollen Umgang mit den vom LRZ zur Verf gung gestellten f r sie kostenlosen Ressourcen anzuhalten Ein eigens f r diesen Zweck bereitgestellter Server erlaubt es den Kunden sich direkt umfassend ber den eigenen Da tenbestand zu informieren Gleichzeitig werden die Nutzer in regelm igen Abst nden von diesem Server ber die von ihnen verbrauchten Speicherressourcen via E Mail informiert In das System integriert sind 178 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Werkzeuge die der betrieblichen berwachung und Analyse der Systeme dienen Nutzer mit besonders auff lligem Datenprofil werden direkt angesprochen Alle Kontaktdaten werden zus tzlich regelm ig auf ihre Aktualit t berpr ft Entsprechend den Benut zungsrichtlinien werden Daten von Rechnern zu denen sich kein Ansprechpartner mehr ermitteln l sst nach Ablauf einer festgelegten Frist gel scht Zur Erh hung der Datensicherheit spiegelt das LRZ seine Archivdaten an da
553. ut besuchten Workshop erfolgreich abgeschlossen Die gewonnene Erfahrung floss in die Etablierung neuer Workflows und Verfahren des Datenmanagements in der BSB und dem LRZ ein und bildet das Fundament einer langfristig tragf higen Archivierungs und Bereitstellungsumgebung Innerhalb des Projektes besch ftigte sich die BSB verst rkt mit der Sammlung Erschlie ung Rechteverwaltung und Zugriffsteuerung w hrend sich das LRZ mit der Archivierung im eigentlichen Sinne und den Erhaltungsma namen befasste Zur Speicherung der Objekte wird das Archiv und Backupsystem verwendet Das System TSM verf gt ber essentielle Funktionalit ten die f r Langzeitarchivsysteme als Voraussetzung gelten Damit werden alle wichtigen Bereiche eines langfristig funktionierenden Archivs abgedeckt und folgen somit dem allgemeinen Open Archival Infor mation Systems OAIS Referenzmodell Mitte 2007 startete das ebenfalls von der DFG gef rderte Projekt vdl6digital Mit vdl6digital wird eine neue Dimension im Bereich der Digitalisierung und Langzeitarchivierung erreicht Das Ziel des Projektes ist die Digitalisierung Katalogisierung und Langzeitarchivierung der an der BSB vorhandenen im deutschsprachigen Sprachraum erschienenen Drucke des 16 Jahrhunderts und die sofortige Bereitstellung dieser Digitalisate im Internet Mit vdl6digital wird der bergang von einer manuellen Digitalisierung hin zur automatisierten Digitalisierungsstra e mit zwei sogenannten Scan Robotern
554. uterinterface werden nur die dort angeschlossenen Einrichtungen oder Geb udeteile mit einem kleinen Kreis dargestellt Die detaillierten Strukturen von Institutsnetzen oder von konkreten Ge b udeverkabelungen werden nicht mit einbezogen Linien zwischen Standorten und oder Komponenten stellen Ethernet Punkt zu Punkt Verbindungen 10 GBit s 1 GBit s 100 MBit s oder 10 MBit s dar Das CNM f r das MWN wurde den Netzverantwortlichen des MWN ab Mitte 2000 zur Verf gung gestellt und wird seitdem kontinuierlich angeboten Im September 2004 startete das von der EU gef rderte GN2 JRAI Projekt bei dem es um die Durchf h rung von Leistungsmessungen im europ ischen Forschungsnetz Geant2 und angeschlossenen nationalen Forschungsnetzen geht F r die Visualisierung der gemessenen Daten wird vom DFN Verein die CNM Anwendung Topologie eingebracht und weiterentwickelt Diese zeigte am Jahresende 2007 die Topolo gien der Zugangsleitungen zum Geant2 das Geant2 selber sowie die Forschungsnetze von Norwegen der Schweiz Bulgarien Polen Italien den Niederlanden Internet2 und das ESnet amerikanisches For schungsnetz Die Netztopologien von Kroatien Ungarn Tschechien Brasilien Red Clara stidamerika nische Forschungsnetz und Montenegro sind vorhanden aber nicht ffentlich zugreifbar Au erdem konnten zum Jahresende auch die Karten f r die HADES Knoten automatisiert dargestellt werden HA DES Messungen sowie die gemessenen Kennzahlen Paketlaufzeit
555. ver tretung muss gesorgt sein Es k nnen auch von einer Person mehrere organisatorische Einheiten z B Fakult t oder geographische Einheiten z B Geb ude betreut werden Der Netzverantwortliche hat folgende Aufgaben in seinem Zust ndigkeitsbereich wahrzunehmen e Verwaltung der zugeteilten Namens und Adressr ume e F hrung einer Dokumentation ber die ans MWN angeschlossenen Endger te bzw Netze e Zusammenarbeit mit dem LRZ bei der Planung und Inbetriebnahme von Erweiterungen der Ge b udenetze neue Anschlusspunkte neue Netzstrukturen etc e Mitarbeit bei der Fehlerbehebung z B Durchf hren von mit dem LRZ abgestimmten Tests zur Fehlereingrenzung e Zusammenarbeit mit dem LRZ bei der Eind mmung missbr uchlicher Netznutzung und der Be reinigung kompromittierter Rechner Wegen der grunds tzlichen Bedeutung der Funktionsf higkeit der Netzinfrastruktur m ssen vor allem Fehlerbehebungsaufgaben entsprechenden Vorrang genie en 83 Missbrauchsregelung Ein Versto gegen diese Regelungen gilt als Missbrauch im Sinne der Benutzungsrichtlinien f r Informa tionsverarbeitungssysteme des Leibniz Rechenzentrum Das LRZ kann Teile des Netzes vom Gesamtnetz abtrennen wenn e die Betreuung eines Teilnetzes durch Netzverantwortliche nicht gew hrleistet ist e St rungen von diesem Teil des Netzes den Betrieb des Restnetzes gef hrden oder unzumutbar behindern e Wahl Zuga nge Funk LAN Zugangspunkte oder frei nutzbare D
556. von einer m glichen Infektion ihres Rechners Weitere Informationen zum NAT o MAT sind zu finden unter http fwww Irz de services netzdienste nat o mat 7 4 2 Netzsicherheit Das LRZ hat 2007 die in den letzten Jahren begonnenen Aktivit ten auf dem Gebiet der Netzsicherheit fortgef hrt und weiter ausgebaut Ziel ist es sowohl LRZ und MWN soweit wie m glich vor Angriffen zu sch tzen als auch den Benutzern des MWN Hilfestellung zu leisten Entscheidend ist und bleibt es Benutzer und Netzverantwortliche des MWN f r die Wichtigkeit des Themas zu sensibilisieren Dabei unterst tzt das LRZ die Netzverantwortlichen bei der praktischen Umsetzung von Sicherheitsma nahmen mit pragmatischen Konzepten Im Jahr 2007 wurden vermehrt Informationsveranstaltungen f r Netzver antwortliche durchgef hrt die sich mit Sicherheitsthemen befasst haben und von den Netzverantwortli chen sehr gut angenommen wurden Im Einzelnen fanden folgende Aktivit ten statt e Wissenstransfer e Beratung von Netzverantwortlichen bei Fragen zur Netzsicherheit e Einf hrungskurse zum Thema Einsatz von virtuellen Firewalls im MWN e Durchf hrung von Schulungen zum Thema Fehlerbehebung Missbrauch und Sicherheit im MWN e Serviceangebote f r das MWN e Verwaltung und Vergabe von privaten IP Adressen kein Routing oder MWN weites Routing e Betrieb von VPN Servern IPSec siehe Abschnitt 7 2 2 e Betrieb eines NAT Gateway f r private IP Adressen im MWN NAT
557. von Cores an Die Verteilung der Rechenzeit auf die einzelnen Fachgebiete ist in der folgenden Tabelle und Grafik auf gef hrt Bemerkenswert gegen ber fr her ist die starke Bedeutung der Astrophysik weiterhin sind im Berichtszeitraum deutliche Steigerungen des Rechenzeitanteils durch die Geophysik zu vermerken Research _area Core Stunden Core Stunden Computational Fluid Dynamics 9728722 24 8 Astrophysics Cosmology 7882353 20 1 Physics High Energy Physics 6808256 17 3 Physics Solid State 5259779 13 4 Chemistry 3000918 7 6 Geophysics 2617904 6 7 Physics others 1453898 3 7 Support Benchmarking 945588 2 4 Biophysics Biology Bioinformatics 759797 1 9 Engineering others 343274 0 9 Enviromental Sciences 246540 0 6 Informatics Computer Sciences 110641 0 3 Meteorology Climatology Oceanography 83442 0 2 DEISA Support 445 0 0 Grid Computing 0 1 0 0 Gesamtergebnis 39241555 100 0 Tabelle 15 Verteilung der Rechenzeit nach Fachgebieten 146 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Support Physics others 4 Geophysics 7 u A Bio Others 2 2 u Abbildung 37 Verteilung der Rechenzeit nach Fachgebieten Die 20 Projekte mit dem h chsten Rechenzeitverbrauch am HLRB II sind in der folgenden Tabelle aufge f hrt Institution Max Planck Institute for Astrophysics DESY Humboldt Univ Berlin Freie Univ Berlin ZIB Berlin Univ Le
558. w hlte Server im Rahmen eines Praktikums aufgebaut worden F r die Windows Server berwachung wurde auf das Nachfolgeprodukt zu Microsoft Operations Manager MOM den System Center Operation Manager umgestellt Erste Deployment Tests von Vista zeigten dass ein fl chendeckender Rollout noch nicht angeraten ist Hingegen wurde der Rollout von Office 2007 zum Jahresende 2007 konkret f r Januar 2008 geplant und alle Vorbereitungen getroffen 5 8 2 4 Exchange Groupware L sung F r die eLearning Projektmitarbeiter am Medienzentrum der TUM wurde 2005 vom LRZ eine Exchange L sung als Groupwaresystem aufgebaut Vordringlich waren die Nutzung der Kalenderfunktion f r die Koordination der Projektmitarbeiter und die Nutzung von ffentlichen Ordnern als Projektablage und f r Dokumentationszwecke Der E Mail Verkehr sollte weiterhin ber die vorhandene LRZ Infrastruktur abgewickelt werden F r das LRZ war dies Gelegenheit Erfahrungen hinsichtlich der kooperativen Nutzung von Groupware systemen zusammen mit vorhandenen MWN Basisdiensten insbesondere Mail zu sammeln Oftmals sind die Teilfunktionen der Groupware L sungen so stark integriert dass man entweder nur alles gemein sam oder nichts einsetzen kann Die Ergebnisse zeigen dass Exchange die Benutzung der vorhandenen Maill sung unter Beibehaltung der essentiell geforderten Groupwarefunktionen Kalender Ablagesystem ffentliche Folder zwar prin zipiell erlaubt Einschr nkungen gib
559. waren bereits innerhalb weniger Stunden nach Beginn des Verkaufs ausverkauft Das in den Kursr umen installierte P dagogische Netz kam den Dozenten des Landeskriminalamtes laut deren Aussage f r diesen Zweck sehr entgegen Die Veranstaltung soll im Jahr 2008 wiederholt wer den 5 3 Software Versorgung f r Rechnersysteme au erhalb des LRZ 5 3 1 Vielfalt der Lizenzmodelle f r Softwareprodukte w chst In den bersichtskapiteln in Teil I des Jahresberichtes wurde bereits ansatzweise dargestellt dass die Lieferanten und Hersteller von Software seit der Einf hrung der Studienbeitr ge die Studierenden als Kunden neu entdecken Die Firmen strengen sich an Gelder aus diesem Topf in ihre Kassen zu lenken Das ist legitim und nachvollziehbar bringt das LRZ aber in eine nicht ganz einfache Situation Im Gegensatz zu den Rechenzentren die organisatorisch in der jeweiligen Hochschule verankert sind geh rt das LRZ zur Kommission f r Informatik der Bayerischen Akademie der Wissenschaften Diese organisatorische Sonderstellung gilt es zu beachten wenn ber die Verwendung von Geldern aus den von den Studierenden erhobenen Studienbeitr gen gesprochen wird Das LRZ nimmt satzungsgem definierte Aufgaben f r die M nchner Hochschulen wahr hat aber auf grund seiner Sonderstellung au erhalb der Hochschulen einen eigenen Haushalt mit Haushaltstiteln in denen Gelder aus Studienbeitr gen nicht vorkommen Dem wurde bisher auf dem Gebiet d
560. wesentlichen Angaben des Projektantrags Antragsteller Projektti tel beantragte CPU Zeit an andere H chstleistungsrechenzentren Die Zulassung von Projekten zum HLRB und die Festlegung von deren Rechnerressourcen obliegt dem Lenkungsausschuss Das LRZ leitet Projektantr ge unverz glich zur Entscheidung an den Lenkungsau schuss weiter Die Zulassung eines Projekts zum HLRB kann widerrufen werden wenn e die Angaben im Projektantrag nicht oder nicht mehr zutreffen e die Voraussetzungen f r eine ordnungsgem e Nutzung des HLRB nicht mehr gegeben sind e Verst e vorliegen die zu einem Entzug der Rechenberechtigung am LRZ f hren 5 Ressourcennutzung Das LRZ stellt fiir bewilligte Projekte DV Ressourcen im Rahmen der vom Lenkungsausschuss festge legten Grenzwerte maximale Knotenanzahl Rechenzeit Hauptspeicher Plattenspeicher Archivspeicher auch Zeitdauer des Projekts und entsprechend der am HLRB gegebenen M glichkeiten bereit Es sorgt auch bestm glich f r die betriebliche Umsetzung eventuell vom Lenkungsausschuss festgelegter Priori t tsanforderungen Dar ber hinausgehende Anspr che von Nutzern auf Nutzung von Rechnerressourcen am HLRB bestehen nicht HLRB Nutzer die nicht zum satzungsm igen Nutzerkreis des LRZ 1 der Benutzungsrichtlinien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissen schaften geh ren k nnen andere IT Einrichtungen des LRZ z B Ar
561. wird seit 2006 die Registrierung von eigenen Domains unter verschiedenen Toplevel Domains z B de org eu f r Institute und Organisationen angeboten 2007 wurden 38 neue Domains registriert 20 wurden von anderen Providern transferiert Die folgenden Bilder zeigen die Frequenz der Anfragen pro Sekunde gps f r den autoritativen und Re solving Dienst ber 3 Tage DNS W auth dns1 50 40 u 30 oy 20 10 0 Wed 12 Thu 13 Fri 14 Min Max Average Last Failed O gps O gps O gps O gps E Successful 23 gps 44 qps 34 gps 33 gps Abbildung 78 Statistik fiir dns w Autoritativ Resolver DNS W 600 a 400 o 200 io Wed 12 Thu 13 Fri 14 Min Max Average Last E Failed 2 gps 17 gps 4 qps 4 gps B Successful 84 gps 686 gps 260 gps 87 gps Abbildung 79 Statistik f r dns w Resolving 7 2 9 DHCP Server Seit ca 5 Jahren betreibt das LRZ einen DHCP Server der von allen M nchner Hochschulen f r die au tomatische IP Konfiguration von institutsinternen Rechnern genutzt werden kann Au erdem wird dieser Dienst f r einige zentrale Anwendungen verwendet wie z B f r die WLAN Zug nge im MWN oder die Netzanschl sse in H rs len und Seminarr umen Insgesamt wird der DHCP Server von ca 70 Instituten Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 211 genutzt und verwaltet dabei mehr als 200 Subnetze mit ca 45 000 IP Adressen Falls gew nscht tr gt der DHCP Server die Namen der Clients auch automatisch in den zust ndigen DN
562. wiss Mitarbeiter Hochleistungssysteme 15 03 2007 Leong Siew Hoon wiss Mitarbeiter Hochleistungssysteme 15 03 2007 Mateescu Gabriel Dr wiss Mitarbeiter Hochleistungssysteme 01 04 2007 Pecho Julia stud Hilfskraft Benutzernahe Dienste und Systeme 01 05 2007 Allalen Mohammed Dr wiss Mitarbeiter Hochleistungssysteme 01 05 2007 Block Alexander Dr wiss Mitarbeiter Hochleistungssysteme 01 05 2007 Lichtinger Bernhard wiss Mitarbeiter Benutzernahe Dienste und Systeme 01 06 2007 Roll Martin techn Angest Hochleistungssysteme 01 07 2007 Braun Oliver wiss Mitarbeiter Benutzernahe Dienste und Systeme BVB Serverbetrieb 01 07 2007 Buchacz Adalbert stud Hilfskraft Benutzernahe Dienste und Systeme 02 07 2007 G ntner Benjamin Praktikant Kommunikationsnetze 02 07 2007 Strigl Andreas Praktikant Benutzernahe Dienste und Systeme 01 08 2007 Haaser Quirin Hilfskraft Zentrale Dienste 01 08 2007 Hegele Fabian stud Hilfskraft Benutzernahe Dienste und Systeme 01 08 2007 S ldner Daniel stud Hilfskraft Benutzernahe Dienste und Systeme 01 09 2007 Bermuth Matthias stud Hilfskraft Benutzernahe Dienste und Systeme 01 09 2007 Feck Timon Auszubildender Zentrale Dienste 01 09 2007 Marcu Gabriela Patricia wiss Mitarbeiter Kommunikationsnetze 01 09 2007 Meister J rgen Auszubildender Zentrale Dienste 01 09 2007 Rivera Orlando wiss Mitarbeiter Hochleistungssysteme 01 09 2007 Zellner Michael Auszubildender Zentrale Dienste 01 10 2007 Brenner Michael Dr
563. wurde eben falls 2007 begonnen Hier muss zum einen der Import der Einrichtungs Daten an LRZ SIM angepasst werden und zum anderen soll die Benutzerverwaltung der Netzdokumentation zuk nftig auf LRZ SIM und LDAP basieren Diese Features werden im Jahr 2008 nach der Produktivf hrung von LRZ SIM akti viert werden Weiterentwicklung der Netzdokumentation und der WWW Schnittstelle Neben den oben genannten Punkten wurde die Netzdokumentation unter anderem noch in folgenden Be reichen verbessert und erg nzt e Die Unterbezirke in der Netzdokumentation wurden mit Karten in Google Maps siehe http maps google de verkn pft Damit k nnen die Benutzer einen schnelleren und besseren berblick ber die einzelnen Standorte des MWN bekommen Die Verkn pfung der Netzdokumentation mit Google Maps wurde ber WWW Links realisiert Eine Realisierung durch in die Netzdokumentation integrierte Karten w re technisch ebenso m glich w r de aber Lizenzkosten nach sich ziehen Die Karten in Google Maps f r die einzelnen Unterbezirke wurden jeweils mit grafischen Symbolen zur einfacheren Orientierung versehen In der Abbildung ist beispielsweise der Campus Garching mit jeweils einem Symbol f r einen Unterbezirk zu sehen Die Farben symbolisieren die Zugeh rigkeit zu den Universit ten z B blau f r TU M nchen und gr n f r LMU M nchen und sonstigen Einrichtun gen Wie f r den Unterbezirk WR zu sehen kann per Mausklick noch eine kurze Beschreibung
564. ystem AFS sowie Novell Netware eine lange Tradition Die rapide wachsenden Datenmengen die gestiegenen Anforderungen an die Verf gbarkeit und die Schwierigkeiten Schl ssel applikationen mit einzubinden f hrten zur Speicherkonsolidierung und der damit verbundenen schritt weisen Abl sung von AFS bei verschiedenen Serverdiensten Im Jahr 2004 wurde als Speicher f r zentra le E Mail Bereiche der erste hochverf gbare NAS Filer am LRZ in Betrieb genommen Anfang 2005 wurde ein NAS Gateway installiert und erm glichte die Nutzung von SAN Speicherplatz durch NAS Dienste und damit die vollst ndige Ersetzung von Netware durch CIFS sowie die Migration aller HPC Systeme des LRZ auf NFS basiertes NAS Mit dem Umzug im Fr hjahr 2006 in das neu erbaute Rechen zentrum in Garching wurden auch die NAS Speicher f r die allgemeinen Dienste erweitert und konsoli diert Parallel dazu wurde auch f r alle Projektdaten des neuen nationalen H chstleistungsrechners HLRB II in erheblichem Umfang NAS Speicher inklusive eines Replikationssystems installiert der im Jahr 2007 ausgebaut wurde Die im nicht HPC Bereich eingesetzten Systeme wurden ebenfalls erweitert um den steigenden Speicherbedarf zu decken Neben den NFS und CIFS Anwendungen wurden weiterhin iSCSI Anwendungen z B Microsoft Exchange auf den NAS Systemen erfolgreich etabliert Die NAS Landschaft am LRZ wurde zus tzlich durch zwei NAS Systeme f r die Langzeitarchivierungsprojekte der BSB erweitert
565. ystem Zeit ist am HLRB die Belegungszeit der angeforderten Cores Jobklasse Nxx xx Anzahl der maximal anforderbaren Cores HLRB Nutzung nach L ndern Jobs Systemzeit Anzahl Core Std Bayern 66468 61 92 20961580 35 53 42 Baden Wirttemberg 3385 3 15 4497583 81 11 46 Brandenburg 4678 4 36 3724223 41 9 49 Deutschland 8291 7 72 2643201 71 6 74 Th ringen 6934 6 46 2300357 00 5 86 Nordrhein Westfalen 8913 8 30 2282613 58 5 82 Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 153 Niedersachsen 736 0 69 635773 04 1 2562 Hessen 1234 1 15 427721 89 1209 Italien 317 0 30 418343 20 1 07 United Kingdom 193 0 18 322781 58 0 82 Berlin 763 0 71 316862 13 0 81 Niederlande 4745 4 42 249186 95 0 64 Mecklenburg Vorpommern 232 0 22 225531 12 0 57 Spanien 25 0 02 137110 89 0 35 Sachsen Anhalt 271 O25 98229 01 0 25 Bremen 37 0 03 355 48 0 00 Frankreich 67 0 06 65 51 0 00 Finnland 4 0 00 33 47 0 00 Sachsen 4 0 00 1 02 0 00 Europa 44 0 04 0 11 0 00 Summe 107341 100 00 39241555 26 100 00 Deutschland oder Europa enthalten alle diejenigen Projekte die nicht eindeutig einem Bundesland zugeordnet werden konnten insbesondere auch solche von virtuellen Organisationen wie D Grid HLRB Nutzung nach F chern Jobs Systemzeit Anzahl Core Std 5 Computational Fluid Dynamics 22315 20 79 9728721 51 24 79 Astrophysics Cosmology 13397 12 48 7882353 21 20 09 Physics High Energy Physics 13450 12 81 6808255 66 17 35 Physic
566. ysteme z B SLES10 erstellt Im Herbst 2007 wurden vom BMBF Sondermittel zum Aufbau der Grid Infrastruktur bereitgestellt Das LRZ beschaffte davon Hardware f r knapp 50 000 und erkl rte sich bereit f r die in M nchen ans ssi gen Teile der assoziierten HEP Community deren aus Sondermitteln beschaffte Rechner im Rahmen des 158 Teil II Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme attended housing am LRZ zu betreiben Das LRZ beteiligte sich an der Erarbeitung eines D Grid weiten Betriebskonzepts sowie einer Referenzinstallation und erstellte bin re Installationspakete und eine Instal lationsanleitung f r GLOBUS die genau auf die Anforderungen der D Grid Systeme zugeschnitten sind F r die Klima Community C3 Grid wurde der Adapter f r das Batch System NQS I f r Globus fertig gestellt Es wurde intensiver GLOBUS Support f r die Astro Community geleistet Zur Verl ngerung des DGI DGI 2 wurde ein Antrag erstellt und eingereicht Neben der Weiterf hrung des GLOBUS Supports wird sich das LRZ hier vor allem auf die Bereitstellung einer gemeinsamen Benutzer Umgebung konzent rieren Au erdem hat sich das LRZ verpflichtet die Dienste MDS WebMDS und myproxy als zentrale Dienste f r das ganze D Grid anzubieten 6 2 2 DEISA W Distributed European Infrastructure for Supercomputing yo Applications Das zweite Gro projekt des LRZ im GRID Bereich ist DEISA http www deisa org DEISA ist ein Ko
567. z Rechenzentrum war Organisator des europ ischen DEISA Symposiums 2007 das in den R umen der Bayerischen Akademie der Wissenschaften abgehalten wurde Das LRZ war zudem auch Organisator des diesj hrigen HPOVUA Symposiums HP OpenView Users Association das ca 100 Wissenschaftler aus ber 25 Nationen in das LRZ brachte Bei dieser Veranstaltung wie auch bei zahlrei chen anderen Workshops zeigte sich wie wertvoll aber auch notwendig der H rsaaltrakt des LRZ f r die Weiterentwicklung des LRZ im Kontext vieler berregionaler Projekte ist Der H chstleistungsrechner und die R ume des LRZ wurden auch im Jahre 2007 wieder als Aufnahmeor te f r Filme zu wissenschaftlichen Themen ausgew hlt zum Beispiel von 3sat ZDF Nach wie vor finden im Umfeld von Veranstaltungen am Campus Garching und f r die unterschiedlich sten Besuchergruppen von Sch lern bis Ministern die teilweise aus dem In und Ausland anreisen 2007 weit ber hundert siehe 5 2 3 statt Diese F hrungen durch das Rechnergeb ude und zum H chstleistungsrechner des LRZ geh ren zu den H hepunkten der jeweiligen Programme So fand am Samstag dem 13 November 2007 im Rahmen der Feierlichkeiten anl sslich des f nfzigj hrigen Beste hens des Forschungscampus Garching eine Lange Nacht der Wissenschaft statt an der sich das LRZ beteiligte Knapp 1 000 Besucher nahmen die Gelegenheit war das LRZ und nat rlich vor allem das Rechnergeb ude und den H chstleistungsrechner
568. z verbindet vor allem Standorte der Ludwig Maximilians Universit t M nchen LMU der Technischen Universit t M nchen TUM der Bayerischen Akademie der Wissen schaften BAdW der Hochschule M nchen FHM und der Fachhochschule Weihenstephan miteinan der Am MWN sind zudem die Hochschule f r Musik und Theater die Hochschule f r Fernsehen und Film die Akademie der bildenden K nste sowie weitere wissenschaftliche Einrichtungen wie z B der Max Planck Gesellschaft der Fraunhofer Gesellschaft sowie Studentenwohnheime und andere staatliche Einrichtungen z B Museen angeschlossen Diese Standorte sind ber die gesamte M nchner Region i W M nchner Stadtgebiet Gro hadern Martinsried Garching und Weihenstephan verteilt Es gibt aber auch weiter entfernte Standorte wie z B Obernach am Walchensee Iffeldorf am Staffelsee Augsburg Straubing Wendelstein Schneefernerhaus Zugspitze und Triesdorf Das MWN ist mehrstufig realisiert e Das Backbone Netz verbindet mittels Router die einzelnen Hochschulstandorte Areale und Geb u de innerhalb der Areale e Innerhalb eines jeden Geb udes sorgt das Geb udenetz mittels Switches f r die Verbindung der ein zelnen Rechner und die Bildung von Institutsnetzen e Eine Sonderstellung nimmt das Rechenzentrumsnetz ein das die zentralen Rechner im LRZ Rechnergeb ude miteinander verbindet Etwas genauer l sst sich diese Realisierung wie folgt beschreiben e Die Router der einzelnen
569. zenz f r die bayerischen Hochschulen die es u a erlaubt das Produkt im M nchner Hochschul bereich weiterzugeben so dass es dort von den Endbenutzern kostenlos eingesetzt werden kann Zu diesem Zweck betreibt das LRZ einen zentralen Server ber den sich die Endbenutzer sowohl die Antivirensoftware wie die Updates herunterladen k nnen Dieser Server bietet die Updates ber HTTP an Auf dem Server ist die Sophos Enterprise Library installiert welche einmal pro Stunde die Anti Viren Software vom Hersteller aktualisiert und dann den Endbenutzern bereitstellt Der auf den Rechnern der Endbenutzer installierte Sophos Client kann die Updates ber diesen Server herunterladen und so den lokal installierten Sophos Client auf den neusten Stand halten F r gr ere Um gebungen gibt es die M glichkeit einen eigenen Server zu betreiben und ber diesen dann die Clientsys teme dieser Umgebung mit der aktuellen Anti Viren Software zu versorgen Zu diesem Zweck muss die Sophos Enterprise Library vor Ort installiert werden die dann ebenfalls ber das LRZ aktualisiert wird und ihrerseits die Daten an die Clients weiterreicht Voraussetzung f r den Zugriff auf den Sophos Server am LRZ ist dass sich der Rechner im M nchner Wissenschaftsnetz MWN befindet das sollte bei Institutsrechnern eigentlich immer der Fall sein Falls sich der Rechner nicht im MWN befindet z B bei einer Einwahl von zu Hause ber einen externen Pro vider so muss zuv
570. zepte wurden am LRZ in den Betrieb bernommen und im D Grid eingesetzt Im Bereich der D Grid weiten Dienste betreibt das LRZ das Monitoring System f r das gesamte D Grid vgl folgende Abbildung Ende 2007 waren die Community Projekte C3 Grid DGI HEP InGrid MediGrid und WISENT sowie die folgenden Resource Provider an dieses Monitoring Sys tem angebunden Albert Einstein Institut Potsdam AED Regionales Rechenzentrum f r Niedersachsen RRZN Astrophysikalisches Institut Potsdam AIP Berlin Center for Genome Based Bioinformatics DLR Oberpaffenhofen Deutsches Klimarechenzentrum Hamburg Deutscher Wetterdienst Offenbach DWD Forschungszentrum J lich FZJ Forschungszentrum Karlsruhe FZK Fraunhofer SCAI Gesellschaft f r Sicherheit in der Informationstechnik Darmstadt GSI Gesellschaft f r wissenschaftliche Datenverarbeitung G ttingen GWDG H chstleistungsrechenzentrum Stuttgart HLRS Leibniz Rechenzentrum Garching LRZ Max Planck Institut f r Astrophysik Garching MPA Paderborn Center for Parallel Computing PC Potsdam Institut f r Klimafolgenforschung Rechenzentrum der Max Planck Gesellschaft Garching RZG RWTH Aachen niversit t Dortmund niversit t Hannover niversit t Heidelberg niversit t K ln niversit t Leipzig niversit t Oldenburg niversit t Paderborn niversit t Potsdam niversit t Siegen U U U U U Universit t Marburg U U U U U niversit t Wuppertal Technische
571. zu 1 700 Nutzer gleichzeitig angemeldet t glich wer den bis zu 17 000 Verbindungen aufgebaut 7 2 3 DFNRoaming und Eduroam Das LRZ nimmt seit Anfang 2005 am DFN Roaming Dienst des DFN Deutsches Forschungsnetz Ver eins teil Damit ist es den Wissenschaftlern m glich mittels einer vorhandenen Kennung ihrer Heimat Institution einen einfachen Zugang ins Internet zu erhalten wenn sie sich im Bereich des MWN aufhal ten Als Zugangspunkte dienen die vorhandenen WLAN Accesspoints an vielen Standorten Derzeit bietet das LRZ zwei Methoden des Zugangs an e VPN WEB e 802 1x und eduroam Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 207 VPN WEB Bei dieser Methode wird man nach Aufruf eines Webbrowsers auf eine Authentifizierungs Seite geleitet Hier gibt man seine Kennung und Passwort an und der Zugang wird f r das weitere Arbeiten freigegeben Der Vorteil dieses Verfahrens liegt in der einfachen Authentifizierung ohne eine spezielle Client Software Der Nachteil ist dass zwischen Rechner und Accesspoint keine Verschl sselung zum Einsatz kommt und es au erdem nicht an allen Standorten im MWN angeboten wird 802 1x und eduroam Schon bei der Anmeldung am Accesspoint wird man hier nach Kennung und Passwort gefragt Voraus setzung ist ein Betriebssystem das 802 1x unterst tzt bzw ein entsprechender Client Der Nachteil die ses Verfahrens ist eine noch immer nicht ausreichende Verbreitung der Client Software bzw ihre Int
572. zu besichtigen Am Freitag dem 26 Oktober 2007 248 Teil II Organisatorische Ma nahmen im LRZ beteiligte sich das LRZ an der Festveranstaltung 40 Jahre Informatik in M nchen mit zahlreichen F h rungen In den Osterferien 2007 stellte das Leibniz Rechenzentrum R ume und Infrastruktur f r eine gemeinsame Veranstaltung des Stadtjugendamtes M nchen und des Bayerischen Landeskriminalamtes zum Thema Sicherheit im Internet zur Verf gung siehe 5 2 5 Dar ber hinaus gibt das LRZ monatlich einen Newsletter heraus in dem u a Termine Veranstaltungen Kurse und Stellenangebote mitgeteilt werden und der ber eine Mailingliste verteilt sowie im Web ange boten wird Dort ist auch ein Newsletter Archiv verf gbar Ferner wurden Faltbl tter erstellt die sich auf Deutsch oder Englisch an die allgemeine ffentlichkeit wenden oder speziell f r Studenten die Dienstleistungen des LRZ vorstellen F r die Zusammenarbeit mit den Medien erwies es sich als u erst vorteilhaft ihnen einen festen Ans prechpartner nennen zu k nnen 8 7 LRZ als Ausbildungsbetrieb Das LRZ ist seit diesem Jahr als Ausbildungsbetrieb anerkannt und bietet erstmals Ausbildungsplatze fiir IT System Elektroniker und Fachinformatiker Systemintegration an Mit Beginn des Schuljahres 2007 2008 haben drei Auszubildende ihre Ausbildung am LRZ begonnen Eine Stelle wird hierbei aus speziellen F rdermitteln im Rahmen der Ausbildungsoffensive 2007 bezahlt Wenn si
573. zust ndigen Netzverantwortlichen siehe Monitoring Accounting e Automatische Erkennung von Bot Netz Mitgliedern auf der Basis des Open Source IDS BRO und anschlie ende Benachrichtigung der zust ndigen Netzverantwortlichen siehe Monito ring Accounting e Erkennung und Abmahnung von Port Scan Aktivit ten Sperrung des verursachenden Rechners in Abh ngigkeit vom Umfang der Portscans siehe Monitoring Accounting e Erkennung von DoS Angriffen Denial of Service Sperrung des verursachenden Rechners in Ab h ngigkeit vom Umfang des Angriffs siehe Monitoring Accounting e Erkennung von SPAM Quellen Sperrung des verursachenden Rechners in Abh ngigkeit von ver schiedenen Eskalationsstufen e Aktuelle Sicherheitsvorfalle Das MWN blieb auch 2007 vor gr eren Sicherheitsvorf llen wie z B dem Ausbruch des W32 Blaster LovSAN Wurms im Jahr 2003 verschont Im M rz 2007 hat ein Wurm der eine Schwachstelle im Betriebssystem Solaris ausgenutzt hat auch SUN Rechner im MWN befallen Der Umfang infizierter Rechner die Anzahl der entdeckten Bot Net Clients sowie die Abuse Meldungen z B bez glich Copyright Verletzungen blieben im normalen Rahmen Positiv wirkt sich in diesem Zusammenhang vermutlich auch ein gestiegenes Sicherheitsbewusstsein der Nutzer und der Systemhersteller z B Microsoft der Betrieb eines Microsoft SUS Servers Sys tem Update Server f r das MWN und die Nutzung der angebotenen Antiviren Software Sophos C
574. zvertrag f r die Software mit der die Systeme betrieben werden aus In verschiedenen Veranstaltungen wurden die M glichkeiten eines neuen f r alle beteiligten Hochschulen vorteilhaften Rahmenvertrags diskutiert Eine detaillierte Trendanalyse f r den zu erwartenden F nfjahresbedarf wurde erstellt und die Verhandlungen mit der Herstellerfirma IBM wur den aufgenommen Die Kooperation mit der Bayerischen Staatsbibliothek im Bereich der Langzeitarchivierung wurde weiter ausgebaut Zus tzlich zu dem laufenden Kooperationsprojekt BABS Bibliothekarisches Archiv und Bereitstellungssystem wurden mit BABS16 BABS Google und BABS2 weitere Projekte gestartet bzw beantragt siehe Abschnitt 6 4 2 3 Der st ndig wachsende Bedarf an Speicher f hrt zu einer Kostenexplosion die so nicht mehr tragbar ist Aus dem Umfeld hochschulnaher Einrichtungen werden zus tzliche W nsche nach Speicher an das LRZ herangetragen Aus diesem Grund wurde 2007 intensiv ber neue Kostenmodelle und die Varianten Spei cher als Service anzubieten nachgedacht Am Ende stand als Ergebnis ein Leistungskatalog f r Speicher dienste mit zugeh rigem Kostenmodell Die neuen Modelle sind so konzipiert dass sie einerseits als wir kungsvolle Bremse der Datenexplosion andererseits auch als Basis f r die Ausweitung des bisherigen Kundenkreises eingesetzt werden k nnen Jahresbericht 2007 des Leibniz Rechenzentrums Teil II 173 Die NAS Network Attached Storage Systeme am LRZ
Download Pdf Manuals
Related Search
Related Contents
User Manual Polar WearLink ePayment App (iPhone) ConCardis PayEngine 量大精華 ー 600俺 U-Line ADA151M Ice Maker User Manual MANUEL D`UTILISATION ET D`ENTRETIEN CURING LIGHT LED.B USER`S MANUAL documentation de l`API du bras haptique Copyright © All rights reserved.
Failed to retrieve file