Home

2008 - LRZ

image

Contents

1. SS ae rf CT nda iperf PPI Eee eI EEIEIE eee rf UI EEEEEEIE TE ha rer er re er heev heev berv berv er berv berv berv bere ar ey faea foor foss ao fens oso o elen o ecs ma oaa fres an feaa o hoa feas fas nia nia nia nin nan a ca nan as nsa naa naa nsa naa a ca a ca a sa asa sa asa as aa Heke Abbildung 117 DEISA Durchsatz und Laufzeittest F E em a BEEEEEEREE Br UDP Das LRZ hat Ende 2008 einen Rechner beschafft und wie in Abbildung 118 dargestellt ins DEISA Netz integriert Die Monitoring Skripte werden 2009 sukzessive auf diesen Rechner umgezogen HLRBII 195 37 740 24 Sind im gleichen VLAN aber per ACLs getrennt Verbindung verboten ACLs trennen de PC vom HLRBII Netz Monitor PC 196 37 7 249 Abbildung 118 Netzanbindung und Sicherheit des DEISA Monitoring Systems Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 243 7 5 5 Geant2 E2E Link Monitoring Geant2 ist eine Weiterentwicklung des europ ischen Wissenschaftsnetzes das ca 30 nati
2. I Ia swunyuazuay9og zrugloT s p 8007 JyPLIOgSAIyeLf 69 Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller RER Daten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur en En Aufgabe Anzahl und speicher 3 Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente 12 MEGWARE Itanium2 4 8GB Quad IA64 Pool Madison 1300 MHz Dedizierte Knoten f r parallele MPI und 4 fach Shared Memory Jobs 0L ZAT sop ube I TOL 3 Hochleistungs Graphik System Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller Kompo Gesamter paten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur nenten Hapi Aufgabe Anzahl und speicher Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente Grafik Hoch 1 Am LRZ Mit 10 Gbit 5 FSC 2 8 GB Immersive 3D Projektionstechnik im Visualisierungs leistungs selbst konfi E vernetzte Opteron 2400 MHZ Labor als Rechen Cluster f r eine Holobench Cluster guriert AMD Opte ron Systeme Grafik Hoch Am LRZ Mit 10 Gbit 3 SGI VSS40 2 32 GB Immersive 3D Projektionstechnik im Visualisierungs leistungs selbst konfi E vernetzte Intel Xeon
3. 8 000 7 000 6 000 5 000 Wisitors 4 000 3 000 2 000 1 000 0 i f 01 01 2008 02 03 2008 02 05 2008 02 07 2008 01 09 2008 01 11 2008 01 01 2009 Date Abbildung 39 Anfragen zum Software Update Service SUS in 2008 5 8 2 Active Directory im M nchner Wissenschaftsnetz Die zunehmende Verwendung von Microsoft Active Directory f r MWN weite Infrastrukturdienste er forderte eine Neukonzeption der Dom nenstruktur am LRZ F r Exchange und Fileservices per NetApp NAS Filer wurde bereits in 2007 ein MWN weit positionier tes Active Directory neu aufgebaut Neben der Versorgung von Applikationen NETApp NAS Filer Ex change mit Authentisierungs und Konfigurationsdaten ist geplant standardisierte Client Systeme in eine Directory Umgebung mit zentralem Betrieb bei delegierter Administration aufzunehmen 126 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Ziel ist es Synergien bei der Administration z B von Desktop PCs zu erschlie en und Mehrwerte im Funktionsumfang f r Anwender und Administratoren nutzen zu k nnen Dieses Remote Desktop Mana gement Serviceangebot ist seit langem am LRZ in Erprobung bzw in Produktion Jede Organisationseinheit erh lt eine Unterstruktur Organisational Unit OU in diesem Directory die wiederum in Fakult ten und Lehrst hle weiter untergliedert werden kann Auf diesen Ebenen k nnen dann lokale Computer Gruppen Ressourcen
4. A Monitoring of already used technology B New technologies watching and scouting WS WS E E WS 1 C Technology evaluation D Technology based infrastructure plan and design E Technology based infrastructure deployment Abbildung 116 Projektstruktur WP4 von DEISA2 Das LRZ wird bei den Netz bezogenen Technologien mitarbeiten Hierbei ist das Ziel das Netzmonito ring zu verbessern und gleichzeitig Werkzeuge die im Rahmen anderer Forschungsprojekte insbesondere im Geant2 Umfeld entstanden sind auch f r DEISA nutzbar zu machen Hierbei werden die Synergien mit den Geant2 Projekten des LRZ siehe Abschnitte 7 5 5 und 7 5 6 optimal genutzt Im Rahmen von DEISA2 soll untersucht werden in wie weit das am LRZ entwickelte E2E Mon in DEISA eingesetzt werden kann Au erdem sollen die im Rahmen von perfSONAR entwickelten Monitoring Werkzeuge auch in DEISA untersucht und ggf eingesetzt werden Auch an perfSONAR arbeitet das LRZ im Rahmen von CNM siehe Abschnitt 7 5 2 mit Die Geant2 Untersuchungen starteten im November 2008 Im Netzmonitoring werden derzeit diverse Parameter berwacht und den Partnern dargestellt Dazu wer den auf den verschiedenen Supercomputern Test Skripten ausgef hrt und die Ergebnisse dann auf Web seiten dargestellt Abbildung 117 zeigt z B das Ergebnis der Durchsatz und Laufzeit Tests zwischen den verschiedenen DEISA Partnern In der ersten gr nen Zeile sind die Laufzeiten zu den einzelnen Sites a
5. Abbildung 56 Logo des GCS und Rechner der im Gauss Centre zusammengeschlossenen Partner Antrag zur Finanzierung der nationalen Infrastruktur Die herausragende Aktivit t im Berichtszeitraum war die gemeinsame Erstellung des BMBF Antrags zu Beschaffung und Betrieb von Supercomputern f r das Gauss Centre for Supercomputing GCS als Bei trag zum Nationalen Versorgungskonzept f r Tier 0 1 im Rahmen eines europ ischen HPC kosystems Die hiermit beantragten F rdermittel des Bundes dienen der schrittweisen Ausstattung des Gau Zentrums f r Supercomputing GCS mit Supercomputer Kapazit t und versetzen es in die Lage im Rahmen eines europ ischen HPC kosystems die deutsche Seite einer Tier 0 1 Infrastruktur zu realisie ren Mit dem Vorhaben wird Deutschland also den ersten notwendigen Schritt zum Petaflop Computing tun k nnen eine Voraussetzung um mit einer sp ter noch zu beantragenden Phase 2 eine Spitzenposition im wissenschaftlichen H chstleistungsrechnen in Europa zu bernehmen Die F rdermittel des Bundes werden von den jeweiligen Tr gereinrichtungen der nationalen Supercom puter Zentren und deren Sitzl nder um 50 aufgestockt Die gemeinsame Beantragung innerhalb von GCS f hrt zu einer koordinierten Beschaffung Nutzung und Ausbau einer H chstleistungsrechnerinfrastruktur in Deutschland die sowohl in Bezug auf Hardware als auch Software der Dynamik der wissenschaftlich technischen Entwicklung entspricht Der Einsatz de
6. tt1 ams nl geant net 62 40 124 164 30 4 91009536356141e 06 nt1 ath gr geant net 62 40 124 88730 0 utilization_rate_change_out Rank Link Value d rt1 gen ch geant net 62 40 124 20 30 0 502408552986667 nt1 vie at geant net 62 40 124 0 30 0 0116877457066667 rt1 gen ch geant net 62 40 124 2430 5 87801008882726e 05 nt1 ams nl geant net 52 40 124 164 30 4 934181195977568 07 nt1 ath gr geant net 62 40 124 88 30 0 utilization_rate_change_inout Rank Link Value out rt1 gen ch geant net 62 40 124 20 30 0 502408552986667 in rtl gen ch geant net 62 40 124 20 30 0 26629071664 in rt1 vie at geant net 62 40 124 30 0 0381810921902192 out rt1 vie at geant net 62 40 124 0 30 0 0116877457066667 out rt1 gen ch geant net 652 40 124 2430 5 87801008882726e 05 7 Uno Aronet mancas 0 7 Une BELNET Backup S Use Crne Prote we 7 Um DFN Proen aai 7 Una net Baciup Pr KA A Un FCCN Backup Pr A Um GRnet Backup Pr Le HEANET Primar D gt Compite on D Probieren Current History settings eORBAGpetBRAWectinsICHaractanstc Fer amp ngs Lopk afastmurkiCharachnsikseMarager send request Abbildung 111 bersichtskarte des Layer 3 G amp ant Kernnetzes mit HADES IP Jitter Metrik 23
7. Abbildung 123 I SHARe Architektur berblick Es ist geplant die entwickelten Konzepte anhand eines Prototyps mit dem reduzierten Funktionsumfang im Betrieb zu evaluieren Der Prototyp wurde Anfang 2009 fertiggestellt siehe Abbildung 124 E2E Link Requests Request Information Action Status 5 8 S D Sa SE GE ME ONE SEE Na KE E Re v D e 3 a 5 v g Geh ES Fei P 2 Pr ID Project End Site A End Site B A Se Se E Hadron VPN CNAF GridKA wl dm A wi 2 FEDERICA FED GARR MI FED DFN ERL A wl A L 3 Interferometry Medicina Effelsberg wi b Add I SHARe Central Server version 1 1 build 320 Contact us Abbildung 124 I SHARe Prototyp Screenshot 248 Teil I Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 7 5 7 Auswahl von WLAN Access Points Die letzte Accesspoint Auswahl wurde im Jahre 2005 durchgef hrt Diese resultierte in der Beschaffung von Accesspoints CN320 CN330 der Firma Colubris Mit diesen wurden die Accesspoints AP500 der ersten Generation von Proxim ersetzt und der weitere Ausbau des Funk Netzes durchgef hrt Da auch die Accesspoints AP600 der zweiten Generation von Proxim inzwischen technischen Ein schr nkungen unterlagen wurde im Jahre 2008 f r deren Ersetzung eine neue Auswahl durchgef hrt Kriterien Neben den blichen Anforderungen an Accesspoints AP wurde vor allem auf folgende Punkte beson ders Wert gelegt e mehrere gt 10 SSIDs und VLANS e Broadcast mehrer
8. Durchgangsstation zur Verschleierung des Ausgangspunkts bei Angriffen auf andere Rechner mutwillige Zerst rung von Daten Lahmlegen von Diensten Denial of Service Bei den vielen verf g baren Angriffsmethoden berwiegen Verfahren und Tools die die Angreifer nicht selbst entwickelt son dern einsatzbereit im Internet vorgefunden oder im Untergrund gekauft und dann h chstens noch leicht modifiziert haben z B Bauk sten f r W rmer oder trojanische Pferde Wegen der Komplexit t der heutigen Betriebssysteme und Anwendungsprogramme der kurzen Entwick lungszyklen und der leider sehr oft fehlenden Umsicht der Entwickler ist es bis auf weiteres unvermeid lich dass immer wieder Design und Programmierfehler auftreten die mehr oder weniger gravierende Sicherheitsl cken darstellen Inzwischen suchen die Angreifer sogar systematisch nach derartigen L cken Au erdem hat sich die Zeitspanne zwischen dem Bekanntwerden einer neuen Sicherheitsl cke und dem Auftauchen eines dazu passenden Schadprogramms Malware auf wenige Tage verk rzt Daneben gibt es immer noch viele Nutzer mit unzureichendem Problembewusstsein die dadurch unbeab sichtigt elementare Sicherheitsregeln verletzen Trotz der h ufigen Warnungen in der Tagespresse und im Fernsehen werden z B immer noch Programme aus dubiosen Quellen oder Anh nge bei E Mails von unbekannten Absendern ohne Schutzma nahmen ausgef hrt ausf hrbare Dokumente Makros
9. ISBN 978 1 58603 924 0 ISBN 978 87 91234 56 9 ISBN 978 3 88579 224 6 Teil II Organisatorische Ma nahmen im LRZ HAMM M K YAMPOLSKIY M IT Service Management verketteter Dienste in Multi Domain Umgebungen PIK Praxis der Informationsverarbeitung und Kom munikation 31 2 125 132 K G Saur M nchen Germany Juni 2008 HAMM M K HANEMANN A SCHAUERHAMMER K ULLMANN K YAMPOLSKIY M Unterst tzung von IT Service Management Prozessen in Multi Domain Umgebungen In Proceedings Erstes DFN Forum Kommunikationstechnologien Verteilte Systeme im Wissenschaftsbereich GI Verlag DFN Kaiserslautern Deutschland Mai 2008 HANEMANN A SCHMITZ D BARTOLINIC Scope and Methods for Impact and Re covery Analysis In Proceedings ofthe 2008 Workshop of HP Software University Association HP SUA Infonomics Consulting Hewlett Packard Marrakech Morocco Juni 2008 HANEMANN A KRAFT S MARCU P REINWAND H REISER H SCHMITZ D VENUS V perfSONAR Performance Monitoring in europ ischen Forschungsnetzen In Proceedings Erstes DFN Forum Kommunikationstechnologien Verteilte Systeme im Wissenschaftsbereich GI Verlag DFN Kaiserslautern Deutschland Mai 2008 HANEMANN A MARCU P Algorithm Design and Application of Service Oriented Event Correlation In Proceedings of the 3rd IFIP IEEE International Workshop on Business Driven IT Management 2008 Salvador Bahia Brazil April 2008 HEGERING H G Auf dem Wege zu eine
10. NAG Library FORTRAN Unterprogrammsammlung bayernweite Kauflizenz mit Wartungsvertrag bis 2009 Daneben wurde ein separater Vertrag f r die Anpassung der Bibliotheken auf den neuen H chstleistungs rechner abgeschlossen Novell Bayernweite Rahmenvereinbarung mit Novell ber den Bezug von Novell Produkten einschlie lich der SUSE Produkte SLES und SLED Lieferung erfolgt durch Download von einem Server der Uni Regensburg f r die Novell Produkte f r SLES und SLED von ei nem Server bei Novell selbst Updates und Patches von einem Server des RRZE Lizenz Verwaltung und Rechnungsstellung er folgt durch das LRZ Vertrag wurde 2008 um weitere 5 Jahre ver l ngert Origin Vereinbarung mit der Fa Additive die angesichts des geb ndelten Bedarfs zus tzlich zu den Forschungs und Lehrepreisen 25 bzw 35 Nachlass einr umt Pro Engineer Der Lizenzvertrag mit der Parametric Technology Corporation PTC erm glicht die Miete von verschiedenen Produkten der Firma Parametric Technology insbesondere des CAD CAM Systems Pro Engineer Wartungsvertrag in 2008 f r weitere 3 Jahre SamplePower Zusatzprogramm zu SPSS Sch tzung der Stichprobengr e Datenmanagementpaket einschlie lich Statistik Aktuell ist Version 9 2 Scientific Word Scientific WYSIWYG Oberfl che f r LaTeX mit Maple Kernel Bisher nur WorkPlace Einzelplatzlizenzen Erweiterung auf floating licenses geplant Erneute Vertragsverl ngerung Ende 2008 um ein
11. Ontap GX clustered an NES servar 130 50 TB 8 nodes DO Internal cluster GigE network Abbildung 12 Lustre E A Lastdiagramm von Juni 2006 bis November 2007 Aufgetragen ist jeweils die f r Lese und Schreibvorg nge genutzte E A Bandbreite in Gigabyte s 2 3 1 5 Gegen berstellung der verschiedenen Hochleistungsrechner am LRZ Zwischen dem Bundesh chstleistungsrechner Altix 4700 HLRB II und dem IA64 Cluster bestehen grundlegende Unterschiede hinsichtlich des m glichen Nutzungsprofils e Der HLRB II darf nur von Projektgruppen genutzt werden die schon ber erhebliche Erfahrung im Hochleistungsrechnen verf gen und die dem Lenkungsausschuss einen entsprechenden hohen Bedarf f r Produktionsl ufe nachweisen k nnen e W hrend der HLRB II deutschlandweit bzw europaweit zur Verf gung steht sind die 128 256 Prozessorkerne SGI Altix Systeme sowie das IA64 Cluster prim r f r die bayerische Landesversorgung im Capability Computing Bereich bestimmt lassen aber auch Entwicklungsarbeiten und Testen an neuen Projekten zu e Eine wichtige Rolle des Linux Clusters ist es somit bayerischen Benutzern die f r ihre wissenschaftlichen Aufgaben Hochleistungsrechner ben tigen die M glichkeiten zu geben so weit in die Technik der Parallelisierung einzudringen dass sie sp ter die Bedingungen f r die Nutzung des HLRB II erf llen k nnen Folgt man der Versorgungspyramide von oben nach unten so schlie en sich im Capacity
12. Um eine m glichst einfache Verteilung von Software an interessierte Mitarbeiter der M nchner Unis zu erm glichen wurde seit Ende des Jahres 2007 die Software ber ein Downloadangebot zur Verf gung zu stellen Es kann wahlweise eine deutsche oder englische Version f r Windows sowie eine Mac Version ausgew hlt werden Seit der produktiven Inbetriebnahme Mitte Oktober 2007 wird dieses Angebot von Mitarbeitern beider Hochschulen intensiv genutzt Die Pr fung der Downloadberechtigung erfolgt dabei ber die Verzeich nisdienste der LMU und der TUM Am 1 Dezember 2008 fand eine Umstellung der angebotenen Software von den Versionen 7 0 englisch und 7 0 deutsch auf 7 2 englisch und 7 2 deutsch statt Die Mac Version blieb unver ndert V 7 Im Jahre 2008 wurde Mindmanager 315 mal erfolgreich vom LRZ Webserver heruntergeladen LMU Mitarbeiter 71 Downloads TUM Mitarbeiter 233 Downloads Im Jahre 2008 stand der Downloadbereich durchgehend st rungsfrei zur Verf gung Die Umstellung auf die Version 8 steht an 5 3 4 Online Bestellungen F r Einrichtungen mit zentralem Einkauf besteht die M glichkeit die am meisten nachgefragten Soft warelizenzen online zu bestellen Hierzu z hlen die M nchner Unikliniken mit ihrem jeweiligen Zentraleinkauf die Uni Augsburg einige Fachhochschulen aus dem s dbayerischen Raum sowie einige kleinere Einrichtungen Aufgrund lizenzrechtlicher nderungen von Herstellerseite durften im November und Dez
13. Closed 0 Jan 2008 Mrz 2008 Mai 2008 Jul 2008 Sep 2008 Nov 2008 BI Anwendungen EI Netz Systemdiente DJ Netzberatung ME Organisatorisches EI Sicherheit EI Systemberatung Abbildung 25 Trouble Tickets klassifiziert nach Dienstklassen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 89 Zu folgenden 10 Diensten wurden die meisten Tickets ge ffnet Top Ten Dienst Anzahl Tickets VPN 302 Linux Cluster 251 HLRB 221 Mail gt Anwenderproblem 173 Mail gt Zentrale Mailserver 152 Verbindungsproblem 117 Benutzerzugang Vewaltung gt Lizenzen 81 Dateisysteme gt NAS 78 Benutzerzugang Vewaltung 76 gt Studentenkennungen Verkabelung Anschluss 67 5 1 6 bersicht ber die Nutzung des Quick Ticket Systems QT Im Jahr 2008 wurden insgesamt 3 015 Quick Tickets 2007 4144 eingetragen davon entfielen auf Dienst Anzahl Tickets telefonische Beratung 2031 2670 LRZ Post 642 775 Pr senzberatung 342 669 Zu folgenden Diensten bzw Dienstleistungen wurden die meisten Quick Tickets erzeugt Dienst Anzahl Tickets VPN 186 201 Gastkennungen 68 117 Reservierungen 42 60 Ausdrucke 37 80 Verbindungsproblem 23 45 WLAN 17 37 5 2 Kurse Veranstaltungen F hrungen 5 2 1 Kurs bersicht Statistik 2008 Wie schon in den vergangenen Jahren wurden die Kurse gut angenommen die vom LRZ zum Thema Hochleistungsrech
14. Software Der Nachteil ist dass zwischen Rechner und Accesspoint keine Verschl sselung zum Einsatz kommt und es au erdem nicht an allen Standorten im MWN angeboten werden kann Wegen dieser Nachteile und der Tatsache dass alle neueren Betriebssysteme 802 11x inzwischen beherrschen wurde diese Funktion Mitte Januar 2009 eingestellt 802 1x Schon bei der Anmeldung am Accesspoint wird man hier nach Kennung und Passwort gefragt Voraus setzung ist ein Betriebssystem das 802 1x unterst tzt bzw ein entsprechender Client Der Vorteil gegen ber VPN WEB liegt in der sicheren Verbindung Verschl sselung zwischen Rechner und Accesspoint einem verbesserten automatischen Ablauf und der M glichkeit sofort E Mails zu versenden und zu emp fangen ohne vorher einen Webbrowser benutzen zu m ssen Die beiden identischen SSIDs eduroam und 802 1X werden auf fast allen Accesspoints im MWN zur Verf gung gestellt Nur an 2 Standorten mit je einem Accesspoint die ber DSL Leitungen angeschlos sen sind war es aus technischen Gr nden nicht m glich das DFN Roaming anzubieten Die SSID eduroam wird nicht nur innerhalb von Deutschlands sondern auch in vielen L ndern Europas und in Australien verwendet um dort Roaming zu erm glichen Die Abbildung 90 und Abbildung 91 zeigen die Benutzungs Statistik f r das VPN WEB und 802 1X Der starke Anstieg im Oktober kennzeichnet den Austausch von alten Accesspoints bei denen wegen Prob lemen mit Wind
15. Tools durchgef hrt Au erdem wurde das neue Formular KOM Change Record KCR entwickelt siehe Abbildung 102 um den Change Management Prozess zu unterst tzen und zu verbessern Fr her wurden Anschlussw nsche und Wartungsarbeiten an drei Stellen Abteilungsprotokoll Gruppenleiterprotokoll Terminliste doku mentiert Jetzt werden alle diese Anschlussw nsche und Wartungsarbeiten in KCRs erfasst Im Jahr 2008 wurden insgesamt 752 KCR Tickets erstellt Mit einem Report ber die geschlossenen und anstehenden KCRs lassen sich die entsprechenden Punkte f r die Agenda der Abteilungssitzung KOM jetzt automatisch erstellen Durch ein Perl Skript wird au erdem eine bersicht ber alle KCRs im Zustand In Bearbeitung als HTML Seite erzeugt Die HTML Seite dient jetzt als neue Terminliste und ersetzt die alte manuell ge pflegte Liste ARS Nutzung am LRZ ARS wird am LRZ in verschiedenen Bereichen eingesetzt In Abbildung 103 ist eine bersicht zu sehen welche Teilbereiche des ARS von wie vielen LRZ Mitarbeitern genutzt werden Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 221 alal ale 712 alel Bl x els z ndern KOM Change Record 000734 AR Nummer Im Zustand In Bearbeitung C Abgeschlossen Mene Qifenen KER E Eifasser in Aled Lappe Zutat ge ndert von AlredLaeppe Enfassungsdatem 05122008143425 Artuso DEn 20910 Kunden Informationen Ans DD Vorname fates Nachname J sge Telef
16. 10 x NAS Filer 3 x NAS Filer 4 x2 Gbit F OO0O000002 90 STK FLX380 STK FLX380 STK SL8500 tape library FC AL 16 fc tape drives Titanium 10 fc tape drives 6 300 Cartridges 3 150 TB capacity 492 disks total capacity 113 TB uncompressed Abbildung 66 HABS Hochleistungsarchiv und Backupsystem 2008 174 Teil IL Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme LABS LTO Archiv und Backupsystem 2003 Erweiterungen von 2008 tape capacity 2 360 TB 10 000 Cartridges d tape devices 40 x LTO II 4 LTO4 Laufwerke rot schraffiert hinterlegt disk devices 32 TB FCAL 63 TB SATA Router MWN GE Switch HP 3448CL 48 Gbit Ports M nchner Wissenschaftsnetz 36 x Gbit Ethernet 18 x IBM xSeries dual processors 2 x XEON 3 0 GHz 4 GB Memory 3 x FC 2 Gbit 2 x GE port trunking SLES 9 kernel XEON dual cpu S TSM server 5 4 811 S34 54 x 2 Gbit FC Storage Area Network 2 GBit FC Switch 32 Port 2 GBit FC Switch 32 Port 2 GBit FC Switch 32 Port 2 GBit FC Switch 32 Port 40 x 2 Gbit FC 20 x 2 Gbit FC 5 000 cartridges IBM DS4500 IBM DS4500 total FC AL FC AL IBM TS 3500 tape library capacity 20 fc tape drives LTO II 1 000 TB oeo0 o ueeoseeee IBM DS4500 IBM Ds4500 IBM Ds4500 cartridges eoeo seoa u u s 0 oa SATA SATA u IBM TS 3500 tape library capacity ZUTE AE 20 fc tape drives LTO II 4 x LTO IV
17. 27 Ludwiestr 28 Ludwiestr 29 Ludwiestr 31 Ludwiestr 33 Luisenstr 37 Martinsried Biozentrum Martiusstr 4 Meiserstr 10 Arch ologie Menzinger Stra e 67 Oberschlei heim Klauentierklinik Oberschlei heim Schleicherbau Oberschlei heim Versuchseut St Hubertus Oberschlei heim Voselklinik Oettingenstr 67 Prof Huber Platz 2 Geb 420 Vestib lbau Prof Huber Platz Geb 421 Vestib lbau Turm Au enbereich Geb 421 Richard Wasner Str 10 Schackstr 4 Schellinestra e 3 R ckgeb ude Schellinestra e 3 Vordergeb ude Schellingstra e 4 Schellinestra e 5 Schellinestra e 7 Schellinestra e 9 Schellinsstra e 10 Schellinestra e 12 Seestr 13 Sternwarte Lanlacestr 16 Sternwarte Scheinerstr 1 Theresienstra e 37 TI TI TU TI TU TU TU TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU TU TU TI TU M Garching Wasserg tewirtschaft M Iffeldorf Limnolosische Station M Katholische Hochschulgemeinde M Klinikum rechts der Isar M Lothstra e 17 M Mensa M Nordgel nde N1 M Nordgel nde N4 M Nordsel nde N5 M Nordsel nde N8 M Nvmphenburser Str 39 M Obernach Versuchsanstalt f r Wasserbau M Pasing Grundbau und Bodenmechanik M Richard Waener Str 18 M Stammsel nde
18. 81 Aufgaben Die Kommission f r Informatik der Bayerischen Akademie der Wissenschaften dient wissenschaftlichen Bem hungen auf dem Gebiet der Informatik im Freistaat Bayern Insbesondere betreibt sie das Leibniz Rechenzentrum Das Leibniz Rechenzentrum bietet als gemeinsames Instrument der Ludwig Maximilians Universit t M nchen und der Technischen Universit t M nchen sowie der Akademie selbst den wissenschaftlichen Einrichtungen dieser Institutionen die M glichkeit Rechen und Informationsverarbeitungsaufgaben f r wissenschaftliche Forschung und Unterricht durchzuf hren Im Zusammenhang damit dient es auch der wissenschaftlichen Lehre und Forschung auf dem Gebiet der Informatik selbst Das Leibniz Rechenzentrum steht ferner den Universit ten und Fachhochschulen im Freistaat Bayern zur Deckung des Spitzenbedarfs und im Bedarfsfall den Verwaltungen der genannten M nchener Hochschulen f r Rechen und Informationsverarbeitungsaufgaben des eigenen Bereichs zur Verf gung soweit diese Aufgaben nicht anderweitig erledigt werden k nnen Das LRZ ist dar ber hinaus befugt anderen wissenschaftlichen Einrichtungen Dienstleistungen im Rah men seines Dienstleistungskatalogs anzubieten Als Betreiber eines nationalen H chstleistungsrechners und nationaler Grid Infrastrukturen steht das LRZ auf diesem Gebiet ferner Forschergruppen an staatlichen deutschen Hochschulen sowie wissenschaftli chen Institutionen in Deutschland die berwiegend von d
19. 940 17 564 2 005 7 359 1286 aan las 1 682 fh muenchen de ase s w fh badwmuenchende as so a 5 bawe Mo a o oo S o o Iremuenchen de 93 al s gl 13as e C E T E zn Gesam 3159 17131 149300 4200 12027 Saa Tabelle 15 bersicht ber Domainen und Subdomainen 5 5 3 W hlzug nge Modem ISDN Die Anzahl der W hlverbindungen hat sich im Laufe des Jahres 2008 weiter verringert Auch die f r M net Kunden kostenfreie Einwahl in der Nebenzeit ab 18 00 Uhr und am Wochenende wird weniger ge nutzt Die Anzahl der Nutzer der Telekom Anschl sse ging auf ca 250 die der M net Anschl sse auf ca 120 zur ck M net stellt ihre Anschl sse kostenfrei dem LRZ zur Verf gung Abbildung 33 zeigt f r das 2 Halbjahr 2008 die maximale Anzahl gleichzeitig aktiver Verbindungen pro Woche aufgeschl sselt nach den jeweiligen Rufnummern Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 113 Maximale Verbindungen pro Rufnummer t glich 23 06 2008 28 08 2008 23 10 2008 M net 89067928 TUM Querverbindungen Abbildung 33 Maximale Anzahl von Verbindungen pro Rufnummer des zweiten Halbjahres 2008 Der Wochen berblick zeigt bei den M net Verbindungen das Ansteigen werktags um 18 Uhr Maximale Verbindungen pro Rufnummer st ndlich 28 12 2008 Telekom 358319000 LMU Querverbindungen 30 A A4 N 207 N 8 d H N dh e Wi H N H Y M d 8 A SS S i d y S N i Im f L A N
20. Auf den genannten Seiten findet man auch die Nutzungsrichtlinien f r das Archiv und Backupsystem An dieser Stelle sei nur darauf hingewiesen dass das LRZ im Konsens mit den Empfehlungen der DFG f r gute wissenschaftliche Praxis die Regelaufbewahrungsdauer f r die Daten auf 10 Jahre festgelegt hat 84 Teil I Hinweise zur Nutzung von Rechnern und Diensten 4 6 Projektverwaltung und kontrolle durch Master User Dem Master User der bei der dezentralen Verwaltung der Benutzerkennungen eine sehr wichtige Aufga be bernommen hat stehen zur Durchf hrung dieser Aufgabe innerhalb des Identity Management Portals des LRZ idportal lrz de spezielle Master User Dienste zur Verf gung Dazu geh ren u a e Anzeige der Einrichtungs und Projektdaten e bersicht ber alle Kennungen eines Projekts und deren Berechtigungen e Anlegen und L schen von Kennungen e Sperren und Entsperren von Kennungen e Setzen und L schen von Berechtigungen f r Kennungen gegebenenfalls inklusive Plattenplatz Kontingent e Setzen von Passw rtern e Anzeige der aktuellen Plattenplatzbelegungen von Kennungen e Anzeige von Statistikdaten von Hochleistungsrechnern sofern das Projekt Kennungen mit entspre chenden Berechtigungen enth lt Praktische Tipps f r die Arbeit des Master Users sind in den Master User Diensten unter dem Men punkt Dokumentation Master User Dienste FAQ zu finden Die FAQ Sammlung ist auch direkt zugreifbar und zwar ber idportal Ir
21. Call ver ffentlicht Im Rahmen dieser Ausschreibung wurden Antr ge f r folgende Themenfelder zugelassen e Grid Dienste f r Nutzergruppen Communities e Service Level Agreement SLA Schicht e Grid basierte Wissensschicht e D Grid Erg nzungen F rderungsf hig waren im Gegensatz zu allen anderen bisherigen D Grid Calls nur Projekte die gemein sam mit Unternehmen der gewerblichen Wirtschaft durchgef hrt werden Der Call setzte ein zweistufiges Verfahren voraus Einzureichen waren Skizzen die dann bei positiver Bewertung zu einem Vollantrag f hren der dann wieder begutachtet wird Bereits bei der Skizzeneinreichung musste jedes Projekt ein nachhaltiges Gesch ftsmodell sowie Pl ne und Voraussetzungen f r die Verwertung der Ergebnisse in Wirtschaft und Wissenschaft beinhalten Das LRZ hat sich an folgenden Skizzen beteiligt e Ein Grid basiertes f deriertes Intrusion Detection System zur Sicherung der D Grid Infrastruktur GIDS als Konsortialf hrer e SLA4AD Grid Service Level Agreements f r das D Grid e D Grid Scheduler Interoperability DGSI Alle drei Skizzen wurden positiv begutachtet und f r alle wurde im November ein Vollantrag eingereicht Diese Antr ge befinden sich derzeit in der Begutachtung Im Folgenden werden die Inhalte und Partner der verschiedenen beantragten Projekte vorgestellt GIDS Beim GIDS Projekt handelt es sich um eine D Grid Erg nzung Derzeit betreiben die Ressourcen Provider die u
22. Cisco Huawei u a Momentan werden die einzelnen Abschnitte manuell zusammengeschaltet was zu Einrichtungszeiten von bis zu mehreren Monaten f hrt W hrend die betriebliche Verantwortung f r Teilabschnitte innerhalb einer Dom ne klar definiert ist m ssen f r die grenz berschreitenden Abschnitte zwischen zwei benachbarten Dom nen besondere Absprachen getroffen werden Die Partner m ssen sich einigen wie sie die Betriebsabl ufe f r die betref fenden Abschnitte organisieren Dabei kooperieren die Dom nen weitgehend gleichberechtigt so dass klassische hierarchische Entscheidungsstrukturen in den Betriebsprozessen nicht angewendet werden k nnen Zudem stellt sich das Problem wie ein dom nen bergreifendes Ende zu Ende QoS Monitoring realisiert werden kann um den Nutzern eine definierte Service Qualit t gew hrleisten zu k nnen Existie rende L sungen k nnen die Anforderungen dieses Szenarios nicht erf llen Zur berwachung der E2E Links wird am LRZ ein Monitoring System siehe Abbildung 120 entwickelt das den Zustand der Links und ihrer Teilstrecken in einer grafischen Form darstellt In 2006 wurde eine erste Version entwickelt die bereits eine sehr hohe Akzeptanz der Projektpartner erzielte Das E2Emon System wird seit Anfang 2007 in End to End Coordination Unit E2ECU eingesetzt die zur berwachung von E2E Links eingerichtet wurde Neben dem grafischen User Interface siehe Abbil dung 121 mit unterschiedlichen anw
23. Die Berechtigung zur Nutzung von LRZ Systemen mit pers nlichen Kennungen wird vom Leibniz Rechenzentrum normalerweise nicht direkt an den Benutzer vergeben sondern ber den Beauftragten einer Einrichtung Master User Dazu ist als formaler Rahmen ein LRZ Projekt notwendig das vom jeweiligen Leiter der Einrichtung mit dem Formblatt Antrag auf ein LRZ Projekt zu beantragen ist Die Ausgabe von Studentenkennungen mit Internet Berechtigungen u a Mail und W hlzugang erfolgt f r Studenten der Ludwig Maximilians Universit t M nchen und der Technischen Universit t M nchen durch die Universit ten selbst f r Studenten anderer Einrichtungen direkt durch das LRZ 2 Erg nzende Leitf den und Benutzungsordnungen 4 Absatz 7 Der Benutzer ist verpflichtet folgende Leitf den Richtlinien und Benutzungsordnungen zus tzlich zu beachten e Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes MWN e Leitfaden zu ethischen und rechtlichen Fragen der Softwarenutzung e Leitfaden zur verantwortungsvollen Nutzung von Datennetzen e Benutzungsordnung des DFN Vereins zum Betrieb des Wissenschaftsnetzes 3 Speicherung von Projektdaten 5 Absatz 1 Die Angaben die bei der Beantragung bzw Verl ngerung eines Projekts am LRZ gemacht werden sowie die anfallenden Verbrauchsdaten werden vom LRZ maschinell gespeichert und mindestens zwei Jahre lang aufbewahrt Alle im Rahmen eines Projekts von Benutzern auf Datentr gern des LRZ ges
24. Dies gilt vor allem aber nicht ausschlie lich f r Standard Software f r Arbeitsplatz rechner und Workstations Die Preisgestaltung der Hersteller und Lieferanten von Software ist bekanntlich sehr stark vom Verwen dungszweck ihrer Produkte abh ngig Wird eine Software im Kontext eines Produktionsprozesses ver wendet der ein Produkt oder eine Dienstleistung zum Ergebnis hat mit dem bzw mit der der Anwender der Software Gewinn erzielten m chte so wird hierf r regelm ig ein um ein Vielfaches h herer Preis verlangt als wenn dieselbe Software forschungs und lehre bezogen zum Einsatz kommt Wer jeweils welche Software zu Forschungs und Lehrekonditionen ber das LRZ beziehen kann ist produktspezifisch auf den entsprechenden Internetseiten unter dem Stichwort Softwarebezug hinterlegt Wer im Einzelfall eine bestimmte Software auf diesem Weg erhalten darf wird letztlich vom jeweiligen Lieferanten entschieden 2 7 Netz Dienste Das Internet ist ein internationaler Verbund von Teil Netzen und Rechnern die ber die Netz Protokolle TCP IP erreichbar sind Auch das M nchner Wissenschaftsnetz MWN ist in diesen Verbund eingegliedert siehe Abschnitt 2 2 N here Einzelheiten ber Geschichte Struktur und Dienste des Inter net findet man unter www Irz de services netzdienste internet Die im Folgenden beschriebenen Netz Dienste basieren auf g ngigen Internet Diensten die meist nach dem Client Server Prinzip arbeiten Das L
25. Ebenso sollen Schnittstellen vorbereitet werden die einen universit ts bergreifenden Datenaus tausch beispielsweise im Hinblick auf die Virtuelle Hochschule Bayern erm glichen Die Architektur muss flexibel genug sein um mit den sich im Laufe der Zeit ver ndernden Anforde rungen und neuen Aufgaben zurecht zu kommen bzw an diese angepasst werden zu k nnen ohne wieder von vorne beginnen zu m ssen Hierzu geh rt insbesondere die Definition entsprechender Change Management Prozesse Die vorhandenen Provisioning Prozesse sollen identifiziert und analysiert werden Ihre Umsetzung und Unterst tzung ist durch geeignete Workflow und Triggermechanismen zu gew hrleisten Dabei wurden bei der Konzeption und Implementierung folgende Rahmenbedingungen besonders stark ber cksichtigt und gelten zum Teil auch weiterhin f r das Change Management Die Aufgaben und Daten der bisherigen ZBVW m ssen vollst ndig bernommen werden k nnen Die Daten und Funktionen der neuen ZBVW sollen auch denjenigen LRZ Diensten zur Verf gung stehen die bislang noch nicht an die ZBVW angeschlossen werden konnten Die Migration von der bisherigen zur neuen ZBVW soll sukzessive erfolgen k nnen d h f r die bereits an die bisherige ZBVW angeschlossenen Plattformen m glichst transparent sein Unkontrollierte Redundanz muss wegen der Gefahr von Inkonsistenzen vermieden werden Dort wo Redundanz notwendig oder sinnvoll ist sind geeignete Mechanismen zur Date
26. Ferner versorgt AFS einige Applikationsserver wie z B WWW mit Plattenplatz AFS Daten werden ber das Archiv und Backup System gesichert Der Zugang auf die AFS Daten ist allerdings erst nach Installation der frei verf gbaren AFS Client Software von einem Rechner aus m glich NAS Network Attached Storage Seit 2004 l st Network Attached Storage NAS zunehmend AFS als das zentrale gemeinsame Dateisys tem aller Plattformen am Rechenzentrum ab Auf Network Attached Storage kann ber verschiedene Protokolle NFS CIFS iSCSI zugegriffen werden CIFS eignet sich besonders f r den gemeinsamen Zugriff von Windows basierten Systemen aus kann aber auch unter Unix MacOS u a benutzt werden An den vom LRZ betreuten Einrichtungen ist der Prozentsatz von Arbeitsplatzsystemen die unter Win dows laufen sehr hoch ber CIFS kann der Benutzer auf die Daten im Network Attached Storage zu greifen ohne dass zus tzliche Software installiert werden m sste Dies tr gt sehr zur Popularit t von CIFS bei Somit k nnen ber die NAS Systeme die Bed rfnisse von Desktopumgebungen ebenso abge deckt werden wie die hohen Leistungsanforderungen der Compute Cluster W hrend AFS noch bei den Unix Nutzern des Rechenzentrums Verwendung findet wird im Rahmen des Vorhabens Speicher f r die Wissenschaft grunds tzlich eine hochschulweite betriebsystemunabh ngi ge L sung auf NAS Basis angestrebt Dabei wird vom Rechenzentrum eine Datenspeicher P
27. Field Theorie 2008 EFSA 2008 SteeringTech 2008 Erstsemester_2008 Forstlicher Unternehmertag 2008 mfk2008 Accesspoint Vorf hrung Aero Hive MSF2008 Erstemester_2_2008 Bayerischer Nahverkehrskongress 2008 21 07 2008 21 07 2008 24 07 2008 25 07 2008 24 07 2008 24 07 2008 25 07 2008 25 07 2008 31 07 2008 02 08 2008 31 07 2008 03 08 2008 11 08 2008 11 08 2008 18 08 2008 18 08 2008 01 09 2008 01 09 2008 02 09 2008 03 09 2008 02 09 2008 04 09 2008 04 09 2008 04 09 2008 07 09 2008 10 09 2008 08 09 2008 19 09 2008 08 09 2008 13 09 2008 10 09 2008 14 09 2008 12 09 2008 12 09 2008 14 09 2008 17 09 2008 15 09 2008 18 09 2008 15 09 2008 19 09 2008 15 09 2008 17 09 2008 15 09 2008 19 09 2008 15 09 2008 19 09 2008 16 09 2008 16 09 2008 17 09 2008 19 09 2008 17 09 2008 17 09 2008 18 09 2008 19 09 2008 23 09 2008 23 09 2008 23 09 2008 23 09 2008 24 09 2008 25 09 2008 29 09 2008 02 10 2008 01 10 2008 02 10 2008 06 10 2008 11 10 2008 06 10 2008 08 10 2008 06 10 2008 08 10 2008 07 10 2008 07 10 2008 07 10 2008 10 10 2008 08 10 2008 10 10 2008 08 10 2008 10 10 2008 08 10 2008 10 10 2008 09 10 2008 09 10 2008 09 10 2008 10 10 2008 11 10 2008 11 10 2008 209 ediundsepp 2008 N Crave PM 2008 SCE 2008 Customer Management 2008 Clusterworkshop 2008 Ro Man 2008 Buddhismus_und_Wissenschaft 2008 Notebook Trends 2008 Leopoldina 2008 Musing 2008 Geant2 2008 GI Jahrestagung_2008 Test ESA_2008 ISaR 2
28. In Abbildung 85 sind die wesentlichen Netzstrukturen dargestellt NSR Raum Switch Switch 1 Gbit s 10 ra H Switch Switch HRR Raum DAR Raum HLRB II Abbildung 85 Struktur des Rechenzentrumsnetzes Im Bereich des Linux Clusters findet Anfang 2009 eine gr ere Erweiterung statt f r die weitere 10 Gbit Anschl sse auf den Core Switches des Clusters ben tigt werden Da auf den bestehenden Core Switches kaum noch Reserven bestehen m ssen diese weiter ausgebaut werden Zur Wahl stehen hierbei zwei Alternativen e Installation weiterer kleiner Switches e Ersetzung der bestehenden Core Switches durch einen gro en Switch Da der Ausbau mit kleinen Switches im Hinblick auf k nftige Erweiterungen des Clusters nicht skaliert und die Verbindungen zwischen den Switches einen m glichen Flaschenhals darstellen wurde entschie den zuk nftig einen einzelnen Switch im Core Bereich einzusetzen der ber mindestens 256 10 Gbit Ports verf gt Nach einer Untersuchung der am Markt verf gbaren Ger te dieser Gr enordnung in Frage kamen hierbei Switches der Firmen Cisco Forcel0 Foundry und Myricom fiel die Entscheidung schlie lich auf den Switch Nexus 7000 der Firma Cisco Ein solcher Switch wurde Ende 2008 beschafft und wird voraussichtlich im M rz 2009 in Betrieb gehen 7 1 4 Wellenl ngenmultiplexer Das LRZ setzt se
29. Mailserver tsm tcpip local area network gigabit ethernet E KR eg NetAPP NetAPP NetAPP R200 6070 FAS6070C FAS3050C FC FC X IBM l IBM IBM STK Ba FLXLine ps4500 DS4500 D280 LICE 6540 SATA FC FC LTO4 FC Storage systems Abbildung 75 Speicherarchitektur Die SAN Infrastruktur am LRZ besteht aus mehreren getrennten Netzen siehe Abbildung 76 Redundantes SAN f r das Hochleistungsarchiv Basis sind zwei FC Direktoren mit je 96 Ports Die Direktoren werden als zwei getrennte Fabrics be trieben um ein H chstma an Ausfallsicherheit redundant fabric zu gew hrleisten Belastbares SAN f r das LTO Archiv und Backupsystem Die Verkabelung der 4 FC Switches 4x32 Port des LABS bildet eine Mesh Struktur Redundantes SAN f r AFS Zwei 16 Port FC Switches sorgen f r die redundante Storageanbindung der AFS Fileserver Das SAN f r das CXFS Filesystem des HLRB II In den Speichernetzen des LRZ werden ausschlie lich Plattensysteme eingesetzt deren Controller von LSI Logic stammen Da die Ger te im Laufe mehrerer Jahre ber verschiedene Ausschreibungen be schafft wurden sind die Modellnamen allerdings recht unterschiedlich e StorageTek D280 Storageserver Der Storageserver D280 der Firma STK hat zwei 2 Gbit Fibre Channel Anschl sse ins S
30. Plug Ins Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 45 Active X Ein derartiges Verhalten l dt geradezu zu Angriffen ein und hebelt jegliche zentrale Schutz ma nahme aus Diese Nutzer schaden damit nicht nur sich selbst sondern auch allen Kollegen in ihrem Umfeld Zum Gl ck gibt es nur relativ wenige lokale Nutzer die absichtlich Sicherheitsprobleme verur sachen oder sogar andere Rechner oder Nutzer angreifen Das universit re Umfeld lebt von seiner Offenheit eine strenge berwachung des gesamten Datenver kehrs ist weder w nschenswert noch technisch realisierbar Trotzdem muss jedes Hochschulrechenzent rum so gut wie m glich versuchen die Sicherheitsprobleme auf ein ertr gliches Ma zu beschr nken Alle zentralen Anstrengungen sind jedoch mehr oder weniger zum Scheitern verurteilt wenn nicht jeder einzelne Nutzer sich seiner Verantwortung bewusst ist und seinen eigenen Beitrag zur Gesamtsicherheit leistet 2 8 1 Sicherheitsma nahmen des Rechenzentrums Das LRZ versucht das MWN und die daran angeschlossenen Rechner auf zwei Wegen so gut wie m g lich zu sch tzen Einerseits kommen zentrale Sicherheitsma nahmen allen Nutzern des MWN zugute ohne dass diese individuell aktiv werden m ssten Andererseits sollen diverse Dienste den Kunden helfen bzw sie dabei unterst tzen die eigene oder die Sicherheit des lokalen Umfelds durch eigenes Handeln zu verbessern Das LRZ f hrt u a folgende zentrale und kundenuna
31. TP E Learning TP Bibliothek TP Storage TP SysXdmin Abbildung 28 Konzept f r IntegraTUM Testumgebungen 108 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Um Interferenzen mit anderen Testumgebungen auszuschlie en wird f r jedes Teilprojekt ein dedizierter Verzeichnisdienst aufgebaut der mit dem jeweiligen System und dem zentralen Meta Directory verbunden ist Zur Reduktion des Hardwareaufwands besteht die Laborumgebung aus virtuellen PCs auf Basis des Produkts VMware GSX Server Nach Abschluss von Implementie rung und Test der Konnektoren sind diese zu konsolidieren so dass im Produktionsbetrieb mit drei ber das Meta Directory verbundenen Verzeichnisdiensten gearbeitet werden kann Die Pfeilspitzen deuten die Systeme an mit denen eine bidirektionale Synchronisation realisiert wird Konzept f r skalierendes Provisioning Um die Anbindung der fakult ts und lehrstuhleigenen CIP Pools effizient zu gestalten wurde ein Konzept erstellt das vorsieht vom IntegraTUM Verzeichnisdienst aus jeweils nur einen fakult tseigenen Verzeichnisdienst pro Betriebssystem Gattung Windows Linux UNIX Mac OS mit den ben tigten Daten zu beliefern wobei die Fa kult ten intern lehrstuhl bergreifend die Verteilung dieser Daten auf weitere Verzeichnisdienste und einzelne lokale Server bernehmen vgl Abbildung 29 IntegraTUM Directory Einrichtung N z B Lehrstuhl Z Einric
32. Up State Admin Normal Oper Normal Oper Normal Oper Normal Oper De E 2007 01 31 2007 02 28 J 2007 02 28 S 2007 02 28 T08 45 02 0 0100 T12 58 01 0 0000 T12 58 01 0 0000 T12 58 01 0 0000 Page generated at 2007 03 01 10 24 16 MET Current Month Last Month hetp cnmdev Irz muenchen de e2e lhc G2_EZE_view_domain_SURFNET html vA Vertrauensw rdige Sites Abbildung 121 User Interface des G ant2 E2E Monitoring Systems Nutzer der E2E Links sind internationale wissenschaftliche Projekte In der ersten Projektphase wurden Mitte 2007 ber 20 E2E Links eingerichtet um die riesigen Datenmengen des neuen Teilchenbeschleuni gers LHC vom CERN in der Schweiz zu internationalen Forschungseinrichtungen zu bertragen Seit 2008 nutzen auch das Grid Projekt DEISA die internationale Astronomie Kooperation EXPReS sowie andere Projekte diesen Dienst Ende 2008 werden allein von der E2ECU ber 30 produktive und weitere 14 sich in der Aufbauphase befindende E2E Links berwacht Da im E2Emon System bereits 2007 die volle f r den normalen Betrieb der E2ECU erforderliche Funk tionalit t realisiert wurde bestand die Arbeit w hrend 2008 haupts chlich in der Verbesserung der Integ rationsf higkeit und Nutzerfreundlichkeit des Tools So wurde neben der bereits 2007 implementierten SNMP Schnittstelle die eine Anbindung an Managementtools wie z B Nagios erlaubt eine in G ant2 etablierte PerfSONAR Schnittstelle realisiert durch die die kompl
33. Vielfalt und Heterogenit t der Systeme Beteiligung an Entwicklungsprojekten usw eine deutliche Sonderstellung ein die auch im Bericht sichtbar wird Eine moderne IT Infrastruktur ist essentiell f r die Wettbewerbsf higkeit der Hochschulen und des Lan des und so muss auch das IT Kompetenzzentrum eng im Hochschulumfeld verankert sein Das Leibniz Rechenzentrum als das technisch wissenschaftliche Rechenzentrum f r die M nchner Hochschulen wird sich auch in Zukunft den Anforderungen eines modernen IT Kompetenzzentrums stellen und das nicht nur durch den zuverl ssigen Betrieb von IT Infrastruktur sondern auch durch aktive Beteiligung an For 10 Vorwort schung und Entwicklung in den Bereichen Kommunikationssysteme IT Managementprozesse Computa tional Science und Grid Computing Hierzu z hlen auch die Initiativen im Rahmen von ISO 20000 Wir sind berzeugt davon dass es dem LRZ auch im Jahr 2008 erneut gelungen ist die Erwartungshal tung seiner Nutzer einerseits aber auch seiner Finanzgeber andererseits zu erf llen und seine Dienstquali t t und IT Kompetenz erneut zu steigern Univ Prof Dr Arndt Bode Univ Prof Dr H G Hegering Vorsitzender des Direktoriums Vorsitzender des Direktoriums des Leibniz Rechenzentrums des Leibniz Rechenzentrums ab 01 10 2008 bis 30 09 2008 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 11 Teil I Das LRZ Entwicklungsstand zum Jahresende 2008 1 Einordnung und Aufgaben des Leibn
34. Zentrum LRZ HLRS Stuttgart NIC J lich lagen alle beisammen und waren durch ein gemeinsames umlaufendes Logo gekennzeichnet In Dresden pr sentierte das LRZ mit Hilfe seiner mobilen Stereo Projektionsanlage Applikationen aus dem Bereich Computational Steering In Austin auf der Supercomputing Conference in den USA dem wichtigsten Treffpunkt der internationalen High Performance Computing Community wurden Simulationen aus dem Bereich der Molekulardynamik und Astrophysik dargestellt 6 3 3 Veranstaltungen im Bereich Hochleistungsrechnen Das Aus und Weiterbildungsprogramm des LRZ wird schon seit L ngerem mit den anderen Partnern im Gau Zentrum koordiniert Das LRZ konzentriert sich hierbei auf die rechnernahen Bereiche e Parallele Programmierung e Programmiersprachen und Werkzeuge e Programmierung und Nutzung von Hoch und H chstleistungsrechnern e Performance Optimierungen e Erstbenutzerkurse Innerhalb Bayerns werden diese Art Kurse gemeinsam vom LRZ und der HPC Gruppe am Regionalen Rechenzentrum Erlangen entwickelt und veranstaltet Auch w chst innerhalb des Gau Zentrums das Angebot an gemeinsamen Kursen Insbesondere sind hier folgende Kurse hervorzuheben Objektorientiertes Programmieren mit Fortran 95 2003 Reinhold Bader LRZ In dieser dreit gigen Veranstaltung wurde eine Einf hrung in die objektorientierten Aspekte die mit dem neuesten Standard der Sprache Fortran unterst tzt werden gegeben Die deutlich erlei
35. au erdem sind im sogenannten DAR Daten und Archiv Raum die sicherheitstechnischen und klima tischen Randbedingungen optimal f r die langfristige sichere Aufbewahrung gro er Datenmengen Abbildung 68 DAR Von links nach rechts 2 LTO Libraries Platten u Server Library SL8500 6 7 2 2 Statistische Daten Im Vergleich zum Vorjahr sind Last und Datenmenge im Rahmen der Erwartungen weiter gestiegen Ende 2008 waren in den 3 Libraries 5 500 TeraByte verteilt auf 4 5 Milliarden Da teien gespeichert T glich wurden auf die Systeme durchschnittlich 14 9 TeraByte neu geschrieben Die Daten stammten von 5 400 Servern des MWN aus 420 Einrich tungen der M nchner Hochschulen 176 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Der Bestand an Kassetten in den 3 Libraries wurde 2008 von 11 000 auf 16 000 erh ht Dabei wurden auch gebrauchte LTO2 Kassetten des Rechenzentrums der Max Planck Gesellschaft in Garching genutzt Jeder Rechner oder jeder Rechnerverbund der auf das Archiv und Backupsystem zugreifen will muss unter TSM als sogenannter Node registriert sein Die Anzahl der Nodes entspricht damit in etwa der Anzahl der Systeme die ihre Daten im Archiv und Backupsystem ablegen 2008 wurden weit ber 1200 Nodes neu registriert und 700 alte Nodes inklusive ihrer gespeicherten Daten gel scht Durch das explizi te L schen von Nodes sowie durch automatische L schprozesse nicht mehr ben tigt
36. betrachtet werden Im Rahmen dieses Projektes soll der konsequente Ausbau des Bibliothekarischen Archivierungs und Bereitstellungssystems BABS zu einem vertrauensw rdigen und skalierbaren digita len Langzeitarchiv erfolgen Hierbei wird die Bayerische Staatsbibliothek zusammen mit dem Leibniz Rechenzentrum in Abstimmung mit dem Projekt nestor einen Beitrag zum Aufbau eines nationalen Netzwerks zur kooperativen L sung der Langzeitarchivierung in Deutschland leisten Ferner wird sie im Bereich Vertrauensw rdigkeit und Skalierbarkeit Erfahrungen sammeln die f r weitere Entwicklungen der Langzeitarchivierung wesentlich sind Dabei wird die aufgrund rapide ansteigender Publikationszah len dringende Frage der Skalierbarkeit eines digitalen Langzeitarchivs erstmals eingehend evaluiert Mitte 2007 startete das ebenfalls von der DFG gef rderte Projekt vdl6digital Das Ziel des Projektes ist die Digitalisierung Katalogisierung und Langzeitarchivierung der an der BSB vorhandenen im deutsch sprachigen Sprachraum erschienenen Drucke des 16 Jahrhunderts und die sofortige Bereitstellung dieser Digitalisate im Internet Hierbei wird nicht mehr manuell digitalisiert sondern es wurde eine automati sierte Digitalisierungsstra e mit drei Scan Robotern eingerichtet die eine maximale Scan Kapazit t von 3 300 Seiten pro Stunde erreichen Die Digitalisierungsma nahme umfasst 36 150 Titel mit ber 7 2 Mil lionen Seiten Pro Jahr entstehen hier ber 100 TeraByt
37. che Information wie Passw rter entgegennehmen sollen und f r E Mail Server bei denen die bermittel te Information eigentlich immer vertraulich ist sollte der Einsatz dieser Technik mindestens f r die Ver schl sselung der Daten m glichst auch f r die berpr fung der Authentizit t des Servers Standard sein Die Echtheit des Zertifikats wird wiederum mit denselben Mitteln gew hrleistet die kryptografische Sig natur ist in einem weiteren Zertifikat beglaubigt Somit entsteht eine Zertifikatkette an deren Ende nur noch wenige Wurzelzertifikate stehen die dann mit anderen Mitteln berpr ft werden m ssen Auf grund ihrer geringen Anzahl kann etwa vom Endbenutzer erwartet werden dass er sie sich beschafft und in sein Client Programm etwa einen WWW Browser importiert F r den Bereich des Deutschen For schungsnetzes DFN zu dem die ffentlichen wissenschaftlichen Einrichtungen in Deutschland geh ren betreibt der DFN Verein eine Zertifizierungsstelle die DFN PCA deren Zertifikate teils solche Wurzel Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 47 zertifikate sind teils von anderer Stelle beglaubigt sind Dezentral k nnen dann weitere Zertifizierungs stellen CA betrieben werden die sich ihre digitalen Signaturen in einem oder mehreren Schritten von der DFN PCA beglaubigen lassen Anfang 2007 ist eine neue Zertifizierungshierarchie namens Global der DFN PCA in Betrieb gegangen in der das Wurzelzerti
38. d Von der Ludwig Maximilians Universit t LMU entsandt Prof Dr Heiner Igel Fakult t f r Geowissenschaften der Ludwig Maximilians Universit t M nchen Prof Dr Arnold Picot Institut f r Organisation der Ludwig Maximilians Universit t M nchen Prof Dr J rgen Stausberg Institut f r Medizinische Informationsverarbeitung Biometrie und Epidemiologie der Ludwig Maximilians Universit t M nchen Vizepr sident Dr Sigmund Stintzing Ludwig Maximilians Universit t M nchen Prof Dr Hendrik Zipse Institut f r Organische Chemie der Ludwig Maximilians Universit t M nchen e Von der Technischen Universit t M nchen TUM entsandt Prof Dr Ing Klaus Bender Lehrstuhl f r Informationstechnik im Maschinenwesen der Technischen Universit t M nchen Prof Dr Ing J rg Ebersp cher Lehrstuhl f r Kommunikationsnetze der Technischen Universit t M nchen Prof Dr Michael Gerndt Institut f r Informatik der Technischen Universit t M nchen Prof Dr Ernst Rank Lehrstuhl f r Bauinformatik der technischen Universit t M nchen Prof Dr Notker R sch Institut f r Physikalische und Theoretische Chemie der Technischen Universit t M nchen f Von LMU und TUM gemeinsam f r Garching entsandt Prof Dr Dorothee Schaile Fakult t f r Physik der Ludwig Maximilians Universit t M nchen g Vertreter der Hochschulen au erhalb M nchens Prof Dr Werner Hanke Lehrstuhl f r Theoretische Physik I der Universit t W rzburg
39. d Ett det be Ze CH ZC bi Seck da d Ze An zZ E E Ze i D et ER e d Q N N Ze be d WAR ei ei bd bi Seck da d Ze An GC GC Ze i D et G G E e Ze in Za Q Oo be Ze CH Za di Cette Wa Ha gt Seele En 2 Ze CH ZC Z E TEE da d El Ze bo G E a et IE be d CH d b N N ad n i be N N d WAR bd bi N Be R da d Ze An Ze i G G D Hi i ek Q Q TN Ze Ti A Q A T ES Ca A3 m D D SS AH SCH Zi eck Ze be Ze CH ZC bi Seck da d Ze An Ze i D et n E be d CH d Ge S WAR CH bi 2 N R da d o Ze An Ze Gr KS GE SCH CN EEE EN SC I Ze E KO RS ZE i o Zen en le Ss Zen bi Seck a a SC d Ze An Ze bo a He N i be d CH N h b ad N N e be d WAR bd bi Seck Q da d Ze An fa Ze Br DE api D D alfa a HEH 2 EEE lla E Ze be Ze CH ZC Gr PS S CH SCH ti 2 TD n Eet be E Ze CH ZC bi fa fa N R E da d Ze An Ze D D et E be N d CH d b ad Ac Ac be d WAR bd bi Seck da d Ze An Ze i G D et E e S Ze in Za d ra Q O EHER d cb A3 4 SS AH Ka SCH Zi E eck Ze be Ze CH ZC bi Seck da d Ze An Ze bo a et IE be d CH d b ad n Ac be A WAR bd bi Seck da d Ze An Ze i D et E e Ze in Za i o EEE Ze be Ze CH Za ei Seck Ze ih T WAR h Zi eck Ze be Ze CH ZC bi Seck da d Ze An Ze i D et E be d CH d b ad Ac Ach be Er bd bi De id da d Ze A Ze Br DE pg SCH SS EU Ee 0 O EE Si Ai D Zi Sa E cb EFIE E 0 bi bel EA Ze E Gecke ven La et CH Ska D O ZC A G
40. glich und wirtschaftlich sinnvoll zur Mini mierung des Ausfallrisikos Einsatz qualitativ hochwertiger Komponenten und Systembestandteile bew hrter Hersteller zur Minimierung des Ausfallrisikos Ausschlie liche Verwendung von hochwertigen Datenmedien und gleicherma en hochwertigen High End Laufwerken bekannt zuverl ssiger Hersteller Automatisches Pr flesen Error Recovery Doppelte Datenhaltung f r alle Archiv Dateien mit automatischer Speicherung von Kopien der Archiv Dateien an einem anderen Rechenzentrum Regelm iges Umkopieren der B nder technische Migration WVielfache Absicherung der Metadaten z B mittels RAID 5 und zus tzlicher Datenspiegelung RAID 1 Weiterhin wird zur Minimierung des Risikos eines Datenverlusts mehrmals t glich ein Backup der Metadaten erstellt Soweit m glich und wirtschaftlich sinnvoll regelm iger Ausbau und Erweiterung der Systeme z B Serverkapazit ten Bandlaufwerke Tape Library Netzanbindung und sonstiger relevanter Ressourcen zur Vermeidung von berlastungen oder Engp ssen Kontinuierliche technische Upgrades aller Systeme 284 Teil III Anhang 6 5 Geb udeschutz Das Archiv und Backupsystem inklusive aller Speichermedien befindet sich in speziellen R umlichkei ten des Rechenzentrums die mit einer hochmodernen Anlage f r das Gefahrenmanagement ausgestattet sind Die Brandmeldeanlage ist direkt mit der Feuerwehr verbunden Die R ume selbst verf gen ber e
41. glichkeit der Druckerab rechnung Je nach Dienstleistungsumfang vorhandener Hardware und der Softwareausstattung k nnen auch die LRZ Verfahren zur automatischen Erstinstallation Aktualisierung und Lock Down oder die Abschot tung von Systemen gegen ber Ver nderungen durch Nutzer eingesetzt werden Alle angebotenen zentra len Serviceleistungen werden in gleicher Weise auch f r die LRZ internen Windows Arbeitspl tze einge setzt so dass durch die Wiederverwendung von internen Serviceleistungen im Idealfall kaum Mehrauf wand entsteht Der Vor Ort Betreuung obliegen alle T tigkeiten die zur Personalisierung und kundenspezifischen Aus stattung dieser Arbeitspl tze erforderlich sind also z B die Pflege von Benutzerdaten Anwendungspa keten Benutzerprofilen die Hardwarewartung und der allgemeine Endkundensupport Alle zur Erledi gung der T tigkeiten erforderlichen Rollen und Rechte im Active Directory im Filesystem und auf den Arbeitspl tzen sowie die zugeh rigen Werkzeuge werden eingerichtet und bergeben Im Regelfall sollte der Alltagsbetrieb und die laufende Aktualisierung der Arbeitspl tze also keine Mit wirkung von LRZ Personal erfordern Die Vor Ort Betreuung ist blicherweise auch der Partner des LRZ im Projektmanagement und fungiert als Schnittstelle zu den weiteren organisatorischen Einheiten des Kunden Die Notwendigkeit eines zweistufigen Managementmodells mit einer vom Kunden gestellten Betreuung der Arbeit
42. hrt Die LRZ eigene PC Infrastruktur in den Kursr umen und dem ffentlichen Pool ist bereits in dieses Acti ve Directory umgezogen und die Datenbest nde wurden auf den neuen NAS Filer migriert Bei der Gele genheit wurden auch gleich die SW Portolios dem aktuellen Bedarf angepasst Weitere LRZ Systeme werden folgen so dass die LRZ eigene AD Dom ne mittelfristig aufgegeben werden kann 5 8 3 Remote Desktop Management Bei den Bestandskunden f r den Remote Desktop Management Service in der LRZ Dom ne fanden in 2008 einige Umr stungen statt HS Musik und Theater 40 PCs Umbau PC Pool auf HP Hardware Basis Umbau PC Pool am ehem RSK auf Siemens Hardware Basis zum WS 2008 09 TUM Sport 33 PCs Umr stung des PC Pools auf Dell Hardware Basis HS f r Fernsehen und Film 8 PCs neuer Pool mit Windows und Mac PCs sowie Druckern BAdW 164 PCs laufende Modernisierung der Hard und Softwareausstattungen Neukunden wie die LMU Biologie wurden beraten und erste Proof of Concepts durchgef hrt Dort wird seitens des LRZ kein aktives Life Cycle Management f r die Client Systeme betrieben sondern diese werden lediglich im Active Directory aufgenommen ansonsten aber vollst ndig von den lokalen Admi nistratoren betreut Im Rahmen der Gestaltung des LRZ Dienstleistungskatalogs wird dieser Service f r Neukunden kosten pflichtig angeboten Entsprechende Servicedefinitionen und Kostenmodelle wurden dazu erarbeitet 5 8 4 Exchang
43. r Geographi sche Informationssysteme GIS ArcINFO ArcView ArcCAD usw Mehrere Untervertr ge zur vereinfachten Weitergabe auf dem Campus geschlossen WZW HM FH Weihenstephan UniBW FTN90 f95 FTN90 Fortran 90 Compiler f r PCs unter Windows wurde man gels Nachfrage nicht fortgesetzt Die Linux Implementierung wird weiter gef hrt PC Software zur Datenanalyse und visualisierung die Hoch schulmitarbeiter und Studenten kostenlos beziehen k nnen Intel 4 Jahresvertrag noch bis 2009 ber die landesweite Nutzung von Intel Compiler Software Lizenzserver beim LRZ LabVIEW Software zur Datenerfassung und Steuerung zur Datenanalyse und pr sentation Campusvertrag mit der Fa NI In der Regel je ein Update im Fr hjahr und im Herbst eines jeden Jahres aktuell V 8 6 Mehrere Subvertr ge zur vereinfachten Weitergabe geschlossen TUM Maschinewesen Physikdepartment TUM u LMU Maple Campuslizenz f r das Computer Algebra System Maple dessen Einsatzbereich auf dem Gebiet symbolisches und numerisches Rechnen sowie Visualisierung liegt Maple Studentenlizenz Seit August 1999 besteht eine Erweiterung der Maple Campuslizenz die Studenten von LMU TUM und FHM die Nut zung von Maple auf ihren h uslichen PCs erlaubt 98 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Mathematica Campuslizenz f r Mathematica einem Computer Algebra System f r symbolisches und numerisches Rechnen sowie f r
44. sind qualifizierte Bewerber um den Standort von Europ ischen TierO Zentren die anderen sind General Part ners GP oder neu hinzugekommene Additional Partners Deutschland ist durch das GCS vertreten Principal Partners France GENCI Grand Equipement national pour le Calcul Intensif Germany GCS GAUSS Centre for Supercomputing The Netherlands NCF Netherlands Computing Facilities Foundation Spain BSC Barcelona Supercomputing Center Centro Nacional de Supercomputaci n UK EPSRC Engineering and Physical Sciences Research Council General Partners Austria GUP Institut f r Graphische und Parallele Datenverarbeitung der Johannes Kepler Uni versit t Finland CSC The Finnish IT Center for Science Greece GRNET Greek Research and Technology Network Italy CINECA Consorzio Interuniversitario Norway UNINETT Sigma AS Poland PSNC Poznan Supercomputing and Networking Center Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 161 Portugal UC LCA Universidade de Coimbra Laborat rio de Computag o Avancada Sweden SNIC Swedish National Infrastructure for Computing Switzerland ETH Zurich CSCS Swiss National Supercomputing Centre Additional General Partners of the PRACE Initiative Cyprus The Computation based Science and Research Center CSTRC Ireland Irish Centre for High End Computing Turkey National Center for High Performance Computing Die PRACE Initiative soll zur Erreichung ihrer
45. und Laborr ume sowie die Rechnerleitwarte H rsaal und Seminargeb ude Das neue LRZ Geb ude verf gt ber einen H rsaal 120 Sitzpl tze und mehrere Seminar und Kursr u me abgestufter Gr e Dieser Bereich mit intensivem Publikumsverkehr wird vor allem von Studenten und Wissenschaftlern der M nchner Hochschulen im Rahmen von LRZ Veranstaltungen z B Work shops zu Computational Sciences DEISA D Grid oder Vortragsreihen und Kursen genutzt Dar ber hinaus befindet sich in diesem Geb ude noch das Virtual Reality Labor Bereits drei Jahre nach Bezug der R umlichkeiten zeichnen sich Engp sse sowohl im Bereich des Rech nergeb udes Klima und Elektroversorgung wie auch im Bereich des Institutsgeb udes fehlende Mitar beiterzimmer ab Aus diesem Grunde wurde im Jahre 2008 eine kleine Bauma nahme durchgef hrt die die Anschlussleistung Elektro plus K hlung f r den Netz und Serverraum NSR verdoppelt hat Au Derdem wurde ein Bauantrag f r eine Erweiterung des LRZ Rechnerw rfel und Institutsgeb ude ge stellt N here Ausf hrungen hierzu finden sich in Kapitel 8 2 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 81 4 Hinweise zur Nutzung von Rechnern und Diensten Die folgenden Hinweise sind f r einen Anf nger am LRZ gedacht versierte Benutzer sollten sich nicht scheuen dennoch darin zu bl ttern 4 1 Vergabe von Kennungen ber Master User Der gro e Benutzerkreis des LRZ hat es notwend
46. wurden die entsprechenden Arbeiten im Umfang von 18 Perso nenmonaten dem LRZ bertragen Steuerungsausschuss Beirat Seit September 2007 ist das LRZ auch im Steuerungsausschuss des D Grid vertreten Im Januar 2008 wurde die D Grid Entwicklungs und Betriebsgesellschaft mbH kurz D Grid Betriebsgesellschaft mit Sitz in Heidelberg mit der in Abbildung 115 dargestellten Struktur gegr ndet Zu den Aufgaben der Gesellschaft geh rt der Betrieb der entwickelten Grid Infrastruktur sowie die Wahrnehmung der Gesamt projektkoordinierung f r die vom BMBF im Rahmen der D Grid Initiative gef rderten Projektverb nde Die Ressourcen des D Grid stehen bei verschiedenen Ressource Providern und wurden auch von diesen beschafft Die Ressource Provider bilden zusammen die D Grid Service Einrichtung DGSE Externer strategie Beirat Betriebsgesellschaft Tr gt Ber t Abbildung 115 Struktur und Einbettung der D Grid Betriebs GmbH Gesellschafter der GmbH ist die European Media Lab GmbH die ihre Stimmrechte an das BMBF abge treten hat Zum Gesch ftsf hrer wurde Prof Dr Uwe Schwiegelshohn ernannt Der Steuerungsausschuss der in der Vergangenheit die Zusammenarbeit zwischen den einzelnen D Grid Projekten koordiniert und projekt bergreifende Entscheidungen getroffen hatte wurde durch den Beirat der D Grid Betriebsgesell schaft ersetzt Das LRZ ist durch Dr Helmut Reiser oder Dr Victor Apostolescu im Beirat vertreten Arb
47. 09 2008 22 10 2008 22 10 2008 12 11 2008 Anschluss des Studentenwohnheims in der Kaulbachstr 25 ber eine privat verlegte LWL Strecke Anschluss eines LMU Instituts in den R umlichkeiten des ifo Instituts ber eine SDSL Strecke 4 6 Mbit s von M net Erh hung der bertragungsgeschwindigkeit der SDSL Strecke zur Hochschule f r Politik auf 4 6 Mbit s Zus tzlicher Anschluss des Staatsinstitut f r Fr hp dagogik ber eine WLAN Bridge 50 Mbit s Anschluss des Studentenwohnheims SLC Garching in Garching ber eine privat verlegte LWL Strecke Anschluss des LMU Geb udes in der Edmund Rumpler Str 9 ber eine SDSL Strecke 6 4 Mbit s von M net ab 22 07 2008 mittels einer LWL Strecke von M net Anschluss des Neubaus Bio II in Martinsried ber eine privat verlegte LWL Strecke Anschluss der LMU Villa in der Seestr 13 ber eine SDSL Strecke 4 6 Mbit s von M net Erh hung der bertragungsgeschwindigkeit der SDSL Strecke zum LMU Geb ude in der Prinzregentenstr 7 auf 4 6 Mbit s Anschluss der Studentenwohnheime in Rosenheim ber einen VPN Tunnel an das Sicher heitssystem NAT o MAT Erh hung der bertragungsrate des WiN Anschlusses des LMU Sonnenobservatoriums auf dem Wendelstein auf 50 Mbit s Anschluss des ehemaligen Richard Strauss Konservatoriums jetzt Hochschule f r Musik und Theater im Gasteig ber eine SDSL Strecke 4 6 Mbit s von M net Anschluss einer Au enstelle der Hochschule M nchen in der
48. 1 360 TB 490 disks total capacity 95 terabytes Total library capacity 2 360 TB uncompressed Abbildung 67 LABS LTO Archiv und Backupsystem 2008 Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 175 besteht aus 4 Sunfire X4200m2 Servern und je einer TSM Server Instanz mit speziell konfigurierten Platten Er dient der Archivierung der Daten des HLRB2 Jeder dieser Server erreicht Transferraten von bis zu 480 MB Sek bei der Archivierung unter TSM d h den HLRB2 Nutzern steht ein Archivsystem mit einer aggregierten Bandbreite von fast 1 Gigabyte s zur Verf gung Die hohe Bandbreite ist durch aufwendige Untersuchungen und Tuning Ma nahmen erreicht geworden LTO Archiv und Backupsystem LABS Das LTO Archiv und Backupsystem LABS steht Nutzern mit etwas moderateren Leistungsanforderungen zur Verf gung Es besteht aus e 18 Servern IBM X Series X346 e 4FC Switches Brocade Silkworm 3900 e 5 Storage Servern IBM FastT900 alias DS4500 mit insgesamt 95 TeraByte FCAL und SATA Platten e 2 IBM 3584 alias TS3500 Tape Libraries mit je 12 Frames und je 5000 Kassetten Stellpl tzen sowie je 20 IBM LTO2 Laufwerken e 4 LTO4 Laufwerken in einer der IBM 3584 Libraries Auf diesem System laufen 22 TSM Serverinstanzen Daten und Archivraum Im Rechnerw rfel des LRZ steht f r die Ger te des Archiv und Backupbereichs ein gesamtes Stockwerk mit 560 qm zur Verf gung Dies erlaubt nicht nur gen gend Platz f r eine optimale Aufstellung der Ger te
49. 17 07 2008 Amsterdam NL Heller e DEISA2 WP3 technical meeting 16 07 2008 17 07 2008 Amsterdam NL Saverchenko e M nchner Arbeitskreis Langzeitarchivierung eigener Vortrag 22 07 2008 Garching Baur Reiner e Verfahrensdiskussion GCS DLR 11 08 2008 11 08 2008 K ln Steinh fer e The R User Conference 2008 eigener Vortrag am 14 08 08 13 08 2008 14 08 2008 Dortmund Jamitzky e Storage 2008 GI Tagung 08 09 2008 11 09 2008 M nchen Reiner e ceDEISA face to face meeting 09 09 2008 11 09 2008 Edinburgh UK Leong e Grid Workshop Online Computing mit Grid Ressourcen 09 09 2008 11 09 2008 Greifswald Berner Heller e PRACE WP Processing Unit Meeting 14 09 2008 19 09 2008 Paris F Christadler Hacker e PRACE WP Processing Unit Meeting 15 09 2008 19 09 2008 Paris F Huber e DEISA2 Training Course eigene Globisvortr ge und bungen 16 09 2008 18 09 2008 Neapel I Heller e DV Fachseminar f r Operateure Netzwerkoperateure und techn Angestellte 17 09 2008 24 09 2008 Teisendorf Hufnagl e Unicore Forum 20th General Meeting ZKI AK Supercomputing 17 09 2008 19 09 2008 Ilmenau Satzger e Grraduiertenkolleg 1202 Oligonucleotides in cell biology and therapy eigener Vortrag 19 09 2008 19 09 2008 Chiemsee Jamitzky e DV Fachseminar f r Operateure Netzwerkoperateure und techn Angestellte eigener Vortrag 19 09 2008 19 09 2008 Teisendorf Reiner e AFS Workshop 23 09 2008 26 09
50. 2008 Graz A Strunz e Workshop DGI 2 FG 2 24 09 2008 24 09 2008 Karlsruhe Saverchenko e Face to Face Meeting PRACE WP8 26 09 2008 26 09 2008 Paris F Huber e DOTF Schulung Data ONTAP Fundamentals 7 2 05 10 2008 10 10 2008 Berlin Freund e Tuning Workshop High Producitivity Supercomputing 08 10 2008 10 10 2008 Dresden Rivera e PRACE WP7 f2 meeting 09 10 2008 10 10 2008 Espoo FL Steinh fer e ORNL Symposium Young Investigators 11 10 2008 17 10 2008 Oak Ridge USA Brehm Huber e PRACE WP4 Workshop 12 10 2008 14 10 2008 Lugano CH Frank e Course 2008 UPC CAF 14 10 2008 15 10 2008 Stuttgart Block e DESUG Treffen bei der TU Dresden 14 10 2008 15 10 2008 Dresden Bopp e UNICORE 6 Migrations Workshop 258 Teil II Organisatorische Ma nahmen im LRZ 28 10 2008 29 10 2008 Langen Heller Netapp ANCDA Advanced Netapp Certified Data Management Administrator Schulung 10 11 2008 14 11 2008 M nchen Reiner Expertengespr ch Langzeitarchivierung DFG 11 11 2008 M nchen Baur Freund DEISA2 WP 4 Single Sign on f2f meetine 12 11 2008 13 11 2008 Amsterdam NL Frank Heller DEISA2 WPS Kick off 13 11 2008 13 11 2008 Bologna I Leong Supercomputing Conference 2008 14 11 2008 22 11 2008 Austin Texas USA Bader Berner Brehm Christadler Huber Eclipse Summit 2008 DEISA WPS 18 11 2008 20 11 2008 Ludwigsburg Leong DEISA WP 3 4 6 eDEISA meeting 26 11 2008 28 11 2008
51. 3 2 Planung Kommunikationsnetze Planung und Dr Helmut Reiser Management des MWN Betrieb von Management Plattformen und Anwendungen Technologie und Produktevaluation Pilotprojekte 3 3 Wartung Kommunikationsnetze Betreuung von Ver Heinrich Glose netzungsma nahmen Inbetriebnahme neuer Netze Fehlerbehebung und Messarbeiten in Datennetzen 4 Abteilung Zentrale Dienste Leitung Dr Victor Apostolescu Vertreter Helmut Breinlinger 4 1 Verwaltung Hannelore Apel 4 2 Geb udemanagement Helmut Breinlinger 4 3 ffentlichkeitsarbeit Lizenzen Kurse Verwaltungs Dr Victor Apostolescu DV 4 4 _Benutzersekretariat und DV Unterst tzung Christian Mende 4 5 Auszubildende Von den im Jahr 2008 insgesamt 145 am LRZ angestellten Mitarbeitern Stand 31 12 2008 waren 84 wissenschaftliche Mitarbeiter 22 Informatiker FH und MTAs 25 technische Angestellte 6 Verwaltungsangestellte 5 Besch ftigte in Haustechnik und Reinigungsdienst 3 Auszubildende der Fachrichtung IT Systemelektroniker bzw IT Fachinformatiker Davon waren 9 Mitarbeiter nur zur H lfte besch ftigt Dabei sind befristet angestellte Mitarbeiter in den Zahlen mit ber cksichtigt die oft wechselnde Anzahl der studentischen Hilfskr fte einschl der studentischen Nachtoperateure und Abendaufsichten jedoch nicht 3 3 R umlichkeiten und ffnungszeiten 3 3 1 Lage und Erreichbarkeit des LRZ Das Leibniz Rechenzentrum befindet sich auf dem Garchinge
52. 6 Geb hrenordnung des Leibniz Rechenzentrums Anhang 7 Zuordnung von Einrichtungen zu LRZ Betreuern Anhang 8 Betriebs und Organisationskonzept f r den H chstleistungsrechner in Bayern Anhang 9 Nutzungs und Betriebsordnung f r den H chstleistungsrechner in Bayern Anhang 10 Mitglieder des Lenkungsausschusses des H chstleistungsrechners in Bayern Anhang 11 14 Teil I Das Dienstleistungsangebot des LRZ 2 Das Dienstleistungsangebot des LRZ 2 1 Dokumentation Beratung Kurse 2 1 1 Dokumentation 2 1 1 1 Informationen im WWW Unter wan frz de finden die Kunden alle Informationen ber das LRZ sowie Art Inhalt und Umfang seines breiten Dienstleistungsspektrums Neben der Nutzung der zentralen Anlaufstelle f r alle DV Probleme der LRZ Hotline Tel 089 35831 8800 bietet es sich daher an sich auf den LRZ Websei ten zu informieren ber die Dienste des LRZ die verf gbaren Informationen und wie man sie in Anspruch nimmt die Detaildokumentationen zu einzelnen Produkten und Services und die aktuellen Meldungen ber kurzfristige nderungen oder Einschr nkungen Regelm ige Benutzer des LRZ werden vor allem die Webseite www Irz de home zu sch tzen wissen die zahlreiche Links auf h ufig besuchte Seiten ebenso enth lt wie die berschriften aller aktuellen Meldun gen Man erreicht sie von der Startseite und von allen bersichtsseiten indem man dem Hinweis auf einen Blick folgt 2 1 1 2 Schriften
53. 8 2 Geb udemanagement und Geb udebetrieb Der Betrieb des Geb udes lief bis auf wenige Ausnahmen ohne gravierende St rungen Eine Unterbrechung der Elektroversorgung fr hmorgens im Januar dauerte nahezu eine halbe Stunde und hatte entsprechend einen z T stundenlangen Totalausfall aller Nicht Kern Dienste des LRZ zur Folge Die Kerndienste selbst konnten verm ge statischer USVs und unterst tzender Notstromaggregate des Campus aufrecht erhalten werden Vom Netzpartner E ON war keine Stellungnahme zur Ursache zu er halten Drei andere bekannt gewordene Kurzunterbrechungen auf E Seite konnten von den USVs statische und dynamische abgefangen werden Die Statistik ber Stromversorgungsqualit t zeigt dass ca alle 2 Mona te in Garching eine Netzauff lligkeit Kurzunterbrechung i a im Subsekundenbereich auftritt die die eingestellten Toleranzintervalle von 200 240 V bzw 47 5 52 5 Hz verl sst Ansonsten konnte die In frastruktur an Elektrizit t und K lte Klima stabil betrieben werden Die M ngelbeseitigung beim Neubau ist weiter vorangeschritten Schw chen blieben insbesondere auf dem Gebiet der Lichtsteuerung der Verdunkelung der Nutzung des Ausgangs zum Gartenflo gleichzei tig Fluchtweg Erfolgreich abgeschlossen wurde die L ftungsnachr stung f r einen Praktikumsraum Auch die l stige und u U gef hrliche Kondenswasser Eisbildung am bergang zum Rechnergeb ude konnte durch Umr stung der Bel ftung und konsequente
54. 9 Port Scans 6 6 Extrem hoher Datenverkehr 4 4 DoS 2 2 Teilsumme 30 30 Summe der vom LRZ endeckten F lle 930 930 Tabelle 23 Kompromittierte Rechner die vom LRZ selbst entdeckt wurden Bei den selbst entdeckten F llen siehe Tabelle 23 sind folgende Punkte besonders erw hnenswert e Die Zahl der selbst entdeckten F lle nahm vermutlich nur deshalb gegen ber 2007 ab weil das insge samt bertragene Datenvolumen deutlich gestiegen ist und die Monitoring Mechanismen mit den ho hen Datenraten nicht mitkamen Zum l ckenlosen Monitoring der inzwischen blichen Bandbreiten sind neue Techniken erforderlich die noch nicht realisiert werden konnten e Bei den False Positives beim Mail Monitoring handelte es sich um lange Zeit vollkommen unauff lli ge Rechner die pl tzlich ein ungew hnliches Mail Aufkommen zeigten In diesen F llen gab es auch keine Hinweise f r eine legitime Mail Quelle Die Rechner hatten weder einen aussagekr ftigen DNS Namen noch konnte auf dem Mail Port ein Mail Server kontaktiert werden Zum Gl ck war in den meisten dieser F lle das verd chtige Mail Aufkommen der betroffenen Rech ner nicht besonders hoch die zust ndigen Netzverantwortlichen wurden deshalb berwiegend nur in formiert und die Rechner nicht sofort gesperrt Es handelte sich meist um erst k rzlich in Betrieb ge Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 135 nommene Mail Server oder Gateways oder um Rechner von denen
55. Benutzerberatung wegen offensichtlich ung nstiger Verfahren usw Das LRZ organisiert den aktuellen Betrieb wann Blockzeiten wann Durchsatzbetrieb wann kann trotz Blockzeit noch ein Programm nebenher gerechnet werden usw Das LRZ f hrt die Betriebsstatistiken des HLRB und die Abrechnung der verbrauchten Ressourcen durch Davon abgeleitet werden die Priorit ten der Auftragsabwicklung gesetzt Das LRZ f hrt Standards am HLRB ein bzw betreibt deren schnelle Einf hrung durch den Hersteller die f r ein problemloses Zusammenspiel von Rechnern und die reibungslose Nutzung des HLRB notwendig sind Das LRZ sorgt f r die Zusammenarbeit mit anderen deutschen und internationalen Hochleistungsrechenzentren z B durch die Mitarbeit bei Projekten wie dem BMBF Projekt bei der gegenseitigen Zertifizierung und Validierung usw Insbesondere werden Beschl sse und Empfehlungen des Verbundes der Supercomputer Zentren in Deutschland VESUZ nach M glichkeit umgesetzt Erstellung des j hrlichen HLRB Betriebsberichts f r den Lenkungsausschuss 3 Kommunikationsnetz Anschluss Die Netzbetriebsgruppe am LRZ sorgt f r die erforderliche hochwertige Anbindung des HLRB an das weltweite Kommunikationsnetz Im Einzelnen beinhaltet dies bestm gliche Anbindung an das Backbone Netz des LRZ zur Nutzung anderer Dienste des LRZ und f r die Archivierung und Visualisierung von Daten bestm glichen Anschluss an das deutsche Wissenschaftsnetz des DFN da
56. Bereiche Computergrafik CAD Architektur Landschaftsarchitektur 3 D Rendering und wissenschaftliche Visua lisierung ausgestattet 2 9 8 Videokonferenzen Das LRZ bietet mehrere Videokonferenzsysteme an die unterschiedlichen Anforderungen und Einsatz zwecken gerecht werden Portable Systeme mit USB Anschluss die an einem PC oder Notebook betrie ben werden eignen sich speziell f r den Einsatz am Arbeitsplatz und k nnen auch verliehen werden Daneben sind die Konferenz und Besprechungsr ume im LRZ mit Komplettsystemen ausger stet die sehr einfach zu bedienen sind und auch f r Konferenzen mit einer gr eren Anzahl von Teilnehmern vor Ort geeignet sind Diese Videokonferenzsysteme bestehen je aus einer Polycom VSX 7000 und einem 30 Zoll bzw 42 Zoll TFT Bildschirm die komplett auf einem Medienwagen montiert sind ber eine exter ne Anschlusseinheit k nnen sehr einfach beliebige Darstellungen auf dem Display eines Notebooks oder PCs in eine bertragung eingeblendet und so den Konferenzteilnehmern zur Verf gung gestellt werden Je eines dieser Systeme kommt au erhalb des LRZ auch in R umen der Bayerischen Akademie der Wis senschaften der Technischen Universit t in Garching sowie der Ludwig Maximilians Universit t zum Einsatz Damit wird die Nutzung dieser modernen Kommunikationsform an den dezentralen Standorten des Versorgungsbereichs des LRZ gef rdert und erleichtert 50 Teil I Das Dienstleistungsangebot des LRZ Im H rsa
57. Clemensstr 33 ber eine VPN Verbindung Anbindung des Moorversuchsguts in Oberschlei heim mit 10 Mbit s EtherConnect der Telekom anstelle von einer SDSL Anbindung 2 3 Mbit s von M net Erh hung der bertragungsgeschwindigkeit der SDSL Strecke zum TUM Geb ude in der Augustenstr 44 auf 10 Mbit s Anbindung des LMU Geb udes in der Frauenlobstr 7 ber eine LWL Strecke der Tele kom Durchschaltung einer 10 Gbit s Verbindung zwischen dem MPI f r Biochemie in Martins ried und dem RZG Rechenzentrum Garching des MPI in Garching mittels Multiplexer Anbindung des LMU Geb udes in der Hohenstaufenstr 1 mit einer SDSL Strecke von M net 4 6 Mbit s Erh hung der bertragungsrate des WiN Anschlusses der UFS Umwelt Forschungsstati on Schneefernerhaus auf 30 Mbit s 202 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 18 11 2008 Erh hung der bertragungsrate des WiN Anschlusses der FH Weihenstephan in Triesdorf auf 150 Mbit s 19 11 2008 Erh hung der bertragungsrate des WiN Anschlusses des Wissenschaftszentrum Strau bing auf 30 Mbit s 26 11 2008 Anbindung des Historischen Kollegs in der Kaulbachstr 15 ber eine privat verlegt LWL Strecke 28 11 2008 Anbindung des IBZ Internationalen Begegnungszentrum in der Amalienstr 38 ber eine privat verlegt LWL Strecke und Ausstattung des Geb udes mit einer fl chendeckenden WLAN Struktur 04 12 2008 Au erbetriebnahme der Multiplexer auf der Streck
58. Die besonderen Vorz ge des Systems bestehen nicht nur in der obengenannten Spitzenrechenleistung sondern auch in einer breiten Palette von Eigenschaften deren Zusammenspiel eine sehr effiziente Nut zung des neuen Rechners erm glicht Die wichtigsten dieser Eigenschaften seien im Folgenden aufge z hlt 1 Das System ist in 19 Einheiten Partitionen mit jeweils 512 Prozessorkernen unterteilt wobei jeder Partition ein logisch einheitlich ansprechbarer Hauptspeicher von 2 TeraByte zur Verf gung steht kein anderes System in Europa weist derzeit diese spezielle F higkeit auf In geeigneter Weise paral lelisierte Programme k nnen mehrere Partitionen gleichzeitig benutzen Bei Bedarf kann die Partiti ons Gr e bis auf 2048 Prozessorkerne erh ht werden 2 Das System weist eine hohe aggregierte Bandbreite zum Hauptspeicher auf Damit sind datenintensi ve Simulationen sehr effizient durchf hrbar Weil dar ber hinaus jedem Prozessorkern ein 9 Mega byte gro er schneller Cache Speicher zur Verf gung steht lassen sich manche Anwendungen sogar berproportional zur Zahl der verwendeten Prozessorkerne beschleunigen 3 Der f r die Ablage und Weiterverarbeitung von Daten verf gbare Hintergrundspeicher ist bez glich Quantit t und Qualit t besonders performant ausgelegt worden Es stehen f r gro e Datens tze 600 TeraByte an Plattenplatz zur Verf gung dies entspricht dem Inhalt von etwa 200 Milliarden bedruck ten A4 Seiten Die Date
59. Die j ngsten Leistungssteigerungen bei Prozessoren haben in vielen Anwendungsbereichen dazu gef hrt dass das Leistungspotential von Serversystemen bei weitem nicht voll ausgesch pft wird Durch den Be trieb mehrerer virtueller Serverinstanzen auf einer physischen Serverhardware ist es jedoch m glich die zur Verf gung stehenden Leistungs Ressourcen effizient zu nutzen sowie IT Ressourcen optimal und flexibel auf derzeitige und zuk nftige Anforderungen auszurichten Der Einsatz von Virtualisierung ent wickelt sich daher zunehmend zu einem strategischen Baustein im Rechenzentrumsbetrieb Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 39 Durch den Einsatz von Virtualisierung im Serverbereich sollen hierbei in den n chsten Jahren vor allem folgende Ziele erreicht werden 1 Eine m glichst optimale Hardwarenutzung und somit eine deutliche Reduzierung der f r den Betrieb der LRZ Serverinfrastruktur ben tigten Energie Hardware und Stellplatzressourcen 2 Die Bereitstellung einer einheitlichen Virtualisierungsl sung f r alle Betriebssystemplattformen am LRZ Linux Windows Solaris und somit eine m glichst effiziente Nutzung von Personal und Hardwareressourcen 3 Eine hinsichtlich des n tigen Einsatzes an Hardwareressourcen optimierte Abdeckung neuer Anforde rungen wie z B Server Hosting und Hochverf gbarkeit 4 Die schnelle Bereitstellung von neuen Serverinstanzen 5 Eine einfache Skalierung von Servern bei sich ndern
60. EUR 15 Jahr Aufgabengruppe 4 EUR 30 Jahr Aufgabengruppe 5 EUR 60 Jahr 2 Benutzerkennungen f r PCs Workstations inklusive Internet Dienste Bei den Aufgabengruppen 3 4 und 5 wird pro Benutzerkennung f r LRZ PCs oder LRZ Workstations mit Nutzung der installierten Software eine Pauschalgeb hr erhoben Aufgabengruppe 3 EUR 50 Jahr Aufgabengruppe 4 EUR 100 Jahr Aufgabengruppe 5 EUR 200 Jahr 3 Benutzerkennungen f r Compute Server Bei den Aufgabengruppen 3 4 und 5 werden an LRZ Compute Servern die jeweiligen Systemeinheiten in Rechnung gestellt N here Einzelheiten auf Anfrage 4 Kosten f r maschinell erfasstes Verbrauchsmaterial Laserdruckerpapier EUR 0 04 DIN A4 Seite s w EUR 0 04 DIN A3 Seite s w EUR 0 25 DIN A4 Seite Farbe EUR 0 25 DIN A3 Seite Farbe Posterpapier EUR 5 00 DIN Al Blatt gestrichen wei EUR 6 00 DIN Al Blatt gestrichen wei schwer EUR 11 50 DIN A1l Blatt Fotopapier EUR 10 00 DIN AO0 Blatt gestrichen wei EUR 12 00 DIN AO Blatt gestrichen wei schwer EUR 23 00 DIN AO Blatt Fotopapier 5 Anschluss von Ger ten und Netzen an das M nchener Wissenschaftsnetz MWN Bei den Aufgabengruppen 3 4 und 5 werden Kosten in Rechnung gestellt N here Einzelheiten auf Anfrage Gegebenenfalls ist zus tzlich die gesetzliche Mehrwertsteuer zu entrichten Diese Geb hren gelten ab dem 1 Oktober 2006 290 Teil II Anhang 7 Def
61. FIRST und den beiden assoziierten Partnern Regionales Rechenzentrum f r Niedersachsen RRZN sowie der Universit t Dortmund Im Fachgebiet 2 4 einheitliche Betriebsumgebung f r Produktions Jobs sollen einheitliche Zugangs m glichkeiten zum D Grid erarbeitet werden Dazu wird ein Konzept f r ein so genanntes Common Pro duction Environment CPE entwickelt Das Konzept wird prototypisch umgesetzt mit ausgew hlten Nut zergruppen getestet und verbessert um es dann in die Produktion zu bernehmen Als Basis f r eine ein heitliche Software Umgebung wird ein Modul Konzept entwickelt und umgesetzt Damit ist es m glich Software unabh ngig von spezifischen lokalen Umgebungsvariablen oder Installationsverzeichnissen global einheitlich zu nutzen In DEISA findet ein Modul Konzept bereits Anwendung Das LRZ ist f r die Konzeption und Umsetzung des Modul Konzeptes voll verantwortlich In der Prototyp Phase wird das Konzept ebenso wie das CPE einem Praxistest bei ausgew hlten Nutzergruppen unterzogen um es dann in den Produktivbetrieb zu bernehmen Im FG 2 4 kooperiert das LRZ mit dem Fraunhofer Institut f r Techno und Wirtschaftsmathematik ITWM dem Forschungszentrum J lich FZJ dem Forschungs zentrum Karlsruhe FZK Das Max Planck Institut f r Astrophysik sollte in dem Projekt in der Konzep tions sowie in der Umsetzungs und Erprobungsphase im Projekt mitarbeiten Nachdem dies aus organi satorischen Gr nden nicht m glich war
62. Im M nchner Wissenschaftsnetz MWN werden mehr als 68 000 IP Endsysteme betrieben Neben Ser vern sind haupts chlich Arbeitsplatzrechner oder Notebooks angebunden Dabei werden nicht alle Syste me von individuellen Firewalls und Antiviren Programmen gesch tzt wodurch sich Schadprogramme oft schnell und ungehindert weiterverbreiten k nnen Im MWN bedeutet ein Anteil von nur einem Prozent an infizierten Rechnern rund 680 potentielle Verursacher von St rungen Die Bearbeitung dieser Sicher heitsprobleme stellt zunehmend einen erheblichen personellen Aufwand dar Um dieser Problematik zu begegnen wurde am LRZ ein dynamisches proaktives und generisches Intru sion Prevention System IPS mit einer Komponente zur dynamischen Beschr nkung der Daten bertra gungsrate entwickelt Dieses System befindet sich unter der Bezeichnung NAT o MAT seit Mitte 2005 erfolgreich im produktiven Einsatz technische Details siehe Jahresbericht 2007 Die Abbildung 104 zeigt eingehende Daten bertragungsrate ausgehende Daten bertragungsrate und die Anzahl gesperrter Benutzer der 3 Knoten des NAT o MAT Clusters im Zeitraum von einer Woche Incoming Bandwidth 1w Outgoing Bandwidth 1w Blocked Users 1w en 200 M 20 250 M 200 M 150 M 100 M 100 M son o o Di 18 19 20 a 22 23 17 18 19 20 a 22 23 M ther P2P BitTorrent ENo P2P Total Bits per second M ther P2P BitTorrent ENo P2P Total Bits per second Bandwidth Average 129 89Mbit s Cur 178 54Nbit s Max 265 10
63. Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 373 Anhang 3 Benutzungsrichtlinien f r Informationsverarbeitungssysteme des Leib niz Rechenzentrums der Bayerischen Akademie der Wissenschaften Hinweis Aufgrund der nderung der Satzung der Kommission f r Informatik vom 14 12 2007 werden hieraus ab geleitete Regelungen wie Benutzerrichtlinien Betriebsregeln und Geb hrenordnung zeitnah berarbeitet Pr ambel Das Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften LRZ im folgenden auch Betreiber oder Systembetreiber genannt betreibt eine Informationsverarbeitungs Infrastruktur IV Infrastruktur bestehend aus Datenverarbeitungsanlagen Rechnern Kommunikationssystemen Netzen und weiteren Hilfseinrichtungen der Informationsverarbeitung Die IV Infrastruktur ist in das deutsche Wissenschaftsnetz WiN und damit in das weltweite Internet integriert Die vorliegenden Benutzungsrichtlinien regeln die Bedingungen unter denen das Leistungsangebot ge nutzt werden kann Die Benutzungsrichtlinien e orientieren sich an den gesetzlich festgelegten Aufgaben der Hochschulen sowie an ihrem Mandat zur Wahrung der akademischen Freiheit e stellen Grundregeln f r einen ordnungsgem en Betrieb der IV Infrastruktur auf e weisen hin auf die zu wahrenden Rechte Dritter z B bei Softwarelizenzen Auflagen der Netzbetreiber Datenschutzaspekte e verpflichten den Benutzer zu korrektem Verhalten und zum konomisch
64. Jan Feb Mrz Apr Mai Jun Jul Aug Sep Okt Nov Dez Abbildung 69 Datenverkehr Gigabytes Monat Der Archiv Anteil am Datenbestand ist relativ statisch d h es gibt nur wenig nderungen an Daten im Archiv Archivdaten werden in der Regel einmal ins Archiv bertragen und dort sehr lange aufbewahrt m Fall der Langzeitarchivierung f r Jahrzehnte Datensicherungen hingegen finden regelm ig statt Backupdaten werden daher h ufig ins System geschrieben und die veralteten Daten werden automatisch aus dem Bestand gel scht Durch diese Dynamik erkl rt sich die im Vergleich zur Archivierung mehr als doppelt so hohe Dateneingangsrate Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 177 Backup SS ei Archiv Jan Feb Mrz Apr Mai Jun Jul Aug Sep Okt Nov Dez Abbildung 70 Datenumfang in TeraBytes Anfang 1996 ging das Archiv und Backupsystem in seiner heutigen Auspr gung unter dem IBM Tivoli Storage Manger in Betrieb Damals war in einer Bandbibliothek der Firma StorageTek auf 1000 Kasset ten ungef hr 1 TeraByte an Daten gespeichert Heute ist auf 10 000 Kassetten ein Datenvolumen von weit ber 5 000 TeraByte untergebracht Dies ist nur durch den Fortschritt der technologischen Entwicklung m glich durch den sich sowohl Fassungsverm gen der Kassetten als auch die Geschwindigkeit mit der die Daten geschrieben und gelesen werden vervielfacht haben 1996 2008 Schreibgeschwindigkeit auf Kassette 3 9MB Se
65. Kommunikationsnetzes Inhaltliche Aktualisierung der Netzdokumentation Neben der Verbesserung der WWW Schnittstelle zur Netzdokumentation ist auch eine st ndige berar beitung und Aktualisierung des Inhalts notwendig Zu diesem Zweck wurde 2008 wieder eine Benachrichtigung und berpr fung der Netzverantwortlichen durchgef hrt Jeder Netzverantwortliche insgesamt 763 erhielt per E Mail die Liste der Subnetze und Subnetzbereiche f r die er zust ndig ist mit der Bitte diese entweder zu best tigen oder eventuelle Feh ler zu korrigieren An die 185 Netzverantwortlichen die auch nach eineinhalb Monaten noch nicht geantwortet hatten wurde per Skript automatisiert eine E Mail zur Erinnerung geschickt Circa zwei Drittel der Netzverantwortlichen haben 2008 die zugesandten Daten ohne Korrektur best tigt Bei ca einem Drittel der Netzverantwortlichen waren Korrekturen notwendig Das entspricht in etwa dem Ergebnis von 2007 D h auch zuk nftig m ssen wahrscheinlich bei ungef hr einem Drittel der Netzver antwortlichen in einem Jahr kleinere oder gr ere Korrekturen vorgenommen werden Neben dieser j hrlichen Aktualisierung werden aktuelle nderungen im MWN laufend in die Netzdoku mentation bernommen 7 3 2 Netz und Dienstmanagement Das Netz und Dienstmanagement bildet die Basis f r die Qualit t der Netzdienstleistungen des LRZ im MWN Netzmanagement Server und Netzmanagement Software Der zentrale Server f r das Netzm
66. Konzepte zur Betriebssteuerung Blockbetrieb Stapelbetrieb Interaktivbetrieb Warte schlangenverwaltung o Konfigurationsmanagement Engpass Analysen Planung und Realisierung von Erweite rungsbeschaffungen wie der 2 Ausbaustufe des HLRB Administration und Operating 24 Stunden Betrieb Technische Realisierung und berwachung der Betriebsvorgaben Fehlerverfolgung und behebung Gew hrleistung der erforderlichen Sicherheitsvorgaben evtl auch durch zus tzliche Hardware wie etwa Firewall Rechner o Zugang vom Kommunikationsnetz nur ber zugelassene Hostrechner z B keine Netz routen keine Default Route o Zugang zum HLRB nur ber die Produkte der Secure Shell Familie z B ssh scp Kein telnet rsh rcp oder ftp o Implementierung aller zweckm igen neuen Verfahren zur Aufrechterhaltung und Erh hung der Sicherheit o Einbettung des Rechners in eine Benutzerverwaltung die Sicherheit und Schutz vor missbr uchlichem Zugriff auf Daten anderer bzw vor Ver nderung von Programmen bietet Folgende Aufgaben werden von der Betriebs und Betreuergruppe gemeinsam durchgef hrt OHOO O e Das LRZ ist verantwortlich f r die effiziente Nutzung des Rechners soweit dies betrieblich beeinflussbar ist Dies betrifft insbesondere auch die F lle in denen auf Grund von 300 Teil IH Anhang 10 Beobachtungen im Betrieb R cksprachen mit Benutzern erforderlich werden schlechte Programm Performance Betriebsprobleme durch Programme
67. LMU oder dem LRZ in Garching abgeholt werden Die ser Dienst findet sehr gute Akzeptanz 2 9 4 Multimedia Streaming Server Die Bereitstellung multimedialer Inhalte im Internet erf hrt auch im Hochschulumfeld rasch zunehmende Bedeutung Diese Inhalte k nnen Lehrvideos Vorlesungsaufzeichnungen aber auch zeitgleiche bertra gungen von Veranstaltungen Live Streams sein Die Nutzer k nnen auf aufgezeichnetes Material jeder zeit und nahezu von jedem Ort aus zugreifen Video On Demand oder auch ohne pers nliche Anwesen heit am Veranstaltungsort durch die bertragungen an der Veranstaltung passiv teilnehmen Als Dienstleistungsangebot f r die Institute der Hochschulen betreibt das LRZ einen Streaming Server Dieser leistungsf hige Rechner verf gt ber eine optimale Netzanbindung GigaBit Ethernet und eine gro z gige bei Bedarf leicht erweiterbare Festplattenkapazit t Derzeit werden QuickTime Streaming Dienste auf diesem Server angeboten bei entsprechender Nachfrage kann dieses Angebot um weitere Streaming Technologien erg nzt werden zum Beispiel Real Media oder Microsoft Media Auf dem Streaming Server sind inzwischen einige hundert Filmbeitr ge abgelegt die unter anderem aus den Bereichen AudioVision LMU Biotechnologie TU Chirurgie LMU oder der Hochschule f r Fernse hen und Film stammen Zur Unterst tzung bei der Erstellung von Multimediainhalten stehen am LRZ DV basierte Videoschnitt pl tze Digital Video bereit Do
68. LRZ Grid Portal http www grid Irz de mit dem sich das LRZ sei nen Kunden im Grid Bereich pr sentiert regelm ig aktualisiert Es entwickelte sich zu einem festen Anlaufpunkt f r wichtige Informationen aus dem Grid Umfeld f r Benutzer aus der ganzen Welt 6 7 Entwicklungen im Bereich der Datenhaltung 6 7 1 berblick Wie erwartet nahm die Belegung der Archiv und Backupsysteme weiterhin zu Zum Jahresende wurde die 5 Petabyte Grenze erreicht Anfang 2008 waren es erst etwas ber 3 PetaByte Der gestiegene Bedarf wurde im Wesentlichen durch die Beschaffung der notwendigen Datentr ger Cartridges und durch eine Erweiterung des Hochleistungsarchivs um zus tzliche Bandlaufwerke gedeckt In 2008 lief der f nfj hrige landesweite Rahmenlizenzvertrag f r die Software mit der die Systeme be trieben werden aus Er wurde durch einen neuen landesweiten Software Vertrag mit ebenfalls 5 Jahren Laufzeit ersetzt Die Kooperation mit der Bayerischen Staatsbibliothek im Bereich der Langzeitarchivierung wurde erfolg reich fortgesetzt Das DFG Projekt BABS das 2008 auslief fand in BABS2 seinen Nachfolger vgl 6 7 3 Neben den anderen laufenden Projekten vdl6digital und BSB Google betreibt das LRZ im Auftrag der Staatsbibliothek eine Reihe virtueller Server Die NAS Systeme Network Attached Storage am LRZ haben sich aufgrund ihrer Stabilit t Ausfallsi cherheit und hohen Datensicherheit durch Spiegelung als Speicherplattform bew hrt Der
69. Ludwig Maximilians Universit t M nchen 112 128 Technische Universit t M nchen 195 178 Bayerische Akademie der Wissenschaften 26 26 Einrichtungen aus dem M nchner Hochschulnetz 25 27 z B Hochschule f r Politik Einrichtungen aus dem M nchner Wissenschaftsnetz 24 27 z B Zoologische Staatssammlung M nchen Andere z B Bayerisches Nationalmuseum 41 40 Gesamt 439 444 Tabelle 21 Anzahl virtueller WWW Server 5 5 5 3 Zope Hosting Zum Jahresende gab es insgesamt 16 unabh ngige gehostete Sites und zwar 11 individuelle Zope Instanzen mit individuellen Sites meist Plone sowie eine TUM Zope Instanz mit 5 elevateIT Sites 5 5 6 Datenbanken Am LRZ sind diverse Datenbankdienste unter Oracle MySQL Microsoft SQL Server DB2 V arianten im Einsatz Die am LRZ betriebenen Datenbankserver dienen sowohl administrativen hausinternen Aufga ben als auch der Anbindung dynamischer Webseiten von virtuellen Webservern welche am LRZ betrie ben werden Datenbanken sind heute unverzichtbarer Bestandteil von webbasierten Systemen F r die Anbindung komplexer Internetanwendungen an die Datenbanken stehen neben den klassischen Programmiersprachen auch Interpretersprachen wie PHP Python Java und Perl zur Auswahl Viele Open Source basierte Internetanwendungen auf den Webservern z B Content Management Systeme wie Joomla und Typo3 Diskussionsforen etc setzen MySOL als Datenbankserver voraus und auch wo solche Vorgaben nich
70. M rz 2008 nach einer Laufzeit von 18 Monaten erfolgreich abgeschlossen Die Partner des Projektes waren das Alfred Wegener Institut f r Polar und Meeresforschung in der Helmholtz Gemeinschaft der DFN Verein assoziiert das Forschungszentrum J lich assoziiert das Fraunhofer Institut SCAI das Regionale Rechenzentrum f r Niedersachsen RRZN die Universit t G ttingen asso ziiert DAASI International GmbH und Sun Microsystems GmbH assoziiert Das LRZ arbeitete an vier Teilprojekten mit bei denen folgende Ergebnisse erzielt wurden e Evaluierung von internationalen Shibboleth basierten VO Management Projekten Hier wurde untersucht inwieweit Ergebnisse internationaler Projekte f r das VO Management im D Grid genutzt werden k nnen Die Evaluierung umfasste neben einer umfangreichen Literaturrecher che auch die Installation Konfiguration und den Test der betrachteten Systeme Als relevante Projek te wurden GridShib myVocs MAMS SHEBANGS ShibGrid EGEE 2 INTERNET GridShib Permis OMII Europe VOMS VOMRS und GEANT 2 JRAS identifiziert und untersucht e Anforderungen an ein VO Management System aus der Sicht der Community Grids Gemeinsam mit den Communities wurde ein Anforderungskatalog formuliert in dem die funktiona len und nicht funktionalen Anforderungen der Communities und des Kern D Grids an ein interope 236 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes rables integriertes VO Manag
71. Management in der Praxis 25 02 2008 27 02 2008 K ln Yampolskiy DFN 48 DFN Betriebstagung 26 02 2008 27 02 2008 Berlin Tr bs OMII Europe training for D Grid 11 03 2008 12 03 2008 J lich Baur T D Grid Beirat 03 04 2008 03 04 2008 Frankfurt Reiser Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 259 e NOMS 2008 Eigener Vortrag 05 04 2008 13 04 2008 Salvador BRA Marcu e Let stalk ITSM 2008 17 04 2008 17 04 2008 Stuttgart Richter Chr e SLA4 D Grid Vorbereitungstreffen 15 05 2008 15 05 2008 Dortmund Reiser e Komiteesitzung ISO IEC 20000 Personenzertifizierung 25 05 2008 26 05 2008 Berlin Brenner e 3 D Grid Monitoring Workshop 26 05 2008 27 05 2008 Dresden Baur T e 100GET E3 BMBF Status Meeting 03 06 2008 05 06 2008 Hamburg Lichtinger Reiser e BRZL Gespr chsrunde zum Thema IP Telefonie 05 06 2008 05 06 2008 Eichst tt Gebert L pple e DFN Mitgliedertreffen Mitgliederversammlung Rechtsseminar 08 06 2008 10 06 2008 Berlin L pple e dtm Datentechnik Moll GmbH netform 08 12 06 2008 12 06 2008 Meckenbeuren Glose e HP OpenView University Association 22 06 2008 26 06 2008 Marakesch Marokko Brenner Reiser e Hochschule BHN Sitzung 10 07 2008 10 07 2008 Landshut Brenner Glose L pple Richter Chr Tr bs e 8th Workshop on IP Visions of Future Generation Networks 100GET E3 Networking 21 07 2008 23 07 2008 W rzburg Lichtinger e 38 Jahrestagung de
72. Mitarbeiter stud ch tum Fachschaft f r Chemie Biologie und Geowissenschaften studext Studentenrechner LRZ andere studimu Studentenrechner LRZ LMU tec agrar tum thermo a tum Institut f r Landtechnik Weihenstephan Lehrstuhl A f r Thermodynamik tphys Imu Institut Theoretische Physik LMU tum de Mitarbeiter und Studenten der TUM uni passau Rechenzentrum der Universit t Passau usm Uni Sternwarte vmO 8 fhm Fachbereich 08 FH M nchen vsm tum Lehrstuhl f r Verkehrs und Stadtplanung wzw tum Informations Technologie Weihenstephan zi lmu Zoologisches Institut der LMU zmk imu Zahnklinik der LMU zv tum Zentrale Verwaltung TUM Tabelle 16 Radiuszonen 5 5 4 E Mail Services 5 5 4 1 Abwehr von Spam und Viren E Mails 5 5 4 1 1 Im Herbst 2007 wurde mit der Migration der Mailrelays auf denen die Software eMail Sentinel von Syn tegra eingesetzt wird begonnen und zwei neue Mailserver so genannte Postrelays auf Basis der Soft ware Postfix aufgebaut Auf den Postrelays wurden als Anti Spam Ma nahmen wie bereits im Jahres bericht 2007 beschrieben neben Greylisting neue Verfahren eingesetzt ber die Postrelays werden bisher nur ca 10 aller Maildomains aber ca 80 des Mailaufkommens geroutet der Rest der Do mains ist noch nicht migriert Optimierung Spam Abwehr an den Postrelays Im zweiten Quartal 2008 wurde eine graphische Darstellung der Spam Abwehr Verfahren der Postrelays implementiert Anhand die
73. NE a EEE A 195 TL3 R chenzentumsnet ei Nee ee 195 7 1 4 Wellenl ngenmulunlexer 197 721 52 WLAN Wireless LAN yes 199 7 1 6 Wesentliche Netz nderungen im Jahr 2009 201 7 1 7 Netzausbau Verkabelung s onsnsesesssesseseossesenssessesstesseseesseseessesresstesesseesssseesse 202 7 1 8 Anbindung Stdentenwobhnbemme 203 RE ER EE 205 E EN EE EE EE 205 12 2 VBN Seiver 5 en isn Dennerle ees 205 Jahresbericht 2008 des Leibniz Rechenzentrums 7 2 3 DFNRoaming und Pduroam essen essen 7 2 4 Unterst tzung von Veranstaltungen 1 25 Internet Zugang huioni Z ckt ee 7 2 6 Server Load Balancer GB 7 2 7 Proxies und Zetschrftenzugang ons 1 2 8 Domain Name Syst me snis iE E E EAE AE E en BC DREI 1 2 10 Moes ouer IP VolP eeraa ae es era ra SCHT Zugang uber UMTS zarten nennen a e DEE ee ee GE Ne EE ET 7 3 1 Weiterentwicklung und Betrieb der Netzdokumentation eeneeneeeen 7 3 2 Netz und Dienstmanagement an kei 7 3 3 berwachung der Dienstqualit t des MWN mit InfoVista eeneeeneen 7 3 4 Action Request System AR 7 3 5 IT Service Management ons ensn en KEE E 74 1 NAT GMAT Near lies 1 42 Netzsicherheitz n ru n2 ie ee EE rin Eed 7 4 3 Accounting am WON Zugang 7 4 4 Monitoring am WON Zugang 7 4 5 Sicherheitswerkzeug Nyx nn ons enn nn dr Virtuelle Firewalls na ege EE dee ie 7 5 Projektarbeiten im Netzbereich u uneesseerseessneesneesnennnnennennnennnennennns
74. NumaLink4 Verbindung leistet 6 4 Gigabyte s 3 2 Gigabyte s je Richtung non blocking Die Router und Metarouter sind als non blocking Crossbar Einheiten realisiert und verf gen ber acht NumaLink Ports acht Eing nge und acht Ausg nge Der Grundbaustein einer Partition ist ein Blade Chassis das ber zehn Blade Sch chte verf gt in die Prozessor oder Ein Ausgabe Blades eingebracht werden k nnen Die NumaLink Ports werden dabei mit der Backplane verbunden die die Verbindung dieser zehn Blade Slots untereinander und zu anderen Blades hin bereitstellt Das folgende Diagramm zeigt die Topologie einer Backplane eines Blade Chassis CO Im Ur oO Abbildung 6 Aufbau von Blade Chassis und Verbindungsstrukturen Jahresbericht 2008 des Leibniz Rechenzentrums Teil I Die 8 Port Router verbinden jeweils vier Prozessor Blades und maximal einen O Blade untereinander und ber eine zweistufige Hierarchie von Meta Routern hier nicht gezeigt mit dem System Interconnect Diese zweistufige Hierarchie ist doppelt ausgelegt sodass man die Topologie der Verbin dungsstrukturen auch als dual plane fat tree bezeichnet Auf ihrer Basis beruht die Kommunikation innerhalb einer 512 Prozessorkern Partition F r die Kommunikation zwischen unterschiedlichen Parti tionen stehen ebenfalls NumaLink4 Verbindungen zur Verf gung Diese sind jedoch nur als sog Mesh Topologie ausgelegt und weisen damit weniger bertragungsbandbreite auf 3
75. Probleme mit verschiedenen Funktionen den positiven Gesamteindruck des Produktes Schmerzlich vermisst wird die fehlende Unterst tzung von IPv6 in der grafischen Benutzerschnittstelle f r virtuelle Firewalls dem Adaptive Security Device Manager ASDM Nichtsdestotrotz h lt die Nachfrage nach virtuellen Firewalls an Abbildung 106 zeigt den System Kontext eines FWSM Fo Eh Home D Coniouraton LJ mornarna p save Ob zen as 3 F ro CIE viras vinas viras OPU Status Memory Status Total Usage Contest usas Leen Memory Lage History MB admin s DG ob 02 03 09 14 41 33 CET Abbildung 106 System Kontext eines Firewall Service Module FWSM 228 Teil I Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 7 5 Projektarbeiten im Netzbereich 75 1 100 GET E3 Im Rahmen des europ ischen Dachprojektes 100 Gbit s Carrier Grade Ethernet Transport Technologies 100GET das vom BMBF gef rdert wird werden Ultra Hochgeschwindigkeitsnetze basierend auf Ethernet Technologien f r bertragungsraten von 100 Gigabit pro Sekunde entwickelt Durch den breite ren Einsatz von Ethernet Technik auch in den Backbone Netzen sogenanntes Carrier Grade Ethernet erwartet man sich erhebliche Kosteneinsparungen Das von Nokia Siemens Networks NSN gef hrte Teilprojekt End to End Ethernet E3 entwickelt in Zusammenarbeit mit dem Leibniz Rechenzentrum solche Technologien und Pr
76. Rechenzentrums Teil II 193 7 Entwicklungen und T tigkeiten im Bereich des Kommunikations netzes 7 1 Netz Das M nchner Wissenschaftsnetz MWN verbindet vor allem Standorte der Ludwig Maximilians Universit t M nchen LMU der Technischen Universit t M nchen TUM der Bayerischen Akademie der Wissenschaften BAdW der Hochschule M nchen HM und der Fachhochschule Weihenstephan miteinander Es wird aber auch von anderen wissenschaftlichen Einrichtungen u a Max Planck Gesellschaft Fraunhofer Gesellschaft Kunst Hochschulen Museen mit genutzt Diese Standorte sind insbesondere ber die gesamte M nchner Region i W M nchner Stadtgebiet Gar ching Gro hadern Martinsried und Weihenstephan verteilt es gibt aber auch weitere Standorte in Bayern Derzeit sind an das MWN mehr als 60 Standorte mit mehr als 440 Geb uden angebunden siehe Abbil dung 83 Die Lage von Standorten die au erhalb des M nchner Stadtgebietes liegen ist in der Abbil dung nicht ma stabsgetreu dargestellt sondern lediglich schematisch Himmelsrichtung angedeutet Die Gr e der zu versorgenden Areale ist sehr unterschiedlich sie reicht von einem einzelnen Geb ude bis zu einem gesamten Campusbereich z B Garching und Weihenstephan mit mehr als 30 Geb uden und mehr als 8 000 angeschlossenen Endger ten Triesdorf Ingolstadt Straubing Legende Anschluss gt 10 MBit s 10 MBit s 10 GBit s Weihenstephan mi Versuchsg ter
77. Str Ea fN A f od N RN Ki Oettingenstr 15 ISB 1 Ze Z H N N Zoolog Schelling A b 7 N N Staatssam str 155 A Z b N M nchhausen oi GER gt fy SWH HMTM b SWH K str To 2 BLLV Gasteig 7 H Kiefern d ef Cimbernstr 7 d garten N w LMU LMU LMU TUM TUM Bay Theat Ak BAdW TUM Tierhygiene Tierphysiologie Eet 1 Ludwigstr 10 Augusten Dachau Prinzregenten Volkskunde Gr nschwaige Nord S d str 44 Karl Benz Platz 12 Barer Str 13 Schwere Reiter Str 9 Stra e 15 Wiss Studentenwohnheim 10 30 Mbit s Hochschule D Eu i Einrichtung sonstige Einrichtung 10 Gbit s 1 Gbit s 100 Mbits 2 Mbit s 256Kbit s 16Mbit s 11 100 Mbit s CEED CHED 64 128 Kbils TUT DSL U Gun aset Glasfaser Glasfaser Glasfaser ______ Funk Laser Stand 31 12 2008 Kantor Abbildung 2 Das M nchner Wissenschaftsnetz Teil 2 Fortsetzung links in Abbildung 1 2 Teil I Das Dienstleistungsangebot des LRZ 2 3 Bereitstellung von Rechenkapazit t Die Bereitstellung von Rechen und Datenverarbeitungskapazit t im engeren Sinne ist einer der zentralen Dienste des LRZ Aber beileibe nicht alle von ihm betriebenen Rechensysteme dienen diesem Zweck viele erbringen Netz und Dateidienste und andere Funktionen die nicht in Berechnungen oder in ander weitiger Verarbeitung von Daten des Endbenutzers bestehen In diesem Abschnitt geht es um die bereit gestellte Rechen und Datenverarbeitungskapazit t Das LRZ bietet hier auf
78. Technische Universit t M nchen Januar 2008 e Panov B Eine Benutzeroberfl che zur Darstellung von Virtuellen Organisationen und Grid Diensten Fortgeschrittenenpraktikum Ludwig Maximilians Universit t M nchen Oktober 2008 e Schaal J Evaluation von Werkzeugen zur Unterst tzung des Change Management Prozesses am LRZ Diplomarbeit Ludwig Maximilians Universit t M nchen Dezember 2008 e Stoimenova B Evaluation von Workflow Sprachen zur Prozessmodellierung in Multi Domain am Beispiel von G ant2 E2E Links Diplomarbeit Ludwig Maximilians Universit t M nchen April 2008 e Wagner S Intelligente Topologieerkennung zur Lokalisierung infizierter Rechner im M nchner Wissenschaftsnetz MWN Bachelorarbeit Technische Universit t M nchen September 2008 e Weckert P Experimentelle Untersuchung der Ableitbarkeit von Dienstg tezust nden aus Mess gr en der optischen Netze Diplomarbeit Ludwig Maximilians Universit t M nchen April 2008 Folgende Diplom Bachelor Master und Studienarbeiten wurden von Mitarbeitern der Abteilung Hoch leistungssysteme betreut Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 363 e Peinkofer S Scalability Analysis of Hierarchical Storage Management File Systems Master Thesis Technische Universit t M nchen November 2008 8 9 Ver ffentlichungen der Mitarbeiter 2008 ISBN 978 3 540 88707 2 ISBN 978 3 88579 228 4 ISBN 978 3 88579 228 4 ALLALEN M BREHM M
79. Tool in den Auswahlprozess einzubringen Da auch zur Diskussion steht auf die k nftige ITSM Suite auch jene Funktionalit t zu migrieren welche heute im mittlerweile seit 13 Jahren genutzten ARS Remedy Systems realisiert ist wurden auch die ARS Administratoren in das Auswahlteam miteinbezogen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 223 Zun chst musste aus den ber 100 verf gbaren als ITSM Suite oder ITSM Tool deklarierten Produkten die Auswahl auf eine berschaubare Anzahl eingegrenzt werden Zwar wurden bereits von Anfang an einige K O Kriterien z B bez glich der CMDB Funktionalit t definiert die meisten Hersteller stellen jedoch so lange man nicht mit dem Pre Sales Consulting Kontakt aufnimmt nur sehr wenige Informa tionen zu ihren Produkten ffentlich zur Verf gung Aussagekr ftige Vergleiche verschiedener ITSM Tools sind nicht verf gbar wohl nicht nur aufgrund der Informationspolitik der Hersteller Vereinbarun gen f r Teststellungen untersagen meist eine Ver ffentlichung der Ergebnisse sondern auch aufgrund des Mangels anerkannter Vergleichskriterien Auch die von Consulting Unternehmen durchgef hrten Zerti fizierungen von Tools anhand sehr allgemeiner funktionaler Kriterien welche berwiegend von fast allen anpassbaren Ticket Tools erf llbar sind haben f r die Entscheidung f r oder wider eine ITSM Suite so gut wie keinen Wert Die notwendige Vorauswahl musste also pragmatisch gestaltet we
80. Zeiten der Spitzenlast kann das Tier 2 Zentrum zus tzliche Jobs auf dem Linux Cluster rechnen Diese enge Kopplung und st ndig neue Anforderungen des Tier 2 Zentrums machten mehrere berarbei tungen des Betriebskonzepts und komplizierte nderungen am Linux Cluster Batch System erforderlich Durch diese Anstrengung kann nun eine konstant hohe Auslastung der Tier 2 Rechner erreicht werden 170 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme O Pbi sec 400 MB sec o 9 PBiyear No simulation Tier 1 Kee US Regional French Regional German Regional PO ii Centre z Centre GridKa a 2 PB yeanT1 a 600kSI2k T2 a 260TB year T2 Abbildung 65 Ein Blick in den Large Hadron Collider am CERN dessen Daten auch am LRZ ausge wertet werden Ref https Ihc2008 web cern ch LHC2008 index html 6 6 4 Sonstige Grid Aktivit ten Neben diesen Gro projekten kam auch die Arbeit vor Ort nicht zu kurz Der Arbeitskreis Grid AK Grid erwies sich als tragf higes und notwendiges Instrument zur abteilungs und hochschul bergreifenden Kommunikation aller an Grid Aktivit ten beteiligten Personen Nur durch diese regelm igen Treffen konnten die Koordination und der Informationsaustausch gew hrleistet werden Er wurde um die LMU LCG Gruppe und eine Gruppe von TUM Lehrst hlen Prof Bode Prof Bungartz Prof Kemper sowie Prof Kranzlm ller von der LMU erweitert Regelm ige Diskussion von hot topics z B
81. Ziele eine Reihe von europ ischen Projekten durchf hren Als erstes wurde in FP7 eine vorbereitende Studie f r die Laufzeit 2008 2009 beantragt und noch vor Ende 2007 auch von der EU genehmigt Darin soll eine grenz berschreitende Organisationsstruktur f r das wissenschaftliche Rechnen mit Supercomputern in Europa geschaffen werden Die Zielstruktur soll in die sonstigen relevanten europ ischen IT Infrastrukturen wie G ant2 Backbone Netz oder DEISA Grid Infrastruktur integriert werden und interoperabel mit z B EGEE EGI oder D Grid sein Wichtiges Ziel ist auch ein letztendlich einheitliches Management durch eine einzige geeignete europ ische Organi sationsstruktur Zusammengefasst sollen also die Voraussetzungen f r einen europ ischen Tier0 HPC Service geschaffen werden Dazu m ssen unter Anderem folgende Grundlagen erarbeitet werden e Eine rechtliche Struktur und eine organisatorische Struktur in der Leitungs und Partnerschaftsfragen genau so gekl rt sind wie das Verh ltnis zur EU Kommission und zu den wissenschaftlichen Anwendern e Erarbeitung von Finanzierungs und Nutzungsmodellen sowie zugeh rige Vertr ge f r eine nachhaltige Absicherung eines permanenten europ ischen HPC Dienstes e Definition eines Peer Review Prozesses und eines einheitlichen Zugangsverfahrens e Festlegung eines konsistenten Betriebsmodells aller Ter Zentren e Portierung Optimierung und Petascaling ausgew hlter Anwendungen Wie blich
82. Zugspitze und Triesdorf Das MWN ist mehrstufig realisiert e Das Backbone Netz verbindet mittels Router die einzelnen Hochschulstandorte Areale und Geb ude innerhalb der Areale e Innerhalb eines jeden Geb udes sorgt das Geb udenetz mittels Switches f r die Verbindung der einzelnen Rechner und die Bildung von Institutsnetzen e Eine Sonderstellung nimmt das Rechenzentrumsnetz ein das die zentralen Rechner im LRZ Rechnergeb ude miteinander verbindet Etwas genauer l sst sich diese Realisierung wie folgt beschreiben e Die Router werden ber das Backbone Netz miteinander verbunden und bilden den inneren Kern des MWN Die Verbindungsstrecken des Backbone Netzes sind je nach Nutzungsgrad verschieden ausgef hrt Im Normalfall sind die Strecken Glasfaserverbindungen die langfristig von der Deutschen Telekom und M net angemietet sind Auf den Glasfaserstrecken wird mit 10 Gbit s bertragen Die Verbindung der Strecken bernehmen f nf Backbone Router die untereinander aus Redundanzgr nden ein Dreieck bilden Netze mit einer geringen Zahl von Endger ten werden vereinzelt mit 64 Kbit s der Telekom berwiegend aber mit SDSL Verbindungen bis zu 10 Mbit s von M net oder WLAN Verbindungen auf Basis von IEEE 802 11a oder g bis 54 Mbit s angebunden e Die Switches eines Geb udes oder einer Geb udegruppe werden mittels Glasfaser zum allergr ten Teil mit 1 Gbit s aber auch mit 10 Gbit s an die Router herangef hrt e In den
83. am LRZ im Jahr 2008 im Rahmen einer Diplomarbeit evaluiert Ingest Data Management Access Bine lt d 28 EN Nutzer Cal Archival Storage Zweitkopie RH Digitalisierung Archival Storage Abbildung 72 Workflow des Bibliothekarischen Archivierungs und Bereitstellungssystems BABS Projekt vd16digital Das Ziel dieses seit Juni 2007 von der DFG gef rderten Projekts besteht in der weitgehend automatisier ten Digitalisierung s mtlicher im VD16 Verzeichnis der im deutschen Sprachbereich erschienen Drucke des 16 Jahrhunderts nachgewiesenen Drucke Die Digitalisate werden au erdem langzeitarchiviert und sofort im Internet bereitgestellt Hierzu wurden 2007 die weltweit ersten beiden ScanRobots der Firma Treventus mit einer Scan Kapazit t von je 1 100 Seiten Stunde in Betrieb genommen Im Jahr 2008 wur de ein weiterer Scan Roboter angeschafft Das Projekt vd16digital umfasst 36 150 Titel mit ber 7 2 Millionen Seiten Das Archivierungsvolumen ist ungef hr 10 Mal so gro wie dasjenigeim BABS Projekt und liegt bei ca 100 Terabyte pro Jahr Die drei Scan Roboter mit hohen Digitalisierungsraten erforderten bei der Realisierung der Speicherumge bung ein Umdenken Als prim res Speichersystem wurde ein NAS System Network Attached Storage der Firma Netapp beschafft und im Jahre 2008 kontinuierlich erweitert Es handelt sich dabei um ein FAS3050 Cluster mit dem Betriebssystem ONTAP GX Neben einer ho
84. beh lt sich vor s mtliche Kosten die durch einen nicht ordnungsgem en Betrieb eines TSM Clients entstehen dem Kunden in vollem Umfang in Rechnung zu stellen Zu einem ord nungsgem en Betrieb geh ren insbesondere der Einsatz einer von IBM TSM unterst tzten Kon figuration und die Beachtung der Informationen aus dem TSM Benutzerhandbuch sowie der Re lease Notes Der Kunde verpflichtet sich den Backup und Archivdienst hinsichtlich des Daten transfers und des zu sichernden Datenvolumens kontinuierlich zu berwachen und zu pr fen da eine Kostenkorrektur ber Quartalsgrenzen hinweg nicht m glich ist Der Kunde wird angehalten Probleme fr hzeitig dem LRZ via E Mail abs admin_AT_Irz muenchen de zu melden um einen korrekten Betrieb zu gew hrleisten Der Nutzer ist verpflichtet die automatisch erzeugten Mitteilungen des Backupsystems zur Kenntnis zu nehmen und im Bedarfsfall zeitnah zu beantworten bzw Einspruch zu erheben Die Mitteilungen gelten als akzeptiert wenn nicht innerhalb eines Monats Einspruch erhoben wird 15 Salvatorische Klausel Unwirksamkeitsklausel Sollte eine oder mehrerer Bestimmungen vorstehender Richtlinie unwirksam sein oder unwirksam wer den so hat dies keinen Einfluss auf die G ltigkeit der brigen Richtlinien bzw Bestimmungen 16 Inkrafttreten Diese Richtlinie tritt am 1 M rz 2008 in Kraft 17 Schlussbestimmungen Das LRZ beh lt sich das Recht vor die Richtlinien zur Nutzung des Archiv
85. das LRZ zwei Stellen beantragt Der Projektantrag sieht eine Laufzeit von 36 Mona ten vor SLA4D Grid Zur nachhaltigen und wirtschaftlichen Nutzung des D Grid wird es bereits mittelfristig notwendig sein dass Benutzer und Anbieter von D Grid Ressourcen ihre Anforderungen bez glich der Dienstg te ver handeln und verbindlich festlegen k nnen Auf diese Weise k nnen Betriebssicherheit und zuverl ssigkeit verbessert und somit die Benutzerzufriedenheit erh ht werden Service Level Agreements SLAs sind in diesem Fall die erforderliche Basistechnologie die zum Beispiel von IT Dienstanbietern erfolgreich kommerziell eingesetzt wird und die Integration von Dienstg teanforderungen in die vorhan denen technischen Grundlagen des D Grid erlaubt Die Bereitstellung von Diensten basierend auf SLAs wird die Akzeptanz des D Grid insbesondere durch Benutzer aus der Industrie erh hen die Einbindung weiterer Nutzergruppen aus Wirtschaft und Wissenschaft erleichtern und die Umsetzung bew hrter und zuk nftiger Gesch ftsmodelle im D Grid erm glichen Im Rahmen des SLA4D Grid Projektes soll eine Service Level Agreement Management Schicht SLA Schicht spezifiziert und entwickelt werden Diese Schicht bietet Benutzern Communities und den An bietern von D Grid Ressourcen definierte Rahmenbedingungen durch Bindung von Dienstg tenachfragen und korrespondierenden Angeboten durch SLAs Im Rahmen des Vorhabens wird die SLA Schicht m g lichst eng an die M
86. den Messarchiven engl MA Measurement Archives f r die obengenannten Netze Zus tz lich werden HADES Messwerte in zugeh rigen Karten gezeigt In der Phase V des GN2 Projektes wurde der CNM Java Client mit KPIs Key Performance Indicators Zoom Funktionalit t und Darstellung von HADES Metriken in den Layer 3 Karten erweitert Ebenfalls wurde die Anbindung an das perfSONAR Authentication Authorization Framework realisiert um perf SONAR Services in gesicherter Weise abzufragen Zus tzlich wurde eine sogenannte Dashboard Funktion hinzugef gt bei der man aggregierte Kennzahlen f r alle Elemente einer Dom ne einsehen kann Zuletzt wurde die Entwicklung einer HTML CSS basierten Wetterkarte f r das LHC OPN Large Hadron Collider Optical Private Network gestartet Die neu hinzugef gte Dashboard Funktion gibt einen berblick ber die aktuellen Leistungsindikatoren KPIs und die aktuellen Top N Statistiken per Dom ne In Abbildung 109 ist ein Beispiel f r die KPI Sicht f r das G ant Layer 3 Kernnetz dargestellt Dashboard KPI Overview of KPIs Select domain GEANT Layer 3 e Select metric set fan KPIs per domain utilization_rate_in utilization_rate_out quant95 count gt 15 quant95 count gt 15 FIOIFIEICIP Je warning critical warning critical warning critical warning critical warning critical warning critical utilization_rate_inout utiliza
87. der Langzeitarchivierung elektronischer Medien befassen Bei den etwa halb j hrlich stattfindenden Treffen an wechselnden Orten werden jeweils andere Themenschwerpunkte ge setzt Im Jahre 2008 fanden ein Treffen an der Bayerischen Staatsbibliothek zum Thema Langzeitarchi vierung im Kontext der Massendigitalisierung und ein Treffen am LRZ zum Thema Datentr ger und Speicherkonzepte statt 6 7 4 Online Speicher Wie in vielen gro en Rechenzentren wird am LRZ je nach Einsatzgebiet sowohl SAN als auch NAS als Speicherarchitektur genutzt 6 7 4 1 Plattenspeicher im SAN Das Storage Area Netzwerk SAN des LRZ bildet die Grundlage f r die Vernetzung der Massenspei cherkomponenten Das urspr ngliche SAN dessen Anf nge auf das Jahr 2000 zur ckgehen wurde in den letzten Jahren stark ausgebaut und in mehrere sogenannte Fabrics aufgeteilt um so eine h here Verf g barkeit gew hrleisten zu k nnen Es werden nun getrennte Fabrics f r das Hochleistungsarchiv das LTO Archiv und Backupsysten das verteilte Filesystem und das SAN Filesystem des Bundesh chstleistungs rechners betrieben An die SAN Fabrics sind die Storageserver die NAS Filer alle 60 Bandlaufwerke der Libraries und alle Serversysteme mit hohem Datenverkehr insbesondere die File und Backupserver an geschlossen 182 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme visuali compute rinter afs 5 p p HLRB II zation server server clients
88. der WWW Schnittstelle Neben den oben genannten Punkten wurde die Netzdokumentation unter anderem noch in folgenden Be reichen verbessert und erg nzt Der Server der Netzdokumentation wurde auf einen virtuellen VMware basierten Server migriert Dieser Server war damit der erste Server im Produktionsbetrieb am LRZ der auf die VMware Infra struktur migriert wurde Update auf neueste Version 2 10 6 des Applikationsservers Zope Der Web Server Apache wurde als Proxy Webserver zur zus tzlichen Absicherung des Web Servers von Zope und zur Verschl sselung des Verkehrs mit SSL in den Netzdokumentations Anwendungsstack integriert In der Netzdokumentation abgelegte Telefonnummern von Personen k nnen direkt per Mausklick gew hlt werden die Telefon Verbindung wird ber die VoIP Server des LRZ automatisch aufge baut Bei nderungen an Subnetzen wird eine E Mail an die zust ndigen Personen geschickt Die VLAN Datenbank die bisher eine relativ eigenst ndige Applikation war wurde besser in die Netzdokumentation integriert Die VLAN IST Daten zu einzelnen VLANs oder zu einer Komponente k nnen jetzt direkter und einfacher in der Netzdoku abgerufen werden In Abbildung 101 sind als Beispiel die IST Daten zum VLAN 123 zu sehen F r jede Komponente auf der das VLAN angelegt ist werden alle Ports auf denen das VLAN konfiguriert ist in einer kompakten Darstellung ange zeigt Die Performance des Zugriffs auf die VLAN IST Daten ist durch diese I
89. der ZHS ans MWN 1x 1GE Zentrale Hochschulsportan Medizinisches Intranet des Klinikums rechts der lage ZHS Isar 1x 1GE LMU Stammgel nde ADVA OCM4 Anbindung des Schwabinger Krankenhauses ans Schwabinger Krankenhaus MWN 1x 1GE Medizinisches Intranet des Klinikums rechts der Isar 1x 1GE HS M nchen 7 externe ADVA FSPI Anbindung zur TK Zentrale in der Lothstra e 34 Standorte von folgenden Standorten Pasing Am Stadtpark 20 Lothstr 21 Schachenmeierstr 35 Karlstr 6 Infanteriestr 13 Erzgie ereistr 14 Dachauer Str 98b TK Anlagen Kopplung Intranet der HS Verwaltung Tabelle 32 bersicht ber f r MWN Verbindungen eingesetzte WDM Typen Die medizinische Fakult t der TUM ist ber mehrere Standorte im MWN verteilt Klinikum rechts der Isar Klinikum am Biederstein Poliklinik f r Pr ventive und Rehabilitative Sportmedizin und Schwabin ger Krankenhaus Da hier auch patientenbezogene Daten bertragen werden wurde hierf r ein separates Intranet ber die einzelnen Standorte auf der Basis eigener WDM Kan le mit einer Kapazit t von jeweils 1 Gbit s mit der Zentrale im Klinikum rechts der Isar aufgebaut Hierdurch erspart man sich das Anmieten eigener Standleitungen Dies erforderte den WDM Einsatz an zwei Stellen erstens auf der Anbindung des betreffenden Standortes zu einem der beiden Kernnetzstandorte des MWN Backbones TU Nordgel nde und LMU Stammgel nde und zweitens auf der Verbindung der Kernnetzsta
90. des Jahres 2008 die 1 391 MWN Rechner betrafen erhielt das LRZ 582 Hinweise Beschwerden Anfragen usw von au erhalb Zum Gl ck verletzten nur bei ganz wenigen Sicherheitsvorf llen MWN Benutzer absichtlich die Nut zungsregeln der berwiegende Teil der F lle betraf Rechner die von W rmern trojanischen Pferden Botnet Drohnen usw befallen wurden die eingedrungenen elektronischen Sch dlinge versuchten dann ihrerseits sich weiter zu verbreiten oder der Rechner wurde zu einem Teilnehmer an einem Botnet und verursachte danach Sch den z B durch Versenden von Spam Mails die ber aktuelle Sicherheitsl cken angegriffen kompromittiert und dann f r weitere Angriffe miss braucht wurden Ca 30 der bearbeiteten F lle gehen auf Beschwerden Hinweise Anfragen usw zur ck die dem LRZ von au erhalb geschickt wurden oder auf organisatorische Vorg nge siehe Tabelle 22 Bei diesen F l len sind folgende Punkte besonders erw hnenswert Die Zahl der von au erhalb gemeldeten F lle nahm von 258 im Jahr 2007 um 135 auf 393 zu Dies wurde allein durch eine drastische Steigerung der Beschwerden wegen Copyright Verletzungen von 44 F llen im Jahr 2007 um 195 auf 239 F lle verursacht Es handelte sich dabei um Beschwerde Mails von Organisationen die amerikanische oder europ ische Rechte Inhaber vertreten Selbst wenn diese F lle bis jetzt noch keine juristischen Konsequenzen haben handelt es sich nicht um Kavaliers delikte a
91. des MWN beschrieben Das MWN hat Anbindung an nationale und internationale Netze z B deutsches Wissenschaftsnetz WiN Internet In vielen Geb uden ist eine drahtlose Zugangsm glichkeit WLAN eingerichtet Des Weiteren werden f r berechtigte Benutzer W hl Eing nge f r den Zugang zum MWN aus den ffentlichen Fernsprechnetzen analoges Telefonnetz und ISDN zur Verf gung gestellt 2 Anschluss an das Netz Das Backbone Netz die Campusnetze und eine Grundausbaustufe der Geb udenetze wurden im Rahmen einer zentralen Bauma nahme NIP bereitgestellt Erforderliche Erweiterungen der Geb udenetze m ssen gesondert in Zusammenarbeit von Benutzer Bauamt und LRZ als Bauma nahmen oder im Wege der Endger tebeschaffung beantragt werden Die f r die Netzanbindung von Endger ten erforderlichen Hardware und Software Komponenten hat der Benutzer in Abstimmung mit dem LRZ selbst zu beschaffen Ein Anschluss an das MWN darf nur nach vorheriger Abstimmung mit dem jeweiligen Netzverantwortlichen siehe 2 Absatz 2 und dem LRZ erfolgen Dies gilt auch f r nderungen an einem Anschlusspunkt Angeschlossen werden k nnen 280 Teil UL Anhang 5 e Rechner direkt oder e selbst ndige Netze z B eines Instituts oder einer Fakult t ber eine segmentierende Netzwerk Komponente z B Switch Router Firewall Der Betrieb von W hlmodems bzw ISDN Anschl ssen von Funk LAN Zugangspunkten oder frei nutz baren Datensteckdosen mit Zugangsm glich
92. die jeweiligen Fachgebiete aus seinem Kreis die das weitere Begutachtungsverfahren initiieren Die Obleute bedienen sich f r jeden Antrag mindestens zweier externer Gutachter Die externen Gutachter sollen aus Wissenschaftlern aus den wichtigsten Anwendungsgebieten des HLRB bestehen und berwiegend berregional ausgew hlt werden Der Obmann erstellt ein endg ltiges Votum und leitet es dem LRZ zur weiteren Veranlassung zu Auftretende Zweifelsfragen und Einspr che von Benutzern gegen die Begutachtung behandelt der Len kungsausschuss 84 KONWIHR Aufgaben und Arbeitsweise des Kompetenznetzwerks f r Technisch Wissenschaftliches Hoch und H chstleistungsrechnen in Bayern KONWIHR sind in dessen Gesch ftsordnung festgelegt 5 Inkrafttreten Dieses Betriebs und Organisationskonzept f r den H chstleistungsrechner in Bayern HLRB tritt mit der Billigung durch den Lenkungsausschuss und das Bayerische Staatsministerium f r Wissenschaft Forschung und Kunst am 30 Mai 2000 in Kraft Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 297 Anhang 10 Nutzungs und Betriebsordnung f r den H chstleistungsrechner in Bayern HLRB Stand 30 Mai 2000 Pr ambel Mit dem H chstleistungsrechner in Bayern HLRB soll der Wissenschaft und Forschung in Deutschland ein Werkzeug zur Erschlie ung neuer M glichkeiten f r das technisch wissenschaftliche H chstleis tungsrechnen geboten werden Der Betrieb des HLRB erfolgt in Absti
93. dienst f r zentrales Systemmanagement der vom LRZ betreuten PC Infrastrukturen Windows Applikationsserverfarm M glichkeit von Nicht Windows Arbeitspl tzen aus Windows basierte Applikationen zu benutzen Zentraler Kalender Verwaltung des zentralisierten Kalenders aller LRZ Mitarbeiter um zum Beispiel gemeinsame Besprechungstermine zu koordinieren Sicherheitsserver ein vom Netz abgekoppelter Rechner f r sicherheitskritische Aufgaben Test Labor Umkonfiguration Neue Software oder neue Versionen bekannter Software m ssen vor dem Einsatz gr ndlich getestet werden Daf r m ssen Server zur Verf gung stehen die sich nicht allzu sehr von den Produktions maschinen unterscheiden 58 Teil I Das Dienstleistungsangebot des LRZ UNICORE Applikationsserver F r die Erstellung und f r das Scheduling von Benutzerprozessoren auf Hochleistungsrechnern wer den insgesamt zwei Applikationsserver ben tigt Subversion Server Versionsverwaltungssystem f r Quelltexte Konfigurationsdateien und Dokumentationen ber die Open Source Software Subversion ist es m glich von mehreren Mitarbeitern ben tigte Dateien zent ral zu verwalten und dabei jederzeit auf fr here Versionen dieser Dateien zur ckgreifen zu k nnen Das System wird derzeit hausintern in der Softwareentwicklung z B Anpassung von Programmen an Hochleistungsrechner zur Verwaltung von DNS Konfigurationsdateien und bei der Dokumenta tion von IntegraTUM und LRZ SIM einge
94. eine vorrangig den Telefondienst bernimmt Die ffnungszeiten sind Montag bis Freitag 9 00 bis 17 00 Uhr 2 1 2 2 1 2 LRZ Hotline Diese telefonische Anlaufstelle ist rund um die Uhr erreichbar ber Tel 089 35831 8800 Von Montag bis Freitag 9 00 bis 17 00 Uhr werden die Telefonanrufe in der Pr senzberatung entgegen genommen au erhalb dieser Zeit in der Leitwarte siehe auch www rz de wir zeiten 2 1 2 2 1 3 Elektronischer Briefkasten Schon seit langem empfiehlt das LRZ seinen Benutzern Fragen W nsche Anregungen und Beschwer den in elektronischer Form zu senden Daf r steht in erster Linie das Hotline Web http hotline Irz de zur Verf gung Der Aufruf durch einen Benutzer f hrt ihn auf ein Web Formular in das er seine Frage bzw sein Problem eintragen kann Dabei werden durch dieses Formular gewisse Angaben die zur Bearbeitung notwendig sind direkt ange fordert Diese Methode hilft die Qualit t des daraus erzeugten Trouble Tickets zu verbessern und seine Bearbeitungszeit zu verk rzen Ein Mitarbeiter der Pr senzberatung Hotline nimmt auch die Zuordnung von Sachgebiet und Zust ndigem vor In zweiter Linie ist auch der Weg mittels Electronic Mail an die Adresse hotline lrz de m glich Hier eintreffende Anfragen werden von einem Mitarbeiter entgegengenommen Die eingehenden Anfragen enthalten oft nur mangelhafte Angaben zum Anliegen des Benutzers so dass R ckfragen erforderlich werden Diese Anfra
95. enth lt Da auch die Firmen in der Vergangenheit Lizenzmodelle f r den Bereich Forschung und Lehre anboten in denen Studierende in der Regel nicht ber cksichtigt waren weil es f r sie die sowieso g nstigen Studentenlizenzen gab konnten alle Beteiligten gut mit der Situation leben Seit auch in Bayern den Studierenden Studienbeitr ge abverlangt werden nimmt die Zahl der Campusan gebote zu die eine fl chendeckende Versorgung der jeweiligen Hochschule mit einer Software unter Ein beziehung auch der Studierenden zum Ziel haben Zum einen kommen dadurch zu der schon bisher schier un berschaubaren Anzahl von Lizenzmodellen weitere dazu zum anderen kommen aus den Reihen der Studierenden berechtigte Forderungen nach der Versorgung mit attraktiven Softwareprodukten Dieser Trend hat sich in 2008 fortgesetzt Die Kostenumlage die bisher seitens des LRZ angestrebt und umgesetzt wurde orientiert sich nach wie Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 95 vor am Bedarf und an der Nutzung Dieses Modell wird von den beteiligten Einrichtungen so gut ange nommen dass es bisher in den meisten F llen den verlockenden fl chendeckenden Pauschalangeboten vorgezogen wurde 5 3 3 Mindmanager Softwaredownload unter Nutzung der Verzeichnisdienste Mit der Fa Mindjet hat das LRZ einen Campusvertrag abgeschlossen der den Bezug der Software Mindmanager f r alle Mitarbeiter von BAdW LMU und TUM und deren Studierenden erm glicht
96. f r den Backup Service der f r die gesamte AFS und Kerberos Umgebung zust ndig ist Mit Hilfe von SIB werden nicht nur f r die Administration wichtige und interessante bersichten und Problembereiche anschaulich dargestellt sondern k nnen auch regelm ige Aktionen angesto en werden So wird die Verwaltung weiter beschleunigt und die Durchf hrung komplexerer Kontrollen und Aufga benstellungen erst m glich Statistik Verglichen mit dem Vorjahr stieg der von Volumes belegte Speicherplatz um 12 an Wegen gro z gi ger Bereinigungsaktionen zu denen die Masteruser aufgefordert worden waren stieg der von Benutzerda ten belegte Speicherplatz nur um 7 w hrend die Anzahl der Benutzer Volumes und damit die Zahl aller Volumes um 30 fiel Am Jahresende waren immer noch 117 400 Kerberos Eintr ge und 26 800 Benutzer Volumes zu verzeichnen Die Verf gbarkeit der Systeme war 2008 mit 99 57 etwas schlechter als im Vorjahr 99 87 Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 187 Zusammenarbeit Wo es notwendig und m glich erschien wurde AFS Code auch weiterentwickelt und die Ergebnisse wurden der OpenAFS Community zur Verf gung gestellt Ein angeregter Patch etwa der AFS Rechte auch relativ setzen l sst wurde von den OpenAFS Elders durchaus positiv bewertet Der j hrliche AFS Workshop der im September 2008 in Graz stattfand hatte sich wegen der Teilnahme von ma geblichen Repr sentanten von OpenAFS vornehml
97. gelten die aktuellen e Geb hren des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften 81 Betriebsziele Der H chstleistungsrechner in Bayern dient dem Ziel rechenintensive Aufgaben im Grenzbereich des heute technisch Machbaren bearbeiten zu k nnen Er steht in erster Linie der Wissenschaft zur Verf gung soll aber auch f r die Industrie zug nglich sein um die internationale Wettbewerbsf higkeit in diesen Bereichen sicherzustellen Wegen der hohen Kosten ist eine sachgem e und strenge Auswahl der auf diesem Rechner zu bearbei tenden Aufgaben notwendig Gleichzeitig sollte den Nutzern eine m glichst weit gehende Unterst tzung gew hrt werden um einen optimalen Nutzen zu erzielen Folgende Kriterien sind dabei ma gebend 1 Die Aufgabenstellung muss wissenschaftlich anspruchsvoll und ihre Bearbeitung muss von gro em Interesse sein 2 Die Bearbeiter m ssen wissenschaftlich ausgewiesen und zu einer erfolgreichen Bearbeitung der Auf gabenstellung in der Lage sein Dies ist durch Vorarbeiten und Publikationen zu belegen 298 Teil III Anhang 10 3 Die Bearbeitung der Aufgabe darf nicht auf kleineren Rechnern durchf hrbar sein 4 Die Bearbeiter m ssen Erfahrung in der Nutzung leistungsf higer Rechenanlagen haben Dies ist durch entsprechende Vorarbeiten nachzuweisen 5 Die Programme zur Bearbeitung der Aufgabe m ssen die spezifische Eigenschaft des Rechners in m glichst optimaler Weise nutzen D
98. gen gt die Einsendung einer Immatrikulationsbescheinigung f r das Folgesemester Ausf hrliche Informationen finden sich unter www Irz de wir studserver 4 3 Datenschutz Die Verarbeitung und Speicherung personenbezogener Daten ist durch die Datenschutzgesetze des Lan des und des Bundes geregelt Benutzer die personenbezogene Daten verarbeiten oder speichern wollen sind f r die ordnungsgem e Datenverarbeitung im Rahmen des Datenschutzes selbst verantwortlich ber die im LRZ realisierbaren technischen und organisatorischen Datenschutzma nahmen k nnen die einzelnen Benutzer im Detail unterrichtet werden Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 83 Allgemein kann gesagt werden dass auf Benutzersystemen z B Home Directories und Datenbanken selbst f r Daten der niedrigsten Schutzstufe die bestehenden Schutzma nahmen am LRZ kaum ausrei chen d h dass ohne Sonderabsprachen und regelungen personenbezogene Daten insbesondere an den zentralen Anlagen des LRZ nicht verarbeitet und gespeichert werden d rfen 4 4 Schutzma nahmen gegen Missbrauch von Benutzerkennungen Benutzerkennungen und mit ihnen der Zugriff auf Rechner und Dienste wie z B Mailbox sind gegen unbefugte Nutzung durch ein Passwort gesichert Dieser Schutz greift aber nur wenn der Benutzer e das Passwort gegen ber Dritten geheim h lt e keine leicht erratbaren Passw rter verwendet e das Passwort hinreichend oft ndert Am LRZ so
99. gestellt provisioniert werden Dem stehen allerdings h here Kosten f r gro e gemeinsame und sichere Datenspeicher entgegen so dass gemeinsamer Datenspeicher am LRZ nur bei begr ndetem Bedarf und nachweisbar g nstigem Nutzen Kosten Verh ltnis angeboten wird Im IntegraTUM Projekts mit der TUM siehe Abschnitt 2 13 2 wird genau diesem Gedanken Rechnung getragen AFS Andrew Filesystem Der Zugriff auf gemeinsame Daten wurde am LRZ im Unix Bereich ab 1992 zun chst durch den Einsatz des Dateisystems AFS erreicht AFS ist ein Dateisystem auf das mehrere Rechner gleichzeitig zugreifen k nnen und das diese Zugriffe synchronisiert Es zeichnet sich durch einen weltweiten einheitlichen Na mensraum durch eine erh hte Sicherheit der Kerberos Authentisierung durch vom Benutzer auf Directo ry Ebene flexibel w hlbare Zugriffsrechte und durch niedrige Netzbelastung aufgrund seines Cache Konzeptes aus F r das LRZ als Betreiber war dar ber hinaus die M glichkeit sehr vorteilhaft Teilbereiche der AFS Daten im laufenden Betrieb von einem physischen Server auf einen anderen verlagern zu k nnen Da durch konnten immer wieder Probleme bei der Plattenplatzverwaltung behoben werden die bei anderen Dateisystemen eine Betriebsunterbrechung notwendig gemacht h tten Durch die von den AFS Fileservern bereitgestellte Kapazit t wird der allgemeine Bedarf an Online Speicherplatz von ber 25 000 zentral registrierten Benutzerkennungen abgedeckt
100. hat im Juli 2002 ein Gesetz erlassen das unter anderem Anleger besser vor gesch nten Zahlen in den internen Bilanzen gro er Aktiengesellschaften sch tzen soll Dieses Gesetz der Sarbanes Oxley Act SOA benannt nach Senator Paul Sarbanes und dem Mitglied des Repr sentan tenhauses Michael Oxley besteht aus 11 Titeln Besonders zu erw hnen sind die beiden Sektionen 302 und 401 die mittlerweile auch Auswirkungen auf die bestehenden und neu abzuschlie enden Lizenzver tr ge des LRZ mit amerikanischen Software Herstellern und Lieferanten zu haben scheinen In Sektion 302 wird verlangt dass regelm ige zu erstellende Finanzreports keine unwahren Angaben enthalten d rfen Auch sind Angaben unzul ssig die Interpretationsspielraum zulassen oder irref hrend sind Daf r werden die unterzeichnenden Vorgesetzten bis hinauf in die Leitungsebene auch pers nlich ver antwortlich und haftbar gemacht Es werden Bu gelder und sogar Strafen bis zu einem H chstma von 20 Jahren Gef ngnis angedroht Die Folge hieraus ist dass mittlerweile seitens amerikanischer Mutterge sellschaften die Vertr ge ihrer ausl ndischen T chter genauer als fr her unter die Lupe genommen wer den 5 3 2 _ Bedarfsorientierte Kosten versus Mietpauschale Das LRZ nimmt satzungsgem definierte Aufgaben f r die M nchner Hochschulen wahr hat aber auf grund seiner Sonderstellung au erhalb der Hochschulen einen Haushalt der keine Gelder aus Studienbei tr gen
101. hat sich die Notwendigkeit einer systematischen Beschreibung und Dokumentation der Pro zesse gezeigt Die Mitte 2007 etablierte Arbeitsgruppe I SHARe Information Sharing across multiple Administrative Regions befasst sich mit der Unterst tzung von Service Management Prozessen im Umfeld der Geant2 Kooperation Das Endziel dieser Aktivit t besteht in der Entwicklung eines Operation Support Systems OSS das die Zusammenarbeit der verschiedenen Betriebsgruppen durch den Austausch von dom nen bergreifenden Managementinformationen erleichtert In der ersten Phase befasste sich die internationale Arbeitsgruppe zu deren Kern auch LRZ Mitarbeiter geh ren mit der Erfassung und der Analyse in Geant2 existierender Betriebsprozesse Auf Basis dieser fundierten Untersuchung die in einem G ant2 Deliverable festgehalten wurde konnten exakte Anforde rungen an das zu entwickelnde Tool erarbeitet werden Die Anforderungsanalyse basiert auf der Erstellung von Prozessbeschreibungen in einer standardisierten Form Die Prozessbeschreibungen werden auf Basis von Interviews mit den f r die Prozesse verantwort lichen Mitarbeitern erstellt Hierbei werden soweit vorhanden auch existierende Prozessdokumentationen ber cksichtigt Jeder Prozess wird mit einem UML Aktivit tsdiagramm beschrieben das die beteiligten Akteure sowie die wesentlichen Aktivit ten im Ablauf des Prozesses darstellt Beispiel siehe Abbildung 122 Die gra phische bersichtsdarstell
102. ics Consulting Hewlett Packard Marrakech Morocco Juni 2008 HOMMEL W SCHIFFERS M Benutzergesteuerter Datenschutz in Grids In Procee dings Erstes DFN Forum Kommunikationstechnologien Verteilte Systeme im Wissenschaftsbereich GI Verlag Mai 2008 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 265 ISBN 978 0 7695 3156 4 ISBN 978 3 9810843 6 8 ISBN 978 9728924638 ISBN 978 3 540 69181 5 ISSN 1570 7873 Print ISSN 1572 9814 Online ISSN 1472 6807 HOMMEL W Using Policy based Management for Privacy Enhancing Data Access and Usage Control in Grid Environments In Proceedings of the first work shop on Security Trust and Privacy in Grids STPG 2008 held at CCGrid 08 IEEE Press Lyon France Mai 2008 ILGENFRITZ E M LEINWEBER D MORAN P KOLLER K SCHIERHOLZ G WEINBERG V Vacuum structure revealed by over improved stout link smearing compared with the overlap analysis for quenched QCD Phys Rev D 77 074502 2008 JAMITZKY F GONG J WEIT HECKL W M R SSLE S C TolIML A Database of Toll like Receptor Structural Morifs John von Neumann Institute for Compu ting From Computational Biophysics to Systems Biology CBSB08 edited by U H E Hansmann J H Meinke S Mohanty W Nadler O Zimmermann KoLo C BAUR T Homo Ludens Going Mobile Perspectives On Mobile Gam ing In Proceedings of Computer Graphics and Visualization 2008 and Gaming 2008 Design for engaging experience and social
103. im Folgenden dargestellt Die Koordination und Leitung dieser Teilprojekte liegt bei der Gruppe Netzplanung Die Arbeiten im DGI II Projekt FG 1 2 FG 2 3 und FG 2 4 werden fachlich und inhaltlich in der Abteilung HLS bearbei tet Die anderen Teilprojekte werden in Zusammenarbeit mit der Ludwig Maximilians Universit t M n chen Lehrstuhl Prof Hegering und Prof Kranzlm ller durchgef hrt Die bisher entwickelten Konzepte wurden am LRZ in den Betrieb bernommen und im D Grid einge setzt Im Bereich der D Grid weiten Dienste betreibt das LRZ das Monitoring System f r das gesamte D Grid Neben den bereits im Jahresbericht 2007 aufgef hrten sieben Community Projekten und 33 Res source Providern wurden im Jahr 2008 mit FinGrid PartnerGrid und TextGrid drei weitere Community Projekte an das Monitoring System angebunden Neu angebunden wurden auch die beiden Ressourcen Provider Interdisziplin res Zentrum f r Bioinformatik Leipzig sowie Universit t Ulm Sondermittel f r das D Grid Das BMBF hat im Sommer 2008 ebenso wie bereits in den Jahren 2006 und 2007 Sondermittel f r die Beschaffung von Hard und Software f r das D Grid in erheblichem Umfang zur Verf gung gestellt Die Ausschreibung beschr nkte sich auf folgende Zwecke und Ma nahmen Verbesserung der Netzanbindung existierender D Grid Systeme Erg nzung existierender D Grid Systeme im Bereich Speicher Integration kooperativer Visualisierungsumgebungen ins D Grid Erg nzung exist
104. in Deutschland f r die Nutzungsberechtigung ist rechner Socket Blades eine spezielle Begutachtung durch den wissenschaftli 13 Shared Memory Partitionen mit Single Socket Blades Alle Partitionen sind ber das NumaLink4 Verbindungsnetzwerk eng gekoppelt Prozessorkerne chen Lenkungsausschuss notwendig Typ Parallel Rechner 99 ZAT SOP MPAMYSeYUI I OL 2 Hochleistungs Linux System Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller Kompo us Daten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur nenten Saile Aufgabe Anzahl und speicher Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente Linux 1 Am LRZ Teilweise 771 9800 771 Linux Cluster zur Bearbeitung blicher auf Linux Cluster selbst konfi mit GBit verf gbarer Anwendungsprogramme und f r Program guriert Myrinet oder me die moderat mittels MPI parallelisierbar sind Der 10 Gbit Cluster besteht aus den im folgenden aufgez hlten Ethernet Komponenten vernetzte Rechenkno ten 1 DELL Pentium M 1 256MB Komponente des Linux Clusters 1000 MHz Konsolserver 1 SUN 4150 2 512MB Virtualisierte Komponente des Linux Clusters Xeon 2660 MHz Installationserver 1 SUN 4150 2 512 MB Virtualisierte Komponente des Linux Clusters Xeon 2660
105. intensiver Zusammenarbeit mit TP Verwaltung und im Rahmen des TUM internen Arbeitskreises Prozesse wurden nderungen an den bestehenden Prozessen diskutiert die insbesondere auf eine effiziente Korrelation von Identit ten abzielen Die Entscheidung ob ein Student auch gleichzeitig Mitarbeiter ist kann nicht vollst ndig auto matisiert getroffen werden da Studenten und Personalverwaltung bisher noch kein gemeinsames Schl sselattribut f r Datens tze verwendet haben da falsche automatische Entscheidungen bei spielsweise auf Basis eines Vergleichs von Vorname Nachname Geburtsdatum und Geburtsort der Person nicht komplett ausgeschlossen werden k nnen z B aufgrund von Tippfehlern oder unterschiedlichen Schreibweisen f r ausl ndische Orte sind in die Prozesse manuelle Entschei dungen zu integrieren die ber geeignete Hilfsmittel unterst tzt werden Als Ergebnis werden beispielsweise die Mitarbeiter Einstellungsformulare um Felder erg nzt ber die fr here oder pa rallele Zugeh rigkeiten zur TUM angegeben werden k nnen e Konzeption der G steverwaltung Um in den Verzeichnisdienst auch Daten ber Personen ein speisen zu k nnen die nicht von der zentralen Personal bzw Studentenverwaltung erfasst wer den beispielsweise Gastdozenten und Konferenzteilnehmer wurden zuerst die verf gbaren Sys teme hinsichtlich ihrer Eignung als autoritative Datenquelle f r G ste untersucht Hierbei wurde insbesondere das f r Gastdoze
106. interaction 2008 IADIS Press Amsterdam Netherlands Juli 2008 KORNBERGER R REISER H WIMMER C Virtuelle Firewalls im M nchner Wis senschaftsnetz PIK Praxis der Informationsverarbeitung und Kommunikation 31 2 112 121 K G Saur Verlag M nchen Juli 2008 LINDINGER T REISER H GENTSCHEN FELDE N Virtualizing an IT Lab for Hig her Education Teaching In Tagungsband zum 1 GVITG KuVS Fachgespr ch Virtualisierung 2008 97 104 Gesellschaft f r Informatik e V Paderborn Deutschland Februar 2008 REINER B WOLF KLOSTERMANN T How to cope with 300 000 scans a day Arc hiving 2008 Bern Juni 2008 REINER B Langzeitarchivierung aus Sicht eines Rechenzentrums 8 IIR Forum Storage 2008 Hamburg Dezember 2008 REISER H Ein Framework f r f deriertes Sicherheitsmanagement Ludwig Maximilians Universit t M nchen Habilitation Mai 2008 SCHMITZ D Automated Service Oriented Impact Analysis and Recovery Alterna tive Selection Ludwig Maximilians Universit t M nchen Dissertation Juli 2008 WAGNER S STEINMETZ M BODE A BREHM M High Performance Computing in Science and Engineering Garching Munich 2007 Transactions of the Third Joint HLRB and KONWIHR Status and Result Workshop Dec 3 4 2007 Leibniz Supercomputing Centre Garching Munich Germany 720 S Springer Verlag Heidelberg 2008 WALDBURGER M REISER H DREO RODOSEK G STILLER B Evaluation of an Accounting Model for Dynamic Virtu
107. kann So leistete dieses Feature z B bei der Performanceop timierung und messung der beiden HLRB II Archivserver gute Dienste Abbildung 82 Die Leitwarte des Leibniz Rechenzentrums Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 191 Fehlermeldungen gehen wie gesagt nicht ausschlie lich an die Leitwarte sondern zun chst direkt an die Fachverantwortlichen Per Mail werden beispielsweise Fehlersituationen in denen die TSM Serverinstanz zwar noch Anfragen von Clients entgegennimmt aber keine weiteren Aktionen veranlasst an die zust n digen Verantwortlichen gemeldet Ferner werden Werkzeuge zur Logdateiauswertung von Betriebssystem FC Switch und TSM Logdateien eingesetzt Dieses Auswertungstool durchsucht die genannten Datenquellen in regelm igen Abst nden nach Eintr gen welche eine oder mehrere von den Administratoren vordefinierte Zeichen folgen enthalten Falls f r eine Servermaschine einen FC Switch oder eine TSM Serverinstanz verd ch tige Meldungen gefunden wurden werden diese wiederum automatisch an die betreffenden Administrato ren gemailt Auch herstellereigene Software wird zur berwachung eingesetzt Der Betriebszustand und die Ressour cennutzung aller NAS Filer zum Beispiel wird mit Hilfe der berwachungssoftware Operations Mana ger zentral erfasst und in der Leitwarte abgebildet Zus tzlich kann die Performance der Systeme auch in Echtzeit analysiert werden Jahresbericht 2008 des Leibniz
108. kompromittierte Rechner 17 17 94 Sonstige Mail F lle 7 2 35 Unberechtigte Spam Beschwerden Legitim 7 7 7 Beschwerden an die falsche Stelle 6 6 Teilsumme 80 69 185 Organisatorische Vorg nge Aktualisierung der Monitoring Ausnahmelisten 18 30 4 Aufheben von Sperren 9 22 11 Sonstige F lle 4 2 4 Teilsumme 31 54 19 Sonstige kompromittierte Rechner Port Vulnerability Scans 10 23 15 Vom DFN CERT gemeldete F lle 8 33 32 Sonstige Beschwerden u a DoS 6 5 6 Teilsumme 24 6l 53 Sonstige F lle 11 4 11 Summe der gemeldeten F lle 393 461 543 Tabelle 22 F lle die dem LRZ gemeldet wurden oder organisatorische Vorg nge e Am 5 8 08 und am 1 9 08 gab es zwei gro e Phishing Angriffe auf Mail Accounts des MWN Bei diesen beiden F llen schickten insgesamt 29 MWN Nutzer die eine dieser Phishing Mails erhalten hatten dem LRZ eine entsprechende Warnung Dadurch kam auch die hohe Zahl der Hinweise bei den sonstigen Mail F llen zustande Leider hat es sich auch bei Wissenschaftlern immer noch nicht herumgesprochen dass man nach einer Aufforderung per E Mail niemals Account Daten herausgeben darf Mehrere Inhaber von Mail Accounts fielen bei diesen beiden Phishing Angriffen herein und schickten den Angreifern ihre Zu gangsdaten Die gestohlenen Accounts wurden dann in zwei F llen am 5 9 08 und am 7 9 08 dazu missbraucht Phishing Mails der Nigeria Connection ber den Web Mail Zugang des LRZ zu verschicken Durch die Un
109. len Stand 1 1 2009 1 Abteilung Benutzernahe Dienste und Systeme BDS Leitung Dr Norbert Hartmannsgruber Vertreter Ado Haarer 1 1 Directorys E Mail E Mail Benutzerverwaltung und Ado Haarer Verzeichnisdienste 1 2 Internetdienste und Datenbanken Web Dienste Da Dr Helmut Richter tenbanken Internet Dienste au er E Mail Server unter Solaris 1 3 Graphik Visualisierung und Multimedia 3D Graphik Karl Weidner Videoschnitt Postererstellung Macintosh Betreuung 1 4 Desktop Management alle Themen rund um PCs und Dr Norbert Hartmannsgruber deren Verwaltung mit Microsoft Betriebssystemen 2 Abteilung Hochleistungssysteme HLS Leitung Dr Horst Dieter Steinh fer Vertreter Dr Matthias Brehm 2 1 Compute Server SGI Linux Cluster Server und Dr Herbert Huber Arbeitsplatzrechner 2 2 Hochleistungsrechnen Benutzerbetreuung und Dr Matthias Brehm Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 77 verwaltung f r die Hochleistungsrechner und deren Software 2 3 Verteilte Ressourcen Grid Computing Grid Middle Dr Helmut Heller ware nationale und internationale Grid Projekte 2 4 Datei und Speichersysteme AFS Archive und Werner Baur Backup Server SAN NAS 3 Abteilung Kommunikationsnetze KOM Leitung Alfred L pple Vertreter Dr Helmut Reiser 3 1 Betrieb Kommunikationsnetze Betrieb des MWN Wolfgang Beyer DNS Remote Access Funk LAN VPN Proxy Server
110. modular aufgebaut und bieten ber einzubauende Schnittstellenkarten Anschluss von bis zu 192 Ger ten Andere stackable HP Switches vom Typ 25xx und 26xx sind in kleineren Netz anschlussbereichen vom Typ 28xx 29xx 34xx f r Serveranschl sse bei Instituten und im Rechnerw rfel des LRZ in Betrieb Im Oktober 2007 konnten die letzten vom LRZ betriebenen 3COM Switches Inbetriebnahme vor 2002 durch HP Switches ersetzt werden Zum Jahresende 2008 wurden vom LRZ insgesamt 914 Switches betrieben Ein Vergleich zu den Vorjah ren zeigt Tabelle 30 Ende 2008 Ende 2007 Ende 2006 Ende 2005 Ende 2004 Anzahl Switches 914 843 780 732 681 davon HP Switches 914 843 738 644 520 davon 3Com Switches 42 88 161 Anzahl TP Ports 53 591 47 212 42 050 38 252 33 837 Anzahl Glasfaser Ports 6 245 5 302 5 110 4 901 4 274 Tabelle 30 Switches im Jahresvergleich Die Verteilung nach Switchtypen zeigt Tabelle 31 7 1 3 Rechenzentrumsnetz Das neue Rechnergeb ude besteht im Bezug auf das Datennetz im Wesentlichen aus drei verschiedenen Bereichen dem Daten und Archiv Raum DAR in dem sich das Backup und Archiv System befindet dem Netz und Server Raum NSR der den zentralen Mittelpunkt des Netzes das Linux Cluster sowie die Server mit den diversen Netzdiensten Mail Web usw beherbergt sowie dem H chleistungsrechner raum HRR Das Datennetz in diesen drei R umen ist den unterschiedlichen Anforderunge
111. nicht geeignet erscheinen Die Open Source Tools OpenNMS Groundworks und Zenoss wurden getestet erf llten aber die Anforderungen nicht ausreichend Die wichtigsten Anforderungen an ein Nachfolgeprodukt sind e automatische und korrekte Discovery der Layer 2 Topologie e flexible Status berwachung Monitoring der Ger te einstellbare Intervalle nach Ger te Typ Ger te Klasse oder DNS Name einfache Konfiguration von Wartungs oder nicht berwachungszeiten e Flexible Eventverarbeitung Ausl sen von beliebigen Aktionen Eskalationsmechanismen bei l nger bestehenden Incidents e Karten und Sichten im GUI zur strukturierten Darstellung des Netzes e Root Cause Analyse d h nur Anzeige der wirklichen Ursache von Fehlermeldungen und Unterdr ckung aller andere Fehlermeldungen insbesondere unter Ber cksichtigung der Layer 2 Topologie e Unterst tzung von VLANs welche VLANs sind auf welchen Port konfiguriert Darstellung einer VLAN bezogenen Topologie Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 219 e ergonomische und performante Administrationsschnittstelle Evaluation der alternativen Netzmanagementwerkzeuge Die oben genannten Produkte wurden jeweils ausf hrlich getestet und auf ihre Eignung f r das MWN hin untersucht Die wichtigsten Ergebnisse der Evaluation sind hier zusammengefasst e Der HPOV NNM 7 5X Standard Edition bietet im Wesentlichen die gleichen Features wie der HPOV NNM 6 4 aber auch die gleichen
112. nur relativ selten oder auch nur einmalig Rundbriefe Einladungen usw an sehr viele Empf nger verschickt wurden e In 13 sehr schweren F llen konnte das Abuse Response Team des LRZ leider erst eingreifen nach dem der kompromittierte Rechner auch schon au erhalb des MWN aufgefallen war was zu 39 Be schwerden f hrte Im schlimmsten Fall verschickte eine Botnet Drohne mehr als 35 000 Spam Mails pro Stunde Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 137 6 Entwicklungen und T tigkeiten im Bereich der Hochleistungs systeme 6 1 Entwicklungen bei den Rechensystemen 6 1 1 H chstleistungsrechner in Bayern HLRB II SGI Altix 4700 6 1 1 1 Kennzahlen des Systems Abbildung 43 SGI Altix 4700 im Rechnerraum des LRZ Phase 1 Installation des Systems Mai Juli 2006 Inbetriebnahme 21 Juli 2006 Tests Konfiguration Leistungspr fung erste Nutzer August September 2006 Aufnahme des regul ren Benutzerbetriebs 22 September 2006 Phase 2 Installation des Systems und Leistungstests M rz April 2007 Aufnahme des regul ren Benutzerbetriebs 16 April 2007 Zuverl ssigkeitspr fung April Mai 2007 Offizielle Endabnahme des Gesamtsystems 22 Juni 2007 138 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme LINPACK Hauptspeicher pro Knoten 1 GFlop s 1 Giga Floatingpoint Operations pro Sekunde 1 000 000 000 Gleitkomma Rechenoperationen pro Sekunde 1 TFlop s 1 Tera Flo
113. r die Nutzung von IV Ressourcen k nnen in gesonderten Ordnungen Geb hren festgelegt werden 2 F r bestimmte Systeme k nnen bei Bedarf erg nzende oder abweichende Nutzungsregelungen festge legt werden 3 Bei Beschwerden von Benutzern entscheidet die Kommission f r Informatik der Bayerischen Akade mie der Wissenschaften soweit sie nicht vom Direktorium des Leibniz Rechenzentrums geregelt wer den k nnen 4 Gerichtsstand f r alle aus dem Benutzungsverh ltnis erwachsenden rechtlichen Anspr che ist M n chen Diese Benutzungsrichtlinien wurden am 17 12 1996 von der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften verabschiedet und mit sofortiger Wirkung in Kraft gesetzt Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 277 Anhang 4 Betriebsregeln des Leibniz Rechenzentrums Fassung vom Oktober 2007 Hinweis Aufgrund der nderung der Satzung der Kommission f r Informatik vom 14 12 2007 werden hieraus ab geleitete Regelungen wie Benutzerrichtlinien Betriebsregeln und Geb hrenordnung zeitnah berarbeitet Basis f r die Nutzung des Leistungsangebots des Leibniz Rechenzentrums sind die Benutzungsrichtli nien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften vom 17 12 1996 Erg nzend und jeweils mit Bezug auf diese Benutzungsrichtlinien gelten die folgenden Betriebsregeln 1 Vergabe von Kennungen f r LRZ Systeme 83 Absatz 3
114. rd TECHNISCH UNIVERSITAT l OTRS M NCHEN Im Normalfall keine direkte Kontaktaufnahme mit TUM Anfragenden 09 12 2008 1 Abbildung 21 Ablauf Anfragebearbeitung zwischen TUM und LRZ TUM IT Support Tickets in ARS 2008 Anzahl der Tickets Abbildung 22 Anzahl der von der TUM weitergeleiteten Anfragen in 2008 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 87 5 1 5 bersicht ber die Nutzung des Trouble Ticket Systems Im Jahr 2008 wurden insgesamt 2 620 Vorjahr 1 785 Trouble Tickets eingetragen davon waren 56 69 Tickets mit der Dringlichkeit kritisch 2532 1699 Tickets mit der Dringlichkeit mittel 32 17 Tickets mit der Dringlichkeit gering Abbildung 23 gibt einen berblick ber die Gesamtanzahl der monatlich erstellten Tickets und verdeut licht den im Jahre 2008 stark angewachsenen Anteil an Problemmeldungen die ber Hotline Web AR Web eingegangen sind ARS Opened and Closed Tickets Submitter Generated 01 12 2008 Periodicity Monthly Report for Trouble Tickets Neu Opened and closed tickets per month 300 l 200 Opened 100 Jan 2008 Mrz 2008 Mai 2008 Jul 2008 Sep 2008 Nov 2008 E Apweh EI Other 3007 200 Closed 100 0 Jan 2008 Mrz 2008 Mai 2008 Jul 2008 Sep 2008 Nov 2008 EB 4rweb EI Other Abbildung 23 Trouble Tickets pro Monat Die Diagramme der Abbildung 24 zeigen die Entwicklung der Bearbeitun
115. ren Systemen und hin zu kosteng nstig beschaffbaren und betreibbaren Systemen auf der Basis von Standardprozessoren und Linux Betriebssystemen wurde auch am LRZ Rechnung getragen zur historischen Entwicklung siehe auch die Darstellung auf dem LRZ Web Server Attp www Irz muenchen de services compute museum museum htm Seit 2001 ist die Rechen und Speicherkapazit t der unter Linux betriebenen Systeme in mehreren auf den sich st ndig erh henden Anforderungen der Benutzer gr ndenden Stufen systematisch ausgebaut worden Neben Multiprozessor Rechensystemen auf der Basis von Intel Itanium AMD Opteron und Intel EM64T Systemen kommen als Speichersysteme f r die HOME Dateisysteme ber NFS angebundene NAS Filer sowie f r das parallele Lustre Dateisystem RAID gesicherter Plattenplatz zum Einsatz Trotz der Heterogenit t bez glich Prozessorausstattung und Architektur werden in vielen F llen durch eine durchg ngige Softwareumgebung diese Unterschiede vor dem Benutzer weitestgehend verborgen mittels geeigneter Steuermechanismen werden Jobs der Anwen der auf den f r sie am besten geeigneten Teil des Clusters geleitet Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 29 Anzahl Maximale Hauptspeicher Platten System Cores Rechenleistung TByte TByte TFlop s EM64T Opteron Xeon Opteron 2 fach 50 0 3 0 1 4 fach 1188 11 9 2 4 182 8 fach 368 3 9 1 3 16 fach 240 2T 1 0 LCG Tier 2 2 fach 20 0 1 0 02 4 fach 796
116. risk management pa rameters in dynamic federated environments In Proceedings of the 2008 Work shop of HP Software University Association HP SUA Infonomics Consulting Hewlett Packard Marrakech Morocco Juni 2008 BRENNER M REISER H RICHTER C Requirements Engineering f r die Werkzeug auswahl zur Unterst tzung von ISO IEC 20000 In Informatik 2008 Beherrsch bare Systeme dank Informatik 2008 841 846 Lecture Notes in Informatics LNI 134 Gesellschaft f r Informatik M nchen Deutschland September 2008 DANCIU V HOMMEL W LINDINGER L GENTSCHEN FELDE N Adaptive defense measures against the security hazards induced by systems virtualization In Pro ceedings of the 2008 Workshop of HP Software University Association HP SUA Infonomics Consulting Hewlett Packard Marrakech Morocco Juni 2008 DIEHN M REISER H SCHMIDT B STORZ M Effiziente und effektive Spam Abwehr PIK Praxis der Informationsverarbeitung und Kommunikation 31 3 K G Saur Verlag M nchen Oktober 2008 HAMM M K MARCU P YAMPOLSKIY M Beyond Hierarchy Towards a Service Model supporting new Sourcing Strategies for IT Services In Proceedings of the 2008 Workshop of HP Software University Association HP SUA Infonomics Consulting Hewlett Packard Marrakech Morocco Juni 2008 264 ISSN 0930 5157 ISBN 978 3 88579 224 6 ISBN 978 3 88579 224 6 ISBN 978 1 4244 2191 6 ISBN 09305157 ISSN 1617 5468 ISSN 1617 5468
117. s 11 100 Mbit s D ammm 64 128 Kbit s Eeer hat d A EES C gt Glasfaser Glasfaser Glasfaser peL Eh Stand 31 12 2008 Kantor Abbildung 1 Das M nchner Wissenschaftsnetz Teil 1 Fortsetzung rechts in Abbildung 2 21 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I M nchner Wissenschaftsnetz Teil 2 SWH SWH SWH LMU SWH LMU TUM HFF LMU MPG SWH Stettenkas CVJM IBZ Edmund Helene Mayer Deutsches Frankenthaler Leopoldstr 13 F hringer Ring Freimann Schwere Reiter Theo Prosel Amalienstr 38 Rumplerstr 9 Ring Museum Str Str 35 Weg BS 4 N x E D S D H D SWH LMU TUM TUM SWH Q am sw e Paul Hindemith Leopoldstr 139 Winzerersti Connollystr Georgen a Allee Str 14 anger TUM Schwabinger Krankenhaus LMU Amalienstr 17 TUM Baumbachstr un E MPG Amalienstr 33 KUMI ABK Salvatorstr Akademiestr SWH Kaulbachstr 49 SWH E Hedwig Dransfeld Allee LMU Martiusstr TUM Ini tum Ingolstadt SWH u Tee Geschwister Scholl LMU tt oae O Steinickeweg 7 Seestr 13 9 000 gl Ge Te e ee SWH SWH K Ke We Arme Schul Albertus N Se we Schwestern Magnus Haus K E ee Unterer Anger 2 Pasing SWH Arme Schul Schwestern Unterer Anger 17 LMU IFO Se Se ze LMU e K Prinzregenten Poschingerstr 5 non str 7 TUM IWB SS e Augsburg H Se S Netz PR Pr F b i d d d str LFSTAD 2 so f f fd N N zw Museen Neuhauser
118. schul bergreifende Nutzung von IT Diensten die ber die DFN AAI angeboten werden diese wer den derzeit insbesondere in den Bereichen der elektronischen Bibliotheksdienste der Softwarevertei lung und des E Learnings aufgebaut Weitere Dienste f r Endbenutzer Datenbankserver Server f r den Zugriff auf Datenbanken unter Oracle und MySQL bei denen die Datenbank zentral auf dem Server gehalten wird insbesondere auch zum Zugriff ber das WWW Softwareverteilung F r Solaris Digital Unix und Ultrix Systeme wird System und Applikationssoftware im Netz campusweit verteilt Dies geschieht zum Teil h ndisch ber CDs aber auch ber Netzdienste f r die Server bereitgestellt werden Printserver Ansteuerung von Druckern Plottern und hnlichen Ausgabeger ten einschlie lich der Verwaltung der Auftragswarteschlangen vor diesen Ausgabeger ten Die Printserver gestatten es dass auf ein gegebenes Ger t von unterschiedlichen Systemen PC Netzen Hochleistungsrechnern etc auf glei che Weise zugegriffen und die Ausgabe abgerechnet werden kann List Server Erm glicht das Senden von E Mail an vorgefertigte Listen von Personen am LRZ ber Majordomo Lizenzserver Mehrere unabh ngige verteilte Systeme zur Z hlung des aktuellen Gebrauchs von Softwarelizenzen im Netz floating licence Der Lizenzserver ben tigt mehrere physische und logische Server ei nerseits weil verschiedene Softwareprodukte unterschiedliche Lizenzser
119. sind trotz ihrer Einfachheit erstaunlich wirksam folgende Indikatoren eignen sich erfahrungsgem sehr gut um kompromittierte Rechner zu entdecken Auf dem Rechner l uft ein FTP Server der auf einem Nicht Standard Port arbeitet d h nicht auf dem allgemein blichen Port 21 Dieser Indikator ist derart treffsicher dass das LRZ dazu bergegangen ist alle auf diese Art auff llig gewordenen Rechner automatisch am Internet bergang zu sperren die zust ndigen Netzverantwort lichen werden selbstverst ndlich ebenso automatisch sofort davon verst ndigt Bei den restlichen Indikatoren werden Benachrichtigungs Mails vorformuliert ein Mitglied des Ab use Response Teams entscheidet jedoch jeweils ob die E Mail auch abgeschickt und der Rechner evtl zus tzlich gesperrt werden soll Der MWN Rechner ffnet innerhalb kurzer Zeit viele Mail Verbindungen zu anderen Rechnern im Internet Diese MWN Rechner sind fast immer kompromittiert wobei der Rechner zum Versenden von Spam oder Phishing Mails missbraucht wird Der MWN Rechner ffnet innerhalb kurzer Zeit extrem viele Verbindungen zu anderen Rechnern im Internet Durch zus tzliche Indikatoren kann man erkennen ob es sich wahrscheinlich um einen mas siven Port Scan oder um einen Denial of Service Angriff DoS handelt Der Rechner f llt durch einen au ergew hnlich hohen Datenverkehr auf Es handelt sich dabei berwiegend um Rechner die f r die Verteilung urheberrechtlich ges
120. und Backupsystems zu n dern Dies gilt insbesondere dann wenn eine nderung aufgrund zwingender gesetzlicher Vorschriften erforderlich wird nderungen dieser Vertragsbedingungen werden dem Nutzer in elektronischer Form per E Mail bekannt gegeben Sie gelten als genehmigt wenn der Nutzer nicht schriftlich bzw per E Mail Widerspruch erhebt Der Nutzer muss diesen Widerspruch innerhalb eines Monats nach Bekanntgabe der nderung an das LRZ absenden Das Leibniz Rechenzentrum beh lt sich weiterhin das Recht vor bei einem Versto gegen die hier aufge f hrten Grunds tze geeignete Ma nahmen einzuleiten Dies kann bis zum Ausschluss des Nutzers von den Backup und Archivierungsdiensten des Leibniz Rechenzentrums f hren Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 289 Anhang 7 Geb hren des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften Hinweis Aufgrund der nderung der Satzung der Kommission f r Informatik vom 14 12 2007 werden hieraus ab geleitete Regelungen wie Benutzerrichtlinien Betriebsregeln und Geb hrenordnung zeitnah berarbeitet Unter Bezug auf die Benutzungsrichtlinien des Leibniz Rechenzentrums werden folgende Geb hren festgelegt Definition der Aufgabengruppen siehe umseitig 1 Benutzerkennungen f r Internet Dienste Bei den Aufgabengruppen 3 4 und 5 wird pro Benutzerkennung f r W hlzugang und Internet Dienste auf einem LRZ System eine Pauschalgeb hr erhoben Aufgabengruppe 3
121. und RRZN Hannover das Zentrum f r Informationsdienste und Hochleistungsrechnen Dresden ZIH das Regiona le Rechenzentrum Erlangen RRZE das Goethe Zentrum f r Wissenschaftliches Hochleistungsrechnen G CSC Frankfurt das Rechenzentrum Garching der Max Planck Gesellschaft RZG das Deutsches Klimarechenzentrum DKRZ Hamburg das Steinbuch Centre for Computing Karlsruhe SCC der Deutsche Wetterdienst Darmstadt DWD und das Paderborn Center for Parallel Computing PC2 Der Vorsitzende des ersten Vorstandes der Gauss Allianz die als e V gegr ndet wurde ist Professor Wolfgang Nagel TU Dresden die weiteren Vorstandmitglieder sind Professor Heinz Gerd Hegering LRZ und Professor Christian Bischof RWTH Aachen 6 5 3 PRACE Partnership for Advanced Computing in Europe Ziel der von der EU gef rderten PRACE Initiative ist die Schaffung einer weltweit konkurrenzf higen HPC Infrastruktur in Europa in den n chsten Jahren Durch den Aufbau von 3 bis 5 Petaflop Zentren in Europa soll erreicht werden mit der US Infrastruktur oder den japanischen Petaflop Projekten konkur renzf hig zu werden Dabei wird die bereits in Deutschland etablierte Versorgungspyramide nach oben hin fortgesetzt Tier 0 PRACE centers UCAF National regional centers Grid collaboration Tier 2 Localcenters Abbildung 58 PRACE Versorgungspyramide Die Partner innerhalb von PRACE sind im Folgenden aufgef hrt Sogenannte Principal Partners PP
122. und die Vergabe von Rechnerressourcen Der Lenkungsausschuss kann Aufgaben auch an Nicht Mitglieder oder das LRZ delegieren 2 Mitglieder Der Lenkungsausschuss besteht aus Vertretern des Bayerischen Staatsministeriums f r Wissenschaft Forschung und Kunst der DFG und bayerischen Wissenschaftlern Er hat zw lf Mitglieder e einen Vertreter des Bayerischen Staatsministeriums f r Wissenschaft Forschung und Kunst wird von diesem benannt e den st ndigen Sekret r der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften kraft Amt e den Vorsitzenden des Direktoriums des LRZ kraft Amt e den Sprecher des KONWIHR kraft Amt e den Vertreter der nicht M nchener Hochschulen in der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften kraft Amt e einen Vertreter bayerischer Wissenschaftler von der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften benannt e sechs Vertreter au erbayerischer Wissenschaftler von der DFG benannt Die letztgenannten acht Wissenschaftler sollen Repr sentanten der wichtigsten Anwendungsgebiete des HLRB sein Die Mitglieder des Lenkungsausschusses werden f r 2 Jahre benannt eine neuerliche Benennung ist m glich 3 Verfahren Der Lenkungsausschuss trifft sich mindestens einmal j hrlich Er ist beschlussf hig wenn mehr als die H lfte seiner Mitglieder anwesend sind Beschl sse bed rfen der Mehrheit der anwesenden Mitglieder Das Stimm
123. und z B Kontakte f r Exchange sowie lokale User oder Funktionskennungen eingetragen werden Ebenso ist es m glich weitere Unterstrukturen im jeweiligen Teilast einzurichten Damit es nicht zu Namenskonflikten kommt wurde ein verbindliches Namenskon zept f r Computer Gruppen Ressourcen entwickelt Zur Erf llung ihrer Aufgaben wird den Teil Adminstratoren ein Set an Werkzeugen ber 2 Terminalserver zur Verf gung gestellt je einer f r RDP Remote Desktop Protocol f r Windows Server 2003 und 2008 Die Einrichtung dieser Struktur wurde in 2008 f r die TU M nchen umgesetzt und es wurden verantwortliche Teil Administratoren von den Fakul t ten benannt Die Benutzerdaten und zentrale Gruppen werden auf oberster Ebene eingetragen und provisioniert aus den Verwaltungsdaten der angeschlossenen Kunden sofern ein automatisierter Datenaustausch mit dem LRZ eingerichtet ist Derzeit ist dies schon f r die TUM im Rahmen von IntegraTUM umgesetzt Leider stehen Web basierte Self und Teil Admin Werkeuge wie auch zentrale Gruppenverwaltungen immer noch nicht geeignet zur Verf gung Hier fehlt es an Kapazit ten in der Software Entwicklung Um dieses Defizit auszugleichen wurden kommerzielle Werkzeuge zur rollenbasierten Administration eines Active Directory getestet Der SW Markt bietet daf r sehr gute L sungen deren Kosten Nutzen Verh ltnis jedoch zu ung nstig wird wenn man bei ca 100 000 Nutzern ein User basiertes Lizenzmodell bezahlen so
124. weiteren Sinn Die eingetragenen Werkzeuge wurden zudem grob klassifiziert um m gliche Konsolidierungsbereiche erkennbar zu machen Es ist geplant in diesen Bereichen die tats ch lichen Anwendungsf lle der einzelnen Tools n her zu untersuchen Auch wer am LRZ welche in ARS Remedy realisierte Funktionalit t Ticket Typen nutzt soll in Hinblick auf eine eventuelle sp tere Mig ration auf eine neue ITSM Suite untersucht werden Aus und Fortbildung im Bereich IT Service Management Auch 2008 wurden f r Studenten der LMU und der TU M nchen in Zusammenarbeit mit dem Lehrstuhl Prof Hegering Prof Kranzlm ller zwei Seminare zum Thema prozessorientiertes IT Service Manage ment angeboten 224 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Speziell f r LRZ Mitarbeiter fanden in 2008 drei weitere Schulungen zu Grundlagen von ISO IEC 20000 statt Insgesamt haben sich so mittlerweile ber 75 LRZ Mitarbeiter mit dem erfolgreichen Absolvieren einer durch die T V S D Akademie durchgef hrten Pr fung f r das Foundation Certificate in IT Servi ce Management according to ISO IEC 20000 qualifiziert Auch an einer der Pilotschulungen der n chst h heren Ausbildungsstufe dem Professional Level im neuen Zertifizierungs und Lehrgangskonzept f r IT Service Management nach ISO IEC 20000 waren LRZ Mitarbeiter sowohl als Teilnehmer wie auch als Dozenten beteiligt 7 4 Sicherheit 7 4 1 NAT o MAT
125. werden auch sog Proxys gez hlt die wiederum eine Weiterverteilung der Daten an ihre PC Clientsysteme erm glichen Die tat s chliche Zahl von Clients wird auf ca 25000 gesch tzt weiterf hrende Serviceinformationen siehe http www Irz de services security antivirus Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 125 ee ee ee ee ee Aue ee ee ee ee esse ee ee 120 000 110 000 100 000 DEES TT TS SW DRETT e 2 m Al EE o i e eel Besucher hi ZZ EZ ZZ ZEN ZN 2 ZZ 2 2 2 ZZ ZT ZZ ZZ ZZ ZZ ZZ 2 27 ES 2 2 2 2 2 2 2 ZZ 2 ZT 2 SZ 2 2 SS I 2 2 2 Zr 2 2 2 2 2 2 2 2 2 22 Te EEE EEE ET TITTEN TI TIEFE TTT D E E E EE 0 Fi oi 01 01 2008 01 03 2008 01 05 2008 01 07 2008 01 09 2008 01 11 2008 01 01 2009 Datum Abbildung 38 Anfragen an den Sophos Antivirenservice im Jahre 2008 5 8 1 2 Windows Software Update Service Als weiterer Basisservice f r das automatische Update von Windows Betriebssystemen Internet Explorer und Media Player wird der Windows Software Update Service WSUS als MWN weiter Dienst ange boten Der Service ist seit l ngerem mit guten Erfahrungen innerhalb des LRZ in Benutzung und kann auch von allen Endkunden im MWN ber das LRZ benutzt werden Die hohe Akzeptanz des Service im M nchner Wissenschaftsnetz verdeutlicht Abbildung 39 der Server anfragen in 2008 weiterf hrende Serviceinformationen siehe http www Irz de services security mwnsus 9 000
126. worden war Deshalb mussten beispielsweise f r die aus ganz Deutschland stammenden Benut zer des H chstleistungsrechners SR8000 Sonderl sungen gefunden werden Die im Rahmen der bisherigen Benutzerverwaltung vergebenen Kennungen sind nicht personalisiert d h o sie werden im Laufe der Zeit von verschiedenen Personen genutzt es ist dem LRZ gr tenteils unbekannt ob und von wem eine Kennung gerade benutzt wird und o es kann durch das LRZ nicht vollst ndig gew hrleistet werden dass nur dazu berechtigte Personen eine LRZ Kennung besitzen Da die bisherige ZBVW zudem noch in Fortran implementiert und aufgrund der nachtr glichen Erweite rungen mittlerweile nur noch schwer wartbar war musste sie durch eine moderne Identity amp Access Ma nagement L sung abgel st werden 5 4 2 1 Projektziele F r das Projekt LRZ SIM wurden folgende Ziele angestrebt Die neue ZBVW soll so weit wie m glich mit Standardkomponenten arbeiten d h o m glichst wenig soll selbst programmiert werden um den Wartungsaufwand zu reduzie ren und o es sollen standardisierte und weit verbreitete Schnittstellen Protokolle wie LDAP oder SQL angeboten und auch intern verwendet werden Es sollen die technischen Voraussetzungen geschaffen werden um zur Erfassung und Pflege von Daten auf externe Datenquellen wie beispielsweise die hochschulweiten Verzeichnisdienste der beiden M nchner Universit ten IntegraTUM und CampusLMU zur ckgreifen zu k nnen
127. wurde im Herbst 2008 von der Firma HP aufgekauft und wird weiter unter HP Pro Curve vermarktet 7 5 8 Auswahl Switches Layer 2 Switches werden im M nchener Wissenschaftsnetz MWN zur Verbindung von Datenendge r ten mit Layer 3 Switches Router innerhalb von Geb udenetzen verwendet Seit Ende 2000 setzt das LRZ dazu Switches der Firma Hewlett Packard HP ein zu Anfang Ger te der Typen ProCurve 4000 und ProCurve 4100 seit ca 2 Jahren auch Ger te der Typen ProCurve 4200 und ProCurve 5400 Mittler weile sind von diesen Switches ca 600 St ck im Einsatz Da seit der letzten Switchauswahl ber drei Jahre vergangen waren wurde es notwendig den Markt neu zu analysieren und festzustellen ob die da mals getroffene Auswahl auch heute noch zutreffend ist Deshalb wurde im Herbst 2008 die Marktsituati on n her untersucht und eine daraus resultierende Auswahl von Switches getroffen Die Grundanforderungen an die Switches waren e Modularer Aufbau stapelbare stackable Switches wurden nicht ber cksichtigt e Unterst tzung von virtuellen LANs VLANs nach dem IEEE Standard 802 1q e SNMP Management Jahresbericht 2008 des Leibniz Rechenzentrums Teil H 249 e RMON Funktionen e Multicast Filterung e Class of Service Funktionen e Management Software mehrbenutzerf hig Neben diesen Standardfunktionalit ten sollten die Switches folgende Funktionen unterst tzen die in den letzten Jahren neu hinzugekommen sind und die entweder jetz
128. zur Administration eines am LRZ gehosteten Webservers ver wenden und daf r eine verantwortliche Person benennen Voraussetzung f r die Weitergabe von Kennungen ist dass sich die Personen die die Kennungen erhal ten durch Unterschrift unter das Formular Erkl rung des Endbenutzers zur Einhaltung der Benutzungs richtlinien und der Betriebsregeln des LRZ verpflichten Das Formular kann von www Irz de wir kennung geladen werden es verbleibt beim Master User der es bei einer etwaigen Verfolgung von Missbrauch dem LRZ vorweist Pers nliche Kennungen k nnen beim Wechsel zu einer anderen Einrichtung innerhalb des M nchner Wissenschaftsnetzes mitgenommen werden sie d rfen nicht an Dritte weitergegeben werden Kennungen sind durch ein sicheres Passwort gegen unbefugte Nutzung zu sch tzen siehe Abschnitt 4 4 Der Master User der die Verantwortung f r den ordnungsgem en Gebrauch der ihm zugeteilten Benut zerkennungen bernommen hat kann die Benutzung der Dienste durch die Benutzer seines Bereichs kontrollieren einschr nken und im Missbrauchsfall unterbinden Zu diesem Zweck stehen ihm gewisse Dienste zur Verf gung die in Abschnitt 4 6 n her beschrieben sind 4 2 Vergabe von Kennungen an Studenten Studenten der Ludwig Maximilians Universit t und der Technischen Universit t erhalten bei der Immat rikulation eine Kennung die e eine Mailbox bzw eine E Mail Adresse beinhaltet e ein Login am jeweiligen Web Portal Ca
129. 000 Benchmarks als optimal im Preis Leistungsverh ltnis und stehen im Rahmen der Tier 2 Servi ces dem LHC Grid zur Verf gung F r den Einsatz im Floating Point intensiven Hochleistungsrechnen w ren diese Systeme nicht geeignet dies d rfte sich mit der Verf gbarkeit neuerer Technologien von Intel Nehalem CPU mit QuickPath Interconnect Ende 2008 ndern Die Abnahme der og Rechensysteme die wie blich aus der Kombination von Leistungs und Zuverl s sigkeitspr fung bestand verlief mit Ausnahme der 8 Sockel Systeme erfolgreich f r letztere wurden die von der Lieferfirma gemachten Benchmark Zusagen nicht erreicht F r diese Systeme muss in einem Verhandlungsverfahren das derzeit kurz vor dem Abschluss steht eine Nachbesserung durchgef hrt wer den 6 1 2 4 Speichersysteme F r die Datenspeicherung von gro en bzw nur vor bergehend ben tigten Datens tzen musste das paral lele Dateisystem Lustre erweitert werden das bisher bestehende etwa 50 TByte gro e Dateisystem wur de durch ein zweites 130 TByte gro es Dateisystem erg nzt Um auch eine deutlich h here aggregierte Bandbreite von mehr als 6 GigaByte s zu erzielen wurde auch die Server Hardware inklusive Hochver f gbarkeit durch doppelte Auslegung ausgebaut Nach der Installation und Inbetriebnahme stellte sich heraus dass unter der deutlich gr eren Last sowohl in der Lustre Software als auch in der Hardware Netzwerk Infrastruktur Metadatenserver Software und Sk
130. 007 11 4 TB Nov 2006 6 2 TB Nov 2005 3 2 TB und 3 8 TB ausgehender Verkehr Nov 2007 3 1 TB Nov 2006 1 7 TB Nov 2005 0 7 TB In Spitzenzeiten sind bis zu 2100 Nutzer gleichzeitig angemeldet t glich werden bis zu 21 000 Verbindungen aufgebaut siehe auch Abbil dung 88 m Ausgehend in GB Abbildung 88 Datenverkehr der VPN Server im Jahr 2008 Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 207 Die Aufteilung nach Clients die die VPN Server nutzen zeigt Abbildung 89 E iPhone OS E Linux E Mac OS X E Windows Abbildung 89 Aufteilung der VPN Cliens nach den verschiedenen Betriebssystemen Dezember 2008 7 2 3 DFNRoaming und Eduroam Das LRZ nimmt seit Anfang 2005 am DFN Roaming Dienst des DFN Deutsches Forschungsnetz Ver eins teil Damit ist es den Wissenschaftlern m glich mittels einer vorhandenen Kennung ihrer Heimat Hochschule einen einfachen Zugang ins Internet zu erhalten wenn sie sich im Bereich des MWN aufhal ten Als Zugangspunkte dienen die vorhandenen WLAN Accesspoints an ausgesuchten Standorten Im Jahr 2008 bot das LRZ zwei Methoden des Zugangs an e VPN WEB e 802 1x und eduroam VPN WEB Bei dieser Methode wird man nach Aufruf eines Webbrowsers auf eine Authentifizierungs Seite geleitet Hier gibt man seine Kennung und Passwort an und der Zugang wird f r das weitere Arbeiten freigegeben Der Vorteil dieses Verfahrens liegt in der einfachen Authentifizierung ohne eine spezielle Client
131. 008 GI Jahrestagung_2008 ESVOT Tagung_2008 Neutronen 2008 Test Neutronen 2008 Movic2008 Nanomechanics_Workshop 2008 Ion Spezifitaet 2008 HPARSO8 EDOC 2008 ATLAS D_Physik_Workshop_2008 Test ATLAS D_Physik_Workshop_2008 ATLAS D_Physik_Workshop_2008 Gruppenleiter Treffen CPW_Sept2008 Pr sentation Horus Net FernUni EL1 Technik Kongress 2008 Experience Marketing 2008 Bay_Waldbesitzertag 2008 dark energy 2008 BFN Forum 2008 CoTeSys_Okt2008 BCCN_Symposium 2008 Test ASC Sommerschule 2008 2nd NuGO PPS Progress Meeting W hlervereinigung 2008 BCCN_Symposium 2008 M nchener Kolloquium 2008 Institut f r Werkzeugmaschinen und Betriebs wissenschaften 50 Years After the M ssbauer Effect FernUni EL2 210 09 04 2008 10 04 2008 10 04 2008 11 04 2008 10 04 2008 11 04 2008 10 04 2008 12 04 2008 11 04 2008 11 04 2008 14 04 2008 14 04 2008 15 04 2008 17 04 2008 16 04 2008 16 04 2008 16 04 2008 16 04 2008 17 04 2008 18 04 2008 18 04 2008 18 04 2008 23 04 2008 24 04 2008 23 04 2008 23 04 2008 24 04 2008 25 04 2008 05 05 2008 07 05 2008 05 05 2008 09 05 2008 07 05 2008 07 05 2008 08 05 2008 08 05 2008 15 05 2008 15 05 2008 27 05 2008 28 05 2008 27 05 2008 29 05 2008 27 05 2008 28 05 2008 30 05 2008 30 05 2008 07 06 2008 07 06 2008 10 06 2008 10 06 2008 13 06 2008 16 06 2008 16 06 2008 31 08 2008 16 06 2008 18 06 2008 19 06 2008 19 06 2008 19 06 2008 21 06 2008 19 06 2008 19 06 2008 19 06 2008 19 06 200
132. 03592 640 1959 297 252 10 0 ZEN IND 749748 1424795 16597 3080 230 87 1213001 Sr 1504436 483808 228362 34119 4961 3082 oj O OO HI Wir WI ooo olol olal 0 O0 OO OT OT OT OT OL OT OL FH Ww w O DO OO WISI SJ olnu lolol oloje U TI Nn olol lololol OST OO ehl olol AE Tabelle 27 Linux Cluster Nutzung nach institutioneller Zugeh rigkeit der Antragsteller 6 1 3 Remote Visualisierungsserver 6 1 3 1 Technik Computergest tzte Visualisierungstechniken sind heute aus der Wissenschaft nicht mehr wegzudenken und mit zunehmender Leistungsf higkeit der Rechner steigen auch Gr e und Komplexit t der Datens t ze sowie die Anspr che der Forscher schnell und zuverl ssig zu aussagekr ftigen Ergebnissen zu kom Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 149 men Idealerweise m chten Wissenschaftler ihre Daten an ihrem eigenen Schreibtisch auswerten Eine solche lokale Auswertung am eigenen PC ist aber schwierig bis unm glich wenn die Datens tze sehr gro sind mehrere Gigabyte teure Spezialsoftware ben tigt wird oder nur parallele Verarbeitung es erm glicht fl ssig zu arbeiten Remote Visualisierung bedeutet dass der Anwender seinen PC ber das Internet von berallher mit dem Visualisierungsserver am LRZ verbinden kann und somit auf einfache Weise Zugang zu einem Hochleis tungsrechner hat der speziell auf Visualisierungsan
133. 08 der Anteil an Viren Mails noch weiter gefallen in der Graphik kann man ihn schon nicht mehr erkennen Die Werte liegen bei ca 130 erkannten Viren pro Tag 5 5 4 1 3 Backscatter Eine Reihe von Mitarbeitern der LMU und TUM fanden als sie aus den Weihnachtsferien 2007 an ihren Arbeitsplatz zur ckkehrten ihre Mailboxen mit tausenden von Fehlermeldungen verstopft vor Ein Spammer hatte ihre Mailadressen als Absender f r seine Spam Mails missbraucht und nun gingen alle Fehlermeldungen an diese unschuldigen Empf nger Kurze Zeit nachdem wir alarmiert wurden waren wir in der Lage diesem Spuk ein Ende zu machen und mit inhaltsbasierten Filtern einen Gro teil dieser Fehlermeldungen aus dem Mailstrom zu ziehen bevor sie in die Mailboxen der Nutzer gelangten E Mails in denen kein Bezug auf die urspr ngliche Spam Mail mehr enthalten war wie z B Abwesen heitsmeldungen konnten leider nicht ausgefiltert werden Bis Ende April wurden immer wieder andere Adressen aus dem Bereich des M nchner Wissenschaftsnet zes als Absender verwendet bevor der Spammer dann auf andere Domains umschwenkte In dieser Zeit wurden pro Monat ca 100 000 Fehlermeldungen ausgefiltert Dies erforderte jedoch eine konstante Ak tualisierung der Filter da der Spammer immer wieder seine Texte ver nderte 5 5 4 1 4 Vorschussbetrug durch die Nigeria Connection Bei der Vorschussbetrugs Masche siehe de wikipedia org wiki Scam verwendet ein Teil der kriminellen Banden de
134. 1 232 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Die bisher prototypenhafte Web Schnittstelle des CNM wurde ebenfalls erweitert und f r den Spezialfall einer LHC Wetterkarte eingesetzt Diese Wetter Karte erlaubt den Web Zugriff auf Status und Kenn zahlen der LHC Infrastruktur Tier 0 zu Tier 1 Verbindungen Die Wetterkarte benutzt eine andere Technologie Implementierung und Schnittstelle als der bisherige Java Client Es handelt sich hier um eine HTML CSS Java Script basierte Implementierung sie kann ber den Web Browser angesprochen werden Die Entwicklung basiert auf einem zwei Jahre alten Prototyp der ausschlie lich die Visualisierung von hierarchischen Karten des CNM ohne jegliche Darstellung von aktuellen oder historischen Kennzahlen oder statistischen Graphen unterst tzte Die LHC Wetterkarte ist ein Dienstzugriffspunkt f r die Operateure des LHC OPNs Diese k nnen ein Paar von zwei LHC Standorten TO T1 oder T1 T1 ausw hlen Damit werden die zugeh rigen 24 Stunden Statistikgraphen von Layer 3 Interface Utilization Interface Input Errors Layer 3 Output Drops HADES One Way Delay und One Way Packet Loss sowie der E2E Link Status f r das ausgew hlte Standortpaar angezeigt Abbildung 112 zeigt die LHC OPN bersichtskarte auf der die unterschiedlichen Paare von LHC Standorten ausgew hlt werden k nnen F r das CNM f r X WIN wurde die Anpassung an ein ver ndertes GIS2 Geo Informati
135. 2 6 4 GByte s 204 8 Gbyte s 2 cables per line _ Ir eo N gt Ss PP KEE IL D Be ech EE Seele CS Ge REITER o SORTIEN CR Ke ES e eo SE Pi 8 u CSNL AZ KW S gt lt JRNL AAT li iz i E 4 KEE EE D E E E E E E Ee e ep weg o a D EE Cep ES HESS a Bat a s f 2 5 999 9 ZE p j YW med 194905 18d sage 80 2 s 9 q9 EPO IN fk 47 32 6 4 GByte s 204 8 Gbyte s Abbildung 7 NUMALink Verbindung innerhalb einer Partition 28 Teil I Das Dienstleistungsangebot des LRZ Zu un I zz e E E E e Se Jedes graue K stchen Bisektionsbandbreite pro Blade Paar Partition mit 512 Cores eine Intra Partition 2 0 8 GB s Betriebssystem Instanz Beliebiges vertikales Partitionspaar 2 0 4 GB s L Login B Batch PBS 4Bandwidth Partitionen 2 0 2 GB s Jede blaue Linie stellt dar falls nur 32 Kabel verwendet werden k rzeste 2NUMAlink4 Planes mit Pfade Mehrere Hops f r ung nstige jeweils 16 Kabeln Verbindungreduzieren auch die Bandbreite Bandbreite Kabel 2 3 2GB s Gesamtsystem 2 0 1 GB s High Density Partitionen teilen sich die Kabel einer Linie Faktor 2 meint pro Richtung Abbildung 8 Inter Partition NUMALink Verbindung 2 3 1 2 Das Linux Cluster 2 3 1 2 1 Zeitliche Entwicklung und berblick Der Ende der 1990er Jahre einsetzenden Ver nderung der HPC Hardware Landschaft n mlich weg von propriet
136. 2008 22 02 2008 25 02 2008 29 02 2008 26 02 2008 28 02 2008 27 02 2008 28 02 2008 28 02 2008 02 03 2008 28 02 2008 02 03 2008 29 02 2008 29 02 2008 29 02 2008 29 02 2008 29 02 2008 29 02 2008 03 03 2008 05 03 2008 04 03 2008 07 03 2008 06 03 2008 06 03 2008 07 03 2008 07 03 2008 10 03 2008 14 03 2008 10 03 2008 14 03 2008 10 03 2008 13 03 2008 11 03 2008 12 03 2008 11 03 2008 11 03 2008 11 03 2008 12 03 2008 11 03 2008 14 03 2008 13 03 2008 13 03 2008 13 03 2008 14 03 2008 17 03 2008 18 03 2008 24 03 2008 29 03 2008 26 03 2008 26 03 2008 30 03 2008 01 04 2008 31 03 2008 31 03 2008 01 04 2008 02 04 2008 02 04 2008 04 04 2008 02 04 2008 02 04 2008 04 04 2008 05 04 2008 05 04 2008 05 04 2008 09 04 2008 10 04 2008 Medientreff 2008 Lehrveranstaltung Einf hrung in die Biochemie Pro7 Pr sentation Matlab Integrative Cancer Genomics 2008 COMPASS Hadron Trigger Workshop BestBrands College 2008 MKF 2008 Wertekongress 2008 SE2008 LifeStat 2008 Test THESIS Workshop 2008 Geoinformationssysteme 2008 SAMPE 2008 fzs 2008 Strafverteidigertag SFB TR 28 Kognitive Automobile First InterLink Workshop SFB TR 28 MMK 2008 Planed_Stress 2008 WGP 2008 30 Symposiums der Deutschen Arbeitsgemeinschaft Musterer kennung DAGM GVC Jahrestreffen 2008 1 GUUG 2008 LifeStat 2008 FOR855 2008 LifeStat2008 Ludwig33 InfoVerm2008 SENSORIA Treffen 2008 HPAR4W07 2008 GVC Jahrestreffen 2008 2 PWA Workshop 2008
137. 21 11 2008 17 11 2008 18 11 2008 18 11 2008 19 11 2008 20 11 2008 20 11 2008 20 11 2008 24 11 2008 24 11 2008 28 11 2008 25 11 2008 25 11 2008 25 11 2008 25 11 2008 28 11 2008 28 11 2008 03 12 2008 03 12 2008 04 12 2008 04 12 2008 15 12 2008 15 12 2008 19 12 2008 19 12 2008 IMAPS_2008 EDM 2008 Multicore Programming 2008 Muenchner_Wissenschaftstage_2008 ASC Minikonferenz Systems and Virtualization Management 2008 PRACE Workshop Okt2008 Workshop LRZ Okt2008 Technologieseminar08 GI_Workshop 2008 ITG 2008 Hygienic Design Tage 2008 EMANICS_Workshop 2008 WS_Nano 2008 HGH Verabschiedung ZKI AKVD 2008 Hochschulkontaktmesse_2008_ HOKO SciTUM Workshop 2008 BAPSYCHHagen 2008 Test EWAFID 2008 Test Biofilm V orlesung 2008 Lego League 2008 BAPSYCHHagen 2008 Uni Karlsruhe EWAFID 2008 Projektmeeting 100GET E3 Nov2008 Kinder Uni 2008 GROW 2008 DIP Workshop 2008 Field Theory Nov2008 Intel Data Center Summit meeting cisco Noki 770 test Prospect Meeting JOBcon_Finance_LMU 2008 APO PRACE 19 12 2008 Tabelle 36 Liste der unterst tzten Veranstaltungen im Jahr 2008 F r die Unterst tzung der Konferenzen wurden teilweise schon vorhandene Access Points gegen neuere ausgetauscht um den Bedarf abdecken zu k nnen Dabei wurden Proxim AP600 durch CN320 von Co lubris ersetzt da diese mehrere SSIDs abstrahlen k nnen Damit k nnen Konferenz Teilnehmer auch dann mit Windows XP arbeiten wenn sie keine Administrator Rechte auf Ih
138. 3 Leg zZ 3 Leg zZ zZ LCG EE Universit t Erlangen Universit t Bayreuth Universit t Regensburg Universit t W rzburg Universit t Augsburg Fachhochschule Weihenstephan Large Hadron Collider Computing G Sonstige Hochschulen Hochschulnahe Einrichtungen Sektion Department 13 II Volkswirtschaftliche Fakult t Departme Mathematik Informatik und Statistik Psychologie und P dagogik Physik Biologie Chemie und Pharmazie Medizinische Fakult t Tier rztliche Fakult t Geowissenschaften Medizin Maschinenwesen Elektrotechnik und Informationstechnik Department Chemie Bauingenieur und Vermessungswesen wissenschaftszentrum Weihenstephan f r Mathematik und Informatik Architektur 3930075 26 2 398 020 31606 2 1 369281 24 E EIER 0 zentralbereich Tabelle 26 Linux Cluster Nutzung nach Jobgr e Teen 53732 118170 3718 T 4790 oa 360 0 0 180 0 0 3 Kit 114 0 0 26 020 5 ar ER 7 119800 8 1 164042 11437 11294 43 164 66 5736 197264 H L ojojo ojojre el AN E w 7997406 258 864440 917689 1010576 1906873 859432 671366 AIAL ol S a O wo OIWwIS einu uol ojn 14392 915934 1858460 415341 187026 560976 8530 2304 13
139. 5160 3 GHz Labor als Rechen Cluster f r eine Holobench Cluster guriert Intel Xeon Nvidia Quadro FX5600 Systeme mit Gsync Remote 1 SUN Fire Mit 10 Gbit 128 1 SUN Fire X4600 mit 4 16 128 GB Remote Visualisierung von umfangreichen Datens tzen Visualisie X4600 E vernetztes Nvidia Quadroplex rungssysteme AMD Opte Einheiten mit insgesamt ron System 4 Quadro FX5500 Grafikkarten 2 SUN Fire Mit 10 2 512 2 AMD Quad Core 32 256 GB Remote Visualisierung von umfangreichen Datens tzen X4600 GbitE ver Opteron speziell im Rahmen von D GRID netztes AMD Opte 8 Nvidia Quadro FX5800 240 GPUs 4GB ron System Grafikkarte I OL swnyuaZzuay9og zrugloT s p 8007 FUPLIOGSSIYerf IL 4 Grid Rechner Anz Hersteller Typ Anz Prozes Hauptspeicher Aufgaben sorkerne 4 Sun X4100 und X2200 M2 2 4 4 8GB Grid Managementserver Unicore und Webserver 1 Sun X4100 2 16GB Grid Managementserver Monitoring H Sun X4150 8 16GB Dcache 4 Sun X2200 M2 4 8GB Virtueller Trainingscluster 5 Server Benutzer und Mitarbeiter Arbeitsplatzrechner Anz Hersteller Typ Anz Proz Hauptspeicher Aufgaben ca 350 PCs und andere Desktop Workstations als Arbeitspl tze ca 18 Dell Pentium 4 bis 3 2 GHz H 1 GB Benutzerarbeitspl tze LRZ 4 Dell Pentium IIVIV 0 7 bis 3 2 GHz 1 2 1 4 GB Applikationsserver Windows App von Unix Systemen aus ca 180 Meist Dell
140. 551 Trouble Tickets bearbeitet Diese Zahl spiegelt auch den steigenden Aufwand f r den Support durch die steigenden Benutzerzahlen wider 6 2 2 Entwicklungsumgebungen Im Bereich der Standardisierung paralleler Programmierung hat es im Jahr 2008 einige schon lang erwar tete Neuerungen gegeben Zum Einen wurde ein neuer Standard 3 0 f r das Shared Memory Program miermodell OpenMP verabschiedet durch den insbesondere Funktionalit t zur parallelen Bearbeitung komplexer Datenstrukturen abgedeckt wird in dem aber auch wesentliche Verbesserungen beim hierar chischen Parallelisieren enthalten sind Mit Version 11 der Intel Compiler stand diese Funktionalit t er freulicherweise bald nach Ver ffentlichung des Standards auch den HPC Nutzern am LRZ zur Verf gung Au erdem wurde auch ein Update 2 1 des MPI Standards f r verteilte Parallelit t verabschiedet der je doch haupts chlich Klarstellungen und Bereinigung sowie Vereinheitlichung der bisher getrennt gef hr ten MPII und MPI2 Standard Dokumente beinhaltet Auf den LRZ Systemen stehen nun generell Imple mentierungen gro er Teilmengen auch von MPI2 standardm ig zur Verf gung z B auf der Basis des neuen 5 0 Releases der Parastation Software f r die der Wartungsvertrag um weitere 3 Jahre verl ngert wurde Im Rahmen des PGAS Partitioned Global Address Space Konzeptes wird Parallelit t direkt in die Defi nition von Programmiersprachen integriert mit dem Ziel den Programmierauf
141. 6 Adressen erweiterten Sicherheitstool Nyx haben allein im Dezember 1 800 verschiedene Endsysteme im MWN IPv6 benutzt Da hier aus technischen Gr nden nicht alle Systeme erfasst werden k nnen ist die reale Zahl noch etwas h her anzusetzen Die Planungen f r das Jahr 2009 sehen das Angebot weiterer Dienste ber IPv6 vor Die bereits in den vergangenen Jahren verfolgte Strategie IPv6 zur Normalit t werden zu lassen wird weitergef hrt In enger Zusammenarbeit mit den Herstellern von Netzkomponenten z B Cisco und Partnern in Wirtschaft und Forschung wird die weitere Entwicklung in diesem Umfeld verfolgt und Neuentwicklungen werden schnellstm glich im MWN bereitgestellt 7 3 Management 7 3 1 Weiterentwicklung und Betrieb der Netzdokumentation In 2008 wurde die 2006 begonnene Reorganisation des Quell Codes der Netzdokumentation fortgef hrt Schwerpunkt im Jahr 2008 war eine sauberere Trennung von Logik und Darstellungs Code Die 2007 begonnene Anpassung der Netzdokumentation auf die neue zentrale Benutzerverwaltung LRZ SIM wurde 2008 fertiggestellt Zum einen erfolgt jetzt ein automatischer Import der Einrichtungs Daten aus LRZ SIM in die Netzdokumentation zum anderen basiert die Benutzer Authentifizierung der Netz Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 217 dokumentation jetzt auf den allgemeinen LRZ Kennungen in LRZ SIM und wird ber das LDAP Proto koll durchgef hrt Weiterentwicklung der Netzdokumentation und
142. 6 und Abbildung 87 zeigt der blaue bzw dunklere Bereich den Anteil von Verbindungen mit IEFE 802 11g 54 Mbit s Als Zugangskomponenten werden Access Points des Typs CN320 und CN330 der Firma Colubris einge setzt Im Testbetrieb sind aber auch schon MAP625 die neben den bisherigen Verfahren 11a b g mit 802 11n 300 Mbit s arbeiten Im Laufe des Jahres wurden ca 250 ltere AP600 von Proxim gegen Co lubris Ger te ausgetauscht Folgende Areale waren Ende 2008 mit WLAN versorgt nur zum geringen Teil fl chendeckend Akademie der bildenden K nste Musikhochschule Luisenstr 37a Baverische Akademie der Wissenschaften Pinakotheken Freifl che Nord Baverische Forschunssstiftung Prinzregentenstr 7 Stiftung Arbeitsrecht Infanteriestr 8 Deutsches Museum TUM Barer Str 21 Exzellenzcluster Universe TUM Deutsches Museum HM Dachauer Str 98 TUM Eichenau HM He str Geb ude R TUM Garching Chemieseb ude HM Infanteriestr 14 TUM Garching Maschinenbau HM Karlstr 6 TUM Garching Medizintechnik HM Lothstr 13 Mensa und Bibliothek TUM Garching Mensa HM Loothstr 21 TUM Garchins Phvsikdenartment HM Lothstr 34 TUM Garching Phvsikdenartment II HM Pasing Am Stadtpark 20 TUM Garching Phvsikdenartment E18 Neutronenh tte HM Weihenstephan Geb 172 TUM Garching Umformtechnik und Gie ereiwesen 200 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes FH Weihenstenhan Bibliothek FH Weihenstenhan Bioinforma
143. 600 Grafikkarte und nVidia GSync Karte ausgestattet Letztere bernehmen die Synchronisation der Aktiv Stereo Ausgabe Der Videoswitch erm glicht das problemlose Verschalten der Bildsignale der Knoten auf die Projektions fl chen der Anlage Als Betriebssysteme sind Windows XP 64 und SUSE Linux 64 im Einsatz Die Softwareausstattung besteht aus den VR Versionen von Amira und AVS 2 9 9 3 Mobile stereoskopische Projektionsanlage Die mobile Projektionsanlage erm glicht eine echte 3 D Projektion f r ein gr eres Publikum Unsere Kunden nutzen sie in Seminaren Vorlesungen und Konferenzen Die Anlage besteht aus einer leistungs f higen Grafikworkstation einem Notebook mit professioneller Grafikkarte einer gut 2 mx 3 m gro en Projektionsleinwand kosteng nstigen Polarisationsbrillen und dem Doppelprojektor Gestell Das Gestell mit zwei Christie DS 26 Projektoren und Polarisationsfiltern findet mit Zubeh r im stabilen Transportkoffer Platz Die polarisationserhaltende Leinwand steckt beim Transport aufgerollt in einem robusten Metallgeh use Die Projektoren zeigen die Bilder polarisiert f r das linke und das rechte Auge auf der gemeinsamen Leinwand Die Polarisationsbrillen der Betrachter trennen die Bilder wieder Die gerenderte Szene wird so echt dreidimensional wahrgenommen 52 Teil I Das Dienstleistungsangebot des LRZ Abbildung 15 Mobile stereoskopische Projektionsanlage 2 9 9 4 Head Mounted Display Mit dem Head Mounte
144. 7 8 1 5 330 8 fach 544 5 4 1 1 2 fach 134 0 8 0 8 4 fach 48 0 3 0 1 182 8 fach 16 0 1 0 032 SGI Altix 128 fach SMP 128 0 8 05 182 11 SGI Altix 256 1 6 1 0 182 6 56 fach SMP Abbildung 9 bersicht ber die Hoch und H chstleistungsrechnerlandschaft am LRZ F r die Ausf hrung gr erer paralleler Programme sind hierbei zwei Altix 3700BX2 bzw 4700 Systeme vorgesehen sowie in geringerem Umfang 8 fache Opteron Systeme mit 10 GE Myrinet Verbindung Alle brigen Systeme werden im Wesentlichen f r den seriellen Durchsatzbetrieb benutzt Die nominelle theoretische Leistungsf higkeit des Linux Clusters von 20 TeraFlop s betr gt etwa ein Drittel der Spit zenrechenleistung des Bundesh chstleistungsrechners 2 3 1 2 2 IA 64 Cluster Das Itanium basierte Cluster besteht aus zwei Segmenten Zum Einen 12 mit Myrinet vernetzte 4 fach Knoten zum Anderen 67 mit Gigabit Ethernet vernetzte 2 fach Knoten Auf beiden Segmenten kann in kleinem bis mittleren Umfang parallel gerechnet werden auf den 2 fach Knoten wird auch serieller Durchsatzbetrieb realisiert insbesondere f r Programme mit sehr hohem Hauptspeicherbedarf Technische Daten e 12 Knoten mit jeweils 4 Prozessoren vom Typ Itanium2 Madison mit 1 3 GHz Taktfrequenz 3 MByte L3 Cache 5 2 GigaFlop s Spitzenleistung pro Prozessor und 8 MByte Hauptspeicher e 67 Knoten mit jeweils 2 Prozessoren vom Typ Itanium2 Madison mit 1 6 GHz Taktfrequenz 3 MByte L3 Cache 6 4 GigaFlop s
145. 8 23 06 2008 26 06 2008 23 06 2008 23 06 2008 24 06 2008 24 06 2008 26 06 2008 26 06 2008 26 06 2008 26 06 2008 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes HPC Roundtable 2008 Deutsch Tuerkische Tagung 2008 GFA 2008 Cotesys Apr2008 HPC Roundtable 2008 Nachlese Enterasys POC Hygienic Design 2008 NAC MSD 2008 Bauphysik Kongress 2008 Beckstein 2008 EFSA April2008 MKF Mai2008 Reflect 2008 DZUG 2008 Workshop der DZUG Hochschul gruppe 2008 IKOM Lifescience_2008 MFM 2008 Finanztreff 2008 ForschenInEuropa 2008 FKG 2008 DFG Mai2008 CoTeSys Mai2008 Fundraisingtag_Muenchen 2008 Branchentreff Beratung 2008 SPAA 2008 MISU 2008 EGI Besprechung 2008 Sternwarte MPG Test HET 2008 Gpom Workshop Qualit tssicherung Verkabelung IKOM 2008 Abteilungssitzung KOM ifo Jahresversammlung 2008 Branchentreff Steuern 2008 DFG Begutachtung Juni2008 14 10 2008 15 10 2008 16 10 2008 18 10 2008 16 10 2008 16 10 2008 17 10 2008 21 10 2008 17 10 2008 18 10 2008 21 10 2008 22 10 2008 22 10 2008 24 10 2008 22 10 2008 22 10 2008 23 10 2008 24 10 2008 23 10 2008 24 10 2008 27 10 2008 28 10 2008 28 10 2008 29 10 2008 30 10 2008 30 10 2008 30 10 2008 30 10 2008 31 10 2008 31 10 2008 03 11 2008 04 11 2008 04 11 2008 05 11 2008 05 11 2008 05 11 2008 07 11 2008 07 11 2008 07 11 2008 07 11 2008 11 11 2008 14 11 2008 15 11 2008 15 11 2008 15 11 2008 15 11 2008 17 11 2008 17 11 2008 17 11 2008
146. A Yy 10 j A N FS x uIP d V N j d N K y W yN WIEN VJ KI yJ eg ke 0 W 12 10 2008 18 00 14 10 2008 18 00 16 10 2008 18 00 13 10 2008 18 00 Telekom 358319000 M net 89067928 LMU Querverbindungen TUM Querverbindungen Abbildung 34 Verteilung der Modem ISDN Verbindungen im Wochen berblick ber Radiuszonen k nnen einzelne Institutionen f r ihre Besch ftigten bzw Studierenden die Berechti gung f r den W hl und VPN Zugang am MWN selbst verwalten Zum Jahresende 2008 waren 61 zwei mehr als im Vorjahr Radiuszonen eingerichtet Eine Auflistung der Radiuszonen zeigt Tabelle 16 Zonenbezeichnung Institut aci ch tum binfo tum de bl Imu botanik Imu campus imu de cicum lmu cip agrar tum cip informatik Imu cipmath Imu edv agrar tum eikon elab tum fh augsburg fh weihenstephan de forst tum frm2 tum fsei tum fsmpi tum hm edu ibe Imu ifkw Imu ikom tum imo Imu Lehrstuhl f r Anorganische Chemie TUM Genome oriented Bioinformatics Beschleunigerlabor der TU und der LMU M nchen Botanisches Institut der Universit t M nchen Internet und virtuelle Hochschule LMU Department Chemie LMU Wissenschaftszentrum Weihenstephan TUM Institut f r Informatik der LMU Mathematisches Institut LMU Datenverarbeitungsstelle der TU in Weihenstephan Lehrstuhl f r Datenverarbeitung Elektronikabteilung der Fakult t f r Physik TUM Garching Rechenzentrum der FH Augsburg Fachhochschule Weihenstephan Forstwissensch
147. AN ber die eine aggregierte Leistung von 800 MB s erreicht wird Intern sind die Systeme mit 146 Gigabyte Platten best ckt und ebenfalls ber Fibre Channel verkabelt Die Gesamtkapazit t betr gt 14 Tera Byte Der Plattenplatz der Systeme wird von den AFS Fileservern und einem MySQL Server genutzt e StorageTek Flexline 380 Storageserver Die Storageserver Flx380 der Firma STK haben acht 4 Gbit Fibre Channel Anschl sse ins SAN ber die eine aggregierte Leistung von 1600 MB s erreicht wird Intern sind die Systeme sowohl mit 146 Gigabyte Platten als auch 300 Gigabyte Platten best ckt und ebenfalls ber Fibre Channel verkabelt Die Gesamtkapazit t betr gt 113 TeraByte Der Plattenplatz der Systeme wird ausschlie lich von den TSM Servern genutzt Die 146 Gigabyte Platten werden als Speicher f r die TSM Datenbanken ver wendet die 300 Gigabyte Platten f r die Plattenpools der Server Jahresbericht 2008 des Leibniz Rechenzentrums Teil I HRR Etage HRLBII 128 Port NSR Etage AFS DAR Etage LABS HABS DEE NAS NAS Beer Mirror Mirror SFS LRZ Abbildung 76 SAN Topologie e IBM FAStT900 Storageserver FC 183 Zwei dieser Storageserver mit einer Kapazit t von 32 TeraByte sind an das LABS SAN angebunden Die Systeme werden f r die TSM Datenbanken des LABS und TSM Plattencache f r die am st rk sten belasteten LABS TSM Server verwendet f r die die SATA Sys
148. Abbildung 26 Architekturmodell der neuen LRZ Benutzerverwaltung 5 4 2 4 Aktivit ten 2008 Im Jahr 2008 wurden die folgenden Aktivit ten durchgef hrt e Das neue LRZ Identity Management System wurde im M rz 2008 wie geplant in den Produktivbe trieb berf hrt Neben umfangreichen LRZ internen Vorbereitungsma nahmen wurden auch Schu lungen f r die kundenseitigen Administratoren Master User durchgef hrt um diese mit der Bedie nung des neuen LRZ Id Portals vertraut zu machen Dieses Webportal ist die nach au en am deutlichsten sichtbare Neuerung der LRZ Benutzerverwaltung und erm glicht nicht nur Master Usern alle Aufgaben rund um die Verwaltung der ihnen zugeteilten Kennungen effizient zu erledigen sondern dient auch als Self Service Ober fl che f r alle Benutzer Dabei konnten viele Funktionen im Detail verbessert und benutzerfreundli cher gestaltet werden Auch die LRZ Hotline die LRZ Administratoren und die LRZ Betreuer ar beiten nun prim r ber das zentrale Id Portal zahlreiche Einzelwerkzeuge und nicht mehr zeitgem De Kommandozeilen Tools konnten dadurch abgel st werden Hinter der neuen Oberfl che arbeitet die meta directory basierte Infrastruktur durch die eine Kopp lung mit anderen Datenbest nden beispielsweise der LMU und der TUM m glich ist und die n derungen innerhalb von Sekundenbruchteilen an alle angeschlossenen Systeme weitergibt Viele der fr heren LRZ internen Datenfl sse die mit Verz g
149. Active Direc tory Zurzeit wird die letztere Alternative favorisiert und voraussichtlich zun chst f r die TUM also ber TUMonline und das IntegraTUM Meta Directory realisiert werden 5 5 4 5 3 Weitere Arbeiten im Bereich Exchange Die physische Ausstattung der Exchange Server wurde verbessert unter anderem wurde neue NetApp Filer Hardware 6070 eingerichtet nebst Einrichtung redundanter iSCSI Pfade zum Filer es wurden Storage Groups und Datenbanken f r die einzelnen Fakult ten der TUM definiert und eine transparente Migration der vorhandenen Mailboxen auf die neuen Storage Groups durchgef hrt F r Linux gibt es leider weiterhin keine vorbehaltlos empfehlbaren Clients Es wurden z B die Plug ins Brutus und OpenChange f r Evolution getestet und f r noch untauglich befunden Der Support erfolgt vorerst noch ausschlie lich durch die LRZ Exchange Administratoren soll aber im n chsten Jahr f r TU Angeh rige vom IT Service Desk der TUM bernommen werden Daf r wurde eine umfangreiche Benutzerdokumentation entwickelt und mit dem IT Service Desk durchgesprochen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 119 5 5 4 5 4 Statistik Ende 2008 waren etwa 280 Benutzer auf dem Exchange System aktiv davon etwa 140 aus der Fakult t EI etwa 40 aus der Fakult t MW ferner Benutzer aus den Fakult ten WI PH ZV BV MA Dazu kamen noch 20 Benutzer aus dem LRZ und 7 aus der BAdW berwiegend kommen Outlook und Active Sync Cl
150. Adressen betreffen Im Jahr 2008 nahm die Zahl der Missbrauchsf lle gegen ber dem Vorjahr leicht ab siehe Abbildung 42 Die aber immer noch sehr hohe Zahl der F lle hat nach den Erfahrungen des LRZ folgende Gr nde e Durch die weiter zunehmende Kriminalisierung des Internet werden die Tools der Hacker Viren Bastler und Spammer inzwischen berwiegend von Profis und teilweise hoch qualifizierten Spezia listen entwickelt Dementsprechend nimmt die Qualit t dieser Tools kontinuierlich zu e Die Zahl der elektronischen Sch dlinge Viren W rmer trojanische Pferde usw nimmt best ndig zu inzwischen tauchen an einem Tag oft mehr als 3 000 neue Sch dlinge bzw Varian ten Modifikationen schon existierender Sch dlinge auf Au erdem versuchen die Sch dlinge immer intensiver sich vor einer Entdeckung zu sch tzen Als Folge nimmt die Erkennungsrate der Viren Scanner ab Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 131 Leider ist das Sicherheitsbewu tsein bzw verhalten zu vieler MWN Benutzer nach wie vor unzurei chend Diesem setzt das LRZ diverse sicherheitsrelevante Dienste entgegen siehe 2 8 1 1800 1600 1400 1200 EVomLRZ selbst 1000 entdeckte F lle EGemeldete 800 F lle 600 400 200 0 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 Abbildung 42 Entwicklung der Missbrauchsf lle im MWN seit 1998 Zu den insgesamt 1 323 Abuse F llen
151. Altix 4700 Technische Daten e 128 Prozessoren vom Typ Itanium2 Madison mit 1 6 GHz Taktfrequenz 6 MByte L3 Cache und 6 4 GigaFlop s Spitzenleistung pro Prozessor bzw 128 Dual Core Prozessoren vom Typ Ita num Montecito mit 1 6 GHz Taktfrequenz 9 MByte L3 Cache und 6 4 GigaFlop s Spitzenleis tung pro Core e Spitzenleistung des Gesamtsystems 2457 GigaFlop s e 512 bzw 1024 Gigabyte Hauptspeicher als Distributed Shared Memory Peak Bandbreite zum lokalen Speicher 6 4 bzw 8 5 Gigabyte s e ca 11 bzw 7 TeraByte lokaler Plattenplatz FC RAID Disk Subsystem Peak Bandbreite ca 1 6 Gigabyte s e ca 180 TeraByte gemeinsamer Plattenplatz FC RAID Disk Subsysteme und Lustre als paralleles Dateisystem Bandbreite ca 6 0 Gigabyte s e die Systeme sind in 2 Compute Racks und 1 Disk Rack bzw 4 Compute Racks und 1 Disk Rack aufgestellt Charakteristik und Anwendungsgebiete e Hochleistungsdurchsatzmaschine f r komplexe parallele Anwendungen Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 31 e Verf gbarkeit vieler kommerzieller Pakete aus Strukturmechanik Fluiddynamik und Computa tional Chemistry e Die g ngigen Programmiermodelle shared bzw distributed memory werden in Form von OpenMP bzw MPI einschlie lich der CRAY SHMEM Bibliotheken unterst tzt Versorgungsbereich e Bayerische Hochschulen 2 3 1 3 EM64T Opteron Cluster Anfang 2008 wurden die 32 Bit Knoten des Linux Clusters durch die Neuanschaffung
152. B Rechner Software Daten und Speicher aber auch wissenschaftliche Instru mente oder Gro ger te z B Beschleunigerring am CERN astronomische Teleskope u Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 333 Das Grid Computing wird seit September 2005 im D Grid Projekt vom Bundesministerium f r Bildung und Forschung gef rdert Die F rderung des BMBF verteilt sich auf wissenschaftliche Verbundprojekte die Grids nutzen die so genannten Community Projekte CPs und ein Verbundprojekt von Partnern die Grid Infrastrukturen entwickeln und betreiben und diese den Community Projekten zur Verf gung stel len Das letztgenannte Projekt wird als D Grid Integrationsprojekt DGI I bezeichnet Das DGI I hat eine Kern Grid Infrastruktur geschaffen auf der die existierenden Community Projekte basieren Ziel war der Aufbau einer nachhaltigen Grid Basisinfrastruktur die den Anforderungen der Communities gerecht wird Nachdem das Projekt 2007 endete wurde Mitte des Jahres 2007 ein Nachfolgeprojekt DGI I beant ragt und bewilligt Das DGI II Projekt startete zum 1 1 2008 Das LRZ wird mit knapp 3 Mitarbeitern ber die Laufzeit von 36 Monaten gef rdert Das prim re Ziel von DGI II ist die berf hrung der bisher entwickelten Technologien in ein nachhaltig zu betreibendes Grid Neben diesem Projekt wurden auch zwei weitere Projekte aus dem Call 2 im Jahr 2008 bearbeitet bzw abgeschlossen Die T tigkeiten in den Projekten D MON und IVOM werden
153. B II stammen Sprecher des KONWIHR I ist Prof Bode stellvertretender Sprecher Dr Wellein RRZE Erlangen F r das LRZ konnte aus KONWIHR II das Projekt Optimierung Modellierung und Implementierung hoch skalierba rer Anwendungen eingeworben werden Die zentralen Aufgaben des Projektes lassen sich wie folgt zusammenfassen e Zus tzliche Anwenderberatung f r Nutzer des HLRB II sowie f r die Cluster am LRZ und RRZE e Evaluierung von Algorithmen und Methoden f r hochparallele Systeme sowie Untersuchungen von Implementierungsalternativen e Beurteilung inwieweit neue hybride und oder PGAS basierte Programmierans tze notwendig und auch im Rahmen von existierenden Applikationen umsetzbar sind um den hohen Parallelisierungsgrad zuk nftiger Many Core basierter HPC Systeme ad quat nutzen zu k nnen e Neue Programmiersprachen z B besitzt RapidMind ein viel versprechendes Produktportfolio im Bereich der Nutzung von Multi Core und Hybrid Parallelit t z B GPUs und Cell Prozessor e Erweiterung und Gestaltung der HPC Kurse und Tutorials am RRZE und LRZ zur Nutzung der neuen Rechnerarchitekturen und Programmierparadigmen 6 4 4 MAC Projekt Efficient parallel strategies in computational modelling of materials Das Munich Centre of Advanced Computing MAC ist ein neu an der TUM eingerichteter F cher und Institutionen bergreifender Forschungsverbund in dem Gruppen aus sieben TUM Fakult ten und aus weiteren Forschungseinrichtu
154. BABS Bibliothekarisches Archiv und Bereitstellungssystem angesehen werden Langfristiges Ziel ist der Aufbau eines vertrauensw rdigen Langzeitarchivs und die Evaluierung der Ska lierbarkeit des Gesamtsystems Desweiteren wurde im Jahr 2008 die Infrastruktur f r die beiden Projekte BSB Google und Verk n dungsplattform Bayern aufgebaut und getestet In diesen Projekten tritt das LRZ f r die BSB als Dienst leister f r Langzeitarchivierung das Attended Housing von Clusterknoten und das Hosting von virtuellen Servern auf Die langfristige Speicherung der Daten bernimmt bei allen Projekten das Archiv und Backupsystem des LRZ mit dem Softwarepaket Tivoli Storage Manager TSM der Firma IBM Eine detaillierte Beschreibung der Projekte im Bereich der Langzeitarchivierung ist auf der LRZ Homepage http www Irz muenchen de projekte langzeitarchivierung zu finden Im Folgenden werden die einzelnen Projekte kurz beschrieben Projekt BABS2 Der im Sommer 2007 eingereichte Projektantrag wurde von der DFG Mitte 2008 in vollem Umfang ge nehmigt Ziel des im Oktober 2008 gestarteten Kooperationsprojektes Arbeitstitel BABS2 zwischen dem LRZ und der BSB ist der prototypische Ausbau und die Evaluierung eines vertrauensw rdigen und skalierbaren digitalen Langzeitarchives BABS2 basiert auf der im Rahmen des DFG Projektes BABS Bibliothekarisches Archivierungs und Bereitstellungssystem www babs muenchen de aufgebauten organisatorisch technische
155. Bologna I Frank Heller Laitinen Maier Saverchenko Workshop ber D Grid Sondermittel 28 11 2008 28 11 2008 Dortmund Berner Carlson Festkollogquium zum 40 Jahrestag des Rechenzentrums Erlangen 28 11 2008 28 11 2008 Erlangen Wendler Netapp DOTF Data Ontap Fundamentals 7 2 Schulung 01 12 2008 05 12 2008 M nchen Stephan ANSYS Fachtagung 09 12 2008 09 12 2008 M nchen Block Rivera PRACE WP6 face to face meeting II 10 12 2008 11 12 2008 Amsterdam NL Christadler Rivera Fachkonferenz Storage 2008 01 12 2008 04 12 2008 Hamburg Reiner Expertenworkshop DFG Projekt kolawiss Kooperative Langzeitarchivierung f Wissenschaft 09 12 2008 09 12 2008 G ttingen Reiner DEISA2 WP5 7 9 Face to face meeting 15 12 2008 16 12 2008 Barcelona SP Leong QCDSF DIK Meeting im Rahmen eines gemeinsam von der DFG und der JSPS finanzierten Pro jekts zur F rderung des wissenschaftl Austausches im Bereich Lattice QCD Berechnungen 15 12 2008 28 12 2008 Numazu und Kanazawa JP Weinberg Abteilung Kommunikationsnetze Kick off Workshop DGI 2 11 01 2008 11 01 2008 J lich Reiser D Grid Steuerungsausschuss 15 01 2008 15 01 2008 Kassel Reiser BHN Sitzung 17 01 2008 17 01 2008 Augsburg Kornberger L pple Tr bs Wimmer LB Klausur 21 01 2008 22 01 2008 Beilngries L pple Reiser 100GET Treffen aller Projektteilnehmer 19 02 2008 21 02 2008 Berlin Reiser DIAS Seminar Service Level
156. C 5 wei Da ern u 0 3 CH Cd o MM ES da d O Ze g Ze Ge oO o x SCH x 0 HEH d V ke El U g dt ei Ba e Ze EB ai co HH gt Zen bi Qa oO oC CH Vi O da A aiik ZC be ES bk d b ad Ac Ac be EEE bd bi De id da Ze D a eid et En un U md Q U IN be d Ze ei Ba d Ze ih EHE TEE Zi eck Ze be Ze E ZC bi Seck da a ebe be EE EE EE EE Ze 2 BEE Ad EEN mit zwei Montecito Prozessoren unten Abbildung 5 Schematischer Aufbau eines Systemknotens mit einem Montecito Prozessor oben und Ein Compute Blade besteht aus einem oder zwei Intel Montecito Prozessorchips und einem Memory mit gemeinsamer Strom und L ftungsversorgung realisiert Diese Blades werden mittels des SGI Numalink4 Interconnects Verbindungsstruktur zu einem Shared Memory System zusammengeschaltet Einzelne Systemknoten der Altix 4700 sind entweder mit Prozessoren ausgestattet oder es handelt sich um Ein Ausgabe Knoten Alle Knotentypen sind in Form von Blades einer flachen Bauform von Platinen 26 Teil I Das Dienstleistungsangebot des LRZ Kontroller SHub 2 0 der den Prozessor mit dem physisch lokalen Hauptspeicher verbindet sowie zwei Numalink Kan le zur Anbindung an die Verbindungsstruktur bereitstellt Die Intel Montecito Prozessoren sind mit 1 6 GHz getaktet und haben zwei Multiply Add Einheiten Damit ergibt sich pro Prozessorkern eine Spitzenleistung von 6 4 GigaFlop s 6 4 Milliarden Gleitkom ma Operationen pro Sekunde Jeder Prozessor ist d
157. Caches er reichbare Verringerung der Netzlast und die Beschleunigung des Zugriffs auf WWW Seiten spielt ange sichts der hohen Bandbreite des WiN Internetzugangs bei zugleich Volumen unabh ngigen Tarifen keine wesentliche Rolle mehr Lediglich in einigen Studentenwohnheimen und f r die Zugangsregelung zu Online Medien der Bibliotheken siehe 2 7 7 werden noch Proxys eingesetzt Der PAC Server Um die Flexibilit t der Browser Konfiguration zu erh hen wird oft keine feste Adresse eines Proxys im Browser eingetragen sondern die eines PAC Proxy Automatic Configuration Servers Die Funktion des PAC Servers am LRZ ist es ber ein CGI Script die IP Adresse des Clients festzustellen und auf Grund dieses Parameters dem Browser eine entsprechende Proxy Konfiguration zu bermitteln In dieser steht sofern die IP Adresse des Benutzer berechtigt ist dass f r Online Medien die Proxy Server der entspre chenden Bibliothek zu verwenden sind F r andere WWW Seiten und andere Protokolle z B FTP wird kein Proxy Server verwendet 42 Teil I Das Dienstleistungsangebot des LRZ NAT Gateway Seit Mitte des Jahres 2005 werden Systeme mit privaten IP Adressen ber das System NAT o MAT in das Internet vermittelt welches au er dem reinen NAT Gateway Dienst auch die Funktion eines IPS Intrusion Prevention System und ein Bandbreitenmanagement leistet Es ist unter 7 4 1 ausf hrlich be schrieben 2 7 3 News anonymous FTP News ist ein weltweites e
158. Cloud compu Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 171 ting und wechselseitige Vortr ge zu diesen Themen dienten dem Erfahrungsaustausch und der Wissens vermittlung Der Regelbetrieb der Grid Dienste wurde durch die Mitarbeiter der Gruppe Verteilte Ressourcen be treut und ausgebaut Neben einem Upgrade der Service Systeme auf eine leistungsf higere Hardware erforderte dies auch die Einrichtung von automatischen Verfahren f r die berwachung und Konfigurati on einer zunehmenden Anzahl von Grid Diensten Die LRZ Grid Registration Authority des DFN wurde erm chtigt neben Zertifikaten f r das LRZ und die Universit t der Bundeswehr auch Zertifikate f r Angeh rige der LMU und der TUM auszustellen Da durch konnten f r die Informatikvorlesungen an der TUM DFN policy konforme Grid Services Zertifi kate Globus UNICORE etc f r vorlesungsbegleitende bungen f r Studenten bereitgestellt werden Ein wichtiger Meilenstein ist die Inbetriebnahme der Grid User Administration 2 GUA2 und deren Kopplung mit dem lokalen Benutzerverwaltungssystem LRZ SIM Dies erleichtert und beschleunigt die Verwaltung der Grid Benutzer erheblich Alle Mitglieder der Gruppe VER wurden nach ISO20000 zertifiziert die internen Arbeitsabl ufe und die Arbeitsverteilung wurde re organisiert und die Arbeitszeitnachweise f r EU Projekte wurden an die ak tuellen FP7 Richtlinien der EU angepasst Und last but not least wurde unser
159. Computing Bereich an die IA64 basierten Clusterknoten die Knoten mit EM64T Opteron Prozessorarchitektur naht los an Diese Systeme erf llen vor allem folgende wichtige Funktionen e Plattform zur Abarbeitung eines breiten Spektrums an kommerziellen Applikationen e Plattform zur Abarbeitung von schlecht vektorisierbaren seriellen Applikationen e _Compute Server f r die M nchner Universit ten und vervollst ndigen somit das Hochleistungsrechnerangebot des LRZ Es sei hervorgehoben dass die Betreuung der Benutzer der Softwareumgebung und die Administration der Rechner durch das jeweils gleiche Personal erfolgt und sich somit zahlreiche Synergieeffekte ergeben Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 33 2 3 2 Arbeitsplatzsysteme PCs Intel basierte PCs bilden das R ckgrat f r sehr viele der benutzernahen und viele der LRZ internen Dienste a Das LRZ betreibt 3 Kursr ume die mit PCs ausger stet sind e PC Kursr ume Um der hohen Nachfrage nach Anleitung und praktischer Ausbildung in der Nutzung von PCs und PC Programmen gerecht zu werden wurden zwei dedizierte Kursr ume eingerichtet Es handelt sich um einen Raum mit 13 Arbeitspl tzen im LRZ Geb ude UG H rsaalgeb ude sowie um einen zweiten Raum mit 17 Arbeitspl tzen Alle Kurs PCs werden unter Windows XP betrieben und von Windows Servern versorgt Die beiden R ume sind jeweils mit einem p dagogischen Netzwerk ausgestattet das vor allem dazu benutzt werde
160. DEISA Projekt wieder Rechenzeit in signifikantem Umfang zur Verf gung gestellt 6 6 2 4 INCA INCA ist ein Framework f r vollautomatische Tests von Softwarestacks in Grid Umgebungen das am San Diego Supercomputing Center SDSC f r die US Grid Initiative TeraGrid entwickelt wurde INCA 168 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme soll Funktionalit ten aus der Sicht des Benutzers testen es ist nicht gedacht als berwachungstool f r Systemdienste Zur Durchf hrung der Tests werden auf den einzelnen Grid Ressourcen in periodischen Abst nden unter der Kennung eines regul ren Benutzers Testskripten gestartet und die Testergebnisse an den zentralen INCA Server geschickt Auf diesem werden die Testergebnisse aller Grid Ressourcen in einer Datenbank gespeichert Analysiert werden k nnen die Testergebnisse ber eine zugeh rige Websei te die diese Datenbank auswertet In DEISA ist das LRZ f r den Betrieb des INCA Frameworks verantwortlich Der zentrale INCA Server und die zugeh rige Webseite werden vom LRZ f r ganz DEISA betrieben Der Zugriff auf die INCA Ergebnisse ist f r die Administratoren in DEISA m glich nicht jedoch f r Benutzer und Au enstehende 7 Welt Firefox Oy Eile Edit View History Bookmarks Tools Help X ig ta KA https inca lrz muenchen de inca xsltjsp xsl summary xsl amp suiteName CPE amp resourcelID DEISA amp xmIFile cp Dr D G DEISA INCA STATUS
161. Dienste des LRZ E Mail Web Dienste Datenbanken Grafik im Umfeld des jeweiligen Instituts einzusetzen 2 1 3 Kurse Veranstaltungen Vom LRZ werden regelm ig berwiegend w hrend der Vorlesungszeiten Benutzerkurse angeboten Sie sind h ufig mit praktischen bungen verbunden und berwiegend so konzipiert dass sie nicht nur f r Benutzer der Rechnersysteme am LRZ sondern f r alle Interessierten n tzlich sind Das Kursangebot orientiert sich vorrangig am Bedarf Typische Themen dieser Kurse sind e Einf hrung in Unix e Systemverwaltung unter Unix am Beispiel von Linux e Datenbanken e _Internet Nutzung e Textverarbeitung e Tabellenkalkulation e Statistik e Graphikbearbeitung e Nutzung der Hochleistungssysteme e System und Netzsicherheit Programmierkurse im engeren Sinn werden vom LRZ blicherweise nur im Hochleistungsrechnen ange boten Ansonsten wird auf das umfangreiche Vorlesungs und bungsangebot der Universit ten und Fachhochschulen verwiesen Zus tzlich werden Veranstaltungen zu speziellen Themen abgehalten z B Firmenpr sentationen Work shops die sich an erfahrene Benutzer oder an Benutzer mit ganz bestimmten Interessen wenden Kurse wie auch sonstige Veranstaltungen werden ber das WWW angek ndigt Soweit m glich werden auch die Kursunterlagen ber das WWW bereitgestellt Au erdem besteht f r interessierte Personen und Gruppen im Rahmen von Einf hrungsvortr gen und F hrungen die M glichke
162. EC 20000 ausgerichteten prozessorientierten IT Dienstmanagements am LRZ sollen zuk nftig ITSM Tools eingesetzt werden welche die prozessbezoge ne abteilungs bergreifende Kommunikation und Koordination verbessern sowie gemeinsam genutzte Informationen zentral in einer CMDB verwalten Hierf r wurde ein Software Auswahlverfahren initiiert F r ein sinnvolles Werkzeugkonzept zur Unter st tzung von ITSM Prozessen ist eine Integration der Werkzeuge f r die verschiedenen ITSM Funktionalit ten unerl sslich es mangelt im Bereich der entsprechenden Werkzeuge aber an etablierten Standards Da der Aufwand f r eine notwendige Integration der teils hochkomplexen ITSM Werkzeuge verschiedener Hersteller daher kaum absehbar in jedem Fall aber sehr hoch ist wurde einem Best of Suite vor einem Best of Breed Ansatz der Vorzug gegeben Der Fokus des Auswahlverfahrens liegt also auf so genannten ITSM Suites welche eine Workflowunterst tzung f r strukturierte ITSM Prozesse z B Incident Management Change Management mit einer CMDB L sung sowie teilweise auch weite rer Funktionalit t kombinieren Um ein Produkt auszuw hlen welches in der Lage ist eine hohe Akzeptanz in allen Bereich des LRZ zu finden wurde ein Auswahlteam gegr ndet welches sich analog zum Arbeitskreis ITSM aus Mitarbei tern aller Abteilungen des LRZ zusammensetzt Diese Zusammensetzung soll jeder Abteilung die M g lichkeit bieten spezifische Anforderungen an das
163. Fachhochschule M nchen 190 andere bayerische Hochschulen 182 andere wissenschaftliche Einrichtungen 1 862 15 054 die Fakult t Physik der Technischen Universit t M nchen 2 434 das myTUM Portal der Technischen Universit t M nchen 33 746 Studenten der Ludwig Maximilians Universit t M nchen Campus 47 023 Studenten anderer M nchner Hochschulen 1 657 Gesamt 99 914 Tabelle 18 Nutzung der Message Store Server am LRZ 5 5 4 8 Nutzung von E Mail Verteilerlisten Das LRZ bietet seinen Nutzern die M glichkeit eigene E Mail Verteilerlisten einzurichten auf Basis des Programms Majordomo Ende 2008 gab es 593 Listen Vorjahr 505 die sich wie folgt verteilten 120 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme E Mail EE Verteilerlisten Ludwig Maximilians Universit t M nchen 173 Technische Universit t M nchen 165 Bayer Akademie der Wissenschaften inklusive LRZ 149 Andere Hochschulen und hochschulnahe Einrichtungen 106 Gesamt 593 Tabelle 19 Nutzung von E Mail Verteilerlisten am LRZ 5 5 5 Webdienste Wie in Abschnitt 2 7 1 dargestellt besteht die Hauptaufgabe der Webserver des LRZ darin den Einrich tungen im M nchner Wissenschaftsnetz eine Plattform f r ihre Web Auftritte zu bieten eine Aufgabe die kurz als Webhosting bezeichnet wird Schon seit einigen Jahren zeichnet sich eine neue Tendenz ab immer mehr Betreiber virtueller am LRZ gehoste
164. Forschung und Lehre liegen oft nur noch in digitaler Form vor und unterliegen dazu Anforderungen an die Dauerhaftigkeit der Aufbewahrung im Rahmen der Regeln guter wissenschaftlicher Praxis So fordert etwa die DFG f r alle von ihr gef rderten Projekte eine 10 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 35 j hrige Aufbewahrung von wissenschaftlichen Prim rdaten Das LRZ legt seine zentralen Datenspeicherangebote nicht nur inh rent so ausfallsicher wie m glich an und vermeidet dadurch Datenverlust bei Hardware Ausf llen oder Software St rungen sondern sichert selbstverst ndlich auch alle Daten Backup e Entlastung wissenschaftlicher Mitarbeiter Die Systembetreuung dezentraler Systeme wird oft von wissenschaftlichen Mitarbeitern auf Zeitstellen nebenbei erledigt was gerade im Bereich der Datenhaltung zu Schwierigkeiten mit der Dauerhaftigkeit und Kontinuit t des Betriebs und damit der Sicherheit der Daten f hren kann Solche kleineren Teileinheiten und Arbeitsgruppen sollen eingesammelt werden indem eine professionell verwaltete und integrierte Alternative zu lokalen System angeboten wird Damit k nnen sich die Wissenschaftler wieder ganz ihrer Forschungs und Lehrt tigkeit widmen e Zentrale Speichersysteme erlauben eine bessere Ressourcennutzung als dies bei einer gleichwertigen Menge von vielen kleineren Speichersystemen der Fall ist Speicherplatz kann auf Anforderung einfach und schnell bereit
165. Geb uden geschieht die Anbindung von Datenendger ten ber Ethernet Die Anbindung wird entweder ber Twisted Pair Drahtkabel 100 1000 Mbit s und Glasfaserkabel 100 Mbit s oder zum Teil 1000 Mbit s oder zu einem sehr geringen Teil noch ber Koaxial Kabel 10 Mbit s realisiert Server Rechner werden fast immer mit 1 Gbit s angeschlossen Switches verbinden die Kabel miteinander e Die zentralen Rechner im LRZ der Bundesh chstleistungsrechner HLRB II die Linux Cluster die Server des Backup und Archivsystems und die zahlreichen Server Systeme sind untereinander gr tenteils mit 10 Gbit s mittels Switches verbunden Diese Netzstruktur der zentralen Rechner ist ber einen Router 10 Gbit s mit dem MWN Backbone verbunden e Im MWN wird ausschlie lich das Protokoll TCP IP benutzt Weitere Einzelheiten ber das MWN sind im WWW www Irz de services netz beschrieben Das LRZ besitzt einen Anschluss von 10 Gbit s an das deutsche Wissenschaftsnetz WiN des Vereins Deutsches Forschungsnetz DFN der aus Kostengr nden auf die bertragungsrate von 8 16 Gbit s begrenzt ist ber diesen Anschluss l uft e der Datenverkehr zu allen Hochschulen au erhalb des eigentlichen LRZ Einzugsbereichs e der Datenverkehr zu allen im internationalen Internet zusammengeschlossenen Datennetzen Weitere Informationen zu TCP IP und zu den Internet Diensten finden sich unter wwu Irz de services netzdienste internet Jahresbericht 2008 des Lei
166. HS Beide Schnittpl tze verf gen ber einen Multiformat DVD Brenner Damit k nnen am Videoschnittplatz Filme auch auf eine Video DVD gespeichert werden die in handels blichen DVD Spielern wiedergege ben werden kann Mit dem intuitiv zu bedienenden Programm iDVD wird der Inhalt der Video DVD zusammengestellt und das Hauptmen entworfen das die Navigation zu den Filmen oder Filmabschnitten erm glicht F r ambitioniertere Projekte steht daneben DVD Studio Pro zur Verf gung das alle M g lichkeiten professionellen DVD Authorings bietet Weitere Informationen zum DV Videoschnitt am LRZ finden Sie unter www Irz de services peripherie dvschnitt 2 9 6 Multimedialabor Im Multimedialabor stehen neben den im vorigen Abschnitt beschriebenen Videoschnittpl tzen au erdem PCs mit spezieller Hard und Software Ausstattung f r die Verarbeitung von Audiomaterial zur Verf gung Geeignete Peripherieger te erlauben die Erfassung und Bearbeitung der Audioquellen von unter schiedlichen Tontr gern etwa Kassette CD oder Mini Disk 2 9 7 CAD Arbeitspl tze F r umfangreiche und aufw ndige Aufgaben aus den Bereichen Bildverarbeitung Konstruktion Model lierung und Visualisierung stehen spezielle Arbeitspl tze mit professioneller Ausstattung zur Verf gung Typische Aufgaben sind Erstellung und Bearbeitung von 3 D Modellen f r die anschlie ende Weiterver arbeitung im Visualisierungszentrum Dazu sind die Rechner mit Programmpaketen f r die
167. Hochschulangeh rige Wissenschaftler und Studenten mittels des Telefon netzes von ihren PCs zuhause auf institutseigene Rechner oder auf CIP Pools zugreifen Sie k nnen auch den direkten Zugang zum Internet nutzen Das LRZ stellt ber Anschl sse der Deutschen Telekom und M net eine ausreichende Anzahl von Zug ngen ber Modem und ISDN zur Verf gung siehe Abschnitt 2 1 Die W hlzug nge des LRZ bieten die M glichkeit die notwendige Zugangskontrolle in Absprache mit dem LRZ auf dezentralen vertrauensw rdigen Rechnern abzuwickeln Dieses RADIUS Konzept Remote Authentication Dial In User Service bietet den Vorteil dass der Endbenutzer mit seiner Vali dierung Kennung Passwort aus einem CIP oder anderem Pool auch die W hlzug nge des LRZ nutzen kann also ohne eine spezifische LRZ Kennung auskommt Details zu den LRZ W hlanschl ssen finden sich unter www Irz de services netzdienste modem isdn 2 7 6 Zugang f r mobile Endger te F r mobile Endger te z B Laptops PDAs Smartphones wird an vielen rtlichkeiten im Bereich des MWN der Netzzugang ber WLAN und auch im geringeren Ausma ber vorkonfigurierte Datensteck dosen angeboten Die ber 1000 WLAN Basisstationen Access Points nach IEEE 802 11b g und die Datensteckdosen 10 100 Mbit s sind in einem eigenen VLAN virtuelles LAN eingebunden Von diesem VLAN gibt es nur einen gesicherten bergang VPN Server IPsec in das MWN und von dort weiter in das Wi
168. Jahr Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 99 Sophos Landesweiter Rahmenvertrag im Februar 2007 um 5 Jahre verl n gert Auch der Einsatz am h uslichen PC ist f r den bezugsberech tigten Personenkreis enthalten Deckt auch die kostenfreie Nutzung aller Komponenten des Produktes PureMessage ab Personal Fire wall nicht im Rahmenvertrag enthalten SPSS Statistisches Programmsystem Seit Juni 2006 Landesvertrag In 2008 wiederum ca 4100 Lizenzen davon etwa 60 als Einzel platzlizenzen SPSS Science Diverse Programme rund um die Statistik z B SigmaPlot Table Curve aber ohne SPSS selbst bundesweit g ltiges Lizenzpro gramm StarOffice Programmpaket zur Textverarbeitung Tabellenkalkulation Grafik und Pr sentation Sun Software Betriebssystem Wartung und diverse Software f r Sun Workstations SYSTAT Statistisches Programmsystem Textsatzsystem TeX einschl LaTeX TUSTEP Das T binger System von Textverarbeitungsprogrammen erm g licht u a den Vergleich unterschiedlicher Textfassungen Index und Registererstellung Erzeugung von Konkordanzen kritische Editionen LRZ beteiligte sich auch in 2008 an den Weiterentwick lungskosten Nachfrage l sst stark nach 5 3 8 Statistik Statistische Werte Die nachfolgende Tabelle listet die wertm ig umsatzst rksten Softwarepakete auf Die Virenschutz Software Sophos ist wiederum nicht zahlenm ig aufgef hrt da hier eine f r den Endbenutzer kostenlo
169. Konfiguration der Server Software bereitgestellt Ebenso wurde die interne Struktur des Verzeichnisdienstes Directory Information Tree DIT die die Anordnung der Objekte im hierarchischen Verzeichnisdienst vorgibt spezifiziert Spezifikation der Datenkonvertierungsregeln die beim Austausch zwischen dem Verzeichnis dienst und den angeschlossenen Systemen durchzuf hren sind Sie betreffen wiederum die Syn tax der Datenfelder z B hinsichtlich des Formats in dem Telefonnummern Datumsangaben und Adressen ben tigt werden und deren Semantik Definition einer Verzeichnisdienstarchitektur Hierbei wurden die Aspekte Skalierbarkeit Ver f gbarkeit und Wartbarkeit besonders ber cksichtigt Im Unterschied zu vielen vergleichbaren Projekten basiert der IntegraTUM Verzeichnisdienst nicht auf einem zentralen LDAP Server sondern auf einem Geflecht mehrerer Verzeichnisdienste die die Daten in den jeweils ben tigten Formaten bereitstellen und ber ein so genanntes Meta Directory untereinander abgeglichen wer den Abbildung 27 zeigt die logische Struktur dieser Architektur Die Daten aus den f hrenden Systemen Personalverwaltung mit SAP HR Studentenverwaltung mit HIS SOS dedizierte web basierte G steverwaltung werden in einem verwaltungsspezifi schen Verzeichnisdienst aggregiert und konsolidiert um beispielsweise Studenten die als studen tische Hilfskr fte auch Mitarbeiter sind nur einmal und nicht mehrfach zu erfassen Sie flie en b
170. Kooperationen mit Herstellern Im Umfeld des EU Projektes PRACE haben sich auch projektgem erste Konsortien unter Einbezug von Industriefirmen gebildet um sich systematisch auf Petaflop Computing vorzubereiten Beispiele sind TALOS Partner BULL CEA Intel Quadrics und HLRS vom Gau Zentrum oder PROSPECT Part ner BSC Barcelona Bull GmbH Clustervision CSC IT Center for Science DataDirect Networks GmbH DDN Deutscher Wetterdienst IBM GmbH Intel Deutschland GmbH Hewlett Packard HP ParTec Mellanox NumaScale AS T Systems SfR GmbH Universit ten Heidelberg Regensburg Karlsruhe sowie vom Gau Zentrum FZJ und LRZ PROSPECT In PROSPECT wurden in mehreren organisatorischen und technischen Treffen die M g lichkeiten zu einer Zusammenarbeit zwischen HPC Zentren und der europ ischen Indu strie f r die Weiterentwicklung im HPC Umfeld ausgelotet Ende 2008 wurde PROS 156 STRATOS IBM Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme PECT als gemeinn tziger Verein nach deutschem Recht Der Verein trat dem aus PRACE hervorgegangenen Verbund STRATOS zur Etablierung einer fortschrittsorientierten technischen HPC Plattform bei Technisch wurde ein Vorantrag zur Zusammenarbeit bei verbesserten energiesparenden Techniken im Zusammenspiel von Hard und Software erarbeitet der zun chst von der EU in der Rubrik Future and Emerging Technologies nicht angenommen wurde Die Vorarbeiten sollen aber in a
171. Koordination zwischen den Mitarbeitern des IT Service Providers 222 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes abh ngig Ein optimales Management von IT Diensten muss folglich ber die berwachung und Steue rung der technischen Komponenten hinaus gehen und auch die betrieblichen Abl ufe bzw die Prozesse des IT Service Providers kontrollieren und lenken Die Ausgestaltung eines solchen prozessorientierten IT Service Managements ITSM ist Gegenstand verschiedener so genannter ITSM Rahmenwerke wie der IT Infrastructure Library ITIL als auch des vergleichsweise neuen internationalen Standards ISO IEC 20000 Wie bereits im letzten Jahresbericht dargelegt plant das LRZ seine ITSM Prozesse an den Vorgaben von ISO IEC 20000 auszurichten Aktivit ten im Bereich IT Service Management am LRZ Der Arbeitskreis IT Service Management AK ITSM hat zur Aufgabe ein organisatorisches und techni sches Konzept f r das ITSM am LRZ zu entwickeln Er koordiniert die ITSM Aktivit ten am LRZ wel che jedoch nicht auf Arbeiten innerhalb des Arbeitskreises selbst beschr nkt sind Die wichtigsten ITSM Aktivit ten im Jahr 2008 sind analog zur Gliederung der ITSM Planungen im letzten Jahresbericht im Folgenden nach den drei Hauptaspekten People Process Technology Men schen Prozesse Technologie strukturiert People Die Aktivit ten um die Awareness Bildung konzentrierten sich 2008 vorwiegend auf die Sch
172. LRZ Mitarbeiter wurde am Beginn 2008 ein Produktionssystem namens ESX Cluster 1 in Betrieb genommen Erste betriebskritische Migrationen auf das ESX Cluster 1 fanden Ende Januar 2008 nach Abschluss ei ner kurzen Testphase statt Seither vollzieht der Anstieg virtueller Hosts und damit virtueller Dienste gemessen an der verf gbaren Personalstruktur eine rasante Entwicklung vgl Abbildung 80 Die Migration von LRZ Diensten die bisher teils unn tig Hardware Ressourcen beansprucht haben f hrt zum stetigen Abbau alter Server Ein reiner Ersatz durch neue Hardware ohne Virtualisierung w rde Still stand bedeuten denn das gewachsene Dienstleistungsangebot des LRZ hat zur Verknappung von Stellfl che Strom und Klimatisierung gef hrt 188 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Anzahl virtueller ESX Cluster 2 in Planung YINKA Flash5 Webdienst 01 Video Streaming g D E k ei D E Uu 07 01 Linux Cluster Knoten 23 01 Netzdoku 28 02 LRZ SIM 12 08 Test Mailserver 31 08 DFN AAI 15 04 Lizenzserver 25 04 IntegraT UM 09 Grid Dienste 14 11 HLRB2 BVW 04 04 Monitoring S 2 Er E 8 24 10 Praktikums Arbeitspl tze 5 Q La 2 Ei fa Ku S eg 1 E SSH Gatewa Produktion D Z 5 a 2 5 ul S E gt 123 Cluster 1 D E a bei D Ka 5 UI g ZS gt E Pro
173. Lehrstuhls f r Opteron 2400 MHz 8x4GB Bauinformatik der TU M nchen 8 MEGWARE Xeon 8 16 GB Attended Cluster Housing Knoten des Lehrstuhls f r E5462 2800 MHz Geod sie der TU M nchen 15 SUN 4600 16 64 GB Attended Cluster Housing Knoten des Lehrstuhls f r Opteron 2800 MHz Mathematik der TU M nchen 8 SGI Altix XE 240 4 16 GB Attended Cluster Housing Knoten des M nchner Astro Xeon 2333 MHz GRID Projektes 35 MEGWARE Xeon 4 8 GB Attended Cluster Housing Knoten der Bayerischen X3230 2667 MHz Staatsbibliothek 37 SUN 4 8GB Komponente des Linux Clusters Opteron 2600 MHz LCG Tier 2 Rechen Knoten 124 MEGWARE Xeon 4 8 GB Komponente des Linux Clusters X3230 2667 MHz LCG Tier 2 Rechen Knoten 68 MEGWARE Xeon 8 16 GB Komponente des Linux Clusters L5420 2500 MHz LCG Tier 2 Rechen Knoten S MEGWARE Xeon 4 4 GB Komponente des Linux Clusters 5060 3200 MHz LCG Tier 2 dCache Knoten 3 MEGWARE Xeon 4 4 GB Komponente des Linux Clusters 5148 2333 MHz LCG Tier 2 dCache Knoten 0 MEGWARE Xeon 4 8 GB Komponente des Linux Clusters L5240 3000 MHz LCG Tier 2 dCache Knoten 0 FMS 2 2 GB Komponente des Linux Clusters Opteron 2200 MHz LCG Tier 2 dCache Knoten 89 ZAT sop ube I TIOL Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller ER en Daten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur en in Aufgabe Anzahl und
174. Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften Jahresbericht 2008 April 2009 LRZ Bericht 2009 01 Direktorium Leibniz Rechenzentrum Prof Dr A Bode Vorsitzender Boltzmannstra e 1 Telefon 089 35831 8000 ffentliche Verkehrsmittel Prof Dr H J Bungartz 85748 Garching Telefax 089 35831 9700 Prof Dr H G Hegering E Mail Irzpost lIrz de U6 Garching Forschungszentrum Prof Dr D Kranzlm ller UST ID Nr DE811305931 Internet http www Irz de Jahresbericht 2008 des Leibniz Rechenzentrums Ke Oe SE 7 Teil I Das LRZ Entwicklungsstand zum Jahresende 2008 c0s 0000s00000000000000002000000000 11 1 Einordnung und Aufgaben des Leibniz Rechenzentrums LRZ ssurssorsoonssonssonssonssonnsnnnene 11 2 Das Dienstleistungsangebot des LRZ snesssonsssoossesnnssnnnnsnnnnesnnssssnnnsnonnssnnssesnnnsnsnnnsnnnnssnnnsssnnnee 14 2 1 Dokumentation Beratung Kurse 14 2 1 1 Re ee e 14 2 1 2 Beratung und Unterst tzung 14 2 1 3 Kurse Veranstaltungen u 52 0 a REN Banana 17 2 2 Planung und Bereitstellung des Kommunikationsnetzes uuennessesssnsennneennennnenn nn 17 2 3 Bereitstellung von Rechenkapazit t ons ennn nenn 22 2 3 1 Bereitstellung von Hochlestungsrechenkapazt 24 2 3 2 Arbeitsplatzsysteme PCel niniin a ea AE RAN 33 2 3 3 Workstations zur allgemeinen Verwendung 33 2 4 Datenhaltung und Datensicherung u uenseenseensnennneennennnennnensnnnnnnennnnnnse
175. MHz zentraler Server 2 SUN X4100 2 4GB Komponente des Linux Clusters Opteron 2600 MHz H SGE 6 1 Master Server SGE 6 1 Secondary Server DNS Master Server 1 SUN X4100 4 8 GB Komponente des Linux Clusters Opteron 2600 MHz Zentraler nagios berwachungsserver 2 SUN 4150 8 64 GB Komponente des Linux Clusters Xeon 2660 MHz Hochverf gbarer Lustre Metadaten Server 8 SGI Altix XE 240 4 2 GB Komponente des Linux Clusters Xeon 2333MHz Lustre Object Storage Target OST 12 SGI Altix XE 240 8 8 GB Komponente des Linux Clusters Xeon 2660MHz Lustre Object Storage Target OST I 2 L swnnyuozuay9oyg zrugloT S P 8007 JUPLIOASSIYerf L9 Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller ER en Daten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur en in Aufgabe Anzahl und speicher 3 Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente 1 MEGWARE 4 2 GB Komponente des Linux Clusters EM64T 3600 MHz x86_64 Interaktivrechner 1 MEGWARE 8 32 GB Komponente des Linux Clusters Opteron 2600 MHz x86_64 Interaktivrechner 2 INTEL 8 16 GB Komponente des Linux Clusters Itanium2 Montecito IA64 Interaktivrechner 1600 MHz 9 MEGWARE 2 1 x 8 GB Attended Cluster Housing Knoten des
176. N bzw weltweite Internet Dadurch wird sowohl ein Schutz gegen den Missbrauch dieses Netzes erreicht da der Internet Anschluss des LRZ nicht unbefugt genutzt werden kann als auch der administrative Aufwand m glichst klein gehalten F r VPN Verbindungen gelten dieselben Nutzerkennungen wie f r die Einwahl ber Modem und ISDN F r Systeme ohne VPN Client z B manche PDAs wird auch der Zugang ber ein Web Gateway vpnweb angeboten Dieser erlaubt nur die Nutzung von Diensten ber die Web Browser Schnittstelle Neben VPN und Web ist der Zugang auch ber das Protokoll 802 1X m glich n heres ist unter 7 2 3 DFNRoaming beschrieben Weiteres ber WLAN steht unter 7 1 5 Online Dokumentation dazu findet sich unter wwn Irz de services netz mobil 2 7 7 VPN Server IPsec Der VPN Server IPsec dient u a dazu aus unsicheren Netzen wie WLAN Netze Internet in sichere Netze zu gelangen Dabei wird ein so genannter IPsec Tunnel zum VPN Server aufgebaut es wird eine Benutzervalidierung durchgef hrt und es wird dann eine neue IP Adresse zugeteilt Die Nutzung des VPN Servers IPsec ist erst nach Installation einer speziellen Software m glich die kostenfrei von be rechtigten Benutzern ber die unten angegebene WWW Seite zu beziehen ist Die VPN Server werden f r folgende Zwecke am LRZ verwendet e Zugang zum MWN ber das vom LRZ betreute WLAN e Nutzung ffentlicher Anschlussdosen f r mobile Rechner A4 Teil I Das Dienstleist
177. Newsletter Eine Reihe von Publikationen k nnen ber das Benutzersekretariat des LRZ erworben werden z B Ori ginaldokumentation von Software Produkten Begleitmaterial zu LRZ Kursen und die beliebten und kos teng nstigen Einf hrungsschriften die vom Regionalen Rechenzentrum f r Niedersachsen ber eine F l le von DV Themen herausgegeben werden Die zuletzt genannten Schriften sind deswegen so preisg ns tig weil die akademischen K ufer hier nur f r Material Druck und Versandkosten aufkommen m ssen Der Erwerb und die Nutzung dieser Schriften sind an Voraussetzungen gekn pft und an Bedingungen gebunden die vom LRZ laufend berwacht werden Eine bersicht ber das Schriftenangebot finden Sie unter www Irz de services schriften Es wird laufend aktualisiert Nicht alle Schriften die seitens des RRZN angeboten werden werden auch vom LRZ vorr tig gehalten Es ist aber das gesamte Angebot bestell und lieferbar es sei denn dass die gew nschten Schriften vergriffen sind Aktuelle Informationen ber das LRZ erh lt man durch Abonnement des regelm ig erscheinenden LRZ Newsletter Diese Nachrichten werden ber E Mail verteilt und sind daher m glichst kurz gehalten F r die Details wird auf entsprechende WWW Seiten verwiesen Um die LRZ Newsletter zu erhalten muss auf der entsprechenden WWW Seite des LRZ wwn Irz de home die Anmeldung dazu angeklickt und ausgef llt werden Genauso einfach kann man sich auch wie
178. Nutzer F rderung der Entwicklung von Komponenten und ihrer Integration in zuk nftige Systeme jenseits der PetaFlop s Marke zusammen mit der europ ischen und weltwei ten HPC Industrie die den Notwendigkeiten der PRACE Research Infrastructure und vor allem ihrer Nutzer dienen Sprachrohr f r besondere europ ische Notwendigkeiten und Gegebenheiten sowie die F rderung der europ ischen HPC Industrie durch die Etablierung einer European Technology Platform f r HPC Einige Partner im Munich Computational Sciences Center TUM M nchen Rechenzent rum Garching der Max Plankgeselleschaft LRZ haben ihre Zusammenarbeit mit IBM auf den Gebieten Prozessorarchitekturen Programmiermodelle und Algorithmen Tools Parallele Filesysteme und hierarchische Dateisysteme sowie Batchscheduling f r Peta scalesysteme bei Treffen auf den Supercomputing Konferenzen in Dresden und Austin weitergef hrt Aus dieser Kooperation heraus wurde das Verbundprojekt ISAR initiiert 6 4 2 BMBF Verbundprojekt ISAR Die Steigerung von Effizienz Qualit t und Zuverl ssigkeit der mit Hoch und H chstleistungsrechnern erzielbaren Simulationen sowie die Reduktion des Energieverbrauchs h ngen nicht nur von der zu Grunde liegenden Hardware ab Es kommt auch darauf an mit Hilfe intelligenter Software mehr Leistung aus der vorhandenen und sich st ndig weiter entwickelnden Hardware zu erzielen Daher hat das Bundesministe rium f r Bildung und Forschung im Rahmen de
179. Nutzerportalen Das resultierende System bietet dynamische VO basierte und Nutzer spezifische Sichten auf die bereit gestellten Ressourcen und Dienste Dies kann dadurch erreicht werden dass VO Management Informationen mit den Monitoring Informationen die von den Informationssystemen CIS MDS 4 und BDII der Middlewares bereitgestellt werden verkn pft werden De facto wirkt diese Zusammenf hrung der Daten als eine Art Filter der es erm glicht relativ einfach Sichten auf virtuelle Organisationen zu erstellen Adapter die verschiedene Informationssysteme und Architekturen verbinden erm glichen ei nen Grid weiten und Middleware bergreifenden Einsatz Diese Komponenten ein Filter auf der einen Seite und Adapter auf der anderen werden im D MON Projekt realisiert Einen Eindruck von den im D MON Portal zur Verf gung stehenden Informationen gibt Abbildung 114 In der restlichen Laufzeit des Projektes bis Juni 2009 wird an der Produktivf hrung des Systems und dem nachhaltigen Betrieb durch das LRZ gearbeitet Table view Portet Nutzername Choose table ComputingEndpoint_ VO 7 Passwort I Login merken endpointiD cServicelD informationProvider sourceAddr insertTime dE ae EH aprilia izbi uni leipzig de HE 129 187 254 39 2008 08 07 11 25 16 0 Anmelden Passwort vergessen ru Sieten https srminius grid uni SS Ge Google Maps a nenn arminius grid uni paderborn de MDS4 129 187 254 39 2008 08 07 11 25 17 0
180. O4 Laufwerken f r ausgew hlte Datenbereiche begonnen Dazu war die Virtualisierung einer Library notwendig sowie die Installation von 4 LTO4 Laufwerken in diese Library LTO4 bietet gegen ber LTO2 nominell in etwa die vierfache Kapazit t und VO Performance Nach entsprechenden Konfigurationsanpassungen und ausgiebigen Zuverl ssigkeits und Performance Tests wurde mit dem Produktionsbetrieb begonnen Ende 2008 waren bereits 400 TeraByte von LTO2 auf LTO4 Kassetten migriert Durch die deutlich gr ere Kapazit t der LTO4 Bandmedien konnte dadurch dem Engpass an Stellpl tzen effektiv begegnet werden Erprobung neuer Technologien Die Zuverl ssigkeit der Datentr ger ist essentiell bei der l ngerfristigen Massendatenhaltung Soweit es die zeitlich engen Rahmenbedingungen zulassen fanden in diesem Bereich Untersuchungen zur Fehler analyse bis hin zur untersten SCSI Ebene statt Die Arbeiten wurden in der Mehrheit an Teststellungen im Haus Fehlerprognose anhand des Laufwerksverhaltens durchgef hrt Aber auch Besuche in den Labors der Magnetbandhersteller fanden statt Aktuelle Konfiguration HABS Das Hochleistungsarchiv und Backupsystem HABS besteht aus e 16 Serverrechnern Sunfire X4200 e 4 Serverrechnern Sunfire X4200m2 e 2SAN Direktoren Brocade Silkworm48000 e je2 Storage Servern STK FLX380 und SUN 6540 mit 113 TeraByte FCAL Platten e und einer Tape Library STK SL8500 mit 8360 Kassetten Stellpl tzen mit 26 STK Ti10000A Laufwerken A
181. PAGES CURRENT DATA HISTORICAL DATA INFO e Ioaded 02 20 2008 05 07 PM CE na does not apply to resource DEISA Common Production Environment Summary BSC CINECA CSC ECMWF EPCC PI IDRIS LRZ DG SARA Appieatons BET HA o DO o DOE o DES SES HE vs Tools Abbildung 62 INCA Darstellung im Web Abbildung 62 zeigt einen berblick ber den an den DEISA Sites installierten Softwarestack das sog DEISA Common Production Environment CPE Die Farbgebung eine LRZ Erweiterung von INCA erlaubt ein sofortiges intuitives Erfassen der Gesamtsituation Gr nt ne signalisieren hohe Softwarever f gbarkeit w hrend r tliche T ne auf Probleme hindeuten Durch Klicken auf Links in der Tabelle kann man sich detailliertere Informationen beschaffen Das LRZ hat die Leitung der Subtask Monitoring of Applications Availability inne die die Ausweitung des INCA Monitorings zum Ziel hat Neu wurde Mitte April die INCA Middleware Suite installiert und konfiguriert und ist seither einsetzbar Die Software besteht aus mehreren sogenannten INCA Reportern welche die Funktionalit t von DEISA Grid Middleware Komponenten z B Globus oder UNICORE berwachen Diese Suite erweitert die berwachungsm glichkeiten von INCA erheblich Anfang Mai haben wir begonnen auch DEISA LDAP mit Hilfe von INCA zu testen Zu diesem Zweck wurden am LRZ und am IDRIS entsprechende Skripten entwickelt und eingesetzt Die Erfahrungen mit INCA in DEISA sollen au
182. Pentium 4 2 8 GHz Dual Core 3 GHz H 1 2 GB Mitarbeiter Arbeitspl tze incl Operateure Hotline Beratung stud Hilfskr fte 100Windows Windows XP VISTA oder Linux ca 90 Dell Fujitsu Siemens Pentium II bis 850 MHz Core 2 Duo 1 256MB 4 GB Laptops f r Pr sentationen Notebooks f r Mitarbeiter 2 5 GHz ca 25 Dell Apple Verschiedene 1 4 0 5 4 GB Benutzerarbeitspl tze f r spezielle Ger te Multimedia ACAD Arbeitspl tze Scanner Multimedia Videoschnittplatz 30 Dell Pentium 4 2 8 GHz Dual Core 3 GHz H 1 2 GB Arbeitspl tze in Kursr umen 4 Sun SPARC Verschiedene 1 0 5 1GB Compute Server 2 davon f r allg Nutzer 2 davon LRZ intern TL ZAT sop ube I TIOL Anz Hersteller Typ Anz Proz Hauptspeicher Aufgaben BVB Server und Storage 1 HP PA Risc 2 2 GB Backup System 23 Sun SPARC Verschiedene 1 16 2 64 GB Zentrales Verbundsystem Lokalsysteme Datenbanken und OPACs 9 Sun Verschiedene 1 8 8 32 GB Firewall Suchmaschinen Cluster Ku FSC Verschiedene 1 8 1 8 GB Suchmaschinencluster OPACS weitere Webdienste Allegro Datenbanken Win dows und Citrix Server Mailserver Netz berwachung SUN Storage FC und SCSI 16 TB Storage f r Datenbanken ca 500 Server ohne direkten Benutzerzugang ca 60 Dell Verschiedene 1 2 1 32 GB Serverdienste unter Windows ADS DDNS Fileserver SQL Exchange 30 Dell Verschie
183. Per YE Anschluss lt 10 MBit s YE Funk xDSL 2 MBit s oder 64 kBit s 6 Stand 31 12 2008 Freising Oberschlei heim Augsburg F rstenfeldbruck Eichenau Iffeldorf Wendelstein Zugspitze Obernach Abbildung 83 Lage der Standorte im MWN Die Areale des MWN werden zu Dokumentationszwecken auch mit K rzeln aus 1 oder 2 Zeichen Un terbezirke benannt 194 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Das MWN ist mehrstufig realisiert e Das Backbone Netz verbindet mittels Routern die einzelnen Hochschul Standorte Areale und Ge b ude innerhalb der Areale e Innerhalb eines Geb udes dient das Geb udenetz mittels Switches zur Verbindung der einzelnen Rechner und der Bildung von Institutsnetzen e Eine Sonderstellung nimmt das Rechenzentrumsnetz ein das die zentralen Rechner im Rechnerw rfel des LRZ miteinander verbindet Das LRZ ist f r das gesamte Backbone Netz und einen Gro teil der angeschlossenen Institutsnetze zu st ndig Eine Ausnahme bilden die internen Netze der Medizinischen Fakult ten der M nchner Universi t ten u a Rechts der Isar TUM Gro hadern und Innenstadt Kliniken LMU sowie der Informatik der TUM Sie werden von den jeweiligen Rechenzentren der Fakult ten selbst betrieben und betreut Das LRZ ist jedoch f r die Anbindung dieser Netze an das MWN zust ndig Die Abbildungen in Abschnitt 2 2 zeigen die f r das Backbo
184. Peripherieger te und Verbrauchsmaterial verantwortungsvoll und konomisch sinnvoll nutzt Der Benutzer ist verpflichtet Beeintr chtigungen des Betriebes soweit sie vorhersehbar sind zu unterlassen und nach bestem Wissen alles zu vermei den was Schaden an der IV Infrastruktur oder bei anderen Benutzern verursachen kann Zuwiderhandlungen k nnen Schadensersatzanspr che begr nden 87 3 Der Benutzer hat jegliche Art der missbr uchlichen Benutzung der IV Infrastruktur zu unterlassen Er ist insbesondere dazu verpflichtet a ausschlie lich mit Benutzerkennungen zu arbeiten deren Nutzung ihm gestattet wurde die Wei tergabe von Kennungen und Passw rtern ist grunds tzlich nicht gestattet b den Zugang zu den IV Ressourcen durch ein geheimzuhaltendes Passwort oder ein gleichwertiges Verfahren zu sch tzen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 275 c Vorkehrungen zu treffen damit unberechtigten Dritten der Zugang zu den IV Ressourcen ver wehrt wird dazu geh rt es insbesondere primitive naheliegende Passw rter zu meiden die Passw rter fter zu ndern und das Logout nicht zu vergessen Der Benutzer tr gt die volle Verantwortung f r alle Aktionen die unter seiner Benutzerkennung vor genommen werden und zwar auch dann wenn diese Aktionen durch Dritte vorgenommen werden denen er zumindest fahrl ssig den Zugang erm glicht hat Der Benutzer ist des weiteren verpflichtet d bei der Benutzung von S
185. Pr sidialbereich M Stammeel nde M Stammeel nde Audimax M Stammeel nde Cafeteria M Stammsel nde Architekturfakult t M Stammeel nde Architekturmuseum M Stammeel nde Bauinformatik M Stammeel nde Fak Bauingenieurwesen M Stammsel nde Bauklimatik und Haustechnik M Stammeel nde Betriebswirtschaft M Stammeel nde Bibliothek M Stammeel nde Bildnerisches Gestalten M Stammsel nde Datenverarbeitung M Stammeel nde Datenverarbeitune Eikon Turm M Stammeel nde Entwurfsautomatisierung M Stammeel nde Fachschaft Architektur M Stammsel nde Geod sie M Stammeel nde Hvdraulik und Gew sserkunde M Stammeel nde Kommunikationsnetze M Stammeel nde LMU Geographie M Stammsel nde STAR Tmunich e V M Stammeel nde Theresianum M Stammeel nde Wasserbau Wasserwirtschaft M Stammeel nde Wirtschaftswissenschaften M Weihenstenhan Altes Bauamt M Weihenstephan Altes Molkereigeb ude M Weihenstephan Bibliotheksgeb ude M Weihenstephan Biologie der Lebensmittel M Weihenstenhan Biowissenschaften M Weihenstephan Bodenkunde Geb ude 4217 M Weihenstephan Botanik M Weihenstephan Braufakult t Geb ude 4112 M Weihenstenhan Chemie Biochemie Geb 4212 M Weihenstephan D rnast Geb 4235 M Weihenstephan Ern hrunsslehre Geb 4107 M Weihenstephan Fischbiologie M Weihenstenhan FML Geb 4124 M Weihenstephan Forstbau Geb 4277 M Weihenstephan Geb 4101 M Weihenstephan Geb 4109 M Weihenstenhan Freisel nde zu 4214 M Weihenste
186. Probleme Er w rde also keinerlei Fortschritt beim Management des MWN bedeuten e Der HPOV NNM 7 5X Advanced Edition entspricht der Standard Edition erweitert um zus tzliche Features Er bietet eine verbesserte Layer 2 Topologie funktioniert wenn auch nicht fehlerfrei eine verbesserte Status berwachung und Root Cause Analyse und eine rudiment re VLAN Unterst tzung Die integrierte VLAN Unterst tzung ist aber f r das MWN nicht brauchbar da die Tagging Informa tion der VLANs auf den Ger te Interfaces fehlt Au erdem ist die Administrationsschnittstelle des HPOV NNM 7 5X AE ung nstiger weil f r die zus tzlichen Funktionalit ten ein neues langsames Java Web Interface integriert wurde e Der HPOV NNM 18 0 ist das neueste Produkt von HP Dieses Produkt ist zu einem gro en Teil eine Neuentwicklung und weist gute Ans tze auf einheitliche Administrationsschnittstelle fortschrittli ches Web Interface Die Entwicklung ist hier aber noch nicht weit genug fortgeschritten um dieses Produkt im MWN produktiv einsetzen zu k nnen Beispielsweise gibt es keinerlei selbst definierba ren Karten und Sichten sondern nur eine dynamische Karte mit der Layer 2 Topologie f r das ge samte Netz e Der IBM Tivoli Network Manager hat die in Anforderungen f r das MWN insgesamt am besten er f llt Insbesondere bietet er eine weitgehend korrekte Discovery der Layer 2 Topologie sehr vielf l tig konfigurierbare Karten und Sichten eine f
187. RZ betreibt Server f r solche Dienste an die sich andere Rech ner Clients wenden und ihre Dienste in Anspruch nehmen k nnen Entsprechende Client Software ist f r fast alle Rechnertypen und Betriebssysteme verf gbar muss aber unter Umst nden erst installiert werden 2 7 1 WWW Zope und Suchmaschinen Das WWW World Wide Web begann vor mehr als einem Jahrzehnt als ein verteiltes weltweites Infor mationssystem und ist neben E Mail der wohl popul rste Internet Dienst Weit ber den Charakter eines Informationssystemes hinaus werden Webserver inzwischen zu Web Services ausgebaut um unterschied lichste Aufgaben zu bernehmen Diese reichen vom Online Banking bis zum Shop vom Zugriff auf Dateisysteme bis zur Online Bibliothek und vom Intranet bis hin zum Webportal Zur Realisierung all dieser unterschiedlichen Anwendungen werden neben Webbrowsern auf der Client seite und Webservern auf der Serverseite zunehmend weitere Applikationsserver in die Weblandschaft integriert Diese realisieren komplette Content Management Systeme Portall sungen oder auch Authen tisierungs Server Datenbanken etc Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 41 Hochschuleinrichtungen z B Lehrst hle Institute k nnen ihre Webauftritte in einer vom LRZ bereit gestellten Webumgebung betreiben Dadurch k nnen sie sich auf die Inhalte und Anwendungen konzen trieren w hrend der Betrieb der Server beim LRZ liegt Von diesem Angebot machen
188. Recovery Prozessen Weitere TSM Serverinstanzen Im Laufe des Jahres wurden mehrere neue TSM Serverinstanzen in Betrieb genommen Ende 2008 war die Gesamtanzahl an TSM Serverinstanzen auf 44 angewachsen Hardware seitig besteht das Archiv und Backupsystem des LRZ aus zwei gro en Systemen mit Bandro botern einem neueren Hochleistungssystem HABS und einem lteren System mit LTO Bandlaufwerken f r moderatere Anforderungen LABS Hardware Erweiterung HABS Anfang 2008 wurde die schon im Vorjahr geplante umfangreiche Erweiterung des HABS durchgef hrt Die STK SL8500 Library wurde auf 8360 Stellpl tze erweitert die Laufwerksanzahl von 16 auf 26 er h ht Um die gestiegene Anzahl von FC Ger ten anschlie en zu k nnen wurden die beiden FC Direktoren mit 32 Port Erweiterungsblades auf nun jeweils 96 Ports aufger stet Au erdem wurden zwei weitere Plattencontroller zusammen mit 4 Plattenshelves in Betrieb genommen und Shelves der vorhan denen Systeme auf die neuen Controller umgeh ngt Die Bandbreite der Plattensysteme zu den ange schlossenen Rechnern konnte durch diese Ma nahmen verdoppelt werden In der zweiten Jahresh lfte wurden noch weitere 2 Plattenshelves installiert LTO4 Laufwerke am LABS Die 2003 beschafften LTO2 Bandaufwerke des LABS gen gen den gewachsenen Anforderungen nicht mehr Daher wurde im Vorgriff auf eine gro e im Jahr 2009 anstehende Beschaffung im Herbst 2008 mit der Evaluation und Produktivf hrung von LT
189. ST BEN H Computational Methods in Science and Technology CMST 14 2 Performance of Quantum Chromodynamics QCD Simulations on the SGI Altix BADER R Continuing the Standardization Effort Fortran 2008 InSide Innova tives Supercomputing in Deutschland Vol 6 No 2 BAUR T Functional Analysis and Architecture for Interoperable and DVO specific Grid Monitoring Services In Proceedings of the Fourth IEEE Interna tional Conference on eScience eScience 2008 to appear IEEE Computer Soci ety Press Indianapolis USA Dezember 2008 BAUR T BREU R KALMAN T LINDINGER T MILBERT A POGOSHYAN G ROMBERG M Adopting GLUE 2 0 for an Interoperable Grid Monitoring System In Proceedings of the Cracow Grid Workshop CGW08 ACC CYFRONET AGH Cracow Poland Dezember 2008 BOURSAS L CARLSON M HOMMEL W SIBILLA M WOLD K Systems and Vir tualization Management Standards and New Technologies Proceedings of Second International Workshop SVM 2008 Communications in Computer and Informa tion Science CCIS 18 Springer Verlag Oktober 2008 BOURSAS L EBNER R HOMMEL W KNITTL S PLUTA D Hochschul bergreifend integriertes Identit ts Management am Beispiel des M nchner Wissenschaftsnet zes In IIM2008 Integriertes Informationsmanagement an Hochschulen Work shop im Rahmen der 38 Jahrestagung der Gesellschaft f r Informatik e V GI M nchen September 2008 BOURSAS L HOMMEL W Derivation and use of trust and
190. Spitzenleistung pro Prozessor und 12 MByte Hauptspeicher e Spitzenleistung des Gesamtsystems 1 2 TeraFlop s e ca 180 TeraByte gemeinsamer Plattenplatz FC RAID Disk Subsysteme und Lustre als paralle lem Dateisystem Bandbreite ca 6 0 Gigabyte s Charakteristik und Anwendungsgebiete e Hochleistungsdurchsatzmaschine f r serielle parallele Anwendungen e Verf gbarkeit vieler kommerzieller Pakete aus Strukturmechanik Fluiddynamik und Computa tional Chemistry 30 Teil I Das Dienstleistungsangebot des LRZ e Die g ngigen Programmiermodelle shared bzw distributed memory werden in Form von OpenMP bzw MPI unterst tzt Versorgungsbereich e Bayerische Hochschulen 2 3 1 2 3 SGI Altix Systeme F r die Abarbeitung komplexer paralleler Anwendungen stehen zwei Altix Systeme zur Verf gung Zum einen seit Anfang Februar 2005 eine Maschine vom Typ SGI Altix 3700 Bx2 linker Bildteil unten mit 128 Madison Cores zum anderen seit August 2007 eine Maschine vom Typ SGI Altix 4700 rechter Bild teil unten mit 256 Montecito Cores Beide sind sogenannte ccNuma cache coherent non uniform memo ry access Systeme deren Prozessoren jeweils ber ein Hochgeschwindigkeits Netzwerk vom Typ NU MALink4 gekoppelt sind Damit stehen zwei getrennte Single System Image Distributed Shared Memo ry Systeme zur Verf gung die sowohl MPI als auch OpenMP Programmiermodelle unterst tzen 1 h dh Abbildung 10 Rechner Racks SGI Altix 3700 und
191. Vi sualisierung Vertrag mit Wolfram Research via Fa Additive seit Anfang 2005 ber 3 Jahre g ltig Jede einzelne Institutslizenz gleich ob Netz oder Einzelplatzlizenz berechtigt auch zur Nutzung einer zugeh rigen home Lizenz Vertrag im Herbst 2007 neu ver handelt und abgeschlossen Matlab Weitere Sammel Nachbestellungen f r Produkte der Firma The MathWorks Inc Der Bestand an sog floating network licenses wurde in 2007 zuletzt um 100 auf 362 Grundlizenzen erh ht mit unz hligen Zusatzmodulen die den Anwendern dynamisch zu geordnet werden Art und Anzahl der verf gbaren Zusatzmodule wurden auch in 2008 wieder erweitert Microsoft Select Vertrag bis Juli 2009 Unter diesem vertraglichen Dach kann der Gro teil der Microsoft Produkte aus den Bereichen Applikatio nen System und Server Software k uflich bezogen werden Der Verl ngerung des Bayernweiten Rahmenvertrags sind wiederum weitere Hochschulen und andere Einrichtungen aus Forschung und Lehre beigetreten Den Kliniken wurde im Herbst 2008 die Bezugs berechtigung im Rahmen des bestehenden Vertrages von Microsoft entzogen Durch Abschluss eines separaten Selectvertrages hat das LRZ die Versorgung der Kliniken wieder gesichert Mindmanager Gemeinsam mit den Unis Bayreuth Erlangen und W rzburg wurde f r den M nchner Campus ein dreij hriger Mietvertrag abgeschlos sen der die Rundumversorgung Einrichtungen Mitarbeiter und Studenten auch zuhause zul sst
192. W Bez gsm glichkeiten 22 02 02 20 ne E EEEE ET SE 96 3 38 Statisk eensasenekere ns Eed EENEG deefe 99 5 4 Benutzerverwaltung und Verzeichnisdienste nn en nn 100 5 4 1 F r LRZ Systeme vergebene Kennungen nn 100 5 4 2 Projekt LRZ Secure Identity Management 101 5 4 3 Directory Applikationsservice f r das mv TUM MWebportal s s0ssnssseeneeseeseseene 105 5 4 4 IntegraTUM Teilprojekt Verzeichnisdienst een 105 5 3 Netzdienster r nen RE ee AE EE SEA 111 99 e EE 111 5 5 2 Domain Name wette eegene Sena DEENEN Ee 112 5 5 3 W hlzug nge Modem lISDN ernennen 112 54 o E Mail SerVic S ahann a a A A A AN 114 5 59 AN bieten rE E EAT E sun T TERR 120 KR ORK ET EE 121 5 6 Grafik Visualisierung Multmeda ernennen 122 5 6 1 Visualsierungs Protckte ons ennn nen 122 5 7 Einsatz von Linux und Soares 123 334 1 gt Ee UE EE EE 123 5 7 2 2BErver unter Solaris nn ae e 123 5 7 3 PCs unter Linux als Mitarbeiterarbeitspl tze en 124 5 8 Desktop und Applkatonsservices nn enn nennen 124 5 8 1 Sicherheitsdienste f r Desktops im MWN nn enne nn 124 5 8 2 Active Directory im M nchner WissenschaftsnetZ sseneeneeeeeneen 125 5 8 3 Remote Desktop Management 127 5 8 4 Exchange Groupware Serverseite eenseensesseensnennennensnnnennnnnnennsnnnseenne ernennen 127 5 8 5 System Center Operations Manager 127 5 8 6 Weitere Protektarbeten een iaa 128 5 9 Umzug der IT des Bibliotheksverbund Bayern an das LR 129 5 10 Sicherhei
193. ademie 2 5 0 1 1 5 129 187 154 EEN 129 187 14 129 187 19 129 187 131 138245 0 imo mea Grosshaden ll o 14184 43 129 187 43 stwn __ servernetze Studentenwohnheime od oJ os 14139 128 mum betrieb OOO o o A 141 39240 FR m nchen E T A T T 192 68211 1 pinakotheken und Gate J od od A4 129 187 45 mom servernetze tum gg 129 187 148 129 18751 129 187 398 141 84147 mmu femo Tg 193 174 938 ss Staatsbibliothek 129 187 227 Tom Mensch Machine Kommunikation oo 94 193 174 96 eve Verbundene o Oo o o o 129 187 206 129 187 41 138 246 98 129 187 39 129 187 24 129 187 100 129 187 52 em eum oo o o o A8 129 187 160 19254 42 Tabelle 37 Die aktivsten Subnetze am WiN Zugang im November 2008 Zum Thema Netflow IPFIX und die verschiedenen Anwendungsm glichkeiten im Netzmanagement ver anstaltete das LRZ im Rahmen des Europ ischen Network of Excellence for the Management of Internet Technologies and Complex Services EMANICS www emanics org einen Workshop 7 4 4 Monitoring am WiN Zugang Am WiN bergang wird sowohl der ausgehende als auch der eingehende Verkehr des MWN analysiert Dabei liegt der Schwerpunkt auf dem ausgehenden Verkehr Zur Analyse des Netzverkehrs werden zwei Verfahren verwendet Vergleich mit Angriffssignaturen und statistische Verfahren Ausgehender Verkehr e Vergleich mit Angriffssignaturen o Automatische Sperrung von auff lligen FTP Servern Details siehe Jahresbericht 2007 o SSH Portscans d h Ve
194. aftliche Fakult t Forschungsreaktor Fachschaft Elektro amp Informationstechnik Fachschaften MPI Hochschule M nchen Institut f r medizinische Informationsverarbeitung Biometrie und Epidemiologie Institut f r Kommunikationswissenschaft Fachschaft Elektro amp Informationstechnik Institut f r Medizinische Optik LMU 114 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme info tum Informatik TUM kue Katholische Universit t Eichst tt Ife tum Lehrstuhl f r Ergonomie TU Ikn tum Lehrstuhl f r Kommunikationsnetze Imu de Verwaltung LMU loek tum Lehrstuhl f r Landschafts kologie TU Ipr tum Lehrstuhl f r Prozessrechner math Imu Mathematisches Institut LMU math tum Zentrum Mathematik TU M nchen med Imu de Medizin der LMU Gro hadern meteo imu Meteorologisches Institut LMU mnet Irz muenchen de Firma M net angeschlossene Institute mytum de Mitarbeiter und Studenten der TUM ocii tum Institut f r Organische Chemie und Biochemie Lehrstuhl Il org chemie tum Institut f r Organische Chemie und Biochemie Lehrstuhl III pc tum Institut f r Physikalische Chemie TUM photo tum Lehrstuhl f r Photogrammmetrie und Fernerkundung physik Imu de Fakult t f r Physik der LMU radius wzw tum Informationstechnologie Weihenstephan ITW rcs tum Lehrstuhl f r Realzeit Computersysteme regent tum Lehrstuhl f r Rechnergest tztes Entwerfen rz fhm Rechenzentrum der FH M nchen Studenten staff fhm Rechenzentrum der FH M nchen
195. ah auf den Webseiten des LRZ bereitgestellt Zwei Prozent der durchschnittlichen j hrlichen Verf gbarkeit werden f r geplante Wartungsarbeiten ber die der Kunde vorab unterrichtet wird reserviert Auf weitere zwei Prozent wird die maximale St rungszeit durch Ausf lle von Hardware Warten auf Ersatzteile und St rungen der Software gesch tzt Die durchschnittliche j hrliche Verf gbarkeit des ABS Systems betr gt somit mindestens 96 Durch lange Reaktionszeiten der Hardware bzw Softwarehersteller bei der Analyse und Behebung von Problemen kann sich die Verf gbarkeit unter Umst nden weiter reduzieren Der Standardfall sieht eine Reaktion des Herstellers sp testens am n chsten Arbeitstag vor Das Leibniz Rechenzentrum ist daher 286 Teil II Anhang 6 nicht in der Lage die genannte Verf gbarkeit zu garantieren auch wenn in den vergangenen Jahren eine deutlich h here Verf gbarkeit erreicht wurde 10 Support durch das LRZ Das LRZ kann nur in beschr nktem Ma Hilfestellung bei der Installation Konfiguration der Client Software und bei auftretenden Problemen geben Insbesondere k nnen keine Antwortzeiten garantiert werden W hrend der regul ren Arbeitszeiten wird versucht auf einen Dienstauftrag bzw eine Problem meldung am gleichen Arbeitstag zu reagieren die Bearbeitungsdauer ist abh ngig von der Komplexit t des Problems Der empfohlene Benachrichtigungsweg bei Fragen Problemen oder St rungen ist eine E Mail an ab
196. al Organizations Journal of Grid Computing Springer Netherlands Oktober 2008 WEI T GONG J JAMITZKY F HECKL W M STARK R W R SSLE S C LRRML a conformational database and an XML description of leucine rich re peats LRRs BMC Structural Biology 2008 8 47 266 Teil II Organisatorische Ma nahmen im LRZ WEINBERG V Untersuchung der Struktur des QCD Vakuums mit Hilfe von Over lap Fermionen Freie Universit t Berlin Dissertation Februar 2008 8 10 Promotionen und Habilitationen am LRZ Auch 2008 haben wieder einige Mitarbeiter erfolgreich ihr Promotionsvorhaben am LRZ abgeschlossen Folgende Arbeiten entstanden in diesem Zusammenhang e Schmitz D Automated Service Oriented Impact Analysis and Recovery Alternative Selection Ludwig Maximilians Universit t M nchen Dissertation Juli 2008 Betreuer Prof Dr H G Hegering e Weinberg V Untersuchung der Struktur des QCD Vakuums mit Hilfe von Overlap Fermionen Freie Universit t Berlin Dissertation Februar 2008 Betreuer Prof Dr V Linke Dar berhinaus konnte ein Mitarbeiter auch erfolgreich sein Habilitationsvorhaben abschlie en In diesem Zusammenhang entstand folgende Arbeit e Reiser H Ein Framework f r f deriertes Sicherheitsmanagement Ludwig Maximilians Universit t M nchen Habilitation Mai 2008 Mentor Prof Dr H G Hegering Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 267 9 Programmausstattung des LRZ An den Rechnern des L
197. al des LRZ ist dar ber hinaus ein noch leistungsf higeres System fest eingebaut ein Modell Tandberg 6000 MXP Dieses wird w hrend des Semesters regelm ig bei verteilten Vorlesungen genutzt die abwechselnd in der Innenstadt und im LRZ in Garching gehalten werden Die Studierenden k nnen dabei an dem f r ihren Terminplan jeweils g nstiger gelegenen Standort interaktiv teilnehmen Weitere Informationen zu Videokonferenzen am LRZ finden Sie unter wwn Irz de services peripherie vc 2 9 9 Visualisierungszentrum Im Jahr 2000 wurde im LRZ das Visualisierungszentrum gegr ndet Eine gro formatige Zweifl chen Projektionsanlage f r Virtual Reality VR bildet hier den Mittelpunkt Ein Visualisierungs Cluster steuert die Anlage an Unsere verleihbare mobile 3D Projektionsanlage das Head Mounted Display so wie diverse Eingabesysteme runden das Angebot ab Wir bieten eine fundierte Grundlage f r die Entwicklung von Anwendungen mit 3 D Computergrafik Unsere Erfahrungen in Stereoskopie Virtual Reality 3 D Visualisierung Spezial Soft und Hardware werden im Rahmen von Kursen pers nlichen Beratungsgespr chen und Projektbetreuung eingesetzt Diese M glichkeit nutzen unsere Kunden in Forschung und Lehre Ein Besuch im Visualisierungszentrum ist ein fester und beliebter Bestandteil von offiziellen F hrungen durch das LRZ Einsatzgebiete der Ausstattung In folgenden Einsatzgebieten kommt unsere Ausstattung typischerweise zum Einsatz e W
198. ale Truck due iesea EE mehren nie 47 29 3 Stutzpunktk nzept z ne2 en ea ans ee EE 48 2 9 4 Multimedia Streaming Servet ss ssessosseseesseeeesseeseestessesttsresetssesresstssessessssseesresees 48 2 9 5 Digitaler Videoschnitt uuerseerseesssessneesnensnnennnnnnnnnnsennnennneennennennnennennnnannnnn 49 Ze Multimedialabor resenssasesareienekenbankkealers al 49 ZOT GAD Arbeitspl tzen nsneer ern a en ernennen 49 2 98 Videokonferenzen eebe Age eg san EEN 49 2 9 9 Visualisierungszentrum uueerseersessneesnensnesnnsnennnnnsnnnsnenseenneenn ons ennennennnnsnnnnn 50 2 9 10 Remote Visualisierungsserver ussseesseeenensnnesnneensnnnsennnennneensennnennenneenennnnnnn 52 2 10 Betrieb von Netz Rechnern und Serversystemen uensesssssnssnnesneennennnnnnennnnenneenne ernennen 53 ii Inhaltsverzeichnis 2 10 1 Netzkomponenten und Rechenanlagen nn 53 2 10 2 Serversysteme und deren Funktionen unseeseessenseensneennensnnnennnenen nennen nn nnne 54 2 11 Remote Desktop Management 58 2 12 Bibliotheksverbund Bayer 59 2 12 1 Umzug des RZ der Verbundzentrale ins LRZ s sssssssssssossessessesresseessssesseeseesreseesse 59 2 12 2 Migration des Verbundavstemclhusterg nennen 59 2 12 3 Migration der Datensicherung auf das LRZ Sicherungssystem TSM 59 2 12 4 Einsatz von Virtualisierungstechniken nennen 59 2 192 5 Solaris Live pgrade ees Seele EN 59 2 12 06 Ersatz Windows Cluster teesi
199. alierungsprobleme zu Tage traten die schrittweise zu beheben waren s Abschnitt Wartungsma nahmen Im LHC Grid wird ein Speicherkonzept auf der Basis von dCache mit vereinfachter Semantik zugunsten hoher Datenverarbeitungsraten verfolgt das am LRZ auf der Basis von 142 TByte kosteng nstigem Plat tenspeicher JBOD in 15 Serversystemen realisiert wurde die aggregierte Bandbreite auf diesen Syste men betr gt etwa 9 GigaByte s 6 1 2 5 Endkonfiguration F r das M nchner Tier 2 Zentrums am LRZ f r das Large Hadron Collider Computing Grid LCG sol len noch bis Ende dieses Jahres weitere 68 Quad Core Rechenknoten sowie 10 dCache Knoten mit 240 TByte Hintergrundspeicher in Betrieb genommen werden Den Linux Cluster Nutzern stehen damit Ende 2008 insgesamt 3678 Prozessor Kerne mit einer Spitzenleistung von 25 2 TFlop s sowie 726 TByte an Hintergrundspeicher zur Verf gung 6 1 2 6 Wartungsma nahmen Es wurden im Berichtszeitraum drei gr ere Wartungen ausgef hrt Installationswartung Anfang M rz Zur Inbetriebnahme der neuen Infrastruktur war eine Betriebsunterbrechung erforderlich neben Hardwa re Arbeiten wurde hierbei die neue Lustre Dateisystemstruktur verf gbar gemacht 146 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Netzwerk Infrastruktur Mitte Mai Die von den Lustre Dateisystemen generierte Netzwerklast f hrte zu Paketverlusten im Cluster Netzwerk Neben einer Umstrukturierung d
200. anagement am LRZ ist die nml Irz muenchen de Der Server wurde im Jahr 2003 neu konzipiert und installiert Auf diesem Server ist der HP OpenView Network Node Manager in der Version 6 4 installiert Zurzeit werden vom HPOV NNM ca 2 800 Netzkomponenten und Server mit netzrelevanten Diensten ber wacht an denen ca 81 000 Interfaces angeschlossen sind Au erdem sind 1 500 IP Subnetze vom HPOV NNM erkannt worden von denen aber nur die IP Subnetze mit Netzkomponenten und wichtigen Servern aktiv d h per SNMP Simple Network Management Protokoll oder Ping berwacht werden Der aktive Support f r die Version 6 4 des NNM lief zum Ende des Jahres 2007 aus bis Ende 2009 be steht noch die M glichkeit die Wissensdatenbanken von HP bzgl Problemen mit dieser Version zu durchsuchen Die Suche nach einem Nachfolge Werkzeug f r den HPOV NNM 6 4 wurde schon 2007 begonnen und m Jahr 2008 fortgesetzt Als Nachfolger f r den HPOV NNM in Version 6 4 kommen u a folgende Tools in Frage der HPOV NNM 7 51 in den Auspr gungen Standard Edition und Advanced Edition die ganz neue Version des HPOV NNMi 8 0 und der Tivoli NetworkManager von IBM Neben diesen gibt es eine ganze Reihe von kommerziellen und Open Source Werkzeugen im Bereich Netz und Dienstmana gement die aber aus unterschiedlichen Gr nden nicht in die engere Auswahl gezogen wurden weil sie jeweils bestimmte Anforderungen nicht erf llen konnten oder f r ein Netz in der Gr e des MWN als
201. andere Softwarepakete ausgedehnt werden soll Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 151 VMD I 8 6 OpenCL Diapiay File Molecule Graphics Display Mouse Extensions Help Selected Molecule 0 apoal psf X Create Rep Delete Rep Style Color Selection unaw Resfype proten e all not water a Hostname sgi altx e water Pot a700 Connect Detach Sim Stop sim Fr Timestep transfer rate 0 ted Atoms Timestep keep rate 0 protein timesteps 26088 5 temp 627 413330 Trajectory Periodic energy 30851 921875 Material bon 47758 246094 Opaque angle 42683 710936 dihedral 8546 023438 improper 483 515076 Default vaw 13389 131636 elec 254482 781250 RELATIVE IMPRECISION IN SCOR TABLE FORCE 3 56912e 15 AT 11 9138 ABSOLUTE IMPRECISION IN VDWA TABLE ENERGY 9 86076e 32 AT 11 8295 Info RELATIVE IMPRECISION IN VDWA TABLE ENERGY 6 75473e 14 AT 11 9138 Info ABSOLUTE IMPRECISION IN VDWA TABLE FORCE 4 62223e 32 AT 11 9138 Info RELATIVE IMPRECISION IN VDWA TABLE FORCE 2 12237e 15 AT 11 9138 Info ABSOLUTE IMPRECISION IN VDWB TABLE ENERGY 4 1359e 25 AT 11 8295 Info RELATIVE IMPRECISION IN VOWS TABLE ENERGY 7 56853e 15 AT 11 9138 Info ABSOLUTE IMPRECISION IN VOWB TABLE FORCE 3 87741e 26 AT 11 9138 Info RELATIVE IMPRECISION IN VDWB TABLE FORCE 5 97409e 16 AT 11 9138 Info Interactive MD listening on port 4700 Info Entering startup phase 8 with 70408 kB of memory
202. ar ber hinaus mit 256 Kilobyte Level 2 Cache und 9 Megabyte Level 3 Cache ausgestattet im Unterschied zum normalen Hauptspeicher laufen diese Ca ches mit der vollen Systemfrequenz sodass solche Anwendungen die ausreichend oft Daten aus dem Cache wiederverwenden k nnen eine sehr hohe Anwendungsleistung erzielen Auf der am LRZ instal lierten Altix 4700 sind die Speicherb nke der 13 Single Socket Blades mit 8 Gigabyte pro Blade und der 6 Dual Socket Blades mit 16 Gigabyte pro Blade best ckt Ein Ein Ausgabe Knoten besteht aus einer Cache Koh renzschnittstelle TIO Chip und einem ASIC der die g ngigen IO Schnittstellen wie zum Beispiel PCI X oder PCI Express bereitstellt Die Koh renz schnittstelle erlaubt es Daten cache koh rent direkt von der IO Schnittstelle z B PCI X Karte ber den Numalink4 Interconnect in den verteilten Hauptspeicher auf den Prozessorknoten zu transportieren Aufbau der Verbindungsstruktur Der NumaLink4 Interconnect der Altix 4700 verbindet die einzelnen Blades miteinander Er unterschei det sich von handels blichen Verbindungsstrukturen dadurch dass der Zustand des gesamten Hauptspei chers zu jeder Zeit f r alle Prozessoren sichtbar ist Dar ber hinaus ist die Latenz beim Zugriff auf Daten auf anderen Blades gering Der Interconnect besteht aus 8 Port Routern 8 Port Metaroutern und Back planeverbindungen der Nodeboards mit den Routern sowie Kabelverbindungen der Router mit den Meta routern Jede
203. ar in leicht lesbarer Form wird ein berblick gegeben ber die Aufgaben das Dienstleistungsangebot die systemtechnische Ausstattung und unsere Nutzungsregelungen Der Teil I der vorliegenden Schrift ist der Jahresbericht im engeren Sinne hier wird ber die im Jahre 2008 erzielten Fortschritte im Bereich der Dienste und Nut zung der Systemausstattung der Kommunikationsnetze der Programmausstattung und des Betriebs be richtet Die Darstellung beschr nkt sich nicht auf eine Faktenaufz hlung an vielen Stellen werden die Zahlen kommentiert Ma nahmen motiviert bzw begr ndet und Alternativen diskutiert Entscheidungs kriterium war immer bei gegebener Personal und Finanzkapazit t Dienstg te und Kundennutzen zu maximieren Seit vielen Jahren unterst tzt das Leibniz Rechenzentrum als Voraussetzung f r eine dezentrale DV Grundversorgung gezielt kooperative verteilte Versorgungskonzepte Deshalb steht im Fokus unserer Arbeit als Hochschulrechenzentrum das verbindende Element aller verteilten DV Ressourcen der Hoch schulen n mlich das Kommunikationsnetz mit seinen facettenreichen Netzdiensten Auf diesem Gebiet leisten wir Planung Bereitstellung und Betrieb aber auch international anerkannte Entwicklung und For schung Pilotimplementierungen und Testbeds machen uns zu einem Netzkompetenzzentrum von dem unsere Kunden durch immer innovative Technologie und ein modernes und st ndig weiterentwickeltes Dienstleistungsangebot profitieren Es
204. aren eine L cke die sich l ngst geschlossen hat Au erdem erforderten manche Grafikprogram me damals den unmittelbaren Zugang zum Rechner Auch daf r besteht inzwischen kein Bedarf mehr deswegen wurden die letzten ffentlich zug nglichen Maschinen im Oktober 2003 aus den Benutzerr u men entfernt so dass diese Workstations nur noch ber das Netz zu erreichen sind Die Maschinen haben mittlerweile f r zahlreiche Nutzer des LRZ einen anderen Verwendungszweck bekommen sie dienen ihnen als Zwischenstation bei der Nutzung anderer LRZ Rechner und als Sprung 34 Teil I Das Dienstleistungsangebot des LRZ brett ins Internet Typische Nutzer sind solche die ohnehin ihre Daten am LRZ halten bzw pflegen vir tuelle Webserver und denen die gewohnten Arbeitsweisen f r ihre Bed rfnisse ausreichen so dass sie keinen Grund daf r sehen sich auf einem PC eine neue Umgebung einzurichten Au erdem ist dort auch die eine oder andere Software installiert um deren Aktualisierung sich die Benutzer nicht zu k mmern brauchen wie sie es auf ihrem Instituts oder Heim PC selbst tun m ssten Dar ber hinaus dienen die Systeme Windows Benutzern im MWN als X Server f r Unix Anwendungen Es ist geplant diesen Dienst der zahlreichen Kunden in 2008 ca 600 verschiedene Kennungen Arbeit abnimmt auch in Zukunft in kleinem Umfang weiter anzubieten 2 4 Datenhaltung und Datensicherung Das LRZ hat in zunehmendem Ma e die Aufgabe bernommen in ein
205. arline Storage Datensicherung von Servern des MWN 5 510 TB unkomprimiert Mittelfristige Ablage gro er Datenmengen Langzeitarchivierung SAN Storage ABS Disk Cache Datenbanken 223 TB Network Attached Email Web ELearning Datenbanken 450 TB Storage Filesystem Ablage hausweit hochschulweit Arbeitsverzeichnisse des HPC Bereichs High Performance SAN Filesystem am Bundesh chstleistungsrechner 600 TB Storage Paralleles Filesystem Lustre am Linux Compute Cluster 51 TB Tabelle 3 Speicherarchitekturen und ihr Anwendungsgebiet Bei der Zusammenstellung wurden nur die Speichermedien ber cksichtigt die unmittelbar der Massenda tenhaltung Archiv und Backup dienen bzw gro e Mengen Online Speicher zentral bereitstellen nicht enthalten sind die an den einzelnen Serverrechnern lokal installierten Platten Unter Nearlinesystemen versteht man Speicher die nicht in direktem Zugriff sind der Datentr ger in der Regel eine Kassette muss erst in ein Laufwerk geladen werden Durch die Hardwarekomprimierung der Bandlaufwerke wird in der Praxis eine deutlich h here Speicherbelegung erreicht als in der Tabelle ange geben Nearline Speichersysteme Bandlaufwerke Kassetten Kapazit t IBM UlItraScalable Tape Library L52 20 x IBM LTO 2 5 000 1 000 TB IBM UltraScalable Tape Library L32 20 x IBM LTO 2 4 400 1 360 TB 4 x IBM LTO 4 600 Library SUN SL8500 26 x SUN T10K 6 3001 3 150 TB Gesamt 16 300 5 510 TB Tab
206. as vorge nannte ServicePack 1 seitens des Distributors Novell SuSE nicht mehr unterst tzt d h notwendige Si cherheits Updates der Software stehen nicht mehr zur Verf gung Zwar kam das Ende f r ServicePack 1 nach nur einem Jahr Laufzeit unerwartet fr h als Reaktion darauf erfolgt jedoch der Upgrade auf die aktuelle Version bzw das ServicePack 2 wie gewohnt Schritt f r Schritt d h mit einer geplanten Umstel lungsphase von 3 Monaten Neuerungen bzw Neuinstallationen waren nur bedingt durch Neuanstellungen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 189 1400 OSGI Altix 1300 EiLinux Cluster 1200 gMitarbeiter Arbeitspl tze OKurs Cluster 1100 f m BVB Server 1000 m Grid Server IR m Server Basisdienste a SE IE Virtuelle Linux Hosts un a 700 INN rr R u ne g a R d Kc I p g I m n 8 j Se 100 CL EI IP ut PP eg an emm EI A 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 Abbildung 81 Anzahl der Linux Hosts im Leibniz Rechenzentrum 6 8 4 Betriebs berwachung Die Verbesserung der berwachung ist ein kontinuierlicher Prozess der auch 2008 fortgesetzt wurde Hierzu z hlt das Prinzip die Dienst berwachung auf mehrere sogenannte berwachungssatelliten zu verteilen deren Konfiguration in der Obhut verschiedener Dienstadministratoren liegt Diese Satelliten sind jeweils einer Gruppe von Servern und damit einer Dienstgattung oder einem Aufgabenbereich zu geordnet Im LRZ
207. aschinen zur Verf gung F r die gezielte Suche ber bestimmte Teilbereiche wie beispielsweise alle Webserver einer Hochschule sind die gro en Suchma schinen jedoch ungeeignet Auch eine Suche ber interne Webseiten ist nicht m glich und die Aktualisie rung der Such Indizes ist nicht steuerbar Daher bietet das LRZ den Hochschuleinrichtungen Suchma schinen f r die gezielte Suche an Diese werden seit Fr hjahr 2006 mit der kommerziellen Suchmaschi nensoftware Webinator der Firma Thunderstone betrieben Das LRZ stellt ein gutes Dutzend Such Indizes zur Verf gung die jeweils f r die Suche ber einen ein zelnen Webserver oder eine genau definierte Gruppe von Webservern eingerichtet sind insbesondere nat rlich f r die Suche auf dem WWW Server des LRZ 2 7 2 Proxy und Gatewaydienste Proxy Server dienen dazu f r bestimmte Protokolle Zugriffe stellvertretend f r andere Server zu bedie nen Durch die Pufferung von Inhalten auf lokalen Platten kann dadurch eine Reduktion des n tigen Da tenverkehrs erreicht werden f r Clients mit privaten IP Adressen oder durch Firewalls eingeschr nkter Konnektivit t kann der Zugang durch Proxys erm glicht werden Au erdem kann am Proxy eine Zu griffskontrolle Pr fung der Berechtigung zur Dienstnutzung erfolgen Im M nchner Wissenschaftsnetz werden seit Ende 2005 keine zentralen Proxys mehr betrieben da sie durch den neuen NAT Service siehe 7 4 1 obsolet geworden waren Die durch die Proxy
208. atingpoint Operations pro Sekunde 1 000 000 000 000 Gleitkomma Rechenoperationen pro Sekunde Tabelle 24 Kennzahlen des Systems 6 1 1 2 Betriebliche Aspekte Im Berichtsjahr 2008 wurden nur kleinere Firmware und Software Updates zur Erh hung der Betriebs stabilit t durchgef hrt Diese waren haupts chlich aufseiten des parallelen Dateisystems CXFS und des Stapelverarbeitungssystems PBSPro angesiedelt Desweiteren wurde eine erweiterte Fehlerverfolgung im NUMALink Netzwerk aktiviert Da ab November 2008 das Betriebssystem SLES10 ServicePack 1 sei tens des Distributors Novell SuSE nicht mehr unterst tzt wird d h notwendige Sicherheits Updates der Software nicht mehr zur Verf gung stehen ist ein baldiger Upgrade auf das ServicePack 2 angestrebt Bedingt durch die nachfolgend ben tigten Anpassungen seitens sgi ist dieser f r das Fr hjahr 2009 ge plant HLRB Il Verf gbarkeit 22 Sept 2006 31 Dez 2008 Upgrade auf Phase 2 CXFS dump restore 100 00 90 00 80 00 o oS 70 00 D 60 00 x 50 00 40 00 E 30 00 V 20 00 gt 0 HLRB II nicht verf gbar 10 00 HLRB Il verf gbar 0 00 SS Zee ie 22 11 2006 4 22 01 2007 4 22 05 2007 22 11 2007 4 22 01 2008 22 03 2008 4 Es e S N Dei Q N N 22 09 2006 4 22 03 2007 4 22 07 2007 22 09 2007 4 22 07 2008 22 09 2008 22 11 2008 Abbildung 44 bersicht ber die Verf gbarkeit des HLRB II SGI Altix 4700 Den gravierend
209. ation von Standardaufgaben Gruppen Ressourcen Mailadressen in fakul t ts oder lehrstuhlweiten Maildomains wurde nach einer L sung gesucht die sich f r unterschiedliche Mandanten im MWN eignet also nicht auf die Informationsinfrastruktur eines einzelnen Mandanten zu geschnitten ist e Zun chst wurde der ActiveRoles Server von Quest getestet Da Exchange 2007 von ActiveRoles aber nur rudiment r unterst tzt wird w re trotzdem noch gr erer Aufwand f r Skripte angefal len ActiveRoles bietet zwar ein gutes Framework zur delegierten Administration im Active Di rectory leider ist dieses Tool aber sehr teuer e Als Alternative wurden die von Microsoft angebotenen Exchange Web Services untersucht je doch eignen diese sich nur f r Self Services e Man k nnte stattdessen mit mehreren Legacy APls arbeiten das scheint jedoch nicht zukunftssi cher e Dann wurde untersucht wie eine generische API auf der Basis von NET und HS geschaffen werden kann Ein solcher Webservice m sste mit privilegierteren Diensten kommunizieren um dedizierte Powershell Skripte auf der Zielplattform anzusto en Der Implementierungsaufwand f r eine saubere L sung ist hier allerdings betr chtlich e Eine weitere M glichkeit ist der Transport von Nachrichtenobjekten durch ein LDAP Directory etwa f r die TUM durch das IntegraTUM Meta Directory und f r andere Mandanten ber LRZ SIM und die Auswertung durch Skripte auf Seiten von Exchange bzw
210. ational Fluid Dynamics 13613 12 51 11647528 00 19 22 Physics High Energy Physics 9749 8 96 11050608 87 18 23 Physics Solid State 15466 14 21 8008587 96 13 21 Biophysics Biology Bioinformatics 8908 8 18 3818619 25 6 30 Chemistry 12569 11 55 329995302 5 44 Engineering Electrical Engineering 1054 0 97 1873492 17 3 09 Geophysics 5669 5 21 1680457 96 2477 eteorology Climatology Oceanography 3974 3 65 154062307 2 54 Physics others 1694 1 56 1484020 29 2 45 Informatics Computer Sciences 4964 4 56 799883 64 1 32 Engineering others 1368 1 26 643346 26 1 06 Support Benchmarking 5413 4 97 556475 60 0 92 DEISA 7491 6 88 233285 92 0 38 Enviromental Sciences 291 0 27 150335 42 0 25 Grid Computing 240 0 22 48803 02 0 08 Summe 108839 100 00 60610612 98 100 00 HLRB Nutzung nach institutioneller Zugeh rigkeit der Antragsteller Jobs Systemzeit Institution Anzahl S CPU Std S Universit ten 75205 69 10 38280705 37 63 16 Max Planck Gesellschaft 8047 7 39 12884741 96 21 26 Helmholtz Gemeinschaft 5233 4 81 4977503 66 8 21 DEISA 12073 11 09 3485375 03 SELS Leibniz Rechenzentrum 3013 2 511 491296 74 0 81 D Grid 5214 4 79 482319 69 0 80 Sonstige 54 0 05 8670 52 0 01 Summe 108839 100 00 60610612 97 100 00 6 1 2 Linux Cluster 6 1 2 1 Linux Cluster AG Aufgabe des Arbeitskreises Linux Cluster ist es gruppen und abteilungs bergreifend den Betrieb des Linux Clusters und die durchzuf hrenden Ma nahmen zu koordinieren Schwerpunkte waren neben den Wartungs
211. attung des LRZ mit Rechnern aller Gr enord nungen vom Hochleistungsrechner bis hin zu den Arbeitspl tzen f r Benutzer und Mitarbeiter Stand Ende des Jahres 2008 Die Rechner der letzten Gruppe der Liste erbringen dabei feste Dienste f r die sich die Endbenutzer nicht auf der Maschine selbst einloggen Bei den anderen Rechnern muss sich der jeweilige Benutzer pers n lich mit Benutzername und Passwort ausweisen daf r ist er danach weitgehend frei welche Programme und Applikationen er auf dem Server f r sich arbeiten lassen will Die Hochleistungsrechner sind dabei als Mehrbenutzersysteme ausgelegt die gleichzeitig f r viele Benutzer arbeiten w hrend die meisten Rechner in der zweiten und dritten Gruppe zu jedem Zeitpunkt haupts chlich genau einem Benutzer zur Verf gung stehen Die maschinelle Rechner Ausstattung des LRZ im Jahr 2008 1 Hochleistungssysteme Systemdaten Bei Systemen die aus mehreren Komponenten bestehen stehen die Hersteller Kompo a Daten der einzelnen Komponenten in den Zeilen darunter System Anzahl und System Struktur DEREN EE Aufgabe Anzahl und speicher 7 Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente H chst 1 SGI Cluster 19 Partitio 38912 19 6 Shared Memory Je Partition 19x2 TB H chstleistungsrechner f r Benutzer aus den Hochschu leistungs Altix4700 nen Partitionen mit Dual 512 Montecito len
212. aufgaben die Erweiterung des Clusters Etliche Administrations und Konfigurationsmethoden die im Rahmen der Arbeit der Linux AG entwickelt und implementiert wurden wurden auch auf dem HLRB II zum Einsatz gebracht 6 1 2 2 Neuinstallationen Auf Grund der stark zunehmenden Nutzung des Clusters auch durch solche Fachbereiche die bislang vom Hochleistungsrechnen keinen Gebrauch machten war es erforderlich das Linux Cluster sowohl bez glich Rechenleistung als auch bez glich Datenspeicherkapazit t deutlich auszubauen Die hierzu notwendigen Antrags und Beschaffungsverfahren wurden im Jahr 2007 erfolgreich durchgef hrt Instal lation Inbetriebnahme sowie die technische Abnahme der neuen Systeme wurden dann mit einer Aus nahme im ersten Quartal des Jahres 2008 vorgenommen Hierbei wurden auch Systemsegmente be schafft die im Rahmen von Hosting Vertr gen f r bestimmte Lehrst hle oder Grid Organisationen zur Verf gung stehen und damit f r den normalen Rechenbetrieb nur teilweise oder gar nicht genutzt werden k nnen Die Kenngr en des Linux Clusters und zum Vergleich die des HLRB II sind in Abschnitt 2 3 1 2 1 aufgef hrt Daraus wird ersichtlich dass das Linux Cluster mittlerweile rund ein Drittel der nominellen Leistungsf higkeit des HLRB II besitzt jedoch sind die Netzwerkkomponenten hier sehr viel schw cher ausgelegt Am Linux Cluster dominieren serielle und schwach parallele Programme Jahresbericht 2008 des Leibniz Rec
213. bh ngige Sicherheitsma nahmen durch e Standardfilter in den Routern z B zur Verhinderung von IP Spoofing oder Sperrung problematischer Ports e Monitoring des Netzverkehrs zur Erkennung und Sperrung kompromittierter Rechner siehe Abschnitt 7 4 4 e Bearbeitung von Missbrauchsf llen siehe Abschnitt 5 10 1 e Schutz der Netzkomponenten und der LRZ Rechner e Sammlung von Sicherheits Know how pilotweiser Einsatz neuer Technologien Austausch mit anderen Rechenzentren und dem DFN CERT der Sicherheitseinrichtung des Deutschen Forschungs Netzes e Viren Filterung und Anti Spam Ma nahmen bei den Mail Systemen des LRZ Daneben bietet das LRZ seinen Kunden diverse sicherheitsrelevante Dienste an die sie jedoch individuell und aktiv nutzen m ssen e Kostenlose Bereitstellung von Antiviren Software f r alle LRZ Kunden einschlie lich f r die privaten Rechner und Betrieb eines entsprechenden Update Servers siehe Abschnitt 2 8 2 e Betrieb eines Servers f r den Windows Server Update Service WSUS f r Microsoft Client Server Betriebssysteme und Microsoft Anwendungen e Dies hilft bei der kontinuierlichen Aufgabe bei den eigenen Rechnern neu entdeckte Sicherheitsl cher zu beseitigen besonders bei vorliegenden Warnungen wie sie etwa das DFN CERT verbreitet e Technische Unterst tzung zur Verbesserung der Netzsicherheit im MWN z B private IP Adressen NAT o MAT und Standard Firewall Pakete siehe Abschnitt 7 4 2 e Bere
214. bindung der Studentenverwaltungssoft ware HIS SOS an Verzeichnisdienste vertieft mit der Universit t Mannheim wurden IT Service Management Strategien diskutiert Das LRZ war Gastgeber der ZKI Arbeitskreissitzung Ver zeichnisdienste deren diesmaliger Fokus auf Identity Management Projekten im M nchner Raum lag In eine Arbeitsgruppe des DFN die sich mit der Erweiterung des Datenmodells f r die DFN AAI befasst hat konnten viele im Projekt gesammelte Erfahrungen eingebracht werden In der Planung f r 2009 stehen zun chst die Anpassungsarbeiten rund um TUMonline im Vordergrund Daran anschlie end ist die derzeit im Testbetrieb laufende Anbindung weiterer zentraler TUM Dienste in den Produktivbetrieb zu berf hren Schlie lich wird ein nahtloser bergang zum nachhaltigen Betrieb erfolgen der sich aus dem IntegraTUM Projektende im Herbst 2009 ergibt Die f r 2009 angestrebte technische Gesamtarchitektur ist in Abbildung 30 zusammengefasst HH Aus technischer Sicht m glichst wenige dezentrale LDAP Server verzeichnisdienst Aus technischer Sicht fast beliebig viele dezentrale Dienste fr SE MWN Active Directory Exchange NAS Filer Shibboleth E Learning LS Applikaffons myTUM verzeichnisdienst Mitarbeiter Korrelierte Identit ten Mitarbeiter Studenten G ste TUMonline Meta Dir amp ctory inkl AdminGUl nun und Self Services Abbildung 30 Geplante In
215. bit s Bandwidth Average 60 48Mbit s Cur 89 44Mbit s Max 173 66Mbit s P2P Bandwidth Average 2 24Mbit s Cur 2 14Mbit s Max 2 93Mbit s P2P Bandwidth Average 2 73Mbit s Cur 2 71Mbit s Max 2 96Mbit s Natomat1 Incoming Bandwidth 1w Outgoing Bandwidth 1w 200 M 200 m 100 M 100 M o o 18 19 20 2a 22 23 17 18 13 20 EI 22 23 W ther P2P BitTorrent MNo P2P MTotal Bits per second W ther P2P BitTorrent ENo P2P MTotal Bits per second Bandwidth Average 109 07Mbit s Cur 122 74Mbit s Max 216 27Mbit s Bandwidth Average 44 85Mbit s Cur 45 30Mbit s Max 155 19Mbit s E Blocked 28 bit s Cur 2 75Mbit s Max 2 90Mbit s P2P Bandwidth Average 2 41Mbit s Cur 2 5 Mbit s Max 2 96Mbit s Blocked Average 4 Cur 8 Min 0 Max 17 ndwidi o P2P Bandwidth Average Natomat2 Incoming Bandwidth 1w Outgoing Bandwidth 1w Blocked Users 1w zeen 200 M 400 m 3200 M 100 M 200 M 100 M o o 17 18 19 20 2a 22 23 17 18 13 20 a 22 23 W ther P2P MBit Total Bits per E Other P2P ent ec Bandvic B No P second ndwidth Average 92 60Mbit s Cur 141 86Mbit s Max 431 25Mbit s jandwidth P2P Bandwidth Average 1 92Mbit s Cur 2 31Mbit s Max 2 95Mbit s P2P Bandwidth 170 48Mbit s E Blocked Max 2 94Mbit s Blocked Average 1 Cur 2 Min 0 Max 8 Natomat3 Abbildung 104 Daten der drei Sever des NAT o MAT Clusters f r eine Woche Weitere Informationen zum NAT o MAT sind zu finden unter http www Irz de services netzdienste nat o mat 7 4 2 Netzsich
216. bniz Rechenzentrums Teil I 19 Das LRZ betreibt analoge und digitale Telefonnetz Zug nge Modemserver vom Typ Cisco AS5350 zum MWN Internet siehe Abschnitt 2 7 4 Ein Teil der W hlanschl sse werden von M net gef rdert Zum 1 01 2009 waren installiert 60 W hlanschl sse der Telekom 120 W hlanschl sse von M net Details zu den LRZ W hlanschl ssen derzeit verf gbare Rufnummern unterst tzte Modemtypen und Protokolle finden sich unter www Irz de services netzdienste modem isdn An das MWN sind derzeit mehr als 68 000 Ger te angeschlossen Die meisten davon sind Arbeitsplatz rechner Personal Computer Workstations andere sind selbst wieder eigene Rechnernetze Dazu kom men noch eine Vielzahl von Peripherie Ger ten die entweder direkt am Netz h ngen und ber Server rechner betrieben werden oder direkt an Arbeitsplatzrechner angeschlossen sind z B Drucker Plotter u Das LRZ ist f r das gesamte Backbone Netz des MWN und einen Gro teil der angeschlossenen Instituts netze zust ndig Eine Ausnahme bilden die internen Netze der Medizinischen Fakult ten der M nchner Universit ten u a Rechts der Isar TUM Gro hadern und Innenstadt Kliniken beide LMU sowie der Informatik der TUM und das Netz der Hochschule M nchen Sie werden von den jeweiligen Einrichtun gen selbst betrieben und betreut F r die Anbindung dieser Netze an das MWN ist jedoch das Leibniz Rechenzentrum verantwortlich Die beiden nachfolgen
217. brigen Zeiten studentische Opera teure PC Arbeitspl tze Raum I E 076 direkt hinter der Eingangshalle Montag mit Freitag jeweils 7 30 bis 20 45 Uhr Betriebszeiten e Die Anlagen des LRZ Rechner Speichersysteme Netze sind abgesehen von Wartungszeiten rund um die Uhr in Betrieb e F r die Wartung von Rechnern und Speichersystemen gibt es keine regelm igen Wartungszei ten Wartungsarbeiten erfolgen nach Bedarf und werden einige Tage vorher als aktuelle LRZ Information ALI angek ndigt Diese Informationen werden ber verschiedene Kan le publiziert u a am LRZ Webserver e Wartungsarbeiten an Netzkomponenten erfolgen in der Regel dienstags zwischen 7 30 und 9 00 Uhr Da die meisten Arbeiten jedoch nur lokale Teilnetze betreffen ist meistens trotzdem der gr te Teil des Hochschulnetzes erreichbar Gr ere Eingriffe oder Umbauten am Netz werden an Samstagen durchgef hrt Die Unterbrechungen wann ungef hr wie lange und welche Bereiche oder Dienste betroffen sind werden rechtzeitig ber die aktuellen LRZ Informationen ALI und durch Mail an die Netzverantwortlichen bekannt gegeben 3 3 3 Das LRZ Geb ude Der Neubau des LRZ ist der modernste und mit ca 5 700 qm Hauptnutzfl che und ca 5 000 qm Funkti onsfl che der gr te Neubau eines wissenschaftlichen Rechenzentrums in Deutschland Er ist architekto nisch in drei gro e Bereiche unterteilt Rechnergeb ude H chstleistungsrechner Server f r Netz un
218. celona SP Heller Leong DEISA2 Kick off 29 05 2008 30 05 2008 Barcelona SP Steinh fer Brocade Konferenz 05 06 2008 05 06 2008 M nchen Pretz SGI User Group 07 06 2008 13 06 2008 Los Angeles USA Steinh fer DGDP FG1 Pr senztreffen 11 06 2008 11 06 2008 Frankfurt Berner Sony Informationsgewinnung im Umfeld der Langzeitarchivierung Medien 11 06 2008 13 06 2008 Biarritz F Dunaevskiy PRACE WP Face to Face Meeting 13 06 2008 13 06 2008 J lich Hacker Huber Teilnahme am Tutorial NVIDIA High Perfomance Computing ISC08 Konferenz 15 06 2008 20 06 2008 Dresden Christadler DEISA review Meeting 15 06 2008 16 06 2008 Br ssel B Steinh fer ISC08 Konferenz 17 06 2008 20 06 2008 Dresden Brehm Saverchenko MCSC IBM Cooperation Face to Face Meeting 19 06 2008 19 06 2008 Dresden Huber Uni 4th Erlangen International High End Computing Symposium 23 06 2008 23 06 2008 Erlangen Brehm DGP Support Koordinierungs Workshop 03 07 2008 04 07 2008 Karlsruhe Berner HLRZ 2nd Parallel Tools Workshop 06 07 2008 08 07 2008 Stuttgart M ller 2nd Parallel Tools Workshop 07 07 2008 08 07 2008 Stuttgart Hacker eDEISA review Meeting WPI N1 Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 257 10 07 2008 11 07 2008 Br ssel B Frank e DEISA2 WP3 WPA technical meeting 16 07 2008 17 07 2008 Amsterdam NL Frank e DEISA2 WP4 technical meeting 16 07 2008
219. ch tzter Daten missbraucht wurden Im Gegensatz zu den vorhergehenden Indikatoren kommt es in diesem Fall auch manchmal vor dass der Rechner nicht kompromittiert ist sondern dass ein legitimer MWN Benutzer wissentlich durch Copyright Verletzungen gegen die MWN Nutzungsordnung verst t Seit Ende 2006 sucht ein spezialisiertes Intrusion Detection System IDS nach kompromittierten Rechnern die an einem Botnet teilnehmen und deshalb von au en ferngesteuert werden k nnen um z B Spam Mails zu verschicken Im Jahr 2008 wurden mit dieser Methode nur noch wenige Rechner entdeckt weil die Botnet Drohnen zunehmend verschl sselt kommunizieren das IDS kann dadurch die charakteristischen Kommunikati ons Sequenzen nicht mehr erkennen 134 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Zu den aufgef hrten Indikatoren gibt es nat rlich jeweils eine Ausnahmeliste von bekannten sauberen Rechnern die dadurch vor einer Sperre gesch tzt werden Neben den Monitoring Funktionen am Internet bergang verbessert auch noch der sogenannte NAT o MAT siehe 7 4 1 durch automatisierte Mechanismen die Sicherheit des MWN Es handelt sich dabei prim r um ein transparentes NAT Gateway das bei den Rechnern mit privater IP Adresse nicht konfigu riert werden muss Zus tzlich zur Adressumsetzung sorgt ein AutoMAT f r eine Bandbreitenregelung und verhindert weitgehend Angriffe auf andere Rechner durch Port Scans DoS und S
220. ch auf die Projekte D Grid und PRACE bertragen werden Zu diesem Zweck wurden entsprechende Testinstallationen f r diese Projekte aufgesetzt 6 6 2 5 DEISA Executive Committee Die Koordinierung der elf f hrenden europ ischen H chstleistungsrechenzentren zur gemeinsamen Ab wicklung der ehrgeizigen Ziele einer verteilten europ ischen H chstleistungs Rechnerinfrastruktur erfor dert regelm ige Management Treffen des DEISA Exekutivkomitees Diese fanden als pers nliche Tref Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 169 fen Telefonkonferenzen und Videokonferenzen statt und sind das regelm ige Alltagsgesch ft eines europ ischen Gro projekts 6 6 3 Tier 2 Zentrum des Large Hadron Collider Computing Grid LCG Die immensen Datenmassen des derzeit weltgr ten Teilchenphysikexperiments Large Hadron Collider am CERN im PetaByte Umfang sollten ab Sommer 2008 an Forscher verteilt werden Im Rahmen der Vorbereitungsarbeiten wurde weltweit eine zwiebelschalenartige Tier Struktur mit dem Tier 0 Zentrum des CERN im Zentrum aufgebaut siehe Abbildung 64 Das LRZ betreibt dabei zusammen mit dem MCSC Partner RZG und den Hochenergiephysikern aus dem M nchner Raum ein Tier 2 Zentrum Zusammen mit Mitarbeitern des Hochenergiephysik Lehrstuhls Prof Schaile LMU wurde die n chste Generation der Standardsoftware f r das LHC Computing Grid LCG gLite am LRZ installiert Die am LRZ gehostete LCG Hardware wurde 2008 durch weiter
221. chner aller Plattformen PCs und PC Cluster Server unter Netware und Windows Unix Workstations sowie Unix Cluster Server Den Schwerpunkt bilden Linux und Windows Server die heute 90 Prozent aller registrierten Server ausmachen e Hochleistungsrechner und Server des LRZ Durch die Hochleistungsrechner und Compute Server des LRZ fallen sehr gro e Datenmengen an Durch die brigen Rechner im Rechenzentrum wird ebenfalls ein beachtliches Datenaufkommen produziert da zu diesem Bereich auch verschiedene speicherintensive Dienste wie etwa die NAS Systeme geh ren Datenfluss im Archiv und Backupsystem GE Backbone NAS Filer an EE E Storage o Area Datenfluss NDMP Network GES Tape Libraries Disk Storage Abbildung 13 Datenfluss im Archiv und Backupsystem 2 4 3 Langzeitarchivierung Ver ffentlichungen in digitaler Form nehmen im Wissenschaftsbetrieb wie auch im gesellschaftlichen Leben insgesamt einen immer h heren Stellenwert ein Oft wird wie z B bei Dissertationen und bei amtlichen Publikationen auf ein gedrucktes Pendant ganz verzichtet W hrend die Digitalisierung f r die Nutzer den Zugang und den Umgang mit der Information beschleunigt und insgesamt erleichtert entste hen aus organisatorischer rechtlicher und technischer Sicht neue Herausforderungen Die Objekte sollen nicht nur verwaltet und gespeichert sondern auch langfristig zug nglich gemacht werden Diese Aufgabe wird er
222. chnical Implementation Team A1 Assign Equipment Available globally unique ID tor EZE Link d no A3 Purchase Equip ment AZ Request d Domains for Ad Set Up and Test AS Set Up ID Link Domain Link Cl Setting Up Links AA W AB Inform SC Inform Neighbour A10 Co ordinate E2E Link Test Neighbour is Ready yes Test Successful AT Test ID Link Start E2E Link rouble Shooting pewon D yes AB Setup Monitoring for E2E Link Segments Start E2E Monito ring E2EC A11 Inform PoC Abbildung 122 Beispielprozess E2E Link Setup UML Activity Diagram amp In der zweiten Phase dieses Projektes wurde zwischen Februar und Juni 2008 eine Softwarearchitektur f r das I SHARe Tool entwickelt siehe Abbildung 123 sowie das Kommunikationsprotokoll f r die verteil te Architekturkomponenten definiert Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 247 ei S E z E2E Management lt lt other S Application Application gt gt x SE ISHARe Multi Domain S Management Interface D S ISHARe Central Server ER o Lo S 4 l Central UI S S l Multi Domain Data KS T 1 been E ISHARe L ISHARe ISHARe Ka gt 4 i EN 1 Domain Domain Domain E Interface Interface Interface Single Domain ISHARe Domain Part Domain UI Domain Data Domain 1 Domain 2 Domain 3
223. cht werden die zu zugelassenen Verbindungen geh ren An der Grenze zwischen solchen Bereichen werden dazu Paketfilter instal liert die dies sicherstellen und auf diese Weise eine Brandmauer Firewall bilden NAT o MAT Der NAT o MAT ist ein Cluster von hochverf gbaren NAT Gateways der Rechnern mit privaten IP Adressen im MWN die Nutzung von Internet Diensten erm glicht Dar ber hinaus wird der Ver kehr auf Netzmissbrauch untersucht und bei auff lligen Rechnern bei Bedarf automatisch die Band breite gedrosselt oder der Internetzugang gesperrt Die Drosselung oder Sperre wird automatisch aufgehoben falls der Rechner innerhalb eines definierten Zeitfensters wieder normales Verhalten zeigt DHCP Server Dynamische Vergabe von IP Netzadressen einerseits f r Rechner die nur zeitweise eingeschaltet sind andererseits um die Konfiguration der Rechner zu vereinfachen es brauchen keine individuel len IP Adressen auf den einzelnen Rechner konfiguriert zu werden NIS Master Server Verteilung von Konfigurationsdaten insbesondere Benutzerkennungen zwischen Unix Systemen jedoch am LRZ ohne Passwort denn das geh rt zu AFS Internet Dienste Die folgenden Dienste werden vom Benutzer bei Benutzung des Internet wahrgenommen Auf keinem der diese Dienste bietenden Rechner haben Benutzer eigene Ausf hrungsrechte Man beachte dass auch die Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 55 meisten der Dienste in den an
224. chterte Program mierung objektorientierter Entwurfsmuster wurde demonstriert Totalview f r Fortgeschrittene Am 13 M rz fand unter der Leitung der Firma TotalView Technologies ein gemeinsamer Workshop von RZG und LRZ zum Thema Debugging statt gefolgt von einer Diskussion ber Skalierbarkeit des Einsatzes von Debuggern auf sehr gro en Petaflop Class Systemen Programmierung von Hochleistungsrechnern Georg Hager RRZE und Reinhold Bader LRZ Der allj hrliche einw chige Workshop zum Hochleistungsrechnen der eine Einf hrung in die wichtigsten parallelen Programmiermodelle sowie in die Optimierung f r derzeit an LRZ und RRZE installierten HPC Systemen bietet fand diesmal vom 17 20 M rz am RRZE statt Per Video bertragung konnte die Veranstaltung auch in Greifswald und am LRZ in M nchen mit verfolgt werden Iterative Gleichungssysteml ser und Parallelisierung Rolf Rabenseifner HLRS et al Diese durch HLRS und Universit t Kassel ausgerichtete Veranstaltung die neben der Einf hrung in g n gige Parallelisierungsmodelle die praxisorientierte numerische lineare Algebra auf der Basis von Krylov raum Methoden als Schwerpunkt hat fand vom 15 19 September statt Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 155 Einf hrung in die Programmierung mit Java und Python Ferdinand Jamitzky LRZ Der Inhalt des Kurses war an den Interessen von Geowissenschaftlern orientiert und hatte als Schwer punkt das Thema V
225. chtigenden Sicherheitssystemen m glich ist Somit kann eine Verk rzung der Reaktionszeit der beteiligten Parteien erzielt werden Weiter k nnen Vorwarnungen an zum Zeitpunkt der Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 239 Erkennung eines Angriffs noch nicht betroffene Parteien herausgegeben sowie ggf pr ventive Gegen ma nahmen ergriffen werden Eine Auswertung der Daten kann sich zu gro en Teilen auf bereits vorhandene Ans tze klassischer IDS st tzen Bei der Auswertung der verf gbaren Datengrundlage ist darauf zu achten dass VO spezifische Zugriffsrechte und Befugnisse eingehalten werden Nach erfolgreicher Auswertung aller verf gbaren Informationen durch ein kooperatives und f deriertes GIDS unter Beachtung individueller Sicherheits und Datenschutz Policies erfolgt eine Berichterstattung ber die erkannten Angriffe auf das Grid oder einzelne beteiligte Partner Auch hier ist es von Bedeutung dass eine VO spezifische Sicht auf die bereit gestellten Informationen realisiert wird Dazu ist eine Anbindung an die im D Grid bestehenden VO Ma nagementsysteme zu schaffen Nach der Entwicklung einer geeigneten Architektur f r ein kooperatives und f deriertes IDS in Grid Umgebungen steht die Implementierung und Produktivf hrung des Systems Es soll nach Abschluss der Projektlaufzeit ein produktives Intrusion Detection System als Grid Dienst im D Grid zu Verf gung ste hen das sowohl von Ressourcen Anbietern als auch Ku
226. d 512 Prozessorkernen Typischerweise liegt die verwendeten Anzahl von Cores an der jeweiligen Obergrenze der angegebenen Intervalle Etwa ein Viertel der Jobs verwendet bis zu 64 Cores Diese Jobs stammen aus Projekten bei denen eine sehr gro e Anzahl oft mehrere Hunderte solcher Jobs gerechnet werden und die Einzelergebnisse dann zu sammengefasst werden Werden mehr Cores verwendet so wird meist nur an einer Einzelsimulation gearbeitet Erstaunlich ist dass die Jobgr e zwischen 65 und 128 Cores kaum mehr von Bedeutung ist d h die Einzelprobleme sind jetzt so gro dass mehr als 128 meist mehr als 256 Cores verwendet wer den m ssen Im letzten Quartal 2008 hat die Anzahl von Jobs die mehr als 1000 Cores verwenden deut lich zugenommen Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 141 4500 4000 3500 3000 o 2500 bi Datenreihe 2000 1500 1000 5 Qrtl2 Qrtl3 Qrtl4 Qrtl1 Qrtl2 Qrtl3 Qrtl4 Qrtl1 Ort Arti3 Qrtl4 2006 2007 2008 Abbildung 47 Mittlere Rechenleistung des HLRB H 100 90 5 2048 80 70 m 10000 60 2049 4096 1025 2048 50 E 513 1024 40 m 257 512 I T 129 256 E 65 128 20 E 0 64 10 0 D ZC zs pp 2 HS ee EE D OZ zs pn o HS ee E o m ma ZZ aN GEES KEE 5 L ken ken Abbildung 48 Verteilung der Rechenzeit nach Jobgr e Legende gibt die Anzahl von Cores an 142 Teil II Entwicklungen und T tigkeiten im Bereich der Hochleistungssys
227. d Backup system bietet mehrere Arten von Speicherdiensten die sich in der Zielsetzung und damit auch im Ver kehrsprofil stark unterscheiden e Datensicherung Mit Hilfe des Tivoli Storage Managers der Firma IBM TSM k nnen die Dateien von am MWN angeschlossenen Rechnern bequem regelm ig und automatisch auf einem zentralen Server gesichert werden Der Benutzer kann mehrere Versionen der gesicherten Dateien vom Server jederzeit wieder abrufen Die Datensicherung ist in Hinsicht auf die bertragungsraten im Netz der am intensivsten genutzte Dienst des ABS Nat rlich werden auch die Daten auf den Systemen die das LRZ selbst betreibt auf diese Weise gesichert e Archivierung von Daten Das LRZ stellt den Dienst bereit Projektdaten von Hochschuleinrichtungen ber eine l ngere Zeitspanne hinweg aufzubewahren Der Transfer der Daten geschieht mit der Archiv Funktion von TSM Im Gegensatz zur Datensicherung werden bei der Archivierung von Daten die Originale anschlie end in der Regel gel scht Dies stellt besonders hohe Anforderungen an die Datensicherheit des Archivs Am LRZ wird diesem Anspruch dadurch Gen ge getan dass von allen Archivdaten Kopien auf gesonderten Magnetb ndern angelegt werden Diese B nder befinden sich nicht in Massenspeichern am LRZ selbst sondern in einem anderen Rechenzentrum RZG auf dem IPP Gel nde in Garching Insgesamt zeigt sich dass der Bereich Archivierung am LRZ einen immer h heren Stellenwert einnimmt T
228. d Display HMD Triviso 3Scope V1 kann der Benutzer Computergrafik stereo skopisch betrachten Diese Art der Visualisierung blendet die Umgebung um den Benutzer aus und ver setzt ihn in die virtuelle Welt Es wird deswegen auch bei verhaltenspsychologischen Experimenten ein gesetzt Ein HMD gibt die Szene stereoskopisch auf zwei kleinen TFT Displays f r das linke und das rechte Auge getrennt aus Der Benutzer befestigt das HMD mit einem Stirnband am Kopf Abbildung 16 Head Mounted Display 2 9 10 Remote Visualisierungsserver Die auf dem HLRB II oder dem Linux Cluster erzeugten Datens tze haben oftmals eine Gr e erreicht die eine Visualisierung auf PCs oder einfachen Workstations nicht mehr gestatten Deshalb wurde im Zuge des HLRB II Ausbaus ein System f r die Remote Visualisierung beschafft das aus einem Sun x4600 Rechner mit 16 Cores 8 Dual core Opterons besteht und mit 128 Gigabyte Hauptspeicher ausges tattet ist Es stehen 3 Terabyte lokaler RAID Plattenplatz zur Verf gung au erdem sind die Dateisysteme des HLRB II und des Linux Clusters direkt mit hoher Bandbreite angebunden was den Zugriff auf Simu lationsergebnisse vereinfacht und beschleunigt Die sehr hohe Grafikleistung wird durch zwei Nvidia Quadroplex Einheiten mit insgesamt vier Quadro FX5500 Grafikkarten erreicht Im Gegensatz zu herk mmlichen Visualisierungsl sungen kann diese Gra fik Leistung auch remote genutzt werden d h von einem Standard PC aus
229. d IT Dienste Linux Cluster und die umfangreichen Daten archive sowie die aufwendige technische Infrastruktur zur Elektrizit tsversorgung und K hlung werden in einem markanten w rfelf rmigen Trakt Kantenl nge 36 m untergebracht Hier gelten erh hte Sicher heitsanspr che und es gibt keinen Publikumsverkehr Das Geb ude hat eine strenge Funktionstrennung in Stockwerke Untergeschoss Elektroversorgung Erdgeschoss Klimatechnik 1 Obergeschoss Archiv und Backup 2 Obergeschoss Netz und Serverraum 3 Obergeschoss H chstleistungsrechner Die Stromversorgung Anschlusswert 4 8 MVA ist f r 2 Megawatt Rechnertechnikbedarf und 2 Megawatt Klimatechnikbedarf ausgelegt Es stehen unterbrechungsfreie Stromversorgungen zur Verf gung F r die Luftk hlung des H chstleistungsrechners wird ein Durchsatz von 400 000 m Stunde ben tigt Ausgefeil te Sicherheits und Feuerl schsysteme sorgen f r den Schutz der technischen Anlagen Erweiterungen f r zuk nftige Anforderungen im Klima Strom und Rechnerbetrieb sind jederzeit m glich 80 Teil I Infrastruktur des LRZ Institutsgeb ude Im Institutsbereich befinden sich die Arbeits und Laborr ume der ca 170 Mitarbeiter und Hilfskr fte Das Erdgeschoss ist f r den Publikumsverkehr vorgesehen Benutzersekretariat Zeitarbeitspl tze f r Studenten R ume f r Beratung Hotline Multimedialabor Scanner und CAD Arbeitspl tze In den drei oberen Stockwerken sind Mitarbeiter Besprechungs
230. d Studienarbeiten Folgende Diplom Bachelor Master und Studienarbeiten wurden von Mitarbeitern der Abteilung Be nutzernahe Dienste und Systeme betreut e Hoene N Design und Implementierung von Shared WebDisk Fortgeschrittenenpraktikum Ludwig Maximilians Universit t M nchen April 2008 Folgende Diplom Bachelor Master und Studienarbeiten wurden von Mitarbeitern der Abteilung Kommunikationsnetze betreut e Dirmeier C Leovac L Konfigurierbare Sensoren f r das Monitoring in Grid Umgebungen Fortgeschrittenenpraktikum Ludwig Maximilians Universit t M nchen April 2008 e Gate V Modellierung von Betriebsprozessen f r multi domain Umgebungen Diplomarbeit Ludwig Maximilians Universit t M nchen September 2008 e Hazrat L Virtuelle Firewalls im MWN Dokumentation Standard Regelsatz und Aufbereitung von Router ACLs f r den Einsatz in virtuellen Firewalls Fortgeschrittenenpraktikum Ludwig Maximilians Universit t M nchen Dezember 2008 e Huber F Richter S Implementierung einer Simulations Engine mit grafischer Oberfl che f r ein IT Management Szenario Fortgeschrittenenpraktikum Ludwig Maximilians Universit t M nchen Dezember 2008 e Maier C Anforderungen an Grid basierte Intrusion Detection Systeme Diplomarbeit Ludwig Maximilians Universit t M nchen M rz 2008 Reiser gentschen Felde e Mentz D Audit von Firewall Policies mit Hilfe von Netflow Analysen Systementwicklungs projekt
231. d ist damit vor allem f r Anwendungen mit intensivem Daten transfer geeignet Zu solchen Anwendungen geh ren die Fileserver und Compute Server Cluster des LRZ ebenso wie die Plattencaches und Bandlaufwerke des Archiv und Backupsystems Die Trennung der Massenspeicher vom Server hat sich in ihrer Gesamtheit sehr bew hrt Zu den Vortei len der Speicherkonsoliderung am LRZ z hlen e Die Beschaffung gr erer Systeme ist kosteng nstiger e Der Verschnitt ist geringer die Skalierbarkeit deutlich h her e Das Datenmanagement ist flexibler Es ist nun m glich rasch auf wechselnde Anforderungen zu reagieren da im SAN grunds tzlich Reserven f r solche Zwecke vorgehalten werden k nnen e Die Administratoren lokaler Fileserver und Plattenspeichersysteme werden entlastet e Bestimmte Dienste wie Hochverf gbarkeitsl sungen Archiv Dienste Zugriff auf die Daten ber das Internet lassen sich erst ab einer bestimmten Gr e sinnvoll realisieren e Dadurch dass im Archiv und Backup System die Bandlaufwerke direkt ans Netz angeschlossen sind l sst sich ein deutlich h herer Nutzungsgrad der teuren Ger te erzielen Die Laufwerke werden dynamisch dem jeweiligen Server zugewiesen e Das LAN wird deutlich entlastet 2 4 2 Archiv und Backupsystem Das hochschulweit zug ngliche Archiv und Backupsystem ABS des LRZ ist ein kosteng nstiges si cheres und leistungsstarkes Repositorium f r kleine und gro e Datenmengen Das Archiv un
232. das Groupware Produkt Microsoft Exchange und betreibt dazu eine aus sechs Servern bestehende Exchange Umgebung je zwei Client Access Hub Transport und Mailbox Server WWW Server Das LRZ betreibt eine aus 12 Rechnern bestehende Webserver Farm auf der folgende Dienste reali siert werden virtuelle WWW Server Betrieb von Web Servern f r Institute und Lehrst hle die das nicht selbst tun m chten f r die Inhalte der dargebotenen Information m ssen sie allerdings selbst sorgen Dieser Dienst der der zeit von ca 360 Einrichtungen in Anspruch genommen wird erfordert nicht f r jeden Web Server einen eigenen physischen WWW Server Rechner daher der Name virtueller Server WWW Server des LRZ Auf diesem Server stellt das LRZ die Dokumentation f r seine Benutzer zur Verf gung Spezielle WWW Server In diese Kategorie geh ren z B die Server webmail Irz de Bearbeiten von E Mails ber eine Web Schnittstelle und idportal Irz de Identity Management Portal f r Benutzer und Master User Suchmaschine Aufbau von und Netzzugriff auf Datenbanken zur Stichwortsuche ber WWW Seiten des LRZ und derjenigen Institute die ihren WWW Server vom LRZ betreiben lassen FTP Server Verteilung von Dateien im Internet Das LRZ bietet praktisch nur solche Dateien an die entweder LRZ spezifisch sind oder aus lizenzrechtlichen Gr nden vom LRZ f r berechtigte Kunden selbst verwaltet werden m ssen News Proxy Vermitteln
233. dass ein automatisches Anlegen Modifizieren und letztendlich auch L schen von Accounts erreicht wird wodurch die zust ndigen Systemadministratoren von aufwendigen Routinearbeiten entlastet werden Die Aufgaben dieses Teilprojekts umfassen die folgenden Schritte e Detaillierte Anforderungsanalyse In bilateralen Gespr chen projektweiten Workshops und pro jekt bergreifenden Arbeitskreisen wurden die technischen und organisatorischen Aspekte der Anbindung der brigen Teilprojekte an den Verzeichnisdienst untersucht Dies umfasste die o Daten die zwischen den beteiligten Systemen ausgetauscht werden m ssen wobei die zum Teil stark unterschiedlichen Syntaxen und Semantiken ber cksichtigt konsolidiert und einheitlich spezifiziert wurden F r jedes Datum wurde die autoritative Datenquelle 106 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme festgelegt und definiert welche Systeme lesenden bzw schreibenden Zugriff darauf er halten sollen o Hochschul Prozesse f r die die jeweiligen Daten ben tigt werden Diese Prozesse geben Aufschluss ber die Soll Interpretation der Daten beim jeweiligen Empf nger beispiels weise sollen im Rahmen der Datensynchronisation mit dem Teilprojekt Systemadmini stration automatisch Accounts f r neue Studenten in den fakult tsspezifischen Rechner pools eingerichtet werden o Protokolle die zur Kommunikation mit dem jeweiligen System durch die so genannten Verzeichnisdienst K
234. dem Stand konnten sich die neu eingeschriebenen Studenten und Studentinnen ber das Leistungsspektrum informieren das speziell f r Studierende ange boten wird Au erdem wurde Hilfestellung beim Einrichten der f r das Studium notwendigen VPN Verbindung angeboten sowie Informationen zum Thema Sicherheit im Internet verteilt Dar ber hinaus beteiligte sich das LRZ auf dem Campus Garching in enger Zusammenarbeit mit den Studentenvertretern der Fachschaften Maschinenbau sowie Mathematik Informatik und Physik der TU M nchen an deren Einf hrungsveranstaltungen zum Wintersemester Wegen des beraus positiven Zuspruchs ist auch weiterhin geplant derartige M glichkeiten der Pr senta tion und des unmittelbaren Kontaktes zu Studierenden zu nutzen 5 2 5 Sicherheit im Internet Ferienprogramm f r Sch ler In den Osterferien 2008 stellte das Leibniz Rechenzentrum R ume und Infrastruktur f r eine gemeinsame Veranstaltung des Stadtjugendamtes M nchen und des Bayerischen Landeskriminalamtes zum Thema Sicherheit im Internet zur Verf gung F r die Veranstaltung im Rahmen des Ferienprogramms waren zwei Termine vorgesehen es konnten jeweils 40 Kinder und Jugendliche im Alter von 11 bis 15 Jahren teilnehmen Wegen der hervorragenden Resonanz soll die Veranstaltung auch wieder im n chsten Jahr stattfinden 5 3 Software Versorgung f r Rechnersysteme au erhalb des LRZ 5 3 1 Bezugsberechtigungen eingeschr nkt Der amerikanische Kongress
235. den Abbildungen zeigen die f r das Backbone Netz verwendeten Strecken deren bertragungsgeschwindigkeiten und Endpunkte Dabei zeigt Abbildung 1 vor allem die Glasfaser Stre cken der Telekom die in der TUM B enden Abbildung 2 vor allem die Strecken von M net die in der LMU G S enden Aus diesen Bildern ist auch die gro e Ausdehnung des Netzes ersichtlich 20 Teil I Das Dienstleistungsangebot des LRZ M nchner Wissenschaftsnetz Teil 1 SWH MPG SWH SWH SWH FHW TUM LMU TUM FHW Maschinenwesen Garching SLC Hochschulhaus Jochbergweg Triesdorf Wasserbau Wendelstein Straubing Garching Obernach TUM en Veitshof D e Om EIN Weihenstephan K a g Le e s TUM EN EE i TUM Eichenau SWH e Aug Thalhausen Garching 2 y ef TUM LMU TUM d SH SWH Campus Excellenz Cl Karlstr 32 SWH Garching LMU UFS TUM LMU Domino FFB Zugspitze Iffeldorf Bad T lz GATE ITEM 120 Kan le M net Si Garching Garching re Modem ISDN Zugang 60 Kan le Telekom Fern sprechnetz ISDN SWH Giggenhauser SWH ES 25 und 29 IZB TUM FHG SWH V ttinger Str Freising M hlenweg IVV Freising Giggenhauser Str SWH Lange Point TUM Hirschau GC SWH SWH Schr felhofstr Sauerbruchstr SWH lt gt r Q LMU Genzentrum Zug LMU Z e Bio II Klinikum LMU TUM Gro ha Bio I Scheyern dern Martinsried Ka Ki Ki TUM Wasserchemie be TUM FH Ca
236. den Nutzeranforderungen Schon eineinhalb Jahre nach dem Bezug des LRZ Neubaus zeigt sich zunehmende Knappheit von Ener gie K hlungs und Stellplatzreserven im Netz und Serverraum NSR Weiterhin sind steigende Ener giepreise und Bestrebungen zu einem m glichst schonenden Umgang mit Energieressourcen Motivation 2009 am LRZ durch im Berichtsjahr beantragte Hard und Softwarekomponenten die Voraussetzungen f r einen umfassenden Einsatz von Servervirtualisierung zu schaffen Bei der Auswahl der Servertypen wird hierbei durch die Spezifikation von nur zwei physischen Servern und insgesamt 3 virtuellen Maschinentypen eine gr tm gliche Einheitlichkeit angestrebt um eine weit gehende Vereinfachung der Systemadministration im Hinblick auf die notwendigen Systemkenntnisse zu erreichen Bereits seit Jahren wird am LRZ Speichervirtualisierung in Form von SANs und NAS Filern siehe Ab schnitt 2 4 1 eingesetzt 2 6 Software Angebot 2 6 1 Programmangebot auf LRZ Rechnern Basis f r das Erlernen der Nutzung der am LRZ eingesetzten Rechensysteme bilden die verschiedenen einf hrenden LRZ Beitr ge unter www Irz de services compute Hier ist u a das Wichtigste f r das Ar beiten mit den Hochleistungssystemen unter verschiedenen Varianten des Betriebssystems Unix wie SGI Altix unter Linux und dem Linux Cluster zusammengestellt Um einen vielseitigen Einsatz der Rechner zu erm glichen stehen Dienstprogramme der Betriebssyste me bers
237. denburg KOBV wurde es notwendig verschiedene Sparc Solaris Testsysteme zu installieren Da hier die Prozessorarchi tektur nicht mit dem Vmware Cluster des LRZ bereinstimmt wurden Solaris 10 Zonen eingesetzt We gen der positiven Erfahrungen mit den Solaris 10 Zonen bei Testsystemen wurden inzwischen auch pro duktive Systeme damit virtualisiert 2 12 5 Solaris Live upgrade Ein Softwareupdate der SISIS Lokalsysteme setzte ein Betriebssystemupdate von Solaris 8 auf Solaris 10 voraus Aufgrund der hohen Verf gbarkeitsanspr che wurde ein Upgrade des Betriebssystems im laufen den Betrieb durchgef hrt und so der Ausfall der Systeme minimiert 60 Teil I Das Dienstleistungsangebot des LRZ 2 12 6 Ersatz Windows Cluster Die Windows Cluster L sung wurde durch einen einfachen Windows Server ersetzt Es stellte sich he raus dass die Festplattenperformance durch die Clusterkonstruktion stark eingeschr nkt war Deswegen wurde gegen die Erneuerung der Clusterl sung entschieden 2 13 Erprobung neuer Konzepte der Informationsverarbeitung an den Hochschulen 2 13 1 Identity Management im M nchner Wissenschaftsnetz Mit der Produktivf hrung des LRZ Identity Management Systems im M rz 2008 wurde ein organisatori scher und technischer Meilenstein erreicht durch den die sehr enge Zusammenarbeit des LRZ mit den Verwaltungen und zentralen Einrichtungen der beiden Universit ten bei der Benutzer und Berechti gungsverwaltung noch weiter intensivi
238. dene Serverdienste unter Linux Novell eDirectory Fileservices Identity Mgmt Inte graTUM myTUM ca 290 Dell Advanced Uni Verschiedene 1 4 1 16 GB Serverdienste unter Linux DNS E Mail AFS Druck Poster und Diaausgabe byte Sun Firewall Zertifizierung Konsolen Betriebs berwachung Datenbanken WWW Content Management Authentication Lizenzserver 8 Sun X4150 4 64 GB VMware cluster 18 IBM xSeries 3 0 GHz 2 4 GB Archiv Backup Server Rechner LABS 20 Sun X4200 2 4 6 16 GB Archiv Backup Server Rechner HABS 2 IBM 43P 1 512 MB AFS Backup 6 Oxygen Pentium4 2 8 GHz 2 2 GB AFS Fileserver 11 Oxygen Intel Xeon 2 8 GHz AFS MGMTserver KerbV Testserver 18 Sun Verschiedene x86_64 1 2 GB LRZ SIM und Integra TUM MetaDirectory 9 Sun Verschiedene x86_64 2 4 8 GB LRZ SIM und Integra TUM MetaDirectory ca 25 Sun Verschiedene Sparc 1 2 0 5 2 GB weitere in Abschnitt 2 10 1 aufgez hlte Dienste insbesondere WWW E Mail FTP CNM Lizenzserver Authentication Groupware Help Desk Mgmt Tabelle 2 Die maschinelle Rechner Ausstattung des LRZ I 2 L swnyuozusy9oy ZrugloT SOP 8007 JyLIOAsOIyerf EL 74 Teil I Infrastruktur des LRZ 3 1 2 Speicher Ein weiterer Schwerpunkt der technischen Ausstattung des LRZ sind die Massenspeichersysteme Ende 2008 verf gten die verschiedenen Speicherarchitekturen am LRZ ber folgende Bruttokapazit ten Speicherarchitektur Anwendungsgebiet Kapazit t Ne
239. der ber das Netz mit dem Grafik Server verbunden ist Aufgrund der enormen Datenraten die mit 3D Grafik verbunden sind ist dies an sich nur mit sehr schnellen Netzverbindungen m glich Die auf dem Server benutzten Kompressi onstechniken VirtualGL reduzieren den Datenstrom jedoch so stark dass bei einer moderaten Daten rate von nur 20 30 MBit s der Bildschirminhalt praktisch verlustfrei bertragen werden kann Selbst ber normale DSL Leitungen kann noch gearbeitet werden wenn man gewisse Einschr nkungen in der Bild qualit t und wiederholrate in Kauf nimmt Neben der hohen Grafikleistung besteht ein weiterer Vorteil Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 53 des Systems darin dass der Endanwender auf diesem System auf eine Reihe hochwertiger und deshalb auch leider sehr teurer Softwarepakete zur Visualisierung zugreifen kann RVS DESKTOP PC q cc Q co Lu Ic zu oo GRAPHICS DRIVER f UNCOMPRESSED 2D IMAGES 60 MBYTE S TURBOVNC VIEWER 3D DATA COMMANDS 2D UP TO 4 GBYTE S o gt 2D COMPRESSED 2D IMAGES GUI OPENGL TURBOVNC AMIES APPLICATION SERVER MOUSE KBD EVENTS Abbildung 17 Prinzip der Remote Visualisierung 2 10 Betrieb von Netz Rechnern und Serversystemen 2 10 1 Netzkomponenten und Rechenanlagen Zu den Basis Aufgaben eines wissenschaftlichen Rechenzentrums f r den Gro raum M nchen z hlen der Betrieb der zentralen Rechenanlagen und des M nchner Wissenschaftsne
240. der Zugriff auf Internet News die am News Server des LRZ nicht gehalten werden VPN Gateway Das VPN Gateway des LRZ dient als Endpunkt zum Aufbau von sicheren Tunneln aus dem Internet ins MWN Die Legitimation eines Benutzers dazu wird ber das RADIUS Protokoll gepr ft Nach dem ein Benutzer einen VPN Tunnel aufgebaut hat verh lt sich sein Rechner so als ob er sich phy sisch im MWN bef nde Auf diese Weise ist die Nutzung von speziellen Diensten im MWN aus dem Internet m glich 56 Teil I Das Dienstleistungsangebot des LRZ NTP Server Weitergabe der vom LRZ empfangenen exakten Funk Uhr Zeit TUM Authentifizierungsdienst F r die zentralen IT Dienste der TU M nchen wird ein hochverf gbarer LDAP basierter Verzeich nisdienst betrieben der aus den Verwaltungssystemen der TU gespeist wird und die Authentifizie rung aller Hochschulangeh rigen auf Basis einer einheitlichen Kennung erm glicht myTUM LDAP F r das Web Portal der TU M nchen werden zwei LDAP Server auf Basis von Novell eDirectory unter SuSE Linux betrieben Sie dienen der Authentifizierung und Autorisierung sowie der Speiche rung von myTUM Benutzerprofilen Shibboleth Identity Provider Im Rahmen der Authentifizierungs und Autorisierungsinfrastruktur des Deutschen Forschungsnet zes DFN AAI wird vom LRZ je eine Instanz der Software Shibboleth Identity Provider f r die LMU und die TUM betrieben Sie erm glicht den Angeh rigen der beiden Universit ten die hoch
241. der abmelden 2 1 2 Beratung und Unterst tzung Beratung und Unterst tzung sind wichtige Teile des vielf ltigen DV Angebotes des LRZ Deshalb unter nimmt das LRZ gro e Anstrengungen auf dem Gebiet der Ausbildung Unterst tzung und Information seiner Benutzer 2 1 2 1 Hilfsmittel Trouble Ticket und Quick Ticket Zur Unterst tzung wird vom LRZ als Trouble Ticket System das Produkt Action Request System ARS der Fa Remedy einer Gesellschaft von BMC Software eingesetzt Workflow Management Es dokumentiert von der Erfassung eines Problems bis zu seiner L sung die jeweils Zust ndigen und ihre Aktionen Zus tzliche Mechanismen dienen der Einhaltung gewisser Reaktionszeiten hinsichtlich der Bearbeitung Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 15 Ein Trouble Ticket dient der Erfassung eines Problems und der Ablaufdokumentation seiner Bearbeitung Es ist immer einem Verantwortlichen kann auch eine Gruppe sein zugeordnet Jeder LRZ Nutzer kann Eintragungen machen und den Verantwortlichen in Kenntnis setzen Mit einem Quick Ticket werden alle Anfragen erfasst die nicht ber ein Formular eintreffen Bei Bedarf wird zus tzlich ein Trouble Ticket erzeugt Mit der Auswertung der Tickets werden Schw chen unseres Dienstangebotes erkennbar die dann durch z B verbesserte Dokumentation andere Verfahrensabl ufe etc behoben werden 2 1 2 2 Allgemeine Beratung Einen breiten und wichtigen Raum nimmt am LRZ die i
242. deren Rubriken Internet Protokolle f r die Kommunikation zwischen den Rechnern benutzen Nameserver DNS Aufl sung von Internet Domain Namen zu Internet IP Adressen Mehrere Server sind z T redun dant z T unabh ngig voneinander im MWN verteilt Mail Message Store Server auf denen die Mailboxen von LRZ Benutzern liegen und auf die mittels der Protokolle POP oder IMAP zugegriffen werden kann Das LRZ betreibt derzeit f nf Message Store Server einen allgemein f r Mitarbeiter von nutzungsberechtigten Einrichtungen mailin einen f r das myTUM Portal der TU M nchen einen f r die Fakult t Physik der TU M nchen einen f r Studenten der LMU M nchen Campus H und einen f r Studenten anderer Hochschulen Die ersten drei der ge nannten Server sind dabei redundant ausgelegt Mailrelay Zentraler Umschlagplatz f r alle E Mails die aus dem Internet eintreffen und f r Mail Server Mes sage Stores im Bereich des MWN bestimmt sind bzw die aus dem MWN ins Internet verschickt werden Dieser Dienst st tzt sich auf ein LDAP Directory das alle Daten enth lt die f r eine kor rekte Auslieferung von E Mails notwendig sind Am Mailrelay werden au erdem alle aus dem Inter net eingehenden E Mails auf Viren untersucht bzw daraufhin bewertet ob es sich um Spam Mails handelt Insgesamt werden f r diesen Dienst 13 Rechner eingesetzt Groupware Server Exchange Im Rahmen des IntegraTUM Projekts mit der TU M nchen pilotiert das LRZ
243. derungen Dar ber hinausgehende Anspr che von Nutzern auf Nutzung von Rechnerressourcen am HLRB bestehen nicht HLRB Nutzer die nicht zum satzungsm igen Nutzerkreis des LRZ 1 der Benutzungsrichtlinien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissen schaften geh ren k nnen andere IT Einrichtungen des LRZ z B Archivsysteme und Visualisierungs 302 Teil IH Anhang 10 Einrichtungen mitbenutzen sofern dadurch der satzungsm ige Nutzerkreis nicht in deren Nutzung be eintr chtigt wird 6 Inkrafttreten Diese Nutzungs und Betriebsordnung f r den H chstleistungsrechner in Bayern HLRB tritt mit der Billigung durch den Lenkungsausschuss und das Bayerische Staatsministerium f r Wissenschaft For schung und Kunst am 30 Mai 2000 in Kraft Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 303 Anhang 11 Mitglieder des Lenkungsausschusses des H chstleistungsrechners in Bayern HLRB Stand 01 Oktober 2008 Der Lenkungsausschuss f r den H chstleistungsrechner in Bayern HLRB setzt sich folgenderma en zusammen 12 Mitglieder e Vertreter des Bayerischen Staatsministeriums f r Wissenschaft Forschung und Kunst MR Georg Antretter e Der St ndige Sekret r der Kommission f r Informatik der Bayerischen Akademie der Wissen schaften Prof Dr Christoph Zenger e Der Vorsitzende des Direktoriums des LRZ Prof Dr Arndt Bode e Der Sprecher des Kompetenz
244. derzeit ber 400 Einrichtungen des MWN Gebrauch Auch der LRZ eigene WWW Server www lrz de sowie eine Reihe von Spezial Servern z B webmail werden in dieser Umgebung betrieben Das Webhosting wird auf der Basis des Apache Webservers unter dem Betriebssystem Linux angeboten Die bestehende Weblandschaft am LRZ wird zur Zeit erweitert und den neuen Anforderungen angepasst Dazu geh rt neben dem mittlerweile abgeschlossenen Umstieg von Solaris auf Linux vor allem die Ent wicklung neuer Betriebskonzepte Zope ist ein Applikationsserver der in letzter Zeit zunehmend an Bedeutung gewinnt und entweder zu sammen mit Apache Webhosting oder auch als unabh ngiger Webserver genutzt werden kann Noch nicht weit verbreitet ist es jedoch Zope in einer Hosting Umgebung anzubieten Um hier Erfahrungen zu sammeln wurde eine Testumgebung aufgebaut auf der bisher einzelne Institute ihre neue Webpr senz entwickeln konnten und inzwischen auch erfolgreich betreiben Im Zuge der erw hnten Erweiterungen wird Zope Hosting neben dem bisherigen Apache Webhosting am LRZ verf gbar sein und das Dienstan gebot entsprechend erweitern Die Suche nach Informationen im WWW ist oftmals m hsam und w rde der Suche nach einer Nadel im Heuhaufen gleichen g be es dazu nicht Suchmaschinen die es m glich machen WWW Dokumente anhand von Schlagworten bzw Schlagwortkombinationen aufzufinden F r die gro r umige weltweite Suche stehen eine Reihe gro er bekannter Suchm
245. duktion Q3 07 Q4 07 Q1 08 ESX Cluster 0 Testbetrieb LCG 18 03 BSB 10 04 Abbildung 80 Anzahl virtueller Hosts und Zeitpunkt erster Dienst Migrationen auf VMware ESX Einhergehend mit der Zunahme virtueller Hosts siehe Abbildung 81 spielt deren Management eine im mer wichtiger werdende Rolle Deshalb erfolgten gegen Ende 2008 erste Tests mit dem Produkt V Mwa re Lifecycle Manager Geplant ist s mtlichen Beteiligten vom Endkunden ber die Entscheidungsinstanzen bis hin zum Admi nistrator ein zentrales Instrument zur Verwaltung der virtuellen Infrastruktur an die Hand zu geben Nicht zuletzt die geplante Einf hrung eines Dienstleistungskatalogs in 2009 macht effiziente Workflows not wendig Trotz gro er Fortschritte dient das ESX Cluster 1 wiederum nur als bergangsl sung Das Jahr 2008 war deshalb gepr gt von Informationsveranstaltungen zum Thema Server Neubeschaffung auf Basis von so genannten Blade Systemen Seit Herbst 2008 existiert ein erster Entwurf zur geplanten Ausschreibung im Fr hjahr 2009 6 8 3 PCs unter Linux als Mitarbeiter Arbeitspl tze Im Bereich der Mitarbeiter Arbeitspl tze gab es 2008 keine gravierenden nderungen weder in Bezug auf den Einsatz neuer Hardware noch beim verwendeten Betriebssystem Novell SuSE Linux Enterprise Desktop Version 10 ServicePack 1 kurz bezeichnet als SLED 10 1 Zum allt glichen Betrieb geh ren regelm ige Softwareupdates Seit November 2008 wird d
246. dung 185 ff StGB Der Systembetreiber beh lt sich die Verfolgung strafrechtlicher Schritte sowie zivilrechtlicher An spr che vor 87 5 Dem Benutzer ist es untersagt ohne Einwilligung des zust ndigen Systembetreibers a Eingriffe in die Hardware Installation vorzunehmen b die Konfiguration der Betriebssysteme oder des Netzwerkes zu ver ndern Die Berechtigung zur Installation von Software ist in Abh ngigkeit von den jeweiligen rtlichen und systemtechnischen Gegebenheiten gesondert geregelt 6 Der Benutzer ist verpflichtet ein Vorhaben zur Bearbeitung personenbezogener Daten vor Beginn mit dem Systembetreiber abzustimmen Davon unber hrt sind die Verpflichtungen die sich aus Bestim mungen des Datenschutzgesetzes ergeben Dem Benutzer ist es untersagt f r andere Benutzer bestimmte Nachrichten zur Kenntnis zu nehmen und oder zu verwerten 7 Der Benutzer ist verpflichtet a die vom Systembetreiber zur Verf gung gestellten Leitf den zur Benutzung zu beachten b im Verkehr mit Rechnern und Netzen anderer Betreiber deren Benutzungs und Zugriffsrichtli nien einzuhalten 85 Aufgaben Rechte und Pflichten der Systembetreiber 1 Jeder Systembetreiber soll ber die erteilten Benutzungsberechtigungen eine Dokumentation f hren Die Unterlagen sind nach Auslaufen der Berechtigung mindestens zwei Jahre aufzubewahren 2 Der Systembetreiber tr gt in angemessener Weise insbesondere in Form regelm iger Stichproben zu
247. e ber den Remote Visualisierungsserver darzustellen und sogar interaktiv in die Simulation steuernd einzugreifen Dadurch ist es f r den Benutzer m glich die Verwendung der vorhandenen Ressourcen durch gezielte Eingriffe zu optimieren Abbildung 53 Drei Szenen einer interaktiven Simulation im Rahmen einer Computational Steering An wendung aus dem Bereich Molekulardynamik Simulation Ziel ist es nicht nur die Programmpakete VMD und NAMD auf dem Visualisierungsserver und dem Bundesh chstleistungsrechner zu koppeln sondern f r eine Vielzahl von geeigneten massiv parallelen Anwendungen MPI auf dem H chstleistungsrechner entsprechend Graphiksoftware auf dem Visualisie rungsserver bereitzustellen die sich f r Computational Steering eignet und diese ber z B Sockets zu verbinden Damit k nnen die rechenintensiven Visualisierungsberechnungen vollst ndig auf dem Re mote Visualisierungsserver durchgef hrt werden und belasten nicht die Ressourcen des Benutzerrech ners Die grafische Ausgabe der Visualierungsprogramme wird dabei als komprimierter JPEG Stream an den Benutzerrechner geschickt Die Anbindung vom Remote Visualisierungsserver an den Client geschieht ber VirtualGL Auf der International Supercomputing Conference 2008 in Dresden wurde vom LRZ die Simulation eines Makrombolek ls mit Hilfe der beiden Softwarepakete NAMD und VMD vorgef hrt Abbildung 55 zeigt wie sich diese Art von Computational Steering in der Zukunft auf
248. e Anzahl der S2m Anschl sse der Tele kom wurde deshalb aus Kostengr nden von 4 auf 2 reduziert ansonsten wurde an der Konfiguration ge gen ber 2007 nichts ver ndert Alle Zuleitungen sind an den beiden Servern Cisco 5350 XM im Netz und Serverraum des LRZ Geb udes angeschlossen Die folgende Tabelle zeigt die im Dezember 2008 angebotenen Modem ISDN Zug nge mit den jeweili gen Anbietern und Rufnummern im berblick TUM und Beh rden 089 35831 9000 LCR LMU und Beh rden 089 35831 9000 LCR Tabelle 35 Anbieter und Rufnummern der W hlanschl sse Die Anschl sse der Firma M net stehen nur M net Kunden zur Verf gung F r diese sind Verbindungen in der Nebenzeit 18 8 Uhr und Sa So kostenfrei 7 2 2 VPN Server Im MWN werden VPN Server f r folgende Anwendungsbereiche eingesetzt e Zugang ber vom LRZ betreute WANS e Zugang ber ffentliche Anschlussdosen f r mobile Rechner e Zugang zu internen MWN Diensten z B Online Zeitschriften f r Bewohner von Studentenwohnheimen e Zugang zu internen MWN Diensten ber fremde Internet Anbieter z B T DSL T Online Arbeitsschwerpunkte 2008 Unterst tzung neuer Clients Apple iPhone Clients auf 64 Bit Windows Betriebsystemen Mit der Ver ffentlichung der Firmware 2 0 wurde das iPhone der Firma Apple mit einem Cisco VPN Client und einem 802 1X Supplikanten ausgestattet Diese erm glichen erstmalig einen vollwertigen Zu gang zum MWN f r das iPhone Der Konfigurationsauf
249. e Groupware Serverseite F r die Exchange Installation wurden in 2008 die Server f r die Mailbox Rolle mit mehr Hauptspeicher versorgt Die Exchange Datenbanken und Mailboxen wurden in die Storage Goups je Fakult t auf dem neuen Storage System migriert Dabei konnte die iSCSI Anbindung der NetApp Fileserver auf Multi Path umgestellt werden um Netzausf llen vorzubeugen Ebenso wurde die Provisionierung des zugrunde liegenden Active Directory mit Benutzerdaten weiter automatisiert Zusammen mit den Spezial Softwarel sungen von NetApp f r die Sicherung der Exchange Datenbanken wurde das Backup und Restore Konzept von Benutzer Mailboxen getestet und optimiert Abbildung 41 zeigt schematisch die Exchange Topologie am LRZ Die berwachung des Exchange Systems mit System Center Operations Manager 2007 auf Dienstebene wurde weiter verfeinert Details dazu finden sich im folgenden Kapitel 5 8 5 System Center Operations Manager Zur berwachung der Windows Service Infrastruktur ist der Microsoft System Center Operations Mana ger 2007 SCOM vormals MOM produktiv im Einsatz Wesentliche Vorteile der L sung sind die kon sequente Service Orientierung der berwachung im Unterschied zur Komponenten Orientierung vor gefertigte Regels tze und Testabl ufe je Servicefunktion incl vom Hersteller definierter Schwell und Grenzwerte f r Fehlersituationen oder Performance Beurteilung bei den beteiligten Komponenten einfa che Zuweisung von R
250. e Hardware aus Sondermitteln des BMBF und Mitteln vom LMU Lehrstuhl Schaile um 536 CPU cores auf 1180 cores erweitert Zur Speicherung der Experiment Daten und Auswertungsergebnisse kann ber die Grid Software dCache auf 350 TByte an Plattenplatz zugegriffen werden Hier lag der Zuwachs in 2008 bei 210 TByte 2 half nodes each Intel XEON DP L5420 2x4 cores 2 5 MHz 16 GB RAM 250 GB HDD 2x 1GE Pop Waffe El Abbildung 63 In 2008 am LRZ beschaffte Rechenknotenf r das LCG Projekt Am 21 Oktober 2008 wurde der in Abbildung 65 gezeigte LHC am CERN offiziell eingeweiht Aller dings trat bereits am 16 Oktober 2008 w hrend eines vorbereitenden Tests eine Unregelm igkeit auf die zur Zerst rung einer Magneteinheit f hrte weshalb der Produktionsbetrieb nicht aufgenommen wer den konnte Seither ist der LHC abgeschaltet und wird repariert Die erneute Inbetriebnahme ist f r Herbst 2009 geplant Bis es soweit ist wird das LHC Computing Grid weiterhin mit simulierten Daten getestet um sicherzustellen dass alles einwandfrei funktioniert sobald die ersten Messwerte aus Genf eintreffen Das LRZ ist aktiv an diesen Tests beteiligt Da die Messungen am CERN nicht kontinuierlich erfolgen wird auch das Tier 2 Zentrum nicht konti nuierlich ausgelastet sein Daher ist es vorteilhaft es zusammen mit dem am LRZ vorhandenen Linux Cluster zu betreiben In Schwachlastzeiten migrieren Jobs aus dem Linux Cluster auf die Tier 2 Rechner und in
251. e Registrierungsstelle der bei der DFN PCA angesiedelten Grid CA 2 9 Grafik Visualisierung Multimedia Neben den Anwendungsprogrammen auf den PCs und Workstations zu Bildbearbeitung und Layout zu 2D und 3D Konstruktion oder zur Visualisierung stellt das LRZ eine Reihe von Spezialger ten und Ser vern sowie dedizierte Arbeitspl tze in diesem Bereich zur Verf gung 2 9 1 Dateneingabe und Ausgabeger te e Gro formatscanner DIN A0 Farbe insbesondere zur Erfassung von Konstruktionszeichnungen und Kartenmaterial e Flachbettscanner zum Erfassen von Bildern oder Durchsichtvorlagen bis zu einer Gr e von DIN A3 e Farblaserdrucker zur preiswerten Farbausgabe im Format DIN A4 und DIN A3 ein oder doppelseitig e Gro format Tintenstrahldrucker zur Erzeugung hochwertiger Farbausgabe Poster im Format bis DIN AO und Uberl nge auf unterschiedlichen Medien Die Drucker f r die Ausgabe von Gro formaten ben tigen eine fachkundige Bedienung Diese Ger te dienen haupts chlich der Erstellung von Postern die zur Darstellung von Forschungsresultaten auf Ta gungen bestimmt sind Allein f r diesen Service sind 1 2 Mitarbeiter des LRZ st ndig im Einsatz Dabei zeigt sich leider dass in einer gro en heterogenen Forschungslandschaft wie der der M nchener Univer sit ten die Anzahl der unterschiedlichen Anwendungssoftware zur Erstellung der Poster sehr gro ist Eine Normung auf einige wenige Pakete ist wegen der verschiedenen An
252. e an neuen Archivdaten die in den Bandlaufsys temen des LRZ gespeichert werden Im Jahr 2007 wurde auch der Grundstein f r eine weitere mehrj hrige Zusammenarbeit des LRZ mit der BSB im Bereich der Massendigitalisierung und archivierung gelegt In den n chsten Jahren werden im Rahmen der gro angelegten Public Private Partnership der BSB mit der Firma Google mehr als eine Million Druckwerke aus dem Bestand der BSB der gesamte urheberrechtsfreie Bestand digitalisiert Die Digitalisate werden am LRZ archiviert Auch die Systeme zur Verarbeitung bzw Nachbearbeitung und Bereitstellung der Digitalisate werden am LRZ betrieben Ab Januar 2009 wird die Bayerische Staatsregierung in Zusammenarbeit mit der BSB die Verk ndungs plattform Bayern https www verkuendung bayern de als kostenfreien B rgerservice betreiben ber diese Plattform werden zuk nftig die Verwaltungsvorschriften und sonstige Bekanntmachungen des Freistaates Bayern im Internet amtlich bekannt gemacht Das LRZ betreibt als Dienstleister f r die BSB die Hardware f r die Webbereitstellung und bernimmt die Langzeitarchivierung der Amtsbl tter der Bayerischen Ministerien Ab Mitte 2008 wurde die entsprechende Infrastruktur am LRZ aufgebaut Wei tere Details ber die hier aufgef hrten Langzeitarchivierungsprojekte k nnen ber die LRZ Homepage im Bereich Projekte http www Irz muenchen de projekte langzeitarchivierung gefunden werden 2 5 Virtualisierung am LRZ
253. e hin zu einem bergreifenden IT Management Werkzeugkonzept Historisch bedingt setzt das LRZ sehr viele Werkzeuge f r die verschiedenen klassischen Aspekte des IT Managements Netzmanagement Systemmanagement usw ein Bis auf wenige Ausnahmen wie bei spielsweise ARS Remedy werden diese Tools isoliert in einzelnen Abteilungen betrieben Dies hat zur Folge dass am LRZ auch f r hnliche Funktionen oft mehrere unterschiedliche Werkzeuge eingesetzt werden und an sich verwandte IT Management Information in mehreren separaten Applikationen und Datenbanken vorgehalten wird Gleichzeitig steht au er Frage dass eine CMDB im Sinne von ISO IEC 20000 sich in einer komplexen Umgebung wie dem LRZ nur mittels eines f derierten CMDB Konzeptes CMDB Federation welches mehrere Quellen von Management Information integriert realisieren l sst Dazu muss nat rlich der Ort der Wahrheit aller relevanten Management Information identifiziert werden Dar ber hinaus wird nicht nur im Sinne einer Reduktion der zu ber cksichtigenden Schnittstellen bei dem CMDB Vorhaben auch eine Konsolidierung der Werkzeuglandschaft angestrebt Zu diesem Ziel hin wurden 2008 erste Schritte unternommen Durch Interviews und einen im LRZ Intranet zur Verf gung gestellten Fragebogen wurde ein erster berblick ber die eingesetzten Werkzeu ge und ihre wesentlichen Eigenschaften gewonnen Die so entstandene Liste enth lt mittlerweile ber 100 Management Tools im
254. e im ABS gespeicherten Daten m glich ist Die Daten werden nicht an Dritte weitergegeben F r die Inhalte der gespeicherten Daten ist alleinig der Kunde verantwortlich Der Kunde verpflichtet sich sensible Daten z B personenbezogene Daten nicht unverschl sselt zu speichern bzw zu archivie ren Das LRZ sorgt im Rahmen seiner M glichkeiten f r die Lesbarkeit der Datentr ger F r die Sicherstel lung der Interpretierbarkeit der Daten ist der Kunde selbst verantwortlich etwa durch die Verwaltung geeigneter Metadaten Aus Datenschutzgr nden kann das Zur cksetzen bzw Neusetzen eines Passwortes nur durch den einget ragenen Ansprechpartner des Nodes Node Inhaber bzw durch weitere eingetragene Ansprechpartner veranlasst werden Aus diesem Grund sollte dem LRZ ein Wechsel des Ansprechpartners fr hzeitig mit geteilt werden Verwaiste Nodes k nnen nur durch den Leiter der Organisationseinheit reaktiviert wer den 9 Verf gbarkeit Wartungszeiten Das LRZ ist rund um die Uhr bem ht die Funktionalit t des Archiv und Backupsystems sicher zu stel len Dennoch k nnen gelegentliche Systemausf lle nicht vollst ndig ausgeschlossen werden Wenn Wartungsarbeiten an Hard und Software durchgef hrt werden m ssen die eine Unterbrechung des Betriebs erfordern wird dies sofern vorhersehbar fr hzeitig auf den Webseiten des LRZ auf Wunsch auch per Mail angek ndigt Statusmeldungen und Informationen ber Ausf lle werden zeitn
255. e zur Amalienstr 17 08 12 2008 Anschluss des neuen Wetterturms auf dem Campus Garching ber eine privat verlegt LWL Strecke 09 12 2008 Au erbetriebnahme der Multiplexer auf der Strecke zur Martiusstr 4 22 12 2008 Anschluss des Geb udes der Bayerische Landesanstalt f r Wald und Forstwirtschaft in Weihenstephan an das Bayerische Beh rdennetz BYBN und nicht mehr ans MWN 7 1 7 Netzausbau Verkabelung Mit NIP Netzinvestitionsprogramm in Bayern wurde zwar eine fl chendeckende Vernetzung erreicht diese ist jedoch an der TUM in M nchen und Garching noch zu einem geringen Teil in Koax ausgef hrt Bis Ende 2008 sollte diese Koax Verkabelung durch eine strukturierte Verkabelung Kupfer oder Glasfa ser ersetzt werden Das Ziel wurde aber nicht erreicht da einige Geb ude noch auf eine endg ltige Gene ralsanierung warten bzw es unklar ist welche sp tere Nutzung dort sein wird TU M nchen Im Bereich der TU M nchen ohne Weihenstephan konnten die im Folgenden aufgef hrten Geb ude im Jahr 2008 mit einer strukturierten Verkabelung versehen werden Innenstadt 0102 N2 HOCHVOLTHAUS 0103 N3 EL MASCH GERAETE 0502 BESTELMAYER SUED 0508 WAERMEKR HYDR INST Obernach 3101 OBERNACH BUEROGEBAEUDE 3102 OBERNACH VERSUCHSHALLE 1 Garching 5111 WASSERWIRTSCHAFT GARCH 5402 LABORGEB CH 3 7 GARCH Iffeldorf 3150 HOFMARK 3 3152 HOFMARK 3 Bis Ende 2009 sollen Bau 0509 Neubau im Stammgel nde Iffeldorf und CH 6 in Garching neu ver
256. ect Cold Dark Matter Astrophysics Garching under a Numerical Microscope 1893179 3 12 37 66 7 h025z Institute for Hydromechanics Periodic Unsteady Flow in Turbomachinery Uni Karlsruhe 1712385 2 82 40 49 8 h1371 Departement for Human Contiuous HMM Modelling for On Line Machine Communication TU Handwritten Whiteboard Note Recognition M nchen 1673748 2 76 43 25 9 pr28je Lehrstuhl f r Dynamical Mean Field Theory for Experimentalphysik VI Univ Electronically Correlated Materials Augsburg 1561847 2 58 45 82 10 h014z Institute of Theoretical Physics Quantum monte carlo and exact University of W rzburg diagonalization studies of correlated electron systems 1385294 2 29 48 11 Tabelle 25 Die zehn gr ten Projekte am HLRB im Jahr 2008 Die zehn Projekte mit dem h chsten Rechenzeitverbrauch sind in Tabelle 25 aufgef hrt Die letzte Spalte gibt den sukzessive aufsummierten Nutzungsanteil der Gro projekte im Jahr 2008 wieder Die zehn gr Jahresbericht 2008 des Leibniz Rechenzentrums Teil I ten Projekte haben zusammen 2008 also fast die H lfte der insgesamt am HLRB II abgegebenen Rechen zeit verbraucht 6 1 1 4 Nutzungsstatistiken f r den HLRB Die nachfolgenden Tabellen zeigen getrennt die Nutzung nach Jobklassen L ndern F chern und Institutionen Die System Zeit ist am HLRB die Belegungszeit der angeforderten Cores Jobklasse Nxx xx Anzahl der maximal anforderbaren Cores I Interaktiv Deutschland od
257. eg von 1064 auf 1200 Es wurden 57 neue Domains unter verschiedenen Toplevel Domains z B de org eu f r Institute und Organisationen registriert 62 wurden von anderen Providern transferiert Die Abbildung 95 und Abbildung 96 zeigen die Frequenz der Anfragen pro Sekunde gps queries per secound f r den authoritativen und Resolving Dienst ber 3 Tage DNS W auth dns1 50 un a o Tue 09 Wed 10 Thu 11 Min Max Average Last E Failed O ops 1 ops 1 qps 1 ops E Successful 21 qps 40 qps 31 qps 36 qps Abbildung 95 Statistik f r dns w Authoritativ Resolver DNS W un a D Tue 09 Wed 10 Thu 11 Min Max Average Last E Failed 2 gps 8 gps 3 gps A ops BH Successful 119 ops 603 ops 306 ops 545 ops Abbildung 96 Statistik f r dns w Resolving 7 2 9 DHCP Server Seit ca 6 Jahren betreibt das LRZ einen DHCP Server der von allen M nchener Hochschulen f r die automatische IP Konfiguration von institutsinternen Rechnern genutzt werden kann Au erdem wird die ser Dienst f r einige zentrale Anwendungen verwendet wie z B f r die WLAN Zug nge im MWN oder die Netzanschl sse in H rs len und Seminarr umen Insgesamt wird der DHCP Server von ca 100 Insti tuten genutzt und verwaltet dabei 270 Subnetze mit ca 55 000 IP Adressen Falls gew nscht tr gt der DHCP Server die Namen der Clients auch automatisch in den zust ndigen DNS Server ein Dynamic DNS Physisch betrachtet besteht der DHCP Dienst aus zwei Servern die sich
258. egebenenfalls aus dem Archivsystem holen zu k nnen Dies gilt vor allem f r verl ngerte Aufbewahrungszeiten im Bereich der Langzeitarchivierung gt 10 Jahre Das LRZ migriert die Archivdaten bei einem anstehenden Systemwechsel sowohl Hardware als auch Software auf das Nachfolgesystem wenn dies aus technischer Sicht m glich ist und vom Kunden ge w nscht wird Kopien der Archivdaten Von Archiv Dateien wird am LRZ per Voreinstellung eine zus tzliche Archivkopie auf einem weiteren Magnetband angelegt Somit liegen Archivdateien auf mindestens zwei unterschiedlichen Magnetb n dern Soweit wirtschaftlich sinnvoll machbar wird das Medium der zus tzlichen Archivkopie an einem Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 285 geographisch entfernten Ausweich Rechenzentrum gespeichert um das Risiko eines Datenverlusts weiter zu minimieren Das LRZ beh lt sich vor dieses Konzept im Bedarfsfall nach entsprechender Ank ndi gung zu ndern Da das Kopieren Backup der Archivdaten in ein zweites Rechenzentrum asynchron erfolgt k nnen Verz gerungen bei der Erstellung auftreten in der Regel lt 1 Woche Um einem Daten verlust durch Medienfehler vorzubeugen wird dem Kunden empfohlen Daten nach dem Archivierungs vorgang nicht sofort aus dem eigenen Datenbestand zu l schen sondern die Generierung der Zweitkopie abzuwarten Aufbewahrungsdauer der Backupdaten Von Backup Dateien werden am LRZ per Voreinstellung von jeder Dat
259. egels tzen auf Servern umfangreiche Strukturierungsm glichkeit bei der Benen nung von Verantwortlichen umfangreiche Wahlm glichkeiten bei den Informationswegen Hilfestellun gen und Verweis auf MS Knowledge Base Artikel bei Known Errors F r alle wesentlichen Microsoft Produkte stehen sog Management Packs zur Verf gung die mit dem Expertenwissen des Herstellers eine umfangreiche berwachung erm glichen 128 Exchange Topologie am LAZ Mailrelays Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme MWN Client Mailrelays MWN Clients MAPI APC NetApp Exchange2007 Abbildung 41 Exchange Konfiguration am LRZ So wird z B die Exchange Infrastruktur ber folgende periodisch durchgef hrte Verfahren berwacht berwachung der Nachrichten bermittlung durch Versand und Verfolgung von Testmails inter ne SCOM Abl ufe diverse Service Tests z B f r Active Sync f r mobile Devices interne SCOM Abl ufe Test der Verf gbarkeit von Outlook Web Access OWA durch O O O Aufruf der Webseite Test auf Schwellwert berschreitung f r die Antwortzeit damit in direkt auch Test der Funktion der Client Access Rollen CAS Login auf OWA damit Test der Authentisierung Autorisierung am Active Directory Aufruf der Mailbox damit Test der Mailbox Server MBX und zugeh rigem Datenspei Abfrage von klassischen Systemparametern CPU Memory Plattenbelegung Auswertung der Ereignisanz
260. egraTUM das Ende 2004 als Kooperation zwischen LRZ und TUM startete wurden die in den vergangenen Jahren evaluierten und ausgearbeiteten technischen Grundlagen und Randbedingungen f r eine hochschulweite Bereitstellung von Speicher erfolgreich umgesetzt Bereits Ende des Jahres 2006 wurde mit der konkreten Planung f r die Beschaffung des ben tigten Speichers begonnen Im Fr hjahr 2007 wurde schlie lich ein Gro ger teantrag geschrieben und in vollem Umfang genehmigt Im Herbst 2007 wurde eine europaweite Ausschreibung zur Beschaffung des Speichers f r die Wissenschaft durch gef hrt Im Dezember konnten ein Prim rspeichersystem bestehend aus einem FAS6070 Cluster mit zwei Filer K pfen mit einer Bruttokapazit t von 68 TeraByte und als Replikationsystem eine FAS6070 mit einer Bruttokapazit t von 95 TeraByte der Firma Netapp beschafft werden Mit dieser Beschaffung ist ein wesentlicher Schritt f r IntegraTUM und f r den Speicher der Wissenschaft erfolgt Im Jahr 2008 wurde das beschaffte System in die Speicherlandschaft des LRZ integriert und in den Produktivbetrieb berf hrt Die realisierte Speicherinfrastruktur ist in Abbildung 79 dargestellt Meta Directories Active Directories LRZ IntegraTUM LMU LRZ IntegraTUM LMU D e WE 7 E Zi Operations Manager Provisionierung E 4 Managementkonsole r Er RR 5 Externe Benutzer j zk 2 NAS Filer EI ber VPN A Replikationssystem Authentifikation TSM Server Library Ma
261. ehnungen am Tag erzeugen Die scharfen Einschnitte im Graphen k nnten durch Ausfall der Control und Command Server bedingt sein So wurde Ende September 2008 der ISP Aviro Interstage Anfang November der ISP McColo beide USA und Ende November ein ISP in Est land vom Netz abgekoppelt da sich dort die C amp C Server verschiedener Botnetze befanden Die Einbr che waren aber nur von kurzer Dauer da in der Botnetz Software anscheinend ein Fallback implementiert war der die Botnetze auf neue C amp C Server umschaltete 80 a d 60 Ka a u 40 E 20 el Hai Jun EB No PTR avg E No matching A avg E Dialup Regexp avg O RBL avg E User unknown avg E Greylisted avg Jul Aug LU ui WM Sep Okt Nov Dez Mon Feb 23 14 14 36 2009 Abbildung 36 Abgelehnte E Mails prozentuale Aufteilung der Verfahren Wie man den Graphiken entnehmen kann bleibt das Verh ltnis der drei wichtigsten Abwehrma nahmen im letzten Quartal konstant obwohl der absolute Anteil an abgelehnten E Mails gegen ber dem H he punkt Anfang Oktober Ende Dezember auf ca ein Drittel zur ckgegangen war Im Dezember lagen die Werte bei 43 4 23 7 0 31 8 0 7 und 0 3 116 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 5 4 1 2 Spam und Viren Scan Rechner Um erste Erfahrungen mit virtuellen Rechnern auf dem VMware Cluster zu sammeln wurde ab Februar 2008 damit begonnen die Viren Scan Rechner von physischen auf vir
262. ei bis zu 3 Versionen aufbewahrt Auf Nachfrage kann die Anzahl der Versionen auch erh ht werden Die inaktiven sprich am Client nicht mehr vorhandenen Versionen einer Datei werden nach 6 Monaten automatisch gel scht aktive Versionen werden einzeln nie gel scht Die Lebensdauer der aktiven Versionen richtet sich nach der Lebensdauer des zugeh rigen Nodes 8 Datenschutz Der Node Inhaber erkl rt sich mit der Benutzung des Backup und Archivierungssystems damit einver standen dass personenbezogene Daten in unserer Datenbank gesammelt und gespeichert werden Perso nenbezogene Daten werden nur insofern gespeichert als sie f r die Kontaktaufnahme mit den Ansprech partnern gebraucht werden und nicht f r andere Zwecke verwendet oder an Dritte weitergegeben Ver bindungsinformationen werden in den Logdateien der Systeme f r Abrechnungszwecke und f r die Feh lerverfolgung aufbewahrt Dies umfasst unter anderem das Zugriffsdatum die Anzahl und Umfang der bertragenen Daten und die IP Adresse des zugreifenden Rechners Eine Weiterverarbeitung und Aus wertung dieser Daten erfolgt nur in anonymisierter Form zum Beispiel f r statistische Zwecke zur Feh lerbehebung oder zur Ermittlung von Einbruchsversuchen Das LRZ trifft angemessene Vorsichtsma nahmen dass die Sicherheit und Unversehrtheit der Daten gewahrt wird Weiterhin sorgt das LRZ mit den ihm zur Verf gung stehenden Mitteln daf r dass kein unberechtigter Zugriff von au en auf di
263. eibniz Rechenzentrums ist ein umfangreiches Angebot an kostenloser und kosten pflichtiger Anwender Software u a aus den folgenden Sachgebieten verf gbar e Chemie e Computer Algebra e Datenbankprogramme e Finite Elemente Ingenieuranwendungen Finite Differenzen Fluiddynamik Strukturmechanik e Grafik und Visualisierung e Internet und Kommunikations Software Mail News WWW Dateitransfer IRC X Server e Mathematische Programmbibliotheken e Parallelisierung und Vektorisierung e Programmiersprachen und Programmiertools Compiler Tools Quellverwaltung Debugger e Statistik e Textbe und verarbeitung Textverarbeitung Textsatz und Desktop Publishing Editoren e Utilities Dienst und Hilfsprogramme Archivierungsprogramme Shells Skript und Kommandosprachen Viren Scanner Die bisher bliche Auflistung in diesem gedruckten Bericht ist nicht mehr zeitgem Eine vollst ndige und st ndig aktuelle bersicht bieten Ihnen die Internetseiten des LRZ unter www lrz muenchen de services software Unter www Irz de services swbezug lizenzen finden sich am LRZ WWW Server Informationen dar ber f r welche Produkte es am Leibniz Rechenzentrum Landes Campus oder Sammellizenzen zu g nstigen Konditionen gibt Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 269 Teil IH Anh nge Anhang 1 Satzung der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften und des Leibniz Rechenzentrums
264. eige n berwachung des Zustandes weiterer beteiligter Infrastrukturkomponenten wie o Betriebssysteme Clusterservices O O SCOM erkennt alle auf dem Server installierten bekannten Dienste wie z B MSSQL oder IIS bindet den Server automatisch in die zugeh rige berwachungsgruppe in SCOM ein und legt auf den beteiligten Servern die f r den Dienst entsprechenden Regels tze f r die berwachung ab Diese Funktionalit t wird auch f r weitere berwachungsl sungen eingesetzt wie z B die VMWare Management Server und die komplexen Scriptl sungen im Bereich des Identity Management im Active Directory Die Meldung von St rungen erfolgt an die Serviceverantwortlichen meist ber E Mail Eine Verbindung zum zentralen LRZ Monitor unter Nagios in der Leitwarte befindet sich in der Erprobung 5 8 6 Weitere Projektarbeiten Neben den bereits in vorangegangenen Kapiteln erw hnten Aktivit ten gab es noch eine F lle von Auf gaben aus dem Alltagsgesch ft Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 129 Anfang des Jahres wurden die LRZ PCs auf Office 2007 umgestellt und f r die Anwender Umsteiger schulungen abgehalten Diese neu entwickelten Umsteigerschulungen wurden auch externen Kunden angeboten leider noch mit recht wenig Resonanz Im Bereich der Servervirtualisierung wurde die Management Infrastruktur f r VMWare der Virtual Cen ter Server und die zugeh rige MS SQL Datenbank aufgebaut und eine L sung f r die S
265. eilte sich das am LRZ gesicherte Datenvolumen vor wenigen Jahren noch je zur H lfte zwischen Backup und Archivierung auf so ist inzwischen der Archivierungsanteil auf fast 2 3 gestiegen Backup 1 3 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 37 e Langzeitarchivierung Die Aufbewahrung von Daten ber Jahrzehnte hinweg stellt besondere Anforderungen an die Verwaltung dieser Daten Siehe n chster Abschnitt Langzeitarchivierung e Bereitstellung von Massenspeicher Vorwiegend an den Hochleistungsrechnern und Compute Clustern fallen Daten in einem Umfang an der den Einsatz besonders leistungsf higer Speichersysteme notwendig macht Neben ausreichender Kapazit t ist vor allem eine hohe Durchsatzrate ein entscheidendes Kriterium f r die Eignung der einzusetzenden Medien Neben den Hochleistungsrechnern wird dieses Angebot zunehmend im Multimedia Bereich f r die mittelfristige Aufbewahrung von Video Daten sowie f r die Postererstellung und hnliches genutzt Die Kunden des LRZ nutzen das zentrale Archiv und Backupsystem explizit oder implizit Je nach Art der Rechner und des genutzten Dienstes fallen in unterschiedlichem Umfang Daten an Man kann zwi schen dem zentralen und dezentralen Nutzerkreis unterscheiden e Rechner und Rechner Cluster im M nchener Wissenschaftsnetz Die in der Regel netztechnisch gut angebundenen Rechner im MWN betreiben vorwiegend Datensicherung teilweise auch Archivierung Es handelt sich dabei um Re
266. eiten in anerkannten Gremien aktiv vorangetrieben Dieser Ansatz unterst tzt insbesondere die Auf nahme der entwickelten Verfahren in andere Grid Infrastrukturen wie etwa andere NGIs oder europawei te Communities Hierbei ist besonders zu beachten dass zum Beispiel EGI auch aktuell die Unterst tzung von zumindest drei verschiedenen Grid Middlewaresystemen plant und dabei im Rahmen des Unified Middleware Toolset UMT auch eine Interoperabilit t anstrebt DGSI kann eine Komponente des UMT werden F r das Projekt wurden bereits konzeptionelle Vorarbeiten durch mehrere D Grid Communities und das Unternehmen Platform Computing geleistet An dem Projekt sind 11 Partner beteiligt und es werden rund 259 Personenmonate bei einer Laufzeit von 36 Monaten beantragt Konsortialf hrer im Projekt ist die Platform Computing GmbH Das LRZ wird in drei Arbeitspaketen AP mitarbeiten In AP3 werden Schnittstellen zwischen den verschiedenen Schedu lern und den Middlewares entwickelt Die Anbindung an lokale Resource Management Systeme erfolgt in AP4 Die Integration der entwickelten Komponenten in die D Grid Infrastruktur wird in AP5 durchge f hrt Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 241 7 5 4 DEISA Netzmonitoring Im DEISA Distributed European Infrastructure for Supercomputing Applications Projekt siehe Ab schnitt 6 6 2 haben sich 11 europ ische Forschungsrechenzentren zusammengeschlossen um ihre Super computing Ressourcen untereina
267. eitskreis Lizenzen Das LRZ hat bei seinen D Grid Nutzern eine verst rkte Nachfrage nach bestimmten kommerziellen Soft ware Paketen bei der Nutzung auf D Grid Ressourcen festgestellt Daraufhin wurde die Lizenzsituation am LRZ berpr ft F r nahezu alle kommerziellen Pakete waren die Lizenzen auf wissenschaftliche Nut zer innerhalb des M nchner Wissenschaftsnetzes oder aber innerhalb Bayerns beschr nkt Eine Nutzung durch D Grid Teilnehmer die aus ganz Deutschland kommen k nnen war damit nicht abgedeckt Dieses Problem wurde bei der Ausschreibung zu den Sonderinvestitionen 2008 bei der auch Lizenzen beschafft 238 Teil I Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes werden sollten so dringend dass auf Initiative des LRZ eine Telefonkonferenz des D Grid Beirats einbe rufen wurde um die offenen Linzenzfragen zu adressieren Nachdem nahezu alle anderen Ressource Provider mit denselben Problemen konfrontiert wurden und nur einige wenige Software Hersteller bereit waren D Grid weite Lizenzen zu geben wurde ein Arbeitskreis Lizenzen ins Leben gerufen Dieser Arbeitskreis in dem auch Vertreter des ZKI teilnehmen soll versuchen mit den Lizenzgebern zu verhan deln und die bestehenden Lizenz Probleme zu adressieren Im Jahr 2008 fand die erste Sitzung des Ar beitskreises statt an der auch zwei Vertreter des LRZ teilnahmen D Grid 3 Call Im April wurde vom BMBF eine weitere Ausschreibung im Rahmen von D Grid 3
268. ektdaten wissenschaftlicher Projekte Verwaltungsdaten e weltweit zugreifbare WWW Seiten global abfragbare Datenbanken lokal verbreitete institutsinterne private und vertrauliche Daten e kurzlebige oder langlebige Daten F r viele Anwendungsprofile besteht die Notwendigkeit des wechselseitigen Zugriffs Nur selten reichen dazu die M glichkeiten von WWW oder FTP alleine aus Ein komfortabler Zugang auf Dateisystemebene ist notwendig Es ist offensichtlich dass dezentrale Datenhaltung in bestimmten Bereichen gravierende Nachteile hat die durch zentrale Datenhaltung vermieden werden e Interdisziplin re Zusammenarbeit eine kleinteilige IT Infrastruktur erschwert den Datenaustausch zwischen unterschiedlichen Fakult ten und teilweise sogar Lehrst hlen die separate Systeme betreiben Im Hinblick auf neue interdisziplin re Studieng nge und Projekte erleichtert eine hochschulweit zug ngliche Dateiablage die Zusammenarbeit f r Wissenschaftler wesentlich und bietet auch Studenten einen einfachen Zugang zu ihren Daten auf dem gesamten Campus Im Vergleich zu E Mail und Groupware Systemen sind Dateidienste gerade bei gro en maschinell erzeugten Daten wie Bildern Sensordaten oder CAD Zeichnungen ein sehr einfacher und bei Benutzern sehr beliebter Weg f r den Datenaustausch Ein solcher Dienst kann nur zentral sinnvoll implementiert werden e Sicherheit digitaler Daten und Dokumente Dokumente Daten und Ergebnisse aus Projekten in
269. el Stunden Kurse insgesamt angemeldet teilgenommen Einf hrung in die Systemverwaltung unter Unix Spezialkurs 65 1 65 24 21 Insgesamt 1 24 21 Tabelle 8 Kurse zum Themenbereich Unix Internet 2008 Dauer Anzahl Stunden Teilnehmer Teilnehmer Kurstitel Stunden Kurse insgesamt angemeldet teilgenommen Erstellen einer Web Seite 4 5 1 4 5 53 32 Insgesamt 1 53 32 Tabelle 9 Kurse zum Thema Internet Hochleistungsrechnen 2008 Dauer Anzahl Stunden Teilnehmer Teilnehmer Kurstitel Stunden Kurse insgesamt angemeldet teilgenommen Programming of High Performance Computing Systems 9 2 18 40 35 Introduction to modern Fortran and associated tools 9 1 9 50 50 Insgesamt 3 27 90 85 Tabelle 10 Hochleistungsrechnen Weitere Veranstaltungen 2008 Dauer Anzahl Stunden Teilnehmer Teilnehmer Bezeichnung Stunden insgesamt angemeldet teilgenommen Train the Trainer 3 5 1 3 5 30 25 Professioneller RZ Betrieb in mittleren und gro en Umgebungen 3 5 1 3 5 35 28 Insgesamt 2 7 65 53 Tabelle 11 Weitere Kurse 5 2 2 Nutzung der LRZ Kursr ume Auch im Jahr 2008 wurden die Kurs und Seminarr ume des LRZ f r vielf ltige Veranstaltungen und Zwecke genutzt Die folgende Terminauflistung zeigt wie im Vorjahr am Beispiel des H rsaals H E 009 und des gro en Seminarraums H E 008 die ber den LRZ eigenen Kursbetrieb hinausgehende Nutzung der Veranstaltungsr ume Die Liste unterschl gt hierbei jedoc
270. elle 4 Nearline Speichersysteme Tabelle 5 gibt jeweils das Bruttovolumen der Online Speichersysteme an Netto ist ein Abzug von 25 und mehr zu veranschlagen je nachdem wie redundant das System konfiguriert ist RAID Checksum men Hotspare Die Plattensysteme sind mit den Rechnern und Bandlaufwerken ber die SAN Infrastruktur verbunden Den Kern der Speichernetze bilden Brocade Switches mit insgesamt fast 400 Ports Jahresbericht 2008 des Leibniz Rechenzentrums Teil I Plattensystem Storageserver Plattentyp Kapazit t 2x SUN Flexline 380 Storageserver Fibre Channel 88 TB 2x SUN 6540 Fibre Channel 25 TB 1x STK D280 Fibre Channel 14 TB 2 x IBM DS4500 Fibre Channel 33 TB 3 x IBM FASTt900 SATA SATA 63 TB Gesamt 223 TB Tabelle 5 Plattensysteme im SAN Die diversen NAS Systeme werden wie folgt verwendet Modell Anwendung Kapazit t 2x NetApp FAS 3050 E Mail LRZ interne Server Arbeitsplatz 29 TB Filedienste Speicherhosting LMU WWW 1 x NetApp FAS 3050 Linux compute cluster 9 TB 2 x NetApp FAS 3050 Speicher f r LZA Projekte der BSB 67 TB 1x NetApp FAS 270c Staging Testsystem 0 4 TB 1 x NetApp R200 Replikation asynchrones Spiegeln 36 TB 2 x NetApp FAS 6070 Speicher f r die Wissenschaft SFW 68 TB 1 x NetApp FAS 6070 Replikation f r den SFW 95 TB 8 x NetApp FAS 3050 Projektspeicherplatz HLRB II 97 TB Replikation Projektspeicherplatz HLRB II 49 TB G
271. elung ffentlicher Geb ude in Bayern 254 Teil I Organisatorische Ma nahmen im LRZ HP Software University Association HP SUA 08 Programm Komitee DFN CERT PCA Workshop 2008 Autonomous Infrastructures Management and Security AIMS 2008 International Conference on Networking and Services ICNS 08 IFIP IEEE Symposium on Integrated Management IM08 Abteilung Zentrale Dienste 8 5 ZKI Arbeitskreis Softwarelizenzen ZKI Arbeitskreis Kosten und Leistungsrechnung ZKI Arbeitskreis IT Sicherheit BSK Arbeitskreis Bayerische Software Kooperation Mitarbeit bei und Besuch von Tagungen und Fortbildungsveranstal tungen Abteilung Benutzernahe Dienste und Systeme LB Klausur 21 01 2008 22 01 2008 Beilngries Haarer Hartmannsgruber Sun Microsystems Schulung 28 01 2008 01 02 2008 Heimstetten Braun Fachtagung Smart Biomedical IT 30 01 2008 30 01 2008 N rnberg Weinert BRZL AK Meta Directory und AK AAI eigener Vortrag 20 02 2008 20 02 2008 Bamberg Hommel Uni RZ AK Netz PC 28 02 2008 28 02 2008 W rzburg Cramer DFN AAI Attribut Definition f r E Learning eigener Vortrag 03 03 2008 03 03 2008 Berlin Hommel ZKI AK Verzeichnisdienste eigener Vortrag 10 03 2008 11 03 2008 Berlin Hommel Sun Microsystems Schulung Sun Cluster Administration 21 04 2008 25 04 2008 Heimstetten Braun Firma Xerox 13 05 2008 13 05 2008 Regensburg Brunner Sth IEEE International Symposium
272. ember die Uni kliniken keine Microsoft Softwarebestellungen durchf hren Die nachfolgende Tabelle zeigt die Anzahl der Bestellvorg nge die im Jahr 2008 online get tigt wur den in Klammern Vorjahreswerte Microsoft Adobe Endnote Corel Apple 12 10 58 48 5 3 5 E Commerce Ein Webshop welcher auf der aktuellen Architektur des Webshops des RZ der Uni W rzburg basiert wurde dem LRZ Ende 2007 zu Testzwecken zur Verf gung gestellt Es konnte im Jahre 2008 nicht abschlie end gekl rt werden ob und in welcher Form dieses Projekt um gesetzt und ggf ausgeweitet wird d h welche Architektur zum Einsatz kommt wer in welcher Form an der Entwicklung beteiligt sein wird und wo der Shop letztendlich betrieben wird zentral oder dezentral Alternativ hierzu steht immer noch die Nutzung eines externen Portals zur Diskussion 5 3 6 Lizenzbestimmungen versus technische M glichkeiten Richtige Lizenzierung hinsichtlich Anzahl und Einsatz liegen aus Herstellersicht im Verantwortungsbe reich des Kunden Lizenzbestimmungen und verf gbare Lizenzmodelle aber hinken den technischen 96 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme M glichkeiten hinterher Virtuelle Maschinen die auf Mehrkernrechnern laufen richtig zu lizenzieren ist schon komplex genug Selbst die Hersteller der Software sind mittlerweile teilweise berfordert wenn es darum geht passende und handhabbare Lizenzmodelle anzubieten In j nger
273. emeinsamesBatchSystem Sun Grid Engine Abbildung 11 Konfiguration des Linux Clusters 32 Teil I Das Dienstleistungsangebot des LRZ 2 3 1 4 Speichersysteme im Linux Cluster Der NAS Speicherplatz f r Projektdaten und Software des Linux Clusters wurde mit den NAS Dateisystemen des HLRB2 integriert Abbildung 12 Damit entstand eine gemeinsame und skalierbare Speicher Infrastruktur f r die Projekte am Linux Cluster am HLRB2 und f r alle Grid Kooperationen wie LCG und D GRID Die technische Basis bildet ein 8 Knoten Netapp Ontap GX Cluster mit 56 Tera Byte Prim r Speicherplatz und zus tzlichem Speicher f r Festplatten basierte Replikation Sowohl Upda tes als auch Erweiterungen des Systems sind nun im laufenden Betrieb m glich so dass bei Arbeiten keine Wartungsfenster f r das Linux Cluster oder den HLRB2 ben tigt werden Die technische Plattform hat sich am HLRB2 bereits seit 2006 bew hrt und arbeitet auch mit der zus tzlichen Last des Linux Clusters zuverl ssig F r gro e tempor re Dateien wird im Linux Cluster das parallele Dateisystem Lustre verwendet Die zwei Dateisysteme mit 50 bzw 130 TeraByte bieten einen Gesamtdurchsatz von bis zu 6 GigaByte s Node pools for Node pools for serial jobs parallel jobs f m og Interactive amp Login nodes Management ES O nodes gE core lt 3 Router to external hnas oss t J networks BEE NL uo emp mo ne Gige oss el vos HD
274. ementsystem identifiziert wurden Ausgehend von einer Ist Aufnahme der VO Managementsysteme und Prozeduren wurden die von den Communities erwarteten Soll Zust nde durch Interviews und Literatur Recherche erhoben und aus den Sichten von VO Mitgliedern Administratoren und Ressource Providern dargestellt Insbesondere wurde herausgear beitet welche Rollen im VO Management auftreten und wie diese interagieren e Konzeption der Autorisierung auf Grid Ressourcen Es wurde untersucht welche Attribute aus Shibboleth F derationen und VO Managementsystemen im Grid verf gbar gemacht werden k nnen Dabei wurde festgestellt dass nur die bernahme von Campusattributen ber eine Online CA mit statischer Signatur des Shibboleth IdP und Verwendung von VOMS VOMRS f r das VO Management alle Anforderungen erf llen kann Basierend auf die sem Konzept wurde anschlie end vorgeschlagen wie die Policy Decision Points auf den D Grid Res sourcen adaptiert werden m ssen um das Konzept zu unterst tzen Dazu wurde f r die im D Grid eingesetzten Grid Middleware Technologien ein Zweistufenplan f r eine Authorisierung auf der Ba sis von VO und Campus Attributen formuliert Im ersten Schritt wurden VO spezifische Attribute zwischen dem D Grid VOMRS System mit einem VOMS System synchronisiert Im zweiten Schritt sind f r die Unterst tzung von Campus Attributen SAML basierte PDPs auf den Grid Ressourcen notwendig e Entwicklung und Test In diesem Teilprojekt wu
275. en Da das Mailsystem weiterhin nur auf das Mail Verzeichnis zugreifen kann wurde ein Konnektor entwi ckelt der diese Daten aus dem SIM ins Mail Verzeichnis synchronisiert Zugleich wurde auch die Struk tur im Mail Verzeichnis angepasst 5 5 4 3 Migration des myTUM Mailservers Nachdem beim Mailserver mailin der IMAP Server von Dovecot mit gutem Erfolg eingesetzt wurde wurde auch auf dem myTUM Mailserver im Fr hjahr der IMAP Server Courier durch Dovecot ersetzt Als Resultat fiel der Netzverkehr zwischen Mail und Fileserver um 90 LMU 5 5 4 4 Migration des Campus Mailservers Der Mailserver den das LRZ f r die Studenten der LMU M nchen betreibt stie zunehmend an system bedingte Grenzen und wurde deshalb im November 2008 auf andere Hard und Software umgezogen Dies beinhaltete die Konvertierung der ca 56 000 Studentenmailboxen in ein neues effizienteres Format Der neue Server l uft auf virtueller Hardware und kann daher relativ einfach an steigende Anforderungen angepasst werden 5 5 4 5 Pilotbetrieb f r Microsoft Exchange Nachdem im Vorjahr ein Exchange Pilotbetrieb f r die Fakult t Elektro und Informationstechnik der TU M nchen aufgenommen wurde wurden nun die Vorbereitungen f r die Produktivf hrung vorangetrieben 118 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 5 4 5 1 Neues Konzept zur TU weiten Inbetriebnahme In Folge der Entscheidung der TUM ein Campus Management System einzu
276. en gezeigt zu bekommen wie eine Aufgabenstellung die mit Version X auf die eine Weise gehandhabt wurde nunmehr mit der Versi on Y anders gel st wird Au erdem gilt immer noch wie schon im letzten Jahresbericht formuliert Vom Kursprogramm des LRZ wird einerseits Aktualit t erwartet die Akzeptanz der Anwender in Bezug auf neue Programmversionen andererseits hinkt dieser Erwartungshaltung h ufig hinterher Oft werden aus den unterschiedlichsten Gr nden Programmversionen auch einfach bersprungen Gerade bei den Microsoft Produkten neigen Anwender und Systemverantwortliche dazu nur immer jede bern chste Version zu akzeptieren und zu installieren Und dies meist mit guten Gr nden und einem zeitlichen Ver satz w hrend auf die ersten Service Packs gewartet wird Auch im Jahr 2008 wurde zus tzlich zum regul ren Kursprogramm die vorhandene moderne Infra struktur im H rsaal den Seminar und Kursr umen f r andere Veranstaltungen genutzt Softwarefirmen hatten die Gelegenheit neue Produkte bzw neue Versionen bekannter Produkte zu pr sentieren Dabei standen wieder Beispiele f r die Nutzung in Forschung und Lehre im Vordergrund Ein Highlight war eine Veranstaltung der Fa Microsoft gleich zu Beginn des Jahres in der in einer Mischung aus Pr senta tion und praktischen Beispielen die neuen 2008 Serverprodukte vorgestellt wurden Der Seminarraum war mit ca 80 Teilnehmern bis auf den letzten Platz gef llt Das bereits i
277. en Gebrauch der angebotenen Ressourcen e kl ren auf ber eventuelle Ma nahmen des Betreibers bei Verst en gegen die Benutzungsrichtlinien 81 Geltungsbereich und nutzungsberechtigte Hochschulen 1 Diese Benutzungsrichtlinien gelten f r die vom Leibniz Rechenzentrum bereitgehaltene IV Infrastruktur bestehend aus Rechenanlagen Rechner Kommunikationsnetzen Netze und weiteren Hilfseinrichtungen der Informationsverarbeitung 2 Nutzungsberechtigte Hochschulen sind a bez glich der f r alle bayerischen Hochschulen beschafften Hochleistungssysteme am LRZ alle bayerischen Hochschulen b bez glich der brigen IV Ressourcen des LRZ die Bayerische Akademie der Wissenschaften die Technische Universit t M nchen die Ludwig Maximilians Universit t M nchen die Fachhoch schule M nchen und die Fachhochschule Weihenstephan 82 Benutzerkreis und Aufgaben 1 Die in 1 genannten IV Ressourcen stehen den Mitgliedern der nutzungsberechtigten Hochschulen zur Erf llung ihrer Aufgaben aus Forschung Lehre Verwaltung Aus und Weiterbildung ffentlich keitsarbeit und Au endarstellung der Hochschulen und f r sonstige in Art 2 des Bayerischen Hoch schulgesetzes beschriebene Aufgaben zur Verf gung Dar ber hinaus stehen die IV Ressourcen f r Aufgaben zur Verf gung die auf Weisung des Bayerischen Staatsministeriums f r Unterricht Kultus Wissenschaft und Kunst durchgef hrt werden 2 Anderen Personen und Einrichtungen ka
278. en Source Umfeld kommen Die Gr e der Jobs auf dem Linux Cluster ist mit 32 bis 64 Prozessoren eher im Mittelfeld angesiedelt wenige Projekte ben tigen massive Parallelit t Allerdings ist es auf Grund der Auslastung des Clusters schwer gr ere Jobs in einem ver n nftigen Zeitrahmen zu bedienen Den betroffenen Projekten wurde daher empfohlen auf den nationalen H chstleistungsrechner HRLB II zu wechseln und dort weiter an der Skalierbarkeit ihrer Applikationen zu arbeiten Benutzerdiskussion Mitarbeiter der Gruppe Hochleistungsrechnen des LRZ stellten sich den Fragen der Anwender und gaben Einblick in die Planungen des LRZ auf den Gebieten Linux Cluster Remote Visualisierung Grid Technologien und neue Programmiersprachen insbesondere zu PGAS Sprachen Partitioned Global Add ress Space Ein Vortrag des LRZ besch ftigte sich mit den zuk nftigen M glichkeiten des Grid Computing im Rah men des D Grid und des europ ischen Verbunds DEISA Die Grid Authentifizierung die bisher m hsam war soll entscheidend verbessert werden mit Shibboleth wird alles einfacher und das Grid soll end lich den allgemeinen Durchbruch schaffen Bei massiv parallelen Programmen zeichnet sich ein Paradigmenwechsel ab Neue sogenannte PGAS Programmiersprachen haben die Besonderheit dass sie es erlauben Ressourcen effektiver zu verwalten und damit die Skalierbarkeit stark zu erh hen Zudem wird der Programmieraufwand stark vermindert was sich a
279. en gesi chert archiviert oder zur ckgeholt restauriert werden Erfolgt unter einem Node l nger als 18 Monate kein Zugriff versucht das LRZ den jeweiligen Ansprechpartner unter der angegebenen Kontaktadresse zu erreichen Wird die Kontaktperson oder deren Vertreter Nachfolger innerhalb weiterer drei Monate nicht erreicht bzw wird kein Einspruch erhoben werden die Daten dieses Nodes ohne weitere R ckfragen gel scht Diese Regelung hat Vorrang vor der im n chsten Punkt dargestellten Fristenregelung und schr nkt damit die Aufbewahrungsdauer von Dateien zus tzlich ein Das LRZ beh lt sich vor dieses Konzept im Bedarfsfall nach entsprechender Ank ndigung und Vorlaufzeit zu ndern Mit Ausnahme des automatisierten L schens inaktiver Nodes kann aus Datenschutzgr nden das L schen eines Nodes ausschlie lich durch den Ansprechpartner Node Inhaber erfolgen Aufbewahrungsdauer der Archivdaten W hrend der Lebensdauer eines Nodes siehe oben werden Archiv Dateien per Voreinstellung f r 10 Jahre aufbewahrt Nach Ablauf der 10 Jahre gerechnet vom Zeitpunkt der Archivierung werden die Da ten automatisch ohne vorherige R ckfrage gel scht Auf Anfrage kann diese Zeitspanne in besonderen begr ndeten F llen Langzeitarchivierung auch h her angesetzt werden Wenn die Aufbewahrung der Daten am LRZ nicht mehr gew hrleistet werden kann z B Einstellung des Archivierungsdienstes wird der Kunde fr hzeitig dar ber informiert um seine Daten g
280. en mit den Prim rsystemen direkt auf eine Kopie umgeschaltet werden ohne eine Sicherung von Band einspielen zu m ssen Zur zus tzlichen Absicherung wird weiterhin auch eine Band kopie ber NDMP Network Data Management Protocol erstellt 184 Teil IL Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Direkter Zugriff auf Kopie kann im Katastophenfall eingerichtet werden r umliche Trennung Sicherungssystem Datenzugriff NearStore SnapMirror asynchrone Replikation Produktions Systeme HA Cluster Sicherung auf Band via TSM Abbildung 77 NAS Sicherungskonzept Seit Inbetriebnahme im M rz 2006 nahm der belegte Speicherplatz kontinuierlich zu was unter anderem auf die Verlagerung weiterer Dienste auf die NAS Filer zur ckzuf hren ist Ein nicht unerheblicher Teil des Datenwachstums ist durch die Entscheidung zu erkl ren die VMWare Datenbereiche auf die NAS Systeme zu legen Auch die stark steigende Zahl virtueller Maschinen unterstreicht den Trend des Daten wachstums Abbildung 78 zeigt die Speicherentwicklung im Jahr 2008 Yolune Capacity Used 50 TB 7 45 TB 40 TB 35 TB 30 TB 25 TB 7 20 TB Apr Jul oct Jan E capacity used E Trend Abbildung 78 Speicherentwicklung der NAS Systeme von Februar 2008 bis Januar 2009 F r das Jahr 2009 ist mit einem weiteren starken Anstieg des Speichervolumes z
281. en und erlauben damit auch den Zugriff auf die zentralen LRZ Rechner Diese Ger te werden in einer Windows Dom ne zentral administriert N here Informationen zur Software Ausstattung der LRZ PCs finden sich ebenfalls im Beitrag www Irz de services arbeitsplatzsysteme Viele Hersteller bzw Lieferanten von Anwendungssoftware machen ihre Preise f r die Software Lizenzen davon abh ngig ob es sich beim Lizenznehmer um eine Einrichtung aus dem Bereich For schung und Lehre F amp L oder einen kommerziellen Kunden handelt Das LRZ hat sich in solchen F llen stets daf r entschieden einer Einschr nkung der Nutzungserlaubnis auf den F amp L Bereich zuzu stimmen mit der Konsequenz dass Benutzer der Aufgabengruppen 3 bis 5 siehe Anhang 7 Geb h ren diese Programme nicht benutzen d rfen 2 6 2 Programmangebot f r Nicht LRZ Rechner Campus Vertr ge Die Ausstattung und Versorgung der Anwender auf dem M nchner Campus mit preiswerten Software produkten ist eine der Dienstleistungen des LRZ mit hoher Sichtbarkeit Die B ndelung des Bedarfs ber das LRZ sorgt ber gro e Nutzerzahlen f r g nstige Konditionen Das LRZ bietet durch seine Aktivit ten auf diesem Gebiet den Nutzern auf dem M nchner Campus und bei vielen Vertr gen auch weit dar ber hinaus durch die Bereitstellung zahlreicher Landes Campus und Sammellizenzen den unkomplizierten und kosteng nstigen Bezug von h ufig nachgefragten Soft ware Produkten
282. enderspezifischen Sichten bietet das System offene Schnittstellen zur Integration mit anderen Netzmanagement Werkzeugen Aufgrund der technischen und organisatori schen Randbedingungen des Multi Domain Umfeldes stellt das System keine physischen Messdaten zur Verf gung sondern eine abstrahierte management orientierte Darstellung des operativen und administra tiven Status der Links 244 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Interdomain Link Demarc Points T EndPoint A Domain 3 Meas Point 8 EndPoint B SC Meas Pont H E2E Monitoring System Users m EZECU Abbildung 120 G amp ant2 E2E Monitoring System EZE Link Monitoring System Windows Internet Explorer 6 e el http cnmdev Irz muenchen deje2e lhc S2_EZE_index html ar dr E2E Link Monitoring System Status of E2E Link CERN SARA LHCOPN 001 Oper State Up Admin State Normal Oper Problem Links Warning Operational state is known not for all involved links Warning Administrative state is known not for all involved links Domain view Domain SURFNET CERN CERN Link 2 DEN SR Dr gt Er an Structure er p EERMI Type EndPoint ID Part Info ID Part Info Demarc Domain Link Demarc ID Part Info ID Part Info EndPoint GARR seet SURFNET SURFNET NL GEANT2 NL GEANT2 GEANT2 CH NL GEANT2 GEANT2 CH CERN SARA CERN SARA CERN SARA AMS CERN SARA GEN CERN SARA TO State Oper Up Up Up
283. ennsennnennneenne ons ennn een BXL A EE E A eier gt CNM M nassen En ee 133 D GRID EE 7 5 4 DEISA Netmonitor NE ernennen 7 5 5 Geant2 E2E Link Monitoring ueensennseenseenseennneennennneennnnnnnnennsnnnse essen ernennen 7 216 Geah SHARE ee nein naeh ee 7 5 7 Auswahl von WLAN Accesgs Pomts esse enne nennen oh Auswahl Switches 2 een an Ran Eiee 8 Organisatorische Ma nahmen im LRZ cssssossssnssssonsesnnssssnnnsnonnssnnnnesnnnsssnnnsnnnnssnnssssnnnsnenne 8 1 Personalver nderungen 2008 ueessesssessseensennnennnennennnennnennnennnnnsnennnnnsennsnnnsennse ernennen E WAT EE E 8 2 Geb udemanagement und Geb udebetrieb een enn een 8 2 1 Erweiterung der Anschlussleistung im Rechnergeb ude kleine B uma n hmer nr 2 eeneg deene eegene 8 2 2 Erweiterung des LRZ Rechnerw rfel und Institutsgeb ude 8 32 Dienstleist ngskatalog 0 m ein det ee 8 47 Mit rbeitin Gremien 22 2 8 2 malen len wlan reset verlegen 8 5 Mitarbeit bei und Besuch von Tagungen und Fortbildungsveranstaltungen 8 6 ffentlichkeitsarbeit F hrungen Besucher am LRZ Tag der offenen T r HI LRZals Ausbidungsbeimeh esse ennn ons i 8 8 Betreuung von Diplom Bachelor Master und Stodenarbeten 8 9 Ver ffentlichungen der Mitarbeiter 2008 8 10 Promotionen und Habilitationen am LR vi Inhaltsverzeichnis 9 Programmausstattung des LRZ esnsrss
284. ens am vorausgehenden Tag bekannt gegeben Die Ank ndigungen erfolgen ber die e aktuelle Kurzmitteilungen http www Irz de aktuell und e eingerichtete Mailverteilerlisten an die Netzverantwortlichen 82 Verteilung von Aufgaben und Verantwortlichkeiten 1 Aufgaben des LRZ Betreiber des MWN ist das LRZ Es sorgt im Rahmen seiner M glichkeiten f r einen sicheren und m g lichst st rungs und unterbrechungsfreien Betrieb Au erdem bem ht sich das LRZ um die Anpassung des Datennetzes an die technische Entwicklung und den vorhandenen Bedarf Das LRZ ist f r das Netzmanagement z B Betrieb Fehlerbehebung Konfiguration von Netzkomponen ten zust ndig Das Netzmanagement durch das LRZ ist jedoch nur f r die Teile und Komponenten des Netzes m glich die vom LRZ beschafft bzw die auf Empfehlung und mit Zustimmung des LRZ be schafft wurden Das Netzmanagement ist dem LRZ zudem nur unter aktiver Mitarbeit von Netzverantwortlichen m glich Diese werden in ihrer Arbeit durch den Einsatz geeigneter HW SW Werkzeuge vom LRZ unterst tzt Dar ber hinaus sorgt das LRZ f r die netztechnische Aus und Weiterbildung der Netzverantwortlichen Das LRZ teilt den einzelnen Bereichen Namens und Adressr ume zu Deren Eindeutigkeit sowohl bei Adressen als auch bei Namen ist f r einen reibungslosen Betrieb unbedingt erforderlich Das LRZ bernimmt keine Verantwortung f r Beeintr chtigungen die ber das Datennetz an die ange schlossenen E
285. ensystems im Jahr 2011 bereits weit fortgeschritten Dies betrifft nicht nur die Geb udeerweiterung mit einem Volumen von ca 50 Millionen Euro sondern auch die technische Evaluation m glicher Systemarchitekturen und Herstel ler Das LRZ als GCS Partner im europ ischen Konsortium PRACE Partnership for Advanced Compu ting in Europe beteiligt sich aktiv am Vorhaben der Einrichtung eines ESFRI HPC Infrastrukturdienstes im Sinne eines European HPC Ecosystems und l st gemeinsam mit den 16 weiteren Partnerl ndern technische organisatorische und finanzielle Voraussetzungen daf r Besondere Herausforderungen sind hier aus technischer Sicht der energieeffiziente Betrieb von Supercomputern angesichts der deutlich ge stiegenen Energiepreise und die Entwicklung skalierbarer Anwendungen die in der Lage sind Systeme mit vielen Hunderttausenden von Prozessoren effizient zu nutzen Hier ist noch viel Forschungs und Entwicklungsarbeit zu leisten an der sich Mitarbeiter des LRZ im Rahmen bayerischer Projekte v a des Kompetenznetzwerkes f r wissenschaftlich technisches H chstleistungsrechnen KONWIHR aber auch nationaler und internationaler Projekte aktiv beteiligen Die bereits im letzten Jahresbericht erw hnte hohe Nachfrage nach Server Hosting und Attended Server Hosting hat sich weiter verst rkt Die gute Dienstleistungsqualit t des LRZ und die allgemeine Tendenz zur IT Rezentralisierung haben diese Entwicklung bewirkt die das Synergiepoten
286. er Europa enthalten alle diejenigen Projekte die nicht eindeutig einem Bundesland zugeordnet werden konnten insbesondere auch solche von virtuellen Organisationen wie D Grid HLRB Nutzung nach Jobklassen Jobklasse Anzahl Systemzeit t eval special 256L t batch np s64 I special t intelmpi 108839 Anzahl Bayern Brandenburg Nordrhein Westfalen Baden W rttemberg Th ringen Deutschland iedersachsen Berlin Hessen Spanien Italien United Kingdom Sachsen Anhalt Niederlande ecklenburg Vorpommern Frankreich Sachsen Finnland Russland 108839 Jobs CPU Std 65 28 16594639 28 6 85 14671878 87 12 22 9772199 87 2 26 7143043 97 0 77 4697802 02 0 97 4632745 75 2 32 1807153 84 0 17 800937 32 8 62 202015 09 0 47 122328 32 0 02 100119 39 0 02 64069 90 0 04 771 17 0 01 534 21 0 00 361 43 0 00 12 56 100 00 60610612 99 Jobs CPU Std 58 09 24537867 19 3 82 8894799 83 8 91 8692798 46 3 49 6124099 54 592 349110552 11 26 2728219 24 0 82 1460557 98 1 05 1447357 39 1 30 1314308 08 0 94 618815 47 05 9 408516 23 0 81 251196297 0 56 190742 27 0 11 102552 54 0 12 53104 89 0 54 14930 96 0 11 12248 72 1 95 791 63 0 00 0 05 100 00 60610612 96 144 Teil IL Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme HLRB Nutzung nach F chern Jobs Systemzeit Fachgebiet Anzahl CPU Std Astrophysics Cosmology 16376 15 05 13774592 53 22 73 Comput
287. er Grundschulung VIVA PSV 27 10 2008 29 10 2008 M nchen Apel Keimer Uni RZ WS Lizenzen in verteilten virtuellen Umgebungen 04 11 2008 04 11 2008 Hannover Apostolescu Oechsle DFG Netzsitzung 2008 14 11 2008 14 11 2008 Berlin Apostolescu DFN Betriebsausschusssitzung 17 11 2008 17 11 2008 Berlin Apostolescu Management Forum Seminar Das Energie effiziente Rechenzentrum Das Leibniz Rechenzentrum IT gerechte Planung und Neubau aus Sicht des Nutzers 01 02 12 2008 M nchen mit RZ Besichtigung Breinlinger Referent Grundschulung VIVA PSV 02 12 2008 09 12 2008 M nchen Apel Grundschulung VIVA PSV 04 12 2008 09 12 2008 M nchen Kemmer BRZL Treffen 10 12 2008 11 12 2008 Hirschberg Apostolescu Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 261 8 6 ffentlichkeitsarbeit F hrungen Besucher am LRZ Tag der offenen T r Auch 2008 war das Leibniz Rechenzentrum in den regionalen und berregionalen Medien mit positiven Berichten pr sent Es fanden zum Teil sehr ausf hrliche Gespr che von Mitgliedern des Direktoriums und anderen Angeh rigen des LRZ mit Redakteuren des Handelsblatts des Magazins Der Spiegel der Welt am Sonntag und des Linux Magazins statt die sich in mehreren Berichten niederschlugen Auch sehr viele Online Dienste berichteten ber das Leibniz Rechenzentrum Im Berichtsjahr besuchten viele politische Entscheidungstr ger das LRZ um sich im Vorfeld de
288. er ffentlichen Hand getragen werden zur Ver f gung Der Zugang zu diesen Ressourcen wird unter Beachtung vorrangigen Bedarfs der satzungsm i gen Nutzer nur auf Antrag gew hrt und setzt abh ngig von der Art und dem Umfang der ben tigten Res sourcen eine wissenschaftliche Begutachtung voraus Im Rahmen europ ischer Forschungsprojekte kann ebenfalls unter Beachtung vorrangigen Bedarfs der satzungsm igen Nutzer auch anderen europ ischen Wissenschaftseinrichtungen der Zugang zu den Ressourcen des LRZ gew hrt werden Soweit da bei Leistungen des Rechenzentrums ohne Kostenerstattung in Anspruch genommen werden ist grund s tzlich eine angemessene Gegenleistung oder ein sonstiger Ausgleich vorzusehen 82 Mitgliedschaft Mitglieder der Kommission sind Der Pr sident der Akademie als Vorsitzender der Vorsitzende des Direktoriums 3 Absatz 2 je f nf von der Ludwig Maximilians Universit t und der Technischen Universit t M nchen entsand te Mitglieder drei von der Akademie entsandte Mitglieder sowie ein von den beiden Universit ten im Einvernehmen entsandtes Mitglied das insbesondere die Belange der auf dem Garchinger Hoch schulgel nde untergebrachten wissenschaftlichen Einrichtungen der beiden Universit ten zu vertre ten hat und ein von den Hochschulen au erhalb M nchens im Einvernehmen entsandtes Mitglied das insbesondere deren Belange auf dem Gebiet der H chstleistungsrechner zu vertreten hat bis zu f nfzehn
289. er Daten wird daf r gesorgt dass das Archiv und Backupsystem nicht zum Datengrab wird Um die Datenflut so weit als m glich zu begrenzen ist es notwendig den Kunden des Archiv und Backupsystems den Umfang ihrer abgelegten Daten bewusst zu machen und sie zum sinnvollen Umgang mit den vom LRZ zur Verf gung gestellten f r sie kostenlosen Ressourcen anzuhalten Ein eigens f r diesen Zweck bereitgestellter Server erlaubt es den Kunden sich direkt umfassend ber den eigenen Da tenbestand zu informieren Gleichzeitig werden die Nutzer in regelm igen Abst nden von diesem Server ber die von ihnen verbrauchten Speicherressourcen via E Mail informiert In das System integriert sind Werkzeuge die der betrieblichen berwachung und Analyse der Systeme dienen Nutzer mit besonders auff lligem Datenprofil werden direkt angesprochen Alle Kontaktdaten werden zus tzlich regelm ig auf ihre Aktualit t berpr ft Entsprechend den Benut zungsrichtlinien werden Daten zu denen sich keine Ansprechpartner mehr ermitteln lassen nach Ablauf einer festgelegten Frist gel scht Zur Erh hung der Datensicherheit spiegelt das LRZ seine Archivdaten an das Rechenzentrum der Max Planck Gesellschaft in Garching 1 45 Petabyte und umgekehrt 1 70 Petabyte Den Verlauf der Speicherbelegung im Jahr 2008 zeigen die Abbildung 69 und Abbildung 70 700 000 Backup Archiv 600 000 500 000 400 000 300 000 200 000 Fr EE EEN 100 000
290. er SSIDs e Abschaltung von SSIDs ohne Restart des APs e Diebstahlschutz e Pol AN Stromversorgung ber 802 3af e Unterst tzung der bestehenden LRZ Konfiguration der APs e Einsatz auch als WLAN Bridge Wegen der im MWN grunds tzlich anderen Ausgangssituation gegen ber Enterprise Umgebungen wurde auch bei dieser Auswahl beschlossen Controller L sungen nur zu betrachten wenn diese ohne wesentli che Mehrkosten zu realisieren w ren Diese Mehrkosten d rften nicht mehr als 20 gegen ber der Aus r stung mit Einzel Accesspoints betragen Im Allgemeinen ist bei Controller L sungen jedoch mit Mehr kosten von 50 200 zu rechnen Bei der Auswahl wurde in erster Linie die Unterst tzung der Standards 802 11a b g betrachtet Allerdings sollte jeder Hersteller auch eine klare Stellungnahme zur Unterst tzung des neuen Standards 802 11n abgeben Ergebnis Die Auswahl von Accesspoints ergab folgendes Bild Genauer untersucht und getestet wurden letztendlich die Ger te AP530 von der Firma HP L 54ag und L 54dual von der Firma Lancom W 1002 von der Firma Funkwerk HiveAP20ag von der Firma Aerohive und MAP625 von der Firma Colubris Das beste Bild lieferten eindeutig die Colubris Ger te Auch mit der Unterst tzung durch den Software Support von Colubris gab es gute Erfahrungen ein Fehler bei IPv6 und eine gew nschte Erweiterung Konfigurationsspeicherung mit AP Name wurden in kurzer Zeit behoben bzw implementiert Die Firma Colubris
291. er T Systems Solutions for Research TS SfR Im ersten Projektjahr 2008 wurde die T tigkeit des LRZ mit einer vollen Stelle gef rdert F r die weite re F rderung im zweiten und dritten Jahr wurde lediglich je eine halbe Stelle bewilligt Die Gelder um die Stelle auf eine volle aufzustocken wurden unter Mittelvorbehalt gestellt Vor jedem Projektjahr ent scheidet die DGI Leitung ob die Mittel f r Globus und damit das LRZ oder f r den Support einer der anderen beiden Middlewares freigegeben wird Die Mittelfreigabe wurde im September f r das Jahr 2009 beantragt Daraufhin musste das LRZ die bisher geleistete Arbeit zusammenfassen und die Mittelfreigabe im Rahmen einer Sitzung der DGI Leitung im November begr nden Im Rahmen dieser Sitzung sprach sich die DGI Leitung einstimmig f r die Mittelfreigabe im Jahr 2009 aus Das FG 2 3 Betrieb der Ressourcen im D Grid befasst sich mit dem Betrieb von Basisdiensten f r das gesamte D Grid Das LRZ kann in diesem Projekt seine Vorarbeiten zum Monitoring aus DGI I versteti gen Es ist f r den Betrieb der am LRZ entwickelten Monitoring Infrastruktur zust ndig Au erdem sol len neue Provider und neuere Entwicklungen integriert werden Das LRZ kooperiert in diesem Teilprojekt Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 237 mit dem Forschungszentrum J lich FZJ dem Forschungszentrum Karlsruhe FZK dem Fraunhofer Institut f r Rechnerarchitektur und Softwaretechnik Berlin FhG
292. er Vergangenheit ist noch eine weitere Problematik hinzu gekommen Grid Computing Die Vernetzung ganzer Rechnerlandschaf ten und die Bereitstellung des Leistungsverm gens der Ressourcen und Ger te ber r umliche Grenzen hinaus haben der Frage nach der richtigen Lizenzierung eine weitere Dimension hinzugef gt Auch scheint das Problembewusstsein hierf r bei allen Beteiligten noch nicht weit entwickelt zu sein Das LRZ beteiligt sich seit Mitte 2008 aktiv an der L sung der Problematik durch Teilnahme in einem Arbeitskreis D Grid Lizenzen 5 3 7 Kurzdarstellung der wichtigsten aktuell bestehenden SW Bezugsm glichkeiten Gegenw rtig gibt es ber das Leibniz Rechenzentrum folgende Software Bezugsm glichkeiten Es sind meist ganze Produktgruppen die sich in mehrere 100 Einzelprodukte aufteilen lassen Die Liste ist teil weise dynamisch Aktuelle Informationen sind auf http www Irz muenchen de services swbezug hinter legt Im Rahmen des CLP Vertrages mit Adobe kann der Gro teil der Adobe und ehemals Macromedia Produkte bezogen werden Die Bestellung erfolgt ber das LRZ ebenso die Lieferung der Daten tr ger Rechnung und Lizenznachweis bekommt der Besteller von einem von Adobe autorisierten H ndler Der im Okt 2008 ausge laufene Vertrag wurde vom LRZ wiederum um zwei Jahre verl n gert Im Rahmen des ZKI profitieren weiterhin akademische Ein richtungen aus ganz Deutschland von diesem Vertrag Amira im medizinisc
293. er das Meta Directory an weitere Verzeichnisdienste an welche die Zielsysteme angeschlossen werden Die Zuordnung der Zielsysteme zum jeweiligen Verzeichnisdienst basiert auf einer Gruppierung anhand der jeweils ben tigten Datenformate Datenmengen und Synchronisations frequenzen um eine m glichst gleichm ige Auslastung des Gesamtsystems zu erzielen Die im Bild dargestellten Pfeile entsprechen den Konnektoren Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 107 d SAP HR a G steVW a Gs Verwaltu ngs Satellit IntegraTUM Verzeichnis lt dienst i Ee tellit Zielsysteme yd _ TP TP Portal Admin E Mail Storage LMS Bibliothek Abbildung 27 Architekturmodell der Verzeichnisdienste f r Integra UM e Deployment Spezifikation F r die Instantiierung der ersten Version der Verzeichnisdienst Architektur wurde die ben tigte Hardware Software und Konfiguration dokumentiert Dabei wurden insbesondere die Aspekte Replikation Standortwahl und System und Dienstsicherheit ber cksichtigt Die zentralen Maschinen sind dabei bereits ausreichend dimensioniert um sp ter noch weitere Systeme problemlos integrieren zu k nnen e Aufbau von Entwicklungs und Testumgebungen F r die Implementierung der systemspezifi schen Konnektoren und f r teilprojekt individuelle Tests wurde eine Laborumgebung aufgebaut die in Abbildung 28 dargestellt ist Virtuelle Laborumgebung lt VMware l we ID
294. er heterogenen leistungsm ig breiten und geographisch weit gestreuten IT Landschaft als ein Zentrum f r Datenhaltung zu agieren Die daf r aufgebaute Infrastruktur dient einerseits zur langfristigen zuverl ssigen Aufbewahrung von Daten einer gro en Anzahl kleinerer bis mittlerer Rechner andererseits stellt sie gemeinsamen Speicher f r Universit tseinrichtungen und f r die Ein und Ausgabedaten einer Reihe von Hochleistungssystemen bereit die bayern oder deutschlandweit genutzt werden Das LRZ bietet dazu eine Reihe von Diensten an die dem unterschiedlichen Datenprofil und den ver schiedenen Anforderungen im Zugriffsverhalten der Anwendungen Rechnung tragen Ein erheblicher Teil dieser Dienste wird durch ein leistungsstarkes Archiv und Backupsystem erbracht Es ist das Bestreben des LRZ alle Speicherdienste die von den verschiedensten Plattformen aus genutzt werden unter einem einheitlichen Konzept zu organisieren 2 4 1 Zugriff auf gemeinsame Daten Die Dezentralisierung der Rechnerversorgung in den Hochschulen hat dazu gef hrt dass die Online Daten einer Hochschule vielerorts gespeichert sind auf Arbeitsplatzsystemen Servern und Spezialrech nern in Instituten und den Hochschulrechenzentren wie dem LRZ Diese Daten unterscheiden sich stark hinsichtlich ihrer Herkunft und Verwendung e Standardsoftware projektspezifische Software Texte Multimedia Daten Datenbanken maschinell zu verarbeitende Daten Ergebnisse e Proj
295. ereicht wurde Bei diesem Wettbewerb ging es um die Entwicklung und Realisierung von neuen und beispielgebenden Kon zepten des wissenschaftlichen Informationsmanagements an den deutschen Hochschulen Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 61 Der Projektvorschlag der TUM wurde von der DFG ausgew hlt und erhielt Mitte Juni 2004 eine F rde rung f r insgesamt 5 Jahre Das LRZ ist einer der wichtigsten Kooperationspartner der TUM bei der Projektdurchf hrung von Integ raTUM sowie Dienstleister f r einige IT Services 2 13 2 1 Projektdarstellung Forschung Lehre und Verwaltung der TU M nchen ben tigen Informations und Kommunikationsdiens te zur Erf llung ihrer Aufgaben Ziel des Projekts ist es die zumeist dezentralen heterogenen Versorgungsstrukturen durch die Schaffung einer benutzerfreundlichen nahtlosen und rezentralisierten Infrastruktur f r Information und Kommuni kation IuK zu verbessern Die Aufrechterhaltung der dezentralen Verantwortlichkeit f r Inhalte und Abl ufe in den Fakult ten und zentralen Einrichtungen ist dabei ebenso vordringliches Ziel Das Projekt IntegraTUM ist in neun Teilprojekte gegliedert s Abbildung 18 F r die Teilprojekte Ver zeichnisdienst Rezentralisierung E Mail und Zentraler Datenspeicher liegt die Leitung beim LRZ Sie werden im Folgenden etwas ausf hrlicher dargestellt F r die eLearning Plattform werden die Server inkl Pflege des Betriebssystems am LRZ betrieben V
296. erheit Zentrale netzbasierte Sicherheitsma nahmen des LRZ dienen sowohl dem eigenen als auch dem Schutz des MWN Ein berblick ber verschiedene Ma nahmen ist im Jahresbericht 2007 zu finden Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 225 Neu hinzugekommen ist beispielsweise der Address Hunter Dabei handelt es sich um ein Suchwerk zeug f r MAC Adressen im MWN Netzverantwortliche sind manchmal mit der Situation konfrontiert dass ein kompromittierter Rechner in ihrem Netzbereich auftaucht und wieder verschwindet z B Note books Um den Eigent mer stellen zu k nnen ist es erforderlich dass der Netzverantwortliche zeitnah ber den aktuellen Aufenthaltsort informiert wird falls der Rechner wieder online ist Address Hunter fragt in kurzen Zeitabst nden Nyx siehe 7 4 5 nach der gesuchten MAC Adresse und informiert umge hend den Netzverantwortlichen per E Mail falls er f ndig geworden ist Falls Netzverantwortliche dar ber hinausgehende individuelle Schutzma nahmen ergreifen wollen ver sucht das LRZ soweit wie m glich Hilfestellung zu leisten Eine Schl sselrolle spielt dabei wie stark das Thema Netzsicherheit im Bewusstsein der Netzverantwortlichen verankert ist Deshalb wendet sich das LRZ mit regelm igen Informationsveranstaltungen die sich mit verschiedenen Sicherheitsthemen befas sen direkt an Netzverantwortliche Dieses Angebot wird sehr gut angenommen 7 4 3 Accounting am WiN Zugang Ei
297. erks sind die Aufgaben der LRZ Betreuungsgruppe rechnernah und service orientiert Im Einzelnen sind es e die Beratung von Benutzern im Vorfeld eines Projektes z B zur Einsch tzung der auf dem vorhandenen Rechner ben tigten bzw vorhandenen Ressourcen e die Zuteilung von Benutzerberechtigungen und Rechnerressourcen nach Ma gabe der vom Lenkungsausschuss aufgestellten Regeln und der festgestellten Bewertung des Projekts e die Betreuung in allen rechnerspezifischen und rechnernahen Fragen insbesondere Fragen zur effizienten Nutzung der vorliegenden Rechnerarchitektur und der vorhandenen Speichermedien e Qualit tskontrolle der Programme Anleitung zur Minimierung des Ressourcenverbrauchs und entsprechende Beratung der Kunden Entwicklung der hierzu notwendigen Werkzeuge Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 299 e Evaluierung Auswahl Lizenzierung Installation Test und Pflege von Compilern Hochleistungstools Bibliotheken und allgemeiner Anwender Software e die Softwareinstallation und deren finanzielle Abwicklung e die konkrete Fehlerverfolgung und dokumentation bei Compilern und Anwendersoftware e die Unterst tzung der Benutzer bei der graphischen Darstellung ihrer Ergebnisse Visualisierungsservice und bei der Vor und Nachbearbeitung der Daten e die Dokumentation der Betriebs und Softwareumgebung e cine Bindegliedsfunktion Kontakt zu Endbenutzern um die Mittlerrolle des LRZ in Bezug au
298. erlag G ttingen Abbildung 59 Die D Grid Initiative umfasst mittlerweile knapp 30 VOs aus unterschiedlichsten Berei chen die in dieser Brosch re vorgestellt werden Das LRZ unterst tzt mit seinen Rechnern alle diese VOs Ref http webdoc sub gwdg de univerlag 2007 D Grid_de pdf ISBN 978 3 940344 01 4 Als Rechenzentrum und damit als Ressourcenanbieter war das LRZ vorrangig am sogenannten Integra tionsprojekt DGI beteiligt aufgrund langj hriger guter Kontakte zu HPC Benutzern aus der Astrophy sik trat das LRZ aber auch als assoziierter Partner der Astrophysik Community und der Hochenergiephy sik Community auf und beteiligte sich auch an deren Arbeitstreffen Die F rderung des Projektes DGI 1 endete am 31 8 2007 Das LRZ arbeitete intensiv am Nachfolge antrag f r DGI 2 mit der in 2008 genehmigt wurde Das Projekt DGI 2 hat eine Laufzeit von Januar 2008 bis Dezember 2010 Das LRZ stellt im verteilten Kompetenzzentrum Middleware FG1 vielf ltiges Know how f r die Unterst tzung von Benutzern und Ressourcenanbietern bez glich Globus bereit Ne ben der Weiterf hrung des Globus Supports konzentrierte sich das LRZ vor allem auf die Bereitstellung einer gemeinsamen Benutzer Umgebung f r D Grid Au erdem hat sich das LRZ verpflichtet die Diens te MDS WebMDS und myproxy als zentrale Dienste f r das ganze D Grid auch weiterhin anzubieten 164 Teil II Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Das LRZ be
299. ert werden kann Die neuen technischen M glichkeiten zum auto matisierten Datenabgleich erlauben es die universit ren Gesch ftsprozesse mit dem Ziel eines integrier ten und benutzerfreundlichen Informationsmanagements noch gezielter zu unterst tzen Im Jahr 2008 wurden in den Kooperationsprojekten die folgenden Schwerpunkte gesetzt e Die Versorgung der dezentralen fakult tsspezifischen IT Dienste der TUM wurde im Rahmen des Projekts IntegraTUM um die produktive Einspeisung der Studenten und Mitarbeiterdaten in die Verzeichnisdienste am TUM Standort Weihenstephan erweitert Damit r ckt einerseits das f r IntegraTUM von der DFG geforderte Ziel eines fl chendeckenden Einsatzes der neuen In frastrukturkomponenten deutlich n her Andererseits vereinfacht sich damit auch die Nutzung der TUM IT Dienste durch die dortigen Studenten wie sie im Rahmen von StudiTUM vereinbart wurde Seit dem Sommer 2008 wird zudem intensiv an der Anpassung der IntegraTUM Meta Directory Infrastruktur an das neue Campus Management System TUMonline gearbeitet So konnten be reits neue TUM Prozesse wie die Online Bewerbung und die Authentifizierung am neuen TUM online Portal durch Identity Web Services unterst tzt werden F r 2009 ist vorgesehen dass TUMonline die bisherigen Datenquellen SAP HR und HIS SOS vollst ndig abl sen wird ohne dass die bestehenden Benutzerkennungen dadurch beeintr chtigt werden e Der bereits zu weiten Teilen erfolgreich automatisi
300. erte Datenaustausch zwischen der LMU Verwaltung und der LRZ Benutzerverwaltung wurde konzeptionell weiter verbessert Zum einen wurde das Datenmodell f r Studentendatens tze berarbeitet um die hochschul bergreifende Nutzung von Learning Management Systemen zu vereinfachen die durch das E Learning Profil der DFN Authentifizierungs und Autorisierungsinfrastruktur DFN AAI erm glicht wird Zum anderen wurden die Grundlagen daf r geschaffen fakult tsspezifisch automatisch Berechtigun gen an LMU Mitarbeiter zu vergeben Diese M glichkeiten werden beispielsweise im Rahmen des Desktop Managements f r die LMU Biologie und des Cluster und Grid Computings f r die LMU Physik ben tigt Die technische Umsetzung und Produktivf hrung ist bis zum Fr hjahr 2009 geplant Bei der Fortf hrung der Entwicklung wird das klare Ziel verfolgt den noch notwendigen Aufwand zur parallelen Pflege der Benutzerdatens tze in den Systemen der Universit ten bzw des LRZ weiter zu re duzieren Organisatorisch tragen hierzu die bilateralen Ma nahmen zur Sicherstellung der Datenqualit t bei die sich sowohl auf die abgebildeten Organisationsstrukturen als auch die Zuordnung von Personen datens tzen z B bei abweichenden Namensschreibweisen beziehen 2 13 2 Das Projekt IntegraTUM Mitte 2002 haben die TU M nchen und das LRZ einen Projektvorschlag erarbeitet der bei einem von der DFG ausgelobten Wettbewerb Leistungszentren f r Forschungsinformation eing
301. erungen von bis zu einigen Stunden verbunden waren konnten dadurch verbessert werden Zudem lassen sich Plattform und Dienstberechtigungen nun wesentlich flexibler und feiner granuliert als vorher verwalten so dass einige in den letzten Jah ren notwendig gewordene Sonderl sungen ebenfalls abgel st werden konnten e Die durch das neue Identity Management System geschaffenen technischen M glichkeiten wurden dazu genutzt diverse LRZ Dienste direkt an die neue Infrastruktur anzubinden So konnten bei spielsweise die Authentifizierung und Autorisierung f r die VPN Einwahl die Nutzung des Doc Web Gateways und der Zugriff auf die LRZ Netzdoku vollst ndig integriert werden Die Verzeich nisdienstanbindung weiterer Dienste insbesondere der Mailserver und der High Performance Com puting Plattformen ist in Vorbereitung und soll 2009 erfolgen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 105 e Die technischen Schnittstellen zwischen der LRZ Benutzerverwaltung und ihren Pendants an den Universit ten und in rechenzentrums bergreifenden Verb nden wurden konzeptionell berarbeitet o Das Datenmodell f r die Kopplung zwischen LMU und LRZ wurde erweitert um einer seits auf neue Anforderungen aus dem Bereich E Learning eingehen zu k nnen anderer seits sollen zuk nftig an Mitarbeiter ausgew hlter Fakult ten automatisch bestimmte Be rechtigungen f r LRZ Systeme vergeben werden Diese werden beispielsweise im Rah men des LRZ Angeb
302. erwaltungs E EDV SI gl Ve RN ot organ Abbildung 18 Teilprojekte in IntegraTUM 2 13 2 1 1 Verzeichnisdienst Als zentrales technisches Teilprojekt hat das Projekt Verzeichnisdienst die Aufgabe eine Hochschul verzeichnisdienst Infrastruktur zu konzipieren und umzusetzen mit der aktuelle Informationen ber die Identit ten und Autorisierungen aller Hochschulangeh rigen Mitarbeiter Studenten G ste Alumni 62 Teil I Das Dienstleistungsangebot des LRZ abgerufen und in angeschlossene Systeme eingespeist werden k nnen Der Verzeichnisdienst ist die Vor aussetzung f r die Nutzung der zentralen Dienste Die Daten werden aus den f hrenden Systemen der Verwaltung aggregiert konsolidiert und aufbereitet Dadurch k nnen Redundanzen und Inkonsistenzen erkannt und eliminiert werden Die Stammdaten wer den um zus tzliche Informationen beispielsweise einen hochschulweit einheitlichen Loginnamen f r alle Dienste erg nzt und mit Gruppenzugeh rigkeiten angereichert Auf Basis eines Rollenkonzepts werden die Daten selektiv an die jeweiligen Systeme der brigen Teilprojekte weitergeleitet und st ndig aktuell gehalten so dass ein automatisches Anlegen Modifizieren und letztendlich auch L schen von Accounts erreicht wird Dadurch werden die zust ndigen Systemadministratoren von aufwendigen Routinearbeiten entlastet Die Leitung dieses Teilprojekts liegt beim LRZ 2 13 2 1 2 Rezentralisierung E Mail Services Urspr ngliche Moti
303. es Netzwerks wurde auch durch Aktivierung von Flow Control die Zu verl ssigkeit des Netzwerkes erh ht der Einsatz von Jumbo Frames im VLAN der zur effizienten Nut zung des Myrinet Segmentes erforderlich ist konnte jedoch noch nicht konfiguriert werden da nicht alle Switches gleichzeitig Flow Control und Jumbo Frames beherrschten In der Tat verschwanden die Paket Verluste im Netzwerk nach der Wartung weitgehend Elektro und Lustre Arbeiten Ende September Im Rahmen der Erweiterung der Klima und Elektro Infrastruktur im NSR von 400 auf 800 kW wurde eine zweit gige Stromabschaltung erforderlich unmittelbar im Anschluss wurden auch Software Arbeiten am Cluster durchgef hrt um im Verlauf des Sommers manifest gewordenen Stabilit tsprobleme mit den Lustre Clients zu beheben die zu zahlreichen Knotenabst rzen und mitunter korrupten Dateien f hrten Dar ber hinaus wurden die HOME und Software Dateisysteme auf einen anderen NAS Filer verschoben und dabei auch die Pfadnamen im Hinblick auf bessere Administrierbarkeit des Storage um gestaltet 6 1 2 7 Ausstehende Probleme Zwar konnte die Stabilit t der Lustre Dateisysteme durch die oben erw hnten Ma nahmen deutlich ver bessert werden die Probleme sind aber nicht ganz verschwunden e Nach wie vor kommt es wenn auch deutlich seltener zu Client Abst rzen und korrupten Dateien e Quotierung funktioniert nicht zuverl ssig e Die Lustre Metadatenserver MDS werden unter hoher Last
304. es VPN Servers m glich Eine wichtige Rolle unter den Online Datenbanken spielen die so genannten OPACs Online Public Access Catalogs der Hochschulbibliotheken Sie bieten kostenfrei Informationen ber den Bestand der jeweiligen Bibliothek oder auch ber den Bestand aller Bibliotheken eines Landes Neben reinen Litera turnachweisen stehen dabei teilweise auch Inhaltsangaben von B chern und Zeitschriftenartikeln Ab stracts und teilweise sogar Volltexte zur Verf gung Der Zugang zu den OPAC Diensten erfolgt in der Regel Web basiert N here Einzelheiten ber Zugang und Nutzung der OPACs der beiden M nchner Hochschulbibliotheken der Bayerischen Staatsbibliothek und einiger anderer Bibliotheken findet man ber www Irz de andere bibliotheken 2 8 Sicherheit bei Rechnern und Netzen Eine wesentliche Aufgabe jedes Hochschulrechenzentrums ist die Absicherung der von ihm betriebenen Netze und Rechner gegen Angriffe von au en aber auch gegen unberechtigte bergriffe innerhalb dieser lokalen Netze Umgekehrt sollen nat rlich auch externe Rechner des X WiN und des Internet vor eigenen kompromittierten Systemen gesch tzt werden Die Angriffe erfolgen aus den unterschiedlichsten Motiven wie z B Neugier Abenteuerlust Vandalis mus Spionage oder kriminelles Gewinnstreben hnlich vielf ltig sind die Ziele der Angreifer Unerlaub ter Zugang zu Information oder zu Diensten Umgehung von Auflagen des Urheberrechts Verwendung einer
305. esamt 450 TB Tabelle 6 NAS Speicher und ihre Verwendung 75 76 Teil I Infrastruktur des LRZ 3 2 Organisationsstruktur des LRZ Am 1 Oktober 2008 bernahm Prof Dr Arndt Bode TU M nchen den Vorsitz des Direktoriums von Prof Dr Heinz Gerd Hegering LMU M nchen der dieses Amt seit M rz 1989 inne hatte Neben dem neuen und dem bisherigem Vorsitzenden geh ren dem Direktorium Prof Dr Hans Joachim Bungartz TU M nchen seit 12 12 2008 vorher Prof Dr Ch Zenger und Prof Dr Dieter Kranzlm ller LMU M nchen seit 19 05 2009 an Das LRZ ist seit vielen Jahren in vier Abteilungen gegliedert Eine Abteilung die f r die interne Organi sation zust ndig ist und drei Fachabteilungen Die sich daraus ergebende Gesamtorganisation zeigt Ab bildung Abbildung 19 Direktorium des LRZ Vorsitz Prof Dr A Bode Prof Dr H J Bungartz Prof Dr H G Hegering Prof Dr D Kranzlm ller Leitung des LRZ Leiter Prof Dr A Bode Stellvertreter Dr V Apostolescu Abteilung Abteilung Abteilung Abteilung Benutzernahe Hochleistungssysteme Kommunikationsnetze Zentrale Dienste Dienste und Systeme Dr H D Steinh fer A L pple Dr V Apostolescu Dr N Hartmannsgruber Abbildung 19 Organisaationsstruktur des LRZ Die detaillierte Gliederung der Abteilungen in Gruppen zeigt eingehender wie sich die Aufgaben vertei
306. et Link value rti gen ch geant net 62 40 124 20 30 8 683465356552 rti vie at geant net 62 40 124 0 30 1 49654813273955 rti gen ch geant net 62 40 124 24 30 0 000503868665661786 rti ams nl geant net 62 40 124 164 30 0 000281003958647856 HI ath gr geant net 62 40 124 88 30 0 utilization _rate_out Rank Link value 1 rt1 gen ch geant net 62 40 124 20 30 3 71624225234934 rti vie at geant net 62 40 124 0 30 1 03202830521066 rti gen ch geant net 62 40 124 24 30 0 000588968704712002 rti ams nl geant net 62 40 124 164 30 8 68081561788728e 06 nt1 ath gr geant net 62 40 124 88 30 0 utilization_rate_inout Rank Link in rt1 gen ch geant net 62 40 124 20 30 8 683465356552 out rt1 gen ch geant net 62 40 124 20 30 3 71624225234934 in rt1 vie at geant net 62 40 124 0 30 1 49654813273955 out rt vie at geant net 62 40 124 0 30 1 03202830521066 out rt1 gen ch geant net 62 40 124 2430 0 000588968704712002 utilization_rate_change_in Value Rank Link rt1 gen ch geant net 62 40 124 20 30 0 26629071664 nt1 vie at geant net 62 40 124 0 30 0 0381810921902192 rt1 gen ch geant net 62 40 124 24 30 1 44940943311949e 05
307. etrieb geh ren regelm ige Softwareupdates Seit November 2008 wird das vorge nannte ServicePack 1 seitens des Distributors Novell SuSE nicht mehr unterst tzt d h notwendige Si cherheits Updates der Software stehen nicht mehr zur Verf gung Zwar kam das Ende f r ServicePack 1 nach nur einem Jahr Laufzeit unerwartet fr h als Reaktion darauf erfolgt jedoch der Upgrade auf die aktuelle Version bzw das ServicePack 2 wie gewohnt Schritt f r Schritt d h mit einer geplanten Umstel lungsphase von 3 Monaten Neuerungen bzw Neuinstallationen waren nur bedingt durch Neuanstellungen 5 8 Desktop und Applikationsservices 5 8 1 Sicherheitsdienste f r Desktops im MWN 5 8 1 1 Antiviren Service Auf der Grundlage eines Landesvertrages ber die Antiviren Software der Fa SOPHOS hat das LRZ eine Server und Service Infrastruktur zur automatischen Verteilung und Installation von SOPHOS Virensignaturen f r alle Nutzer im M nchner Wissenschaftsnetz eingerichtet verbunden mit entspre chenden Beratungsleistungen zur Nutzung f r Endbenutzer Das Jahr 2008 war gekennzeichnet durch eine F lle von Aufgaben im Rahmen der erneuten Umstellung auf eine aktuelle Sophos Version des En terprise Managers Dabei hat das bertragene Volumen in 2008 die Menge von 20 Vorjahr 5 5 TByte erreicht Die Anzahl der Zugriffe im Jahre 2008 verdeutlicht Abbildung 38 Es ist zu ber cksichtigen dass PC Clientsysteme oft mehrmals am Tag zugreifen Als jeweils ein Client
308. etrieben werden m ssen z B Mailgateway oder deren Betrieb dezentral nicht wirtschaftlich oder technisch nicht m glich ist z B Hochleistungsrechensysteme Datensicherung und Archivierung e Unterst tzung und Beratung bei Fragestellungen der Informationsverarbeitung Kompetenzzentrum Diesen aus der dezentralen DV Organisation entstehenden Aufgaben stehen jedoch in letzter Zeit in ganz Deutschland zunehmend auch W nsche an die Hochschulrechenzentren gegen ber die allgemein unter dem Begriff Rezentralisierung zusammengefasst werden k nnen Das LRZ untersucht zusammen mit den M nchner Hochschulen inwieweit und unter welchen Bedingungen solchen W nschen entgegenge kommen werden kann und welche Institutionen sich ihrer annehmen k nnten Beispiele f r solche W n sche sind e Verallgemeinerung der bereits bestehenden Datensicherungsdienste Backup Restore und Archivierung und Verf gbarkeit eines allgemein zugreifbaren Datenspeichers e Zentrale Beobachtung des E Mail Verkehrs z B um unaufgeforderte Reklame Briefe Spams zu reduzieren und Viren auszuschlie en e Betrieb von E Mail und Webservern f r Hochschuleinrichtungen e Betrieb zentraler Verzeichnisdienste e Hosting von Rechnern d h die bernahme des zuverl ssigen Betriebs von Rechnern meist Servern die zwar zentral untergebracht sind um Raumbedarf Energie und Klimaversorgung abzudecken sowie ggf auch vom Personal der Rechenzen
309. ette Information ber E2E Links von den anderen Tools in der Community abgefragt werden kann Mit Hilfe dieser Schnittstelle ist z B die Integration mit den Messungen von anderen Tools m glich wie sie derzeit auf Basis von CNM entwi ckelt wird Zur Verbesserung der Nutzerfreundlichkeit des Tools wurde in Absprache mit dem Betriebs Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 245 personal eine Reihe von neuen Views entwickelt sowie die statistischen Auswertungen erweitert Zudem wurde ein User freundliches Interface zur Administration der E2Emon Installation entwickelt 7 5 6 Geant2 I SHARe Beim Betrieb von Netzdiensten die die Zusammenarbeit mehrerer unabh ngiger Provider erfordern er geben sich neuartige Herausforderungen die von etablierten IT Service Management Frameworks nicht adressiert werden Im Umfeld des von der EU gef rderten GN2 Projektes werden diese insbesondere im Zusammenhang mit sog Ende zu Ende Verbindungen deutlich bei denen es sich um dedizierte optische Multi Gigabit Verbindungen i A jeweils ber mehrere heterogene optische Netze handelt Die Ar beitsabl ufe f r die Einrichtung und den Betrieb dieser Verbindungen erfordern ein koordiniertes Vorge hen der beteiligten nationalen Wissenschaftsnetze Das Ziel der GN2 Aktivit t I SHARe ist die Unterst tzung dieser und weiterer Multi Domain Betriebsprozesse durch die Konzeption und Implementierung eines Informationssystems Als Vorausset zung daf r
310. etzer f r Programmiersprachen Programmbibliotheken und zahlreiche Anwendungspakete zur Verf gung Der Beitrag www Irz de services software enth lt eine Zusammenstellung aller an LRZ Systemen vorhandenen Programme mit Hinweisen auf das Einsatzgebiet die Verf gbarkeit unter den verschiedenen Betriebssystemen und Verweisen auf weiterf hrende detaillierte Dokumentationen die teilweise auch in gedruckter Form vorliegen siehe www Irz de services schriften Die Software an den verschiedenen Unix Rechnern des LRZ umfasst folgende Gebiete jeweils mit eini gen typischen Produkten e Compiler f r Fortran C und C Intel Portland Group e Numerische und statistische Unterprogrammbibliotheken BLAS LAPACK NAG e Finite Elemente Methoden NASTRAN ANSYS CFX e Chemische Anwendungsprogramme GAUSSIAN MOLPRO AMBER e Graphik Visualisierung Amira Ensight Paraview Patran e Textverarbeitung LaTeX Tex e Datenhaltung und Datenbanksysteme Oracle MySQL e Symbol und Formelmanipulation Matlab Maple Mathematica e Tools zur Vektorisierung Parallelisierung und Programmoptimierung MPI Vampir Die vom LRZ f r Hochschulangeh rige allgemein zug nglich aufgestellten Arbeitsplatzrechner Win dows PC Macintosh sind gleichfalls mit einem breiten Software Angebot ausgestattet z B Microsoft 40 Teil I Das Dienstleistungsangebot des LRZ Office Word Excel usw SPSS Au erdem sind alle PCsan das MWN angeschloss
311. eulicherweise gab es in 2008 noch keine gravierenden bzw vermeidbaren Dienstst rungen wegen Ausfall veralteter Hardware 5 7 2 Server unter Solaris Bei den In und Au erbetriebnahmen von Serverrechnern und der Verlagerung von Diensten spielt wie im Vorjahr die Migration in Richtung auf Linux eine gro e Rolle die meisten au er Betrieb genommenen Server wurden durch Linux Systeme ersetzt teils auf physischen Maschinen teils auf virtuellen Daneben gibt es aber auch eine Reihe von Diensten bei denen eine vorhandene Solaris Installation vollst ndig berarbeitet wurde e Lizenzserver nx101 e Benutzermaschinen sun2 sun3 e Mitarbeitermaschinen wsc22 wsc33 e Kalenderserver wsc39 Die laufenden Pflegearbeiten die nicht in einer sichtbaren Ver nderung der Serverlandschaft bestehen und deswegen in Berichten gerne vergessen werden sollen hier ebenfalls erw hnt werden die Unterst t zung der f r die auf den Sun Rechnern laufenden Dienste und Applikationen zust ndigen Mitarbeiter die Vorbereitung und Durchf hrung der Wartungstage die laufende Installation von Korrekturcode und von neuen Versionen des Betriebssystems und systemnaher Software AFS ADSM TSM Compiler Java 124 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme SSH Open Source Software das Performancetuning die Abwicklung von Bestellungen und Garantie f llen die Au erbetriebnahme alter Hardware der Update der Lizenzen auf dem Lizenzser
312. existieren folgende Gruppierungen zur berwachung H chstleistungsrechnen Linux Cluster Mailserver AFS Fileserver TSM Sicherung Netzdienste Webserver Windows Dienste u s w Neben der frei verf gbaren berwachungssoftware Nagios die bei Linux und Solaris basierten Betriebs systemen zum Einsatz kommt spielt das Softwareprodukt SCOM im Bereich der Windows Server die zentrale berwachungsrolle Hinzu kommen eigens angefertigte berwachungsskripte Die Satelliten sind es auch die sich um die automatische Benachrichtigung derzeit beschr nkt auf den Mailversand der jeweiligen Dienstadministratoren k mmern Meldungen die dar ber hinaus auch Drit ten zug nglich sein sollen zumal au erhalb der regul ren Dienstzeit wenn Nacht Operateure in der LRZ Leitwarte ein wachsames Auge auf den Dienstbetrieb werfen werden auf zwei redundante soge nannte Logging Server weitergeleitet 190 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Die beiden Logging Server liefern schlie lich mittels Agenten s mtliche Informationen an die zentrale berwachungsschnittstelle HP OpenView Operations OVO auch optisch im Mittelpunkt der LRZ Leitwarte angezeigt OVO dient damit obwohl weitaus vielseitiger als mandantenf higer Sammelpunkt betriebswichtiger Informationen und St rungsmeldungen Die relativ schlanke Handhabung von OVO erm glicht es Alternativen f r ein mandantenf higes soge nanntes Messaging Sys
313. ezember 2008 wurde zu erst nur f r IPv6 f hige Clients innerhalb des LRZ als einer der ersten weltweit am gleich gelagerten IPv6 Trusted Tester Program der Firma Google teilgenommen IPv6 f hige Clients k nnen ber IPv6 auf verschiedene Dienste von Google zugreifen unter anderem nat rlich auf die Suchmaschine und auf Googlemail Dieser Testbetrieb wurde nach Ausbleiben von Problemen Anfang 2009 auf IPv6 f hige Clients des gesamten MWN ausgedehnt Zu statistischen Zwecken wurden ab Mitte des Jahres die f r IPv4 bereits lange existierenden Funktionen zum Export von Trafficstatistiken auf den Routern aktiviert Aus diesen Daten l sst sich die steigende Benutzung von IPv6 im MWN deutlich ableiten Ein Beispiel ist die Auswertung wie viele verschiedene IPv6 Adressen Hosts im MWN innerhalb einer Stunde Daten in das Internet WiN verschickt haben siehe Abbildung 100 Insbesondere die Einf hrung des Google Testbetriebs in KW51 f r das LRZ und die Ausweitung f r das gesamte MWN Anfang 2009 sind deutlich zu sehen 250 240 230 220 210 200 190 180 170 160 150 140 130 120 I 90 WI Wi A f OO j d Im A PHI di vd H IN i Fiii LW LH so RANAN A Oh up f S nl P d L IR 70 t mi N 60 504 r Week 39 Week 41 Week 43 Week 45 Week 47 Week 49 Week 51 Week 01 E Hosts Abbildung 100 Anzahl verschiedener IPv6 Adressen die Verkehr ins Internet erzeugen innerhalb einer Stunde Laut dem Ende 2008 f r IPv
314. f das Kompetenznetzwerk erf llen zu k nnen und organisatorische Koordination des LRZ mit dem Kompetenznetzwerk e die Organisation von Benutzertreffen Kursen Seminaren und virtuellen Workshops mit dem Ziel das erworbene Wissen direkt in die praktische Arbeit einflie en lassen zu k nnen Die Zusammenarbeit mit anderen H chstleistungsrechenzentren liegt ebenfalls bei der LRZ Betreuergruppe So sollen z B Programme auch auf verschiedenen Rechnerarchitekturen auf ihre Eig nung getestet werden Die anderen Rechenzentren werden in allen Fragen unterst tzt die den HLRB Betrieb betreffen Schlie lich obliegt es der Betreuergruppe in Zusammenarbeit mit dem Kompetenznetzwerk regelm ige Berichte ber die Arbeiten am HLRB zu erstellen 2 System und Rechnerbetrieb Der Gruppe Hochleistungssysteme obliegt die Einstellung der Betriebsparameter und die laufende ber wachung des Betriebs Die sorgf ltige Durchf hrung der operativen Aufgaben ist f r einen effizienten Betrieb unerl sslich und zahlt sich durch optimale Ressourcen Nutzung aus Es fallen im Einzelnen folgende Aufgaben an e Das LRZ stellt R umlichkeiten Energie Klimatisierung K hlung und die Kommunikationsnetz Anbindung zur Verf gung e Das LRZ betreibt und administriert den HLRB eigenverantwortlich nach den vom Lenkungsausschuss erlassenen Regeln Dazu geh ren o Betriebsplanung Rechnerkonfiguration Betriebsmodelle o Konzepte zum optimalen Betriebsablauf o
315. f hren und damit insbeson dere die zentrale Benutzerverwaltung umzugestalten musste das Konzept f r die TU weite Inbetrieb nahme des Exchange Dienstes und die Koexistenz mit dem myTUM Mailserver in wesentlichen Teilen neu entwickelt werden Das Konzept umfasst u a Fragen zum Benutzerlebenszyklus z B Weiterleitun gen f r Alumni Deprovisionierung etc zu Umzug und nderungen der Self Service Schnittstellen zur Einrichtung eines zentralen Forwarders um den gleichzeitigen Betrieb des alten myTUM Mailers mit Exchange f r dieselben Domains zu erm glichen und auch zur Realisierung von Weiterleitungen f r die Exchange sich nicht eignet Die TU weite Inbetriebnahme des Exchange Servers soll nun zeitgleich mit der Inbetriebnahme wesentli cher Funktionen des Campus Management Systems TUMonline erfolgen Umstellung von Self Services vom myTUM Portal auf TUMonline zeitgleich mit der Umstellung der Datenlieferung an das Integra TUM Meta Directory von HIS SOS SAP HR auf TUMonline Nach der Inbetriebnahme kann jedes TU Mitglied seine Mailbox selbst umziehen F r neue Nutzer wird Exchange zur Voreinstellung Bis zur Inbetriebnahme des Exchange Servers sind sowohl bei TUMonline also auch in den IntegraTUM Teilprojekten E Mail und LDAP noch einige Voraussetzungen zu erf llen u a Implementierung und Test von Konnektoren Fragen der Datenqualit t 5 5 4 5 2 Schnittstelle zur delegierten Administration F r die delegierte Administr
316. fang von 24 Personenmonaten mitzuarbeiten DGSI Die systematische Orientierung auf Anwender im D Grid f hrte zu anwendungsspezifischen Service Grids verschiedener Disziplinen oder Communities Um die Anforderungen der jeweiligen Nutzer in den Disziplinen wie zum Beispiel die leichte Integration von spezialisierten Ressourcen und Diensten zu unterst tzen haben die einzelnen Communities die jeweils f r sie am besten geeigneten Grid Technologien ausgew hlt W hrend dieser Ansatz einerseits Communities mit speziellen oft historisch bedingten Anforderungen einen leichten Einstieg erm glicht f hrt er andererseits zu einer heterogenen Struktur bestehend aus unterschiedlichen Middlewarekomponenten Um gleichzeitig europaweite Kon zepte wie zum Beispiel den von der European Grid Initiative EGI angestrebten europ ischen Ressour cenraum zu realisieren muss eine Interoperabilit t zwischen den verschiedenen Komponenten gew hr leistet werden Erfahrungen aus dem Netzbereich haben gezeigt dass dies am besten durch die Definition und Verwendung gemeinsamer Schnittstellen geschieht da der Einsatz einer einzigen Middleware in allen L ndern und allen Communities auch mittelfristig kaum umsetzbar ist Auch bereits innerhalb einer National Grid Initiative NGI wie D Grid k nnen derartige Schnittstellen zu einer verbesserten Effizienz von Ressourcen f hren wenn einzelne Communities ihre allgemein ver wendbaren Ressourcen in Zeiten von Unteraus
317. figuriert und in Benutzung IPv6 ist bereits in vielen Betriebssystemen z B Windows XP Vista Linux und MAC OS verf gbar und wird wenn es eingeschaltet wird als paralleler Protokoll Stack verwendet wobei zuerst versucht wird eine Verbindung mit IPv6 aufzubauen Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 215 180000 pn Upload MB Pen Download MB 160000 Linear Upload MB Linear Download MB 140000 120000 100000 80000 60000 40000 20000 Jan08 Feb 08 Mrz 08 Apr08 Mai08 Jun08 Jul08 Aug08 Sep 08 Okt08 Nov08 Dez 08 Abbildung 98 bertragener Datenverkehr ins MWN mit UMTS Karten Im Laufe des Jahres 2008 erh hte sich der IPv6 Verkehr auf dem DFN bergang um mehr als den Faktor 10 Die bereits seit 2007 bestehenden Protokollumsetzer f r 6104 Tunnelmechanismus um IPv6 Pakete ber IPv4 transportieren zu k nnen und Teredo IPv6 Pakete mit UDP ber IPv4 kapseln die auch den IPv6 Verkehr des WiN und Geant2 Netzes bedienen hatten einen gro en Anteil an dieser Steigerung dennoch ist insbesondere im letzten Quartal eine au erordentliche Zunahme des Verkehrs durch MWN Benutzer an der Schnittstelle zum WiN zu verzeichnen siehe Abbildung 99 Diese Zunahme ist vor al lem auf die Nutzung von Wikipedia und Google ber IPv6 zur ckzuf hren siehe sp ter 360 0 M 270 0 M 180 0 M Bits per Second Abbildung 99 IPv6 Datenverkehr an der Schnittstelle zum WiN Anfang 2008 wurden d
318. fikat von einer kommerziellen CA T TeleSec Trust Center der Deutschen Telekom AG beglaubigt wird Damit entf llt die Notwendigkeit f r die End benutzer das Wurzelzertifikat explizit durch Import als vertrauensw rdig zu kennzeichnen wenn das schon vom Hersteller der Software erledigt wurde Betreiber von Serverrechnern k nnen sich ber das LRZ Zertifikate f r die Rechner besorgen Soweit es sich um Einrichtungen der beiden M nchner Universit ten handelt geh rt die Zertifizierungsstelle CA zur jeweiligen Universit t und das LRZ nimmt im Auftrag der CA die Registrierung vor F r andere Ein richtungen im M nchner Wissenschaftsnetz kann das LRZ ber seine eigene CA Zertifikate ausstellen Zu dieser Thematik gibt es eine ausf hrliche Dokumentation auf dem WWW Server des LRZ unter www Irz de services pki Neben Benutzungsanleitungen enth lt sie auch einf hrende Erl uterungen der den Techniken zugrundeliegenden Ideen Dieselbe Art der Zertifizierung ist auch f r Einzelpersonen statt f r Serverrechner sinnvoll Eine Person kann auf diese Weise Dateien insbesondere E Mails glaubw rdig mit ihrem Namen verbinden Das LRZ hat nicht vor Zertifikate f r die Angeh rigen der Hochschulen auszustellen es verf gt auch gar nicht ber die Personendaten die dazu notwendig w ren Ein Sonderfall ist das Grid Computing Dort werden f r berschaubare Anzahlen von Serverrechnern und Personen Zertifikate ben tigt Daf r betreibt das LRZ ein
319. forderungen und Kenntnisse in den unterschiedlichen Fachgebieten nicht durchsetzbar Daher muss die Steuerung der Plotter wiederum viele unterschiedliche grafische Darstellungen zulassen und es kommen h ufig Problemf lle vor die eine eingehende Beratung erfordern Weitere Einzelheiten ber diese Ger te am LRZ finden Sie unter www Irz de services peripherie 2 9 2 Zentrale Druckserver Die Drucker im LRZ aber auch eine gro e Zahl von Druckern in anderen Einrichtungen wie der Bayeri schen Akademie der Wissenschaften der Sportfakult t der TUM oder der Hochschule f r Musik und 48 Teil I Das Dienstleistungsangebot des LRZ Theater werden von einem zentralen Druckserver bedient Integriert in die Druckdienste ist ein elektroni sches Abrechnungssystem das flexibel und individuell f r jeden einzelnen Drucker konfigurierbare Sei tenpreise erm glicht und verschiedene Konten f r die versorgten Einrichtungen vorsieht F r jeden ein zelnen Nutzer kann konfiguriert werden ob die Abrechnung in bar durch Vorauszahlung auf das entspre chende Konto oder durch halbj hrliche Rechnung an die jeweilige Einrichtung erfolgen soll F r die berwachung des Druckdienstes dient den Administratoren ein Web basiertes Formular das je weils nur die Teilmenge der Drucker f r die einzelne Einrichtung pr sentiert ber dieses Formular k n nen gegebenenfalls St rungen eines Druckers erkannt und Druckauftr ge bei Bedarf abgebrochen oder auf andere D
320. forderungen zugeschnitten ist Der Rechner am Schreibtisch dient dann nur noch zur Anzeige der Bilder die das Visualisierungssystem am LRZ erzeugt hat Die rechenintensive Erzeugung der Diagramme Bilder oder Filme geschieht auf den Hochleistungs rechnern am LRZ Der Dienst Remote V isualisierung wird von den Benutzern sehr gut angenommen was an der auf ho hem Niveau liegenden Auslastung der Hardware Reservierungen abzulesen ist so dass Anwender bereits tempor r vom automatischen Reservierungssystem abgewiesen werden mussten Aus D Grid Sondermit teln konnte ein Ausbau des Remote Visualisierungsdienstes zum Jahresende 2008 beschafft werden Hierbei handelt es sich um 2 zus tzliche Sun x4600 Rechner mit je 32 Cores 8 Quad Core Opterons und mit je 256 GigaByte RAM Eine sehr hohe Grafikleistung wird durch vier weitere Nvidia Quadroplex Einheiten mit insgesamt acht Quadro FX5800 Grafikkarten erreicht SSNS Abbildung 52 Prinzip der Remote Visualisierung 150 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 6 1 3 2 Computational Steering Als Prototyp der in Zukunft m glichen Computational Steering Anwendungen auf dem Bundesh chstleis tungsrechner und des Remote Visualisierungsservers wurden die beiden Softwarepakete NAMD und VMD miteinander gekoppelt Dies erm glicht komplexe molekulare Simulationen mit tausenden von Prozessoren auf dem Bundesh chstleistungsrechner durchzuf hren und die Ergebniss
321. formation in the local Universe 436 000 VIPACS EPCC Bio Sciences Viral Infection Prediction and Clay Polymer Systems 227 000 Tabelle 28 DECI Projekte f r die das LRZ Home oder Execution Site ist F r andere Projekte ist das LRZ Execution Site aber nicht Home Site Dazu z hlen die Projekte CCHSE Einstein2 ELE poly LED ETISP2 GALFOBS GEM PINNACLE SIMUGAL LU und VIPACS Diese Projekte sind in obiger Tabelle zusammengefasst DECI erm glicht die Zusammenarbeit von Wissenschaftlern und Ressourcen Betreuern aus verschiede nen europ ischen L ndern Ein Beispiel daf r ist die Unterst tzung durch LRZ Experten f r das CCSHE Projekt in dem italienische Wissenschaftler superschwere Elemente mit Hilfe von relativistischer Dichte funktionaltheorie DFT mit dem Rechenprogramm bertha auf dem HLRB II charakterisieren Ziel der Zusammenarbeit war die Optimierung und Hochskalierung der Anwendung auf dem HLRB II Mit einem ersten Ansatz ist es den LRZ Experten gelungen eine Verbesserung von etwa 20 bei der Performance eines kritischen Abschnitts im Rechenprogramm zu erreichen Die Arbeit wurde fortgesetzt bis ein weite rer Ansatz eine Verbesserung von zus tzlich fast 50 gebracht hat In 2008 wurde der vierte Aufruf zur Einreichung von DECI Projekten durchgef hrt Insgesamt wurden fast 70 Antr ge eingereicht ber das LRZ wurden vier Antr ge eingereicht von denen drei genehmigt wurden Auch in 2008 hat das LRZ dem
322. gelegentlich instabil Das letztere Problem wurde durch Austausch der MDS gegen vorhandene bez glich Hauptspeicher ver f gbarer Cores und hochwertigem Plattenspeicher deutlich leistungsf higerer Hardware am Ende des Jahres in seinen Auswirkungen reduziert zur Behebung noch vorliegender Softwareprobleme wurde mit Sun noch ein Software Wartungsvertrag abgeschlossen Angesichts des f r Lustre generell ung nstigen Nutzungsprofils dieser Speicherbereiche mit enorm vielen sehr kleinen Dateien wird jedoch l ngerfristig auch ber Alternativen nachgedacht 6 1 2 8 Entwicklung der abgegebenen Rechenzeit und Rechenleistung am Linux Cluster Im Laufe des letzten Jahres konnte durch den Austausch von Systemen und durch Neubeschaffungen eine deutliche Steigerung der abgegebenen Rechenzeiten erreicht werden s Abbildung 50 Die Wartezeiten im Cluster blieben jedoch noch sehr hoch Die Rechenleistung kann zurzeit nur im IA64 Teil des Clusters kontinuierlich erfasst werden Dort wur den im Berichtszeitraum keine nderungen mehr durchgef hrt die letzte Ver nderung war die Herein nahme eines zweiten Altixsystems mit 256 Cores im 4 Quartal 2007 Die abgegebene Rechenleistung war relativ konstant Eine schwankende Auslastung der 2 und 4 Wege Knoten f hrt jedoch dazu dass ein Gro teil der Rechenleistung von den beiden Altix System 128 und 256 Cores im Cluster erbracht wird Die 2 und 4 Wege Itanium Systeme werden haupts chlich noch f r Program
323. gen sind beim Hotline Web Formular deutlich reduziert gegen ber formloser E Mail Es wird daher empfohlen vorrangig das Hotline Web zu nutzen F r Fragen und W nsche zur Softwarebeschaffung gibt es die spezielle Adresse lizenzen Irz de 16 Teil I Das Dienstleistungsangebot des LRZ F r die Nutzer des HLRB und des Linux Clusters wurden zwei weitere Web Schnittstellen f r die Prob lemmeldungen eingerichtet www Irz muenchen de services compute hlrb troubleticket wwm Irz muenchen de services compute linux cluster troubleticket Weiterhin kann eine Anfrage auch an eine der lokalen News Gruppen z B Irz questions gestellt werden siehe Abschnitt 2 7 3 um Benut zern die M glichkeit zur Diskussion mit anderen Benutzern und dem LRZ zu geben 2 1 2 2 2 Zweistufige Bearbeitung In den meisten F llen versucht der Ansprechpartner der Hotline ein Problem selbst zu l sen First Level Support Ist dies nicht m glich sorgt er daf r dass es den entsprechenden Fachleuten im LRZ zugelei tet wird Second Level Support LRZ Mitarbeiter bieten Fachberatung auf den folgenden Gebieten an e Numerik e Graphik und Visualisierung e Textverarbeitung e Programmierung in g ngigen Sprachen e Kommunikationsnetz e Systemverwaltung von Unix und Linux Rechnern e Systemverwaltung von PC Netzwerken e Nutzung der Hochleistungssysteme Vektorisierung Parallelisierung e Sicherheitsma nahmen bei vernetzten Rechnern Wir empfehlen drin
324. gend den Kontakt mit der Benutzer oder Fachberatung z B ber den Betreuer siehe Abschnitt 4 1 bereits in der Planungsphase eines DV Projekts zu suchen um z B Fragen e des methodischen Vorgehens e der M glichkeit der Nutzung fertiger L sungsans tze Computer Anwendungsprogramme e der Datenstrukturierung und Speicherung z B von gro en Datenmengen e der Rechnerauswahl f r dezentrale oder zentrale Anlagen und f r Arbeitsplatzrechner e der L sungsverfahren Verwendung geeigneter Programme oder Programmbibliotheken mit Fachleuten des LRZ vorab zu kl ren Jede individuelle Beratung ist sehr personalintensiv Das LRZ h lt diesen intensiven Personaleinsatz aber dennoch f r lohnend und auch notwendig 2 1 2 3 Spezialberatung 2 1 2 3 1 Netzanschluss und Netzberatung Von unseren Kunden beschaffte Ger te z B PCs Workstations oder ganze lokale Netze Institutsnetze k nnen an das M nchner Wissenschaftsnetz nur nach Absprache mit dem LRZ angeschlossen werden da gewisse Regeln z B IP Adressen Domainnamen eingehalten werden m ssen Das LRZ leistet auch Hilfestellung beim Aufbau von Institutsnetzen und zwar durch Beratung bei der Auswahl der Netzkomponenten und Netzsoftware dar ber hinaus durch Vermessen der Verkabelungs struktur und Mithilfe beim Installieren von Netzkomponenten Bei Bedarf kann ein Termin f r eine Spezialberatung ber die allgemeine Beratung angemeldet werden Der Kontakt kann auch ber de
325. gew hlte Mitglieder Die Kommission erg nzt den Kreis ihrer gew hlten Mitglieder durch Zuwahl mit Best tigung durch die Klasse Die Ludwig Maximilians Universit t M nchen die Technische Universit t M nchen und die Bayerische Akademie der Wissenschaften entsenden ihre Mitglieder auf die Dauer von vier Jahren Wie derentsendung ist m glich 83 Organe der Kommission Die Kommission w hlt aus ihrer Mitte den St ndigen Sekret r der ihre Gesch fte f hrt Das Leibniz Rechenzentrum der Kommission hat ein Direktorium Es besteht aus einer von der Kommis sion festzusetzenden Anzahl von bis zu sechs Mitgliedern der Kommission Das Direktorium hat einen Vorsitzenden der einen eigens bezeichneten Lehrstuhl an einer M nchener Hochschule innehat Dem 270 Teil II Anhang 1 Direktorium muss ferner mindestens ein Lehrstuhlinhaber derjenigen M nchener Hochschule die nicht bereits den Vorsitzenden stellt angeh ren Die Kommission bestimmt den Vorsitzenden des Direktoriums im Einvernehmen mit der in Abs 2 Satz 3 bezeichneten M nchener Hochschule die ihn zur Berufung vorschl gt Er wird damit Mitglied der Kommission 2 Abs 1 Die Kommission w hlt aus ihrer Mitte die Mitglieder des Direktoriums auf eine von ihr zu bestimmende Dauer 84 Abgrenzung der Befugnisse Die Kommission gibt sich eine Gesch ftsordnung und ist zust ndig f r die Gesch ftsordnung des Leib niz Rechenzentrums Die Kommission setzt die Ziele des Leibniz Rechenze
326. gewicht ist gleichm ig auf die Mitglieder des Ausschusses verteilt Der Lenkungsausschuss w hlt aus seiner Mitte einen Vorsitzenden und dessen Stellvertreter f r 2 Jahre Eine Wiederwahl ist m glich Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 295 3 Begutachtung von Projekten 1 Aufgaben Der Zweck der Begutachtung von Projekten durch den Lenkungsausschuss ist die Entscheidung ber die Genehmigung von Projekten f r den HLRB und die Festlegung von Rechnerressourcen Die Gutachter beurteilen dazu den wissenschaftlichen Anspruch und die wissenschaftliche Kompetenz der Antragsteller auf Nutzung des HLRB im Rahmen der allgemeinen Vorgaben des Lenkungsausschus ses Sie stellen fest dass die beantragten Projekte nicht an kleineren Rechnern der hierarchischen Versor gungsstruktur Arbeitsplatzrechner Institutsrechner Compute Server in Universit tsrechenzentren Lan deshochleistungsrechner bearbeitet werden k nnen Sie achten auch darauf dass die beantragten Projekte f r den HLRB geeignet sind und pr fen gegebenenfalls ob sie nicht besser an H chstleistungsrechnern anderer Architektur bearbeitet werden sollten F r genehmigte Projekte legt der Lenkungsausschuss die Laufzeit des Projekts Kontingentgrenzwerte und eventuell Priorisierungen f r die Bedienungsg te am HLRB fest 2 Begutachtungsverfahren Antr ge auf Nutzung von HLRB Ressourcen sind an das LRZ zu richten Der Lenkungsauschuss be stimmt Obleute f r
327. gische Struktur der neuen zentralen Benutzerverwaltung Drei Verzeichnisdiens te dienen mit einem f r den jeweiligen Zweck optimierten Datenschema der Anbindung der vielf ltigen LRZ Rechnerplattformen und des LRZ Portals mit Management Funktionalit t sowie dem Datenaus tausch mit den beiden M nchner Universit ten das Meta Directory im Zentrum koordiniert den Abgleich der Datenbest nde Bei der Konzeption konnten die im Rahmen von Kooperationen mit der LMU und der TUM erworbenen Kenntnisse in den Bereichen Campus Portale Identity Management und LDAP erfolgreich angewandt und vertieft werden Durch die aktive Teilnahme an bayern und bundesweiten Arbeitskreisen zum The ma Meta Directories konnten hochschul bergreifende Synergieeffekte erzielt werden Dabei zeigte sich dass das LRZ sowohl hinsichtlich der Anzahl der zu verwaltenden Benutzer als auch der zur Verf gung gestellten Dienste und Rechnerplattformen an einer der im deutschen Hochschulumfeld aufwendigsten Identity Management L sungen mit sehr hohen Anforderungen arbeitet 104 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme gt S S S lt S S Self Services SW Download IntegraTUM gt Mehi Neff MeN S ee Se Portal Satellit Import Meta Dir amp ctory Export ee Satellit Hausinterne Datenbank _ Authentifizierungs Satellit Ee 2 Direktiven MeH MoH MoH ER e GH U Sl Sf SIM ID S S Server
328. gstellung verpflich ten die vollen Betriebskosten Strom und Personal f r die zu beschaffende Hardware zu bernehmen 234 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes D MON Das Projekt horizontale und vertikale Integration des Ressourcen und Dienstmonitorings D MON besch ftigt sich mit der Entwicklung eines Middleware bergreifenden Monitoringsystems Im D Grid werden die Middleware Technologien Globus GT4 UNICORE und gLite unterst tzt Dies ist ein Allein stellungsmerkmal und f r andere Grid Projekte weltweit nicht blich Allerdings bringt dies f r das Mo nitoring auch Probleme mit sich Im Grunde wird ein Monitoringsystem ben tigt das alle drei Middlewa res unterst tzten kann und in der Lage ist eine einheitliche Sicht auf Systeme und Ressourcen zu bieten unabh ngig davon welche Middleware benutzt wird Die Entwicklung eines derartigen Middleware bergreifenden Systems horizontale Integration ist ein Ziel von D MON Das zweite Ziel das sich unter dem Begriff der vertikalen Integration subsumieren l sst ist die durchgehende Unterst tzung von VO Virtuelle Organisationen Informationen Das D Grid unterst tzt viele sogenannte Virtuelle Organisatio nen F r eine VO ist es wichtig im Hinblick auf das Monitoring nur die Daten zu sehen die auch die entsprechende VO betreffen Im Jahr 2008 wurde ein Architekturkonzept vgl Abbildung 113 f r die Realisierung des D MON Sys tems e
329. gstreffen zum Schedulingprojekt 01 02 2008 01 02 2008 Dortmund Mateescu Meeting of ISO IEC JTCV SC22 WG5 09 02 2008 16 02 2008 Las Vegas USA Bader PRACE WP7 Meeting 13 02 2008 14 02 2008 Paris F Huber Prospect Meeting 14 02 2008 15 02 2008 Barcelona SP Steinh fer CERN Eigene Vortr ge auf der iCSC2008 01 03 2008 06 03 2008 Genf CH Christadler Netapp DOTF Data Ontap Fundamentals 7 2 Schulung 03 03 2008 07 03 2008 M nchen Pretz Uni RZ DEISA eDEISA all hands meeting 03 03 2008 04 03 2008 Stuttgart Berner Frank Heller Leong Mateescu Saverchenko Steinh fer Cebit 08 Eigener Vortrag auf dem Intel Stand Rechenzentren auf dem Weg zu Petaflops 05 03 2008 05 03 2008 Hannover Brehm D Grid Accounting Billing Workshop 13 03 2008 14 03 2008 Hannover Frank Gemeinsame Kurs Veranstaltung von LRZ und RRZE Dozent 16 03 2008 20 03 2008 Erlangen Bader Augsburger Linux Tag 29 03 2008 29 03 2008 Augsburg Berner PROSPECT EnaHPCNS PRACE WP2 Meeting 30 03 2008 01 04 2008 Barcelona SP Steinh fer PRACE WP8 Meeting 02 04 2008 03 04 2008 Belfast UK Huber High Performance Computing in der Forschung Erfahrungen Anforderungen und Bedarf ei gener Vortrag 14 04 2008 15 04 2008 Wien A Steinh fer FZ J lich Eigener Vortrag zu den HPC Aktivit ten am LRZ 17 04 2008 17 04 2008 J lich Bader 19th General Meeting of the UNICORE Forum e V ZKI AK Supercompu
330. gszeiten von Trouble Tickets ber die letzten drei Jahre hinweg j hrlich monatlich Die Ursache f r die extrem lange Bearbeitungszeit von Tickets mit der Priorit t niedrig in den Monaten Mai bis Oktober waren Tickets die l nger im Status erfasst waren anstelle von ausgesetzt und die erst sp ter geschlossen wurden Aufgrund der geringen Anzahl von Tickets mit niedriger Priorit t 32 haben diese Tickets mit langer Bearbeitungszeit auch eine gro e Auswirkung auf die Jahres bersicht Abbildung 25 zeigt die Verteilung der Tickets nach Dienstklassen Der Gro teil der Tickets betrifft Netz und Systemdienste 88 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme ARS Tickets Average Processing Time Priority Generated 01 12 2008 Periodicity Monthly Report for Trouble Tickets Neu Average processing time per year hours 150 109 E Kritisch 50 EI Mitel E Niedrig 0 2006 2007 2008 Average processing time per month hours 140 120 100 80 E Kitisch Mittel 60 E Niedrig 40 20 0 Jan 2008 Apr 2008 Jul 2008 Okt 2008 Abbildung 24 Bearbeitungszeiten von Trouble Tickets ARS Opened and Closed Tickets Service Generated 01 12 2008 Periodicity Monthly Report for Trouble Tickets Neu Opened and closed tickets per month Opened 100 0 Jan 2008 Mrz 2008 Mai 2008 Jul 2008 Sep 2008 Nov 2008 EI Anwendungen EI Netz Systemdiente DJ Netzberatung ME Organisatorisches WE Sicherheit EI Systemberatung
331. h die intensive Eigennutzung f r wieder kehrende Lehrveranstaltungen Vorlesungen Seminare Praktika des Lehrstuhls Hegering sowie viele interne Weiterbildungsveranstaltungen des LRZ selbst 92 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme H rsaal Terminauswahl 2008 01 21 2008 01 30 2008 02 08 2008 02 12 2008 02 25 bis 2008 02 26 2008 03 06 2008 03 13 2008 03 17 bis 2008 03 20 2008 03 26 2008 04 09 bis 2008 04 10 2008 05 20 2008 05 26 2008 06 12 2008 06 16 2008 06 19 2008 06 20 2008 06 25 2008 07 16 2008 09 03 2008 09 05 2008 09 09 2008 09 29 bis 2008 09 30 2008 10 06 bis 2008 10 18 2008 10 21 bis 2008 10 22 2008 10 23 2008 11 05 2008 11 10 2008 11 25 2008 12 09 F hrung Sommeruniversit t Microsoft Uni Roadshow Ferienkurse Mathematik LRZ Einf hrung VHS Landkreis M nchen Nord ISO IEC 20000 Foundation inkl Airport Simulation LRZ SIM Informationsveranstaltung f r Master User Totalview Vortrag Programming of HPC systems Stadtjugendamt LKA Kinder im Internet Intel HPC Roundtable Scolarsnet Praktikum IT Sicherheit Teil 5 Prof Bungartz Research Day ACM Symposium SPAA Infotag zur Verkabelung Kremar Informationswirtschaft Abitag der Informatik Hoersaal MI HS 1 Sophos am LRZ GI Jahrestagung Live Hacking GI Jahrestagung Dry Run Informatik 2008 ISO20K Kurs Tag der offenen T r SVM Workshop GI Workshop zur Virtualis
332. he Kennung erforderlich c Die Macintosh Systeme im PC Arbeitsraum und im Multimedialabor mit dem Betriebssystem Mac OS X werden von Microsoft Active Directory mitversorgt das die Validierung Login der Benut zer bernimmt Deren private Verzeichnisse Home werden vom NAS Filer bereit gehalten Damit haben die Nutzer ein einheitliches Login an allen ffentlich zug nglichen Macintosh Arbeitspl tzen und finden an jedem der Rechner dieselbe eventuell individuell angepasste Arbeits umgebung vor d Die Mitarbeiter des LRZ benutzen ebenfalls PCs sowohl unter Microsoft Betriebssystemen wie auch unter Linux oder Mac OS Alle diese Systeme m ssen gewartet und gepflegt werden Das auf diesen Rechnern angebotene Spektrum an Anwendungssoftware Textverarbeitung Statistik Graphikprogramme CAD usw ist wesentlicher Bestandteil des in die Breite wirkenden Versorgungsspektrums des Rechenzentrums Die bei der System pflege und Weiterentwicklung der Systeme erarbeiteten Erfahrungen bilden die Basis f r die Beratung in Bezug auf PCs PC Netze und die gro e Menge dort vorhandener Anwendungssoftware 2 3 3 Workstations zur allgemeinen Verwendung Neben den PCs stellt das LRZ seinen Kunden auch zwei Workstations unter dem Unix Betriebssystem Solaris zur Verf gung Urspr nglich waren Workstations dieser Art zur Deckung des Rechenbedarfs sol cher Kunden beschafft worden f r die PCs nicht ausreichten und Hochleistungsrechner berdimensio niert w
333. heime Das LRZ erm glicht Wohnheimen eine feste Anbindung ber Standleitung DSL Technik oder WLAN an das MWN und damit an das Internet Die Kosten der Anbindung hat der Heimtr ger zu bernehmen f r die Netznutzung werden aber keine Geb hren verlangt Zum Jahresende 2008 sind 15 Heime ber eine Glasfaserleitung LWL mit 100 Mbit s 15 Heime ber Funkstrecken 9 Heime ber S DSL und 9 Hei me ber 100 Mbit s Laserlinks an das MWN angeschlossen Die nachfolgende Tabelle zeigt die Wohnheime die Ende 2008 am MWN angeschlossen sind Name Adresse Tr ger Pl tze Anschluss See Christoph Probst Studentenwerk 2440 LWL zu MPI Freimann Freimann Stra e 10 Studentenviertel AN Helene Mayer Ring 9 Studentenwerk 1801 LWL zu ZHS Oberwiesenfeld Kreittmayrstra e Kreittmayrstra e 14 Studentenwerk 45 Funk zu FH Erzgie ereistr 14 Adelheidstra e mit Deutschkurse f r Aus Adelheidstra e 13 Studentenwerk 374 Laser zu FH Dachauerstra e l nder John Mott Haus Theo Prosel Weg 16 CVJM M nchen e V 60 Funk zu Winzererstr PN Oberschlei heim i p Oberschlei heim Am Sch feranger 9 15 Studentenwerk 171 LWL zu Rinderklinik Verein evangelischer Funk zu Studentenstadt Georg Lanzenstiel Haus Kieferngartenstra e 12 Sindentenwohnheire 135 LWL zu MPI IMC Okumenisches Studenten Steinickeweg 4 Verein evangelischer 70 Funk zu TUM Uhrenturm heim Studentenwohnheime Hugo Maser Haus Arcisstr 31 yaran evangelischer 70 Funk zu TUM Uhrenturm Studentenwoh
334. hen Wissenschaftliche Datenvisualisierung mit Schwerpunkt auf den Umfeld Gebieten der interaktiven Bildsegmentierung Rekonstruktion von Avizo im technischen Um Polygonalen Oberfl chen und Tetraeder Volumenmodellen sowie feld Volumenvisualisierung Campusvereinbarung mit der Firma Visa ge Imaging vormals Mercury vormals TGS die in Abh ngigkeit von der jeweiligen Institutslizenz auch h usliche Nutzungen erm g licht Amos Zusatzprogramm zu SPSS Lineare strukturelle Beziehungen Pfad analyse Kausalit tsanalyse AnswerTree Zusatzprogramm zu SPSS Klassifizierung anhand von Entschei dungsb umen ANSYS Das LRZ betreibt einen campusweiten Lizenzserver der seit Mitte des Jahres 2008 akdemische ANSYS Lizenzen zur Nutzung auf LRZ Rechnern oder auf Institutsrechnern bereitstellt Apple Apple Betriebssystem MacOS 10 5 Leopard Verg nstigter Bezug im Bundle mit iWork f r Institutionen aller bayrischen Hochschu len neu aufgelegt ArcGIS Produktfamilie siehe ESRI Autodesk Im Rahmen des Autodesk European Education Sales Program AEESP bietet Autodesk M glichkeiten zum kosteng nstigen Be zug seiner Produkte insbesondere des CAD Systems AutoCAD AVS AVS bzw AVS Express ist ein modular aufgebautes Software Entwicklungssystem mit Haupteinsatzgebiet Datenvisualisierung J hrliche Verl ngerung der bayernweiten Lizenz mit Subventionie rung des M nchner Hochschulbereichs durch das LRZ Nachfrage sink
335. hen Algorithmen und ihrer effizienten Implementierung Prof D Kranzlm ller die Bereiche des Grid Computing und der Visualisierung Prof H G Hegering hat weiterhin seine Arbeitsschwerpunkte in den Bereichen Rechnernetze und management Mit 01 10 2008 ging nicht nur die Leitung des LRZ auf Prof A Bode ber sondern auch die Rolle als Sprecher und Vorstand des PROSPECT e V Dieser gemeinn t zige Verein unterst tzt die Belange des wissenschaftlichen H chstleistungsrechnens in Europa und z hlt Anfang 2009 bereits mehr als 25 institutionelle Mitglieder aus Wirtschaft und Wissenschaft vieler europ ischer L nder Ziel ist die Unterst tzung der raschen Schaffung einer europ ischen HPC Infrastruktur Von besonderer Bedeutung ist auch die Tatsache dass Prof H G Hegering seit Juni 2008 das Amt des Vorsitzenden des GCS e V wahrnimmt und insofern alle deutschen Ma nahmen im HPC Umfeld koor diniert Der vorgelegte Jahresbericht geht wieder bewusst ber das Zahlenwerk blicher Jahresberichte hinaus Wir versuchen wie in den letzten Jahren viele unserer Dienste und Gesch ftsprozesse zu erkl ren und unsere Konventionen und Handlungsweisen zu begr nden Dies soll die Komplexit t unserer Aufgaben stellung und das LRZ als Institution transparenter machen Der Teil II ist deswegen sehr ausf hrlich ge halten Das LRZ nimmt aufgrund seiner Gr e und Organisationsform seines Umfangs des Versor gungsbereiches seiner Anzahl der Nutzer Anzahl
336. hen Skalierbarkeit und einem globalen Namensraum erlaubt es durch Unterst tzung verschiedener Protokolle den Zugriff sowohl f r 180 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Windows Scanner CIFS Protokoll als auch f r Linux Archivierungskomponenten NFS Protokoll Abbildung 73 zeigt die Systemarchitektur des Projektes vdl6digital mit den drei Scan Robotern dem zentralen NAS Speicher und dem Archivsystem Die farblich hinterlegten Ger te werden am LRZ betreut und betrieben Wie in der Abbildung zu sehen ist werden in einem ersten Schritt die von den drei Scan Robotern Win dows digitalisierten Daten auf dem NAS Speicher abgelegt Falls eine Nachbearbeitung erforderlich ist werden die Daten durch einen entsprechenden Server angepasst Danach erfolgt die Archivierung auf Magnetb ndern ber einen Linux Rechner Zus tzlich werden Thumbnails f r die Bereitstellung im Internet generiert und auf einem Online Speicher abgelegt Eine Kopie aller Daten wird am Rechenzen trum Garching der MPG gespeichert Scan Scan Roboter Roboter 0 D Scan Rechner 5 gt Scan Rechner TCP IP Nachbearbeitung Archivierung ZEND Abbildung 73 Systemarchitektur des Projektes vdl6digital Alle Digitalisate werden auf Magnetbandkassetten im Archivsystem des LRZ gespeichert Abbildung 74 zeigt die Entwicklung des Datenvolumens der BSB Archivdaten von Januar 2005 bis Januar 2009 am LRZ Entwic
337. henzentrums Teil U 145 6 1 2 3 Rechensysteme Von der technischen Realisierung her ist festzustellen dass die Mehrkern Systeme nunmehr zum Stan dard geworden sind Das beste Preis Leistungsverh ltnis unter Anrechnung der Betriebskosten f r f nf Jahre erzielten sowohl f r das parallele als auch f r das serielle LRZ Benchmarkprofil auf dem AMD Opteron Dual Core Prozessor basierende ccNUMA Systeme mit 2 4 oder 8 Sockeln Die Systeme mit 2 Sockeln sind f r den seriellen Durchsatzbetrieb vorgesehen wobei bis zu vier Jobs auf jedes System ge bracht werden sollen Die Notwendigkeit auch Systeme mit gr erem Hauptspeicher auf der Basis von 4 Sockeln zu beschaffen ergab sich aus der stark wachsenden Zahl von Jobs mit Anforderungen von 8 und 16 Prozessoren die bestehenden Altix Systeme sollen von diesen Jobs entlastet werden damit dort der Durchsatz f r gr ere Jobs mit bis zu 200 Cores verbessert werden kann Systeme mit 8 Sockeln skalie ren typischerweise nicht optimal wurden jedoch wegen des gro en dort verf gbaren Hauptspeichers f r das Zentrum f r Mathematik der TU M nchen beschafft Sowohl die 4 Sockel als auch die 8 Sockel Sys teme sind mit einem Verbindungsnetz auf der Basis von 10GE Myrinet Karten ausgestattet um parallele Programme auch ber Knotengrenzen effizient ausf hren zu k nnen Weitere Systeme auf der Basis von Intel Quad Core Prozessoren 4 Cores auf einem Sockel aus 2 Chips erwiesen sich bez glich des SPEC INT2
338. hig zu sein und um eine vereinheitliche Schnittstelle f r die Anwendern zu schaf fen sollen folgenden Ma nahmen umgesetzt werden Abgestimmtes Antrags Zugangs und Review Verfahren Gemeinsame Use Policy Enge Verzahnung der Lenkungsaussch sse der Partnerzentren Abgestimmte Benutzerverwaltung und Nutzungsdokumentation Abgestimmte methodisch orientierte Benutzerunterst tzung u U unter Ber cksichtigung der Schwerpunktsetzung Gemeinsame Schulungs und Trainingsma nahmen Austausch von Informationen ber Projekte und ber die Nutzung der Ressourcen Einheitliche Klassifizierungen f r Projekten nach Fachgebieten Organisationen etc Vereinheitlichte Informationen ber Projekte Dies die gemeinsame Zeitschrift InSiDE und gemeinsames Auftreten bei einschl gigen Veranstaltun gen im In und Ausland z B bei den Supercomputing Konferenzen sorgen f r eine abgestimmte Au Bendarstellung In diese Arbeiten sind die Fachministerien der Sitzl nder Baden W rttemberg Bayern Nordrhein Westfalen sowie das BMBF involviert Im Herbst 2008 wurde beim BMBF ein Steuerkreis mit Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 159 Vertretern der L nderministerien ein erweiterter Steuerkreis unter Einbeziehung des GCS Vorstands und ein international besetzter Beirat eingerichtet Die Ressourcen und Aktivit ten der drei Zentren werden auf einer gemeinsamen Webseite beschrieben http www gcfs eu Gauss Centre for Supercomputing
339. ht jedes ge nderte Volume als eigenst ndige schreibgesch tzte Kopie auf einen anderen Server kopiert Diese ReadOnly Kopie ist online verf gbar und l sst sich ein relativ neues Feature bei Verlust des Originalvolumes anstelle desselben aktivieren Diese Art der Siche rung dient der schnellen Restauration gr erer Mengen an verlorenen Daten im Katastrophenfall Zum anderen werden von allen nunmehr nur ge nderten Volumes jetzt mehrmals t glich Backups in Form von Snapshots angelegt und ber ein spezielles Backupsystem gesichert Aus diesen Sicherungen kann jedes Volume auf jedes zur ckliegende Datum innerhalb eines gewissen Zeitraums zur ck bis ca Februar 2007 restauriert werden Der jeweils letzte Clone ist wieder online zugreifbar und stellt den letz ten verf gbaren Sicherungsstand dar Management Gr ere nderungen gab es bei der Software Wo immer es sinnvoll und m glich war wurde die neueste m gliche Dienste und Anwendungssoftware installiert oder neue Tools eingesetzt Gerade die aktuelle OpenAFS Version 1 4 8 beinhaltet einige neue Features starke Verbesserungen im Detail und signifikan te Performancesteigerungen Im Weiteren spielte auch das Thema Rechnersicherheit wieder eine gewich tige Rolle Kontinuierliche Verbesserungen und Erweiterungen gab es ferner wieder im Bereich der eigenen Mana gementl sung SIB kurz f r Service Information Base die nicht nur f r den Kerndienst AFS eingesetzt wird sondern auch
340. https dgiref globus fzk de 8443 wsrfiservioss dgrid glitec1 rz rwth aachen de 2119 jobmanager sge dgiseq https dgrid globus rz rwth aachen de 8443 wsrtiservioes M https dgrid globus4 physik uni wuppertal de 8443 wsrf servioes https gavosrv1 mpe mpg de 84 https globus hn mathematik uni marburg de 8443 wsrt servioes N hitps gloria d grid scai fraunhofer de 8443 wsr https gramd1 d grid uni hannover de 8443 wsrfiservioes l https igt4 fzk gridka de 8443 wsrtiservioes t dgiref globus fzk de dgrid glitect rz nwih sachen de dgrid globus rz RWTH Aschen DE dgrid globus physik uni wuppertal de gavos vi mpe mpg de globus hn mathematik uni marburg de gloris d grid scai fraunhofer de gramd1 d grid uni hannover de o gie de MDS4 Sp MDS MDS4 MDS4 MDS4 129 187 254 239 iwrdmon bdii fzk de 129 187 254 39 129 187 254 39 129 187 254 39 129 187 254 39 129 187 254 39 129 187 254 39 129 187 254 39 2008 08 07 11 25 17 0 2008 09 19 17 14 39 0 2008 08 07 11 25 17 0 2008 08 07 11 25 17 0 2008 08 07 11 25 16 0 2008 08 07 11 25 17 0 2008 08 07 11 25 17 0 2008 08 07 11 25 17 0 2008 08 07 11 25 17 0 22 items found displaying 11 items from 1 to 11 Page 1 2 DECHEN DU 20 Abbildung 114 D MON Portal IVOM Das Projekt Interoperabilit t und Integration der VO Management Technologien im D Grid IVOM wurde am 1
341. htung 1 z B Lehrstuhl X Einrichllung 2 z B Lehfstuhl Y leave AE WEE Jegen Abbildung 29 Einspeisen von Benutzerkonten in Rechnerpools in IntegraTUM F r die Windows Systemadministration wurde inzwischen ein noch st rker integriertes Konzept erarbeitet bei dem die Lieferung der Benutzerdaten nur an ein einziges Microsoft Active Directo ry erforderlich w re seine Umsetzung befindet sich noch in Diskussion F r die anderen Be triebssysteme wird das Konzept der Belieferung eines Systems pro Fakult t auch weiterhin ver folgt da die bisherigen systemadministrativen Konzepte durchaus heterogen sind und eine Ver einheitlichung aufgrund des sehr hohen Aufwands bislang unrealistisch erscheint Verfahrensbeschreibung und datenschutzrechtliche Freigabe Auf Basis der ermittelten Daten fl sse und des Architekturkonzepts wurde eine Verfahrensbeschreibung f r den verwaltungsspe zifischen Verzeichnisdienst erstellt und vom Datenschutzbeauftragten der TUM genehmigt Da mit ist der Weg frei f r Integrationstests mit realen Nutzdaten aufgrund nicht immer optimaler Datenqualit t in den f hrenden Systemen z B Tippfehler Eintragungen in falsche Datenfelder k nnen somit zus tzlich zu Last und Performancetests auch Fehlersituationen die unter Um st nden sonst erst im Produktionsbetrieb auftreten w rden gefunden werden Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 109 e Mitwirkung an der Prozessoptimierung In
342. ich aus den USA und weiteren AFS Interessierten aus aller Welt was durchaus auch ein wachsendes Interesse an OpenAFS allgemein wider spiegelt zu einer offiziellen internationalen AFS Konferenz gewandelt 6 8 T tigkeiten im Server Betrieb COS Die T tigkeiten im Bereich der Server Dienste zeichnen sich auch im Jahre 2008 vor allem durch die st ndigen Arbeiten aus die zur Aufrechterhaltung eines stabilen Betriebes notwendig sind 6 8 1 Linux Serversysteme Das Jahr 2008 war gepr gt durch den Aufbau bzw Erweiterung einer virtuellen Infrastruktur Das im Vorjahr initiierte V Mware ESX Testsystem bezeichnet als ESX Cluster 0 wurde Anfang 2008 durch ein Produktionssystem namens ESX Cluster 1 ersetzt Das Produktionssystem basiert auf bis zu acht Servern der Modellserie SUN Galaxy X4150 mit jeweils 4 Cores und 64 Gigabyte RAM Als Speichermedium der virtuellen Hosts dient ein NAS Filer der Firma NetApp Schwierigkeiten bei der Erkennung von Netzverbindungsproblemen ausgel st durch die fehlende sog Uplink Down Detection der adaptierten Switches bzw Router konnten durch Umbau der 12 x 1GE Netzinterfaces auf 2 x 10GE Netzinterfaces eines jeden ESX Cluster Knotens behoben werden Ende des Jahres stieg die Zahl der virtuellen Hosts auf etwa 220 eine H lfte davon genutzt f r Produktionsserver die andere f r Testsysteme Seit Fr hjahr 2008 findet im Hinblick auf die in 2009 geplante Erweiterung der Server Infrastruktur ein regel
343. icherung bei einem l nger laufenden Projekt j hrlich einen Zwischenbericht bzw in jedem Fall einen Abschlussbericht zu liefern und die erhaltenen Ergebnisse in geeigneter Form zu ver ffentlichen Bei begr ndetem Interesse des Antragstellers kann davon auf Antrag abgesehen werden e Zusicherung die Betriebsregeln des HLRB und LRZ einzuhalten e Zustimmung zur Weitergabe der wesentlichen Angaben des Projektantrags Antragsteller Projekttitel beantragte CPU Zeit an andere H chstleistungsrechenzentren Die Zulassung von Projekten zum HLRB und die Festlegung von deren Rechnerressourcen obliegt dem Lenkungsausschuss Das LRZ leitet Projektantr ge unverz glich zur Entscheidung an den Lenkungsaus schuss weiter Die Zulassung eines Projekts zum HLRB kann widerrufen werden wenn e die Angaben im Projektantrag nicht oder nicht mehr zutreffen e die Voraussetzungen f r eine ordnungsgem e Nutzung des HLRB nicht mehr gegeben sind e Verst e vorliegen die zu einem Entzug der Rechenberechtigung am LRZ f hren 5 Ressourcennutzung Das LRZ stellt f r bewilligte Projekte DV Ressourcen im Rahmen der vom Lenkungsausschuss festge legten Grenzwerte maximale Knotenanzahl Rechenzeit Hauptspeicher Plattenspeicher Archivspeicher auch Zeitdauer des Projekts und entsprechend der am HLRB gegebenen M glichkeiten bereit Es sorgt auch bestm glich f r die betriebliche Umsetzung eventuell vom Lenkungsausschuss festgelegter Priori t tsanfor
344. icherung und Restauration von Snapshots virtueller Server erarbeitet Am Aufbau des Life Cycle Managers nehmen PC Vertreter aus Administrator und Anwendersicht teil Derzeit sind ca 15 produktive Windows Server unter VMWare ESX virtualisiert und ca 40 zus tzliche Testsysteme aktiv F r die Mitarbeiter in der Hotline und Beratung stehen virtuelle Vista Instanzen zur Verf gung Den Teilnehmern am Rechnerbetriebspraktikum deren Schulungssysteme komplett virtuali siert sind steht ein Management Terminalserver mit der Virtual Infrastructure Console zur Verf gung die zur Verwaltung der virtuellen Praktikumsserver Reboot Bootmeldungen erforderlich ist Nach der Migration aller PC Services auf VMWare ESX konnte die Windows basierte Virtualisierungs l sung eingestellt werden Im Bereich des Life Cycle Management von Windows Desktops ist eine st rkere Abst tzung auf Werk zeuge erforderlich Dazu wurde in 2008 der Microsoft System Center Configuration Manager SCCM getestet und f r die Kursr ume und den PC Pool in Produktion genommen Die automatische Erstinstalla tion von XP Vista Clients und Windows Server 2003 2008 z B f r virtuelle Server erfolgt zum Teil mit diesem Werkzeug Auch die Ausstattung der Hotline und Beratung wurde um ein Support Werkzeug erweitert Ein Ultra VNC basiertes Remote Desktop Werkzeug ist pilothaft im Einsatz um die Beratungsleistungen f r den breiten Kunden und Anwenderkreis effizienter gestalten zu k
345. iddleware Schicht des D Grid angebunden so dass f r die Benutzer von SLAs im D Grid gr tm gliche Transparenz herrscht Ebenso wird eine Anbindung an die Kern D Grid Dienste wie beispielsweise Accounting oder Monitoring evaluiert und eine Umsetzung realisiert Im Rahmen des Projektes wird ein generisches D Grid SLA definiert und um spezifische Anforderungen der Communities erweitert Das generische SLA bildet das grundlegende Nutzungsszenario im D Grid die Verwendung von Rechnerressourcen ab und erlaubt deren Nutzung unter wirtschaftlichen Rahmen bedingungen 240 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Das Projekt vereint unter der Konsortialf hrerschaft der Universit t Dortmund Partner mit Expertise f r das SLA Management die D Grid Infrastruktur Anbindung an die Community Projekte sowie wissen schaftliche und kommerzielle Dienstanbieter In 7 Arbeitspaketen werden die Anbindung an die D Grid Infrastruktur Architekturentwicklung SLA Modellierung und SLA Management und Planung erfolgen Zudem existieren Arbeitspakete f r die Community Unterst tzung und f r die Projektleitung An dem Projekt sind 12 Partner beteiligt und es werden rund 270 Personenmonate bei einer Laufzeit von 36 Monaten beantragt Das LRZ wurde gebeten an dem Konsortium teilzunehmen um an der Anbindung an die D Grid Infrastruktur AP 1 am Architekturkonzept der SLA Schicht AP 2 sowie dem Commu nity Support AP 6 im Um
346. ie Geschwindigkeit des Daten bertragungstools GridFTP in DEISA optimiert der Storage Resource Broker SRB untersucht und meh rere Hilfsprogramme zur Benutzerunterst tzung geschrieben 6 6 2 2 DEISA 2 Die erfolgreichen Arbeiten von DEISA 1 werden seit Mai 2008 im Nachfolgeprojekt DEISA 2 fortge setzt DEISA 2 l uft bis Mitte 2011 Das Kick off Meeting dazu fand Ende Mai 2008 in Barcelona statt Abbildung 61 zeigt die Teilnehmer an diesem Projekt Das LRZ beteiligt sich dabei insbesondere an den Service Activities Technologies Application Enab ling und Operations sowie einer Joint Research Activity Integrated DEISA Development Environ ment Das LRZ hat eine aktive Rolle bei der Untersuchung des neuesten Globus Releases GT4 2 auf seine Eignung zum Produktionseinsatz in DEISA und hilft mit die neueste Single Sign On Technologie Shibboleth zu evaluieren Single Sign On bedeutet f r den Benutzer eine sp rbare Erleichterung im t g lichen Gebrauch der Supercomputer da er mit einem einzigen Eintippen seines Passworts alle Services der Infrastruktur benutzen kann Der Benutzer steht stets im Fokus der LRZ Aktivit ten daher beteiligte sich das LRZ an drei Benutzer schulungen in Stuttgart Neapel und J lich LRZ Mitarbeiter entwickelten Schulungsunterlagen schrie ben an Handb chern mit und hielten jeweils die Globus Vorlesung und bung 166 Teil II Entwicklungen und T tigkeiten im Bereich der Hochleistungssys
347. ie Protokollumsetzer f r 6to4 und ISATAP Intra Site Automatic Tunnel Addres sing Protocol Variante von 6104 auf dedizierte Hardware umgezogen um erweiterte Funktionalit t und besseres Lastverhalten bieten zu k nnen Die Software und Installation des Protokollumsetzers f r Teredo wurde in einer konzertierten Aktion mit anderen kommerziellen und universit ren Anbietern von einigen Fehlern befreit um den seit August sichtbaren Ansturm bew ltigen zu k nnen Ein gro er Schritt vorw rts wurde durch die Unterst tzung von IPv6 auf dem Dienst virtuelle Firewall siehe Abschnitt 7 4 6 im MWN getan Dieser erlaubt den Benutzern den Betrieb ihrer Sicherheitsin frastruktur an das LRZ auszulagern die Konfiguration aber nach eigenen Vorstellungen anzupassen Durch die Unterst tzung von IPv6 in diesem Produkt ist es m glich IPv6 f higen Rechnern ohne zus tz liche Hard oder Software einen gleichartigen Schutz wie in IPv4 zu bieten Diesen Dienst nutzten zum Jahresende bereits vier Lehrst hle 216 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Im August 2008 wurde mit der Wikimedia Foundation als Betreiberin der Wikipedia eine Kooperation gestartet um Probleme beim Angebot von Webinhalten ber IPv6 zu evaluieren Seitdem k nnen IPv6 f hige Clients im MWN ber IPv6 auf die Inhalte der Wikipedia zugreifen Im Rahmen dieser Kooperati on sind bisher keine negativen Auswirkungen bekannt geworden Seit Mitte D
348. ie keine eingebaute Funkschnittstelle haben werden Wireless Client Bridges WCB vom LRZ zur Verf gung gestellt Die Realisierbarkeit des Dienstes h ngt aber von der vorhandenen Infrastruktur ab nicht in allen Geb uden und R umen ist eine solche M glichkeit gegeben Allerdings ist dies nur noch selten der Fall Der Zugang wird seit 2006 bevorzugt per WLAN zur Verf gung gestellt Der Netzname SSID ist dabei con er kann seit September 2005 auch von den meisten Access Points im MWN ausgestrahlt werden Es wird keine WEP Verschl sselung verwendet um Probleme mit der Weitergabe und Einstellung der Schl ssel zu vermeiden Da dieses Verfahren ohne Schl ssel und mit nur einer berall g ltigen SSID arbeitet wurde berlegt f r gr ere Veranstaltungen spezielle SSIDs und auch Schl ssel einzuf hren um eine missbr uchliche und zuf llige Nutzung zu unterbinden 2008 wurden 164 29 gegen ber Vorjahr Veranstaltungen unterst tzt Datum Veranstaltun Datum Veranstaltun 10 01 2008 11 01 2008 TOOTTTS 2008 04 07 2008 04 07 2008 Lehrerfortbildung 23 01 2008 23 01 2008 IKOM Bau 2008 11 07 2008 11 07 2008 Muenchener Marketing Symposium 2008 Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 24 01 2008 24 01 2008 31 01 2008 31 01 2008 01 02 2008 01 02 2008 07 02 2008 07 02 2008 10 02 2008 13 02 2008 11 02 2008 12 02 2008 14 02 2008 14 02 2008 18 02 2008 18 02 2008 19 02 2008 20 02 2008 20 02 2008 22 02 2008 22 02
349. ients zum Einsatz teilweise wird auch Outlook Web Access verwendet 5 5 4 6 Mailhosting virtuelle Mailserver Das LRZ bietet Hochschul und hochschulnahen Einrichtungen die keinen eigenen Mailserver Message Store mit POP IMAP Zugriff betreiben wollen an den Maildienst am LRZ zu hosten Es wird dann eine virtuelle Maildomain eingerichtet in der sich der Name der betreffenden Einrichtung widerspiegelt z B jura uni muenchen de und Angeh rige dieser Einrichtungen erhalten entsprechende Mailadressen Ende 2008 waren am LRZ 225 Vorjahr 226 virtuelle Mailserver eingerichtet Eine Aufteilung auf die Hauptnutzer ist der folgenden Tabelle zu entnehmen d Virtuelle Einrichtung Mailserv r Ludwig Maximilians Universit t M nchen 91 Technische Universit t M nchen 56 Bayer Akademie der Wissenschaften inklusive LRZ 44 Andere Hochschulen und hochschulnahe Einrichtungen 34 Gesamt 225 Tabelle 17 Virtuelle Mailserver am LRZ 5 5 4 7 Nutzung der Message Store Server Ende 2008 hatten 99 914 Personen Vorjahr 97 255 eine Mailbox auf einem der f nf Message Stores POP IMAP Server des LRZ Nachfolgend eine Aufteilung nach Server bzw Benutzergruppen POP IMAP Server f r N Benutzer Mitarbeiter der vom LRZ bedienten Einrichtungen Mailserver mailin Ludwig Maximilians Universit t M nchen 6 870 Technische Universit t M nchen 5 347 Bayer Akademie der Wissenschaften inklusive LRZ 603
350. ierender D Grid Systeme durch Software Lizenzen Antragsberechtigt waren nur solche Institutionen die bereits in erheblichem Umfang Ressourcen im D Grid zur Verf gung stellen Das LRZ hat Sonderinvestitionen im Umfang von rund 920 000 Euro in folgenden Bereichen beantragt e Zur Verbesserung der internen Vernetzung der D Grid Komponenten die im Linux Cluster integriert sind wurde ein Switch beantragt der mit nur einer Switch Fabrik eine hohe Dichte gt 256 von 10 Gbit s Ports realisieren kann Daneben wurde zur Verbesserung der Sicherheit der D Grid Systeme eine Hochgeschwindigkeits Firewall beantragt Gesamtkosten 622 000 e Im Bereich Speicher wurden keine Sonderinvestitionen beantragt e Das bestehende Remote Visualisierungssystem erfreute sich eines gro en Nutzer Interesses auch innerhalb von D Grid Deshalb wurde ein weiteres Remote Visualisierungssystem mit neuesten Gra fikkarten beantragt Kosten 106 000 e Bei den Lizenzen wurden f r das Visualisierungssystem Lizenzerweiterungen von AVS beantragt Desweiteren wurden Lizenzen f r Amira Avizo und IDL beantragt Diese Lizenzen erlauben eine D Grid weite Nutzung der Software Die bisherigen Lizenzen erlaubten lediglich eine Nutzung inner halb des MWN Kosten 192 000 Der Antrag wurde mit einer F rderquote von 85 bewilligt und die Investitionen noch im Jahr 2008 durchgef hrt Zur Sicherung der Nachhaltigkeit musste sich wieder jeder Antragsteller bei der Antra
351. ierung SciTUM Workshop Strateg IT Management TU Prof Matthes VMware Praxis am LRZ Linux Cluster Workshop Gro er Seminarraum Terminauswahl 2008 01 14 2008 01 22 2008 01 30 2008 02 04 bis 2008 02 06 2008 02 11 bis Praktikum IT Sicherheit Einf hrung in die System u Internet Sicherheit Microsoft Uni Roadshow Programmieren mit Fortran 2003 Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 93 2008 02 15 ISO IEC 20000 Foundation 2008 02 25 bis 2008 02 29 ISO IEC 20000 Foundation inkl Airport Simulation 2008 03 12 Netzzugang f r fremde Wissenschaftler 2008 03 19 Stadtjugendamt LKA Kinder im Internet 2008 04 09 bis 2008 04 10 Intel HPC Roundtable 2008 04 18 Besuch Ministerpr sident Beckstein 2008 05 15 Besuch Bundesfinanzminister Steinbr ck 2008 05 19 Praktikum IT Sicherheit Teil 4 2008 06 09 Praktikum IT Sicherheit 2008 06 16 ACM Symposium SPAA 2008 06 23 Praktikum IT Sicherheit 2008 06 25 Vortrag von Prof Kalman 2008 06 30 Praktikum IT Sicherheit 2008 07 07 Praktikum IT Sicherheit 2008 07 08 Besuch SPD Fraktion des Kreistages M nchen Land 2008 07 16 Infoveranstaltung der Fa Sophos 2008 09 09 Informatik 2008 Herst Pr sent Mehl 2008 09 15 bis 2008 09 19 HPARI1SO08 2008 09 29 bis 2008 10 02 1S020K Kurs 2008 10 07 Messungen am MWN 2008 10 13 WLAN 1000 2008 10 23 Gau Allianz Sitzung 2008 10 30 EMANICS Workshop 2008 11 03 bis 2008 11 04 ZKI AK Verzeichnisdiens
352. ies ist w hrend der Projektlaufzeit regelm ig zu berpr fen und die Ressourcen sind dementsprechend zu verteilen Dabei sollen vorbereitende Entwicklungsarbeiten kleinere abtrennbare Aufgabenteile und auch Auswertungen nach M glichkeit auf Rechnern geringe rer Leistungsf higkeit durchgef hrt werden 6 Den Bearbeitern m ssen die erforderlichen Spezialkenntnisse zur effektiven Nutzung der Rechner vermittelt werden 7 Die Betriebsparameter des Rechners m ssen auf das Aufgabenprofil hin optimiert werden 8 Die f r die Aufgabe erforderliche Software und die notwendigen Softwarewerkzeuge m ssen zur Ver f gung stehen Die Einhaltung der Kriterien 1 und 2 sichert der Lenkungsausschuss der Kriterien 3 bis 5 die Benut zerbetreuung des LRZ und der Kriterien 6 bis 8 das LRZ in Zusammenarbeit mit KONWIHR 2 Betriebsregelungen 1 Nutzerbetreuung Die Beteiligung der Benutzer bei grunds tzlichen organisatorischen Entscheidungen zum HLRB ist durch den Lenkungsausschuss gew hrleistet Alle HLRB Projekte werden von wissenschaftlichen Mitarbeitern des LRZ aus der Gruppe Hochleis tungsrechnen w hrend der gesamten Laufzeit betreut Der Betreuer ber t vom Lenkungsausschuss zuge lassene Nutzer w hrend der Bearbeitungszeit des Projekts Er setzt die vom Lenkungsausschuss aufge stellten Vorgaben f r das Projekt um wie etwa die Organisation der f r die Bearbeitung genehmigten Betriebsmittel Er verweist die Bearbeitung gegebenenfal
353. if bezo gen auf den eingehenden Datenverkehr aufgefasst werden Zu diesem Zweck wurden die laufenden Mes sungen kumuliert um eine Verteilung des Datenverkehrs zu bekommen Die prozentuale Verteilung des Datenvolumens am WiN Zugang Messzeitraum November 2008 zeigt Tabelle 14 m1997 m1998 01999 02000 m2001 m2002 m2003 22004 m2005 m2006 m2007 m2008 Abbildung 32 Steigerungsraten des bertragenen Datenvolumens pro Jahr 112 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Institution Total Bytes LRZ und BAdW 77 2 TUM 10 2 LMU 6 7 Hochschule M nchen 1 6 Sonstige 3 9 Hochschule Weihenstephan 0 2 GATE 0 2 Tabelle 14 Prozentuale Verteilung des Datenverkehrs am WiN Zugang Die prozentuale Verteilung des gesamten Verkehrs gegen ber Werten des Vorjahres hat sich wesentlich auf das LRZ verlagert bedingt durch die starke Nutzung des HLRBI und des Sicherheitssystems NAT o MAT 5 5 2 Domain Name System Die Konfiguration der DNS Systeme hat sich gegen ber 2007 nicht ge ndert Eine bersicht aufgeteilt nach Domains zeigt Tabelle 15 Die reale Anzahl der Zonen und Eintr ge ist noch einiges h her kann aber nicht ermittelt werden da manche Instituts Server keine Auflistungs Abfragen beantworten Anzahl Anzahl Anzahl Anzahl Anzahl Anzahl Zonen Sub A Records AAAA Records Aliase MX Records Domains IPv4 Hosts Ge Hostel E Mail 1 309 sn 915 2 883 3 459 2 774 1 222 2 665 tu muenchen de 281
354. ig gemacht die Vergabe und Verwaltung von Benutzer kennungen sowie die Zuteilung von Berechtigungen und Betriebsmitteln in gewissem Umfang zu dezent ralisieren Das hei t dass sich i Allg nicht Einzelbenutzer an das LRZ wenden k nnen wenn sie eine Benutzerkennung erhalten oder gewisse Berechtigungen ndern lassen m chten sondern das nur berech tigten Einrichtungen bzw deren Leitern oder Beauftragten m glich ist F r alle benutzungsberechtigten Einrichtungen ist ein Betreuer am LRZ bestimmt dieser ist u a zust n dig f r alle organisatorischen Absprachen bez glich der Nutzung von LRZ Diensten durch die entspre chende Einrichtung z B Institut oder Lehrstuhl im Hochschulbereich Die aktuelle Zuordnung einer Einrichtung zu einem LRZ Betreuer findet sich in der Betreuerliste s Anhang 8 bzw unter wwn Irz de wir betreuer Als formaler Rahmen f r die Nutzung von LRZ Diensten mit pers nlichen Kennungen ist stets ein LRZ Projekt notwendig das vom Leiter der Einrichtung z B Institutsvorstand oder Lehrstuhlinhaber bean tragt wird Dabei muss insbesondere ein Verantwortlicher Master User als Ansprechpartner f r das LRZ benannt werden und dieser muss best tigen dass er seinen entsprechenden Verpflichtungen nachkommen wird Beide dazu notwendigen Formulare der Antrag auf ein LRZ Projekt und die Erkl rung des Mas ter Users k nnen von www Irz de wir kennung geladen werden Sobald das Projekt vom LRZ genehmig
355. im November 2008 in Es gibt Ans tze Netflow Daten auch f r Netzsicherheitsanalysen heranzuziehen Um die Machbarkeit dieser Ans tze zu berpr fen wurde ein studentisches Praktikum durchgef hrt Dabei stellte sich heraus dass die von den MWN Backbone Routern exportierten Netflow Daten Zeitstempel beinhalten die unge nau sind Deshalb l sst sich anhand dieser Daten in den meisten F llen nicht rekonstruieren welcher von zwei kommunizierenden Rechnern die Kommunikation begonnen hat Da die Netflow Daten derzeit auch keine TCP Flags Hinweise in einer TCP Verbindung auf den Ablauf des Verbindungsauf und abbaus enthalten f llt auch diese Quelle zur Bestimmung des Initiators weg Eine zuverl ssige Identifikation eines Angreifers ist damit unm glich Deshalb sind Netflow Daten f r Netzsicherheitsanalysen derzeit ungeeignet Obwohl diese Defizite der Firma Enterasys bekannt waren bot diese ein zentrales Intrusion Detecti on Prevention System auf Basis von Netflow Daten an Der daraufhin durchgef hrte Proof of Concept POC zeigte allerdings klar dass auch Enterasys nicht ohne die in den Netflow Daten fehlenden Infor mationen auskommen kann Zudem lie auch die Bedienoberfl che Web Schittstelle stark zu w nschen brig so dass dieses Produkt nicht infrage kam 226 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 138 267 129 187 254 14184 69 129 187 10 CET CC 138 246 255 KDE Mirror cme web ac
356. imierung der Einzelkernperformanz als auch an der Skalierbarkeit auf Systeme von mehreren tausend Prozessorkernen wird in 2009 weiter gearbeitet Aus LRZ Sicht sehr erfreulich ist die Tatsache dass mehrere dieser Codes auch bei uns genutzt werden ein Teil unserer Benutzer kann somit direkt von den gemeinschaftlichen europ ischen Arbeiten profitie ren Das LRZ k mmerte sich federf hrend um die Analyse von Gadget einem Softwarepaket zur Si mulation von Structure Formation vom Max Planck Institut f r Astrophysik Wichtige T tig 162 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme keiten waren die Portierung und das Enabling von Gadget und der notwendigen Bibliotheken auf verschiedenen Plattformen z B IBM BlueGene P beim Forschungszentrum J lich IBM Power6 und TX86 bei SARA in Amsterdam Als n chstes wird die neue Intel Nehalem Architektur ange gangen Mit dem Programm Gadget konnte auch viel Erfahrung bei Profiling Tracing oder Leistungsanalyse Tools gewonnen werden etwa mit Scalasca Vampir und PAPI Diese Tools sind f r mittelgro e bis sehr gro e Testf lle geeignet wobei allerdings die zu analysierenden Da ten viele Gigabytes oder sogar TeraBytes gro werden k nnen Innerhalb des Workpackages wird an der Integration der Testprogramme in einer einzigen Benchmarking Suite gearbeitet Ziel ist es in den anderen Workpackages von PRACE WP7 und WP5 schnell und unkompliziert neue Infrastrukturen u
357. in use Info Finished startup with 70408 kB of memory in use Info INTERACTIVE MD AWAITING CONNECTION Thickness au DU Apply Ch e App Changes Appiy Abbildung 54 Links Bildschirmfoto einer typischen Computational Steering Anwendung wie sie sich auf dem Bildschirm des Benutzers pr sentiert Man erkennt das Ausgabefenster mit dem visualisierten Molek l sowie das Protokoll der Online Verbindung zum HLRB 3 D Abbildung 55 Roadmap zum Computational Steering am LRZ 152 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 6 2 Software und User Support im Bereich Hochleistungsrechnen 6 2 1 Mehr Supportanfragen und Nutzung des Trouble Ticketsystems Die deutlich gesteigerte Anzahl von Nutzern und der gro e Job Durchsatz am HLRB und am Linux Cluster haben zu einer betr chtlichen Steigerung von Supportanfragen gef hrt Der bisher von den An wendern gew hlte Weg ber die Email Listen hirb admin lrz de oder Ix admin lrz de mit den Anwen derberatern in Kontakt zu treten entwickelte sich zunehmend als Schwachstelle da eine gezielte Abarbei tung und Nachverfolgung der Abfragen nicht m glich war Es wurden deshalb spezielle Webformulare f r den HLRB und das Linux Cluster bereitgestellt mit deren Hilfe die Benutzer ein Trouble Ticket er stellen k nnen Diese M glichkeit der Kontaktaufnahme wurde von den Benutzern sehr gut angenom men Im Jahr 2008 wurden im Bereich des H chstleistungsrechnens
358. ind und die in der Regel mit jeweils 1 Gbit s mit den Core Switches verbunden sind in einigen F llen auch mit 10 Gbit s Die Server selbst sind in der Regel mit 1 Gbit s an den Edge Switches angeschlossen wobei aus Redundanzgr nden die Server teilweise an zwei verschiedenen Switches angebunden sind so dass die Verf gbarkeit dieser Server auch bei einem Ausfall eines Switches erhalten bleibt Eine Sonderstellung im NSR Raum bildet das Linux Cluster das ber eine eigene Infrastruktur mit 3 Core Switches und 55 Edge Switches verf gt Die Core Switches sind untereinander in einem Ring mit 20 Gbit s verbunden An diese Switches sind sowohl die Edge Switches als auch einzelne Server mit jeweils 10 Gbit s angebunden HRR Raum Der im Jahr 2006 installierte Bundesh chstleistungrechner besteht aus insgesamt 16 Knoten wobei jeder Knoten ber zwei 10 Gbit Netzwerkkarten verf gt Diese Knoten sind mit jeweils einem Interface an zwei unterschiedlichen Routern angeschlossen Einer dieser Router ist mit dem MWN ver Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 197 bunden der andere verf gt ber einen eigenen 10 Gbit Anschluss an das WiN und wird ausschlie lich f r die Verbindung zu anderen H chstleistungsrechnern im Rahmen des DEISA Projektes verwendet Neben den beiden Routern befinden sich auch noch einige Switches im HRR Raum die f r die interne Vernet zung des H chsleistungsrechners CXFS Dateisystem Management verwendet werden
359. ine Argon L schanlage Das L schen mit dem Edelgas Argon verursacht keine Sch den an den techni schen Ger ten und Magnetb ndern Das Geb ude verf gt ber eine spezielle Zugangskontrolle und ist gegen Einbruch Vandalismus oder Gewaltanwendung weitgehend gesch tzt Das Geb ude beinhaltet keine besonderen Vorkehrungen gegen unvorhersehbare Katastrophen wie z B Erdbeben Flugzeugab st rze etc 6 Verschl sselung Standardm ig werden am Leibniz Rechenzentrum alle Daten unverschl sselt auf den B ndern gespei chert Die Daten gehen per Voreinstellung auch unverschl sselt vom Client aus ber das Netz zum Ser ver Vom Kunden kann eine AES 128 bit oder eine DES 56 bit Verschl sselung am TSM Client aktiviert werden Die Verwahrung und Verwaltung des Schl ssels liegt alleinig beim Kunden Bei Verlust des Schl ssels ist eine Dechiffrierung nicht mehr m glich 7 Aufbewahrungsregeln und fristen Lebensdauer eines Nodes Archiv und Backupdateien werden in so genannten Nodes verwaltet Ein Node entspricht in der Regel einem Rechner von dem gesichert oder archiviert werden soll Nodes werden auf den ABS Servern zu sammen mit der Adresse einer Kontaktperson registriert Diese Kontaktperson ist ma geblicher An sprechpartner f r das LRZ und ist f r die im ABS archivierten bzw gesicherten Daten auch dessen In halt alleinig verantwortlich Nodes werden nicht gel scht solange sie aktiv sind d h solange unter einem Node Dat
360. ing Mail an Nutzer der TUM geschickt wurde folgte eine Woche sp ter in der Nacht von Freitag auf Samstag die Spam Welle die von unserem Webmailer unter Zuhilfenahme einer erbeuteten Kennung ausging Nachdem am Morgen die Kennung gesperrt wurde war eine Nacht lang Ruhe In der Nacht zum Sonntag begann der Spuk aufs Neue mit einer weiteren erbeuteten Kennung bis am Morgen auch diese Kennung gesperrt war Als Gegenma nahme wurde in der darauf folgenden Woche eine Limitierung der Anzahl an E Mails die ber den Webmailer verschickt werden kann eingerichtet Innerhalb von 24 Stunden kann eine Benutzer nummer nun maximal an 500 Empf nger E Mails verschicken Sobald mehr Empf nger angesprochen werden werden die E Mails zwischengepuffert und die Mailadministratoren alamiert 5 5 4 2 Neue Benutzerverwaltung Die Umstellung der zentralen Benutzerverwaltung LRZ SIM im M rz 2008 hatte auch gravierende Auswirkungen auf den Mailbereich W hrend Mailadressen und domains bis dahin in einem autonomen Mail Verzeichnis verwaltet wurden ist das zentrale Benutzerverwaltungs Verzeichnis nun auch daf r der Ort der Wahrheit Zur Verwaltung der Mailadressen der Benutzer bzw der Kennungen wurde eine API implementiert Die se API dient als Bindeglied zwischen dem Id Portal der Weboberfl che von LRZ SIM und den Mailda ten im zugeh rigen SIM Verzeichnis und in einer erweiterten Form f r die neu zu entwickelnden Kommandos der Mailadministrator
361. inition der Aufgabengruppen Aufgabengruppe 1 Aufgaben gem 2 Absatz 1 der Benutzungsrichtlinien des LRZ insbesondere Aufgaben aus dem Bereich der Forschung und Lehre an der Ludwig Maximilians Universit t M nchen der Technischen Universit t M nchen der Bayerischen Akademie der Wissenschaften sowie ein schl gige Aufgaben aus dem Bereich der Fachhochschulen M nchen und Weihenstephan Aufgabengruppe 2 Aufgaben aus dem Bereich der Forschung und Lehre an anderen bayerischen Hochschulen die berwiegend aus Mitteln dieser Einrichtungen oder aus Zuwendungen des Bundes eines Landes der DFG oder der Stiftung Volkswagenwerk finanziert werden Aufgabengruppe 3 Aufgaben aus dem Bereich der Forschung und Lehre an nichtbayerischen Hochschulen und an anderen Einrichtungen Die Aufgaben werden berwiegend aus ffentlichen Mitteln oder aus Mitteln der Max Planck Institute finanziert Aufgabengruppe 4 Aufgaben aus dem Bereich der Forschung und Lehre die nicht aus ffentlichen Mitteln finanziert werden Es liegt ein ffentliches Interesse zur Durchf hrung dieser Aufgaben vor Aufgabengruppe 5 Sonstige Aufgaben Jahresbericht 2008 des Leibniz Rechenzentrums Teil III 291 Anhang 8 Zuordnung von Einrichtungen zu LRZ Betreuern ab 01 01 2009 Institution bzw Fakult t Betreuer TUM Mathematik und Informatik Heilmaier Physik Heilmaier Chemie Heilmaier Wirtschafts und Sozialwissenschaften Weidner Bauingenieur und Verme
362. inuierlich umgesetzt werden 5 4 3 Directory Applikationsservice f r das myTUM Webportal Das LRZ betreibt eine hochverf gbare LDAP Server L sung f r das Hochschulportal der Technischen Universit t M nchen http portal mytum de 2008 konnten die verh ltnism ig wenigen Supportf lle sehr effizient bearbeitet werden Bei der eingesetzten LDAP Server Software traten mitunter typische Langzeitbetriebsprobleme auf f r die entsprechende Gegenma nahmen durchgef hrt wurden 5 4 4 IntegraTUM Teilprojekt Verzeichnisdienst Als zentrales technisches Teilprojekt hat das vom LRZ durchgef hrte IntegraTUM Teilprojekt TP Ver zeichnisdienst die Aufgabe eine Hochschulverzeichnisdienst Infrastruktur zu konzipieren und umzuset zen ber die aktuelle Informationen ber die Identit ten und Autorisierungen von Hochschulangeh rigen Mitarbeiter Studenten G ste abgerufen und in angeschlossene Systeme eingespeist werden k nnen Die Daten werden aus den f hrenden Systemen der Verwaltung aggregiert konsolidiert und aufbereitet dadurch k nnen Redundanzen und Inkonsistenzen erkannt und eliminiert werden Die Stammdaten wer den um zus tzliche Informationen beispielsweise einen hochschulweit einheitlichen Loginnamen f r alle Dienste erg nzt und mit Gruppenzugeh rigkeiten angereichert Auf Basis eines Rollenkonzepts werden die Daten selektiv an die jeweiligen Systeme der brigen Teilprojekte weitergeleitet und st ndig aktuell gehalten so
363. ions in J lich und Neapel dem DEISA Symposium in Edin burgh sowie an zahlreichen DEISA Videokonferenzen teil und beteiligten sich aktiv an Diskussionen in ber 20 DEISA Mailinglisten Das DEISA 1 Projekt wurde im April 2008 mit einem Review in Br ssel durch die Europ ische Kom mission mit gro em Erfolg abgeschlossen In Abbildung 60 sind die Publikationen gezeigt die die wich tigsten wissenschaftlichen Ergebnisse von DEISA 1 zusammenfassen Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 165 Ayj uch g CINECA Abbildung 60 Advancing Science in Europe fasst die wissenschaftlichen Ergebnisse von DEISA 1 zusammen Die Publikation Benefits of supercomputing enth lt 18 popul rwissenschaftliche Auf s tze ber wissenschaftliche Projekte die in DEISA 1 durchgef hrt wurden Ref http www deisa eu publications results 6 6 2 1 eDEISA Im Juli 2008 fand vor der Europ ischen Kommission der Review von eDEISA statt es wurde eine Ver l ngerung der Projektlaufzeit um ein weiteres Jahr bis Mitte 2009 ausgehandelt Im Rahmen der Verl n gerung von eDEISA leitet das LRZ die sub tasks GT4 retained components und Workflow and meta scheduling tools Die berf hrung des Globus Testbeds in den Produktiv Betrieb auf allen DEISA Sites wurde weiter vorangetrieben und Workflow und Metascheduling Software auf ihre Einsatzf higkeit in DEISA hin getestet In weiteren eDEISA Aktivit ten wurden vom LRZ d
364. ise Library vor Ort installiert werden die dann ebenfalls ber das LRZ aktualisiert wird und ihrerseits die Daten an die Clients weiterreicht Voraussetzung f r den Zugriff auf den Sophos Server am LRZ ist dass sich der Rechner im M nchner Wissenschaftsnetz MWN befindet das sollte bei Institutsrechnern eigentlich immer der Fall sein Falls sich der Rechner nicht im MWN befindet z B bei einer Einwahl von zu Hause ber einen externen Pro vider so muss zuvor eine VPN Verbindung aufgebaut werden Was im Einzelnen zu tun ist erf hrt man auf der Webseite www Irz de services security antivirus 2 8 3 Zertifizierung von Serverrechnern nach X 509 Eine Sicherheitsma nahme die Betreiber von Servern etwa von WWW Servern oder von E Mail Servern mit POP oder IMAP ergreifen k nnen ist die optionale Verschl sselung von Zugriffen mittels Public Key Verfahren durch das Protokoll SSL Der ffentlich zug ngliche Teil des vom Server benutz ten kryptografischen Schl ssels wird dabei durch ein sogenanntes Zertifikat beglaubigt also mit dem Namen des Servers in nicht f lschbarer Weise verkn pft Mit einem solchen Zertifikat kann ein Server system seine Identit t gegen ber den Zugreifern nachweisen au erdem ist die Existenz des Zertifikats eine Voraussetzung f r verschl sselten Datenaustausch mit dem Server auch dann wenn von der Schl s selbeglaubigung durch das Zertifikat gar kein Gebrauch gemacht wird F r WWW Server die vertrauli
365. issenschaftliche Datenvisualisierung erm glicht das einfache und schnelle Verstehen und Interpretieren von Datens tzen aus H chstleistungsrechnen Messungen Simulationen oder Tomografien Die Projekte kommen aus verschiedensten akademischen Bereichen etwa Astrophysik Biophysik Arch ologie Architektur Hydromechanik Medizin oder Life Sciences e Lehrveranstaltungen als Bestandteil von Seminaren Praktika oder Kursen e Visualisierungen von Rekonstruktionen Modellen Simulationen Szenen oder sonstigen Daten in unterschiedlichen Fachdisziplinen e Pr sentationen bei Vortr gen und Auftritten vor Fachpublikum oder Geldgebern e Softwaretests und Evaluierung von Produkten f r die Verwendung in Projekten Kurse und Beratung Projekte im Bereich Visualisierung und Computergrafik sind zeit und betreuungsintensiv Da unsere Kunden auch aus nicht technischen Bereichen kommen wird unsere Beratung insbesondere hier tragend Wir weisen Projekten fr hzeitig die richtige Richtung Neben der kompetenten Betreuung und Begleitung von Forschungsprojekten bieten wir folgende Infor mationsm glichkeiten e Kurse und Einf hrungen in die Nutzungsm glichkeiten der Ausstattung e Vortr ge zu Visualisierung f r eine wachsende Zahl von F hrungen und Pr sentationen e Mitwirkung an Ausbildung und Lehre mit den Schwerpunkten Virtual Reality 3 D Computergrafik und Visualisierung e Beratung und Unterst tzung bei verschiedenen Projekten Softwareent
366. ist selbstverst ndlich dass trotz aller eingangs erw hnten freiwil ligen Rezentralisierungstendenzen die dezentralen Systeme unterst tzt werden durch ad quate Serveran gebote Dateidienste Archivdienste Software Verteilung Einw hldienste und ein sehr aufw ndiges aber effektiv organisiertes Beratungssystem Help Desk Hotline Trouble Ticket Systeme Individualbe ratung Kursangebot Software Lizenzen Dokumentationen Zu den Diensten des LRZ geh rt auch die Erarbeitung von Unterst tzungskonzepten f r den Betrieb dezentraler Cluster und virtueller Server Neu hinzukommen die Fragestellungen einer st rker integrierten IT Unterst tzung aller Hochschulprozesse der Auswirkungen von Multimedia und zunehmend ausschlie lich elektronisch vorliegenden Dokumen ten und Fachinformationen sowie der Tendenzen von Re Zentralisierung im IT Bereich Das LRZ betei ligt sich hier aktiv an Pilotprojekten Hierzu z hlen als Beispiele BMBF Projekte zusammen mit der Bayerischen Staatsbibliothek zur Langzeitarchivierung und das DFG Projekt IntegraTUM das die TU M nchen nun seit mehreren Jahren bereits zusammen mit dem LRZ durchf hrt und das der Vereinheitli chung von IT Prozessen in der Hochschule dient Neben der Rolle eines modernen Hochschulrechenzentrums hat das LRZ die Rolle des Landeshochleis tungsrechenzentrums in Bayern und die eines nationalen H chstleistungsrechenzentrums Technisch wissenschaftliches Hochleistungsrechnen gewinnt eine im
367. isualisierung Termin 20 23 Oktober 6 3 4 Transactions of the Third HLRB and KONWIHR Status and Result Workshop Am 3 und 4 Dezember 2007 fand der Third Joint HLRB and KONWIHR Result and Reviewing Workshop statt Die dort gehaltenen Vortr ge sind im Jahr 2008 in einem Be richtsband ver ffentlicht worden der in der gemeinsam mit dem HLRS in Stuttgart publizierten Reihe High Per formance Computing in Science and Engineering er d k schien In 51 Beitr gen wird dort ein exzellenter ber RN Science x blick ber die Arbeiten am HLRB gegeben mit Beitr gen and Engineering aus den Bereichen Fluiddynamik Astrophysik Chemie und Materialwissenschaften Geophysik und Informatik Details e Hardcover 710 pages e Ist Edition Sept 2008 e ISBN 10 3540691812 e ISBN 13 978 3540691815 6 3 5 InSiDe InsiDe Innovatives Supercomputing in Deutschland ist die Zeitschrift der drei deutschen H chstleis tungsrechenzentren HLRS Stuttgart NIC J lich und LRZ und inzwischen auch des Gauss Centre for Supercomputing GCS Die Zeitschrift wird an zahlreiche Institutionen und Personen sowie die Nutzer der H chstleistungsrechner verschickt Online Ausgaben der Zeitschrift sind unter http inside hIrs de htm editions htm verf gbar Im Berichtszeitraum wirkte das LRZ an zwei Ausgaben mit teils durch Benutzerberichte teils durch eigene Beitr ge siehe Ver ffentlichungen der Mitarbeiter 2008 6 4 Projekte und Kooperationen 6 4 1
368. it das LRZ mit seinen Einrichtungen und Dienstleistungen n her kennen zu lernen 2 2 Planung und Bereitstellung des Kommunikationsnetzes Das vom LRZ betriebene Kommunikationsnetz das M nchner Wissenschaftsnetz MWN bietet den angeschlossenen Rechnern vom PC bis zum Gro rechner vielf ltige Kommunikationsm glichkeiten 18 Teil I Das Dienstleistungsangebot des LRZ sowohl untereinander als auch mit externen Systemen Mit dem Internet ist das MWN ber das Deutsche Wissenschaftsnetz WiN und im Back up Fall ber M net verbunden Das M nchner Wissenschaftsnetz verbindet vor allem Standorte der Ludwig Maximilians Universit t M nchen LMU der Technischen Universit t M nchen TUM der Bayerischen Akademie der Wissen schaften BAdW der Hochschule M nchen HM und der Hochschule Weihenstephan miteinander Am MWN sind zudem die Hochschule f r Musik und Theater die Hochschule f r Fernsehen und Film die Akademie der Bildenden K nste sowie weitere wissenschaftliche Einrichtungen wie z B Institute der Max Planck Gesellschaft der Fraunhofer Gesellschaft sowie Studentenwohnheime und einige staatliche Einrichtungen z B Museen angeschlossen Diese Standorte sind ber die gesamte M nchner Region i W M nchner Stadtgebiet Martinsried Garching und Weihenstephan verteilt Es gibt aber auch weiter entfernte Standorte wie z B Obernach am Walchensee Iffeldorf am Staffelsee Augsburg Straubing Wendelstein Schneefernerhaus
369. it t und bei der Technischen Universit t gekoppelt mit der Vergabe von Kennungen f r das jeweilige Web Portal Cam pusl HU bzw myTUM F r Studenten anderer M nchner Hochschulen erfolgt die Vergabe individuell und direkt durch das LRZ Ende 2008 hatten ca 73 000 Studenten Vorjahr ca 69 000 eine Kennung die u a f r Mailzwecke und f r den W hl bzw VPN Zugang ins MWN genutzt werden konnte Hier die Aufteilung auf die Hoch schulen mit den meisten Kennungen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 101 Hochschule TEn Ludwig Maximilians Universit t M nchen 47 023 Technische Universit t M nchen 24 655 Hochschule f r Musik und Theater M nchen 1 163 Hochschule f r Fernsehen und Film M nchen 177 Akademie der Bildenden K nste M nchen 112 Hochschule f r Philosophie M nchen 53 Verwaltungs und Wirtschaftsakademie M nchen 29 Fachhochschule Weihenstephan 15 FernUniversit t Hagen 14 Hochschule f r Politik M nchen 10 sonstige Hochschulen 84 Gesamt 73 335 Tabelle 13 Vergabe von Kennungen an Studenten 5 4 2 Projekt LRZ Secure Identity Management Das Projekt LRZ Secure Identity Management hat zum Ziel die Benutzerverwaltung des LRZ auf die Basis sicherer verteilter Verzeichnisdienststrukturen umzustellen Gleichzeitig ist es das Pilotprojekt mit dessen Wissen und Erfahrung die Beteiligung des LRZ an IntegraTUM siehe 2 13 2 im Bereich Ver zeichnisdienste durchgef hrt wird Da da
370. it 1997 Wellenl ngenmultiplexer Wavelength Division Multiplexer WDM auf den angemieteten Glasfaserleitungen der lokalen Provider Telekom und M net ein Hierdurch lassen sich auf Leitungsebene getrennte Strukturen aufbauen WDM Systeme werden derzeit im MWN dazu verwendet um die verf gbaren Glasfaserleitungen parallel zum Produktionsnetz f r folgende Dienste zu nutzen e Kopplung von Nebenstellenanlagen TK Kopplung 198 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes e Realisierung von standort bergreifenden Intranets z B Medizin Verwaltung e Realisierung von Testnetzen parallel ATM Pilotprojekte Fiber Channel Kopplung von Speicher netzen usw Im MWN werden aktuell auf 13 Verbindungen WDM Systeme eingesetzt vgl Tabelle 32 Verbindung TU Nordgel nde MRV LambdaDriver 800 Verbindung der Backbone Router 1 x 10GE LMU Stammgel nde Medizinisches Intranet des Klinikums rechts der Isar 3 x 1GE ATM Testnetz Erlangen IRT 1x OC48 TU Nordgel nde MRV LambdaDriver 800 Verbindung der Backbone Router 1 x 10GE Garching Intranet der Max Planck Gesellschaft 1 x 10GE TU Nordgel nde MRV LambdaDriver 800 Verbindung der Backbone Router 1 x 10GE Gro hadern Intranet der Max Planck Gesellschaft 1 x 10GE TU Nordgel nde ONI Online 2500 Verbindung der Backbone Router 1 x 10GE Klinikum Rechts der Isar Medizinisches Intranet 3 x 1GE LMU Stammgel nde ADVA OCM4 Anbindung
371. its seit ca 2 Jahren im Einsatz sind Auf Grund dieser Tests fiel die Entscheidung auf die HP Switches vom Typ ProCurve 4200 bzw 5400 Ihre Hauptvorteile gegen ber den Ger ten von Cisco sind e Gutes Preis Leistungs Verh ltnis e Im Kaufpreis eingeschlossene Garantieleistungen Lifetime Warranty sowohl f r die Hardware als auch f r die Software e Geringer Stromverbrauch Zudem sind im MWN bereits ber 900 Switches von HP ProCurve im Einsatz Der Betrieb von Switches eines weiteren Herstellers w rde einen erh hten Personalaufwand bedeuten da die Betriebsprozeduren z B Konfiguration Fehlermanagement doppelt anfallen w rden Aus den vorgenannten Gr nden sollen daher weiterhin HP Switches beschafft werden 250 Teil II Organisatorische Ma nahmen im LRZ 8 Organisatorische Ma nahmen im LRZ 8 1 Personalver nderungen 2008 8 1 1 Zug nge Datum Name Dienstbezeichnung Abteilung 01 01 2008 Jamitzky Ferdinand Dr wiss Mitarbeiter Hochleistungssysteme 01 01 2008 Sutter Christopher stud Operateur Zentrale Dienste 01 01 2008 Wank Andreas stud Hilfskraft Zentrale Dienste 01 02 2008 Richter Christian wiss Mitarbeiter Kommunikationsnetze 18 02 2008 Berning Kajetan stud Hilfskraft Zentrale Dienste 01 03 2008 Satzger Helmut Dr wiss Mitarbeiter Hochleistungssysteme 01 05 2008 Fischer Gabriel stud Hilfskraft Benutzernahe Dienste
372. itstellung von Sicherheitsinformationen per Web diversen Mail Verteilern Schriften Kursen und Informationsveranstaltungen e Erfahrungsgem ergeben sich die gr ten Sicherheitsprobleme aus zu geringem Problembewusstsein und mangelndem Wissen von Endbenutzern wie leider auch von Systemverwaltern viele L cken sind eine Folge der unbeabsichtigten Verletzung elementarster Sicherheitsregeln Da durch diesen Dienst die allgemeine Sicherheit mit einem sehr guten Kosten Nutzenverh ltnis verbessert werden kann veranstaltet das LRZ seinen Kurs Einf hrung in die System und Internet Sicherheit auf Wunsch auch vor Ort e Beratung von Instituten e Bearbeitung von Beschwerden und Anfragen der Kunden e Ausstellung von Zertifikaten 46 Teil I Das Dienstleistungsangebot des LRZ Die Informationen zu den sicherheitsrelevanten Ma nahmen und Diensten des LRZ sind ber den Ein stieg zu den Security Seiten erreichbar www Irz de services security Man muss sich jedoch dar ber im Klaren sein dass das LRZ trotz seiner Bem hungen prinzipiell nicht f r hundertprozentige Sicherheit sorgen kann Dies wird noch versch rft durch die offene Umgebung im MWN siehe den vorhergehenden Abschnitt 2 8 2 Sicherheitsma nahmen des Endbenutzers insbesondere Virenschutz Alle Sicherheitsma nahmen des Rechenzentrums bleiben wirkungslos wenn der Endbenutzer achtlos mit seinen Systemen oder mit Zugangsinformationen wie Passw rtern umgeht Deswegen werde
373. iz Rechenzentrums LRZ Das Leibniz Rechenzentrum LRZ ist das Hochschulrechenzentrum f r die Ludwig Maximilians Universit t die Technische Universit t M nchen und die Bayerische Akademie der Wissenschaften Auch die Fachhochschule M nchen und die Fachhochschule Weihenstephan sowie zahlreiche weitere Wissenschaftsinistitutionen und der bayerische Bibliothekenverbund nutzen Leistungen des LRZ Zus tz lich betreibt das LRZ Hochleistungsrechensysteme f r alle bayerischen Hochschulen sowie einen natio nalen H chstleistungsrechner der zu den leistungsf higsten Rechnern in Europa z hlt und der der wis senschaftlichen Forschung an allen deutschen Hochschulen offen steht Im Zusammenhang mit diesen Aufgaben f hrt das LRZ auch Forschung in verschiedenen Bereichen der Informatik durch Welche Aufgaben hat ein Hochschulrechenzentrum Die heutzutage und besonders an bayerischen Hochschulen bereits weit gehend erreichte dezentrale Ver sorgung mit Rechenleistung durch PCs und Workstations an den Lehrst hlen und Instituten erfordert die Durchf hrung und Koordination einer Reihe von Aufgaben durch eine zentrale Instanz das Hochschulre chenzentrum e Planung Bereitstellung und Betrieb einer leistungsf higen Kommunikationsinfrastruktur als Bindeglied zwischen den zentralen und dezentralen Rechnern und als Zugang zu weltweiten Netzen e Planung Bereitstellung und Betrieb von Rechnern und Spezialger ten die wegen ihrer Funktion zentral b
374. jeweils in Form von MRTG Statistiken bereitgestellt MRTG siehe http www mrtg org ist ein Werkzeug zur berwachung des Verkehrs auf Netzwerkverbindungen kann aber auch zur berwachung anderer Kennzahlen eingesetzt werden Der WWW Server zum Netzmanagement dient als Schnittstelle zu den Kunden im MWN um die Netz Dienstleistung MWN des LRZ transparenter zu machen InfoVista Im Bereich des Netz und Dienstmanagements spielt auch das Service Level Management Tool InfoVista eine gro e Rolle um wichtige Netz und Dienstparameter zu berwachen Auf dieses Werkzeug und auf die damit durchgef hrten Managementaufgaben wird im folgenden Abschnitt detaillierter eingegangen 220 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 7 33 berwachung der Dienstqualit t des MWN mit InfoVista Das Service Level Management Werkzeug InfoVista dient dazu die Qualit t von IT Diensten zu berwa chen und in Form von graphischen Reports darzustellen Es wird seit dem Jahr 2000 auch zur berwa chung der Dienstqualit t im M nchner Wissenschaftsnetz MWN eingesetzt Die Migration von InfoVista 3 2 auf die Version 4 0 SP1 wurde im Jahr 2008 durchgef hrt Generell besteht st ndig die Notwendigkeit das InfoVista System an Entwicklungen im MWN anzupas sen bzw Ver nderungen im Netz in InfoVista nachzuziehen Switch Reports f r Netzverantwortliche Zu den bereits in den Jahren 2003 2007 instanziierten Reports f r Ne
375. k 30 120 MB Sek Gesamtbandbreite 80 MB Sek 4 400 MB Sek Fassungsverm gen der B nder 1 10 GB 200 500 GB Belegter Speicher 1 000 GB 5 500 000 GB Anzahl gespeicherte Dateien 700 000 4 500 000 000 Eingehende Datenmenge pro Tag 50 GB 15 000 GB Anzahl Klienten 60 5 000 Tabelle 29 Entwicklung der Kenngr en im Bandbetrieb 6 7 2 3 IBM Landeslizenz Die f r den Betrieb des Archiv und Backupsystems ben tigte Software war Teil des bayerischen Landes lizenzvertrags mit der Firma IBM Dieser Vertrag mit der Firma IBM der im September 2003 abge schlossen wurde lief nach 5 Jahren Ende September 2008 aus Federf hrend f r alle beteiligten Universi t ten und Fachhochschulen in Bayern beantragte das LRZ nach umfangreichen Vorarbeiten zur Kl rung des Bedarfs m glicher Alternativen und der Rahmenbedingungen die notwendigen Gelder f r die k nftig ben tigten Softwareprodukte der Firma IBM Der Antrag wurde von der DFG genehmigt und im Septem ber 2008 konnte nach einer Verhandlungsphase ein neuer Landeslizenzvertrag mit IBM abgeschlossen werden Neben dem LRZ sind daran ein Dutzend bayerische Universit ten und Fachhochschulen betei ligt Mit dem landesweiten Vertrag konnten besonders g nstige Konditionen f r den Bezug und Support der Software f r die n chsten f nf Jahre erzielt werden 178 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Die B ndelung der einzelnen Softwareprodukte zu einer La
376. ka belt werden Es wird versucht auch die Schragenhofstr mit diesem Programm NIP II zu realisieren Koax verbleibt noch in Bau 0503 0106 N6 und 5402 CH2 hier soll aber Koax im Rahmen anderer Ma nahmen ersetzt werden LMU M nchen Im Bereich der LMU M nchen sind alle Geb ude mit einer strukturierten Verkabelung versehen Es gibt jedoch teilweise Defizite in der Verwendung der installierten Medien nur 4 drahtiger Anschluss Cable sharing oder Installation von Kat5 Kabeln Dies betrifft 28 Geb ude NIP V Die Kosten in H he von Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 203 18 4 Mio wurden vom Landtag genehmigt Im Rahmen des Konjunkturprogramms sollen diese Geb u de bis 2011 nachger stet werden Weihenstephan TU M nchen Im Campus Weihenstephan der TU M nchen sind alle Geb ude mit einer strukturierten Verkabelung versehen entweder Kupfer Kat 6 Kabel oder Glasfaser multimode LWL Netze auf den Campus Gel nden Auf den Campusgel nde TUM Stamm Nordgel nde LMU Stammgel nde TUM Garching TUM Weihenstephan und LMU Gro hadern Martinsried sind privat verlegte Glasfaserstrecken installiert die teilweise schon ber 15 Jahre existieren Hier muss in den n chsten Jahren nachger stet werden da bei einem Teil der Strecken die heute ben tigten Glasfasertypen OM3 Monomode nicht vorhanden sind diese aber aufgrund der gestiegenen bertragungsraten notwendig sind 7 1 8 Anbindung Studentenwohn
377. keit der Topologieer kennung im Schnitt bei gt 95 liegt Seit 2007 l uft das Projekt produktiv und wird vor allem im Abuse Bereich aber auch zur Fehlersuche im Netzbereich verwendet Das Projekt steht als Open Source Software http www nyx Irz de allen zur Verf gung Nyx wurde Ende Mai 2007 auf der 21 DFN Arbeitstagung http dfn2007 uni kl de in Kai serslautern vorgestellt Der Vortrag und das wissenschaftliche Papier Die Suche nach der Nadel im Heuhaufen k nnen unter http www nyx irz de eingesehen werden Ende 2008 wurde Nyx erweitert sodass nun auch IPv6 Adressen lokalisiert werden k nnen F r 2009 ist eine Integration von Access Points im Rahmen einer studentischen Arbeit geplant 7 4 6 Virtuelle Firewalls Das LRZ bietet virtuelle Firewalls als Dienstleistung f r Einrichtungen und Organisationen im MWN ber sogenannte Firewall Services Module FWSM an Details siehe Jahresbericht 2007 Der urspr ng lich geplante Ausbau der FWSM Infrastruktur wurde zur ckgestellt nachdem vom Hersteller Cisco zu n chst keine belastbare Aussage zur Fortf hrung dieses Programms zu erhalten war Es wird wohl an der Entwicklung neuer Hardware gearbeitet die dann auch h here Daten bertragungsraten als 5 6 Gbit s zulassen soll Das Erscheinen dieses Moduls wird abgewartet 22 Institute nutzen inzwischen ihren eigenen virtuellen Firewall bei 13 weiteren ist dieser in Erprobung Leider tr ben einige wenige aber daf r sp rbare
378. keiten zum MWN durch Fachbereiche Institute bedarf der Zustimmung des LRZ um MWN einheitliche Sicherheitsstandards und Abrechnungsgrundlagen sicher zustellen Beim Aufbau eigener Wireless Netze sind die Regeln f r den Betrieb von Institutseigenen Funk LANs einzuhalten Als bertragungsprotokoll ist IP festgelegt um die Komplexit t des MWN so gering wie m glich zu halten und Interkonnektivit t sicherzustellen Zus tzliche Protokolle k nnen nur in Ausnahmef llen f r einen begrenzten Einsatz zugelassen werden F r einen sicheren Betrieb des MWN kann es notwendig sein Einschr nkungen einzuf hren Diese sind unter http www Irz muenchen de services netz einschraenkung beschrieben Das Vorgehen bei der Neueinrichtung von Anschl ssen durch das LRZ ist im WWW unter http fwww Irz de services netz anschluss beschrieben 3 Betriebskosten Die Kosten f r den Betrieb des Wissenschaftsnetzes sowie die Kosten f r die Anbindung an die nationa len und internationalen Datennetze werden f r die satzungsgem en Benutzer zur Zeit zentral durch das LRZ bernommen Der Erlass einer Geb hrenordnung mit einer anderen Kostenverteilung bleibt vorbe halten 4 Betriebszeiten Das MWN wird m glichst st rungs und unterbrechungsfrei betrieben F r Wartungsarbeiten ist jeweils der Dienstag in der Zeit von 7 30 bis 9 00 Uhr vorgesehen Unterbrechungen wann ungef hr wie lange und welche Bereiche oder Dienste betroffen sind werden mindest
379. klung der Datenmenge in der Langzeitarchivierung in Terabyte seit Januar 2005 120 100 80 60 4 40 20 4 0 SSS Ed Es A EE SE SEIN A SSi A ea EE EE Abbildung 74 Entwicklung des Datenvolumens der BSB im LRZ Archiv Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 181 Projekt BSB Google Im Rahmen einer im Jahr 2007 entstandenen Public Private Partnership digitalisiert Google ber einen Zeitraum von mehreren Jahren mehr als 1 Million urheberrechtsfreie Druckwerke aus dem Bestand der BSB Bei einer mittleren Seitenzahl von ca 300 Seiten je Band entstehen so mehr als 300 Millionen digi talisierte Seiten Die BSB erh lt Kopien der Digitalisate die am LRZ archiviert und ber den OPAC der BSB weltweit zug nglich gemacht werden Das LRZ unterst tzt die BSB in diesem Projekt als Dienstleis ter und ist f r die Langzeitarchivierung der Digitalisate das Housing von Clusterknoten f r die Format migration als Vorbereitung f r die Web Bereitstellung das Hosting des Speichersystems und das Hosting virtueller Server f r Archivierung und Web Bereitstellung zust ndig Der f r das vdl6digital Projekt beschaffte NAS Speicher wurde im Jahr 2008 erweitert und steht somit auch f r die Verarbeitung dieser Daten zur Verf gung Er dient au erdem als Online Speicher f r die Bereitstellung der Digitalisate ber das Internet Verk ndungsplattform Ziel der Verk ndungsplattform Bayern https www ve
380. l 35831 8857 Tel 35831 8861 Teil II Anhang 8 heilmaier lrz de leschhorn lrz de schroeder lrz de weidner lrz de wendler lrz de christadler lrz de Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 293 Anhang 9 Betriebs und Organisationskonzept f r den H chstleistungsrechner in Bayern HLRB Stand 30 Mai 2000 Pr ambel Der H chstleistungsrechner in Bayern HLRB wird vom Leibniz Rechenzentrum der Bayerischen Aka demie der Wissenschaften LRZ zur maximalen Nutzung von Synergieeffekten mit den anderen dort bereits seit langem installierten Hochleistungsrechnern betrieben und betreut Die Organisation des HLRB Betriebs erfolgt im Zusammenwirken von e Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften als Betreiber des HLRB e Lenkungsausschuss des HLRB e Kompetenznetzwerk f r Technisch Wissenschaftliches Hoch und H chstleistungsrechnen in Bayern KONWIHR Darstellung der verschiedenen Aufgaben und Instanzen zum HLRB Vorgaben f r Betrieb Projektantr ge steuert und koordiniert Die beteiligten Organisationen erf llen dabei die nachfolgend in den 1 bis 4 festgelegten Aufgaben 81 Rechnerbetrieb am LRZ Der Betrieb des HLRB wird nach den vom Lenkungsausschuss erlassenen Regeln organisiert Das LRZ fungiert als Betreiber des H chstleistungsrechners in Bayern als erste Beratungsinstanz insbesondere f r die rechnernahe Basisbetreuung der Benutzer und als Bindeglied zwi
381. l und erstellt Serverzertifikate f r mehrere Einrichtungen im M nchner Wissenschaftsnetz Seit Anfang des Jahres 2007 hat die DFN PCA eine neue Zertifizie rungshierarchie Global eingef hrt in der das Wurzelzertifikat von einer kommerziellen CA T TeleSec Trust Center der Deutschen Telekom AG beglaubigt wird Damit ist die Notwendigkeit f r die Endbenut zer entfallen das Wurzelzertifikat explizit durch Import als vertrauensw rdig zu kennzeichnen soweit das schon vom Hersteller der Software erledigt wurde Es ist dies eine ganz wesentliche Erleichterung f r die Endbenutzer die von vielen Betreibern von Webservern bereits dringend gew nscht worden war Leider verschlie t sich der Hersteller Mozilla Produkte Firefox und Thunderbird der Aufnahme des Wurzelzertifikats obwohl alle Bedingungen schon seit langem erf llt sind und dies auch nachgewiesen ist Das LRZ betreibt im Rahmen dieser neuen Hierarchie seit Januar 2007 eine Zertifizierungs und Regist rierungsstelle sowie f r die beiden M nchner Universit ten jeweils eine Registrierungsstelle Die vorher betriebene Server Zertifizierungsstelle f r das M nchener Wissenschaftsnetz ist damit obsolet geworden Ihre Zertifikate bleiben g ltig es werden aber keine neuen Zertifikate mehr ausgestellt F r die Grid CAs gab es 2008 zwei Neuerungen Die getrennten CAs f r Server und Nutzer wurden im Juni zusammengelegt und seit Oktober firmieren Zertifikatnehmer aus den beiden Universit
382. lastung anderen Communities zur Verf gung stellen um bei Spitzenbedarf umgekehrt auf die entsprechende Ressourcen anderer Communities zuzugreifen Neben der politischen Bereitschaft Ressourcen auch ber Disziplin und oder L ndergrenzen zu transferieren ist dazu auch die Schaffung entsprechender technischer Voraussetzungen erforderlich Eine wichtige Rolle spielen dabei die Grid Scheduling und Ressourcenmanagementsysteme die f r die Zuweisung von Ar beitslast auf die einzelnen Ressourcen und damit im Wesentlichen f r einen effizienten Betrieb der jewei ligen Grids verantwortlich sind Im D Grid wurde vorgeschlagen eine technologieunabh ngige Interoperabilit tsschicht zu definieren die von jedem im D Grid verwendeten Grid Scheduler umgesetzt werden kann und auch die Erweiterungs m glichkeit auf das europ ische Umfeld einschlie t Das Projekt D Grid Scheduler Interoperability DGSI wird diese Interoperabilit tsschicht auf eine f r die Anwender transparente Weise umsetzen Hierf r werden Protokolle und Schnittstellen entworfen implementiert und f r im D Grid und im europ ischen Umfeld verwendete Grid Scheduler umgesetzt Da die einzelnen f r den Anwendungsfall spezi ell zugeschnittenen Scheduling L sungen in den Communities dabei weiterhin Bestand haben ist auch die Anwendertransparenz gew hrleistet Parallel dazu werden mit dem Ziel der F rderung der Nachhaltigkeit Schritte zur Standardisierung der Arb
383. lattform bereitgestellt die alle Bereiche der Datenspeicherung abdeckt Datensicherungs und Archivierungsme chanismen bereitstellt und eng mit einem hochschulweiten Verzeichnisdienst gekoppelt ist Eine besonde re Qualit t dieses Dienstangebots besteht darin dass alle beteiligten Komponenten hochverf gbar konfi guriert sind und nahezu beliebig skalieren vgl Abschnitt Zugriff auf gemeinsame Daten2 4 1 36 Teil I Das Dienstleistungsangebot des LRZ Die Bereitstellung von NAS Onlinespeicher geh rt zum Dienstleistungsangebot des LRZ Das LRZ ber nimmt die Beschaffung und den Betrieb der notwendigen Infrastruktur f r die Grundversorgung der sat zungsgem en Nutzer Erreicht die kostenfreie Nutzung die vom LRZ bereitstellbare Grundversorgung so kann eine Institution h here Anforderungen immer noch bei bernahme der daf r anfallenden Investi tions und Betriebskosten am LRZ abdecken SAN Storage Area Network Neben der reinen Rechenleistung wurde Hintergrundspeicher zu einer immer bedeutenderen Planungs gr e Kurz vor der Jahrtausendwende wurde daher damit begonnen f r Anwendungen mit besonders hohem Datenaufkommen ein eigenes Speichernetz Storage Area Network SAN aufzubauen W hrend NAS und AFS den Zugriff auf Filesystemebene regeln und die Daten ber das LAN transportiert werden erlaubt ein Speichernetzwerk den direkten Zugriff auf Blockebene auf die angeschlossenen Massenspei cher ber dedizierte Netzinfrastruktur un
384. lektronisches schwarzes Brett zur Diskussion von aktuellen Themen zum Austausch und zur Beschaffung von Informationen und zur Verteilung von Daten News ist nach verschiedenen Interessengebieten hierarchisch geordnet Dabei sind ber das LRZ z Z mehr als 32 000 Themenbereiche die so genannten Newsgruppen verf gbar Das LRZ verteilt au erdem ber eigene Gruppen lokale Informationen wie z B aktuelle LRZ Information in rz aktuell und bietet ein Forum zur Diskussion von Fragen aus dem LRZ Umfeld in rz questions In News k nnen die Beitr ge von allen Benutzern gelesen werden und in den meisten Gruppen auch ei gene Artikel oder Antworten ver ffentlicht werden posten Man stellt oft fest dass Probleme und deren L sungen anderer News Benutzer auch f r einen selbst von Interesse sind und es bestehen bei eigenen Problemen gute Aussichten dass einer der vielen Experten relativ schnell weiterhelfen kann News ist deshalb auf keinen Fall nur eine kurzweilige Unterhaltung f r Computer Begeisterte sondern eine ernst zu nehmende Informationsquelle Um News nutzen zu k nnen muss ein Teilnehmer ber einen Newsreader verf gen Ein solcher ist in den verbreiteten WW W Browsern integriert und damit auf allen Plattformen des LRZ vorhanden Das anonymous FTP File Transfer Protocol dient der Verteilung von Software oder auch von i a umfangreicherer Dokumentation Von jedem Rechner der ber die FTP Software ve
385. lexible Eventverarbeitung und eine einheitliche Admi nistrationsschnittstelle Desweiteren unterst tzt der Network Manager als einziges Produkt die VLANs im MWN sinnvoll Die VLAN Konfiguration auf den Interfaces der Ger te wird korrekt an gezeigt und es k nnen basierend auf der Layer 2 Topologie Sichten f r einzelne VLANs gebildet werden Die Entscheidung f r das Nachfolgeprodukt des HPOV NNM 6 4 ist aus den genannten Gr nden auf den IBM Tivoli Network Manager gefallen Die notwendigen Lizenzen f r den IBM Tivoli Network Manager k nnen ber den Landeslizenzvertrag von IBM mit Bayern beschafft werden F r eine erfolgreiche Einf hrung des Produkts im MWN wurde dar berhinaus ein initialer Installations und Customizing Support als notwendig erachtet da es am LRZ noch keinerlei Erfahrungen mit diesem Produkt gibt und die Komplexit t des Produkts bei der Einf hrung aufgrund der bereitgestellten Flexibili t t hoch ist WWW Server zum Netzmanagement Auf einem Web Server sind seit 2002 f r die Nutzer des M nchner Wissenschaftsnetzes aktuelle Infor mationen ber die Topologie und die Performance des MWN Backbone abrufbar Unter http wwwmwn Irz muenchen de werden Performance Daten zu den wichtigsten Elementen des MWN Backbone WiN Anbindung Demilitarisierte Zone DMZ des LRZ IPv6 Tunnel einige serielle An schl sse von weiter entfernten Standorten Modem und ISDN Zugang usw dargestellt Die Performance Daten werden dazu
386. liances vom Typ Adaptive Security Appliances ASA5540 der Firma Cisco Der VPN Concentrator 3030 dient in erster Linie f r die Anbindung von externen Instituten ber IPsec LAN to LAN Tunnel Die vier ASA Appliances sind zu einem VPN Cluster zusammengefasst Dieser VPN Cluster wird unter der Adresse ipsec Irz muenchen de angesprochen Die Nutzer werden beim Anmelden mit der am geringsten ausgela teten Appliance verbunden Der VPN Concentrator 3030 ist ber zwei 100 MBit s Anschl sse ffentlich und privat mit dem MWN verbunden Die vier ASA5540 sind jeweils mit 1GBit s angeschlossen Die verf gbare Bandbreite der verschl sselten Verbindungen 3DES AES betr gt 50MBit s beim VPN Concentrator 3030 und 350MBit s pro ASA5540 Authentifizierung Autorisierung der Nutzer sowie Ac counting werden ber das RADIUS Protokoll abgehandelt Berechtigte Nutzer k nnen die aktuellen Versionen der VPN Software vom Webserver des LRZ herunter laden F r Linux steht neben dem Cisco Client der Open Source VPN Client vpnc im Quellcode zur Verf gung der erfahrenen Nutzern erweiterte M glichkeiten bietet Dieser Client ist inzwischen in den Standarddistributionen wie z B SuSE Debian und Ubuntu enthalten und l uft auch auf Hardware die von dem Cisco Client nicht unterst tzt wird Entwicklung des Datenverkehrs ber die VPN Server Im Monat November dem Monat mit dem h chsten Datenaufkommen im Jahr waren es 12 7 TB einge hender Verkehr Nov 2
387. ll Abbildung 40 gibt einen schematischen Eindruck von den am Directory beteiligten Organisationen Rol len Client Systemen linke Bildh lfte die im Active Directory verwaltet werden Ebenso st tzen sich viele Anwendungen und Dienste rechte Bildh lfte auf die im Directory abgelegten Benutzer und Konfi gurationsdaten ae yg Laptop Tablet PC PDA Drucker Server SS BSD Pool Kursraum Mitarbeiter Labor Spezialsystem System Life Cycle Mgmt dezentrale Applikationen Systemadministration eu Rollen Rechte Richtlinien MS SCCM Exchange S Server Adressen E Mail Kal i der Aufgaben O ZS A Si wesse bi gt Identity Management D C e Student Mitarbeiter Gruppe Gast Projekt Gruppe Dateiablage Directory a CL e Home Projekt E NAS Filer Verzeichnis Verzeichnis Ablagebereiche TUM LMU BAdW MWN Inst Organisationen Applikationen Abbildung 40 Active Directory im MWN Mit diesem Active Directory k nnen alle Clients ab Windows 2000 verwaltet und Mac OS 10 Systeme integriert werden In einem Pilotprojekt mit der LMU Biologie Dept I wurde nach 2 Workshops f r die Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 127 Teil Administratoren mit der Anbindung des NAS Filers und der Integration eines MAC Pools ein wei terer erfolgreicher Proof of Concept durchgef
388. llte ein Passwort sp testens alle 90 Tage ge ndert werden Passwort nderungen sind aus schlie lich ber WWW m glich idportal Irz de die entsprechenden Systemkommandos wie passwd sind deaktiviert Hat ein Benutzer sein Passwort vergessen kann es nur vom Master User siehe Abschnitt 4 6 oder dem zust ndigen Betreuer am LRZ wieder aktiviert werden W nsche nach Aktivierung gesperrter Kennungen akzeptiert das LRZ nicht von dem betroffenen Endbe nutzer sondern nur vom zust ndigen Master User dessen offiziellem Vertreter oder einem zeichnungsbe rechtigten Mitglied des Instituts Sind diese jeweils dem Betreuer oder seinem Vertreter nicht pers nlich bekannt sind solche W nsche aus naheliegenden Sicherheitsgr nden schriftlich zu stellen 4 5 Datensicherung und Archivierung F r die langfristige Speicherung von Daten und Programmen steht den Benutzern permanenter Speicher platz im Gegensatz zu tempor rem oder pseudotempor rem Platz der regelm ig gel scht wird im Rahmen der ihnen einger umten Berechtigungen zur Verf gung Diese Berechtigungen werden am H chstleistungsrechner und dem Linux Compute Cluster pro Projekt an den anderen Unix Plattformen pro Benutzerkennung vom LRZ vergeben Das LRZ erstellt an allen zentralen Systemen regelm ig Sicherheitskopien der permanenten Dateien Backup Sie dienen als Vorkehrung f r den Fall von Platten oder Systemfehlern erlauben aber auch im Einzelfall die Wiederherstellu
389. llung von W hleingangsmodems und servern z B um mit einem VPN ins MWN zu kommen Bereitstellung zentraler Kommunikationssysteme z B Nameserver Mailrelay Bereitstellung von Rechenkapazit t Hochleistungssysteme Compute Server Bereitstellung eines zentralen Dateisystems mit dezentralen Zugriffsm glichkeiten z Z unter AFS Bereitstellung von M glichkeiten zur Datensicherung Backup File und Archiv Server Bereitstellung von Spezialger ten insbesondere f r die Visualisierung z B DIN A0 Plotter f r Postererstellung Video Schnittpl tze hochaufl sende Grafik einfache wie auch immersive 3D Grafik usw Auswahl Beschaffung und Verteilung von Software Campus und Landeslizenzen PC und Workstation Labor Pilotinstallationen von neuen Systemen und Konfigurationen Pilotierung neuer Organisationstrukturen der IT Infrastruktur z B Hosting und Remote Management von Rechnern Unterst tzung bei Planung Aufbau und Betrieb dezentraler Rechensysteme Verkauf Ausleihe Entsorgung von Material und Ger ten Koordinierung der DV Konzepte und Unterst tzung der Hochschulleitungen bei der DV Planung Diese Dienste werden wenn auch aus Gr nden der begrenzten Personalkapazit t nicht immer im w n schenswerten Umfang den Hochschulen angeboten und rege in Anspruch genommen Wo ist das LRZ formal angesiedelt Organisatorisch geh rt das Leibniz Rechenzentrum zur Bayerischen Akademie der Wissenschaften Es wird
390. ls bisherige ZBVW bezeichnet ist eine LRZ Eigenentwicklung die Ende der 1970er Jahre entstanden ist und nur wenige Male an neue Anforderungen angepasst wurde Die Qualit t des dahinter stehenden Konzepts und der Implementierung u ert sich in der f r das IT Umfeld extrem hohen Lebensdauer und der Anwendbarkeit auch auf modernste Rechnerplattformen Trotzdem haben sich mittlerweile viele neue Anforderungen ergeben die umfangreiche nderungen an der Benutzerverwaltung notwendig gemacht h tten Einige Beispiele e Die bisherige ZBVW ist nur zur Verwaltung der Kennungen f r Rechner Plattformen nicht aber f r die anderen Dienste des LRZ beispielsweise Mail und TSM Backup geeignet Diese Dienste setzen mittlerweile eigene Benutzerverwaltungen ein wodurch es technisch zu Redundanzen und Inkonsis tenzen kommt organisatorisch zu erh htem Aufwand durch die Mehrfachregistrierung der Benutzer sowohl auf Kunden als auch auf LRZ Seite 102 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Zum Datenaustausch mit externen Benutzerdatenbest nden beispielsweise denen der LMU und TUM fehlen LRZ seitig Standard Schnittstellen wie LDAP oder SQL wodurch auf beiden Seiten aufwendige Speziall sungen realisiert werden m ssen In der bisherigen ZBVW ist es erforderlich Benutzer bzw deren Organisationen oder Einrichtungen in ein starres hierarchisches Schema einzuordnen das f r den M nchner Raum im Jahr 1975 konzi piert
391. ls Missbrauch im Sinne der Benutzungsrichtlinien f r Informa tionsverarbeitungssysteme des Leibniz Rechenzentrum Das LRZ kann Teile des Netzes vom Gesamtnetz abtrennen wenn e die Betreuung eines Teilnetzes durch Netzverantwortliche nicht gew hrleistet ist e St rungen von diesem Teil des Netzes den Betrieb des Restnetzes gef hrden oder unzumutbar behindern e W hl Zug nge Funk LAN Zugangspunkte oder frei nutzbare Datensteckdosen ohne Zustim mung des LRZ betrieben werden e Erweiterungen ohne Abstimmung mit dem LRZ erfolgen Bei Beschwerden von Benutzern entscheidet die Kommission f r Informatik der Bayerischen Akademie der Wissenschaften soweit sie nicht vom Direktorium des LRZ geregelt werden k nnen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 283 Anhang 6 Richtlinien zur Nutzung des Archiv und Backupsystems 01 03 2008 Basisversion 1 6 F r die Nutzung des Archiv und Backupsystems ABS des Leibniz Rechenzentrums zur Datensiche rung Archivierung lt 10 Jahre und Langzeitarchivierung gt 10 Jahre von Daten gelten die folgenden Richtlinien 1 Allgemeine Bestimmungen Es gelten die Benutzungsrichtlinien f r Informationsverarbeitungssysteme _ http www Irz muenchen de wir regelwerk benutzungsrichtlinien des LRZ 2 Kosten Der Service ist bis auf weiteres f r den Benutzerkreis des LRZ der Aufgabengruppe 1 siehe http www Irz muenchen de wir regelwerk gebuehren kostenlos Das LRZ beh lt
392. ls an andere geeignete Rechner kleinere Anla gen oder Gro rechner anderer Architektur innerhalb eines deutschen H chstleistungsrechnerverbundes Er sichert die Einhaltung der Kriterien 3 4 und 5 aus 1 Die Betreuergruppe veranstaltet ggf in enger Zusammenarbeit mit dem Kompetenznetzwerk Kurse und Fortbildungsma nahmen um den Aufwand f r Einzelbetreuung zu minimieren Kriterium 6 aus 1 Diese Kurse k nnen auch als Pr sentation ber Internet zur Verf gung gestellt werden so dass eine zeit lich und rtlich entkoppelte Kursteilnahme m glich ist Die Betreuergruppe ist erster Ansprechpartner in allen Fragen der Benutzer die das installierte Rechen system die auf ihm installierte Anwendersoftware die Fehlerverfolgung und korrektur die Erstellung von Dokumentationen die rechnerspezifischen Programmoptimierungen sowie die Kooperationsm g lichkeiten zwischen Benutzern unterschiedlicher Fachbereiche Synergie betreffen In allen methodischen fachspezifischen und wissenschaftlichen Fragen vermittelt das LRZ die Benutzer an das Kompetenznetzwerk weiter Dieses ber t vertieft in methodischen und fachlichen Fragen des Hochleistungsrechnens sowie in Fragen der Programmanpassungen an die verschiedenen Rechnertypen die in Deutschland bzw in Europa zur Verf gung stehen Auf Hinweise aus der Betreuergruppe des LRZ leitet es Synergieeffekte zwischen Projekten ein Im Gegensatz zu der wissenschaftlichen Ausrichtung des Kompetenznetzw
393. m iger Informationsaustausch mit verschiedenen Hard und Software Herstellern statt Seit Sommer 2008 gehen die konkreten Pl ne ein in die im Fr hjar 2009 geplante Aus schreibung Bei den physischen Servern gibt es noch keine deutlich sichtbaren Tendenzen zur Migration auf virtuelle Instanzen Erste DELL Server alter Bauart PowerEdge 2450 2550 sowie vereinzelt OxygenRAID Server von AdvancedUnibyte wurden stillgelegt bzw abgebaut F r etwa Zweidrittel der Server Hardware existiert aus Gr nden der langen Betriebszeit kein Hersteller Support mehr Dies f rdert den Handlungsdruck zum Umstieg auf VMware ESX einhergehend mit der Vertrauensbildung der Dienst betreiber in die virtuelle Infrastruktur Erfreulicherweise gab es in 2008 noch keine gravierenden bzw vermeidbaren Dienstst rungen wegen Ausfalls veralteter Hardware 6 8 2 Virtualisierung am LRZ Das LRZ besitzt bereits seit Ende der 1990er Jahre Erfahrung mit Virtualisierung Erste Untersuchungen und Nutzung virtueller Infrastrukturen basierten bereits auf Software von VMware Von 2004 bis zu Be ginn 2008 wurde auch XEN als Produktionsplattform genutzt Mitte 2007 fiel die Entscheidung f r das Produkt VMware ESX das den ausgereiftesten Eindruck f r den Betrieb der unterschiedlichen LRZ Dienste auf Basis von Linux Solaris und Windows bot Nach ersten Testl ufen einer aus 3 ESX Knoten bestehenden Startkonfiguration genannt wurde sie ESX Cluster 0 und Schulungen f r
394. m Jahr 2007 erfolgreich durch gef hrte Training f r LabVIEW Anwender wurde im September 2008 erneut mit gro em Erfolg angebo ten Zus tzlich zu den fest installierten Arbeitspl tzen im gro en Kursraum konnten weitere Teilnehmer zugelassen werden indem der verf gbare Platz mit Laptops best ckt wurde Die folgenden Statistiken zeigen diese Veranstaltungen allerdings nicht da sie nicht im Rahmen des regul ren Kursprogramms angeboten wurden Kurse zu PCs und PC Software 2008 Dauer Anzahl Stunden Teilnehmer Teilnehmer Kurstitel Stunden Kurse insgesamt angemeldet teilgenommen Textverarbeitung mit Word 2007 Kompaktkurs 2 9 3 7 5 80 60 Textverarbeitung mit Word 2007 Umsteigerkurs 2 5 3 7 5 0 Word 2007 lange Dokumente wiss Arbeiten 3 2 6 70 60 MS Excel 2007 Kompaktkurs 2 5 3 7 5 90 75 MS Excel 2007 Umsteigerkurs 2 5 4 10 0 PowerPoint 2007 Kompaktkurs 3 2 6 80 65 PowerPoint 2007 Umsteigerkurs 3 1 3 0 Photoshop CS Einsteigerkurs 4 1 4 40 32 Access 2007 3 3 9 90 70 SPSS Spezialkurs 2 1 2 90 32 Insgesamt 15 42 540 394 Tabelle 7 Kurse zu PCs und PC Software Jahresbericht 2008 des Leibniz Rechenzentrums Teil II oi Unix Kurse und Praktika 2008 Dauer Anzahl Stunden Teilnehmer Teilnehmer Kurstit
395. m Verhindern bzw Aufdecken von Missbrauch bei Hierf r ist er insbesondere dazu berechtigt 276 Teil UL Anhang 3 a die Aktivit ten der Benutzer zu dokumentieren und auszuwerten soweit dies zu Zwecken der Ab rechnung der Ressourcenplanung der berwachung des Betriebes oder der Verfolgung von Feh lerf llen und Verst en gegen die Benutzungsrichtlinien sowie gesetzlichen Bestimmungen dient b bei Verdacht auf Verst e gegen die Benutzungsrichtlinien oder gegen strafrechtliche Bestim mungen unter Beachtung des Vieraugenprinzips und der Aufzeichnungspflicht in Benutzerdateien und Mailboxen Einsicht zu nehmen oder die Netzwerknutzung durch den Benutzer mittels z B Netzwerk Sniffer detailliert zu protokollieren c bei Erh rtung des Verdachts auf strafbare Handlungen beweissichernde Ma nahmen wie z B Key stroke Logging oder Netzwerk Sniffer einzusetzen 3 Der Systembetreiber ist zur Vertraulichkeit verpflichtet 4 Der Systembetreiber gibt die Ansprechpartner f r die Betreuung seiner Benutzer bekannt 5 Der Systembetreiber ist verpflichtet im Verkehr mit Rechnern und Netzen anderer Betreiber deren Benutzungs und Zugriffsrichtlinien einzuhalten 86 Haftung des Systembetreibers Haftungsausschluss 1 Der Systembetreiber bernimmt keine Garantie daf r dass die Systemfunktionen den speziellen An forderungen des Nutzers entsprechen oder dass das System fehlerfrei und ohne Unterbrechung l uft Der Systembetreiber kann
396. m nationalen und europ ischen HPC Konzept Gau Zentrum HPC Allianz PRACE PIK 1 08 31 Jahrgang 2008 Saur Verlag M nchen HEGERING H G LEHMANN A OHLBACH H J SCHEIDELER CH Informatik 2008 Beherrschbare Systeme dank Informatik Beitr ge der 38 Jahrestagung der Gesell schaft f r Informatik e V GI 08 13 September 2008 in M nchen Band 1 HEGERING H G LEHMANN A OHLBACH H J SCHEIDELER CH Informatik 2008 Beherrschbare Systeme dank Informatik Beitr ge der 38 Jahrestagung der Ge sellschaft f r Informatik e V GI 08 13 September 2008 in M nchen Band 2 HEGERING H G L PPLE A REISER H Kommunikationsstrukturen in einer per vasiven Lehr und Lernumgebung it Oldenbourg Verlag 2009 HOMMEL W KNITTL S An Inter Organizational Configuration Management Database as Key Enabler for Future IT Service Management Processes In Pro ceedings of eChallenges 2008 Stockholm Sweden Oktober 2008 HOMMEL W KNITTL S PLUTA D Strategy and Tools for Identity Management and Process Integration in the Munich Scientific Network In Proceedings of the 14th International Conference of European University Information Systems EU NIS 2008 2008 rhus Denmark Juni 2008 HOMMEL W KNITTL S An Access Control Solution For The Inter Organizational Use Of ITIL Federated Configuration Management Databases In Proceedings of the 2008 Workshop of HP Software University Association HP SUA Infonom
397. ma Exlibris ist dabei auf 4 Sun Solaris Rechner in einem hochverf gbaren Cluster installiert Als Datenbankmanage mentsystem kommt Oracle inclusive der Clusterkomponente zum Einsatz Eine Umstellung der Software Aleph 500 auf eine neuere Version hatte einen Upgrade des Betriebssys tems Solaris 8 auf Solaris 10 SunCluster 3 0 auf SunCluster 3 2 und Oracle 9i auf Oracle 10g zur Folge Mit externer Unterst tzung und erheblichem Planungsaufwand konnte die Ausfallzeit des zentralen Sys tems auf 2 Tage begrenzt werden 2 12 3 Migration der Datensicherung auf das LRZ Sicherungssystem TSM Um einen reibungslosen Betrieb zu gew hrleisten wurden die beiden Sicherungssysteme des BVB Rechenzentrums anfangs auch zum LRZ umgezogen Eine Ersatzbeschaffung dieser Altsysteme sowie der dauerhafte Weiterbetrieb waren nicht geplant Es war daher zwingend notwendig dass die Datensi cherung auf das LRZ System TSM migriert wird Das ist bis auf wenige Ausnahmen schon im Jahr 2008 erfolgt Es wird erwartet dass die restlichen Systeme im ersten Quartal 2009 auch ber TSM gesichert werden so dass die Altsysteme abgebaut werden k nnen 2 12 4 Einsatz von Virtualisierungstechniken Das LRZ weite Angebot virtuelle Server bereit zu stellen hat es erm glicht einige Migrations und Test systeme aufzubauen Die Abl sung einiger Altsysteme mithilfe virtualisierter Server ist geplant Durch die Kooperation des BVB mit dem kooperativen Bibliotheksverbund Berlin Bran
398. mals wieder Wasser in den Rechnerraum gef hrt da weitere Luftk hlung angesichts der Aufstelldichte und des Raumvolu mens gr ere Umbauten mit strikter Trennung von Kalt und Warmluftstr men bedingt h tte 8 2 2 Erweiterung des LRZ Rechnerw rfel und Institutsgeb ude Nachdem bereits Ende 2007 keine 2 Jahre nach Besiedelung des neuen LRZ das Wissenschafts ministerium ber drohende r umliche Engp sse sowohl im Rechnergeb ude als auch im Institutsgeb ude informiert worden war konnte im August ein Antrag auf Erweiterung des Neubaus gestellt werden Dem Antrag gem soll die Hauptnutzfl che der Rechnerr ume um mindestens 2 3 die Elektro und K hlka pazit t auf insgesamt etwa das F nffache wachsen Dies gilt als Voraussetzung f r die n chste Generation von Supercomputern und soll es gleichzeitig erm glichen deutsche Pl ne bez glich Supercomputing im 252 Teil I Organisatorische Ma nahmen im LRZ europ ischen Rahmen des Gauss Centre for Supercomputing GCS mit dem LRZ als Standort eines Pe taflop s Rechners zu verwirklichen Die Planungsphase steht unter hohem Zeitdruck da die Bau bergabe auf das 1 Quartal 2011 festgesetzt ist und eine fundierte Kostensch tzung in Form einer Haushaltsunterlage HU Bau bereits im Fr hjahr 2009 eingereicht werden muss Trotzdem soll insbesondere das Energiekonzept gr ndlich erarbeitet wer den einschlie lich der M glichkeiten eines eigenen Kraftwerks und K hlungsm glichkeite
399. mentwicklung und kleinere parallele Programme verwendet Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 147 9000000 8000000 7000000 6000000 5000000 4000000 3000000 2000000 1000000 0 DO parallel E seriell c CO c gt N w Bn oO QO 2005 2006 2007 2008 Abbildung 50 Abgegebene Rechenzeit des Linux Clusters 500 450 400 350 300 EI S 250 E Altix fo E 4way_itanium2 200 E 2way_itanium2 150 100 50 0 j e Qrtl1 Qrtl2 Arti3 Qrti4 Qrti3 Qrtl4 Or Om Arti3 Qrtl4 2006 2007 2008 Abbildung 51 Mittelwerte der Rechenleistung f r die IA64 Systeme im Linux Cluster Aufgrund von Problemen mit dem Linux Kernel waren in Q1 und Q2 2007 keine kontinuierlichen Performancemessun gen im IA64Cluster m glich 148 6 1 2 9 Nutzungsstatistiken f r das Linux Cluster Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Die nachfolgenden Tabellen zeigen die Nutzung des Linux Clusters nach Jobgr e und Institution Ir 2 3 4 bes 9 16 S2 EE o A 1432112 314 9411 10664 Es 5880 0 4 BEE BEE 1486 354 LR BA BA BA BA BA BA HL K K K K z Li sl N ER K N K k z G 6 z j z E 6 z e f z E E z E z S E z E E LMU g 2 e ked kd kd D Bed ei
400. mer gr ere Bedeutung da es in vielen Berei chen zur kosteng nstigen systematischen und teilweise oft schneller zum Ziel f hrenden Alternative gegen ber zeitraubenden teuren und oft umweltbelastenden Experimenten wird Selbstverst ndlich ist das LRZ auch eingebunden in Forschungs und Entwicklungsarbeiten auf dem Gebiet des Hochleistungs rechnens z B im Bereich des weiteren erheblichen Ausbaus effizienter Linux Cluster im Grid Computing durch Mitarbeit in Projekten und durch Kooperation mit anderen Hochleistungsrechenzentren in nationalem und internationalem Umfeld Im Jahr 2008 kann das LRZ auf weiterhin zunehmende Erfolge bei Forschungs und Entwicklungsprojek ten verweisen Im Bereich HPC und Grid Computing warb das LRZ sowohl im Rahmen der EU Projekte PRACE und im DEISA Nachfolgeprojekt DEISA2 wie auch bei den vom BMBF gef rderten Aktivit ten im Umfeld der deutschen Grid Initiative und im F rderprogramm HPC Software f r skalierbare Parallel rechner in den Projekten DGP DMON IVOM und ISAR erhebliche zus tzliche Drittmittelstellen ein Auch konnte sich das LRZ im BMBF Projekt 100GET E3 Optische Weitverkehrsnetze auf der Basis von 100Gigabit Ethernet erfolgreich durchsetzen Ferner wurden im Rahmen eines weiteren mit der Bayeri schen Staatsbibliothek durchgef hrten Projektes Ausbau des Bibliothekarischen Archivierungs und Jahresbericht 2008 des Leibniz Rechenzentrums Vorwort 9 Bereitstellungssystems BABS zu einem vert
401. mit der bundesweite Austausch von Daten der Nutzer m glichst unbehindert vonstatten gehen kann Wahrung aller Sicherheitsaspekte die mit dem Anschluss des HLRB ans Kommunikationsnetz zusammenh ngen und durch Ma nahmen im Kommunikationsnetz abgedeckt werden m ssen 3 Nutzerkreis Am HLRB grunds tzlich zul ssig sind Projekte aus 1 Forschung und Lehre an staatlichen deutschen Hochschulen 2 Forschung und Lehre anderer deutscher Institutionen die berwiegend von der ffentlichen Hand getragen werden 3 der deutschen Industrie im Rahmen der staatlichen Vorgaben sofern sie den in 1 festgelegten Betriebszielen entsprechen F r Nutzer aus den obigen Gruppen 1 und 2 ist die Nutzung des HLRB bis auf Widerruf unentgeltlich 4 Zulassungsverfahren Projektantr ge auf Nutzung des HLRB werden ber das LRZ gestellt Die Beantragung erfolgt in der Regel in elektronischer Form Ein Antrag muss folgende Angaben enthalten Projekttitel Angaben zur beantragenden Institution und deren Leitung Angaben zur Person des Projektverantwortlichen Der Projektverantwortliche ist f r die administrativen Aufgaben innerhalb des Projektes zust ndig z B Vergabe Verwaltung und berwachung der zugeteilten Nutzungskennzeichen und Ressourcen Telefonnummern und E Mail Anschriften aller Personen die im Rahmen des Projekts Zugang zum HLRB erhalten sollen gegebenenfalls Angaben zu Projektpartnern au erhalb der beantragenden Institutio
402. mmung und Koordination mit den anderen H chstleistungsrechenzentren in Deutschland Soweit Nutzungs und Betriebsaspekte des HLRB nicht in dieser Nutzungs und Betriebsordnung eigens geregelt sind beispielsweise f r den zugelassenen Benutzerkreis siehe 1 und 3 gelten die e Benutzungsrichtlinien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften und die e Betriebsregeln des Leibniz Rechenzentrums in der jeweils aktuellen Fassung Insbesondere gelten die 4 bis 8 der Benutzungsrichtlinien f r Infor mationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaf ten uneingeschr nkt 4 Pflichten des Benutzers 5 Aufgaben Rechte und Pflichten der Systembetreiber 6 Haftung des Systembetreibers Haftungsausschluss 7 Folgen einer missbr uchlichen oder gesetzteswidrigen Benutzung 8 Sonstige Regelungen F r die Nutzung der Einrichtungen des Kommunikationsnetzes am LRZ gelten sinngem die diesbez g lichen Regelungen in den e Richtlinien zum Betrieb des M nchner Hochschulnetzes MHN sowie die e Benutzungsordnung des DFN Vereins zum Betrieb des Wissenschaftsnetzes in der jeweils aktuellen Fassung Sofern Nutzer den HLRB gegen Entgelt nutzen siehe unten 1 und 3 sowie 2 und 4 der Benutzungs richtlinien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akade mie der Wissenschaften
403. mpus Weihenstephan TUM Zurnhausen SWH Maximilianeum HMTM MPG Biochemie MPG LMU LMU A LMU monn Konradstr Oettingenstr Arcisstr Chemie u Neurobiologie Pharmazie Stift FH LMU Gro hadern Preysingstr 83 Meiserstr 10 GES LMU LMU TUM Menzinger Str Klinikum Kaulbachstr 37 TUM r d lsar LMU H Biederstein Veterin rstr HS MPG Cer Philosophie TUM LMU BAdW Hofgartenstr Kaulbachstr 31 Schragenhofstr Alfons Goppel Str Zentnerstr 31 zu G LMU Maria Theresia Str TUM Lothstr 17 LMU Scheinerstr 1 LMU Herzzentrum Ziemssenstr Lazarettstr LMU LMU Oberschlei heim Moorversuchsgut LMU SWH Oberschlei heim Giselastr Kreittmayrstr D SWH f i FHM d SWH Sch feranger Ge Lothstr 34 a Nymphen Oberschlei heim udwigsir ge burger Str e TUM LMU ei swi Luisenstr SWH SWH TUM i TUM S gt E Lothstr 62 Arcisstr 31 an 4 Paulinum Barer Str 217 Pin d Mod E e Ze w gt lt o amp Ke k Barer Str 40 gt SWH SWH SWH LMU SWH SWH Hist Kolle SWH SWH SWH SWH Richard Wagner Gabelsbergerstr Chiemgaustr Theresienstr Jakob Balde KWK K b Ge aA Kaulbach Span Kolleg Adelheidstr He str Str 16 Haus Kaulbachstr 2g 209 str 25 Dachauer Str Wiss Studentenwohnheim 10 30 Mbit s Hochschule AO SEET g 2 Mbit s A A Einrichtung sonstige Einrichtung 10 Gbit s 1 Gbit s 100 Mbits 256Kbit s 16Mbit
404. mpus H bzw myTUM erlaubt e die Nutzung der ffentlich zug nglichen PCs im LRZ Geb ude gestattet sowie e den Zugang zum M nchner Wissenschaftsnetz MWN und zum Internet erm glicht Letzteres bedeutet dass sich Studenten mit dieser Kennung von zu Hause ins MWN Internet einw hlen sowie ihre mobilen Rechner Laptops ber Datensteckdosen oder FunkLANs in ihrer Hochschule an schlie en k nnen Die hierf r notwendige Infrastruktur Einwahl Server RADIUS Server VPN Server Mail Server sowie Directory Server wird durch das LRZ betrieben LMU Studenten die die LRZ PCs nutzen wollen m ssen ihre Kennung explizit daf r freischalten via Web Formular F r TU Studenten ist das nicht notwendig Studenten anderer M nchner Hochschulen mit Ausnahme der Hochschule M nchen k nnen Kennungen mit entsprechenden Berechtigungen ber das LRZ Benutzersekretariat erhalten Die Kennungen von Studenten der Ludwig Maximilians Universit t und der Technischen Universit t werden von der jeweiligen Hochschule verwaltet und bleiben daher automatisch bis zur Exmatrikulation g ltig Mit einigen weiteren Hochschulen z B Katholische Stiftungsfachhochschule und Akademie der Bildenden K nste hat das LRZ ein vereinfachtes Verfahren zur Verl ngerung der Kennungen vereinbart Bei Studenten dieser Hochschulen werden die LRZ Studentenkennungen automatisch verl ngert wenn die R ckmeldung an der jeweiligen Hochschule erfolgt Bei Studenten anderer Hochschulen
405. ms f r einen aktuellen Stand zu sorgen der zur eingesetzten Archiv und Backupsoftware kompatibel ist F r die Inhalte der gespeicherten Daten ist alleinig der Kunde verantwortlich Der Kunde ver pflichtet sich sensible Daten z B personenbezogene Daten nicht unverschl sselt zu speichern bzw zu archivieren Die sinnvolle Auswahl der Dateien und Dateisysteme die gesichert werden sollen wird allein vom Kunden vorgenommen Der Kunde l scht oder veranlasst die L schung von Daten und Nodes die nicht mehr ben tigt werden Werden die Daten verschl sselt liegt die Verwahrung und Verwaltung des Schl ssels alleinig beim Kunden Bei Verlust des Schl ssels ist eine Dechiffrierung nicht mehr m glich Bei der Anmeldung eines Nodes wird eine Absch tzung der zu erwartenden Datenmenge ver langt Gr ere sp tere nderungen im zu speichernden Datenumfang m ssen via E Mail abs admin AT lrz muenchen de rechtzeitig mitgeteilt werden Ein Wechsel des Node Inhabers bzw nderungen bei den zus tzlichen Ansprechpartnern sind dem LRZ fr hzeitig vor Verwaisung des Nodes mitzuteilen abs admin_AT_Irz muenchen de Anderenfalls kann dies zu Unregelm igkeiten im Betrieb des Nodes f hren da z B das Zur ck setzen des Passwortes aus Datenschutzgr nden nur durch die eingetragenen Node Inhaber veran lasst werden kann Punkt 8 Der Kunde ist f r den ordnungsgem en Betrieb seines TSM Clients selbst verantwortlich Das LRZ
406. n Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 301 e Beschreibung des Projektes o Einordnung des Anwendungsgebietes Biologie Chemie Fluiddynamik Physik etc o Kurzbeschreibung des Projektes ca 300 Worte Die Kurzbeschreibung des Projektes sollte in der Regel in Englisch erfolgen da diese zur Darstellung der Arbeiten am HLRB ver ffentlicht werden soll o ausf hrliche Beschreibung des Projektes Stand der Technik verwendete Verfahren Re ferenzen ber bisherige Arbeiten etc o Dauer des Projekts e Angaben zu den ben tigten Ressourcen o Rechenzeit des Gesamtprojektes Parallele Laufzeit Anzahl Prozessoren o Plattenplatz f r das Gesamtprojekt permanent und tempor r o Ressourcenbedarf eines typischen Einzellaufes und des Bedarfs bei Interaktiv Nutzung maximale Anzahl der Prozessoren Hautspeicher Rechenzeit Plattenplatz etc o Angaben zum ben tigten Archivbedarf Gr e H ufigkeit des Zugriffs auf das Archiv etc o Angaben ber die zu verwendende Software Compiler Bibliotheken Tools etc o Angaben zu speziellen Anforderungen Blockbetrieb zeitkritische Durchf hrung von Projekten Bedarf an Visualisierungskapazit t etc o Angaben zum Umfang und zur H ufigkeit des Datentransfers zwischen Endbenutzer und LRZ e IP Adressen der Endger te keine Subnetze von denen aus der Zugriff auf den HLRB erfolgen soll e Angaben zur Nutzung anderer Supercomputer f r das beantragte Projekt e Zus
407. n ber Brun nenwasser Denn der Strompreis des k nftigen Rechners wird ber 5 Jahre gerechnet in etwa die Investi tionskosten des n chsten Supercomputers erreichen so dass Effizienzfragen in Energieversorgung und K hlung u a in Gestalt der sog Power Usage Efficiency h chsten Stellenwert bekommen Strom preisvergleiche im europ ischen Rahmen zeigen dass deutsche Strompreise hier einen negativen Stand ortfaktor bedeuten Mit der Erweiterung der Rechnerr ume geht die Schaffung von mehr B roraum einher da die rasch wachsende Zahl von Projektstellen vor allem im Bereich von EU Projekten die B roreserven schon jetzt restlos aufgezehrt hat und weitere Mitarbeiter f r den Betrieb und die Betreuung der Nutzer des Europ ischen Supercomputers in gr erer Anzahl erforderlich sind 8 3 Dienstleistungskatalog In den letzten Jahren haben oftmals andere Hochschulen und wissenschaftsnahe Institutionen Fachhoch schulen Bibliotheken Max Planck Institute Studentenwerk usw das LRZ gebeten IT Dienste f r sie zu betreiben und zu betreuen IT Outsourcing Bis auf die Ausnahme der Mitnutzung des M nchner Wissenschaftsnetzes wurde dies immer wieder im Rahmen von Einzelfallentscheidungen gel st Mit dem Umzug des LRZ in den Neubau in Garching sowie auf Grund der durch den Ministerrat beschlossenen Konsolidierung der Rechen und IT Betriebszentren im Bereich der Verwaltung und damit entsprechen der Rezentralisierungsma nahmen in de
408. n 155 6 42 BMBF Verbundprojekt ISAR nennen 156 6 4 3 IKONWIHRU essen 157 6 44 MAC Projekt Efficient parallel strategies in computational modelling of E EE 157 6 5 Aktivit ten f r ein nationales und europ isches HPC Konzept 158 6 5 1 Gauss Centre for Bupercomputmng 158 6 9 2 a ETS dese Gerbe See erden 160 6 5 3 PRACE Partnership for Advanced Computing in Europe 160 6 6 Aktivit ten im Bereich Verteilte Systeme Gd 162 6 6 1 D Grid F rderung e Science und vernetztes Wissensmanagement des E EE 163 6 6 2 DEISA aan ar S TA EE A EE EI eer 164 6 6 3 Tier 2 Zentrum des Large Hadron Collider Computing Grid LCG 169 6 6 4 Sonstige OGrd Akt vt ten es sesesstessestessessesresressessssseessesesee 170 6 7 Entwicklungen im Bereich der Datenbalung nn 171 Ee M e EE EE 171 6 7 2 Archiv und Backunpswvstem 171 6 7 3 Langzeitarchivierung eesseessnessneesneesnensnesnennennsennsennneenneennennnennnennennnenenen 178 GTA A Me e ET 181 6 8 T tigkeiten im Server Betrieb COSL 187 E ER E EE EE 187 6 8 2 Virtualisierung am LR 187 6 8 3 PCs unter Linux als Mitarbeiter Arbeitspl tze unensenseenseeneneenneenneeenn nennen 188 6 8 4 Bemebes berwachung ons ennneennennennennnnnnn 189 Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes ccorsssosssonuesnoene 193 cht Netgen Eeer eier 193 7 1 1 B ckbone Net2 2 2 Reine NE Rn eis His 194 7 1525 Geb ude Netzes ta nenian a A O
409. n AT Irz muenchen de rechtzeitig mitgeteilt werden Bei berm iger Abweichung vom angegebenen Datenvo lumen beh lt sich das Leibniz Rechenzentrum vor regulierende Schritte einzuleiten Es liegt in der Verantwortung des Kunden in Absprache mit dem LRZ die Gr e des Datenbestands in nerhalb eines Nodes auf ein sinnvolles Ma zu beschr nken Nodes mit sehr gro em Datenumfang bzw mit sehr starkem Datenwachstum m ssen u U aufgeteilt werden Die sinnvolle Auswahl der Dateien und Dateisysteme die gesichert werden sollen wird allein vom Kun den vorgenommen 13 Laufzeiten nderungen und K ndigung Die Dauer der vom LRZ angebotenen Backup und Archivierungs Dienste ist befristet Wenn nicht an ders vereinbart gelten die bei der Einrichtung eines Nodes g ltigen Archivierungszeitr ume Etwaige nderungsw nsche z B andere Archivierungszeiten erweiterte Funktionalit t usw des Kun den sind dem Leibniz Rechenzentrum fr hzeitig anzuk ndigen nderungen bed rfen der Textform Die Inanspruchnahme eines Dienstes kann vom Kunden vorfristig gek ndigt werden Alle gespeicherten Daten werden in diesem Fall gel scht 14 Pflichten und Obliegenheiten des Kunden Die aufgez hlten Punkte wurden bereits weiter oben detailliert beschrieben und sind hier noch einmal zusammengefasst Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 287 Es liegt in der Verantwortung des Kunden durch regelm ige Updates seines Syste
410. n Accounting am WiN Zugang im engeren Sinne wird nicht durchgef hrt da die Finanzierung der WiN Anbindung nicht volumenabh ngig ist Dennoch ist es wichtig einen berblick ber die Verkehrs str me sowohl am WiN bergang als auch innerhalb des MWN zu haben nicht zuletzt im Hinblick auf eine Fehleranalyse Alle MWN Backbone Router exportieren dazu Netflow Daten die zentral von einem Netflow Kollektor gesammelt werden Der Kollektor geh rt zu dem Open Source Paket NFDUMP F r die Analyse der Daten wird NfSen verwendet ebenfalls ein Open Source Paket das auf NFDUMP auf setzt Zur Kommunikation steht eine Web Schnittstelle zur Verf gung Die Abbildung 105 zeigt einge hende und ausgehende Daten bertragungsrate des WiN bergangs und des Backups ber M net Zudem werden anhand einer Kopie des WiN Verkehrs die Top Verursacher des Ingress und Outgress Datenvolumens herausgefiltert Dies geschieht in unterschiedlichen Zeitintervallen und sowohl f r Sub netze als auch f r einzelne Rechner Das Ergebnis ist ber eine Web Schnittstelle zug nglich Diese Da ten dienen sowohl dem Netz Management als auch dem Monitoring Wed Feb 25 04 20 00 2009 Bits s any protocol e e Bits s any protocol e o i o o Do Fr Sa So Mo Di Mi E in bgp E in static E in mnet O out bgp E out mnet Abbildung 105 Eingehende und ausgehende Daten bertragungsrate ins Internet f r eine Woche Tabelle 37 zeigt die aktivsten Subnetze am WiN Zugang
411. n Betrieb als kalte Br cke ohne Heizanspruch fast vollst ndig einged mmt werden LRZ Nachr stw nsche hinsichtlich Halld mpfungsma nahmen in Foyer und Besprechungsr umen die u a bei Videokonferenzen stark st ren konnten z T wegen der vorgeschriebenen aufw ndigen Aus schreibungsverfahren mit Null R cklauf noch nicht erf llt werden Das Vorhaben f r verbesserte Blend schutzma nahmen im EG zu sorgen war erst teilweise erfolgreich Der dringende Wunsch nach einer stra enbegleitenden Br cke Richtung provisorischer Parkplatz oder zumindest einer vertretbar guten Beleuchtung des fraglichen Stra enabschnitts sind weiterhin erst in Um setzung Erstere scheiterte vorl ufig an der Biber Besiedelung des zu querenden Bachabschnitts die nur ein kurzes Zeitfenster pro Jahr zu Vergr mung gestattet letztere an verteilten Zust ndigkeiten f r Stra Benbeleuchtungsfragen auf dem Campus 8 2 1 Erweiterung der Anschlussleistung im Rechnergeb ude kleine Bauma nahme Als wichtiger Beitrag zur auch politisch gew nschten Konsolidierung verteilter Hochschul Serverlandschaften konnte innerhalb des Jahres 2008 kurzfristig eine Verdoppelung der Anschlussleis tung Elektro plus K hlung f r den Netz und Serverraum NSR des LRZ geplant und umgesetzt wer den Dies war notwendig geworden obwohl die Betriebskapazit t des NSR bereits w hrend der Bauzeit 2004 einmal auf 400 kW fast verdoppelt worden war Als K hlmedium wurde erst
412. n Hochschulen selbst ist dieser Wunsch immer mehr gewachsen und l sst sich mittlerweile nicht mehr nur durch Einzelfallentscheidungen l sen Deshalb arbeitet das LRZ in Absprache mit seinem zust ndigen Ministerium Bayerisches Staatsministe rium f r Wissenschaft Forschung und Kunst an der Erstellung eines Dienstleistungskataloges der im ersten Schritt nur diejenigen Dienste enth lt die bisher f r andere Institutionen schon betrieben bzw von anderen Institutionen aktiv nachgefragt wurden Teil dieses Dienstkatalogs ist auch eine aktualisierte Klasseneinteilung m glicher Nutzer Kunden Anhand dieser Einteilung werden die Antragsteller klassifi ziert und die f r die Dienstleistung anzusetzenden Kosten berechnet Dieser Entscheidungsprozess ber die Einteilung ist noch nicht vollst ndig abgeschlossen er erfolgt in enger Abstimmung mit der Bayeri schen Akademie der Wissenschaften und unserem Ministerium Der Dienstleistungskatalog spiegelt im Augenblick nur den Teil der Dienstleistungen wider der zuk nftig anderen Institutionen aus dem wissenschaftsnahen Umfeld angeboten werden soll und dessen Nutzung f r eine gewisse Klasse von Institutionen dann auch mit Kosten verbunden ist Er umfasst Dienstleis tungen aus den Bereichen Kommunikationsnetze z B Betreuung von Netzen Betreuung virtueller Fire walls usw Rechner und Speicher z B Housing und Hosting von Rechnern und Rechner Clustern Da tensicherung und Archivierung von Daten A
413. n Infrastruktur f r die Langzeitarchivierung von Netzpublikationen Der ge Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 179 samte Workflow beginnend bei der Digitalisierung Ingest ber das Daten Management und die Archi vierung bis hin zum Retrieval Access ist in Abbildung 72 dargestellt Im Kontext des Projektes wird unter Vertrauensw rdigkeit engl trustworthiness die Eigenschaft eines Systems verstanden exakt gem seiner Ziele und Spezifikationen zu funktionieren Digitale Langzeit archive haben den Erhalt von Informationen zum Ziel die durch digitale Objekte repr sentiert werden Es m ssen also organisatorische und technische Ma nahmen ergriffen werden um Integrit t Authentizit t und Vertraulichkeit sowie Verf gbarkeit und Nutzbarkeit der digitalen Objekte zu gew hrleisten auch bei wachsenden Datenmengen Eine Grundlage an der sich das BABS2 Projekt orientiert liefert der Kriterienkatalog vertrauensw rdige digitale Langzeitarchive der von der nestor Arbeitsgruppe Ver trauensw rdige Archive Zertifizierung entwickelt wurde Es hat sich zudem gezeigt dass die Zuw chse an digitalen Daten die der Langzeitarchivierung zugef hrt werden schwer absch tzbar sind Dies zeigt sich beispielsweise bei den digitalen Sammlungen der BSB wo gro e Steigerungen zu verzeichnen sind und Prognosen immer wieder nach oben korrigiert werden mussten Die Frage der Skalierbarkeit eines digitalen Langzeitarchivs wurde
414. n Kurse ber Systemsicherheit veranstaltet und Informationen auf der Webseite www Irz de services security zusam mengestellt Die mit gro em Abstand wichtigste Ma nahme des einzelnen Benutzers zur Erh hung der Sicherheit und zwar nicht nur seiner eigenen sondern auch der seiner Kollegen im Wissenschaftsnetz ist ein wirk samer Virenschutz Schon seit mehreren Jahren besitzt das Leibniz Rechenzentrum f r die Anti Viren Software Sophos eine Landeslizenz f r die bayerischen Hochschulen die es u a erlaubt das Produkt im M nchner Hochschul bereich weiterzugeben so dass es dort von den Endbenutzern kostenlos eingesetzt werden kann Zu diesem Zweck betreibt das LRZ einen zentralen Server ber den sich die Endbenutzer sowohl die Antivirensoftware wie die Updates herunterladen k nnen Dieser Server bietet die Updates ber HTTP an Auf dem Server ist die Sophos Enterprise Library installiert welche einmal pro Stunde die Anti Viren Software vom Hersteller aktualisiert und dann den Endbenutzern bereitstellt Der auf den Rechnern der Endbenutzer installierte Sophos Client kann die Updates ber diesen Server herunterladen und so den lokal installierten Sophos Client auf dem neusten Stand halten F r gr ere Umgebungen gibt es die M glichkeit einen eigenen Server zu betreiben und ber diesen dann die Client systeme dieser Umgebung mit der aktuellen Anti Viren Software zu versorgen Zu diesem Zweck muss die Sophos Enterpr
415. n Netzverantwortlichen im Institut mit dem Arealbetreuer am LRZ erfol gen siehe hierzu www rz de services netz arealbetreuer 2 1 2 3 2 Systemberatung Die verschiedenen Systemgruppen am LRZ unterst tzen Hochschulinstitutionen bei der Anbindung an und Nutzung von zentralen Infrastrukturdiensten sowie ggfs beim Aufbau eigener dezentraler Versor Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 17 gungsstrukturen Termine dazu k nnen wie oben vereinbart werden Solche Beratungsleistungen sind Hilfe zur Selbsthilfe und betreffen zum Beispiel folgende Bereiche e Auswahl von Rechnern Speichertechnologien und Betriebssystemen diese Beratung betrifft sowohl die technische Auswahl die Marktsituation und Preisstruktur wie auch die formalen Bedingungen von Beschaffungen Beantragungsverfahren ber das HBFG die rechtlich vorgeschriebenen Ausschreibungsmodalit ten nach VOL A Vertrags und Abnahmebedingungen nach BVB EVB IT usw e Entsorgung von Altger ten e Auswahl und Konfiguration lokaler Netze vor allem bei der Erstellung von Clustern z B Linux Clustern oder PC Services unter Microsoft Betriebssystemen e M glichkeiten der Datensicherung z B mittels der vom LRZ angebotenen automatischen Datensicherheitsdienste ber TSM e Sicherheitsfragen wie z B Systemsicherheit Firewalls Verhinderung von Sicherheitsl cken im Mail Bereich Virenkontrolle usw e Nutzung von Public Domain Software e M glichkeiten die
416. n Produktivbetrieb berf hrte automatische Dateneinspeisung in das MWN weite Microsoft Active Directory wurde bez glich der f r den Betrieb von Microsoft Exchange ben tigten Daten und bez glich gruppenbasierter Autorisierungsprozesse verbessert Dadurch konnten insbesondere auch die Lizenzbedingungen f r die Nutzung der Terminalserver Farm der TUM Physik mit sehr geringem Aufwand umgesetzt werden e Der Betrieb des von TP LDAP eingerichteten Trouble Ticket Systems OTRS wurde an die TUM bergeben Davon unabh ngig wurden durch studentische Arbeiten unterst tzt Weiterent wicklungen der OTRS Plattform durchgef hrt die zus tzliche IT Service Management Prozesse integrieren sollen Dies umfasst einerseits die Modellierung von Service Level Agreements die zur automatischen Priorisierung eingehender Incident Meldungen verwendet werden und ande rerseits den Einsatz von OTRS als Configuration Management Database CMDB die aktuell mit der TUM Physik bez glich der Speicherung von Daten ber Netzkomponenten Standorte und Ports von Switches etc pilotiert wird e Das Datenmodell f r die Speicherung von Personendaten und Autorisierungsgruppen wurde er neut verfeinert Dieser Schritt wurde prim r durch die Einf hrung von TUMonline als neuem Campus Management System motiviert das die Systeme HIS SOS und SAP HR als Datenquellen f r das Meta Directory 2009 vollst ndig abl sen soll Dar ber hinaus konnte die Gelegenheit ge nutzt we
417. n an Netz komponenten bitten wir die LRZ Hotline Tel 49 89 35831 8800 zu informieren Allerdings besteht kein 24 Stunden Dienst zur Behebung von St rungen die Fehlerbehebung beginnt zum fr hest m gli chen Zeitpunkt sp testens zum regul ren Arbeitsbeginn Ansonsten informiert das LRZ ber bekannte Betriebsunterbrechungen und St rungen ber Alls Aktuelle LRZ Informationen http www Irz de aktuell 54 Teil I Das Dienstleistungsangebot des LRZ 2 10 2 Serversysteme und deren Funktionen Im Folgenden werden die verschiedenen Server Funktionen aufgef hrt die zum reibungslosen Ablauf des gesamten Rechnerkomplexes des LRZ und f r die vielf ltigen Dienste notwendig sind wie sie in den voranstehenden Abschnitten beschrieben worden sind Nicht aufgef hrt sind die oben schon ausf hrlich behandelten Compute Server und Kurs und Pool PCs sowie alle Speichersysteme Eine Reihe der hier genannten Server sieht der Endbenutzer nie sie sind jedoch f r eine gro e verteilte Rechnerumgebung wie die der M nchner Hochschulen unerl sslich Die unter diese Kategorie fallenden Rechner bieten jeweils klar definierte Funktionen an die die Benutzer oder andere Rechner abrufen k n nen Einzelne Benutzer haben auf ihnen keine Rechte eigene Auftr ge zu starten oder eigene Dateien abzulegen es sei denn indirekt durch den Aufruf einer der definierten Funktionen Rechner bergreifende Konzepte verteilte Dateisysteme Die Herstellung eine
418. n den vorheri gen Jahren ausf hrlich beschrieben sodass hier nur die Erweiterungen die im Jahre 2008 vorgenommen worden sind aufgef hrt werden Der ber Geant2 realisierte europ ische Verbund von 30 nationalen Forschungsnetzen NRENSs stellt Netzdienste im paneurop ischen Ma stab zur Verf gung Ein Beispiel f r einen solchen Dienst sind Op tical Private Networks OPNs die beispielsweise im Umfeld des LHC Grid verwendet werden um das CERN Tier 0 mit den Tierl und Tier2 Zentren zu verbinden Die Dienste werden in einer multinatio nalen Kooperation unabh ngiger nationaler Forschungsnetzen NRENs und DANTE erbracht 230 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes F r die berwachung der Dienst Qualit t ist ein Grenz Dom nen und Provider bergreifendes Perfor mance Monitoringsystem unabdingbar Eine solche f derierte Multi Domain Monitoring Architektur wurde im Rahmen des ON Projektes JRA1 mit perfSONAR konzipiert und realisiert und wird im euro p ischen Ma stab produktiv eingesetzt Im folgenden Abschnitt werden die wichtigsten von perfSONAR unterst tzten Metriken und Messverfahren vorgestellt Im CNM f r perfSONAR wird zurzeit die Topologie von 12 nationalen Forschungsnetzen SWITCH GARR ESnet GRnet SURFnet PSNC UNINETT ISTF SEEREN Hungarnet FCCN and CESNET und des Ge amp ant2 Netzes angezeigt Diese Topologiedarstellung beinhaltet ebenfalls die Nutzungsinforma tionen von
419. n der Dachauerstra e 100 Mbit s Laserlink 100 Mbit s Richtfunk zur Studenten stadt von dort per LWL zu MPI 100 Mbit s Laserlink mit integriertem 2 Mbit Funk Backup 100 Mbit Laserlink mit integriertem 2 Mbit Funk Backup 100 Mbit Laserlink zu TU Feuerwehr 100 Mbit Laserlink zu TU Heizkraftwerk LWL zu TU Heizkraftwerk SpeedVDSL Intern mit Funk vernetzt Internet Anbindung ber 2 T DSL Anschl sse LWL ber Weihenstephan IV LWL zu FH Heizhaus LWL zur Telefonzentrale LWL zu alter DVS Funk zur FH Schachenmeierstra e SDSL M net Funk zu KH Rechts der Isar Funk zu Monumenta Auch intern Funk AP Funk zu TUM Uhrenturm M net 4 6 Mbit s SDSL Funk zu Richard Wagner Str 18 LWL zu Richard Wagner Str 18 Funk zu TU Feuerwehr Funk 802 11a zur HM Telekom LWL zu TUM M net SDSL M net SDSL LWL zu Campus Gro hadern Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 205 Priesterseminar St Johannes N Georgenstra e 14 Katholisches Ordinariat 73 Funk zu Georgenstra e 11 der T ufer Magdalena Lindt Heim Kaulbachstr 25 Ev Waisenhausverein 93 LWL zu Staatsbibliothek Marie Antonie Haus Kaulbachstr 49 Studentenwerk 94 LWL zu Ludwigstr 28 Freisinger Landstra e 47 Student Living Center Garching Fa Melampus 78 LWL zu TUM Heizhaus Tabelle 34 Angeschlossene Studentenwohnheime 7 2 Dienste 7 2 1 W hlzugangsserver Die Nutzung des Modem ISDN Zugangs ging weiter zur ck Di
420. n der Rech nerlandschaft angepasst und ist wie folgt aufgebaut DAR Raum Im Wesentlichen besteht das Netz in diesem Raum aus drei Switches die auf Grund der hohen Bandbreite die das Backup und Archiv System ben tigt mit jeweils 10 Gbit s an den zentralen Routern im NSR Raum angeschlossen sind Die Backup Server sind an diesen Switches mit jeweils 1 oder 2 Gbit s Trunk angeschlossen 196 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Switches der Firma Hewlett Packard Gesamtanzahl verf gbare TP Ports verf gbare Glasfaser ports 10GE Switches 10 100 1000 als CX4 100 1000 10GE Modulare Switches HP5406zI HP5412zI HP5304 xl HP5308 xl HP4204vI HP4208vI HP4104 gl HP4108 gl HP4000 Gesamt Stackables HP6410 HP3448 HP2900 24G HP2900 48G HP2810 24G HP2810 48G HP2824 HP2848 HP2650 HP2626 HP6108 HP2600 8pwr HP2610 24pwr HP2610 24 12pwr HP2610 24 HP2610 48 HP2524 HP2510 Gesamt HP gesamt Tabelle 31 Switchtypen NSR Raum Die Netzstruktur in diesem Raum besteht aus zwei Ebenen Die erste Ebene bilden zwei Router ber die die LRZ Geb ude mit dem MWN Backbone verbunden sind und zwei Core Switches die mit jeweils 10 Gbit s an den Routern angeschlossen sind Hinter den Core Switches befinden sich ca 75 Edge Switches die in die einzelnen Server Racks eingebaut s
421. n insgesamt vier Zugriffe registriert Die folgende Tabelle zeigt die durchschnittliche Zahl der Zugriffe und den durchschnittlichen Umfang der ausgelieferten Daten pro Monat die Daten sind nach den vom LRZ betreuten Bereichen aufgeschl s selt Die Zahlen f r das LRZ enthalten auch die Zugriffe auf viele pers nliche WWW Seiten von Hoch schulangeh rigen Zus tzlich wird die Zahl der Seitenaufrufe das ist die angeforderte Zahl der echten Dokumente genannt Als echte Dokumente gelten dabei Textdokumente also keine Bilder oder CGI Skripte Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 121 g Seiten Daten Zugriffe Server in Mi aufrufe umfang in Mio in GByte Leibniz Rechenzentrum 12 68 2 60 539 5 Ludwig Maximilians Universit t M nchen 5 88 0 86 157 1 Technische Universit t M nchen 9 91 1 12 325 4 Einrichtungen im M nchner Hochschulnetz 3 67 0 88 52 2 Einrichtungen im M nchner Wissenschaftsnetz 1 98 0 11 59 5 Bayerische Akademie der Wissenschaften 0 75 0 18 65 3 Sonstige 5 13 0 31 66 8 Gesamt 40 00 6 04 1265 8 Tabelle 20 Monatliche Zugriffe auf die WWW Server am LRZ 5 5 5 2 Anzahl virtueller WWW Server Ende 2008 unterhielt das LRZ 16 virtuelle WWW Server f r eigene Zwecke F r Hochschulen und hoch schulnahe Einrichtungen wurden insgesamt 423 Vorjahr 426 virtuelle WWW Server betrieben Einrichtung Webserver 2008 Webserver 2007 Leibniz Rechenzentrum 16 16
422. n k nnen mit einer aggregierten Bandbreite von 40 Gigabyte s gelesen oder geschrieben werden 4 F r die Benutzerverzeichnisse mit Programmquellen Konfigurationsdateien usw stehen weitere 60 TeraByte an extrem ausfallsicher ausgelegtem Plattenplatz zur Verf gung auf den ein Zugriff auch von au erhalb des Systems m glich ist Dieser Plattenbereich zeichnet sich durch hohe Transaktions raten aus so dass die effiziente Verarbeitung einer Vielzahl von kleinen Dateien gew hrleistet ist Die folgende Tabelle gibt eine bersicht ber die wesentlichen Leistungszahlen des neuen Systems im Vergleich zum Vorg nger HLRB II HLRB II HLRB I SGI Altix 4700 SGI Altix 4700 Hitachi SR8000 F1 Phase 2 Phase 1 2000 2006 seit April 2007 bis M rz 2007 Prozessorkerne 9728 4096 1344 Spitzenleistung 62 2 TeraFlop s 26 2 TeraFlop s 2 0 TeraFlop s Hauptspeicher 39 TeraByte 17 2 TeraByte 1 3 TeraByte Speicherband 34 8 TeraByte s 34 8 TeraByte s 5 4 TeraByte s breite Plattenplatz 660 TeraByte 340 TeraByte 10 TeraByte Latenz der inter 1 6 Mikrosekunden 1 6 Mikrosekunden 14 Mikrosekunden nen Verbindung Tabelle 1 Kennzahlen des H chstleistungsrechners in Bayern Die durch Benchmark Programme definierte Anwendungsleistung des Systems wurde mit Installation von Phase 2 von 8 auf 16 TeraFlop s erh ht 25 sorgen f r den cache koh renten Zugriff aller Prozessoren auf diesen gemeinsamen Hauptspeicher Je
423. n kann ein Abbild des Bildschirms des Lehrenden auf die Bildschirme der Sch ler zu bertragen und dar ber hinaus eine individuelle und effiziente Schulung der Teilnehmer zu erm glichen Diese Kursr ume stehen auch Instituten f r eigene Veranstaltungen zur Verf gung e In einem weiteren PC Kursraum mit 8 Arbeitspl tzen k nnen Praktika veranstaltet werden bei denen auf den Rechnern jeweils eine spezifische Praktikumsumgebung erforderlich ist oder bei denen die Praktikumsteilnehmer einen vollen Administratorzugang ben tigen Als Folge m s sen die Rechner vor jedem Kurs komplett neu installiert werden Im Augenblick wird der Kurs raum berwiegend f r UNIX Administrator Kurse am Beispiel von Linux und andere Spezial veranstaltungen genutzt b Das LRZ betreibt ffentlich zug ngliche PC Pools mit insgesamt ca 28 Ger ten sowie einige Spezialarbeitspl tze auf PC Basis wie CAD Station CD Brenner Papier Scanner Video Schnittsystem siehe auch Abschnitt 2 9 5 Diese PCs sind in einem einheitlichen PC Netz zu sammengef sst das von Servern unter den Betriebssystemen Windows gesteuert und mit Software versorgt wird Als Betriebssystem an den PCs selbst wird Windows XP eingesetzt Die Benutzung der PCs im LRZ Geb ude ist montags bis freitags von 7 30 bis 20 45 Uhr d h auch nach der Schlie ung des Geb udes m glich daf r sorgt ein Dienst mit studentischen Hilfskr ften F r das Arbeiten an diesen Ger ten ist eine pers nlic
424. nachdem ob ein Speicherzugriff auf physisch lokale oder auf einem anderen Systemknoten befindliche Daten erfolgt ergeben sich jedoch unterschiedliche Zugriffszeiten und Bandbreiten Daher wird die Sys temarchitektur auch als cache coherent non uniform memory access ccNUMA bezeichnet Die effi ziente Nutzung eines derart ausgelegten Speichersystems stellt den Programmierer durchaus noch vor Herausforderungen bietet aber auch gro e Flexibilit t der Nutzung Jahresbericht 2008 des Leibniz Rechenzentrums Teil I Systemarchitektur der Partitionen Die Systemarchitektur jeder Partition ist die einer verteilten Shared Memory Architektur das hei t der Systemknoten gemeinsame Hauptspeicher ist ber die Systemknoten verteilt Memory Controller auf den Systemknoten EE EE EE Eck Ge er dee GE ek CS Ze e HE Ze Ge Ze Sch A3 ZAC CH b b Ac be ZA bd Ge Ze Sch i i i e Ze Za i rn Ze e HE Ik ek SC Ze ek AC Za d Ze Ze bo bo Bi ER be ZAC SE d b D i be ZA M bd bi bi da d Ze Ze i IE e Ze Za i 2 Ze be Za ZC ei ei 5 Ze ek SC Ze be Ze CH ZC bi Seck da d SE Ze An Ze D D et E be d CH d b ad Ac Ac be d WAR x bd bi Seck da d Ze An Ze i D et S IE e Ze in Za i x EEE Ze be h Ze CH Ze ei Seck o Ze ih TEE TEE i eck Ze be Ze CH ZC bi u Be R da d Ze An Ze bo a et ER be d CH d b ad Ze be d WAR zZ bd bi fe Be R da d Ze An Ze i D et i e Ze in Za i EEE Ze be Ze CH ZC do GE MA
425. nager Snapmirror S NAS Filer TUM Campus Prim rsystem Garching LRZ interne TUM Weihenstephan Q TUM Stammgel nde M nchen Steuerung LMU Stammgel nde M Net M nchen Internet 3 Backup Storage Area Network TUM Klinikum M Grosshadern S i Interne Benutzer CIFS M nchner Wissenschaftsnetz MWN Backbone Infrastruktur TSM Bandarchivsysteme Abbildung 79 Infrastruktur Speicher f r die Wissenschaft Aufgrund der viel verspechenden Ergebnisse der Evaluierung der Datendeduplizierung A SIS der Firma Netapp wird geplant diese Funktionalit t zumindest in Teilbereichen zuk nftig produktiv einzusetzen Bei der Datendeduplizierung wird der Datenbestand nach gleichen Bl cken durchsucht Sind Doubletten vorhanden wird ein solcher Block nur einmal gespeichert und die doppelten Datenbl cke freigegeben Je nach Datenaufkommen l sst sich durch diese Methode sehr viel Speicherplatz einsparen F r das kommende Jahr wird die Untersuchung innovativer Flash bzw Solid State Technologie als intelligenter Read Cache angestrebt Durch den Einsatz dieser Technologie kann festplattenbasierter 186 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Speicher f r Random Read intensive Workloads wie File Services optimiert und effizienter genutzt wer den da durch den Cache die Anzahl der Platten IOs reduziert wird 6 7 4 4 Andrew Filesy
426. nahmeliste mit Rechnern bei denen das auff llige Verhalten legitim ist Die Aktualisierung dieser Listen betraf ber wiegend das Mail Monitoring weil es relativ viele legitime Ursachen f r ein erh htes Mail Aufkommen gibt o Inbetriebnahme eines neuen Mail Servers Gateways oder Servers f r Mail Verteiler o Regelm iges Verschicken von Rundbriefen mit vielen Empf ngern o Verschicken von Benachrichtigungen durch ein System das die korrekte Funktion Verf gbar keit von Diensten oder Rechnern berwacht Das LRZ geht i a aktiv auf die Betreiber von Rechnern zu bei denen das Mail Aufkommen vermut lich legitim ist z B wenn im DNS Namen der String mail vorkommt Dies ist auch der Grund da f r dass die F lle dieser Gruppe nur selten von LRZ Kunden initiiert werden In vielen F llen m ssen kompromittierte Rechner zur Sicherheit am Internet bergang gesperrt wer den Wird ein betroffener Rechner innerhalb von wenigen Wochen wieder ges ubert wird das Auf heben seiner Sperre noch innerhalb des urspr nglichen Abuse Falls abgewickelt Liegt die Sperre je doch schon mehrere Monate oder evtl sogar schon Jahre zur ck wird das Entsperren in einem ge sonderten Fall bearbeitet Zu den von au erhalb gemeldeten F llen kamen weitere auf die das LRZ im Rahmen der Netz ber wachung selbst aufmerksam wurde siehe Tabelle 23 Die Monitoring Funktionen am Internet bergang d h am bergang vom MWN zum X WinN
427. nd Prototypen testen zu k nnen Ein weiterer Unterpunkt zur Vorbereitung der Software f r zuk nftige Hochleistungsrechner un tersucht neue Programmiermodelle um den gestiegenen Anforderungen vor allem an die massi ve Parallelit t der Hardware gerecht zu werden Das LRZ testet hier den Nutzen und die Per formanz von neuartigen Sprachen und entwickelt Kursangebote f r seine Benutzer Unter ande rem wurde mit Unified Parallel C Co Array Fortran und RapidMind experimentiert WP7 Petaflop Systeme f r 2009 2010 GENCI Frankreich WP8 Petaflop Technologien der Zukunft ab 2010 GCS Deutschland Das LRZ bernahm Ende 2008 die F hrung dieses Arbeitspakets vom GCS Partner FZJ Das LRZ wird im Rahmen dieses Projektes ein hybrides Prototypsystem von SGI auf Basis von d n nen Knoten mit 8 Nehalem EP Prozessorkernen dicken ccNUMA Knoten mit 256 Prozessorker nen sowie Larrabee und ClearSpeed Beschleunigerkarten in Zusammenarbeit mit dem franz si schen Rechenzentrum CINES untersuchen Das System wurde 2008 als Vorschlag erarbeitet der eingereicht und angenommen wurde Nach der zweij hrigen Preparatory Phase 2008 2009 wird ab 2010 eine Implementation Phase folgen die von weiteren EU Projekten begleitet werden soll 6 6 Aktivit ten im Bereich Verteilte Systeme Grid Grid Computing entstand in den sp ten 90er Jahren vor dem Hintergrund aufwendige physikalische Be rechnungen ber mehrere Supercomputer verteilt durchf h
428. nd Wartbarkeit von Algorithmen 158 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Innerhalb von MAC ist auch eine Stelle mit Promotionsstipendium am LRZ vorgesehen die aber bisher noch nicht besetzt werden konnte 6 5 Aktivit ten f r ein nationales und europ isches HPC Konzept H chstleistungsrechnen ist ein zunehmend bedeutenderes Instrument zur wissenschaftlichen Erkenntnis gewinnung in allen Disziplinen Zumindest f r die sogenannten Grand Challenges ist die ben tigte IT Infrastruktur so teuer dass sich eine Einzelinstitution die Beschaffung und den Betrieb von Capability Systemen nicht leisten kann Deshalb bedarf es regionaler nationaler und europ ischer HPC Konzepte die die auf dem Ausbildungs und Entwicklungssektor erforderlichen Ma nahmen koordinieren und eine Finanzierung von Investition und Betrieb einer HPC Infrastruktur erm glichen In den folgenden Ab schnitten werden die Einbindung und die Aktivit ten des LRZ zum Aufbau einer solchen Infrastruktur auf nationaler und europ ischer Ebene dargestellt 6 5 1 Gauss Centre for Supercomputing Ab 2005 wurde deutlich dass die Erfordernis Ein deutsches HPC Sprachrohr in Europa z gig umge setzt werden musste wollte man den sich in Bewegung setzenden europ ischen HPC Zug nicht verpas sen Nach Vorarbeiten in mehreren Arbeitsgruppen wurde 2007 ein gemeinn tziger eingetragener Verein Gauss Centre for Supercomputing GCS e V mit Si
429. nden VOs Communities etc genutzt werden kann Als kommerzielle Partner konnten die DFN CERT Services GmbH als gef rderter Partner sowie die Sto nesoft Germany GmbH und die Fujitsu Siemens Computers GmbH als assoziierte Partner gewonnen werden Des Weiteren sind das Regionale Rechenzentrum f r Niedersachsen RRZN und das LRZ als Konsortialf hrer beteiligt Das RRZN war in verschiedenen D Grid Projekten beteiligt Es bringt Know How aus den Fachgebieten die sich mit Firewall Technologien besch ftigten sowie Kenntnisse aus den Teilprojekten AAV VO Management und IVOM mit Die DFN Cert Services GmbH ist als Betreiber des CERT im Deutschen Forschungsnetz ein Sicherheitsdienstleister f r die deutsche Wissenschaft DFN Cert besch ftigt sich auch mit der Analyse von Sicherheitsvorf llen und war auf europ ischer Ebene am Aufbau eines internationalen Sensornetzwerkes beteiligt Stonesoft ist ein Hersteller von Sicherheitsl sungen IDS Systemen und Hochgeschwindigkeitsfirewalls Stonesoft ist an der wissenschaftlichen Ar beit von GIDS im Hinblick auf eine m gliche Integration in eigene Produkte interessiert Fujitsu Siemens Computers FSC betreibt selbst eine verteilte IDS Infrastruktur und ist interessiert an einer m glichen Verkn pfung der Ergebnisse von GIDS mit Spezial Hardware von FSC um daraus ggf eine vermarktba re Appliance zu entwickeln FSC und Stonesoft werden nicht gef rdert F r RRZN und DFN Cert wurde je eine Stelle und f r
430. nder in einem Grid nutzbar zu machen Der Hauptfokus des Teilprojek tes an dem die Abteilung KOM beteiligt war lag im Aufbau eines Hochgeschwindigkeitsnetzes zwischen den beteiligten Partnern Das Netz wird als VPN virtual private network gef hrt also in der Anwendung v llig von den ffentlich zug nglichen Forschungsnetzen separiert Dieses Netz konnte im mittlerweile ausgelaufenen DEIS AT Projekt aufgebaut werden siehe auch die Jahresberichte 2005 bis 2007 Nach dem Ablauf der ersten F rderphase wird seit dem 1 Mai 2008 das Nachfolgeprojekt DEISA2 gef rdert KOM ist in DEISA2 beteiligt an Workpackage WP 4 Task 1b Enhancement of DEISA2 network moni toring Das Ziel von WPA4 ist die in DEISA verwendeten Technologien zu verbessern und st ndig auf dem neuesten Stand zu halten Dementsprechend ist WP4 in f nf verschiedene Tasks aufgeteilt die sich jeweils mit einem Technologiebereich besch ftigen vgl Abbildung 116 Um dieses Ziel zu erreichen m ssen die verwendeten Technologien kontinuierlich berwacht Schritt A und neue Technologien iden tifiziert werden Schritt B nach einer Evaluation Schritt C wird entschieden ob und welche Technolo gie in DEISA eingesetzt wird Nach einer Einf hrungsplanung Schritt D kann die Technologie dann in den produktiven Betrieb berf hrt werden Schritt E Task 1 Network Related Tech Task 3 Compute Related Tech Task 4 AAA Related Tech
431. nderen Zusammenh ngen in STRATOS weiter verfolgt werden Seit Oktober 2008 ist Herr Prof Bode f r das LRZ Sprecher von PROSPECT und wird dabei von Herrn Dr Huber und Frau Christadler un terst tzt STRATOS wurde im Dezember 2008 durch die Unterzeichnung eines sogenannten Memorandums of Understanding MoU durch 13 Institutionen 12 PRACE Partner und PROSPECT e V als externer Verein ins Leben gerufen in dem das LRZ durch die Rolle von Herrn Huber als STRATOS Sprecher sowohl direkt wie auch indirekt als PROSPECT Partner auftritt Neben PRACE Projektpartnern k nnen auch Konsortien aus Firmen und Forschungseinrichtungen oder industrielle sowie alle anderen Forschungspro jekte die mit der zuk nftigen PRACE Research Infrastructure zusammenarbeiten m chten als externe Mitglieder STRATOS beitreten Das MoU regelt im Wesentlichen die Beziehungen der PRACE Partner zu solchen externen Partnern Erste Aufgabe der Partner im MoU ist die Festlegung einer konkreteren langfristigen Strategie zur Etablie rung energie effizienter skalierbarer und programmtechnisch beherrschbarer ExaFlop s Systeme in Europa Die Ziele von STRATOS sind Definition und Implementierung einer Strategie die eine kontinuierliche Technolo gie Beobachtung und Systementwicklung in der geplanten PRACE Research Infra structure sicher stellt Vorausschau und Bewertung aufkommender Technologien jenseits der PetaFlop s Marke aus Sicht der Anforderungen der HPC
432. ndeslizenz bietet wie schon beim Vertrag von 2003 nicht nur einen Kostenvorteil gegen ber der Einzellizenzierung durch die Hochschulen sondern auch die Flexibilit t je nach Bedarf festzulegen welche Produkte tats chlich in welcher St ckzahl lizen ziert werden Anzahl der registrierten aktiven Nodes 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 Abbildung 71 Anzahl der registrierten Nodes Es berrascht wenig dass der Hauptanteil des Vertrags ber 70 in TSM Lizenzen besteht wobei das LRZ hier den gr ten Anteil h lt Das Lizenzmodell von IBM basiert auf Anzahl und Typ der registrier ten Rechner die das System nutzen Diese Zahl kann am besten durch die Anzahl der TSM Nodes abge sch tzt werden Die Abbildung 71 zeigt die seit vielen Jahren linear wachsende Anzahl registrierter TSM Nodes am LRZ Nach Vertragsabschluss war noch der Zugriff auf die einzelnen Softwareprodukte f r die beteiligten Hochschulen sowie ein Verfahren zur Lizenz bertragung einzurichten Bis zum Ende des Jahres gab es dann die blichen Anlaufschwierigkeiten mit der neuen Konfiguration 6 7 3 Langzeitarchivierung Die Kooperation mit der Bayerischen Staatsbibliothek im Bereich der Langzeitarchivierung wurde auch im Jahr 2008 weiter ausgebaut Neben dem laufenden Projekt vdl6digital wurde im Oktober 2008 ein weiteres DFG gef rdertes Projekt mit dem Arbeitstitel BABS2 gestartet BABS2 kann als Nachfolgepro jekt des Projektes
433. ndger te herangetragen werden Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 281 2 Aufgaben der Netzverantwortlichen Netzverantwortliche sind unbedingt n tig um in Zusammenarbeit mit dem LRZ einen reibungslosen Be trieb des MWN zu gew hrleisten Von jeder organisatorischen Einheit z B Institut die das MWN nutzt muss daher ein Netzverantwortlicher benannt werden F r eine kompetente Urlaubs und Krankheitsver tretung muss gesorgt sein Es k nnen auch von einer Person mehrere organisatorische Einheiten z B Fakult t oder geographische Einheiten z B Geb ude betreut werden Der Netzverantwortliche hat folgende Aufgaben in seinem Zust ndigkeitsbereich wahrzunehmen e Verwaltung der zugeteilten Namens und Adressr ume e F hrung einer Dokumentation ber die ans MWN angeschlossenen Endger te bzw Netze e Zusammenarbeit mit dem LRZ bei der Planung und Inbetriebnahme von Erweiterungen der Ge b udenetze neue Anschlusspunkte neue Netzstrukturen etc e Mitarbeit bei der Fehlerbehebung z B Durchf hren von mit dem LRZ abgestimmten Tests zur Fehlereingrenzung e Zusammenarbeit mit dem LRZ bei der Eind mmung missbr uchlicher Netznutzung und der Be reinigung kompromittierter Rechner Wegen der grunds tzlichen Bedeutung der Funktionsf higkeit der Netzinfrastruktur m ssen vor allem Fehlerbehebungsaufgaben entsprechenden Vorrang genie en 83 Missbrauchsregelung Ein Versto gegen diese Regelungen gilt a
434. ndividuelle Beratung der Benutzer ein Sie gibt generell Hilfestellung bei der Benutzung zentraler und dezentraler Rechner insbesondere bei Fragen zur Anwendersoftware bei der Bedienung von Spezialger ten und bei Schwierigkeiten mit dem Zugang ins M nchner Wissenschaftsnetz MWN Hier kommen vorwiegend Studentische Hilfskr fte SHKs zum Einsatz Es handelt sich um speziell aus gew hlte qualifizierte zuverl ssige Studentinnen und Studenten da die T tigkeit eine entsprechende fachliche Eignung und gute Kommunikationsf higkeit verlangt Die SHKs werden in Schulungen ausgebildet in denen LRZ Mitarbeiter aus ihren Spezialgebieten berich teten um ihnen ein besseres Fundament f r ihre Beratert tigkeit zu geben Durch die h ufigen Wechsel der studentischen Mitarbeiter f llt hier ein st ndiger Schulungsaufwand an der mit einem modularisierten Schulungssystem abgedeckt wird Die Studenten sollen zu von ihnen gew hlten Zeitpunkten einzelne Module von LRZ Tutoren bekommen bis alle Module von allen durchlaufen sind Die Dynamisierung der Termine ist vor allem aufgrund von Zeitproblemen bei beiden beteiligten Gruppen erforderlich Das Konzept wurde auch weitgehend auf die Ausbildung der Operateure bertragen 2 1 2 2 1 Anlaufstellen 2 1 2 2 1 1 Pr senzberatung Als pers nliche Anlaufstelle dient die Pr senzberatung die im Gespr ch mit dem Benutzer eine Problem l sung angeht Sie ist mit zwei Stud Hilfskr ften besetzt von denen
435. ndorte Es ist geplant diese WDM Verbindungen im Jahr 2009 durch eine andere Technik MPLS Multi Protocol Label Switching zu ersetzen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 199 7 1 5 WLAN Wireless LAN Die seit Ende des Jahres 2000 eingef hrten Zugangsm glichkeiten ber WLAN wurden 2008 weiter aus gebaut Ende Dezember 2008 waren 1065 Vorjahr 810 WLAN Access Points in 199 189 Geb uden installiert Die Access Points sind vor allem in ffentlichen Bereichen wie H rs len Seminarr umen Bibliotheken und Foyers installiert Das Angebot erfreut sich steigender Beliebtheit zeitweise waren mehr als 2 200 gleichzeitige aktive Verbindungen aufgebaut Insgesamt wurden ber 35 000 verschiedene Ger te MAC Adressen registriert Die am st rksten frequentierten Access Points sind im Maximum mit bis zu 82 gleichzeitigen Verbindungen belegt Daily Graph 5 Minute Average 2000 1000 el Sun 18 00 Mon 00 00 Mon 06 00 Mon 12 00 Mon 18 00 Tue 00 00 Tue 06 00 Abbildung 86 Anzahl aktiver WLAN Verbindungen 5 Minuten Mittel Yearly Graph 1 Day Average 800 600 400 200 e Oct Nov Dec Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Jan Max Average Current o All 875 User 364 User 796 User CCRA 92 User 51 User 81 User E llog 740 User 297 User 663 User Ella 37 User 13 User 34 User E lln 18 User 2 User 18 User Abbildung 87 Entwicklung der Belegung ber das Jahr 2008 Tagesmittel In Abbildung 8
436. ne Netz verwendeten Strecken deren ber tragungsgeschwindigkeiten und Endpunkte Hieraus l sst sich die Ausdehnung des Netzes ablesen 7 1 1 Backbone Netz Das Backbone des M nchner Wissenschaftsnetzes bestehend aus Routern und Glasfaserstrecken zeigt Abbildung 84 MWN Backbone Internet Anbindung Campus Garching Fast Ethernet Gigabit Ethernet 10 Gigabit Ethernet Switch mit Layer 2 Funktion Router mit Layer 3 Funktion Wellenl ngen Multiplexer serielle Fallback Intemet Anbindung Anschl sse 64 KBit s Weitere Areale mit M net Glasfaserstrecken Campus Weihenstephan Weitere Areale mit Telekom Glasfaserstrecken Stand 122008 Campus Gro hadern Abbildung 84 Backbone Netz des MWN Aus der Abbildung ist die Struktur des Backbone ersichtlich Den Kern des Backbone bilden Cisco Cata lyst 6509 Switch Router die untereinander mit 10 GBit s verbunden sind Die Anbindung der Standorte erfolgt ber LWL Lichtwellenleiter Alle Telekom Glasfasern enden im zentralen Netzraum des TUM Stammgel ndes Die M net Glasfasern enden im zentralen Netzraum des LMU Stammgel ndes Das Router Backbone selbst ist durch die Dreiecks Struktur redundant Die Router unterhalten sich ber die Punkt zu Punkt Verbindungen mittels OSPF Open Shortest Path First Der Verkehr flie t von der Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 195 Quelle zum Ziel ber die Lei
437. nen angeboten wurden Bei der Planung konnte stets davon ausgegangen werden dass alle Teilnahmewilligen die einen Platz im Kurs erhalten diesen auch wahrnehmen w rden Dies darf beim brigen Kursangebot leider nicht als selbstverst ndlich vorausgesetzt werden Gerade bei den Kur 90 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme sen zu PCs und PC Software ist der Unterschied zwischen der Zahl der Anmeldungen und der Zahl der Teilnehmer nach wie vor gro Dies hat hohen Verwaltungsaufwand f r diese Kurse zur Folge M ssen doch bei jeder Absage auf einen erteilten Kursplatz wieder alle organisatorischen Schritte f r die Nachr cker durchlaufen werden Dieser organisatorische Mehraufwand ist in 2008 besonders bei einer Kursgruppe angefallen den soge nannten Umsteigerkursen Nachdem sich das Erscheinungsbild und die Handhabung der Microsoft Office Programme mit den Versionen 2007 gegen ber den Vorg ngerversionen deutlich ver ndert hatte wurden spezielle Kurse ins Programm aufgenommen die den Anwendern der Vorg ngerversionen den Umstieg auf die aktuellen Versionen erleichtern sollten Es zeigte sich dass das Interesse an Kursen zu den aktuel len Microsoft Office Produkten nach wie vor gro war dass aber die normalen Kompaktkurse den Um steigerkursen offensichtlich vorgezogen wurden Die Teilnehmer wollen wohl eine neue Programmversi on lieber wieder von Grund auf kennenlernen anstatt sich damit zu begn g
438. netzwerks f r Technisch Wissenschaftliches Hoch und H chstleis tungsrechnen in Bayern KONWIHR Prof Dr Arndt Bode TU M nchen e Der Vertreter der Nicht M nchener Hochschulen in der Kommission f r Informatik der Bayeri schen Akademie der Wissenschaften Prof Dr Werner Hanke Universit t W rzburg Von der Bayerischen Akademie der Wissenschaften benannter Vertreter e Prof Dr Dr h c F Durst Lehrstuhl f r Str mungsmechanik Universit t Erlangen N rnberg Von der Deutschen Forschungsgemeinschaft benannte au erbayerische Wissenschaftler e Prof Dr Kurt Kremer Max Planck Institut f r Polymerforschung Mainz e Prof Dr Dominik Marx Lehrstuhl f r Theoretische Chemie Universit t Bochum e Prof Dr Rolf Rannacher Institut f r Angewandte Mathematik Universit t Heildelberg e Prof Dr Matthias Steinmetz Astrophysikalisches Institut Potsdam e Prof Dr Siegfried Wagner Institut f r Aerodynamik und Gasdynamik Universit t Stuttgart e Prof Dr Gerald Warnecke Institut f r Analysis und Numerik Universit t Magdeburg Als Vorsitzender wurde Prof Dr Siegfried Wagner gew hlt als stellvertretender Vorsitzender Prof Dr Werner Hanke
439. ng Enzianstra e 1 3 Garching Unterer Strass cker 21 Garching T rkenstra e 58 Giggenhauser Str 25 85354 Freising Lange Point 1 35 85354 Freising Giggenhauserstra e 27 33 V ttinger Stra e 49 85354 Freising Nymphenburger Str 99 Cimbernstra e 68 Max Planck Str 1 Kaulbachstr 29a Rambergstra e 6 80799 M nchen Hiltenspergerstr 77 Gabelsbergerstr 24 Richard Wagner Str 16 Kieferngartenstra e 12 Dachauerstra e 145 Traunsteiner Stra e 1 13 Unterer Anger 2 Unterer Anger 17 Schr felhofstra e 4 Studentenwerk Studentenwerk Studentenwerk Studentenwerk Studentenwerk Studentenwerk Studentenwerk Dominobau Studentenwerk Studentenwerk Studentenwerk Studentenwerk Studentenwerk Studentenwerk Roncalli Colleg Prof Fuchtmann Bayerischer Lehrer und Lehre rinnen verband BLLV Stiftung Maximilianeum Jesuiten Studentenwohnheim Paulinum e V Kath Kath Siedlungswerk Stud Verbindungen Albertia Ottonia Erwinia Ingeborg van Calker Stiftung Evangelische Studentenwohn heime Katholische Kirche Studentenwerk Orden der Armen Schul schwestern Orden der Armen Schul schwestern Studentenwerk 186 310 545 415 259 110 112 ER 97 226 382 239 122 125 160 26 68 58 120 25 40 65 35 348 50 82 580 SDSL M net f r Uniradio 100 Mbit s Laserlink zur FH i
440. ng FGSL In mehreren Fortran Compilern ist nun erstmals die C Interoperabilit tsfunktionalit t aus dem Fortran 2003 Standard verf gbar die es in portabler Weise erm glicht C Schnittstellen an Fortran Programme anzubinden Dies wurde zum Anlass genommen eine typ sichere Schnittstelle zur GSL GNU Scientific Library zu entwickeln Ver ffentlichungen hier ber sind in Inside und dem ACM Fortran Forum er schienen Das Berichtsjahr wurde zur Weiterentwicklung des Paketes benutzt und es konnten in jedem verwendeten Compiler noch Fehler identifiziert werden die durch die Hersteller behoben wurden Details hierzu unter http www Irz muenchen de services software mathematik gsl fortran 6 3 ffentlichkeitsarbeit 6 3 1 Linux Cluster Workshop Das LRZ f hrte am 8 und 9 Dezember 2008 einen Workshop zusammen mit den Anwendern des Linux Clusters durch Die Anwender hatten hier die M glichkeit ihre Projekte kurz vorzustellen und die k nfti gen Anforderungen ihres Fachgebietes an einen Ausbau des Linux Clusters darzulegen Der Workshop fand unter reger Beteiligung von Nutzern der beiden Universit ten in M nchen sowie der Universit ten Bayreuth und W rzburg statt Die Themenbereiche umfassten Geophysik Materialwissenschaften Fluid dynamik und Plasmaphysik Life Sciences und Quantenchemie Trends Einige Trends lie en sich aus den Vortr gen erkennen Es werden verst rkt standardisierte Softwarepake te eingesetzt die meist aus dem Op
441. ng versehentlich gel schter oder besch digter Dateien Die verwendeten Sicherungsverfahren sind zwar an den einzelnen Plattformen unterschiedlich ganz allgemein kann man jedoch davon ausgehen dass alle Benutzerdateien bei einem Platten oder Systemfehler in der Regel auf den Stand des Vortages zur ckgesetzt werden k nnen Nach aller Erfahrung gibt es immer wieder Engp sse bez glich des Plattenplatzes der dem Benutzer zur Verf gung steht Daher sollten gro e Daten und Programmbest nde die ein Benutzer l ngere Zeit nicht zu verwenden gedenkt von ihm selbst auf andere Medien ausgelagert werden Archivierung Die ent sprechenden Dateien auf Platten sollten gel scht werden Dies sollte immer auch umgehend bei nicht mehr ben tigten Dateien geschehen Sofern keine entsprechenden Archivierungssysteme an dem jeweili gen System verf gbar sind k nnen die Daten zun chst auf eine andere Plattform transferiert und dann von dort aus gesichert werden Gr ere Datenbest nde k nnen relativ bequem mit dem Archivsystem TSM gespeichert und wieder her gestellt werden Die entsprechende Software ist an allen Rechnern des LRZ f r den Endbenutzer verf g bar und kann ohne zus tzliche Berechtigung verwendet werden F r die Nutzung dieses Archivsystems von institutseigenen Rechnern aus kann die Software kostenlos vom LRZ bezogen werden Eine Anlei tung zur Nutzung f r den Endbenutzer findet sich unter www Irz de services datenhaltung adsm
442. ngegeben In der folgenden Matrix wird angegeben wie hoch der Durchsatz in Megabit pro Sekunde zwischen den verschiedenen Standorten war nda steht hierbei f r no data available und NTY f r not tested yet 242 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Die Monitoring Tests und Skripten direkt auf den H chstleistungsrechnern auszuf hren ist nicht optimal Die Konfiguration und die Ergebnisse der Skripten sind in der heterogenen DEISA Infrastruktur auch nicht trivial Aus diesem Grund werden in DEISA2 dedizierte Monitoring Rechner an jedem DEISA Standort aufgebaut welche dieselbe Hardware und Software Konfiguration besitzen und zentral ber wacht und auch administriert werden sollen Nachdem externe Partner dazu auch administrativen Zugang zu Systemen im LRZ und im DEISA Netz erhalten sollen wurde hierf r ein Netz und Sicherheitskon zept erarbeitet vgl Abbildung 118 Der Monitoring Rechner soll m glichst so im DEISA Netz integriert werden wie der H chstleistungsrechner Dabei soll aber kein Verkehr zwischen dem Monitoring System und dem HLRBII m glich sein Auch der Verkehr zum Monitoring Rechner wird auf einige wenige Sys teme eingeschr nkt DEISA partition performance tests last page update 2009 02 23 12 59 24 ii 4 P SEI e EERIE e lo 3 la amp 2 P E A amp iperf TCP
443. ngen Die folgende Tabelle gibt einen berblick ber die vom LRZ an Hochschuleinrichtungen via Master User vergebenen Kennungen und zwar pro Plattform und mit Stand von Ende 2008 Einrichtung VPN Mail AFS GE GER SEET SS Leibniz Rechenzentrum 6ll 993 622 625 130 47 598 Bayerische Akademie der Wiss ohne LRZ 364 365 199 227 318 Ludwig Maximilians Universit t M nchen 13 263 13 497 10 600 10 430 460 8 334 Technische Universit t M nchen 13 174 13 135 10 511 10 893 612 12 870 Hochschule M nchen 997 997 954 995 50 8 andere bayerische Hochschulen 627 590 564 566 144 3 292 ffentlich rechtliche Einrichtungen 3 491 3 510 2 830 2 900 11 392 sonstige Einrichtungen 28 28 26 26 10 1 Kooperationsprojekte aus dem Grid Bereich 682 1 Nutzer des Bundesh chstleistungsrechners 11 224 28 Gesamt 32 566 33 115 26 306 26 662 2 323 99 2 813 Tabelle 12 Vergabe von Kennungen f r LRZ Plattformen Nicht in der Tabelle enthalten sind die Kennungen f r den Bundesh chstleistungsrechner die SGI Altix 4700 da es hier h ufig Kooperationen gibt und daher keine klare Zuordnung zu einer Einrichtung m g lich ist Ende 2008 waren f r diesen Rechner insgesamt 1 735 Kennungen vergeben davon 282 f r Pro jekte aus dem Grid Bereich 5 4 1 2 An Studenten vergebene Kennungen Die Vergabe von Kennungen an Studenten erfolgt bei der Ludwig Maximilians Univers
444. ngen in M nchen Ludwig Maximilians Universit t Max Planck Institute Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften gemeinsam an der nachhaltigen Nutzbarkeit gegenw rtiger und zuk nftiger Hochleistungsrechnerarchitekturen f r Aufgaben aus dem Bereich des Computational Science and Engineering CSE arbeiten Sprecher des MAC Projekts das insgesamt 31 Promotionsstellen f rdert ist Prof Bungartz Das MAC Projekt Efficient parallel strategies in computational modelling of materials wird vom Fach gebiet f r Theoretische Chemie Department Chemie der TU M nchen geleitet Weitere Partner im Pro jekt sind das Fachgebiet f r Rechnertechnik und Rechnerorganisation Parallelrechnerarchitektur Prof Gerndt Prof Bode und das LRZ Die Ziele sind die Erh hung der Effizienz und Steigerung der Skalierbarkeit zu hohen Prozessorzahlen des Dichte Funktional Programms ParaGauss das zur Berechnung der Elektronenstruktur in der Chemie bei Oberfl chen und f r Nanomaterialien eingesetzt wird Die Aufgaben des Projektes lassen sich wie folgt zusammenfassen e Flexible Prozessor Zahlen f r getrennte parallele Tasks e Parallele Ausf hrung von Modulen im Worker Pool e Nutzung des Programms in heterogenen Umgebungen und im Grid Computing e Unterschiedliche Behandlung von Algorithmen f r niedrige oder hohe Pr zision e Integration mit externen Paketen und externen Treibern z B Geometrieoptimierern e Erweiterbarkeit u
445. nheime Studentenwohnheim Ge Steinickeweg 7 Studentenwohnheim Geschwis 227 SDSL M net 2 Mbit Linux Router schwister Scholl ter Scholl e V St Albertus Magnus Haus Avenariusstra e 15 St Albertus Magnus Stiftung 108 SDSL M net Pasing Kath Wohnheimsiedlung Mab Hess Stra e 77 ee 124 Funk zu HM Dachauerstra e mannplatz Ma mannplatz e V Jakob Balde Haus Theresienstra e 100 en Neuburg 110 LWL zu TUM Internationales Haus Adelheidstra e 17 Studentenwerk 93 re 13 angeschlossen Hedwig Dransfeld Allee Hedwig Dransfeld Studentenwerk 100 100 Mbit s Laserlink Allee 7 204 Stettenkaserne Heidemannstra e Felsennelkenanger Heiglhofstra e Sauerbruchstra e Garching I Garching I Dominohaus Maschinenwesen Ehemalige Hausmeisterwoh nung T rkenstra e Weihenstephan II Lange Point Weihenstephan II Weihenstephan IV V ttinger Stra e Weihenstephan D Roncallicolleg KHG BLLV Wohnheim Stiftung Maximilianeum Kardinal Wendel Kolleg Studentenheim Paulinum Studentenheim Willi Graf Albertia Ottonia Erwinia Wohnheim Richard Wagner Str 16 Hochschulhaus Garching Spanisches Kolleg Chiemgaustra e Am Anger I Am Anger II Wohnheim Stiftsbogen Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Schwere Reiter Str 35 Paul Hindemith Allee 4 Felsennelkenanger 7 21 Heiglhofstra e 64 66 Sauerbruchstra e Garching Jochbergweg 1 7 Garchi
446. nicht die Unversehrtheit bzgl Zerst rung Manipulation und Vertraulich keit der bei ihm gespeicherten Daten garantieren 2 Der Systembetreiber haftet nicht f r Sch den gleich welcher Art die dem Benutzer aus der Inan spruchnahme der IV Ressourcen nach 1 entstehen ausgenommen ist vors tzliches Verhalten des Systembetreibers oder der Personen deren er sich zur Erf llung seiner Aufgaben bedient 87 Folgen einer missbr uchlichen oder gesetzeswidrigen Benutzung 1 Bei Verst en gegen gesetzliche Vorschriften oder gegen die Bestimmungen dieser Benutzungsricht linien insbesondere des 4 Pflichten des Benutzers kann der Systembetreiber die Benutzungsbe rechtigung einschr nken ganz oder teilweise entziehen Es ist dabei unerheblich ob der Versto einen Schaden zur Folge hatte oder nicht 2 Bei schwerwiegenden oder wiederholten Verst en kann ein Benutzer auf Dauer von der Benutzung s mtlicher IV Ressourcen nach 1 ausgeschlossen werden 3 Verst e gegen gesetzliche Vorschriften oder gegen die Bestimmungen dieser Benutzungsrichtlinien werden auf ihre strafrechtliche Relevanz sowie auf zivilrechtliche Anspr che hin berpr ft Bedeut sam erscheinende Sachverhalte werden der jeweiligen Rechtsabteilung bergeben die die Einleitung geeigneter weiterer Schritte pr ft Der Systembetreiber beh lt sich die Verfolgung strafrechtlicher Schritte sowie zivilrechtlicher Anspr che ausdr cklich vor 88 Sonstige Regelungen 1 F
447. nn die Nutzung gestattet werden 3 Mitglieder der benutzungsberechtigten Hochschulen wenden sich entweder an das Leibniz Rechenzentrum oder den DV Beauftragten Master User der f r sie zust ndigen Organisationseinheit vgl 83 1 274 Teil II Anhang 3 83 Formale Benutzungsberechtigung 1 Wer IV Ressourcen nach 1 benutzen will bedarf einer formalen Benutzungsberechtigung des Leib niz Rechenzentrums Ausgenommen sind Dienste die f r anonymen Zugang eingerichtet sind z B Informationsdienste Bibliotheksdienste kurzfristige Gastkennungen bei Tagungen 2 Systembetreiber ist das Leibniz Rechenzentrum 3 Der Antrag auf eine formale Benutzungsberechtigung soll folgende Angaben enthalten e Betreiber Institut oder organisatorische Einheit bei der die Benutzungsberechtigung beantragt wird e Systeme f r welche die Benutzungsberechtigung beantragt wird e Antragsteller Name Adresse Telefonnummer bei Studenten auch Matrikelnummer und evtl Zugeh rigkeit zu einer organisatorischen Einheit der Universit t e berschl gige Angaben zum Zweck der Nutzung beispielsweise Forschung Ausbildung Lehre Verwaltung e die Erkl rung dass der Benutzer die Benutzungsrichtlinien anerkennt e Eintr ge f r Informationsdienste Weitere Angaben darf der Systembetreiber nur verlangen soweit sie zur Entscheidung ber den An trag erforderlich sind 4 ber den Antrag entscheidet der zust ndige Systembetreiber Er kann die E
448. nnen Vorteil der L sung ist dass vom anfragenden Anwender nur eine sehr schlanke Client Software per Web Portal auf seinen PC geladen werden muss die nur zur Laufzeit der Beratungssitzung erforderlich ist Danach kann der Client r ck standsfrei gel scht werden Ein sehr n tzliches Projekt zur Aufwertung der Besprechungsr ume des LRZ konnte in Verantwortung der Auszubildenden umgesetzt werden Sogenannte Thin Clients mit Funk Tastatur Maus und ange schlossen an die bereits vorhandenen Gro bildschirme erm glichen jetzt jedem LRZ Mitarbeiter den schnellen Zugang zu Dokumenten und Diensten Die Thin Clients verbinden sich dazu mit der Terminal serverfarm und bieten jedem Mitarbeiter seine gewohnte Windows Umgebung und den Zugriff auf Datei systeme und Anwendungen Es ist damit im Prinzip unn tig Laptops mitzubringen und anzuschlie en nat rlich aber weiterhin m glich Die L sung wurde von den Auszubildenden im Rahmen von Vortr gen und Life Demos im Hause vorgestellt und wird sehr gut angenommen 5 9 Umzug der IT des Bibliotheksverbund Bayern an das LRZ Im Rahmen der Zentralisierung der IT Infrastruktureinrichtungen des Freistaates Bayern wurde 2006 der Umzug des Rechenzentrums der Verbundzentrale des Bibliotheksverbundes Bayern BVB in das Leib niz Rechenzentrum LRZ beschlossen Die Anwendungsbetreuer verbleiben in der Innenstadt Mit der Erstellung eines Dienstleistungsvertrags bestehend aus Rahmenvertrag Leistungsve
449. nnnn esse ensn ons ennn en 34 2 4 1 Zugriff auf gemeinsame Daten 34 2 4 2 Archiv und Backupsystem eesssesssessseesnnnennesnnennsnnnnennnennneensennnennennennnennnnnn 36 E Ee Ee EE 37 2 5 Virtualisierung am LRZ ons ennennnneneenesnennsennsnenseense ons ennn en 38 2 6 Soltware Angeb t i ausseett mis a a T Ine iss n a ig 39 2 6 1 Programmangebot auf LR Rechnen 39 2 6 2 Programmangebot f r Nicht LRZ Rechner Campus Vertr gce 40 2 1 Netz Dienster 0 2w te een EE Ee 40 2 7 1 WWW Zope und Suchmaschinen 00ssessseesseenseenseenneennennennnennnnnenennnnnn 40 2 7 2 Proxy und Gatewavdenste niise aia n R E A EE 41 e WEEN LE LEE 42 200 SE Malle a en aa sn 42 2 1 5 W hlzug nge un nsiteaeileineifgel nenn RE leihen 43 2 7 6 Zugang f r mobile Endger te 0 nnsennseeoensseeeessoesesseessesetseseessesresstssrssessessesssesets 43 2 151 ANEN euer IPSEC J enee SEET 43 2 7 8 Zugang zu Onlbne Datenbanken 44 2 8 Sicherheit bei Rechnern und Netzen esse enne ernennen 44 2 8 1 Sicherheitsma nahmen des Rechenzentrums s sssssessesensseseossesrossessrsseeseseessesets 45 2 8 2 Sicherheitsma nahmen des Endbenutzers insbesondere VirenschutZ 46 2 8 3 Zertifizierung von Serverrechnern nach XK SO 46 2 9 Grafik Visualisierung Multmedta ernennen 47 2 9 1 Dateneingabe und Ausgabeger te uneeneeeseessneenseensennnennnennennnennennn nennen 47 2 9 2 Zentr
450. novatives Supercompu ting in Deutschland mit Beitr gen ber Projekte die auf dem H chstleistungsrechner des LRZ bearbeitet wurden heraus Dar ber hinaus erscheint monatlich der LRZ Newsletter in dem u a Termine Veranstaltungen Kurse und Stellenangebote mitgeteilt werden und der ber eine Mailingliste verteilt sowie im Web angeboten wird Dort ist auch ein Newsletter Archiv verf gbar Ferner stehen Faltbl tter zur Verf gung die sich auf Deutsch oder Englisch an die allgemeine ffentlich keit wenden oder speziell f r Studenten die Dienstleistungen des LRZ vorstellen 262 Teil I Organisatorische Ma nahmen im LRZ F r die Zusammenarbeit mit den Medien erwies es sich als u erst vorteilhaft ihnen einen festen An sprechpartner http www Irz muenchen de presse nennen zu k nnen 8 7 LRZ als Ausbildungsbetrieb Das LRZ ist 2007 als Ausbildungsbetrieb anerkannt worden und bietet Ausbildungspl tze f r IT System Elektroniker und Fachinformatiker Systemintegration an Mit Beginn des Ausbildungsjahres 2007 2008 haben drei Auszubildende ihre Ausbildung am LRZ begonnen Die Erfahrungen mit den Auszubildenden 2 Fachinformatiker Systemintegration 1 IT Systemelektroniker w hrend ihres ersten Ausbildungsjahres waren ausgesprochen positiv so dass die Leitung des LRZ im Sommer 2008 entschieden hat mit Beginn des Ausbildungsjahres 2009 2010 zwei weitere Auszubildende einzustellen 8 8 Betreuung von Diplom Bachelor Master un
451. nsatz von VPN genutzt werden kann empfehlen die Bibliotheken DocWeb auch verst rkt ihren Benutzern DocWeb und damit auch die Zeitschriftenproxies k nnte aber in Zu kunft durch Einf hrung des Shibboleth Bibliotheksystems abgel st werden Bei Shibboleth m ssen die Benutzer nicht mehr ber einen Proxy bzw ein Webportal gehen um autorisiert auf elektronische Zeit schriften zugreifen zu k nnen Vielmehr k nnen sie direkt die Verlagswebseite besuchen und sich dort anmelden Die Autorisierung beim Verlag erfolgt dann ber spezielle Server im MWN die vom Verlag abgefragt werden Shibboleth befindet sich gerade im Aufbau Allerdings funktioniert die Zusammenar beit oft nur mit gro en Verlagsh usern gut DocWeb wird deshalb wohl noch einige Zeit lang betrieben werden Deshalb wurden 2008 die beiden alten DocWeb Server durch einen neuen und zwei virtuelle Server ersetzt Das Load Balancing l uft nicht mehr ber DNS Round Robin sondern ber die SLBs sie he vorigen Abschnitt die auch die Verschl sselung ber HTTPS bernehmen 7 2 8 Domain Name System An der 2006 eingef hrten Konfiguration des DNS im MWN wurden 2008 keine wesentlichen nderun gen vorgenommen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 213 Neben IPv4 werden auch IPv6 Eintr ge unterst tzt Der Webdns Dienst wird inzwischen von 152 Nut zern au erhalb des LRZ zur Pflege der DNS Eintr ge verwendet Die Anzahl der ber Webdns verwalte ten DNS Zonen sti
452. nsynchronisation ein zusetzen 5 4 2 2 Vorgehensweise Details zum Projektverlauf k nnen den entsprechenden Planungs und Verlaufsdokumentationen ent nommen werden hier sollen nur die einzelnen Phasen des Projekts grob skizziert werden Die im Be richtsjahr durchgef hrten T tigkeiten sind weiter unten in Abschnitt 5 4 2 4 aufgef hrt Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 103 Den Anfang bildet die Datenerhebung mit Hilfe von Interviews und eines Fragenkatalogs der den Dienst und Plattformverantwortlichen nach Absprache mit den Abteilungs und Gruppenleitern vorgelegt wird werden Informationen ber vorhandene Datenbest nde Datenfl sse und zugrunde liegende Prozes se zusammengetragen und im Rahmen der Auswertung konsolidiert Das Resultat ist ein fundierter ber blick ber die Integration der ZBVW im LRZ Dienstespektrum und das Wissen welche Benutzerdaten von welchem Dienst ben tigt werden und welche koh sionsbedingten Konsequenzen eine Reorganisation der ZBVW auf den jeweiligen Dienst hat Im Rahmen einer Potentialanalyse wird untersucht ob und wie die Anforderungen der LRZ Benutzerverwaltung gegenw rtig mit Hilfe kommerzieller Identity Management L sungen abgedeckt werden k nnen da der Markt f r IM Produkte noch vergleichsweise jung ist und sich noch in einem st ndigen Wandel befindet liegt die Schwierigkeit bei der Implementierung nicht nur im Aufwand f r das Customizing sondern vor allem a
453. ntegration verbessert worden da die SQL Anfragen jetzt besser optimiert werden k nnen Daneben wurde mit dieser Integration auch eine einheitliche Farbgestaltung eingef hrt Manuell gepflegte SOLL Daten werden mit einem beigen Hintergrund dargestellt automatisch aus den Komponenten ausgelesene IST Daten mit einem grauen Hintergrund Au er der Integration der VLAN IST Daten wurde auch der IST Datenbestand der auf den Routern konfigurierten Subnetze und Routen in die Netzdokumentation integriert Dieser Datenbestand diente bisher vor allem zum Zweck des Abgleichs mit den in der Netzdokumentation gespeicherten SOLL Daten und ist jetzt auch unabh ngig davon abrufbar VLAN VLAN Id 123 RS x Klasse Nutzer Beschreibung VoIP Telefone im LRZ Subnetzadresse 129 187 198 0 23 Ansprechpartner Keine IST Daten KOMPONENTEN PORTS SUBNETZE VLAN IST Daten lt lt unkomprimiert Komponente Untagged Tagged csri 2wr Gi3 1 Gi3 3 Te2 2 Te7 1 csr2 2wr Te1 1 swz1 1wl A1 A21 B1 B24 C1 C24 D1 D24 E1 E24 F1 F24 Iswz2 1wl A1 A21 B1 B24 C1 C24 D1 D24 E1 E24 F1 F24 Iswz3 1wl Wan o swz5 1wl A21 B20 B22 D20 D24 E18 E21 E23 F2 F16 F19 F24 swz7 1wl A Iswi1 kwi 19 24 26 swid 2wr 50 Iswz1 2wr A1 A23 swz4 2wr A1 A3 D14 Trk1 Iswz5 2wr A1 A3 J2 J4 Trk1 swz1 kwz A1 A21 A23 Abbildung 101 Kompakte Darstellung der IST Daten zum VLAN 123 218 Teil II Entwicklungen und T tigkeiten im Bereich des
454. nten Erfassung bereits eingesetzte System UnivIS untersucht bei dem sich jedoch auch herausstellte dass es nicht universell f r alle Arten von G sten eingesetzt werden kann nicht alle ben tigten Datenfelder erfasst und nur unzureichend geeignete Schnitt stellen bietet Aus diesen Gr nden wurde ein dediziertes web basiertes Management Interface f r die Erfassung von G sten der TUM konzipiert das in enger Kooperation mit TP Portal umgesetzt und ins TUM Portal integriert werden soll e Konzeption der Gruppenverwaltung Viele Systemberechtigungen beispielsweise zur Benutzung von Rechnerpools sollen nicht individuell vergeben werden sondern an Gruppen von Benutzern beispielsweise alle Studenten um den individuellen Verwaltungsaufwand zu reduzieren e Kooperation mit anderen Hochschulen Im Rahmen des ZKI Arbeitskreises Verzeichnisdienste dem Arbeitskreis Meta Directories der Runde der bayerischen Rechenzentrumsleiter und dem neu geschaffenen Arbeitskreis M nchner Verzeichnisdienste wurden die im Rahmen des Teil projekts entstandenen Konzepte und Werkzeuge mit anderen Hochschulen insbesondere der LMU M nchen diskutiert Dabei spielen das im Rahmen des Projekts entstandene LDAP Schema die konzipierten Konnektoren die Verzeichnisdienstarchitektur und die angestrebten Optimierungen der Hochschulprozesse eine zentrale Rolle Folgende Arbeiten wurden im Berichtszeitraum 2008 durchgef hrt e Die Ende 2007 in de
455. nterauftragnehmer der TUM die auch die Gesamtprojektleitung tr gt F r den Produktivbetrieb ist es Dienstleister Die erarbeiteten technischen und organisatorischen L sungskonzepte und Prototypen m ssen betriebstauglich sein d h Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 63 den Anforderungen hinsichtlich Verf gbarkeit Zuverl ssigkeit Sicherheit Reporting Skalierbarkeit Change Management Rollenfestlegung etc gen gen Neben der technisch verteilten Systeml sung interessiert insbesondere auch der Aspekt einer sauberen Spezifikation der organisatorischen Arbeitsteilung Prozessdefinitionen Workflows und der Dienst schnittstellen QoS SLAs im Sinne einer Outsourcing Situation Die besondere Rolle des LRZ als Dienstleister im M nchner Wissenschaftsnetz f r alle Hochschulen erfordert dass die L sungsans tze Vorbildcharakter haben Die L sungskonzeption muss im Grundsatz wieder verwendbar d h generisch sein Insbesondere muss sie in den Grundz gen z B auch f r die Ludwig Maximilians Universit t M nchen anpassbar sein damit das LRZ nicht doppelte L sungskon zepte und Infrastrukturen aufbauen und betreiben muss Vor diesem Hintergrund werden alle am LRZ verantworteten Teilprojekte von IntegraTUM bearbeitet Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 65 3 Infrastruktur des LRZ 3 1 Die maschinelle Ausstattung 3 1 1 Systeme Die folgende Tabelle gibt einen berblick ber die Ausst
456. nterschiedlichsten Sicherheitswerkzeuge z B Firewalls Intrusion Detection Systeme usw jedoch immer nur mit dem Fokus auf die lokale Organisation Ein Grid weites Intrusion Detection oder Fr hwarnsystem existiert derzeit nicht Es gibt auch wenig Untersuchungen zu Grid spezifischen Angriffen oder Systeme die in der Lage w ren solche spezifischen Angriffe zu erkennen Auch von der im Grid sonst zugrundeliegenden Kooperation zwischen den verschiedenen Organisationen wird im Si cherheitsbereich derzeit kaum Gebrauch gemacht Es existiert kein Gesamtkonzept f r ein kooperatives Grid weites f deriertes Intrusion Detection System GIDS Aus diesem Grund wurde der GIDS Antrag gestellt der genau diese Fragestellung adressieren soll Ziel dieses Vorhabens ist die Bereitstellung eines GIDS Dienstes f r das D Grid Dabei sollten soweit wie m glich bestehende Sicherheitssysteme und deren Daten integriert und zu einem dom nen und orga nisations bergreifenden Gesamtsystem zusammengefasst werden Die Grundidee ist es Angriffe durch die kooperative Nutzung und Auswertung von lokalen Sicherheitssystemen zu erkennen Dazu ist der Austausch von Angriffsdaten und somit deren datenschutzkonforme Aufarbeitung auch zur Wahrung individuell bestehender Sicherheits und Informationsverbreitungsrichtlinien notwendig In einem koope rativen IDS besteht die M glichkeit Angriffe schneller zu erkennen als dies mit unabh ngigen und nur die lokale Sicht ber cksi
457. ntrums im Rahmen dieser Satzung fest Sie stellt den Vorentwurf des Haushalts auf Im Rahmen der gesetzlichen und tariflichen Bestimmungen hat sie die Personalangelegenheiten der am Leibniz Rechenzentrum t tigen Beamten Angestellten und Arbeiter dem Pr sidenten der Akademie gegen ber vorzubereiten insbesondere Vorschl ge f r die An stellung Bef rderung H hergruppierung und Entlassung von Bediensteten abzugeben Die Kommission kann einzelne ihrer Aufgaben dem Direktorium bertragen Die Kommission gibt dem Direktorium Richtlinien f r den Betrieb des Leibniz Rechenzentrums Sie kann Berichterstattung durch das Direktorium verlangen Die Kommission entscheidet bei Beschwerden von Benutzern der Einrichtungen des Leibniz Rechenzentrums soweit sie nicht vom Direktorium gere gelt werden k nnen Dem Direktorium obliegt der Vollzug der ihm von der Kommission bertragenen Aufgaben und des Haushalts Der Vorsitzende des Direktoriums vollzieht die Beschl sse des Direktoriums und leitet den Betrieb des Leibniz Rechenzentrums Er sorgt f r die wissenschaftliche Ausrichtung der Arbeiten am Leibniz Rechenzentrum 85 Vertretung der wissenschaftlichen Mitarbeiter am LRZ Die am LRZ hauptberuflich t tigen wissenschaftlichen Mitarbeiter w hlen f r die Dauer von jeweils zwei Jahren in geheimer Wahl eine Vertrauensperson aus ihrer Mitte Fragen der Planung und Verteilung der die wissenschaftlichen Vorhaben des LRZ betreffenden Aufgaben der Personal
458. ntwickelt ein umfassendes Testbed aufgesetzt das verteilt bei den beteiligten Projektpartnern be trieben wird und das Architekturkonzept prototypisch umgesetzt Um eine f r alle Grid Nutzer und Dienste verwendbare middleware bergreifende Monitoring Plattform zu realisieren setzt D MON auf eine zentrale Datenbank zur Speicherung der Monitoringdaten welche von Adaptoren und Transformato ren prinzipiell aus jedem vorhandenen Informationssystem der verschiedenen Middlewares extrahiert und in die Datenbank eingef gt werden Der Zugriff auf die gesammelten Monitoring Daten ist ber eine Grid konforme Schnittstelle f r Datenbanken OGSA DAJ vorgesehen 2 2 SA DAI DB DB View 4 View D MON 3 H ay Database MYSQL Trigger Integrated Coupling eem Service GLUE 2 0 Reference Realization Abbildung 113 D MON Architektur D MON wird den Communities und Virtuellen Organisationen eine VO spezifische Sicht auf ihre Res sourcen und nur ihre Ressourcen bereitstellen Dies ist wegen der gro en Anzahl an Communities im D Grid die dieselben Ressourcen verwenden absolut notwendig Die vertikale Integration in D MON Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 235 besch ftigt sich mit der Integration von VO spezifischen Informationen in die Monitoring Architektur sowie mit der Bereitstellung dieser Informationen Diese vertikale Integration beinhaltet auch die Ent wicklung von Gridsphere Portlets f r die Darstellung in
459. ochleistungssysteme 01 12 2008 Schreiner Alexander techn Angest Benutzernahe Dienste und Systeme 8 1 2 Abg nge Datum Name Dienstbezeichnung Abteilung 29 01 2008 Haupt Sascha stud Hilfskraft Hochleistungssysteme 31 01 2008 Fischer Andreas Praktikant Benutzernahe Dienste und Systeme 31 01 2008 Hegele Fabian stud Hilfskraft Benutzernahe Dienste und Systeme 31 01 2008 Scheck Leonhard wiss Mitarbeiter Hochleistungssysteme 14 03 2008 Berning Kajetan stud Hilfskraft Zentrale Dienste 31 03 2008 Bermuth Matthias stud Hilfskraft Benutzernahe Dienste und Systeme 31 03 2008 Heckl Alexander stud Hilfskraft Zentrale Dienste 30 06 2008 L dl Martin stud Hilfskraft Benutzernahe Dienste und Systeme 30 06 2008 Mateescu Gabriel Dr wiss Mitarbeiter Hochleistungssysteme Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 251 31 07 2008 Breitwieser Otto Leo stud Hilfskraft Benutzernahe Dienste und Systeme 31 07 2008 Schedel Daniel Hilfskraft Benutzernahe Dienste und Systeme 30 09 2008 Berning Kajetan stud Hilfskraft Zentrale Dienste 30 09 2008 Cramer Carsten techn Angest Benutzernahe Dienste und Systeme 31 12 2008 Baur Timo wiss Mitarbeiter Kommunikationsnetze 31 12 2008 Berger Georg stud Hilfskraft Hochleistungssysteme
460. oftware Quellen Objekte Dokumentationen und anderen Daten die ge setzlichen Regelungen Urheberrechtsschutz Copyright einzuhalten e sich ber die Bedingungen unter denen die zum Teil im Rahmen von Lizenzvertr gen erworbene Software Dokumentationen oder Daten zur Verf gung gestellt werden zu informieren und diese Bedingungen zu beachten f insbesondere Software Dokumentationen und Daten soweit nicht ausdr cklich erlaubt weder zu kopieren noch weiterzugeben noch zu anderen als den erlaubten insbesondere nicht zu gewerbli chen Zwecken zu nutzen Zuwiderhandlungen k nnen Schadensersatzanspr che begr nden 87 4 Selbstverst ndlich darf die IV Infrastruktur nur in rechtlich korrekter Weise genutzt werden Es wird ausdr cklich darauf hingewiesen dass insbesondere folgende Verhaltens weisen nach dem Strafge setzbuch unter Strafe gestellt sind a Ausforschen fremder Passworte Aussp hen von Daten 202 a StGB b unbefugtes Ver ndern L schen Unterdr cken oder Unbrauchbarmachen von Daten 303 a StGB c Computersabotage 303 b StGB und Computerbetrug 263 a StGB d die Verbreitung von Propagandamitteln verfassungswidriger Organisationen amp 86 StGB oder rassistischem Gedankengut 131 StGB e die Verbreitung gewisser Formen von Pornographie im Netz 184 Abs 3 StGB Abruf oder Besitz von Dokumenten mit Kinderpornographie 184 Abs 5 StGB g Ehrdelikte wie Beleidigung oder Verleum
461. on 37831 8705 E Mail zepple irz de RB Institut LRZ A Kurzbeschreibung Anbindung Business Campus Garching Unterbezirk wO Ei Wunsch Im Business Campus Garching Parkring 4 sollen in Zukunft TUM nahe BE Angef gte Dateien Max 2 MB Verlaufs Dokumentation Einrichtungen einziehen Als erste zieht de FhG SIT von Frau Prof Eckert ein Datei Gr e Bezeichni A Interesse besteht bei FORTIS Prof Broy und der TUM selbst Mathematik an a Das LRZ wird Zuleitung realisieren und den Institutionen in Rechnung stellen Anhangi Im Januar 2008 soll noch eine SDSL Strecke von 4 6 Mbit s realisiert werden ab Anhang April 2008 ist eine 1 Gbit s Strecke vorgesehen Anhang3 Anhang4 AnhangS Anhana6 Bearbeiter Alfred Laepple Wolfgang Beyer Heinrich Glose Helmut Reiser Helmut Troebs A Bearbeiter hinzuf gen Si Bearbeitungs Historie P W hrend der Wartungszeit Tja Uhrzeit A Realisierungstermin 30 04 2009 1 ausgew hlt 6 von 11 Alfred Laepple remedy lrz muenchen de Abbildung 102 Beispiel KOM Change Record KCR ARS Nutzungsstatistik Hilferufliste IP Adress Ticket KCR Dienstinstanz Ticket Dienst Ticket Ger te Ticket Einzelteil Ticket STABEG Master Ticket Trouble Ticket Quick Ticket Abbildung 103 ARS Nutzungsstatistik 7 3 5 IT Service Management Die Zuverl ssigkeit und Verf gbarkeit von IT Services ist in erheblichem Ma auch von der effektiven Kommunikation Kooperation und
462. on Cluster Computing and the Grid eigener Vortrag 19 05 2008 23 05 2008 Lyon F Hommel IntegraTUM Workshop eigene Vortr ge 28 05 2008 30 05 2008 Altenmarkt Hartmannsgruber Hommel Storz HP OpenView University Association 22 06 2008 26 06 2008 Marokko Hommel BRZL AK Meta Directory und AK AAI eigener Vortrag 23 07 2008 23 07 2008 Augsburg Hommel Webkongress Web 2 0 Die Zukunft der Webtechnologien 04 09 2008 05 09 2008 Erlangen Bezold Chatwin DV Fachseminar f r Operateure Netzwerkoperateure und techn Angestellte eigener Vortrag 17 09 2008 24 09 2008 Teisendorf Oesmann Seminar Eigener Vortrag zum Thema Identity Management 23 09 2008 24 09 2008 Frankfurt Hommel Arbeitskreis AK NetzPC 25 09 2008 25 09 2008 N rnberg Niedermeier IBM LRZ Workshop Kooperationsgespr che Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 255 09 10 2008 09 10 2008 B blingen Hommel Windows Server 2008 Workshop 15 10 2008 17 10 2008 W rzburg Niedermeier Abteilung Hochleistungssysteme LB Klausur 21 01 2008 22 01 2008 Beilngries Brehm Steinh fer Forschungszentrum Karlsruhe Kick off DGI D Grid 23 01 2008 24 01 2008 Karlsruhe Berner ETH Z rich Einladung zur Jubil umsfeier des Swiss National Supercomputing Centre CSCS 29 01 2008 31 01 2008 Manno CH Bopp PRACE Kick off Meeting 29 01 2008 30 01 2008 J lich Christadler Frank Huber Steinh fer Uni Vorbereitun
463. onale Wissen schaftsnetze verbindet Neben klassischen IP Verbindungen k nnen im Rahmen des Geant2 Verbundes auch End to End E2E Links eingerichtet werden Ein E2E Link ist eine dedizierte optische Multi Gigabit Verbindung zwischen zwei wissenschaftlichen Einrichtungen Endpunkte die sich im Allgemeinfall in unterschiedlichen L ndern befinden Die End punkte sind zun chst an die jeweiligen NRENs angebunden die wiederum ber G ant2 oder in Ausnah mef llen auch direkt miteinander verbunden sind siehe Abbildung 119 EZE Link A B EndPoint A PS Domain 1 Domain 3 3 EndPoint B Abbildung 119 Grundstruktur von G ant2 E2E Links Kunden des E2E Link Dienstes sind zun chst das CERN in der Schweiz hier werden die Links einge setzt um die riesigen Datenmengen des neuen Teilchenbeschleunigers LHC zu internationalen For schungseinrichtungen zu bertragen sowie das Grid Projekt DEISA Weitere Projekte planen den Ein satz von E2E Links E2E Links werden auf ISO OSI Netzwerkschicht 2 realisiert und stellen den Kunden die volle Bandbreite der optischen Verbindung zur Verf gung derzeit im allgemeinen 10 Gbit s Aufgrund der Eigenst ndig keit der beteiligten Partner besteht ein hoher Grad an Heterogenit t in Bezug auf die eingesetzten Netz technologien So kommen derzeit Ethernet und SONET SDH zum Einsatz zuk nftig ist auch MPLS ge plant Dabei wird Hardware von verschiedenen Herstellern genutzt wie z B Alcatel
464. ongress 30 11 2008 04 12 2008 Neuss Brenner 4th IEEE International Conference o e Science 06 12 2008 10 12 2008 Indianapolis USA Baur T Abteilung Zentrale Dienste LB Klausur 21 01 2008 22 01 2008 Beilngries Apostolescu Breinlinger Uni BSK Sondersitzung zu MS Campus 22 01 2008 22 01 2008 N rnberg Oechsle DFN Betriebsausschusssitzung 19 02 2008 19 02 2008 Berlin Apostolescu Uni RZ AK Softwarelizenzen 03 03 2008 03 03 2008 Regensburg Oechsle Uni BSK Sitzung 11 03 2008 11 03 2008 Eichst tt Oechsle Verhandlungen zum Novell Vertrag 23 04 2008 23 04 2008 N rnberg Oechsle Firma Xerox 13 05 2008 13 05 2008 Regensburg Apel Lippert Verhandlungen zum Novell Vertrag 04 06 2008 04 06 2008 N rnberg Oechsle Management Forum Seminar Das Energieeffiziente Rechenzentrum Das Leibniz Rechenzentrum IT gerechte Planung und Neubau aus Sicht des Nutzers 16 06 2008 18 06 2008 Frankfurt Breinlinger Referent DFN Betriebsausschusssitzung 02 07 2008 02 07 2008 Berlin Apostolescu DV Fachseminar f r Operateure Netzoperateure und techn Angestellte eigener Vortrag Apos tolescu Breinlinger 17 09 2008 24 09 2008 Teisendorf Apostolescu Breinlinger Feck Meister Mende Zellner ZKI Arbeitskreis Softwarelizenzen 22 09 2008 24 09 2008 Kaiserslautern Oechsle PRACE Pro WP7 PRACE Workshop on compute centre infrastructure 02 10 2008 03 10 2008 Manno CH Breinling
465. onnektoren genutzt werden k nnen Hierbei wird so weit wie m g lich auf den Standard LDAPv3 zur ckgegriffen da dieser noch nicht von allen beteilig ten Systemen unterst tzt wird sind auch propriet re Protokolle und der Datenaustausch im Textformat z B als XML Dateien notwendig o angestrebte Synchronisationsfrequenz F r zahlreiche Datenfelder die bislang nur einmal pro Semester z B per Diskette bermittelt wurden wird ein t glicher Datenabgleich an gestrebt F r besondere Datenfelder zum Beispiel das Passwort eines Accounts wird die Propagation in Echtzeit anvisiert wobei von Verz gerungen im Sekundenbereich auszu gehen ist o Behandlung von Fehlersituationen die auftreten k nnen und m glichst weit gehend au tomatisierte Reaktionen darauf bzw die Festlegung entsprechender Zust ndigkeiten und Ansprechpartner Dabei wurden auch grundlegende Optimierungsm glichkeiten er rtert und Priorit ten f r die An bindung der jeweiligen Systeme definiert Konzeption eines Datenmodells f r den zentralen Verzeichnisdienst d h eines LDAP Schemas f r das Meta Directory Da sich die von Verzeichnisdienst Software Herstellern vorgefertigten LDAP Schemata f r das Projekt als nicht ausreichend geeignet erwiesen wurden mehr als 20 Objektklassen Datentypen mit insgesamt ber 100 Attributen Datenfeldern erarbeitet und hin sichtlich ihrer Syntax Semantik und Soll Verwendung spezifiziert und in Form von Schema Dateien zur
466. onssnnssnnnsnne 85 5 1 Berat ng nd Hotline nen teren a ae sn lat 85 5 1 1 Web Interface zum Incident Management des LRZ Hotline Web nen 85 5 1 2 Hotline LRZ Support Formular an SIM angchunden 85 5 1 3 Neues Hotbne Jntern Formular 85 5 14 Neuer Ablauf der Benutzeranfragen der Technischen Universit t M nchen aus susanne A dee 85 5 1 5 bersicht ber die Nutzung des Trouble Ticket Systems ennee 87 5 1 6 bersicht ber die Nutzung des Quick Ticket Systems OT 89 5 2 Kurse Veranstaltungen F hrungen sssssesseseesseseesseesesstestssteseestestesetssessesstsresseesesseesese 89 5 2 1 Kurs bersicht Statistik 2008 89 5 2 2 Nutzung der LR Z kKursr ume essen essen 91 5 23 F hrungen ns a a T E E e a a a e a e a aS 93 Jahresbericht 2008 des Leibniz Rechenzentrums 5 2 4 Erstsemesterveranstaltungen essen nennen 94 5 2 5 Sicherheit im Internet Ferienprogramm f r Sch ler 94 5 3 Software Versorgung f r Rechnersysteme au erhalb des IR 94 5 3 1 Bezugsberechtigungen engeschr nkt en enne nn enne 94 5 3 2 Bedarfsorientierte Kosten versus Mietmauschale 94 5 3 3 Mindmanager Softwaredownload unter Nutzung der Verzeichnisdienste 95 3 3 4 Online Bestell ngen r 2 2828er ar Aenikaermsssabesnelin 95 3 39 S SCHTER ee ae en EE 95 5 3 6 Lizenzbestimmungen versus technische M glichkeiten nennen 95 5 3 7 Kurzdarstellung der wichtigsten aktuell bestehenden S
467. onssystem Da tenmodell realisiert Dadurch unterst tzt das CNM nun auch mehrere Interfaces pro Dienst pro Zeitraum hinsichtlich der Autorisierung des Kennzahlzugriffs und der Bereitstellung von Informationen f r den Kunden Mozilla Firefox ll Datei Bearbeiten Ansicht Chronik Lesezeichen Extras Hilfe a r g https sonar1 munich cnm dfn de webtest topo dynamic cgi bin cnm gt Cl Erste Schritte Q Aktuelle Nachrichten 7 Sunday Open House UPS Locator CNM O Conf Test letzter Update 02 13 2009 14 48 21 Hei paos about the weatherman ZX LHCOPN Current Status Weather map Overview Link CH CERN CA TRIUMF Metrics Link CH CERN CA TRIUMF Detailed status Friday 13 Feb 2009 Time GMT 13 48 TRIUMF AS36391 n BNL AS4 o CA TRIUMF US T1 BNL s TW AS24167 o FERMI AS 3152 o TW ASGC 8 US FNAL CMS e CERN AS 513 IN2P3 AS789 NDGF AS39590 CH CERN me FR CCIN2P3 NDGF WH WEI RAL AS 43475 PIC AS43115 o UK T1 RAL mem ES PIC WO SARA AS1 126 o CNAF AS137 NL T1 H IT INFN CNAF ol WE GRIDKA AS34878 Aw Weathermap Key DE KIT WO wm tech 10Gbps M LHCb Mech em thin 1G ps B ke g an d Fertig sonarl munich cnm dfrn de e Abbildung 112 Hauptsicht der LHC OPN Wetterkarte 7 5 3 D GRID Unter Grid Computing versteht man die kollektive und kollaborative Nutzung weltweit verteilter hetero gener Ressourcen wie z
468. otokolle Das LRZ hat das Teilprojekt Inter und Intra Domain Management IIDoM inne Die Stelle konnte erst zum 1 Juni besetzt werden und daher das Teilprojekt erst versp tet gestartet werden Der geplante Start war M rz 2008 Das Projekt l uft bis 30 September 2010 Im Rahmen dieses Teilprojektes wird ein Konzept und eine Architektur f r ein integriertes Inter Domain Network Management System f r Ultra Hochgeschwindigkeitsnetze basierend auf Ethernet und DWDWM Techniken spezifiziert Um extrem breitbandige Verbindungen zwischen zwei Kunden zu schal ten sind h ufig mehrere Provider beteiligt die i d R jeweils unterschiedliche eigene Systeme und Ger te verschiedener Hersteller verwenden Heterogenit t Um einen solchen Dienst erbringen zu k nnen muss ein Managementsystem in der Lage sein mit diesen Dom nen bergreifenden Inter Domain Aspekten umgehen zu k nnen Das Themengebiet des IT Managements l sst sich in die f nf Aufgabengebiete Fault Fehlermanage ment Configuration Accounting Performance und Security Management aufteilen FCAPS Im Rah men dieses Teilprojektes sind insbesondere das Fehler Konfigurations sowie das Performance Mana gement von Interesse Au erdem werden die Fragen des Organisationsmodells f r dom nen bergreifende Zusammenarbeit untersucht Im Dezember konnte der erste Meilenstein mit einer Anforderungsanalyse f r das Management System und zwei Organisationsmodellen termingerecht fertigge
469. ots zum Desktop Management und im Rahmen internationaler For schungsprojekte wie dem Large Hadron Collider am CERN ben tigt o Analog dazu wurde die Integration der relevanten Teile des Integra TUM Datenbestands in die LRZ Benutzerverwaltung konzipiert sie wird die automatische Vergabe von Ken nungen an alle neu immatrikulierten TUM Studenten bzw neu angestellten TUM Mitarbeiter unterst tzen und die Nachteile durch die bislang getrennte Verwaltung von IntegraTUM und Master User Kennungen beheben o Die Integration von Grid Kennungen wurde vorbereitet und prototypisch f r einen Teil der DEISA Grid Kennungen durchgef hrt Die Teilnahme an den Grid Verb nden setzt voraus dass deren jeweilige Benutzerverwaltungsinfrastrukturen verwendet werden da durch wird eine aufwendige doppelte Pflege sowohl in den LRZ als auch den jeweiligen Grid Systemen erforderlich Durch die Kopplung der Systeme k nnen dieser redundante Aufwand und damit verbundene Fehlerquellen vermieden werden Die Produktivf hrung des neuen Identity Management Systems ist somit einerseits der Abschluss der mehrj hrigen Entwicklungsarbeiten stellt aber gleichzeitig den Beginn daf r dar die neuen technischen M glichkeiten zu nutzen und damit auch organisatorische Prozesse deutlich zu vereinfachen Dar ber hinaus wird die Entwicklung der Infrastruktur fortgesetzt indem beispielsweise Anregungen der Master User wie das neue Id Portal noch weiter verbessert werden kann kont
470. ows 802 1X nicht mehr angeboten werden konnte 208 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Yearly Graph 1 Day Average 60 40 20 0 Nov Dec Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Jan Feb Max Average Current DI DFN Roaming WEB 58 User 26 User O User Abbildung 90 Nutzung VPN WEB Yearly Graph 1 Day Average 60 40 20 0 Nov Dec Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Jan Feb Max Average Current E DFN Roaming 62 User 14 User 47 User Abbildung 91 Nutzung DFN Roaming 7 2 4 Unterst tzung von Veranstaltungen Das LRZ richtet f r Veranstaltungen im M nchner Wissenschaftsnetz MWN auf Bedarf ein spezielles Netz ein damit die Tagungsteilnehmer das Netz ohne besondere Authentifizierung nutzen k nnen Hier bei wird davon ausgegangen dass die Nutzer dieses Netzes nicht unbedingt aus dem Kreise der M nch ner Hochschulen stammen sondern auch Firmen u dgl das Internet und das MWN ohne spezielle Vor kehrungen ohne VPN Client Installation ohne Validierung nutzen k nnen Eine Anmeldung und die bei frei zug nglichen Netzanschl ssen ansonsten obligatorische Verwendung eines VPN Zugangs werden hier nicht gefordert Diese offene Konfiguration bleibt auf den Zeitraum und den Ort der Veranstaltung begrenzt Der Zu gang ist drahtlos WLAN nach IEEE 802 11b g m glich Nur in Ausnahmef llen werden feste Netzan schlussdosen 100 Mbit s LAN zur Verf gung gestellt Ger ten d
471. pam Versendung Der NAT o MAT blockt automatisch kompromittierte Rechner die den Betrieb beeintr chtigen und veranlasst den Besitzer eines derartigen Rechners durch geeignete Hinweise seinen PC zu s ubern In schweren F llen schickt der NAT o MAT au erdem noch eine Hinweis Mail an die zust ndigen Netz verantwortlichen In der Statistik werden nur diese F lle gez hlt Im Jahr 2006 konnte die Schutzfunktion des NAT o MAT noch weiter gesteigert werden e Das Botnet Monitoring wurde relativ bald auch in den NAT o MAT integriert e Der NAT o MAT wirkt sich nicht mehr nur auf Rechner mit privaten IP Adressen aus die Dienste im Internet in Anspruch nehmen wollen Durch ein geeignetes Policy based Routing werden jetzt auch s mtliche VPN und Einwahlverbindungen Modem ISDN und M net zwangsweise durch den NAT o MAT geleitet Dementsprechend nahmen auch die vom NAT o MAT erkannten Missbrauchsf lle drastisch zu Art des Monitoring Anzahl der F lle Anzahl der durch das die verd chtigen Rechner entdeckt wurden Rechner Entdeckte kompromittierte Rechner NAT o MAT schwere F lle 758 758 Viele Mail Verbindungen zu anderen Rechnern im Internet 55 55 Port Scans 46 46 DoS 18 18 Extrem hoher Datenverkehr 13 13 FTP Server der auf einem Nicht Standard Port arbeitet 6 6 Botnet 4 4 Teilsumme 900 900 False Positives Viele Mail Verbindungen zu anderen Rechnern im Internet 9 9 FTP Server der auf einem Nicht Standard Port arbeitet 9
472. peicherten Daten k nnen vom LRZ 6 Monate nach Ablauf des Projekts gel scht werden 4 Geb hrenordnung 88 Absatz 1 F r die Nutzung von LRZ Systemen und die Nutzung des M nchner Hochschulnetzes k nnen Geb hren gem der Geb hrenordnung des Leibniz Rechenzentrums anfallen Die Geb hren richten sich nach der im Antrag auf ein Projekt festgelegten Aufgabengruppe F r Aufgaben aus dem Bereich einer nut zungsberechtigten Hochschule 1 Absatz 2b entstehen keine Geb hren Die Kosten f r maschinell erfasstes Verbrauchsmaterial sind ebenfalls in der Geb hrenordnung des Leib niz Rechenzentrums festgelegt und gelten f r s mtliche Aufgabengruppen 5 Eingeschr nkte Nutzung von Supercomputern 8 Absatz 2 Angeh rige oder Organisationen einiger L nder d rfen aufgrund von Bestimmungen der Ausfuhrbeh rde der Vereinigten Staaten von Amerika US Supercomputer nicht benutzen Analoge Regelungen gelten auch f r japanische Supercomputer Derzeit betreffen diese Einschr nkungen nur die L nder Irak Iran Kuba Libyen Nordkorea Sudan und Syrien Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 279 Anhang5 Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes MWN Fassung vom 19 10 2007 Pr ambel Diese Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes kurz MWN sollen die Zusammenarbeit zwischen Einrichtungen der berechtigten Institutionen vgl Benutzungsrichtlinien des Leibniz Rechenzentrums
473. phan Geb 4215 M Weihenstenhan Gem sebau Geb 4201 M Weihenstephan Genetik Geb 4223 M Weihenstenhan Gr nlandlehre M Weihenstephan H rsaalgeb ude Geb 4102 M Weihenstephan Lebensmittelchemie Geb 4298 M Weihenstephan Lebensmitteltechnikum Geb 4213 M Weihenstenhan Lebensmittel Verfahrenstechnik Geb 4126 M Weihenstephan Mensa Geb 4216 M Weihenstephan Phvsik Geb 4212 M Weihenstephan Tierern hrung Geb 4308 M Weihenstenhan Tierwissenschaften M Weihenstephan Geb 4111 M Weihenstephan Geb 4113 M Weihenstephan H rsaalgeb ude Geb 4214 M ZHS BEIS M ZHS Geb 2301 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 201 LMU Theresienstra e 39 LMU Theresienstra e 41 LMU Veterin rstra e 1 LMU Veterin rstra e 5 LMU Veterin rstra e 13 LMU ZAAR Infanteriestr 8 LMU Zentnerstr 31 Musikhochschule Arcisstr 12 TUM ZHS Geb 2303 TUM ZHS Geb 2305 TUM ZHS Geb 2306 Hochschule f r Fernsehen und Film Hochschule f r Philosophie Baverische Staatsbibliothek Zentralinstitut f r Kunstgeschichte Walther Mei ner Institut Tabelle 33 Areale mit WLAN 7 1 6 Wesentliche Netz nderungen im Jahr 2008 Im Jahr 2008 gab es folgende in chronologischer Reihenfolge aufgef hrte wesentliche Netzver nderun gen 31 01 2008 20 02 2008 27 02 2008 04 04 2008 17 04 2008 24 04 2008 13 05 2008 20 05 2008 09 06 2008 10 07 2008 14 07 2008 14 07 2008 01 08 2008 29 08 2008 09 09 2008 29
474. pische Projektion am Tag der offenen T r e Dr Einwag Arch ologie LMU Visualisierung einer altorientalischen Stadt 13 Jh v Chr In formationsveranstaltung f r das Seminar Arch ologie und Informationstechnologie Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 123 e H fling Neumann Angewandte Physik LMU Visualisierung der Interaktion von Proteinen e Hr Peller Fachgebiet Hydromechanik TUM Visualisierung von Str mungsdaten im Hydrome chanik Seminar e Dr Mundani Informatik TUM Lehrveranstaltung im Rahmen des Athens Course on Computa tional Steering in Science and Engineering e Dr Weinert LRZ Entwicklung von CAD CAM Technologie f r die Implantologie in der Zahnmedizin Implementierung eines virtuellen Artikulators mit Parallelisierung auf die GPU Export von Daten f r medizinische Studien stereoskopische Projektion vor Geldgebern 5 7 Einsatz von Linux und Solaris Die T tigkeiten im Bereich der Server Dienste zeichnen sich auch im Jahre 2008 vor allem durch die st ndigen Arbeiten aus die zur Aufrechterhaltung eines stabilen Betriebes notwendig sind Diese Aussage gilt unabh ngig vom Typ des Betriebssystems das benutzt wird 5 7 1 Linux Serversysteme Das Jahr 2008 war gepr gt durch den Aufbau bzw Erweiterung einer virtuellen Infrastruktur Das im Vorjahr initiierte V Mware ESX Testsystem bezeichnet als ESX Cluster 0 wurde Anfang 2008 durch ein Produktionssystem namens ESX Cluster 1 e
475. planung und der Dienst ordnung sollen zwischen dem Vorsitzenden des Direktoriums und dieser Vertrauensperson besprochen werden Sp Satzungs nderungen nderungen dieser Satzung bed rfen der Zustimmung von mindestens der H lfte aller Mitglieder und von mindestens zwei Dritteln der bei der Beschlussfassung anwesenden Mitglieder der Kommission 87 Inkrafttreten der Satzung Diese Satzung tritt am 14 12 2007 in Kraft Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 271 Anhang 2 Mitglieder der Kommission f r Informatik am 31 12 2008 a Mitglieder ex officio Prof Dr jur Dietmar Erwin Willoweit Pr sident der Bayerischen Akademie der Wissenschaften M nchen Vorsitzender der Kommission f r Informatik Prof Dr Arndt Bode Fakult t f r Informatik der Technischen Universit t M nchen Vorsitzender des Direktoriums des Leibniz Rechenzentrums b Gew hlte Mitglieder Prof Dr Dr h c mult Friedrich L Bauer Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Arndt Bode Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Wilfried Brauer Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Dr h c Roland Bulirsch Zentrum Mathematik der Technischen Universit t M nchen Prof Dr Hans Joachim Bungartz Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Hans Peter Bunge Fakult t f r Geowissenschaften der Ludwig Maximilians Unive
476. pplikationen und Lizenzen z B Mailhosting Webhosting Desktop Management In einem zweiten Schritt soll dieser Dienstleistungskatalog dann sp ter alle Dienstleistungen des LRZ umfassen also auch diejenigen die bisher und auch in Zukunft f r Nutzer im engeren Sinne kostenlos sind da sie einer Art Grundversorgung zugerechnet werden Die Abstimmungen hierzu sind noch im Gange und noch nicht vollst ndig abgeschlossen Eine wesentli che Randbedingung f r die Umsetzung des Dienstleistungskatalogs war eine entsprechende nderung Erweiterung der Satzung der Kommission f r Informatik der Bayerischen Akademie der Wissenschaf ten die durch die Kommission bereits auf der Kommissionssitzung im Dezember 2007 beschlossen wur de Diese ge nderte Satzung findet sich im Anhang 1 Die Aktualisierung des sonstigen Regelwerks u a auch der Benutzungsrichtlinien des LRZ steht noch aus sie liegt derzeit dem Ministerium zur Ent scheidung vor 8 4 Mitarbeit in Gremien e BRZL Arbeitskreis der bayerischen Rechenzentrumsleiter Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 253 ZKI Zentren f r Kommunikation und Information ZKI Arbeitskreis Universit ten und Fachhochschulen MPG Beratender Ausschuss f r Rechensysteme DFN Diverse Gremien und Aussch sse DFG Gutachtersitzungen Wissenschaftsrat Nationaler Koordinierungsausschuss f r H chstleistungsrechnen IFIP IEEE Diverse Working Groups Program and Organization Commi
477. r sido 4L E Z9 Bauewuouad yead aseds vip AL 099 Ana gL 6E 0027 XUY 198 8109 8726 OdH leuonen 1 JHH abe oe ulug uonezi ensi 02095Y4 XE UOREZIJENSIA 40 BEND mur uoezierei oO UBA suogqyseg ZU sdol4L GE B2ueunoyad yeadaghanhy Aua gL 86 53109 882 EL unue sapon L8 rg 980 Sapon 099 DIE XUY 15S 8109 8Z L OOt HUY 19S 8109 997 Z 431 L 997 dH leuo oy 1433S5N19 mur S134139 SAlyd y g dng Fait SaiAgEIal OGLE sapupe3 DE 9 005315 ALS IW Mein Zoos WAISL apno anag saj qela L 0027 sapupe3 00001 FSSE WAIKZ Il MEIT 800z uolyeindlyuon Bunndwop e1 u39 Zu Abbildung 4 Rechnerkonfiguration 24 Teil I Das Dienstleistungsangebot des LRZ 2 3 1 Bereitstellung von Hochleistungsrechenkapazit t 2 3 1 1 H chstleistungsrechner in Bayern HLRB II SGI Altix 4700 Mit einer Spitzenrechenleistung von mehr als 62 Billionen Rechenoperationen pro Sekunde Tera Flop s steht Forschern aus ganz Deutschland sowie ber EU Projekte aus Europa am LRZ ein Re chensystem mit international konkurrenzf higer Rechenleistung zur Verf gung Stellt man sich die Re chenoperationen als N gel vor die in einem Abstand von 1 5 mm einzuschlagen sind so m sste man innerhalb einer Sekunde eine Strecke abarbeiten die den quator 2 325 mal umrundet Aber auch die Gr e des Hauptspeichers ist beeindruckend 39 TeraByte das sind 39 000 Gigabyte erm glichen sehr umfangreiche und neuartige Simulationen
478. r Mittel erfolgt entsprechend organisatorischer technischer wissenschaftlicher und wirtschaftlicher Erfor dernisse Der Antrag des Gauss Zentrums wurde im Dezember 2008 positiv bef rwortet In Phase 1 stehen so 256 Millionen f r GCS zur Verf gung Weitere 144 Millionen f r Phase 2 wurden m ndlich zugesagt Die dadurch erreichte Sicherung der Finanzierung eines Petascale Rechners als Nachfolger des HLRB II f hr te noch 2008 zu ersten konkreten Planungsschritten f r die Beschaffung dieses Systems 2011 12 Projektsteuerungskreis D 50 der E Gesamtkosten z ber DLR als Projekttr ger Ka 2 a J g So T O L 3 D Q O oi D D E o e CO 52 55 3 5382 Q 2 o son 38 g gt Be 23 5 S SS 5 amp gt EI R a Z2 So D o gt ES em 2535 35 S Abbildung 57 Struktur der Zusammenarbeit und Ressourcenverteilung im GCS Projekt 160 Teil II Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 6 5 2 Gauss Allianz Neben dem Gauss Centre wurde im Jahre 2008 mit der Gauss Allianz ein Instrument geschaffen das die wichtige Kooperation mit den Zentren der zweiten Versorgungsebene sichert und die Abdeckung der gesamten Versorgungspyramide im Hoch und H chstleistungsrechnen gew hrleistet Mitglieder der Gauss Allianz sind das Gauss Centre for Supercomputing GCS das Rechen und Kommunikationszen trum Aachen der Norddeutsche Verbund f r Hoch und H chstleistungsrechnen ZIB Berlin
479. r Ent scheidungen f r einen notwendig gewordenen Erweiterungsbau ber die Dienstleistungen des LRZ zu informieren e 18 M rz 2008 Ministerpr sident Dr Beckstein und Staatsminister Dr Goppel e 15 Mai 2008 Bundesfinanzminister Steinbr ck e 26 Mai 2008 S K H Herzog Franz von Bayern Ehrenmitglied der Bayerischen Akademie der Wissenschaften Staatssekret r Fahrenschon und Frau Gabor B rgermeisterin von Garching e H Juli 2008 Besucher aus der SPD Fraktion des Bayerischen Landtags e 8 Juli 2008 Frau Aigner MdB und Herr Weidenbusch MdL e 11 November 2008 Wissenschaftsminister Dr Heubisch und Wirtschaftsminister Zeil der Baye rischen Staatsregierung ber diese Besuche wurde auf den Webseiten des LRZ http www Irz muenchen de wir sowie in den Medien berichtet Der H chstleistungsrechner und die R ume des LRZ wurden auch im vergangenen Jahr wieder als Auf nahmeort f r Filme zu wissenschaftlichen Themen ausgew hlt wie z B von EuroNews f r einen Bericht ber die astrophysikalischen Simulationen von Dr Springel MPI f r Astrophysik Die Firma Intel lie im Rahmen ihres Videoprojektes Projekt Deutschlandreise gleich mehrere Videofilme f r das Internet ber das LRZ erstellen http projekt deutschlandreise de Der Energieaufwand der Informationstechnik spielte in den Medien hierbei eine gro e Rolle so auch in einem Beitrag von David Globig f r den BR H rfunk Au erdem lie das LRZ eine aktuali
480. r Gesellschaft f r Informatik GI 08 09 2008 13 09 2008 M nchen T Baur Brenner May Kornberger Reiser Ch Richter e DV Fachseminar f r Operateure Netzwerkoperateure und techn Angestellte 17 09 2008 24 09 2008 Teisendorf G rtner G ntner e T V S d Akademie ISO 20K Committee meeting 18 09 2008 19 09 2008 Amsterdam NL Brenner e DV Fachseminar f r Operateure Netzwerkoperateure und techn Angestellte eigener Vortrag 19 09 2008 19 09 2008 Teisendorf Richter Chr e VoIP Gespr chsrunde RZ W rzburg 23 09 2008 23 09 2008 W rzburg Gebert L pple e Workshop DGI 2 FG 2 24 09 2008 24 09 2008 Karlsruhe Baur T e D Grid Beirat Oktober Pr senztreffen 09 10 2008 09 10 2008 Frankfurt Reiser e IBM LRZ Workshop Kooperationsgespr che 09 10 2008 09 10 2008 B blingen Richter Chr e Grid Workshop 2008 12 10 2008 15 10 2008 Krakau PL Baur T e Workshop Configuration Management Database 17 10 2008 17 10 2008 Unterschlei heim Loidl Richter Chr e DEN 49 Betriebstagung 21 10 2008 22 10 2008 Berlin Richter Chr e RUG Treffen 18 11 2008 19 11 2008 Bamberg Ghareh Hassanloo Richter Chr e DGI 2 Leitungstreffen 18 11 2008 18 11 2008 Dortmund Reiser e ITIL Schulung 25 11 2008 04 12 2008 Herrsching Hamm Richter Chr e Arbeitskreis IT Service Management in Hochschulen 27 11 2008 27 11 2008 Frankfurt Main Brenner 260 Teil II Organisatorische Ma nahmen im LRZ ITSM 8 Jahresk
481. r Hochschul und Forschungsgel nde ca 16 Kilometer nordnord stlich der M nchner Innenstadt Anschrift Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften Boltzmannstra e 1 85748 Garching bei M nchen 78 Teil I Infrastruktur des LRZ Verkehrsverbindungen Vom Hauptbahnhof mit U4 U5 zum Odeonsplatz dann U6 Richtung Garching Forschungs zentrum Vom Flughafen S Bahn S8 in Richtung Hauptbahnhof bis zur dritten Haltestelle Isma ning etwa 13 Minuten Dauer Dort mit Regionalbus 230 Richtung Gar ching Forschungszentrum Haltestelle Boltzmannstra e Flughafen M nchen Rufnummern Durchwahlen spezieller Anschl sse 089 35831 Benutzersekretariat 8000 LRZ Hotline mit Benutzerberatung 8800 Hauptsekretariat LRZ 8702 LRZ Telefax 9700 3 3 2 ffnungszeiten LRZ Geb ude Boltzmannstra e 1 85748 Garching bei M nchen Montag mit Donnerstag 7 30 bis 18 00 Uhr Freitag 7 30 bis 17 00 Uhr Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 79 Benutzersekretariat in der Eingangshalle Montag mit Donnerstag 7 30 bis 17 30 Uhr Freitag 7 30 bis 16 30 Uhr Beratung Raum 1 E 042 in der Eingangshalle Montag mit Freitag jeweils 9 00 bis 17 00 Uhr Die LRZ Hotline ist rund um die Uhr unter der Telefonnummer 089 35831 8800 erreichbar Zu den Hauptzeiten d h Montag mit Freitag jeweils 9 00 bis 17 00 Uhr erreichen Sie dort speziell geschulte studentische Mitarbeiter zu den
482. r der Hochschule durch das LRZ Der Aufgabenbereich umfasst die Konzeption und den Betrieb von Dateidiensten sowie technische Dienstleistungen im Bereich von Speichersystemen f r andere IntegraTUM Teilprojekte z B E Mail Durch eine enge Kopplung mit dem IntegraTUM Verzeichnisdienst wird jeder Mitarbeiter und Student sowohl ber pers nlichen Speicherplatz wie auch ber den Zugang zu Projektablagen verf gen Gemein samer Projektspeicherplatz erm glicht eine wichtige Art der Kooperation zwischen verschiedenen Einhei ten der TUM die bisher wegen der dezentralen Strukturen nicht m glich war Eine Verbesserung der Funktionalit t und Dienstqualit t im Bereich der Dateidienste ist ein erkl rtes Ziel des Teilprojekts Das betrifft insbesondere den Zugang mit den an der Hochschule verbreiteten Plattfor men Windows und Linux sowie ein weltweit zug ngliches Web Interface Um gespeicherte Daten zu sch tzen wird die gesamte Datensicherung vom LRZ bernommen Trotzdem k nnen Benutzer sehr einfach selbst auf ltere Versionen von Dateien zur ckgreifen Die Leitung dieses Teilprojekts liegt beim LRZ Das Teilprojekt Datenspeicher ist eingebettet in das allgemeinere Vorhaben Speicher f r die Wissen schaft dessen Ziel es ist einen Datenspeicher mit gemeinsamen Zugriff f r alle M nchner Hochschulen anzubieten siehe 2 4 1 2 13 2 2 Die Rolle des LRZ in IntegraTUM Das LRZ ist innerhalb von IntegraTUM sowohl Projektpartner als auch U
483. r einheitlichen Umgebung ber unterschiedliche Systeme hinweg erfordert den Be trieb zahlreicher Server die vom Endbenutzer i d R nicht wahrgenommen werden Die hier genannten Server sind logische Instanzen Manche von ihnen erfordern einen eigenen Rechner manche dagegen sind zusammen mit anderen einem einzigen Rechner zugeordnet schlie lich sind wieder andere auf meh rere Rechner verteilt Das Konzept des Zugriffs auf gemeinsame Daten wird praktisch an allen Servern angewandt siehe Abschnitt 2 4 1 Benutzerverwaltung F r die zentrale Benutzerverwaltung am LRZ die Provisionierung von LRZ Diensten und den Da tenaustausch mit anderen Einrichtungen insbesondere LMU und TU M nchen wird eine umfang reiche Verzeichnisdienststruktur LRZ SIM SIM Secure Identity Management betrieben Radius Proxy F r Benutzer die sich ber W hlmodem FunkLAN oder vorgegebene Datendosen einw hlen ist es nicht erforderlich dass sie an einem Rechner des LRZ bekannt d h mit Benutzernummer und Pass wort registriert sind es gen gt wenn das an einem Rechner im MWN der Fall ist dessen Betreiber eine entsprechende Abmachung mit dem LRZ getroffen haben Der Radius Proxy vermittelt zwi schen dem Einwahlserver und dem Rechner an dem sich der Benutzer ausweist Paketfilter Firewall Zwischen Subnetzen mit unterschiedlichen Sicherheitsanforderungen oder mit unterschiedlicher Zu g nglichkeit von au en sollen nur solche Datenpakete ausgetaus
484. r so genannten Nigeria Connection inzwischen folgendes Vorgehen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 117 e ber Suchmaschinen wird nach Webmailern gesucht e Anhand der Domain des Webmailers werden E Mail Adressen aus Adresslisten gesucht die zu dieser Domain geh ren Um diesen Zusammenhang herzustellen scheinen sich die Betr ger auch auf den Webseiten der jeweiligen Organisationen ber deren E Mail Service zu informieren e An die Adressaten wird eine Phishing Mail geschickt in der sie aufgefordert werden umgehend ihre Benutzernummer und das Passwort zur ckzuschicken ansonsten w rden sie ihren Account verlieren Durch die Erw hnung der Domain und der Adresse des Webmailers versuchen die Be tr ger der E Mail einen vertrauenerweckenden Eindruck zu machen e Mehr als 1 der so angeschriebenen Nutzer vertraut der E Mail und gibt ihr Passwort preis e Nach ein paar Tagen benutzen die Betr ger die ergatterten Accountdaten um sich am Webmailer anzumelden Dort verschicken sie zuerst automatisiert obige Art von E Mails an andere Organisa tionen um weitere Accountdaten zu erbeuten Dann werden ber den Account die eigentlichen Scam Mails weltweit verschickt mit denen die Betr ger den Kontakt zu ihren Opfern kn pfen wollen um ihnen ber die Vorschussbetrugs Masche das Geld aus der Tasche zu ziehen Leider hat diese Vorgehensweise auch bei unseren Nutzern zum Erfolg gef hrt Nachdem Ende August 2008 solch eine Phish
485. rauensw rdigen und skalierbaren digitalen Langzeitarchiv weitere Personalstellen bewilligt Es wurden noch weitere EU und BMBF Projekte eingereicht ber die aber noch nicht entschieden wurde Liest man den vorgelegten Jahresbericht aufmerksam so stellt man fest dass die F lle der Aufgaben ge gen ber dem Vorjahr erneut gr er geworden ist zudem unterliegt das Aufgabenspektrum aufgrund der hohen technischen Innovationsraten einem steten und raschen Wandel Die Mitarbeiterzahl Planstellen des LRZ ist aber seit Jahren kaum gewachsen wohl konnten wir neben den erw hnten Drittmittelstellen auch 2008 wieder weitere Projektstellen neu hinzugewinnen Umso mehr m chten wir an den Beginn dieses Jahresberichts ein explizites Dankesch n an alle Mitarbeiterinnen und Mitarbeiter stellen Ohne ihr Engagement w re kein Erfolg des LRZ m glich Auch im Jahr 2008 war die Belastung durch den regul ren Dienst und Systembetrieb aber auch aufgrund der vielen neuen und herausfordernden Aktivit ten besonders hoch Wir m chten an dieser Stelle ebenfalls dem HLRB Lenkungsausschuss unserer Kommission f r Infor matik und der Leitung der Bayerischen Akademie der Wissenschaften danken die sich im Jahre 2008 ber die bliche Arbeit hinausgehend konstruktiv eingebracht haben Ein eigenes und ausdr ckliches Vergelt s Gott sei an dieser Stelle auch unseren Mit Direktoren Prof Bungartz Prof Kranzlm ller und Prof Zenger gesagt die sich inten
486. rbeiter berwiegend durch das LRZ Um E Mails empfangen und versenden zu k nnen ben tigt man neben der E Mail Adresse ein entspre chendes Mail Programm Mail User Agent Daf r kommt z B das kostenlose Produkt Thunderbird in Frage Mail Clients stehen nat rlich auch auf s mtlichen LRZ Rechnern zur Verf gung auf Windows Rechnern in der Regel Thunderbird auf Linux und Unix Rechnern daneben auch pine Alternativ zur Verwendung eines Mail Programms kann man heutzutage oft auch ber eine Web Schnittstelle auf seine Mailbox zugreifen Studenten der beiden M nchner Universit ten k nnen das ber Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 43 das jeweilige Web Portal tun campus Imu de bzw www tum de Mitarbeiter deren Mailbox am LRZ liegt ber webmail Irz de F r die Bereitstellung der Mail Dienste betreibt das LRZ verschiedene Mail Server Mail Stores die einlaufende Nachrichten f r die Benutzer von LRZ Systemen speichern sowie mehrere Mail Server die als Umsetzer Mailrelays f r den M nchner Hochschulbereich fungieren An den Mailrelays werden au erdem alle aus dem Internet eintreffenden E Mails auf Viren untersucht sowie daraufhin bewertet ob es sich um Spam Mails handelt N here Informationen zu den Mail Diensten des LRZ insbesondere auch zur Konfiguration von Mail Programmen finden sich unter www Irz de services netzdienste email 2 7 5 W hlzug nge ber W hlzug nge k nnen
487. rbindungsversuche zu externen Rechnern auf TCP Port 22 mit einer Rate von mindestens 60 Verbindungsversuche Minute e Statistische Verfahren o Erkennung von Portscans und Denial of Service Angriffen Details siehe Jahresbericht 2007 o Erkennung von ungew hnlich hohen ausgehenden Datenvolumina Details siehe Jahresbe richt 2007 o Erkennung von SPAM Rechnern Details siehe Jahresbericht 2007 Eingehender Verkehr e Vergleich mit Angriffssignaturen Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 227 o Der eingehende Verkehr wird derzeit nur bei Bedarf analysiert z B Backdoors von Rootkits e Statistische Verfahren o Werden aus Performanzgr nden nicht verwendet um die priorisierten Verfahren f r den aus gehenden Verkehr nicht zu beeintr chtigen 7 4 5 Sicherheitswerkzeug Nyx Nyx ist ein Sicherheits und Netzwerkmanagementwerkzeug mit dem einzelne Rechner im MWN lokali siert werden k nnen d h man bekommt nach Eingabe einer bestimmten MAC oder IP Adresse eines Rechners den Switch und den Port gemeldet an dem der Rechner angeschlossen ist Daf r m ssen ber 900 Switches im MWN und 11 Router alle 5 Minuten abgefragt werden um m g lichst alle Daten zu erfassen Deshalb ist Nyx massiv parallel aufgebaut Um irrelevante Daten auszufil tern ist die Kenntnis der Topologie notwendig Die Erkennungen erfolgt mit einem maschinellen Lernal gorithmus 2008 wurde in einer Bachelorarbeit herausgefunden dass die Genauig
488. rden das Schema st rker an sich inzwischen in Deutschland abzeichnende Best Practices anzupassen die sich durch Initiativen wie SCHAC und die DFN AAI ergeben 110 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme e Die Softwareinfrastruktur zur Teilnahme an der DFN Authentifizierungs und Autorisierungsin frastruktur DFN AAI wurde auf die aktuelle Version Shibboleth 2 0 umgestellt Inzwischen k nnen insbesondere die Verlags Onlinedienste von EBSCO Elsevier Metapress Springer so wie die Nationallizenzen und diverse E Learning Anbieter wie das Fachportal P dagogik mit den IntegraTUM Kennungen verwendet werden Zusammen mit dem E Learning Projekt der TUM elecTUM wurde an einem Konzept zur Erweiterung des eingesetzten Learning Management Sys tems im c Clix gearbeitet um dessen nahtlose Integration in die DFN AAI zu erm glichen e Zur Inbetriebnahme des Campus Management Systems TUMonline und der damit verbundenen Einf hrung neuer Hochschulprozesse wie der Online Bewerbung f r Studenten wurden mehrere Web Services implementiert die die automatisierte Vergabe von Kennungen und die Datensatz korrelation unterst tzen Ebenso wurde die Einspeisung von Daten in die Benutzerverwaltung des myTUM Portals von direkten Schreibzugriffen auf eine Web Service Schnittstelle portiert e Die Kooperationen mit anderen Hochschulen wurden intensiviert und ausgebaut Mit der Univer sit t der Bundeswehr M nchen wurden Konzepte zur An
489. rden die f r das D Grid erforderlichen Policy Decision Points spezifiziert und prototypisch der UNICORE PDP wurde sogar vollst ndig implementiert DGI H Im Folgenden wird die Projektstruktur von DGI U sowie die Beteiligung des LRZ kurz erl utert DGI II besteht aus den sechs Fachgebieten FG FG 1 Support FG 2 Betrieb der D Grid Infastruktur FG 3 Sicherheit FG 4 Daten und Informationsmanagement FG 5 Entwicklungsprojekte FG 6 Nachhaltigkeit und Koordination Das LRZ ist als gef rderter Partner in den Fachgebieten 1 2 und 3 beteiligt Im FG 5 ist das LRZ asso ziierter Partner Das LRZ bringt als Kompetenzzentrum f r Globus sein Wissen in das FG 1 2 Verteiltes Kompetenz zentrum Middleware ein Das Ziel dieses FG ist die Unterst tzung sowohl der Nutzer als auch der Res sourcen Betreiber im D Grid Dabei sollen alle vom D Grid unterst tzten Middleware Technologien durch Kompetenzzentren vertreten sein die in der Lage sind hochwertigen Support zu liefern Dies um fasst neben Schulungsangeboten dem Aufbau und der Dokumentation von Referenzinstallationen Hilfe bei der Installation der Middleware auch die Unterst tzung der Service Support Prozesse Incident Prob lem Change und Release Management sowie die Unterst tzung des Service Level Managements In FG 1 2 kooperiert das LRZ mit dem Forschungszentrum J lich FZJ dem Forschungszentrum Karlsruhe FZK dem Albert Einstein Institut AEI Sun Microsystems und d
490. rden und orientierte sich an der Markt stellung der Hersteller bestimmt u A anhand Analysen von Gartner und Forrester den bei Messebesu chen gesammelten Eindr cken sowie bei vielen Gespr chen und Interviews gesammelten Einsch tzungen und Erfahrungen anderer IT Organisationen bzw derer Berater Die resultierende Anzahl von etwa zehn prinzipiell in die engere Auswahl kommenden ITSM Suites wur de anschlie end durch das Auswahlteam nach der Evaluation von Demos der verschiedenen Produkte bei Besuchen von Vertriebspartnern Webcasts und Herstellerworkshops auf drei reduziert F r die in diese engere Auswahl genommenen Produkte Frontrange ITSM IBM Maximo ITSM und iET Solutions ITSM wurde die berlassung von Testinstallationen vereinbart Anhand des Inputs aus den verschiedenen Abteilungen des LRZ soll bei der genaueren Evaluation nicht nur auf klassische funktiona le und technische Anforderungen sondern vor allem auch auf eine gute Anpassbarkeit Wartbarkeit und Benutzerfreundlichkeit des Produktes wert gelegt werden Um die ersten beiden Punkte unter Ber cksich tigung der verschiedenen Sichten ausreichend untersuchen zu k nnen wurde eine Auswahl repr sentati ver Workflows aus allen Abteilungen dokumentiert um hierdurch Testcases f r die Konfiguration und Pflege der Werkzeuge zu erhalten Die seit Herbst 2008 laufenden Tests werden voraussichtlich bis Ende des ersten Quartals 2009 abge schlossen sein Technology Schritt
491. reinbarung und Leistungsscheinen f r Anwendungen wurde die neue Outsourcing Situation definiert und die geplan ten Abl ufe f r die Serviceerbringung dokumentiert Vertragspartner sind die Bayerische Staatsbibliothek und das Leibniz Rechenzentrum die die Rahmenvereinbarung in 2007 unterzeichnet haben Damit war der Startschuss f r die konkreten Umzugstermine gegeben Zum Ende 2007 ist etwa die H lfte der IT ans LRZ umgezogen und hier in Betrieb gegangen Im Mai 2008 folgte dann mit dem Umzug des Verbundsystems der letzte aber auch schwierigste Teil des Um zugs Der Umzug wurde wieder in mehreren Schritten durchgef hrt und von Mitarbeitern des LRZ un terst tzt Ab diesem Zeitpunkt wurden auch die Betreuer des ehemaligen BVB Rechenzentrums an das LRZ ab geordnet und zum 1 1 2009 hierher versetzt Seit Oktober 2008 finden die in der Rahmenvereinbarung zwischen BSB und LRZ vereinbarten Koordi nationsmeetings statt Im Januar 2009 wurden die restlichen Ebenen des Dienstleistungsvertrags von den jeweiligen Verantwortlichen unterschrieben 130 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 10 Sicherheitsfragen und Missbrauchsf lle 5 10 1 Serverzertifizierung nach X 509 Das LRZ ist mit mehreren Zertifizierungs und Registrierungsstellen CAs und RAs in die Public Key Infrastruktur des Deutschen Forschungsnetzes DFN PCA eingebunden Bereits seit Mitte 2005 nimmt es an der Zertifizierungshierarchie Classic tei
492. ren Laptops besitzen was relativ h ufig der Fall ist Au erdem wurden fters Access Points anl sslich einer Veranstaltung neu auf gebaut die ansonsten erst zu einem sp teren Zeitpunkt eingerichtet worden w ren Seitdem alle Proxim AP600 gegen Colubris Accesspoints getauscht wurden kann der Zugang an allen Accesspoints angebo ten werden Die t gliche Nutzung der Konferenz SSID zeigt Abbildung 92 Erwartungsgem werden die R ume im MWN vor allem in vorlesungsfreien Zeiten f r Konferenzen genutzt Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 211 Yearly Graph 1 Day Average 50 40 30 20 10 0 Nov Dec Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Jan Feb Max Average Current E Konferenzen 43 User 2 User 1 User Abbildung 92 Anzahl der Nutzer der Konferenz SSID pro Tag 7 2 5 Internet Zugang Den Zugang zum Internet zeigt Abbildung 93 M net LMU Stammgel nde Brienner Str Router csrigz Router LRZ Garching IPP Garching Router WiN csr1 2wr Kernnetz Router E Ethernet Verbindung 1 Gbit s Ethernet Verbindung 10 Gbit s Abbildung 93 Anbindung des MWN an das Internet Aufgrund von mehrst ndigen bzw mehrt gigen Ausf llen der Verbindung zum Internet ber das WiN im Jahr 2002 wurde im Februar 2003 eine Backup Schaltung ber M net realisiert Die geplanten und unvor hergesehenen Ausf lle des WiN Zugangs k nnen somit ohne wesentlich merkbare Unterbrechung f r den Ben
493. ren zu wollen Daraus entwickelte sich der generelle Wunsch weltweit vorhandene heterogene Ressourcen wie Rechner Instrumente Software und Daten zur koordinierten L sung sogenannter gro er Herausforderungen grand challenges verwenden zu k nnen Typische Grid Anwendungen sind daher datenintensive oder rechenintensive Berechnungen die auf Ressourcen innerhalb sogenannter virtueller Organisationen VOs verteilt werden Beispiele fin den sich in der Wettervorhersage in Astronomie Projekten der Hochenergiephysik in biologischen Ge nom Projekten in der Medikamentenforschung oder in den Wirtschaftswissenschaften In der letzten Zeit hat auch die Industrie ein zunehmendes Interesse am Grid Computing signalisiert Schon heute sind sich deshalb viele Analysten dar ber einig dass sich verteilte Systeme insbesondere Grid Computing und Cloud Computing zu einer der wichtigsten Technologien der n chsten Jahre und zum Motor v llig neuer Anwendungen entwickeln werden Die Arbeiten im Bereich Grid Computing erfordern ein breit gef chertes Know how und werden deshalb von den Abteilungen e Kommunikationsnetze e Hochleistungssysteme und e Benutzernahe Dienste gemeinsam durchgef hrt Als abteilungs bergreifende Einrichtung war und ist der Arbeitskreis Grid Computing AK Grid ma geblich an der Koordinierung der verschiedenen Grid Projekte D Grid DEI SA eDEISA DEISA 2 LCG Tier 2 LRZ Grid innerhalb des LRZs und im M nchner Raum beteilig
494. rf gt und ans M nchner Wissenschaftsnetz bzw ans Internet angeschlossen ist kann eine Verbindung zu diesem LRZ Server aufgebaut werden Der Servername ist fip Irz de Man f hrt ein Login an diesem Server durch mit der Kennung ftp oder anonymous und dem nur f r statistische Zwecke verwendeten Passwort E Mail Adresse des Benutzers Nach erfolgreichem Login kann man die angebotenen Dateiverzeichnisse inspizieren und Dateien zum eigenen Rechner bertragen Der Anonymous FTP Server des LRZ dient im wesentlichen dazu LRZ spezifische Software bzw Kon figurationsdaten zu verteilen andererseits bietet er auch Benutzern die M glichkeit Daten allgemein zug nglich bereitzustellen die nicht ber WWW angeboten werden sollen Ein gro es Angebot an nicht kommerzieller Software bietet vor allem der Anonymous FTP Server fip leo org der von der Informatik der TUM betrieben und gepflegt wird 2 7 4 E Mail Der neben WWW wichtigste Internet Dienst ist der elektronische Nachrichtenaustausch E Mail der eine weltweite Kommunikation mit anderen Internet Benutzern erlaubt Voraussetzung f r die Nutzung des Dienstes ist eine E Mail Adresse mit einer dazugeh rigen Mailbox Studenten der beiden M nchner Universit ten erhalten diese bereits bei der Immatrikulation Mitarbeiter in der Regel ber ihre Einrich tung Institut oder Lehrstuhl Die Betreuung der f r den Mail Betrieb notwendigen Server erfolgt f r die Studenten ganz f r die Mita
495. richten 2006 und 2007 entnommen werden 7 2 11 Zugang ber UMTS Im Rahmen eines Sponsorings der Firma Vodafone f r die Exzellenz Universit ten TU M nchen und die Ludwig Maximilians Universit t M nchen wurden die Hochschulen Ende 2007 LMU bzw Anfang 2008 TU mit UMTS f higen Ger ten f r die mobile Sprach und Datenkommunikation ausgestattet Die Datenkommunikation erfolgt ber einen zentralen VPN Zugangspunkt ins MWN siehe hierzu Ab bildung 97 sowie weiteres im Jahresbericht 2007 Abschnitt 7 5 1 private MWN IP Adresse M nchner Wissenschafts netz Vodafone UMTS gd VPN Gateway t LRZ VPN Gateway UMTS Verbindung mit privater MWN IP Adresse Nat o mat IP Adresse Gateway des Nat o mat Laptop mit MCC Karte Abbildung 97 Zugang Vodafone Ger te ins MWN und Internet F r das Jahr 2008 liegen erstmals Informationen ber die Nutzung der Endger te in Bezug auf Datenvo lumen vor Im Jahresdurchschnitt werden pro Tag ca 500 Verbindungen zum UMTS Datenzugangspunkt aufgebaut Das gemittelte Tagesdatenvolumen betr gt ca 2 5 GB im Download und ca 450 MB im Upload Im Jahresverlauf zeichnet sich eine steigende Tendenz ab Dies zeigt Abbildung 98 7 2 12 IPv6 im MWN Zum Jahresende waren f r 50 weitere 15 im Zeitraum eines Jahres MWN Institutionen IPv6 Subnetze reserviert darunter sieben Studentenwohnheime 2 in 2008 Ein Gro teil dieser Subnetze ist bereits kon
496. rkuendung bayern de ist die amtliche Verk n dung von Gesetzen Verordnungen und Bekanntmachungen des Freistaates Bayern ber eine zentrale fest eingerichtete Publikationsplattform im Internet Sie wird im Auftrag der Bayerischen Staatskanzlei be trieben wobei die redaktionelle und technische Umsetzung durch die Bayerische Staatsbibliothek erfolgt Das LRZ betreibt als Dienstleister f r die BSB die Hardware f r die Webbereitstellung und wird die Langzeitarchivierung der Amtsbl tter der Bayerischen Ministerien bernehmen Die entsprechende In frastruktur wurde seit Mitte 2008 aufgebaut und getestet Auf der Verk ndungsplattform stehen die Dokumente ab dem Tag ihrer Verk ndung auf Dauer elektro nisch zur Verf gung Ab dem 22 Januar 2009 werden zun chst die vier Amtsbl tter der bayerischen Mi nisterien auf eine elektronische Fassung umgestellt und kostenfrei ber das Internet bekannt gemacht Allgemeines Ministerialblatt AlIMBI Bayerisches Justizministerialblatt JMBl Amtsblatt der Bayeri schen Staatsministerien f r Unterricht und Kultus und Wissenschaft Forschung und Kunst KWMBl und das Amtsblatt des Bayerischen Staatsministeriums der Finanzen FMBl M nchner Arbeitskreis Langzeitarchivierung Der M nchener Arbeitskreis Langzeitarchivierung ist auf Initiative der Bayerischen Staatsbibliothek und der Generaldirektion der Staatlichen Archive Bayerns entstanden und vereint Institutionen aus dem Raum M nchen die sich aktiv mit
497. rovidern am Beispiel eines ELan Dienstes ber mehrere Provider hinweg Weitere Projektpartner im Teilprojekt End to End Ethernet E3 sind JDS Uniphase Deutsche Telekom Lehrstuhl f r integrierte Systeme Technische Universit t M nchen Lehrstuhl f r Informatik IH Julius Maximilians Universit t W rzburg Institut f r Nachrichtentechnik Technische Universit t Dresden Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 229 e Institut f r Datentechnik und Kommunikationsnetze Technische Universit t Carlo Wilhelmina zu Braunschweig IHP Leibniz Institut f r innovative Mikroelektronik CoreOptics Lehrstuhl f r Kommunikationsnetze Technische Universit t M nchen Lehrstuhl Telekommunikation Technische Universit t Dresden Center for Digital Technology and Management CDTM M nchen site B Sa SLA SLA an SLA a v Za a eg p Beggen provider A providere en e 0 IW gt SLA SLA SLA provider A provider B provider C 18 M gt S IW o SLA ges Abbildung 108 ELan Dienst im Kettenmodell S Jill CH 7 5 2 CNMU Das Customer Network Management CNM wurde urspr nglich f r das MWN M nchner Wissen schaftsnetz entwickelt dann innerhalb mehrerer DFN Projekte f r das B WIN G WIN und schlie lich das X WIN erweitert Seit 2004 wird das CNM als Virtualisierung f r das europ ische Forschungsnetz Geant2 und die angeschlossenen nationalen Forschungsnetze eingesetzt Das CNM wurde i
498. rsetzt Das Produktionssystem basiert auf bis zu acht Servern der Modellserie SUN Galaxy X4150 mit jeweils 4 Cores und 64 Gigabyte RAM Als Speichermedium der virtuellen Hosts dient ein NAS Filer der Firma NetApp Schwierigkeiten bei der Erkennung von Netzverbindungsproblemen ausgel st durch die fehlende sog Uplink Down Detection der adaptierten Switches bzw Router konnten durch Umbau der 12 x 1GE Netzinterfaces auf 2 x 10GE Netzinterfaces eines jeden ESX Cluster Knotens behoben werden Ende des Jahres stieg die Zahl der virtuellen Hosts auf etwa 220 eine H lfte davon genutzt f r Produktionsserver die andere f r Testsysteme Seit Fr hjahr 2008 findet im Hinblick auf die in 2009 geplante Erweiterung der Server Infrastruktur regelm iger Informationsaustausch mit verschiedenen Hard und Software Herstellern statt Seit Sommer 2008 gehen die konkreten Pl ne ein in die im Fr hjar 2009 geplante Aus schreibung Bei den physischen Servern gibt es noch keine deutlich sichtbaren Tendenzen zur Migration auf virtuelle Instanzen Erste DELL Server alter Bauart PowerEdge 2450 2550 sowie vereinzelt OxygenRAID Server von AdvancedUnibyte wurden stillgelegt bzw abgebaut F r etwa Zweidrittel der Server Hardware existiert aus Gr nden der langen Betriebszeit kein Hersteller Support mehr Dies f rdert den Handlungsdruck zum Umstieg auf VMware ESX einhergehend mit der Vertrauensbildung der Dienst betreiber in die virtuelle Infrastruktur Erfr
499. rsit t M nchen Prof Dr Franz Durst Lehrstuhl f r Str mungstechnik Friedrich Alexander Universit t Erlangen Prof Dr Heinz Gerd Hegering Institut f r Informatik der Ludwig Maximilians Universit t M nchen Prof Dr Dr h c mult Karl Heinz Hoffmann Zentrum Mathematik der Technischen Universit t M nchen Prof Dr Dieter Kranzlm ller Institut f r Informatik der Ludwig Maximilians Universit t M nchen Prof Dr Helmut Kremar Fakult t f r Informatik der Technischen Universit t M nchen Prof Dr Hans Peter Kriegel Institut f r Informatik der Ludwig Maximilians Universit t M nchen Prof Dr Dr h c mult Heinrich N th Institut f r anorganische Chemie der Ludwig Maximilians Universit t M nchen Prof Dr Helmut Schwichtenberg Institut f r Mathematik der Ludwig Maximilians Universit t M nchen Prof Dr Martin Wirsing Institut f r Informatik der Ludwig Maximilians Universit t M nchen Prof Dr Dr h c mult Christoph Zenger Fakult t f r Informatik der Technischen Universit t M nchen c Von der Akademie entsandt Prof Dr Dr h c Wolfgang Ballwieser Lehrstuhl f r Betriebswirtschaftslehre der Ludwig Maximilians Universit t M nchen Seminar f r Rechnungswesen und Pr fung Prof Dr phil Walter Koch Lehrstuhl f r Geschichtliche Hilfswissenschaften der Ludwig Maximilians Universit t M nchen 272 Teil HI Anhang 2 Prof Dr Josef Stoer Institut f r Angewandte Mathematik der Universit t W rzburg
500. rt kann neben der Erfassung und dem Schnitt von Videomaterial an schlie end das Resultat mit leistungsf higen Programmen komprimiert und f r das Streaming vorbereitet werden Weitere Informationen zum Streaming Server des LRZ finden sich unter wwn Irz de services peripherie videoserver Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 49 2 9 5 Digitaler Videoschnitt Digital Video DV schlie t die L cke zwischen den Konsumentenformaten VHS und S VHS und den teuren und aufw ndigen professionellen Videoformaten wie Betacam oder DigiBeta DV Ger te haben eine ansehnliche Verbreitung gefunden arbeiten mit preiswerten Bandkassetten und sind unkompliziert in der Handhabung Dabei liegt die Aufzeichnungsqualit t bei Digital Video deutlich ber der von S VHS und reicht f r die Belange des Hochschulbetriebs meist v llig aus Insbesondere die digitale Art der Auf zeichnung pr destiniert DV Material als Basis zur rechnergest tzten Verarbeitung Im Multimedialabor des LRZ stehen den Nutzern daf r zwei DV basierte Videoschnittpl tze zur Verf gung Basis dieser Arbeitspl tze sind Doppelprozessor Macintosh PowerMac G5 und Intel Xeon mit Firewire Schnittstellen und den Schnittprogrammen iMovie Final Cut Pro und Adobe Premiere Eine Reihe von Peripherieger ten erlaubt neben der direkten Verarbeitung von DV Material auch die Ein und Ausgabe unterschiedlicher Medien wie miniDV DVCAM und DVCPRO sowie analoger Formate wie VHS und S V
501. rteilung der Benutzungsbe rechtigung vom Nachweis bestimmter Kenntnisse ber die Benutzung der Anlage abh ngig machen 5 Die Benutzungsberechtigung darf versagt werden wenn a nicht gew hrleistet erscheint dass der Antragsteller seinen Pflichten als Nutzer nachkommen wird b die Kapazit t der Anlage deren Benutzung beantragt wird wegen einer bereits bestehenden Aus lastung f r die beabsichtigten Arbeiten nicht ausreicht c das Vorhaben nicht mit den Zwecken nach 2 1 und 4 1 vereinbar ist d die Anlage f r die beabsichtigte Nutzung offensichtlich ungeeignet oder f r spezielle Zwecke re serviert ist e die zu benutzende Anlage an ein Netz angeschlossen ist das besonderen Datenschutzerfordernis sen gen gen muss und kein sachlicher Grund f r diesen Zugriffswunsch ersichtlich ist f zu erwarten ist dass durch die beantragte Nutzung andere berechtigte Nutzungen in nicht ange messener Weise gest rt werden 6 Die Benutzungsberechtigung berechtigt nur zu Arbeiten die im Zusammenhang mit der beantragten Nutzung stehen 84 Pflichten des Benutzers 1 Die IV Ressourcen nach 1 d rfen nur zu den in 2 1 genannten Zwecken genutzt werden Eine Nutzung zu anderen insbesondere zu gewerblichen Zwecken kann nur auf Antrag und gegen Entgelt gestattet werden 2 Der Benutzer ist verpflichtet darauf zu achten dass er die vorhandenen Betriebsmittel Arbeitspl tze CPU Kapazit t Plattenspeicherplatz Leitungskapazit ten
502. rucker umgeleitet werden Durch bedingte Umleitungen kann zudem bei Druckerpools die Auslastung gesteuert und der Durchsatz verbessert werden Die angeschlossenen Client PCs werden abh ngig vom jeweiligen Betriebssystem mit serverseitig vor konfigurierten Druckertreibern versorgt um Konfigurationsfehler beim Einrichten der Druckertreiber m glichst zu vermeiden F r Windows PCs erfolgt dies durch einen Windows Printserver f r PCs mit Linux oder Mac OS durch einen CUPS Server 2 9 3 St tzpunktkonzept Die qualitativ hochwertige und f r den Nutzer unkomplizierte und kosteng nstige Erstellung von Postern f r wissenschaftliche Zwecke ist eine unver ndert stark nachgefragte Dienstleistung des LRZ Die Auf traggeber der Poster erstellen die Druckdateien normalerweise an ihrem Arbeitsplatz im Campus und kommen lediglich zur Abholung der fertigen Drucke ins Rechenzentrum Deshalb wurde schon vor dem Umzug des LRZ in den Neubau in Garching eine f r unsere Kunden g nstige L sung erarbeitet und um gesetzt bei der die Umlaufzeit m glichst kurz gehalten und unn tige Wegstrecken vermieden werden sollten Seit Mai 2006 werden Poster t glich zu festgelegten Zeiten an gut erreichbare St tzpunkte in der Innenstadt transportiert an die Bibliothek der TU M nchen in der Arcisstra e und an die Bibliothek der LMU in der Ludwigstra e Poster k nnen im Normalfall innerhalb von 24 Stunden nach Auftragsertei lung auf Wunsch an einem der St tzpunkte TU
503. s F rderprogramms IKT 2020 Forschung f r Innova tionen einen Call f r HPC Software f r skalierbare Parallelrechner herausgegeben Das zusammen mit den Partnern TUM RZG IBM und Partec eingereichte Projekt Integrierte System und Anwendungsanalyse f r massivparallele Rechner ISAR wurde Ende 2008 genehmigt und startete Anfang 2009 seine Arbeit Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 157 6 4 3 KONWIHR II Die Entwicklung und Implementierung effizienter hoch paralleler Applikationscodes ist f r die meisten numerisch orientierten Forschergruppen derzeit eine zentrale Herausforderung Im Fokus der Wissen schaftler steht zun chst die L sung fachspezifischer Probleme Neue technologisch getriebene Entwick lungen im High Performance Computing HPC beispielsweise bei parallelen Programmiermodellen oder bei der effizienten Nutzung von Multi Many Core Architekturen k nnen von den meisten Gruppen nur am Rande verfolgt werden Derartiges Wissen muss an zentraler Stelle aufgebaut langfristig etabliert und fach bergreifend den Wissenschaftlern zur Verf gung gestellt werden Zu diesem Zweck hat die bayerische Staatsregierung das Kompetenznetzwerk f r Technisch Wissenschaftliches Hoch und H chstleistungsrechnen in Bayern KONWIHR eingerichtet f r das im Berichtszeitraum die zweite F rderphase KONWIHR II genehmigt wurde Aus KONWIHR werden bayernweit insgesamt 9 Projekte gef rdert die aus dem Umfeld des HLR
504. s LRZ seinen Kunden ein breites Spektrum an Diensten anbietet mussten im Rahmen dieses Pro jektes rund 50 Dienste analysiert werden die im Hinblick auf ihre Beziehungen zur Benutzerverwaltung wichtig sind Die Dienstleistungen reichen dabei vom Internetzugang ber Posterdruck und Betrieb von virtuellen Webservern bis hin zur Nutzung von H chstleistungsrechnern Alle betrachteten Dienste haben gemeinsam dass sie nur genutzt werden k nnen nachdem man sich als legitimierter Benutzer ausgewie sen hat gegenw rtig blicherweise durch die Angabe eines g ltigen Benutzernamens auch als Kennung bezeichnet samt zugeh rigem Passwort Zu den Kunden des LRZ geh ren neben den Studenten und Mitarbeitern aus dem akademischen Umfeld in M nchen zunehmend auch Hochschul und Forschungseinrichtungen aus ganz Deutschland im Rah men von Grid Projekten sogar aus ganz Europa Die Verwaltung der Zugangsberechtigungen zu den ver schiedenen Rechner Plattformen des LRZ erfolgt schon seit langem e zentral im Hinblick darauf dass sich die Administratoren der einzelnen Plattformen nicht selbst dar um k mmern m ssen dass neue Benutzer auf ihrer Plattform eingetragen werden aber e dezentral unter dem Aspekt dass die Vergabe von Kennungen an so genannte Master User dele giert wird die f r die Verteilung der Ressourcen innerhalb ihrer Einrichtungen zust ndig sind Die bisher eingesetzte Software zur zentralen Benutzerverwaltung hier fters a
505. s Rechners SGI Altix 4700 im Jahr 2007 lagen die Schwerpunkte der Arbeiten in diesem Jahr auf der Stabilisierung des Betriebs der Optimierung des Batchmanagements der Konsolidie rung und Abrundung des Softwareangebotes sowie der Optimierung von Benutzerprogrammen Fast das komplette Angebot an Software f r Anwendungen in der Chemie wurde berarbeitet Neue Compilerver sionen wurden getestet und installiert F r dabei auftretende Unvertr glichkeiten wurden Workarounds bereitgestellt Beim Batchsystem gab es immer wieder Schwierigkeiten gro e Jobs gegen ber kleinen zu bevorzugen ohne dabei Leerstand auf dem H chstleistungsrechner zu erzeugen Etwa ab Oktober wurden Verfahren eingef hrt die dieses Problem zumindest teilweise l sten Herausragende Arbeiten im Bereich der Optimierung von Benutzerprogrammen waren die Anwendung von raumf llenden Kurven zur Lastbalancierung bei seismologischen Anwendungen die Performance und Skalierungsuntersuchungen am Berliner Quantum Chromodynamic Programms BQCD und am astrophysikalischen Code GADGET sowie die Parallelisierung eines Codes im Bereich der relativistischen Dichtefunktionaltheorie 140 Teil IL Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme 6 1 1 3 2 Entwicklung der abgegebenen Rechenzeit und Rechenleistung Die abgegebene Rechenzeit ausgedr ckt in Core Stunden des HLRB II und bis Sommer 2007 des Mi grationssystems HLRB2 i sind in der folgenden Abbildung 46 darge
506. s admin_AT_Irz muenchen de Grunds tzlich kann das Leibniz Rechenzentrum Supportanfragen nur bearbeiten wenn die vom Kunden eingesetzte Hardware und Software auch seitens des Herstellers der Archiv und Backupsoftware voll unterst tzt wird Es liegt in der Verantwortung des Kunden durch regelm ige Updates seines Systems f r die entsprechende Kompatibilit t zu sorgen 11 Monitoring und Reporting Die Verf gbarkeit der Server Dienste und Anbindungen wird permanent kontrolliert Auf den Systemen laufen regelm ig Skripte um die Hardware die Konsistenz der Systemkonfiguration sowie der installierten Softwarepakete zu pr fen und gegebenenfalls zu korrigieren Die zust ndigen Diensteverantwortlichen werden im Fehlerfall automatisch benachrichtigt Der Kunde kann sich jeder Zeit einen berblick ber seine gesicherten und archivierten Daten und den Zustand der Serversysteme ber die Webschnittstelle des LRZ DatWeb http datweb Irz muenchen de cgi bin DATWeb Version2 1 worktop scripts login pl verschaffen Zus tzlich erh lt der Ansprechpartner eines Nodes jeden Monat eine Statusmeldung via E Mail 12 Beschr nkung der Datenmenge Augenblicklich wird die Datenmenge die im Backup und Archivsystem abgelegt werden darf nicht beschr nkt Bei der Anmeldung eines Nodes wird lediglich eine Absch tzung der zu erwartenden Daten menge verlangt Gr ere sp tere nderungen im zu speichernden Datenumfang m ssen via E Mail abs admi
507. s iiei i E a EE E EE E E EE KeS 60 2 13 Erprobung neuer Konzepte der Informationsverarbeitung an den Hochschulen 60 2 13 1 Identity Management im M nchner Wisscnschaftenetz 60 2 13 2 Das Projekt Integra TUM varaa aaa EE A E EENE 60 A Infrastruktur des LRZ eessesssnssnssonssonssnnnsnonsnonssonssonsssnnsnnnssnnssnnssnnssnnssnnnsnnnsnnnsnnnsnsnsssnnssnnssnnnne 65 3 1 Die maschinelle Ausstattung 65 321 1 Systeme use Era EN Eet eege EE 65 3 1 2 Speicher seinen a a E a AE E OES 74 3 2 Organisationsstruktur des LR 76 3 3 R umlichkeiten und ffnungszeiten uneessesenennnesnnnnnnenenennnnnnennnnnnnnnnennnennnn 77 3 3 1 Lage und Erreichbarkeit des LR nn 77 3 32 EE 78 333 DaS EE een Hass ek seine 79 4 Hinweise zur Nutzung von Rechnern und Diensten sosssssnssssonsssonssesnnssnsnnnsnnnnennnssssnnnenen 81 4 1 Vergabe von Kennungen ber Master User nennen 81 4 2 Vergabe von Kennungen an Studenten uusssesssessseensennsennneensennennennneennn nn 82 e EE KEE EE 82 4 4 Schutzma nahmen gegen Missbrauch von Benutzerkenmungen 83 4 5 Datensicherung und Archivierung nennt 83 4 6 Projektverwaltung und kontrolle durch Master User 84 Teil II Die Entwicklung des Dienstleistungsangebots der Ausstattung und des Betriebs im Jahr 2008 20u000000000000n000000000000n000n0n0nsonsnonnssnnsnnnssnnssnnssnnssnnnsnnnsnnnsnnnne 85 5 Entwicklungen im Bereich Benutzernahe Dienste und Systeme sorssonssonsssonssnnss
508. schen Benutzern Lehrst hlen Insti tuten und Kompetenznetzwerk Da die am LRZ vorhandenen Gruppen e Hochleistungsrechnen in der Abteilung Benutzerbetreuung e Hochleistungssysteme in der Abteilung Rechensysteme und e Netzbetrieb in der Abteilung Kommunikationsnetze bereits durch den Betrieb der Landeshochleistungsrechner gut f r den Betrieb des HLRB vorbereitet sind wird aus Gr nden der Nutzung von Synergien auf die Einf hrung neuer Organisationsstrukturen verzich tet Die Festlegung der Aufgaben der drei beteiligten Gruppen erfolgt in der Nutzungs und Betriebsordnung f r den H chstleistungsrechner in Bayern 294 Teil III Anhang 9 82 Lenkungsausschuss 1 Aufgaben Der Lenkungsausschuss legt Ziele und Schwerpunkte f r die Nutzung des Rechners fest und kontrolliert deren Einhaltung Der Lenkungsausschuss bernimmt die folgenden Aufgaben e Billigung der Nutzungs und Betriebsordnung e Bestimmung des Anwendungsprofils und Billigung der dazu notwendigen Betriebsformen e Beratung bei der Festlegung von Abrechnungsformalismen e Aufstellung von Regeln f r die Vergabe von Rechnerressourcen e Empfehlungen zu Software Beschaffung und Hardware Erweiterungen e Entgegennahme des j hrlichen HLRB Betriebsberichts des LRZ und Besprechung der grundlegenden Betriebsfragen e Anh rung des KONWIHR e Beratung den Verbund der Supercomputer Zentren in Deutschland VESUZ betreffender Fragen e Entscheidung ber die Projektantr ge
509. schwert durch den raschen technologischen Wandel im Bereich der Hard und Software und der Datentr ger 38 Teil I Das Dienstleistungsangebot des LRZ Seit 2004 besteht eine Kooperation zwischen der Bayerischen Staatsbibliothek BSB und dem Leibniz Rechenzentrum die inzwischen drei DFG gef rderte Projekte BABS BABS2 und vdl6digital umfasst Das Ziel des BABS Projektes Bibliothekarisches Archivierungs und Bereitstellungssystem www babs muenchen de war der exemplarische Aufbau einer organisatorischen und technischen Infrastruktur f r die Langzeitarchivierung von Netzpublikationen und sonstiger E Medien unterschiedlicher Herkunft Mit Ende der offiziellen Projektlaufzeit im Sommer 2007 hat BABS den Projektstatus verlassen ist in den Produktivbetrieb der Bayerischen Staatsbibliothek und des LRZ bergegangen und bildet seitdem das Fundament einer langfristig tragf higen Archivierungs und Bereitstellungsumgebung Zur Speicherung der Objekte wird das Archiv und Backupsystem des LRZ mit dem Softwarepaket Tivoli Storage Mana ger TSM verwendet TSM verf gt ber die wichtigsten Funktionalit ten die f r Langzeitarchivsysteme als Voraussetzung gelten Das Gesamtsystem deckt damit alle wichtigen Bereiche eines langfristig funk tionierenden Archivs ab und folgt somit dem allgemeinen Open Archival Information Systems Referenzmodell OAIS Das im Oktober 2008 gestartete Projekt BABS2 DFG gef rdert kann als Nachfolgeprojekt von BABS
510. se Server Die Oracle9i Datenbankinstanz erlaubt den am LRZ betriebenen virtuellen Servern eine dynami sche Anbindung von Datenbankinhalten mit internationalen Zeichens tzen Diverse am LRZ gehostete virtuelle Webserver nutzen Microsoft Technologien um Datenbankinhalte dynamisch an das Internet anzubinden Daf r steht ein Windows Server mit Internet Information Server IIS 6 0 um Microsoft Access Datenbanken dynamisch als Webseiten an das Internet anzubinden zur Verf gung 5 6 Grafik Visualisierung Multimedia 5 6 1 Visualisierungs Projekte Neben einer gro en Zahl von F hrungen und Exkursionen die regelm ig im LRZ stattfinden tragen wir sowohl zu wissenschaftlichen Projekten als auch zur Ausbildung bei e Dr Ewert Klinikum FFB LMU Qualit tskontrolle von Operationen im Fu wurzelbereich e Dolag Astrophysik MPI Stereoskopische Auff hrung der Milleniumssimulation Urknall Pr sentation am Tag der offenen T r e Prof Heinzeller Anatomie LMU Rekonstruktion und Visualisierung humaner Embryonen e Dr Plischke Generation Research Program LMU Medizinische Auswirkungen der Benutzung von 3 D Fernsehern auf den Menschen e Prof Matzge Karasz Pal ontologie LMU Rekonstruktion und Visualisierung von versteinerten und lebenden Muschelkrebsen stereoskopische Projektion beim Habilitationsvortrag e Dr Ruthensteiner Zoologische Staatssammlung LMU Rekonstruktion und Visualisierung von Meeresschnecken stereosko
511. se Verteilung stattfindet St ck in Wert der ausge Hersteller Name Beschreibung 2008 lieferten Lizenzen i im Jahr 2008 Microsoft Applikationen System und Server 14478 577 987 Software Adobe Acrobat Photoshop GoLive Illustra 2452 380 423 tor Premiere Sophos Virenschutzprogramme f r alle Rech 90 per nerplattformen download ze prea ame ma 100 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 4 Benutzerverwaltung und Verzeichnisdienste Bei der Vergabe von Kennungen an Hochschuleinrichtungen und Studenten arbeitet das LRZ sehr eng mit den beiden M nchner Universit ten zusammen Abschnitt 5 4 1 gibt einen berblick ber die derzeit vergebenen Kennungen und ihre Verteilung auf die LRZ Plattformen In Abschnitt 5 4 1 2 wird die im Rahmen des Projekts LRZ SIM Secure Identity Management geschaffene Infrastruktur beschrieben die 2008 die rund 30 Jahre alte fr here Benutzerverwaltungssoftware abgel st hat und noch weiter entwickelt wird Sie basiert auf dem Einsatz von LDAP Servern und profitiert von der direkten Kopplung mit den LMU und TUM seitigen Hochschulverzeichnisdiensten Im Rahmen der Projekte myTUM siehe Ab schnitt 5 4 2 4 und IntegraTUM siehe Abschnitt 0 wirkt das LRZ unmittelbar am Aufbau und Betrieb einer integrierten hochschul bergreifenden Benutzerverwaltungsarchitektur mit 5 4 1 F r LRZ Systeme vergebene Kennungen 5 4 1 1 An Hochschuleinrichtungen vergebene Kennu
512. sechs Projekte eingereicht die alle genehmigt und in Folge realisiert wurden Es sind dies die Projekte EuQuake DRatchet GRAVTURB HHG OXSIM PHAGE DA Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 167 Hosted Science Field Norm CPU DECI by DEISA Description hrs granted Project Nomenclature for 2008 CCSHE LRZ Chemistry Chemical Characterization of Super Heavy Elements 410 000 E112 and E114 by 4 component relativistic DFT DRatchet LRZ Informatics Particle Transport in a Drift Ratchet as an Application 454 500 Example for High Performance CFD and FSI EuQuake LRZ Earth Sciences European earthquake simulator 491 500 GRAVTURB LRZ Astro Sciences Compressible intrastellar turbulence and star 250 000 formation Einstein2 FzJ Astro Sciences Dynamics of black holes in stellar systems 45 400 ELE poly CINECA Material Electro luminescence efficiency in polymers 213 000 LED Sciences based light emitting diodes ETISP2 EPCC Bio Sciences First principle calculations of intra and inter 121 000 molecular ET in iron sulfur proteins GALFOBS BSC Astro Sciences Galaxy formation at different epochs in different 698 000 environments comparison with observ data GEM RZG Physics Turbulence in magnetically confined plasma 518 000 PINNACLE SARA Physics Pinning down the growth rate law of atmos 528 000 pheric convective boundary layers SIMUGAL LU Bsc Astro Sciences Simulating galaxy
513. sehr verschiedenen Leis tungs und Funktions Ebenen Rechenkapazit t an Zusammenfassend betreibt das LRZ siehe auch Ab bildung 3 e Einen H chstleistungsrechner SGI Altix 4700 der bundesweit genutzt wird um Grand Challenges Probleme aus den Natur und Ingenieurwissenschaften zu l sen e Ein Linux Cluster das vorzugsweise den Instituten der M nchener Hochschulen aber auch allen anderen bayerischen Hochschulen zur Verf gung steht um darauf eigene Programme oder lizenzierte Anwendersoftware ablaufen zu lassen e Rechner innerhalb des Linux Cluster die von Instituten beschafft wurden Es ergibt sich damit eine Versorgungspyramide wie sie vom Wissenschaftsrat und den Strukturkommissionen f r die IT Ausstattung an den Hochschulen gefordert wird Einerseits eine zahlenm ig breite Ausr stung am Arbeitsplatz der Wissenschaftler die den Normalbedarf abdeckt und andererseits nur in Sonderf llen ben tigte Hochleistungs und Spezialausr stung die zentral in kleiner Anzahl betrieben wird National Capability Regional Capability amp Capacity Local Capacity Abbildung 3 Rechnerpyramide am LRZ und Einordnung in die nationale Versorgungsstruktur Die oberen Ebenen der Versorgungspyramide werden in den folgenden Abschnitten ausf hrlicher vorge stellt 23 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 31057 gt SC KL DSDESYWIKREL EELSTEN Aua 89 ZLS OSIFAUNS Xg Je1ent3 MEMWA A x Dia e
514. ser Graphiken konnte die Arbeit der Postrelays optimiert werden So wurden z B die regul ren Ausdr cke mit deren Hilfe dynamische IP Adressen erkannt wurden Dialup Regexp wieder entfernt da die Anzahl der zur ckgewiesenen IP Adressen im Verh ltnis zur CPU Belastung sehr ung nstig war Des Weiteren konnte die Last zwischen den beiden Postrelay Rechnern durch nderung der Priorit ten der MX Records besser verteilt werden Vorher verwendete die Spammer Software immer den Rechner dessen Namen alphabetisch zuerst kam Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 15000 E ei E o 10000 on un E 5000 o Hai Jun E No PTR total D No matching A total Dialup Regexp total O RBL total E User unknown total E Greylisted total E Rejected total 115 Jul Aug 576929104 msgs 271482782 msgs 3862795 msgs 383370020 msgs 31307670 msgs 3708989 msgs 1275599318 msgs avg avg avg avg avg avg avg Sep 3005 1790 20 1997 163 19 6644 Okt msgs min msgs min msgs min msgs min msgs min msgs min msgs min max max max max max max max Nov 23952 19461 5132 22902 17454 570 55077 Dez msgs min msgs min msgs min msgs min msgs min msgs min msgs min Mon Feb 23 14 14 36 2009 Abbildung 35 Abgelehnte E Mails absolute Zahlen der Verfahren Die starken Schwankungen in Abbildung 35 lassen vermuten dass nur wenige Botnetze die hohe Last von bis zu 30 Millionen Abl
515. setzt Wiki Server Wissensmanagement Tool welches es erlaubt Dokumente per Web Browser zu ndern Wiki wird am LRZ haupts chlich zur Ablage von nur im Intranet abrufbaren Dokumenten wie z B Operateurs anleitungen FAQs f r Administratoren Systemdokumentation usw verwendet VMware Server F r wenig ressourcenintensive Dienste und f r den Aufbau von Laborumgebungen wird verst rkt auf Virtualisierung gesetzt Mit der Software VMware ESX Server 3 ist es m glich auf einer physisch vorhandenen Maschine mehrere virtuelle PCs zu simulieren wodurch eine optimierte Nutzung der realen Hardware m glich wird 2 11 Remote Desktop Management Mit Remote Desktop Management wird ein Betriebs und Servicekonzept f r Windows PC Arbeitspl tze bezeichnet in dem mit zentralen Dienstleistungen des LRZ und einer Anwendungs und Kundenbetreuung vor Ort den Endkunden eine Anzahl von Schulungs Pool Spezial oder Mitarbeiter Arbeitspl tzen zur Verf gung gestellt wird Die zentralen LRZ Dienstleistungen umfassen die Versorgung mit DNS DHCP die Aufnahme der Sys teme in eine Active Directory Dom ne eine Benutzerverwaltung pers nliche Fileservices f r Benutzer Dateiablagesysteme f r Projekte mit Zugriffsrechteverwaltung Backup und ggfs Archivierungsm glich keiten f r alle Fileablagen die automatische Aktualisierung der Betriebssystemsoftware der Antiviren Software und weiterer LRZ konform installierter Anwendungen sowie die M
516. sich vor in der Zu kunft f r die Nutzung des Archiv und Backupsystems Geb hren zu erheben und oder den Umfang der Nutzung einzuschr nken F r den nicht in Aufgabengruppe 1 liegenden Benutzerkreis ist es gegebenen falls m glich Sondervereinbarungen zu treffen Hierbei werden Geb hren gem des aktuell g ltigen Kostenmodells erhoben Geb hrenordnung auf Anfrage erh ltlich Es gelten insbesondere die Pflichten des Kunden Punkt 14 3 Lesbarkeit der Daten Das Leibniz Rechenzentrum bem ht sich nach Kr ften mit den zur Verf gung stehenden Mitteln die bestm glichen technischen Voraussetzungen f r eine hohe Lebensdauer und Sicherheit der Daten zu schaffen Dazu geh ren u a die Qualit tssicherung Punkt 4 und der Geb udeschutz Punkt 5 Eine hundertprozentige Garantie f r die unbefristete Lesbarkeit der Daten auf den Speichermedien des Archiv und Backupsystems gibt es nicht Weder der Hersteller der Datentr ger noch das LRZ als Dienst leister K nnen im Fehlerfall haftbar gemacht werden 4 Qualit tssicherung Zu den am Leibniz Rechenzentrum eingesetzten bzw durchgef hrten Qualit tssicherungsma namen z hlen Unterbringung aller Speichersysteme in speziell daf r gebauten R umen des Rechenzentrums mit geeigneter Klimatisierung konstante optimale Feuchtigkeit und Temperatur Brandschutz rest riktive Zutrittskontrolle unterbrechungsfreie Stromversorgung usw Nutzung redundanter Systeme soweit technisch m
517. sieht der PRACE Antrag Arbeitspakete vor wobei sich das LRZ auf die Pakete WP2 WP4 WP6 und WP8 konzentriert WP 1 Management des Projektes verantwortlich FZJ WP2 Organisationskonzept f r die HPC Infrastruktur BSC Spanien Schwerpunkt der Mitarbeit des LRZ in WP2 liegt auf den Tasks 2 Governance Structure und 4 Peer Review Process worin organisatorische Konzepte f r die zuk nftige europ ische HPC Infrastruktur erarbeitet werden WP3 ffentlichkeitsarbeit f r Ergebnisse und Training Dissemination CSC Finnland WP4 Integrationsmanagement mit existierenden Infrastrukturen ETHZ Schweiz In WP4 das sich eng an das von DEISA Geleistete anlehnt wurden Konzepte zur verteilten Sys temverwaltung in Deliverables Videokonferenzen und Treffen erarbeitet WPS5 Einsatz von Prototyp Systemen NSF Niederlande WP6 Software f r Petaflops Systeme EPSRC Gro britannien Innerhalb von WP6 wurde zuerst eine bersicht der wichtigsten europ ischen Codes erstellt Hierzu musste das LRZ die ber eine Periode von drei Monaten abgegebenen Rechenzeit am HLRB detailliert analysieren Au er der Einteilung in verschiedene Fachbereiche wurde zum ers ten Mal auch der Rechenzeitverbrauch pro Softwarepaket gemessen um am Ende eine Liste der 20 europaweit einflussreichsten Codes zu bestimmen Die in dieser Liste enthaltenen Codes wur den genauestens analysiert Speicherlayout Einzelkernperformanz Kommunikationsmuster etc Sowohl an der Opt
518. sierte Version seines eigenen Films und eine gek rzte englische Ver sion f r den internationalen Einsatz anfertigen Auch im vergangenen Jahr hatte das LRZ die Gelegenheit seine Dienstleistungen f r Studierende im Rahmen der zentralen Erstsemesterbegr ungs Veranstaltung der LMU vorzustellen In den Osterferien stellte das Leibniz Rechenzentrum R ume und Infrastruktur f r eine gemeinsame Ver anstaltung des Stadtjugendamtes M nchen und des Bayerischen Landeskriminalamtes f r Schulkinder zum Thema Sicherheit im Internet zur Verf gung Am Samstag 18 Oktober 2008 beteiligte sich das LRZ am Tag der offenen T r auf dem Forschungs campus Garching Knapp eintausend Besucherinnen und Besucher nutzten die Gelegenheit das LRZ und nat rlich vor allem das Rechnergeb ude und den H chstleistungsrechner zu besichtigen Nach wie vor finden im Umfeld von Veranstaltungen am Campus Garching und f r die unterschiedlich sten Besuchergruppen von Sch lern bis Ministern die teilweise aus dem In und Ausland anreisen F h rungen statt In diesem Rahmen wurden 2008 bei etwa 100 Veranstaltungen insgesamt ca 3 000 Besucher gef hrt Diese F hrungen durch das Rechnergeb ude und zum H chstleistungsrechner des LRZ geh ren zu den H hepunkten der jeweiligen Programme Das LRZ gibt gemeinsam mit dem NIC J lich und dem Hochleistungsrechenzentrum Stuttgart zweimal im Jahr anl sslich der Supercomputing Konferenzen die Zeitschrift inSiDE In
519. siv beteiligt haben bei den vielen politischen Aktivit ten rund um die Findung nationaler und europ ischer HPC Konzepte bei den Vorbereitungen zum Gau Zentrum und bei allen grundlegenden Entscheidungen zur LRZ Weiterentwicklung Ebenso m chten wir unseren Stellver treter Dr Apostolescu namentlich dankend erw hnen der uns viel Last abnahm und insbesondere die schwierige Aufstellung des Dienstleistungskataloges sowie der Haushaltsplanungen koordinierte Dieser Bericht wird von zwei Autoren unterschrieben weil die Amtszeit von Prof H G Hegering als Vorsitzender des LRZ Direktoriums altersbedingt zum 01 10 2008 endete und die bergabe des Amtes auf Prof A Bode erfolgte Wir k nnen beide feststellen dass die Amts bergabe reibungslos erfolgte und dass durch die neue Zusammensetzung des Direktoriums sogar eine intensivere Betreuung der einzelnen Aufgabenbereiche des LRZ erfolgen kann Das Direktorium kann weiter auf die Mitarbeit von Prof H G Hegering z hlen neu hinzugewonnen wurde der TUM Professor H J Bungartz als Nachfolger von Prof Ch Zenger sowie der LMU Professor D Kranzlm ller Nachfolger auf den Lehrstuhl von Prof H G Hegering Aus seinem Amt als langj hriger TUM Vizepr sident und CIO bringt Prof A Bode die Erfah rung in Hochschul IT sowie als Lehrstuhlinhaber in parallelen Rechnerarchitekturen mit und tr gt seit 01 10 2008 die Gesamtverantwortung f r das LRZ Prof H J Bungartz vertritt das Gebiet der numeri sc
520. snusssonsesnnnsnsnnnsnonsssnnnsssnnnsnsnnssnnsnesnnssnsnnnsnnnnssnnnsssnnnsnsnnene 267 Teil III Anh nge sesssessuszessssssesseignsssnsnssunesstnnstessnsehsnsetnssnsnnssnunsessneneshensduenektnenssnstsnsenersunen 269 Anhang 1 Satzung der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften und des Leibniz Rechenzentrums rsurssessersorsnessersorsonennenaenene 269 Anhang 2 Mitglieder der Kommission f r Informatik am 31 12 2008 cr s00ss00sssonssonssone 271 Anhang 3 Benutzungsrichtlinien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften 273 Anhang 4 Betriebsregeln des Leibniz Rechenzentrums crssorssrssorssonssonsssnnssnnssnnssnnssnnnnnne 277 Anhang 5 Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes MWN seess 279 Anhang 6 Richtlinien zur Nutzung des Archiv und Backupsystems uesssossssonssssnnssnonnene 283 Anhang 7 Geb hren des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften z sursoresersorsonesnessersnesnessernonsnnennensesnnesnensensnnsnnssssnnnsnnesnensesnnnsnensennen 289 Anhang 8 Zuordnung von Einrichtungen zu LRZ Betreuern ab 01 01 2009 sserssorscn 291 Anhang 9 Betriebs und Organisationskonzept f r den H chstleistungsrechner in Bayern HERB e ssssccsns sssssesssnenenssussus sssnsnenssnessnnnssnnesshnanssnnsssnsersnesesnesssennetusunenn 293 Anhang 10 Nutzungs und Betriebsordnung f r den H ch
521. sogenannte Speicher f r die Wissenschaft steht seit Fr hjahr 2008 allen Mitarbeitern und Studierenden der TU M nchen zur Verf gung f r die LMU wurden weitere Pilotinstallationen eingerichtet Im Rahmen der Bem hungen des LRZ einen allgemeinen Dienstleistungskatalog zusammenzustellen wurden die Kostenmodelle f r Speicherdienste verfeinert und in eine f r die Ver ffentlichung angemes sene Form gebracht 6 7 2 Archiv und Backupsystem 6 7 2 1 Aktivit ten und aktuelle Konfiguration Allgemeine Arbeiten W hrend das Jahr 2007 noch ganz im Zeichen von Restarbeiten des Umzugs und Beschaffungsjahrs 2006 stand konnte sich das ABS Team 2008 wieder mehr um l ngst f llige immer wieder verschobene Aufgaben k mmern Darunter fielen 172 Teil II Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Endg ltige Homogenisierung der Applikations und Betriebssystemsoftware auf allen Serversys temen unter neuem Release Level TSM 5 4 SLES9 64 Bit Weiterf hrenden Untersuchungen beim Zusammenspiel von SUN Til0000A Laufwerken mit den anderen SAN Komponenten Ver ffentlichung eines Best Practice Guide f r TSM Tivoli Storage Manager sowie Erstel lung eines Cold Start Guide f r das Operating Performance Tuning an beiden Systemen Neues Konzept zur besseren Skalierbarkeit von NDMP Backups Network Data Management Protocol Sicherung von Hochleistungs NAS Systemen Verfeinerung von Disaster
522. speicher 3 Typ Typ in GB Anzahl der Anzahl der Hauptspeicher Kompo Typ der Komponenten Prozessoren der der Kompo nenten Komponente nente 1 IBM 2 5 GB Komponente des Linux Clusters Opteron 2000 MHz Serieller x86_64 Cluster Knoten 4 MEGWARE Xeon 2 2 GB Komponente des Linux Clusters EM64T 3200 MHz Serielle x86_64 Cluster Knoten e Infiniband Test Cluster 10 MEGWARE Opteron 2 1x8GB Komponente des Linux Clusters 2400 MHz 9x6GB Serielle x86_64 Cluster Knoten 20 SUN Opteron 4 8GB Komponente des Linux Clusters 2600 MHz Serielle x86_64 Cluster Knoten 37 MEGWARE 8 32 GB Komponente des Linux Clusters Opteron 2600 MHz x86_64 Cluster Knoten f r parallele MPI und 8 fach Shared Memory Jobs 234 MEGWARE Opteron 4 8GB Komponente des Linux Clusters 2600 MHz x86_64 Cluster Knoten f r serielle und parallele 4 fach Shared Memory Jobs 1 SGI Altix 3700Bx2 128 512 GB IA64 SMP Rechner Itanium2 Madison H 2 Prozessorkerne dediziert f r OS 1600 MHz 126 Prozessorkerne dediziert f r par Jobs 1 SGI Altix 4700 Mon 256 1024 GB IA64 SMP Rechner tecito 1600 MHz H 2 Prozessorkerne dediziert f r OS e 14 Prozessorkerne dediziert f r interaktives Arbeiten H 240 Prozessorkerne dediziert f r par Jobs 67 MEGWARE Itanium2 2 8GB TA64 MPP Pool Madison 1600 MHz H 20 Knoten dediziert f r serielle Jobs H 4 Knoten dediziert f r par Test Jobs H 12 Knoten dediziert f r par Jobs H 31 Knoten f r ser oder par Jobs
523. splatzsysteme und Endbenutzer ergibt sich schon allein aus der r umlichen Ausdehnung des M nchner Wissenschaftsnetzes und den begrenzten Personalressourcen in der Gruppe Desktop Management die diese Services betreut Es ist nicht m glich als Standarddienstleistung LRZ Personal zur Verwaltung von Arbeitsplatzrechnern oder zur Problembehebung jeweils vor Ort zu schicken Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 59 Insgesamt werden derzeit ber 240 Clienstsysteme nach diesem Betriebsmodell vom LRZ im M nchner Wissenschaftsnetz betreut F r Neukunden wird dieser Service kostenpflichtig angeboten 2 12 Bibliotheksverbund Bayern 2 12 1 Umzug des RZ der Verbundzentrale ins LRZ In 2006 wurde im Rahmen der Zentralisierung der IT Infrastruktureinrichtungen des Freistaates Bayern der Umzug des Rechenzentrums der Verbundzentrale des Bibliotheksverbundes Bayern BVB in das Leibniz Rechenzentrum beschlossen Die ersten Umz ge erfolgten in 2007 und seit Mitte Mai 2008 ist der Umzug des Rechenzentrums der Verbundzentrale ins LRZ abgeschlossen so dass jetzt alle BVB Services von der IT am LRZ erbracht werden 2 12 2 Migration des Verbundsystemclusters Das Verbundsystem des BVB ist der zentrale Katalog aller bayerischen Bibliotheken ber diesen Ver bundkatalog werden die Lokalsysteme und das zentrale Ausleihsystem mit Katalogdaten versorgt Das System wurde 2003 beschafft und ist seit 2004 produktiv Die Software Aleph 500 von der Fir
524. ssungswesen Weidner Architektur Weidner Maschinenwesen Weidner Elektrotechnik und Informationstechnik Weidner Wissenschaftszentrum Weihenstephan Weidner f r Ern hrung Landnutzung und Umwelt Medizin Leschhorn Sportwissenschaft Weidner Verwaltung und Zentralbereich Schr der LMU Katholische Theologie Schr der Evangelische Theologie Schr der Juristische Fakult t Schr der Betriebswirtschaft Schr der Volkswirtschaft Schr der Medizin Leschhorn Tiermedizin Leschhorn Geschichts und Kunstwissenschaften Leschhorn Philosophie Wissenschaftstheorie 2 S Leschhorn und Religionswissenschaft Psychologie und P dagogik Leschhorn Kulturwissenschaften Leschhorn Sprach und Literaturwissenschaften Leschhorn Sozialwissenschaftliche Fakult t Leschhorn Mathematik Informatik und Statistik Heilmaier Physik Heilmaier Chemie und Pharmazie Heilmaier Biologie Heilmaier Geowissenschaften Heilmaier Verwaltung und zentrale Einrichtungen Schr der Bayerische Akademie der Wissenschaften Schr der Hochschule M nchen Schr der Nutzer des H chstleistungsrechners in Bayern Wendler K rperschaften Weidner S mtliche andere Einrichtungen Schr der 292 Betreuer Herr J Heilmaier Herr K Leschhorn Frau G Schr der Herr K Weidner Frau C Wendler Vertretung f r Frau Wendler Frau I Christadler Zi 1 1 067 Zi 1 1 063 Zi 1 1 099 Zi 1 1 023 Zi 1 3 074 Zi 12 035 Tel 35831 8776 Tel 35831 8828 Tel 35831 8754 Tel 35831 8743 Te
525. steht weiterhin das alte Trouble Ticket Formular zur Verf gung 5 1 3 Neues Hotline Intern Formular Der Hotline wurde ein CGI basiertes Webformular zur Verf gung gestellt um telefonische Anfragen leichter bearbeiten und ins ARS bertragen zu k nnen Nach Angabe der Kennung werden die Personen daten wie Name E Mailadresse Einrichtung und Telefon automatisch aus den LDAP Verzeichnissen SIM und AUTHTUM in das Formular bertragen Der Workflow zur weiteren Verarbeitung der Anfrage ist identisch zu dem in Betrieb befindlichen Hotline Web Formular 5 1 4 Neuer Ablauf der Benutzeranfragen der Technischen Universit t M n chen An der Technischen Universit t M nchen TUM wurde im Rahmen des Projektes IntegraTUM ein Ser vice Desk eingef hrt der Benutzeranfragen der TUM entgegen nimmt Diese Benutzeranfragen werden in einem TUM eigenen Trouble Ticket System otrs erfasst Der TUM Service Desk koordiniert diese Benutzeranfragen ggf mit nachgelagerten Dienstanbietern wozu auch das LRZ als IT Dienstleister der TUM geh rt Anfragen von TUM Benutzern f r das LRZ wurden fr her per E Mail an das LRZ weitergegeben Das f hrte allerdings dazu dass die Bearbeitung dieser Benutzeranfragen sowohl auf TUM Seite als auch auf LRZ Seite komplex war da nicht einfach ersichtlich war wer die Anfragen bearbeitet oder wer die Ant wort erh lt oder wer f r die Koordination oder R ckfragen verantwortlich ist Aus diesem Grund wurde in Zusammenarbeit
526. stellt Im Jahr 2008 wurden am HLRB Il insgesamt 60 2 Mio Core Stunden abgegeben Ber cksichtigt man die Service und die Interaktivknoten nicht so sind das etwa 73 der maximal abgebbaren Rechenzeit Der Anstieg der abgegebenen Rechenzeit ist auf mehrere Faktoren zur ckzuf hren e Weniger und lokalisiertere Systemabst rze e Weniger und k rzere Wartungen e Verbesserungen beim Scheduling e Die Favorisierung von gr eren Jobs konnte befriedigend gel st werden 18 000 000 16 000 000 14 000 000 12 000 000 g 3 10 000 000 g D 2 O hirb2i o 3 8 000 000 E hirb2 6 000 000 Res 4 000 000 2 000 000 00 d Ae w Qrti2 QArti3 Qrtl4 Qrtl1 QOrti2 Qrti3 Qrtl4 Ort Qrti2 Qrti3 Qrtl4 2006 2007 2008 Abbildung 46 Abgegebene Rechenzeit des HLRB II sowie des Migrationssystems hlrb2i Die mittlere Rechenleistung des Systems konnte von den Anwendern im Laufe des Jahre weiter gesteigert werden Die mittlere Leistung des fertig ausgebauten Systems liegt jetzt zwischen 4 und 4 5 TeraFlop s und kann als gut eingestuft werden Sie betr gt damit rund das Zwanzigfache der Leistung des Vorg n gersystems HLRB I Hitachi SR8000 Insgesamt wird jedoch angestrebt eine mittlere Leistung von mehr als 10 der Spitzenrechenleistung zu erreichen d h mehr als 6 TeraFlop s Die Verteilung der abgegebenen Rechenzeit auf einzelne Jobklassen ist in der folgenden Abbildung 48 dargestellt Der Schwerpunkt der Nutzung liegt zwischen 128 un
527. stellt werden Als Dom nen bergreifende Diens te die vom Management System unterst tzt werden sollen wurden die vom Metro Ethernet Forum spezi fizierten Dienste bernommen e ELine ist mit einer Punkt zu Punkt VPN Verbindung zu vergleichen es werden zwei Netzzugangs punkte des Kunden miteinander verbunden e Elan ist die Erweiterung der Punkt zu Punkt VPN Verbindung zu einer Multipunkt zu Multipunkt Verbindung mehrerer Netzzugangspunkte des Kunden untereinander Es kann jeder Zugangspunkt mit jedem anderen Zugangspunkt Daten austauschen Ein virtuelles LAN e ETree ist eine Punkt zu Multipunkt Verbindung Dabei kann ein Wurzelknoten mit den angeschlos senen Blattknoten Daten austauschen aber nicht die Blattknoten untereinander Ein Anwendungssze nario ist zum Beispiel IPTV Au erdem wurden die folgenden zwei Organisationsmodelle vorgeschlagen Beim hierarchischen Modell arbeitet ein Provider direkt mit allen weiteren Providern zusammen die f r den gew nschten Dienst ben tigt werden Abbildung 107 zeigt die Service Level Agreements SLA zwischen den Providern am Beispiel eines ELan Dienstes ber mehrere Provider hinweg Beim Kettenmodell arbeitet ein Provider nur mit seinen direkten Nachbarprovidern zusammen Haben z B Provider A und B bereits ein SLA geschlossen kann Provider B an Provider C einen SLA anbieten der C eine Verbindung zu A erm glicht Abbildung 108 zeigt die Service Level Agreements SLA zwi schen den P
528. stem AFS Dienste Die Komponenten der gesamten AFS und Kerberos Umgebung die am Ende einen AFS Dateisystem und einen AFS Kerberos Authentisierungsdienst anbietet konnten im Vergleich zum Vorjahr unver ndert bleiben So besteht der Kern des Produktivsystems weiterhin aus einem vier AFS Fileserver umfassenden Dateisystemdienst der ber ein per SAN angeschlossenes Storageserver System ber 6 TeraByte an nutzbarem Speicherplatz bereitstellt sowie einem zweisprachigen Kerberos Authentisierungsdienst dreier AFS Datenbank Server Diese Server arbeiten einerseits als traditionelle AFS Authentisierungs Server funktionieren andererseits gleichzeitig aber auch als Kerberos 5 sprechende Kerberos Slave Server und bilden so mit einem zus tzlichen Kerberos Master einen eigenst ndig operierenden Heimdal basierten Kerberos 5 Dienst dessen Datenbankinhalte lediglich mit dem der AFS Kerberos Datenbank synchroni siert sind Daneben dienen noch mehrere andere Rechner und Systeme weiteren wichtigen Funktionen Manage ment Server sorgen auf der Basis von MySQL Nagios oder Apache Diensten f r die berwachung der Kerndienste und leiten die Steuerung von automatisierten Aufgaben Testumgebungen helfen bei der Weiterentwicklung von und Probleml sung bei allen im Einsatz befindlichen Produkten und Verfahren Sicherung Die gesamten in AFS Volumes untergebrachten Daten werden regelm ig auf zwei v llig verschiedene Arten gesichert Zum einen wird jede Nac
529. sten Einfluss auf die Verf gbarkeit in 2008 hatte der Ausfall eines der beiden pseudotem por ren Dateisysteme im CXFS Anfang des Jahres Nach einer Datenkorruption wurde der Beschluss Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 139 gefasst dieses Dateisystem zu restaurieren Der Vorgang dauerte aufgrund der geringen Metadatenraten der Dump und Restoreprozesse ca 20 Tage siehe Abbildung 44 In Zukunft sind solche Restaurierun gen von Scratch Dateisystemen v llig undenkbar Die Dokumentation wurde auch bereits dahingehend gesch rft dies unmissverst ndlich deutlich zu machen Der HLRB II war in 2008 zu 91 8 f r den Benutzerbetrieb verf gbar wobei als Hauptursachen f r et waige Nichtverf gbarkeiten des Systems ein CXFS Restore 2 79 vorher angek ndigte und geplante Systemwartungen 1 14 eine Fortpflanzung von Systemfehlern ber das NumaLink4 Netzwerk 0 47 sowie fehlerhafte RAID Firmware 0 39 zu nennen sind siehe Abbildung 45 Bis auf den CXFS Restore ist die Nichtverf gbarkeit durch sonstige Ursachen gegen ber 2007 zur ckgegangen Im zweiten Halbjahr 2008 lag die durchschnittliche Verf gbarkeit bei 97 5 HLRB Il Ausfallstatistik 2008 3 00 2 50 2 00 1 50 1 00 Nichtverf gbarkeit 0 50 0 00 Fehlerursachen Abbildung 45 Ursachen von Ausf llen 6 1 1 3 Nutzungs berblick 6 1 1 3 1 Schwerpunkte im Bereich H chstleistungsrechnen Nach dem Endausbau de
530. stleistungsrechner in Bayern HLRB 20s020200000000nessersnnsnesnersonsnnensensesnnesnensensnnsnsnnsrnansnnessensesnnesnensersnnsnessersansnnennen 297 Anhang 11 Mitglieder des Lenkungsausschusses des H chstleistungsrechners in Bayern HERB E 303 Jahresbericht 2008 des Leibniz Rechenzentrums Vorwort 7 Vorwort Der vorliegende Jahresbericht 2008 des Leibniz Rechenzentrums LRZ dokumentiert das weitere Wachstum dieser Einrichtung der Bayerischen Akademie der Wissenschaften das sich aus der gestiege nen Nachfrage nach unterschiedlichen IT Dienstleistungen in allen Bereichen von Forschung und Lehre ergibt Er beschreibt auch die zunehmende Bedeutung die das LRZ sich im nationalen und europ ischen Umfeld erarbeitet hat War 2006 das Jahr des Umzugs des LRZ aus der Barer Stra e in M nchen auf das Forschungsgel nde in Garching 2007 ein Jahr der Konsolidierung am neuen Standort so markiert 2008 den Aufbruch in eine europ ische Dimension und damit verbunden bereits die konkrete Planung f r einen Erweiterungsbau des Rechnerw rfels und des Mitarbeitertraktes Ein herausragendes Ereignis im Jahr 2008 war die gemeinsame Antragstellung f r das Projekt PetaGCS der drei nationalen H chstleistungszentren JSC in J lich LRZ in Garching und HLRS in Stuttgart im Rahmen des Gauss Centre for Supercomputing GCS e V mit dem Ziel der Beschaffung von Rech nern der Petaflop Klasse am deutschen Standort f r ein europ isches Zentrum f r S
531. t Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 97 CCSP System Netz und Anwendersoftware f r verschiedene HP Systeme fr her COMPAQ noch fr her Digital Equipment DEC campus wird aufrecht erhalten weil auf dem Campus nach wie vor Anwendungen auf diesen Rechnern laufen Citavi Studierende und Lehrende der LMU konnten im Jahr 2008 kosten los das Literaturverwaltungsprogramm Citavi benutzen Die Cam puslizenz wurde mit Unterst tzung des Leibniz Rechenzentrums zun chst f r das Jahr 2008 gekauft Corel Bezugsm glichkeit f r Corel Produkte vor allem CorelDraw und die Corel WordPerfect Suite Es besteht ein Rahmenabkommen dem interessierte Hochschulen beitreten k nnen Rabattstufe wurde seitens des Herstellers gesenkt Data Entry Zusatzprogramm zu SPSS Maskengesteuerte Dateneingabe DIAdem Programmpaket von National Instruments f r PCs unter Windows das zur Steuerung von Messger ten Datenerfassung und umfang reiche Analyse von Messdaten eingesetzt werden kann EndNote Landesvertrag ber einen kosteng nstigen Bezug von Einzelplatzli zenzen Lieferung der SW auf Datentr gern seitens des LRZ Im Herbst 2008 hat die LMU vertreten durch deren Bibliothek einen Campus Mietvertrag abgeschlossen ERDAS Campusvertrag zum Bezug von ERDAS Rasterbildsoftware ER DAS IMAGINE Professional Vector Virtual GIS ERDAS IMAGINE OrthoBASE mit Stereo Analyst ESRI Campusvertrag mit ESRI zum Bezug von Software f
532. t hilft Synergien auszunutzen und Doppelarbeit zu vermeiden Die zunehmende Bedeutung des Grid Com putings am LRZ und die berf hrung der Grid Dienste in den Regelbetrieb erforderte die B ndelung der projektspezifischen Aktivit ten in einer eigenen Gruppe Verteilte Ressourcen die in der Abteilung Hochleistungssysteme angesiedelt ist Im Folgenden beleuchten wir einige der in den Grid Projekten durchgef hrten Arbeiten ausf hrlicher Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 163 6 6 1 D Grid F rderung e Science und vernetztes Wissensmanagement des BMBF In Deutschland hat insbesondere die D Grid Initiative die Aus wirkungen der neuen Technologie Grid auf das wissenschaft liche Arbeiten thematisiert und ein entsprechendes Forschungs und Entwicklungsprogramm vorgeschlagen D Grid hat es sich zum Ziel gesetzt alle Grid Aktivit ten in Deutschland zu b ndeln um so intern Synergieeffekte auszun t zen und nach au en mit einer einheitlichen Stimme sprechen zu k nnen Die vom BMBF f r den Zeitraum von 2005 bis 2010 i gef rderte D Grid Initiative will in Deutschland eine e Science Kultur hnlich der beraus erfolgreichen britischen e science initiative aufbauen Im Rahmen von D Grid nahm das LRZ 2008 an vielen Workshops und Treffen teil und f hrte im September zwei Globus Schulungen je eine f r Anwender bzw Administratoren in Greifswald durch Die D CGnd Initiative CA Universit tsv
533. t ist kann sich der Master User mit seinem LRZ Betreuer zwecks weiterer Regelungen wie Zuteilung von Benutzerkennungen und Berechtigungen in Verbindung setzen Der Master User verwaltet Benutzerkennungen seines Bereichs Einzelbenutzer wenden sich an ihren Master User um Nutzungsberechtigungen zu erhalten oder um nderungen der zugeteilten Ressourcen zu erreichen Zusammenfassend ergibt sich also folgendes Schema f r den Kontakt zwischen Benutzer und LRZ in organisatorischen Fragen LRZ Betreuer a N Betreuer Master User Master User Master User Master User Mu SE MU Mu eee MU Projekt ne Projekt Projekt 1 Projekt Benutzer Benutzer Benutzer Benutzer Kennung Kennung Kennung UUS Kennung Abbildung 20 Schema der hierarchischen Benutzerverwaltung am LRZ Ein Projekt wird am LRZ durch einen Projektnamen gekennzeichnet der bei der Genehmigung des Projekts vom LRZ vergeben wird Die zu einem Projekt geh renden Benutzerkennungen sind in der Re gel sieben oder achtstellig 82 Teil I Hinweise zur Nutzung von Rechnern und Diensten Der Master User kann im Rahmen des ihm zugeteilten Kontingents neue Benutzerkennungen generieren und diese e entweder als pers nliche Kennungen an Einzelbenutzer seines Bereichs weitergeben e oder als Funktionskennungen z B
534. t vorliegen ist MySOL meist das Werkzeug der Wahl im Web Dementsprechend sind auch die wesentli chen Neuerungen bei den Datenbanken im LRZ bei MySQL zu finden Zum Erfolg von MySQL tr gt auch die Stabilit t des Produktes bei so gab es 2008 am LRZ keine einzige St rung des Datenbankbetriebs die nicht ihre Ursache bei anderen Komponenten als der Datenbanksoftware gehabt h tte 122 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Neu ist seit 2008 der Einsatz virtueller Maschinen als MySQL Datenbankserver Vor allem Datenbanken mit ungew hnlichen Anforderungen werden zun chst pilotm ig so versorgt bevor virtuelle Maschinen zunehmend zum Standard f r die Realisierung von Datenbanken werden Typische Beispiele sind e Eine mit 200 GByte relativ gro e Datenbank mit Patentdaten die zeitweise mit hohen Zugriffsra ten genutzt wird wurde so von anderen Datenbanken mit bescheidenerem Lastverhalten getrennt e Eine Datenbank mit Verbindungsdaten aus dem M nchner Wissenschaftsnetz f r die sehr hohe Last erwartet wird hat ebenfalls einen eigenen virtuellen Datenbankserver erhalten e Die Datenbank f r das am LRZ k nftig eingesetzte CMS Fiona erfordert Transaktionsverwaltung mittels des Produktes nnoBD an sich keine au ergew hnliche Anforderung aber im Rahmen von MySOL am LRZ neu Auch hier ist die Abkapselung auf einem eigenen virtuellen Server sinnvoll Zu administrativen Aufgaben die mittels Datenbanken be
535. t bereits im MWN eingesetzt werden oder in n chster Zeit ben tigt werden e Portb ndelung Trunking nach dem IEEE Standard 802 lad e Unterst tzung f r redundante Verbindungen zwischen Switches nach dem Rapid Spanning Tree Verfahren IEEE 802 1w e _Authentisierung von Benutzern auf Layer 2 IEEE 802 1X e Sicherheitsfunktionen f r das Switch Management Secure Shell SSL SNMPV3 e Stromversorgung von Endger ten Power over Ethernet wie z B WLAN Access Points oder VoIP Telefone IEEE 802 3af e Topologieerkennung durch das Link Layer Discovery Protokoll LLDP IEEE 802 1AB Aus den am Markt angebotenen Switches erf llten nur die folgenden Ger te zweier Hersteller die gefor derten Bedingungen e Cisco Catalyst 4500 e HP ProCurve 4200 bzw 5400 Der ProCurve 4200 Switch erf llt zwar nicht s mtliche Anforderungen er besitzt nicht die notwendige Portdichte bei den LWL Anschl ssen und verf gt nicht ber PoE wurde aber weiter mit betrachtet da er deutlich g nstiger ist als der ProCurve 5400 und somit in den F llen zum Einsatz kommen kann bei denen die og Kriterien nicht erf llt sein m ssen Dies ist z Zt in den weitaus meisten Geb uden der Fall 80 der Geb ude sind TP verkabelt Dar ber hinaus wird PoE bisher nur an wenigen Standorten ben tigt Der Cisco Switch wurde im September 2008 im Rahmen einer Teststellung ausf hrlich getestet Die Funktionalit ten der HP Switches waren bekannt da diese bere
536. tallation und erstellte bin re Installationspakete und pflegte die Installationsanleitung f r Globus die genau auf die Anforderungen der D Grid Systeme zugeschnitten ist Es wurde intensiver Globus Support f r alle Communities allen voran die Astro Community geleistet 6 6 2 DEISA Das zweite Gro projekt des LRZ im GRID Bereich ist L Distributed DEISA Distributed European Infrastructure for Super computing Applications http www deisa eu DEISA European ist ein Konsortium f hrender nationaler H chstleis Infrastructure for tungsrechenzentren in Europa und betreibt eine langfris Supercomputing tig angelegte verteilte Produktionsumgebung f r y gt Applications H chstleistungsrechnen im europ ischen Ma stab Der Zweck dieser seit 2008 im EU Forschungsf rderungsprogramm FP7 gef rderten For schungs Infrastruktureinrichtung ist es wissenschaftliche Forschung in einem breiten Spektrum von Fachgebieten und Technikbereichen dadurch zu f rdern dass europ ische Kapazit ten im H chstleis tungsrechnen gekoppelt verst rkt und erweitert werden Dies geschieht augenblicklich durch eine tief greifende Integration nationaler H chstleistungsplattformen die durch ein dediziertes europ isches H chstleistungsnetz GEANT 2 mit Hilfe innovativer System und Grid Software eng vernetzt sind LRZ Mitarbeiter nahmen an DEISA Technical Meetings in Amsterdam Barcelona Bologna Br ssel Paris und Stuttgart an DEISA Training Sess
537. te 2008 11 10 Besuch des Wissenschaftsministers Dr Heubisch und des Wirtschaftsministers Zeil 2008 11 25 Intel DataCenter Summit 2008 11 26 NAG Workshop MATLAB Toolbox 2008 12 08 bis 2008 12 09 Linux Cluster Workshop 5 2 3 F hrungen Im Jahr 2008 fanden ber 100 F hrungen statt an denen ca 3 000 Personen teilgenommen haben He rausragend waren hier die F hrungen die am Samstag 18 Oktober 2008 im Rahmen des Tags der offe nen T r auf dem Forschungscampus Garching stattgefunden haben Knapp eintausend Besucherinnen und Besucher nutzten die Gelegenheit das LRZ und nat rlich vor allem das Rechnergeb ude und den H chstleistungsrechner zu besichtigen Die Organisation hierzu war wie im letzten Jahr eine logistische Meisterleitung Nach wie vor finden im Umfeld von Veranstaltungen am Campus Garching und f r die unterschiedlichsten Besuchergruppen von Sch lern bis Ministern die teilweise aus dem In und Ausland anreisen F hrungen statt Diese F hrungen durch das Rechnergeb ude und zum H chstleistungsrechner des LRZ geh ren zu den H hepunkten der jeweiligen Programme 94 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 2 4 Erstsemesterveranstaltungen Wie schon im Vorjahr hat sich das Leibniz Rechenzentrum auch in diesem Jahr zu Beginn des Winterse mesters an der Erstsemesterveranstaltung der Ludwig Maximilians Universit t die durch die Hochschul leitung organisiert wird mit einem Stand beteiligt An
538. tegraTUM Verzeichnisdienst Infrastruktur f r 2009 Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 111 5 5 Netzdienste 5 5 1 Internet Der Zugang zum weltweiten Internet wird ber das Deutsche Wissenschaftsnetz WiN realisiert Im Jahr 2008 war das MWN technisch mit einer10 Gbit s Schnittstelle am WiN angeschlossen deren Kapazit t aus Kostengr nden auf die bertragungsrate von 5 44 ab 2009 8 16 Gbit s begrenzt ist Als Backup dient ein an M net Anschluss mit 1 Gbit s Die monatliche Nutzung bertragene Datenmenge des WiN Anschlusses seit Juni 1996 zeigt Abbildung 31 WiN Anschlu M nchner Wissenschaftsnetz monatlich bertragene Datenmegen 440 000 400 000 360 000 320 000 280 000 240 000 200 000 Giga Byte 160 000 120 000 80 000 40 000 0 NO OO oy Na c og N a coy N a coy Noa E Em Mat coy Na o dE e 0o25 A 00 L553 002557 00 ALLSLOALLILOALL SLOL L LOAL L LOAL Abbildung 31 Entwicklung der Nutzung des WiN Anschlusses des M nchner Wissenschaftsnetzes Die Steigerungsraten bezogen auf die jeweils im Vorjahr transportierte Datenmenge sind in Abbildung 32 graphisch dargestellt Bezogen auf das Jahr 1997 wurde im Jahr 2008 die 126 fache Datenmenge transportiert Seit September 2003 ist der WiN Anschluss vertragstechnisch ein so genannter Clusteranschluss bei dem die vom MWN versorgten teilnehmenden Institutionen als eigenst ndige Partner mit eigenem Tar
539. teiligte sich an der Erstellung von F rderantr gen zur D Grid Scheduler Interoperability DGSI Physik induzierte Servicegrid Infrastruktur Physis SLA4D Grid Service Level Agree ments f r das D Grid und Intrusion Detection GIDS Mit einer Entscheidung ber die F rderung durch das BMBF wird Anfang 2009 gerechnet Auf den Produktionssystemen des LRZs wurde Globus von GT4 0 5 auf GT4 0 7 angehoben und f r Glo bus GT4 0 7 wurden bin re Distributionen f r von Benutzern nachgefragte Betriebssysteme SLES10 erstellt Im Herbst 2007 wurden vom BMBF Sondermittel zum Aufbau der Grid Infrastruktur bereitgestellt Das LRZ beschaffte davon Hardware und erkl rte sich bereit f r die in M nchen ans ssigen Teile der asso ziierten HEP Hochenergiephysik Community deren aus Sondermitteln beschaffte Rechner im Rahmen des attended housing am LRZ zu betreiben Diese Maschinen wurden 2008 in Betrieb genommen und werden seither vom LRZ betrieben und f r D Grid zug nglich gemacht Im Rahmen neuer D Grid Sonderinvestitionen im Herbst 2008 wurden zwei Serversysteme Sunfire X4600 und Lizenzen AVS Amira Avizo IDL zur Remote Visualisierung RV im Grid beschafft F r diese RV Systeme wurde ein Betriebs und Sicherheitskonzept entworfen Die Inbetriebnahme wird An fang 2009 erfolgen Das LRZ beteiligte sich an der Erarbeitung eines D Grid weiten Betriebskonzepts der Koordination des Supports SuKo sowie einer Referenzins
540. tem zu diskutieren Mit dem IBM Software Landeslizenzvertrag besteht die M g lichkeit OVO durch das Teilprodukt Netcool OMNIbus zu ersetzen Eine Umstellung kommt jedoch fr hestens Ende 2009 in Betracht Neben dem zentralen berwachungssystem der Leitwarte existieren weitere Bildschirme zur Anzeige des allgemeinen Betriebszustands des LRZ Beispielsweise liefern 4 Monitore Informationen ber Speicher komponenten genauer gesagt f r die Beobachtung der Bandroboter und laufwerke der NAS Filer und TSM Serverinstanzen Die Monitore der Leitwarte bilden somit ein Visualisierungsfrontend f r eine ganze Reihe von berwa chungsma nahmen Eine Eigenentwicklung eines Werkzeugs zur Datenflussanalyse erm glicht zum Bei spiel die Auslastung der einzelnen SAN Ports ber die Zeit zu messen und in Diagrammen wiederzuge ben Es kann auch berechnet werden wie viele Daten in einem bestimmten Zeitintervall durch einen SAN Port geflossen sind Zus tzlich kann man akkumulierte Auslastungsdiagramme von logisch zusam menh ngenden Ports z B alle Ports eines Servers erzeugen lassen Mit diesem Tool k nnen Engp sse im SAN Bereich pro aktiv erkannt und so fr hzeitig geeignete Gegenma nahmen ergriffen werden Eine weitere z B bei Performancemessungen sehr n tzliche Eigenschaft dieses Werkzeugs ist dass die Auslas tungsdaten in Echtzeit abgefragt werden k nnen und man sich so den aktuellen Datendurchsatz eines SAN Ports sekundenaktuell anzeigen lassen
541. teme 6 1 1 3 3 Nutzungsprofil Die Verteilung der Rechenzeit auf die einzelnen Fachgebiete im Verlauf der Zeit ist in der folgenden Abbildung 49 aufgef hrt Bemerkenswert ist die wachsende Bedeutung der Astrophysik und der Biowis senschaften 100 Grid Computing 90 Deisa 80 em Enviromental Scienc Engineering others 70 E Informatics Compui 60 E Support Benchmarl E Meteo Climatology 50 E Electrical Engineerin jok E Physics others Astrophysics E Bio 30 az O Geophysics Chemistry IN Abbildung 49 Zeitliche Entwicklung der Verteilung der Rechenzeit nach Fachgebieten Lfd Projekt Einrichtung Projekttitel CPU h Anteil kumul Nr Anteil 1 h0962 Institut f r Theoretische Twisted mass QCD and overlap fermions Physik Uni M nster phenomenological applications at light quark masses 6638835 10 95 10 95 2 h0152 Max Planck Institut f r Gravitational Wave Signals from Compact Gravitationsphysik Potsdam Binary Coalescence 4958237 8 18 19 13 3 h1021 Theoretisch Physikalisches Dynamics of binary black hole systems Institut Uni Jena 3160823 5 21 24 35 4 h006z DESY Zeuthen Simulation of N_f gleich 2 1 lattice QCD at realistic quark masses 3144210 5 19 29 53 5 h0721 Department of Earth and Structure Properties and Reactivity of Environmental Sciences LMU Mineral Surfaces and Interfaces a density functional theory DFT investigation 3033583 5 00 34 54 6 h1091 Max Planck Institute for The Aquarius Proj
542. teme EL b s Abbildung 61 Teilnehmer am DEISA 2 Projekt Mit roten Linien sind die vier neuen assoziierten Part ner CSCS Schweiz CCRT CEA Frankreich KTH Schweden und JSCC Ru land gekennzeich net Ref http www deisa eu 6 6 2 3 Application Task Force DEISA Extreme Computing Initiative Die DEISA Extreme Computing Initiative DECI basiert auf einer Entscheidung des DEISA Consor tiums ohne Verz gerung mit dem zu beginnen was als Kern dieses Infrastrukturprojektes angesehen wird n mlich Forschung Wissenschaft und Technik Die Initiative besteht aus der Identifikation der Installation und dem Betrieb einer kleinen Anzahl von Flaggschiff Applikationen die sich mit komplexen herausfordernden und innovativen Simulationen besch ftigen die ohne die DEISA Infrastruktur nicht m glich w ren Ein weiteres Ziel ist es auch die internationale Zusammenarbeit zwischen den Forschergruppen und Rechenzentren zu f rdern Die Projekte wurden auf Basis ihres Innovationspotentials ihrer wissenschaftlichen G te und ihrer Rele vanz f r das Forschungsgebiet von den lokalen Begutachtungsgremien bewertet und einem Ranking un terzogen und danach von den beteiligten Rechenzentren gemeinsam ausgew hlt In allen beteiligten Rechenzentren wurde eine ApplicationTask Force gebildet die diese Projekte identifi ziert und anschlie end die Benutzer bei ihren Projekten unterst tzt Aus dem Bereich des LRZ wurden f r 2008
543. teme nicht genug Leistung bie ten e IBM FAStT900 Storageserver SATA berschreitet bei diesen Systemen die O Last einen bestimmten Wert bricht deren Leistung stark ein Man st t hier an die Grenzen der SATA Technik Diese Maschinen wurden deshalb als Secon dary Diskcache in TSM verwendet um die leistungskritischen Lastzust nde weitestgehend zu ver meiden Im Laufe des Jahres wurden auf den IBM Storageservern die Plattenpools umgebaut und auf bessere Performance hin optimiert Dadurch konnten die Engp sse auf den SATA Storage Arrays stark verringert werden Plattenausf lle werden nun von den Systemen problemlos aufgefangen Im Rahmen des Katastrophenschutzes im Bereich Datenhaltung arbeitet das LRZ eng mit dem Rechen zentrum Garching der Max Planck Gesellschaft RZG zusammen Dabei werden Kopien des Archivda tenbestandes im jeweils anderen Rechenzentrum abgelegt Der Kopiervorgang zwischen den Servern der beiden Rechenzentren wird ber 10 GE Leitungen abgewickelt Server to Server 6 7 4 2 Network Attached Storage NAS Im Dezember 2007 wurden zwei NAS Systeme und ein Replikationssystem f r den Speicher f r die Wis senschaft beschafft und im Fr hjahr 2008 konfiguriert vergleiche Kapitel 6 7 4 3 Wie bereits f r die bestehenden Systeme wurde die Verf gbarkeit des Speichers f r die Wissenschaft durch Datenreplikation auf ein zweites System in einem anderen Brandabschnitt deutlich verbessert So kann jetzt bei Problem
544. ten nicht mehr unter LRZ sondern haben ihre eigenen OU Attribute wie schon zuvor die Universit t der Bundes wehr Insgesamt gibt es am LRZ vier Registrierungsstellen die derzeit neue Zertifikate ausstellen e cine RA f r die Bayerische Akademie der Wissenschaften einschlie lich des LRZ selbst sowie f r solche Einrichtungen im M nchner Wissenschaftsnetz die keine eigene CA betreiben 86 neue Zertifikate im Jahr 2008 e eine Server RA f r die TU M nchen 59 neue Zertifikate im Jahr 2008 e eine Server RA f r die LMU M nchen 10 neue Zertifikate im Jahr 2008 e eine Server und Nutzer RA f r das Grid Computing im M nchner Wissenschaftsnetz und an der Universit t der Bundeswehr M nchen 124 neue Zertifikate f r Server und 37 f r Nutzer im Jahr 2008 davon zusammen 18 au erhalb des LRZ Die drei erstgenannten geh ren dabei jeweils zu einer CA bei der jeweiligen Einrichtung die Grid RAs geh ren zu einer CA die von der DFN PCA betrieben werden 5 10 2 Bearbeitung von Missbrauchsf llen Das LRZ ist bei der DENIC eG d h bei der Registrierungsstelle f r Domains unterhalb der Top Level Domain DE als Ansprechpartner f r Domains des M nchner Wissenschaftsnetzes MWN eingetragen u a f r uni muenchen de Imu de tu muenchen de tum de und fh muenchen de hnliches gilt f r die IP Netze die dem LRZ zugeteilt wurden Damit ist das LRZ Anlaufstelle f r sehr viele Anfragen und Beschwerden die diese Domains bzw IP
545. ter Webserver setzen Programme aus dem Internet f r ihren Webauftritt ein unter anderem zur Verwaltung der Web Inhalte Content Management Systeme CMS zur Pr sentation von Inhalten die sich in Datenbanken befinden und zur Realisierung von Webportalen und Lernplattformen Nicht immer lassen sich solche L sungen die meist prim r f r einzelne Webserver auf dedizierten Maschinen und nicht f r Verbunde vieler virtueller Webserver in Webfarmen entworfen sind nahtlos in die jetzige Ser verarchitektur einf gen Hier ma geschneiderte L sungen zu finden aber gleichzeitig Synergien zwi schen den verschiedenen Nutzern zu erm glichen ist die Herausforderung an die Webhosting Dienste Mit dem Medienzentrum der TUM wurde 2008 eine Kooperation begonnen um die Nutzung des CMS Joomla im Zusammenhang mit der Corporate Identity der TUM zu unterst tzen Au erdem steht das CMS Plone unter dem Applikationsserver Zope zur Verf gung 5 5 5 1 Zugriffe auf die WWW Server am LRZ Auf die zentralen WWW Server am LRZ wurde im Jahr 2008 durchschnittlich ca 40 Millionen Mal pro Monat zugegriffen Diese Zahl ist allerdings aus mehreren Gr nden nur bedingt aussagekr ftig Zum ei nen ist eine echte Z hlung der Zugriffe gar nicht m glich da auf verschiedenen Ebenen Caching Mechanismen eingesetzt werden Browser Proxy Andererseits werden nicht Dokumente sondern http Requests gez hlt Wenn also z B eine HTML Seite drei GIF Bilder enth lt so werde
546. tial eines zentralen Dienstleisters nutzt wie dies auch von der Wirtschaft realisiert wird Auch diese Entwicklung ist ein wichtiger Grund f r die Notwendigkeit der Bauerweiterung Der Betrieb eines Rechenzentrums von der Gr e des LRZ mit weit ber 100 000 Kunden erfordert pro fessionelles Arbeiten auf allen Ebenen Dazu wurde in 2008 der bereits fr her beschlossene Weg zu einer institutionellen Zertifizierung nach ISO IEC 20000 weiter verfolgt Der abteilungs bergreifende Arbeits kreis IT Servicemanagement hat Anfang 2009 ein Konzept f r einen einheitlichen kontrollierten Doku mentationsprozess und die Beschaffung eines unterst tzenden Werkzeugs vorgelegt Die individuelle 8 Vorwort Ausbildung von Mitarbeiterinnen und Mitarbeitern die mit einer Pr fung und T V Zertifizierung ab schlie t wurde weiter fortgesetzt Zur Professionalisierung der Dienstleistung geh rt aber auch ein striktes Kostenbewusstsein nach innen und au en Aus diesem Grund wurde der Dienstleistungskatalog des LRZ weiterentwickelt der auch eine Dienstleistungsmatrix enth lt in der eine dienstspezifische Kategorisierung von Benutzerklassen und eine Kostenzuordnung festgelegt ist Der Dienstleistungskatalog wird ab 2009 die Basis der Abrechnung von Diensten des LRZ bilden Wir haben f r den Bericht wieder bewusst die bew hrte Gliederungsform gew hlt die mehrere Zielgrup pen ansprechen kann Teil I stellt im wesentlichen eine Einf hrungsschrift des LRZ d
547. tik Altes Bauamt FH Weihenstephan Forstwirtschaft FH Weihenstenhan Landpflese Kustermannhalle FH Weihenstephan L wentorgeb ude FH Weihenstephan Papvelallee FH Weihenstephan Triesdorf FH Weihenstephan Geb 176 Internationales Begeenungszentrum Amalienstr 38 LRZ Garching LMI G U IE ERNEST ESS ER Es near E EE Ee E G L LMU LMU LML LMU LMU LMU LML LMU LMU LMU LML LMU LMU LMU LML LMU LMU L LML LMU LMU LMU LML LMU LMU LMU LML LMU LMU LMU LML DE TA pE p ere eg E L LMU LMU LMI LMU LMU LMU LMI LMU LMU LMU a SGEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEKEEEEEEEEEEEEEEEEEEEEE C E Akademiestr 1 Amalienstr 17 Amalienstr 54 Amalienstr 83 Edmund Rumnler Str 9 Frauenlobstr 7a Garchine Beschleuniger Laboratorium Garchine Phvsik Devartement Coulombwall Georsenstr 7 Georsenstr 11 Geschwister Scholl Platz 1 Geschwister Scholl Platz 1 Adalberttrakt Geschwister Scholl Platz 1 B cherturm Geschwister Scholl Platz 1 Hauptgeb ude Geschwister Scholl Platz 1 Philosophie Geschwister Scholl Platz 1 Segafredocafe Giselastr 10 Gro hadern Chemie Pharmazie Gro hadern Genzentrum Hohenstaufenstr 1 Kaulbachstr 37 Kaulbachstr 5la K niesinstra e 12 K nieinstra e 16 Leonoldstra e 3 Leovoldstra e 13 Haus 1 Geb 0601 Leovoldstra e 13 Haus 2 Geb 0602 Leovoldstra e 13 Haus 3 Geb 0603 Ludwiestr 14 Ludwiestr 25 Ludwiestr
548. ting 17 04 2008 18 04 2008 D sseldorf Bopp FZ J lich 2008 J lich Blue Gene P Porting Tuning and Scaling Workshop 21 04 2008 24 04 2008 J lich Leong DEISA2 Pre Kick Off 25 04 2008 25 04 2008 Flughafen M nchen Heller Huber Uni RZ DGI2 FG1 und SuGI 25 04 2008 25 04 2008 Karlsruhe Berner DEISA Symposium und Teilnahme am WP6 Face to Face Meeting 256 Teil II Organisatorische Ma nahmen im LRZ 27 04 2008 30 04 2008 Edinburgh UK Christadler DEISA Symposium 27 04 2008 30 04 2008 Edinburgh UK Heller DEISA Symposium und Teilnahme a DEISA PRACE Koordinierungskommission 27 04 2008 29 04 2008 Edinburgh UK Allalen Steinh fer DEISA Symposium und Teilnahme am PRACE WP4 Face to Face Meeting 28 04 2008 30 04 2008 Edinburgh UK Frank PRACE WP7 Meeting 09 05 2008 09 05 2008 Flughafen M nchen Huber Netapp MSEXC MS Exchange on Netapp Storage Systems Schulung 14 05 2008 16 05 2008 M nchen Reiner ZKI AK Multimedia amp Graphik 14 05 2008 16 05 2008 Dresden Satzger FZ J lich Workshop CBSB08 18 05 2008 21 05 2008 J lich Jamitzky PRACE General WP2 Meeting 19 05 2008 20 05 2008 Barcelona SP Brehm Steinh fer PRACE Pro WP8 22 05 2008 22 05 2008 Amsterdam NL Christadler IntegraTUM WS 28 05 2008 30 05 2008 Altenmarkt Biardzki PRACE WP4 DEISA2 Kick off 28 05 2008 30 05 2008 Barcelona SP Frank DEISA2 Kick off OGF Meeting 29 05 2008 06 06 2008 Bar
549. tion_rate_change_in quant95 count gt 15 maxabs Salesl eles r warning critical warning W critical warning critical warning critical utilization_rate_change_out utilization_rate_change_inout maxabs maxabs warning W critical warning critical Java Applet Window Abbildung 109 KPI Sicht f r das GEANT Layer 3 Kernnetz Gleicherma en werden in Abbildung 110 die Top N Statistiken f r dasselbe Netz gezeigt Die Navigations und Zoomfunktion wurden verbessert um eine leichtere Benutzung Google Maps hnlich zu erm glichen mouse dragging um sich in der Karte zu bewegen Zoomen mit Mausrad oder durch direkte Angabe des Skalierungsfaktors Die HADES Metriken des Geant Kernnetzes One Way Delay Jitter und Paketverlust packet loss Anzahl der Paketduplikate duplicate packets k nnen jetzt auch graphisch visualisiert werden hnlich wie Bandbreite Durchsatz und Auslastung Diese Metriken werden nicht nur in den spezifischen HA DES Karten angezeigt sondern auch in den entsprechenden Layer 3 Karten Ein Beispiel daf r wird in Abbildung 111 gezeigt welches die bersichtskarte des Layer 3 G amp ant Kernnetzes mit der entsprechen den HADES IP Jitter Metrik dargestellt E3 Dashboard TopN File MetricSet Overview of top ranking links per metric Select domain GEANT Layer 3 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I Select metric s
550. tren berwacht und softwarem ig gepflegt werden jedoch logisch einen Teil einer dezentralen Konfiguration bilden e Betrieb virtueller Server d h die bernahme des zuverl ssigen Betriebs von Diensten in einer vorher festgelegten Betriebsumgebung auf einem sogenannten virtuellen Server Dies schlie t nat rlich auch die berwachung der spezifischen Anwendung ein Der Betreiber hat aufgrund der unterschiedlichen Ressourcenanforderungen einzelner Dienste die M glichkeit diese beliebig auf reale Ressourcen d h Rechner zu verteilen Dadurch kann wesentlich effizienter auf sich ver ndernde Anforderungen kurzzeitige Laststeigerungen Redundanzen Ausfallsicherung usw reagiert werden 12 Teil I Einordnung und Aufgaben des Leibniz Rechenzentrums LRZ Remote Management von Rechnerumgebungen bei denen die Rechner dezentral stehen und es auch eine Vor Ort Betreuung gibt jedoch die Betriebs berwachung und Software Pflege zentral vom Rechenzentrum aus geschieht Welche Dienste werden aktuell vom LRZ angeboten Das Dienstleistungsangebot umfasst im Einzelnen Beratung und Unterst tzung bei Fragen zur Daten und Informationsverarbeitung DV bzw IV und zur aktuellen Informationstechnologie IT Kurse Schulung und Bereitstellen von Information Planung Aufbau und Betrieb des M nchner Wissenschaftsnetzes MWN Bereitstellen von g ngigen Internet Diensten E Mail Web Dienste Proxy News anonymous FTP u s w Bereitste
551. tsfragen und Missbrauchstf lle een ennn nenn 130 5 10 1 Serverzertifizierung nach N a0g ons ennn nen 130 5 10 2 Bearbeitung von Missbrauchsf llen nennen 130 6 Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme orssoessoosssonssnnssone 137 6 1 Entwicklungen bei den Rechensystemen esse enne ernennen 137 6 1 1 H chstleistungsrechner in Bayern HLRB II SGI Altix 4700 137 6 1 2 EINU ClUStET eist see eege EENS ie Senge 144 6 1 3 Remote Visualisierungsserver ons ennn een 148 6 2 Software und User Support im Bereich Hochleistungsrechnen ssessnssssssssoeseseesrese0see 152 6 2 1 Mehr Supportanfragen und Nutzung des Trouble Ticketsystems 152 iii Inhaltsverzeichnis 6 2 2 FEntwiceklungsumgehungen een ennnenne nennen 152 6 23 Anwendungen e Eed 152 6 2 4 Eigenentwicklung FGSL ons eenne nennen 153 6 3 o ltentlichkeitsarbeit a da aa aa 153 6 3 1 Linux Cluster Workshop 153 6 3 2 Supercomputing Konferenzen in Dresden und Austin eennnennnenn 154 6 3 3 Veranstaltungen im Bereich Hochlestungsrechnen s ssssssssesssseesesseesesese 154 6 3 4 Transactions of the Third HLRB and KONWIHR Status and Result W rksh p u a SB leede 155 6 34 e EE 155 6 4 Projekte und Kooperationen uuueeessesssennseenseenneennennennnennnnennnnnnnnnennsennsennseenseensn ons ennn en 155 6 4 1 Kooperationen mit Herstellern 00200400seenseensennneenneennennnennnennne nenne
552. ttees GI Erweitertes Leitungsgremium Fachgruppe KIVS Kommission f r EDV Planung Bayerische Universit ts und Fachhochschulbibliotheken D Grid Beirat DEISA Executive Committee Gauss Centre for Supercomputing GCS Gau Allianz PROSPECT NESTOR Beirat Abteilung Benutzernahe Dienste und Systeme ZKI Arbeitskreis Verzeichnisdienst ZKI Arbeitskreis Multimedia und Grafik ZKI Arbeitskreis Verteilte Systeme Regionale DOAG Arbeitsgruppe M nchen Deutsche Oracle Anwendergemeinde Arbeitskreis vernetzter Arbeitsplatzrechner AKNetzPC Arbeitskreis Metadirectory in Bayern VHB Arbeitskreis Authentifizierungs und Autorisierungsinfrastruktur DFN Arbeitsgruppe DFN AAI DFN Arbeitsgruppe E Learning Abteilung Hochleistungssysteme ZKI Arbeitskreis Supercomputing KONWIHR Kompetenznetzwerk f r Technisch Wissenschaftliches Hoch und H chstleistungs rechnen in Bayern UNICORE Forum UNICORE User Group Program Committee UNICORE Summit DEN German Grid Group vormals AK Wissenschaftl Rechnen Middleware Grid Gelato SGI User Group Fortran Standardisierung International Organization for Standardization ISO and the International Electrotechnical Commission IEC through their Joint Technical Committee 1 JTC1 International Standardization Subcommittee for programming languages SS22 Working Group 5 Fortran Abteilung Kommunikationsnetze BHN Bayerisches Hochschulnetz Projektgruppe Datenverkab
553. tuelle Rechner zu migrieren Nach dem die virtuellen Scan Rechner ber l ngere Zeit ohne Probleme gelaufen waren wurden im letzten Quartal auch die Spam Scan Rechner virtualisiert In Abbildung 37 sind die monatlichen Daten f r die Jahre 2006 2007 und 2008 zur Anzahl der ausgefil terten Viren der markierten Spam Mails und der regul ren erw nschten E Mails Ham graphisch dar gestellt Es handelt sich dabei um die E Mails die aus dem Internet von den Mail und Postrelays ange nommen und an die Scan Rechner weitergeschickt wurden Spam Mails die bereits von den Relays ab gewiesen wurden ca 99 5 aller Spam Mails sind hierin nicht erfasst 7 000 000 6 000 000 5 000 000 4 000 000 us 3 000 000 E Spam 2 000 000 E Viren 1 000 000 0 Jan Mrz Mai Jul Sep Nov Jan Mrz Mai Jul Sep Nov Jan Mrz Mai Jul Sep Nov Abbildung 37 Ham Spam und Virenaufkommen pro Monat in den Jahren 2006 bis 2008 Die Spitze bei den markierten Spam Mails zwischen November 2006 und M rz 2007 lag an den durch das Greylisting gelangten Penny Stock Spam Mails Als die Securities and Exchange Commission im M rz 2007 den Handel mit 35 Penny Stocks verbot siehe www sec gov litigation suspensions 2007 34 55420 pdf war auch diese Spam Welle zu Ende F r den Abfall der Spam Kurve in den Monaten M rz bis Juli 2008 haben wir keine Erkl rung freuen uns aber trotzdem dar ber Der Anteil an Ham Mails bleibt seit Jahren relativ konstant Daf r ist auch 20
554. tungen mit der kleinsten Hop Anzahl Weg der ber die wenigsten Router f hrt Ausnahmen zu dieser generellen Regel bildet der ber Policy Based Routing gef hrte Verkehr der in einem eigenen VLAN Virtuell LAN flie t und ber spezielle VLANs die ber das gesamte MWN ge zogen wurden Dies ist n tig um die besonderen Anforderungen von MWN Mitnutzern Institute der Max Planck Gesellschaft Staatsbibliothek zu erf llen Auch die Internet Anbindung ist redundant ausgelegt Sollte der WiN Zugang zum DFN ausfallen so bernimmt eine M net Backup Leitung die Au enanbindung Die Umschaltung wird automatisch ber Routing Protokolle gesteuert 7 1 2 Geb ude Netz In den Geb uden existiert berwiegend eine strukturierte Verkabelung bestehend aus Kupferkabeln Ka tegorie 5 6 TP oder Multimode Lichtwellenleiter Kabeln 50 1251 zu einem geringen Teil ist jedoch noch immer Ethernet Koax Kabel yellow cable verlegt Als aktive Komponenten zur Verbindung mit den Endger ten werden Layer2 Switches eingesetzt Ab Oktober 2000 erfolgte nach einer l ngeren Auswahlphase der Einsatz von Switches der Firma HP wobei zurzeit vor allem Switches mit der Typenbezeichnung HP ProCurve 4000M 4104 bzw 4108 4204 bzw 4208 im Einsatz sind Verst rkt wurden in 2008 HP ProCurve Switches der Serie 5400zl1 aufgebaut Kennzeichen dieser Netzkomponenten sind 10GE und anspruchsvolle Features wie QoS und Meshing Alle diese Ger te sind
555. tz in Berlin gegr ndet Die Gr ndungsmitglieder sind die Tr gerorganisationen der drei nationalen H chstleistungsrechenzentren ihre Leiter und ihre Len kungsausschuss Beiratsvorsitzenden Seitens des LRZ sind dies die Professoren Bode Hegering und Wagner Die Ziele und Aufgaben des Vereins k nnen wie folgt umrissen werden F rderung von Wissenschaft und Forschung durch Gewinnung von neuen technischen Er kenntnissen und Erfahrungen auf dem Gebiet des wissenschaftlichen Supercomputing insbe sondere durch B ndelung der Supercomputer Ressourcen in den Bereichen H chstleistungs rechnen und Capability Computing auch im europ ischen Rahmen GCS dient als Basis f r die Koordination der drei nationalen HPC Zentren Dies betrifft die Interoperabi lit t zwischen den Zentren die Optimierung von Rechnerarchitekturen und deren Beschaffungen Es be deutet auch die Festlegung einer gemeinsamen Nutzungs und Zugangspolitik Im Berichtsjahr ging die rotierende Leitung des GCS von Prof Bachem FZJ auf Prof Hegering ber Durch die Gr ndung von GCS wurden die unter dem Druck der europ ischen Aktivit ten zeitkritischen Ziele nach au en erreicht und die nationalen Handlungsf higkeit in Europa gest rkt Seit Anfang 2008 sind alle drei Gau Mitglieder im europ ischen Projekt PRACE involviert und stimmen ihre Aktivit ten darin untereinander ab An den GCS Zielen nach innen wurde 2008 weiter intensiv gearbeitet Um gemeinsam handlungsf
556. tzes MWN Details der ma schinellen Ausstattung finden sich in Abschnitt 3 1 Zur Durchf hrung dieser Aufgabe sind u a folgende Ma nahmen notwendig e Installation Pflege und Weiterentwicklung der zentralen Systeme e Anpassung der Betriebssysteme an spezielle Bed rfnisse am LRZ Auftragsverwaltung Kontingentierung e Installation und Betreuung von Anwendersoftware e Ma nahmen zur Fehlererkennung und behebung e regelm ige Dateisicherung an den verschiedenen Rechnern e Ausbau und Betrieb des weitverzweigten MWN samt der notwendigen Netzdienste Nameserver Mail Gateways usw e Ma nahmen zur Erh hung der Sicherheit im Netz und zum Schutz der Rechenanlagen vor Hacker Angriffen und Schadsoftware Am LRZ werden die Systeme rund um die Uhr betrieben und mit Ausnahme einiger Schichten am Wo chenende sogar stets unter der Aufsicht von Bedienungspersonal Au er w hrend einiger Stunden im Monat die f r vorbeugende Hardware Wartung und notwendige Systemarbeiten ben tigt werden stehen die Anlagen stets dem Benutzerbetrieb zur Verf gung Die wesentlichen Komponenten des Wissenschaftsnetzes sowie die Zug nge zu den nationalen und inter nationalen Netzen X WiN Internet sollten ohne irgendwelche Unterbrechungen verf gbar sein Falls dennoch gewisse Arbeiten in diesem Bereich n tig sind werden Beeintr chtigungen des Netzbetriebs m glichst lokal gehalten und gr ere Beeintr chtigungen l ngerfristig angek ndigt Bei Fehler
557. tzverantwortliche kamen 2008 noch Reports f r folgende Institute hinzu e Department f r Geo und Umweltwissenschaften Geophysikalisches Observatorium e Ludwig Maximilians Universit t M nchen Fakult t f r Kulturwissenschaften e Technische Universit t M nchen Lehrstuhl f r Hochspannungs und Anlagentechnik e Technische Universit t M nchen Lehrstuhl f r Mikrotechnik und Medizinger tetechnik Die Institute haben damit ber die WWW Schnittstelle VistaPortal http vistaportal Irz muenchen de zu InfoVista eine bersicht ber ihre Switches und die zugeh rige Port Auslastung Die Fehlersuche kann dadurch erleichtert werden Die Reports k nnen in HTML PNG PDF Text oder Excel Format abge rufen werden VistaPortal Die neueste Version 4 0 SP1 der Web Schnittstelle wurde 2008 getestet Es traten aber unabh ngig von der verwendeten Version des Java Plugins im Web Browser immer unterschiedliche Probleme auf Die Einf hrung dieser Version in den Produktionsbetrieb wurde daher noch nicht durchgef hrt 7 3 4 Action Request System ARS Das Action Request System ARS von BMC wird am LRZ nunmehr seit 14 Jahren f r Incident Mana gement Change Management Beschaffungswesen Asset Management und IP Adressverwaltung einge setzt Die Arbeiten im Jahr 2008 haben sich auf Wartung und Pflege konzentriert Zahlreiche Schulungen wur den f r die Hotline Mitarbeiter studentische Operateure und LRZ Mitarbeiter zur Benutzung des ARS
558. u rechnen da die VMWare Infrastruktur am LRZ erheblich ausgebaut werden soll Wie bereits in den letzen Jahren wird die Speicherlandschaft am LRZ weiter konsolidiert und es werden weitere Dienste auf die NAS Speichersysteme verlagert 6 7 4 3 Speicher f r die Wissenschaft Das LRZ bem ht sich seit geraumer Zeit um die Bereitstellung von Speicherkapazit ten f r alle Studie renden und Mitarbeiter der Hochschulen Die derzeitige Infrastruktur f r die Speicherung von Dateien und Dokumenten an den Hochschulen ist dezentralisiert und die Qualit t der angebotenen Dienstleistun Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 185 gen schwankt in Abh ngigkeit von der zust ndigen Teileinheit verf gbaren Budgets und den f r den Betrieb verantwortlichen Mitarbeitern Das LRZ stellt in diesem Bereich seit Fr hjahr 2008 eine einfach zu bedienende sichere und zentral administrierte Alternative bereit Durch eine enge Kopplung mit Ver zeichnisdiensten verf gen alle Mitarbeiter und Studierenden sowohl ber pers nlichen Speicherplatz als auch ber den Zugang zu Projektablagen Gemeinsamer Projektspeicherplatz erm glicht eine neue Art der Kooperation zwischen verschiedenen Einheiten die bisher wegen der dezentralen Strukturen nicht m glich war Weiteres Ziel ist die Versorgung anderer hochschulweiter Dienste mit sicherem hochver f gbarem Speicherplatz Hier wurden erste Pilotprojekte mit der LMU durchgef hrt Innerhalb des Pro jekts Int
559. uch darin flexibel f r zuk nftige Erweiterungen und nderungen zu bleiben F r das Architekturdesign wird eine top down Vorgehensweise gew hlt da nur so der Grad an Universa lit t erreicht werden kann der notwendig ist um die Integration neuer Dienste und Plattformen antizipie ren zu k nnen Die Implementierung der neu konzipierten ZBVW findet zuerst in einer Testumgebung statt die auch zur Schulung der unmittelbar mit der ZBVW in Kontakt stehenden Mitarbeiter verwendet wird da sich sowohl die Verwaltung des Datenbestands als auch der programmiertechnische Zugriff dar auf gegen ber der bisherigen ZBVW stark ndern wobei gerade die Umgestaltung der Management werkzeuge unter Usability Aspekten ein dringendes Anliegen der damit Arbeitenden ist Abschlie end wird die neue ZBVW in den Produktionsbetrieb berf hrt wesentliche Langzeit Aufgaben sind Monitoring und Reporting im operativen Betrieb sowie die gezielte Anpassung des Systems an neue und ver nderte Anforderungen im Rahmen eines speziell auf die Anforderungen des Identity Manage ments ausgelegten Change Managements 5 4 2 3 Architektur Als Kern der neuen LRZ Benutzerverwaltung wurde eine Meta Directory Architektur spezifiziert diese definiert die Schnittstellen zwischen den vorhandenen Komponenten und realisiert die technischen As pekte der Datensynchronisations Workflows auf die die zugrunde liegenden Gesch ftsprozesse abgebil det werden Abbildung 26 zeigt die lo
560. uch in reduzierter Fehleranf lligkeit positiv niederschl gt Apple ARTS Preisverleihung Ein H hepunkt des Workshops war die Verleihung des ersten Apple ARTS Apple Research and Techno logy Scholarship Preises in M nchen Apple will hiermit herausragende junge talentierte Forschergrup pen mit Hard und Software von Apple unterst tzen Der Preistr ger Dr Kay Gottschalk von der Fakult t f r Physik der LMU M nchen darf nun f r 30000 bei Apple einkaufen Unser Dank gilt der Firma Apple f r das Sponsoring des Poster Session Buffets Der Preistr ger stellte in einem Vortrag sein Projekt mit dem Titel iMD interactive Molecular Dyna mics vor 154 Teil I Entwicklungen und T tigkeiten im Bereich der Hochleistungssysteme Postersession Bei Leberk s Brezn und Bier fanden sich danach die Teilnehmer zur Postersession und allgemeinen Dis kussion ein die ein gelungener Abschluss des ersten Tages war Am zweiten Tag konnten sich alle Teil nehmer nochmals auf sehr anregende Vortr ge aus den Bereichen der Chemie Material und Lebenswis senschaften freuen Hierbei wurde deutlich dass die Erweiterung des Softwareportfolios am LRZ deutli chen Niederschlag in den Arbeiten der Anwender fand 6 3 2 Supercomputing Konferenzen in Dresden und Austin Wie auch in den vergangenen Jahren pr sentierte sich das Leibniz Rechenzentrum auf der Internationalen Supercomputing Konferenz 2008 in Dresden mit einem Stand Die St nde der Partner im Gau
561. uch nach deutschem Recht ist es nicht erlaubt copyright gesch tztes Material berwiegend Filme und MP3s und teilweise auch Software in P2P Netzen anzubieten Ein solches Angebot ver st t auch gegen die Nutzungsordnung des LRZ bzw MWN In den meisten F llen der unberechtigten Spam Beschwerden handelte es sich um Non Delivery Reports NDR diese werden fast immer durch einen Wurm oder Spammer verursacht der die eigene Mail Adresse missbraucht Wenn ein Mail System z B die Mail Server des LRZ eine einmal angenommene E Mail nicht zu stellen kann ist es laut Norm verpflichtet den vermeintlichen Absender in einem NDR dar ber zu informieren Dies gilt selbst dann wenn die urspr ngliche E Mail sehr wahrscheinlich von einem Wurm oder Spammer stammte In diesem Fall ist der Empf nger des NDR ein indirektes Opfer 132 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme Manche Empf nger f hlen sich durch diese nicht selbst ausgel sten NDRs derart bel stigt dass sie sich beim Betreiber des korrekt arbeitenden Mail Systems beschweren f Anzahl Involvierte Rechner Ping gangen EES der F lle Benutzer des MWN Pescia raen Anfragen usw F lle mit rechtlichen Aspekten Copyright Verletzungen 239 265 267 Anfragen von Strafverfolgungsbeh rden 7 7 7 Sonstige F lle l 1 1 Teilsumme 247 273 275 F lle im Bereich E Mail Unberechtigte Spam Beschwerden NDR 43 43 Spam Versand ber
562. uf dem System laufen 22 TSM Serverinstanzen mit einer aggregierten O Bandbreite von mehreren Gigabyte s siehe Abbildung 66 Dieser Teil des HABS steht prim r den Kunden mit hohen Leistungsan forderungen zur Verf gung Ein im Hinblick auf die Performance besonders optimierter Teil von HABS Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 173 Ausbau Hochleistungsarchiv und Backupsystem 2008 tape capacity 3 150 TB 6 300 Titanium Cartridges Erweiterungen von 2008 tape devices 16 x Titanium 10 x Titanium rot schraffiert hinterlegt disk capacity 113 TB FCAL M nchner Wissenschaftsnetz Router MWN TTT M er 10GE Switch Cisco 6509 2x GE Switch HP 3448CL leistungs 20 10Gbit Ports 96 Gbit Ports rechnen 16 x 10Gbit Enana ug Bundes h chst 4 x 10Gbit Ethernet A 64 x 1 Gbit Ethernet 8 Gbit 8x1 Gbit Ethernet l Ethernet 2 x Sun Fire X4200m2 16 x SunFire X4200 2 x Sun Fire X4200m2 2 x OPTERON 2 x OPTERON 2 6 GHz 2 6 GHz 6 GB Memory 16 GB Memory 4x FC 2 Gbit 3 ER 4 x FC 4 Gbit OPTERON 4x GE trunking 2x2core L 4x 10GE Sg SLES 9 kernel 2 6 5 7 191 TSM server 5 4 4x GE port trunking SLES 9 kernel 2 6 5 7 191 TSM server 5 4 OPTERON dual cpu 8 x 4 Gbit FC 8 x 4 Gbit FC 64 x 2 Gbit FC 9 x 2 Gbit FC Storage Area Network 4 GBit FC Direktor 64 Port 4 GBit FC Direktor 64 Port 32 Ports 32 Ports 16 x 2 Gbit FC 10 x 4Gbit FC 16 x 4 Gbit FC 16 x 4 Gbit FC
563. ulungen in ITSM Grundlagen die allen Mitarbeitern offen stehen Die Bildung prozessspezifischer Teams f r Chan ge und Configuration Management ist erst f r Anfang 2009 geplant Process In der Abteilung KOM wurden erste Schritte in Richtung eines ISO IEC 20000 konformen Change Managements unternommen Neuanschl sse Installationen und Wartungsarbeiten werden nun systema tisch und vollst ndig in so genannten KOM Change Records KCRs erfasst siehe hierzu auch vorher gehenden Abschnitt 7 3 4 Die KCRs decken zwar momentan noch nicht alle Phasen und Aspekte eines Change ab ihre Etablierung erm glicht aber bereits jetzt eine bessere Nachverfolgung von nderungen und eine effizientere Kommunikation zwischen den an der Change Umsetzung Beteiligten verschiedener Gruppen innerhalb der Abteilung KOM Zus tzlich wurde f r die h ufig anfallende Neuinstallation von WLAN Access Points APs ein Standard Change Verfahren entwickelt Die zun chst bestehenden Verfahrensweisen wurden dokumentiert und werden nun in Zyklen hinsichtlich der Kommunikation und Koordination der unterschiedlichen Beteilig ten optimiert Das dabei entstandene Template f r den AP Wunsch RFC Request for Change wird zun chst noch als Textverarbeitungs Laufzettel gepflegt bis die Tool Unterst tzung des Verfahrens in eine zuk nftige ITSM Suite s u berf hrt werden kann Technology Auswahl einer ITSM Suite F r die Unterst tzung eines an ISO I
564. und Systeme 01 05 2008 Hacker Johann wiss Mitarbeiter Hochleistungssysteme 01 06 2008 Ahlfeld Philipp stud Operateur Zentrale Dienste 01 06 2008 M ller Markus Michael Dr wiss Mitarbeiter Hochleistungssysteme 01 06 2008 Szweda Dagmara Maria Hilfskraft Hochleistungssysteme 01 07 2008 Freund Rosa wiss Mitarbeiter Hochleistungssysteme 01 07 2008 L chner Anita Verw Angest Zentrale Dienste 01 07 2008 Stecklum Martin stud Hilfskraft Hochleistungssysteme 01 07 2008 Weinberg Volker wiss Mitarbeiter Hochleistungssysteme 01 08 2008 Berning Kajetan stud Hilfskraft Zentrale Dienste 01 08 2008 Weidle Stefan stud Hilfskraft Benutzernahe Dienste und Systeme 01 09 2008 Schaumeier Andreas stud Hilfskraft Benutzernahe Dienste und Systeme 01 10 2008 Bondes Raphael stud Hilfskraft Zentrale Dienste 01 10 2008 Hackstein Leo stud Hilfskraft Benutzernahe Dienste und Systeme 15 10 2008 Stephan Andreas wiss Mitarbeiter Hochleistungssysteme 01 11 2008 Carlson Arthur Dr wiss Mitarbeiter Hochleistungssysteme 01 11 2008 Maier Andreas wiss Mitarbeiter Hochleistungssysteme 01 11 2008 Resch Christoph Martin stud Operateur Zentrale Dienste 15 11 2008 Hollermeier Rudolf techn Angest Benutzernahe Dienste und Systeme 15 11 2008 Laitinen Jarno wiss Mitarbeiter H
565. und dem Leibniz Rechenzentrum LRZ regeln damit ein m glichst reibungsloser und optimaler Betrieb des MWN erm glicht wird Sie gelten im gesamten Versorgungsbereich des Wissenschaftsnetzes Die Nutzung vor allem durch Einzelbenutzer ist in den entsprechenden Benutzungsrichtlinien f r Informationsverarbeitungssysteme des LRZ und der jeweiligen Institution festgelegt 81 Das M nchener Wissenschaftsnetz 1 Struktur des Netzes Das MWN ist eine nachrichtentechnische Infrastruktureinrichtung zum Zwecke der Datenkommunikati on Das MWN besteht aus e den Geb udenetzen e den Campusnetzen die die Geb udenetze miteinander verbinden und e dem Backbone Netz das die Campusnetze miteinander verbindet Geb ude und Campusnetze existieren im Wesentlichen im Bereich der Ludwig Maximilians Universit t M nchen Garching und Gro hadern Technischen Universit t M nchen Garching und Weihenstephan Fachhochschule M nchen Fachhochschule Weihenstephan Bereich Freising und Bayerischen Akademie der Wissenschaften Zum MWN geh ren alle bertragungseinrichtungen Kabel aktive und passive Komponenten etc einschlie lich der Anschlusspunkte f r Endger te Ausgenommen sind bertragungseinrichtungen in der Zust ndigkeit anderer Stellen wie etwa die Telefonnetze der Hochschulen oder instituts oder fakult ts interne Netze z B Medizinnetz Im WWW Server des LRZ http www Irz de services netz mhn ueberblick ist die Struktur
566. ung wird durch eine detaillierte textuelle Beschreibung der einzelnen Aktivit ten erg nzt Hierbei wird unterschieden zwischen ffentlichen Aktivit ten deren Ziel die Zusammenarbeit zwischen Domains ist sowie privaten Aktivit ten die Abl ufe innerhalb einer Domain darstellen I SHARE konzentriert sich auf die genauere Festlegung der ffentlichen Aktivit ten da es den einzelnen Domains berlassen bleiben wird wie diese private Aktivit ten intern organisieren Um eine Grundlage f r die Vergleichbarkeit der Aktivit ten zu schaffen erfolgt diese Beschreibung ber ein Template Die ses Template sieht die folgenden Abschnitte vor Eindeutige Aktivit tsbezeichnung Kurzbeschreibung Aktivit tstyp ffentlich oder privat maximale Ausf hrungsdauer ben tigte Daten detaillierte Be schreibung der Abarbeitungsschritte und ggf offene Fragen Die Analyse der Prozesse f hrt zu einer ge nauen Festlegung der Daten die zur Durchf hrung der Aktivit ten ausgetauscht und verwaltet werden m ssen die Informationsmodellierung sieht insbesondere eine explizite Beschreibung der Beziehungen zwischen Aktivit ten und den daf r ben tigten Daten vor Im n chsten Schritt f hrt die Verfeinerung der ffentlichen Aktivit ten zu Anwendungsf llen die die sp tere Grundlage f r die Systemrealisierung bil den 246 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes act Setup of EZE Link Setup Coordinator SC Domain Te
567. ungsangebot des LRZ e Zugang zu zugangsbeschr nkten internen MWN Diensten z B Online Zeitschriften f r Nutzer von privaten IP Adressen z B in Studentenwohnheimen e Nach dem Verbindungsaufbau zum VPN Server erhalten die Nutzer eine IP Adresse aus einem bestimmten Bereich Damit k nnen Dienste die den Zugang anhand der IP Adresse erm glichen entscheiden ob der Nutzer zugelassen wird oder nicht e Zugang zu internen MWN Diensten ber fremde Internet Anbieter Neben den vom LRZ angebotenen Einwahldiensten werden auch Angebote anderer Internet Provider zum Zugang zum MWN genutzt Die Gr nde daf r sind zum einen g nstigere Kosten und zum anderen Breitbandtechnologien wie etwa xDSL Hierbei kann man die M glichkeit nutzen mit einem VPN Server eine IP Adresse aus dem Bereich des MWN zu bekommen Dadurch k nnen auch ber fremde Zug nge MWN interne Dienste wie der Mail und News Service genutzt werden N heres zur Einrichtung einer VPN Verbindung ist zu finden unter www Irz de services netz mobil vpn 2 7 8 Zugang zu Online Datenbanken Zahlreiche Organisationen bieten Daten und Informationsbanken auf Rechnern in ffentlichen Netzen an Im Prinzip kann man daher von jedem am M nchner Wissenschaftsnetz angeschlossenen System auf solche Datenbanken zugreifen und etwa nach Fachliteratur recherchieren Aber auch vom heimischen PC sind derartige Online Recherchen ber die W hlzug nge des LRZ siehe Abschnitt 0 sowie mittels d
568. upercomputing und die Bewilligung von zu diesem Zweck gewidmeten Mitteln im Dezember 2008 Im Rahmen eines Ver waltungsabkommens zwischen dem Bund und den Sitzl ndern Bayern Baden W rttemberg und Nord rhein Westfalen wurden so f r eine erste Finanzierungsphase 128 Millionen Euro an Bundesmitteln f r die Jahre 2009 2014 zugesagt die durch Mittel der Sitzl nder verdoppelt werden Weitere Mittel f r eine Phase 2 wurden in Aussicht gestellt Der Zusammenschluss der drei deutschen Standorte im GCS e V war nicht nur wichtige Voraussetzung f r die verst rkte Koordination des Angebots an H chstleistungsrechnerkapazit t in Deutschland f r Wirtschaft und Wissenschaft sondern untermauerte durch die erfolgreiche Mitteleinwerbung auch die F hrungsrolle im europ ischen Kontext Auch die 2008 erfolgte Gr ndung der Gau Allianz e V als Vereinigung der Tr gerinstitutionen f r Systeme der Tier2 Ebene Landes H chstleistungsrechnen und fachlich gewidmete Systeme unter Mitgliedschaft des GCS e V verbessert das Angebot an H chstleis tungsrechnerkapazit t f r Nutzer aus Wissenschaft und Wirtschaft in Deutschland entsprechend der fl chendeckenden Versorgung durch die HPC Pyramide die auf allen Ebenen Institution regional natio nal europ isch HPC Systeme mit zunehmender Leistungsf higkeit und technischer Zugangsm glichkei ten zwischen den Ebenen vorsieht F r das LRZ ist die detaillierte Planung der Beschaffung eines Petaflop Rech
569. utzer ber den M net Zugang berbr ckt werden Das LRZ Netz kann n mlich mit einem Gro teil seiner IP Adressen als autonomes System im Internet agieren Der WiN Anschluss des LRZ erfolgt ber das IPP Max Planck Institut f r Plasmaphysik in Garching mit 10 Gbit s Dort wurde vom DFN der zugeh rige WiN Kernnetz Router installiert Hierf r ist eine eigene LWL Strecke zwischen dem IPP und dem LRZ Geb ude realisiert Die Backup Verbindung zum Internet wird ber eine LWL Strecke mit 1 Gbit s zum n chsten An schlusspunkt von M net gef hrt Die LWL Strecke kostet einen monatlichen Grundbetrag das Datenvo lumen wird nach Bedarf berechnet Im Jahr 2008 wurde die Backup Strecke von M net vor allem bei geplanten sehr kurzen Unterbrechungen z B Einspielen neuer SW auf WiN Router ben tigt 7 2 6 Server Load Balancer SLB Die beiden Big IP 3400 Server Load Balancer von F5 Networks werden jetzt schon seit 2006 produktiv mit gro em Erfolg im LRZ eingesetzt Mitte 2008 wurde das Netz das von den Load Balancern versorgt wird erweitert sodass nun auch Server auf dem VmWare Cluster in einem speziellen SLB Subnetz eingebunden werden k nnen Ende 2008 wurde die Software aktualisiert Nun ist es m glich ein Teil der administrativen Aufgaben von LRZ internen Kunden Web Team IntegraTUM Team selbst ausf hren zu lassen 212 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Eine schematische Konfiguration
570. vation f r dieses Teilprojekt war dass die E Mail Infrastruktur an der TU M nchen sehr heterogen und un bersichtlich ist Viele Einrichtungen m ssen wertvolle Arbeitskraft auf die Admi nistration eigener Mailserver verwenden Das Teilprojekt E Mail sollte daher einen zentralen Mailservice bereitstellen der es den Einrichtungen erm glicht diese Aufgaben auf Wunsch zu delegieren ohne ihre Verwaltungshoheit oder ihre Maildomains aufgeben zu m ssen Als Basis sollte der innerhalb des my TUM Portals aufgebaute myTUM Mailservice dienen Im Laufe des Projekts wurden jedoch verst rkt W nsche nach Groupware Funktionalit ten wie Kalender und Adressbuch offenkundig Daher wurde das Projektziel dahingehend erweitert dass ein integrierter Mail und Groupware Service aufgebaut werden soll und zwar entsprechend einem Beschluss der TUM Hochschulleitung vom Juli 2007 auf Basis von Microsoft Exchange Entsprechende Arbeiten zur Pilotierung wurden im Jahr 2008 durchgef hrt Die k nftigen Services f r die TUM werden am LRZ gehostet werden Zum Gesamtkonzept geh ren auch die LRZ Mailrelays die die TUM mit Mail aus dem Internet versorgen und dabei u a f r einen zentralen Viren und Spamschutz sorgen All diese Dienste werden hochverf gbar und skalierbar ausge legt Die Leitung dieses Teilprojekts liegt beim LRZ 2 13 2 1 3 Zentraler Datenspeicher Ziel dieses Teilprojekts ist die Bereitstellung von Speicherkapazit ten f r alle Mitgliede
571. ver die Bear beitung von aktuellen Hardware und Systemproblemen und die Pflege der Dokumentation f r Benutzer und Operateure Dazu geh ren insbesondere auch die Ma nahmen zur Erh hung der Sicherheit Absicherung der Solaris Maschinen durch Securitytools Zugangsbeschr nkungen und Deaktivierung nicht unbedingt notwendiger Dienste hardening Strukturierung des Zugriffs und der Zugangspfade zu den Servern durch Platzie rung bzw Verlagerung von Servern in Subnetze einer geeigneten Sicherheitszone Behebung aktueller Sicherheitsl cken durch Installation von Security Patches Des weiteren unterst tzt die Solaris Mannschaft auch andere Solaris Betreiber im M nchner Wissen schaftsnetz mit Rat und Tat bei der Beschaffung Installation und Konfiguration von Sun Hardware und Software bei Hardware und Softwareproblemen und bei Fragen der Rechnersicherheit Au erdem stellt sie Sun Software im Rahmen des Campus Vertrags bereit Nicht zu vernachl ssigen ist ferner der Aufwand f r die Pflege von Software f r die Lizenzverwaltung die laufende Anpassungsarbeiten und st ndige Kundenbetreuung erfordert 5 7 3 PCs unter Linux als Mitarbeiterarbeitspl tze Im Bereich der Mitarbeiter Arbeitspl tze gab es 2008 keine gravierenden nderungen weder in Bezug auf den Einsatz neuer Hardware noch beim verwendeten Betriebssystem Novell SuSE Linux Enterprise Desktop Version 10 ServicePack 1 kurz bezeichnet als SLED 10 1 Zum allt glichen B
572. ver voraussetzen anderer seits weil nicht alle Lizenzserver flexibel genug verschiedene Softwareprodukte berwachen k n nen Linux Softwareserver Neue Linux Software wird zentral am Softwareserver installiert Der Softwarestand der Linux PCs wird t glich mit dem Softwarestand des Softwareservers verglichen und automatisch auf den neuen Stand gebracht Fontserver Das X11 Protokoll gestattet das Nachladen von Zeichens tzen fonts von einem Fontserver Grid Server Benutzern kann der Zugang zu Hochleistungs Rechenressourcen auch ber einen zertifikatsbasierten Mechanismus gew hrt werden Die zur Bereitstellung dieses Dienstes notwendige Infrastruktur um fasst u a folgende Server Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 57 e UNICORE Gateway und NJS Zertifikatsbasierter Zugang zu den Hochleistungsrechnern f r Job submission und Datentransfer f r LRZ Nutzer sowie f r die Nutzer aus den Grid Projekten DEISA und D Grid e MDS WebMDS Monitoring Server zur berwachung der Globus Container auf den HPC Ressourcen am LRZ sowie f r das gesamte D Grid e _myproxy Server Zentraler Dienst zur Auslagerung von Zertifikaten f r Nutzer der Grid Infrastrukturen von D Grid und am LRZ e INCA Zur berwachung und Statuskontrolle der Benutzerumgebung wird das Tool INCA eingesetzt Der zentrale Server f r das DEISA Projekt wird vom LRZ betrieben e Accounting und DART bisher nur intern verf gbar Neben dem ber
573. von 232 Quad Core Systeme f r serielle Rechenauftr ge sowie 38 8 fach SMP Systeme mit AMD Opteron Prozessoren f r parallele Rechenauftr ge ersetzt Im Rahmen des Cluster Hosting f r das LHC Tier 2 die Bayerische Staatsbibliothek und die Mathematik der TU M nchen wurden im Jahr 2008 weitere 242 Systeme mit EM64T Dual und Quad Core Intel Prozessoren bzw 16 fach SMP Systeme mit AMD Opteron Prozessoren in das Linux Cluster integriert die z T auch den sonstigen Benutzern des Clusters zur Ver f gung stehen Technische Daten e 3206 EM64T Opteron Prozessoren e Spitzenleistung des Gesamtsystems 32 1 TeraFlop s e ca 180 TeraByte gemeinsamer Plattenplatz FC RAID Disk Subsysteme und Lustre als paralle lem Dateisystem Bandbreite ca 6 0 Gigabyte s Charakteristik und Anwendungsgebiete e Durchsatzmaschine f r serielle Anwendungen e Verf gbarkeit vieler kommerzieller Pakete aus Strukturmechanik Fluiddynamik und Computa tional Chemistry Versorgungsbereich e M nchner Hochschulen Konfiguration Linux Cluster GE Switches Altix 3700Bx2 ep e 7 SEET 1x 128 IA64 parallel parallel Altix 4700 37x8 15x16 1x 256 IA64 67 x 2 A64 12x4 IA64 Opteron Opteron SHM r parallel seriell 560x 1 24 EM64T Opteron 10 Gigabit oder 1 Gigabit Ethernet MPI PARASTATION Myrinet Switches 10 Gigabit Ethernet 10 Gigabit Ethernet MPI PARASTATION NAS Filer 6TB Gemeinsames HOME Filesystem NAS NFS G
574. von TUM Service Desk und LRZ ein gemeinsamer Work flow definiert Dieser beinhaltet auch eine gemeinsame Schnittstelle der beiden Ticket Systeme So wer den jetzt Benutzeranfragen der TUM im TUM Ticket System ber ein definiertes Formular ber eine 86 Teil II Entwicklungen im Bereich Benutzernahe Dienste und Systeme dedizierte Schnittstelle an das LRZ Ticket System weitergeleitet Auf diese Weise gehen keine Anfragen verloren und der Stand ist immer nachvollziehbar Es wird auf LRZ Seite direkt ein Ticket erzeugt und bei der Bearbeitung dieses Tickets erh lt der TUM Service Desk automatisch R ckmeldungen ber den Bearbeitungsstand Ticket erzeugt Antwort und Schlie ung Abbildung 21 stellt diesen Ablauf dar In Abbildung 22 ist die Anzahl der vom TUM Service Desk an das LRZ weitergeleiteten Anfragen ersich tlich Die oben beschriebene Schnittstelle wurde im M rz 2008 eingef hrt und seitdem ist ein kontinuier licher Anstieg der Anzahl der Anfragen ber diesen Weg zu verzeichnen Erkennbar ist auch der Anstieg der Anfragen zu Semesterbeginn ab Oktober Ablaufschema TUM Ticket LRZ Support 1 Anfragender meldet Problem an den TUM Support 2 TUM Support leitet die Anfrage an LRZ Queue Team 3 LRZ Queue Team leitet sie per Mail an LRZ Hotline 4 Hotline weist Ticket dem LRZ Verantwortlichen zu 5 LRZ Mitarbeiter bearbeitet Anfrage im ARS 6 L sung geht zur ck an TUM Support 7 TUM Support informiert TUM Anfragenden ui
575. von deren Kommission f r Informatik beaufsichtigt die aus Vertretern der M nchner Hochschulen der bayerischen Hochschulen au erhalb M nchens und nat rlich der Bayerischen Akademie der Wissen schaften gebildet wird Diese Kommission bestimmt aus ihrer Mitte ein Direktorium als dessen Vorsit zender seit dem 1 Oktober 2008 Prof Dr A Bode das Rechenzentrum leitet Bis zu diesem Zeitpunkt war die Leitung in der Hand von Prof Dr H G Hegering Die weiteren Mitglieder des Direktoriums sind Prof Dr H J Bungartz ersetzt seit 12 12 2008 Prof Dr Ch Zenger Prof Dr H G Hegering bis 01 10 2008 Prof Dr A Bode und Prof Dr D Kranzlm ller ab 19 05 2008 Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 13 TUM Bayerische Akademie der Wissenschaften Kommission Direktorium Leitung f r Informatik des LRZ des LRZ Die verschiedenen organisatorischen Regelungen sind in Teil III zusammengestellt Satzung der Kommission f r Informatik der Bayerischen Akademie der Wissenschaften und des Leibniz Rechenzentrums Anhang 1 Die Mitglieder der Kommission f r Informatik Anhang 2 Benutzungsrichtlinien f r Informationsverarbeitungssysteme des Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaften Anhang 3 Betriebsregeln des Leibniz Rechenzentrums Anhang 4 Richtlinien zum Betrieb des M nchner Wissenschaftsnetzes Anhang 5 Richtlinien und Grunds tze zur Nutzung des Archiv und Backupsystems Anhang
576. w ltigt werden z hlen die datenbankgest tzte Verwaltung der Studentendaten die internetbasierte Kursverwaltung am LRZ die Inventarisierung die Netz berwachung die Verwaltung der Netzverantwortlichen sowie das Trouble Ticket System der Firma Remedy welches auf einem Oracle Datenbanksystem aufsetzt Der Schwerpunkt des Oracle Datenbankservers liegt hierbei bei transaktionsorientierten Aufgaben w hrend MySOL haupts chlich der Bereitstellung dynamischer Inhalte von virtuellen Webservern dient F r beide Datenbankl sungen steht die Anbindung an virtuelle Webserver am LRZ ber PHP und Perl zur Verf gung au erdem phpMyAdmin als Administrationswerkzeug f r MySOL Datenbanken Am Jah resende 2008 betrieb das LRZ 9 Instanzen Vorjahr 5 von MySQL 6x MySQL 4 1 und 3x MySQL 5 die etwa 400 GByte Daten Vorjahr 250 GByte verwalten Damit werden unter anderem ca 240 virtuel le Webserver Vorjahr 150 versorgt Dar berhinaus finden die MySOL Services hausintern in 30 Projek ten Vorjahr 25 intensiven Gebrauch Auch die Performancedaten des HLRB II werden in einer MySOL Datenbank gespeichert und dadurch konsolidiert im Internet angezeigt Die MySOL Datenbankserver verarbeiten derzeit permanent ca 700 Anfragen aus dem Netz pro Sekunde Vorjahr 250 Die hausinternen Oracle Datenbankserver der Version Oracle9i laufen unter Windows und Sun Solaris 64 Bit Die MySOL Datenbankserver laufen auf Intel basierten Systemen unter SuSE Linux Enterpri
577. wachen und Abrechnen der Rechenzeit Budgets in DEISA werden auch dem Benutzer die damit verbundenen Informationen zur Verf gung gestellt e Grid Benutzerverwaltung GUA bisher nur intern verf gbar Die Eigenheiten der Grid Projekte erfordern momentan eine eigenst ndige Verwaltung der Be nutzer Dies schlie t den automatischen Abgleich der Benutzerdaten mit den Verwaltungen an anderen Rechenzentren mit ein Interne Dienste WWW Server Intranet Siehe weiter oben unter Internet Dienste Action Request System ARS Verteiltes System zur Steuerung von Arbeitsabl ufen wird vor allem f r die Hotline aber auch f r die Dokumentation der Beschaffungsvorg nge die Inventarisierung und das Asset Management eingesetzt Ben tigt einen Server mit dem die Clients auf PCs oder Unix Rechnern Kontakt auf nehmen k nnen Netz und Systemmanagement Am LRZ ist HP Openview mit der Netzmanagement Software HP Nodemanager und dem System berwachungswerkzeug HP IT Operations im Einsatz An dieser verteilten Anwendung sind zahlrei che Prozesse auf zum Teil dedizierten Rechnern beteiligt Zus tzlich ist auch das Open Source Produkt Nagios im Einsatz Installations und Bootserver Die Software der vom LRZ betriebenen Solaris und Linux Rechner wird ber das Netz installiert und die Rechner aus dem Netz gebootet Windows Server Datei und Printserver f r alle Benutzer und LRZ Mitarbeiter Active Directory Services als Basis
578. wand f r den Client wurde durch herunterladbare Profile f r die Nutzer auf einfaches Anklicken reduziert Im Dezember hatte das iPhone schon einen An teil von 4 an den Verbindungen Der IPsec Client von Cisco unterst tzt keine 64 Bit Windows Betriebssysteme Um Nutzern dieser Sys teme den Zugang ber VPN zu erm glichen wurden Anleitungen f r Software von Drittherstellern wie z B NCP und Shrew Soft bereitgestellt 206 Teil I Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes Zugang f r Heimarbeitspl tze des LRZ Mitarbeiter m ssen die Ressourcen im LRZ w hrend ihrer Arbeit zu Hause nutzen k nnen Dazu erhalten sie einen VPN Router an den sie Rechner und IP Telefon am Heimarbeitsplatz anschlie en k nnen Der VPN Router ist so konfiguriert dass er automatisch eine Verbindung zum VPN Server im LRZ aufbaut ber diese Verbindung einen IPsec LAN to LAN Tunnel mit 3DES Verschl sselung wird ein Subnetz mit der Subnetzmaske 255 255 255 248 geroutet Damit stehen sechs IP Adressen f r Router Rechner ggf Laptop und IP Telefon zur Verf gung Bei dem VPN Router handelt es sich um das Modell WRVS4G von Linksys Das IP Telefon ist an der VoIP Telefonanlage des LRZ angeschlossen und so konfiguriert dass der Mitarbeiter am Heimarbeitsplatz mit der gleichen Telefonnummer wie an seinem Arbeitsplatz am LRZ erreichbar ist Technik Der VPN Dienst basiert auf einer Appliance vom Typ VPN Concentrator 3030 und vier App
579. wand f r parallele Algo rithmen deutlich zu senken und dem Compiler die M glichkeit zu geben auch die Kommunikation zu optimieren Auf den LRZ HPC Systemen wurden Implementierungen von UPC Unified Parallel C und Co Array Fortran verf gbar gemacht bzw lizenziert Modernere Sprachkonzepte HPCS oder High Pro ductivity Languages wie Fortress oder Chapel bieten ein noch h heres Abstraktionsniveau sind jedoch noch nicht zur Produktionsreife gediehen Zur Erzielung guter paralleler Performance sind au erdem zus tzliche Hardware Eigenschaften wie atomare Memory Operationen oder Offload von Reduktionen auf das Verbindungsnetzwerk notwendig Dar ber hinaus sollte die Betriebsumgebung eine effizientere Generierung von Threads und Prozessen gestatten als heute blich Alle Konzepte werden im Hinblick auf die Nutzung durch Anwender des LRZ beobachtet und gegebe nenfalls prototypisch implementiert 6 2 3 Anwendungen Durch die verbesserte Personalsituation konnte das Software Portfolio deutlich erweitert und die Unter st tzung f r h ufig genutzte Pakete wesentlich verbessert werden Exemplarisch seien die Pakete Gro macs 4 Molekulardynamik mit signifikanten Verbesserungen der parallelen Skalierbarkeit und Open FOAM Computational Fluid Dynamics genannt Erheblicher Aufwand ging auch in die Aktualisierung der Programme f r Chemie und Materialwissenschaften Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 153 6 2 4 Eigenentwicklu
580. wicklung oder nutzung e Beratung bei der Anschaffung von Ausstattung von der Grafikkarte bis zur VR Installation 2 9 9 1 Zweifl chen Projektionsanlage Die Zweifl chen Projektionsanlage ist ein Arbeitsplatz an dem virtuelle Objekte auf realistische Weise betrachtet und bewegt werden k nnen Ihre zwei Projektionsscheiben der Gr e 1 80m x 1 10m sind ho rizontal und vertikal in der H he eines Arbeitstisches angeordnet Dadurch ergibt sich ein gro es Blick feld Die R ckprojektion mittels zweier R hrenprojektoren erm glicht mit Hilfe von Shutter Brillen ein hochwertiges stereoskopisches also echt dreidimensionales Sehen Der Einsatz eines elektromagneti Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 51 schen Tracking Systems erlaubt dabei die Anpassung der gerenderten Ansicht an den Standort des Be trachters So kann der Betrachter um das Objekt herum gehen Ein ebenfalls getracktes Eingabeger t er m glicht die interaktive Steuerung und Manipulation der VR Anwendungen Die Projektionsanlage wird von einem Server Cluster angesteuert zur e o ii gt P ch E l Abbildung 14 Zweifl chen Projektionsanlage 2 9 92 Visualisierungs Cluster Der Visualisierungs Cluster der Firma SGI besteht aus drei Grafikworkstations einem 10 Gbit Ether netswitch einem Videoswitch und einem Trackingsystem Die Knoten sind mit jeweils zwei Intel Xeon 5160 3 GHz Dual Core Prozessoren 32 GB Hauptspeicher nVidia Quadro FX5
581. wissenheit der MWN Nutzer die ihre Mail Accounts bereitwillig herausgegeben hatten erhielt das LRZ im ersten Fall 45 Spam Beschwerden dies ist bis jetzt mit gro em Abstand der Rekord an externen Beschwerden in einem einzigen Fall und im zweiten Fall immerhin noch 12 Spam Beschwerden Die beiden F lle wurden zur Rubrik Spam Versand ber kompromittierte Rechner gez hlt auch wenn der betroffene Web Mail Zugang des LRZ selbst nicht kompromittiert war Als weitere Folge der gestohlenen Accounts befand sich der Web Mail Zugang auch einige Tage auf diversen schwarzen Listen w hrend dieser Zeit nahmen viele Mail Systeme von dort keine E Mails entgegen Bei Spam Beschwerden Legitim erhielt das LRZ Beschwerden ber E Mails die nach Ansicht des LRZ einen legitimen bzw seri sen Inhalt hatten In diesen F llen handelte es sich meist um Rundbrie Jahresbericht 2008 des Leibniz Rechenzentrums Teil II 133 fe einer Organisation des MWN oder um Beitr ge eines seri sen Newsletters Manche Nutzer tragen sich selbst bei einem Newsletter ein vergessen dies dann aber nach einiger Zeit und f hlen sich dann von Beitr gen des betreffenden Newsletters bel stigt Bei den Mail Beschwerden an die falsche Stelle fielen die Spam Opfer auf gef lschte Mail Header herein und bemerkten nicht dass die Spam Mails in Wahrheit nicht aus dem MWN kamen Bei den Monitoring Funktionen siehe unten gibt es zwangsl ufig jeweils eine Aus
582. z Zt beide im LRZ Geb ude befinden Zur Ausfallsicherheit arbeiten die Server redundant d h bei einem Ausfall eines Servers ber nimmt der zweite automatisch die Funktion des anderen Au erdem findet zwischen den beiden Servern eine Lastteilung statt Die urspr nglich f r das Jahr 2008 geplante Inbetriebnahme des DHCPv6 Dienstes musste verschoben werden da die Backbone Router erst seit Ende 2008 in der Lage sind DHCPv6 Pakete weiterzuleiten DHCPv6 Relay Daher kann die Vergabe von IPv6 Adressen ber DHCP erst im Laufe des Jahres 2009 erfolgen 214 Teil II Entwicklungen und T tigkeiten im Bereich des Kommunikationsnetzes 7 2 10 Voice over IP VoIP Insgesamt wurden im Jahr 2008 durch die VoIP Telefonanlage vom Typ Asterisk ca 200 000 Gespr che mit einer durchschnittlichen L nge von 2 50 Minuten oder insgesamt ca 570 000 Gespr chsminuten er folgreich vermittelt Dies entspricht einem Zuwachs von ca 5 in der Anzahl der Gespr che im Ver gleich zum Vorjahr wobei die durchschnittliche Dauer der Gespr che um 14 Sekunden anstieg Nur ca 1 300 Gespr chsminuten konnten direkt ber SIP zu externen Teilnehmern abgewickelt werden was in etwa dem Wert des Vorjahres entspricht Zu den ber SIP erreichbaren Zielen geh ren die Univer sit ten in Eichst tt Jena Regensburg Wien Mainz W rzburg Innsbruck und der DFN Weitere Informationen zur VoIP Telefonanlage wie z B den Aufbau und Vermittlungsstatistik k nnen den Jahresbe
583. z de fag Jahresbericht 2008 des Leibniz Rechenzentrums Teil I 85 Teil II Die Entwicklung des Dienstleistungsangebots der Ausstattung und des Betriebs im Jahr 2008 5 Entwicklungen im Bereich Benutzernahe Dienste und Systeme 5 1 Beratung und Hotline 5 1 1 Web Interface zum Incident Management des LRZ Hotline Web Die Meldung von Benutzeranfragen per Webschnittstelle wird neben den Nutzern von Standarddiensten ebenfalls von HLRB und Linux Cluster Nutzern ausgiebig verwendet Im Jahr 2008 sind 213 HLRB Web Tickets und 220 Linux Web Tickets per Webschnittstelle im ARS dokumentiert worden Im Jahr 2008 wurden insgesamt 1 946 von 2620 Tickets per Web Formular erfasst und somit dokumen tiert 5 1 2 Hotline LRZ Support Formular an SIM angebunden Das LRZ Support Formular Hotline Web wurde Ende Juli 2008 durch ein SIM basiertes St rungsmelde formular erg nzt SIM Projekt Secure Identity Management ist die neue Benutzerverwaltung des LRZ Nach dem Login ber diese neue Maske entf llt f r den Kunden die Eingabe von Daten zu seiner Person da die n tigen Kundendaten automatisch aus dem Verzeichnisdienst geholt werden Im Oktober des Jahres wurde auch der Authentifizierungsserver der TUM auth tum bernommen um auch IntegraTUM Kennungen abfragen zu k nnen Damit k nnen sich ab diesem Zeitpunkt auch jene TUM Angeh rigen mit Ihrer Kennung einloggen die nicht im SIM erfasst sind F r nicht in SIM gespei cherte externe Kunden
584. zeigt Abbildung 94 Da der SLB als zentrale Komponente f r zentrale Dienste eingesetzt wird ist er redundant ausgelegt Die Ausfallsicherheit wird dadurch erreicht dass sich zwei SLBs gegenseitig berwachen wobei ein SLB immer aktiv und der zweite in Bereitschaft standby ist Active Standby Modus Bei Ausfall des aktiven SLB wird die Arbeit automatisch durch den zweiten SLB bernommen Hinter den SLBs sind vier Layer2 Switches Um die Redundanz dieser dann zu gew hrleisten m ssen die Switches mehrfach ver bunden werden sodass das Protokoll Spanning Tree f r einen schleifenfreien Betrieb sorgt Der VmWare Cluster ist ber ein spezielles VLAN doppelt an die SLBs angebunden L2 Zentral Switch F5 BIG IP 3400 active d a men U Ch ES a aan ae SP L2 Switch 1 SSC L2 Switch F5 BIG IP 3400 standby i Se ID L2 Switch Router L2 Zentral Switch Abbildung 94 Konfiguration der SLBs schematisch 7 2 7 Proxies und Zeitschriftenzugang Das Angebot der elektronischen Zeitschriften und Datenbanken wird weiterhin verst rkt genutzt Viele Studenten recherchieren auch von zu Hause da sie inzwischen ber einen DSL Anschluss mit Flatrate verf gen Auch externe Lehrkrankenh user nutzen verst rkt die DocWeb Webplattform Webplattform f r den Zeitschriftenzugriff Die Webplattform DocWeb http docweb Irz muenchen de erfreut sich wachsender Beliebtheit Da DocWeb auch ohne den Ei

Download Pdf Manuals

image

Related Search

Related Contents

Leisure TAF3CM faucet  Chapter 7_Transient  s6i_885_e00:A5 - Elvox Vimar group.qxd  PDF pdf - Edifarm  User`s Manual  TracPhone FleetBroadband IP Handset User's Guide  Montage - SensoPart Industriesensorik  

Copyright © All rights reserved.
Failed to retrieve file