Netz- und Systemsicherheit

Udo Linauer

Am Zentralen Informatikdienst der Technischen Universität Wien wurde mit Beginn des heurigen Jahres die Position eines Beauftragten für Netz- und Systemsicherheit geschaffen.

Die Beweggründe dafür waren vielfältig, zum Ersten finden wir bei uns durch die vorgegebenen Aufgaben einen besonders intensiven und weit ausgebauten Einsatz von EDV jeglicher Art vor. Dieser Größe zollten Hacker wie auch E-Mail-Spammer wiederholt Tribut. Die Hackerproblematik schafft tagesaktuell viele Aufgaben für den Sicherheitsbeauftragten: reaktive - das Aufspüren von Hackern und betroffenen Rechnern - wie auch aktive Beratung bei der Installation, Security-Checks, Firewalls und vieles mehr. Weitere Bedrohungen gehen von Trojanischen Pferden und Viren aus. Mindestens ebenso wichtig ist aber auch der Bedarf an Sicherheitskonzepten im größeren Rahmen, zeitlich wie auch organisatorisch. Verschlüsselung, digitale Signaturen und Zertifikate sind Gesprächsthema für eine breite Öffentlichkeit. Die Adaption für die Technische Universität Wien zählt zu den Agenden des Sicherheitsbeauftragten. Es bleiben zuletzt noch die Bereitstellung von redigierten Informationen und die Organisation von Informationsveranstaltungen als weitere interessante Betätigungsfelder zu erwähnen.


Die Hackerproblematik (UNIX)

Wie bereits erwähnt, kommt es laufend zu Hackerattacken auf Rechner an der TU Wien. Die Attacken treten schubweise auf und konzentrieren sich zur Zeit vorwiegend auf Computer mit dem Betriebssystem Linux. Ein nicht geringer Teil führt zum Erfolg (seit Beginn des Jahres wurden mir ca. 30 Fälle bekannt). Neben dem Verlust der Kontrolle über den eigenen Computer ist das vielleicht größte Ärgernis, dass "gehackte" Rechner als Basis für weitere Attacken benutzt werden, was zu vielen, teils wütenden E-Mails von Dritten führt. Es zeigte sich, dass auch professionelle Systemadministratoren durch diese neue Problematik vor große Probleme gestellt wurden, denen sie trotz ihrer hohen Fachkompetenz nicht immer gewachsen waren. Mitarbeiter, für die die Betreuung von Rechnern nur eine Nebenbeschäftigung darstellt, haben dementsprechend noch mehr Bedarf an Hilfe, wobei meistens, gleichgültig ob es sich um Vollzeit- oder Teilzeitadministratoren handelte, Problembewusstsein vorhanden war, im gleichen Atemzug aber Zeitmangel als häufigstes Argument für Mängel benannt wurde. Der Aufwand, der getrieben werden muss, um zumindest bei den wichtigsten sicherheitsrelevanten Bereichen am Stand der Technik zu bleiben, ist tatsächlich enorm. Der schnelle Wechsel von Programmversionen und das fast noch schnellere Auffinden von Schwachstellen in neuen Versionen durch Hacker verlangen nach einer steten Beobachtung einschlägiger Informationsquellen. Hierbei kann man davon ausgehen, dass im Allgemeinen Neuigkeiten zuallererst in diversen Foren im Internet publiziert werden (Newsgroups: news://comp.security.unix, Web: http://www.cert.org/ etc.). Man kann sich also nicht darauf verlassen, vom Hersteller oder Servicepartner rechtzeitig informiert zu werden. Bei Freeware und Public Domain ist solche Unterstützung zumeist gar nicht vorgesehen. Die Menge der angebotenen Informationen ist immens und verlangt sehr oft genaue Kenntnis der Betriebssysteme und Applikationen. Da ich natürlich nicht alle Betriebssysteme und Applikationen gleich gut beherrschen kann, sehe ich hier meine Aufgabe in der Vermittlung zwischen hilfesuchenden Mitarbeitern oder auch Studenten und den kompetenten Mitarbeitern am Zentralen Informatikdienst.

Welche Hilfe kann ich Ihnen darüber hinaus anbieten? Zwei wesentliche Merkmale machen einen "sicheren" Rechner aus: einerseits eine saubere Installation, andererseits die kontinuierliche Wartung und Überprüfung des Systems. Installation Guides gibt es jede Menge, Verweise auf ausgewählt gute Informationen können Sie unter http://www.zid.tuwien.ac.at/security/security.html für Windows NT und Linux finden. Wartung ist notwendig, Patches müssen eingespielt werden, Zugriffsrechte müssen den Gegebenheiten angepasst werden. Als hilfreich beim Auffinden von Schwachstellen erwiesen sich Programme für Security Checks, Portscans und dergleichen (z.B. Satan). Um Ihnen bei der Wartung Ihrer Systeme behilflich zu sein, beschlossen wir, solche Systeme zu evaluieren und ein geeignetes anzuschaffen. Der Evaluationsprozess ist noch nicht abgeschlossen, sehr bald aber werden wir Ihnen eine kostenlose Sicherheitsüberprüfung Ihrer Systeme und die dazugehörige Beratung als Service anbieten können.


Die Hackerproblematik   (MS Windows) und Viren

Während auf UNIX-Systemen Hacker primär durch mehr oder weniger brutale Attacken auf Schwächen in der Software (imapd, mountd, ftpd etc.) Zugriff erlangen, gelingt es ihnen bei MS Windows-PCs zumeist durch die Verbreitung manipulierter Software, sogenannter Trojanischer Pferde (z.B. "NetBus", "Back Orifice", siehe auch http://www.symantec.com/avcenter/warn/backorifice.html). Die Folgen sind dieselben, das Auffinden am besten mittels Port Scanner zu erreichen (s.o.).

Viren sind beinahe ausschließlich auf Rechnern mit Betriebssystemen von Microsoft zu finden. Im Widerspruch zu den häufigen Pressemeldungen über diverse Killerviren steht die geringe Anzahl solcher Meldungen aus dem Bereich der TU Wien, zumindest mir gegenüber. Da ich nicht glaube, dass wir gegen Viren immun sind, empfehle ich, Antivirensoftware in Kombination mit einem den Umständen angepassten Backupkonzept flächendeckend einzusetzen. Die Kosten dafür sind gering. (Software z. B. unter http://swd.tuwien.ac.at/css/angebot.html). Man unterscheidet zwischen Scanner und Shields. Virenscanner durchsuchen neueinzuspielende Software (E-Mail, Web, Disketten) nach bekannten Viren. Klarerweise muss die Datenbank der bekannten Viren immer auf aktuellem Stand gehalten werden. Die Erkennungsrate ist hoch, der Aufwand für das Update der Virendatenbank nicht gering. Um dem Administrator zu entlasten, kommen vermehrt Update-Automatismen zum Einsatz. Virenschilder (Shields) versuchen, typische Symptome von Virenbefall zu erkennen. Es wird also nicht nach fixen Mustern gesucht sondern vielmehr nach allgemeinen, wie etwa die Veränderung der Größe von Dateien. Der Vorteil dieser Methode besteht darin, dass prinzipiell auch brandneue, unbekannte Viren erkannt werden können, zu ihren Schwächen zählt, dass es durchaus auch zu Fehlalarmen kommen kann.


Firewalls

Aus dem Blickwinkel des Sicherheitsbeauftragten ist die Sicherung eines weitgehend dezentral organisierten Netzes (dazu zähle ich die freie Wahl der Hardware, der Betriebssysteme etc. auf Institutsebene), das möglichst viele Freiheiten gestattet (Betrieb eines Mail-Servers, Proxys u.ä.), eine diffizile Aufgabe. Trotz dieser Vorgaben muss die Anzahl der sicherheitsrelevanten Vorfälle gesenkt werden. Um dies zu erreichen, müssen wir, wie bereits beschrieben, die Qualität der installierten Systeme verbessern. Hilfreich bei der Erhöhung der Systemsicherheit ist der Einsatz von Firewalls und ähnlichen Werkzeugen (z. B.: Packet Filter). Institutsfirewalls sind bereits auf Eigeninitiative im Einsatz und leisten gute Dienste. Meiner Meinung nach ist das Institut auch die geeignete Organisationseinheit für den Einsatz eines Firewalls. Universitätsweit können nur einige wenige Protokolle oder Services durch einen Firewall gesperrt werden, vor allem das Abblocken von Denial of Service Attacks  für den ganzen Campus ist auf dieser Ebene sinnvoll. Auf Institutsebene kann viel restriktiver festgelegt werden, was gebraucht wird und was nicht. Ein derartiges Konzept kann aber nur vom Institut selbst implementiert und in Folge gewartet werden. Der Betreiber des TUNET stellt die geeignete Netzstruktur zur Verfügung, der Sicherheitsbeauftragte kann beratend tätig sein.


Verschlüsselung, digitale Signaturen und Zertifikate

Bei vielen beobachteten Hackerattacken wurden Passwort-Sniffer installiert. Auf diese Weise konnten die Hacker auch Zugang zu an sich "sicheren" Rechnern erlangen. Unverschlüsselte E-Mails können bei der Übertragung wie auch am Mail-Server auf einfache Weise von Unberechtigten gelesen werden. Es scheint uns daher angebracht, daran zu arbeiten, den Mitarbeitern und Studenten optimale Bedingungen für den Einsatz von Verschlüsselungstechnologien für die sichere Datenkommunikation zu bieten. Da eine abschließende Berurteilung über die Art des Einsatzes von solchen Technologien auf der Technischen Universität Wien noch nicht zur Verfügung steht, möchte ich zur Einstimmung mit einer kleinen Einführung zu gebräuchlichen Kryptoverfahren fortfahren. Ich werde dabei an dieser Stelle nicht im Detail auf spezielle Programme oder Protokolle eingehen (Übersicht Tabelle 1) sondern versuchen, wichtige Begriffe und Problematiken allgemein zu behandeln.

 

Login, Filetransfer

Mail

Web

Ecash

Application layer

SSH, Kerberos

PGP, S/MIME, PEM

HTTPS, SHTTP

SET

Transport layer

SSL, TLS

Internet layer

IPsec, SKIP

Network layer

Krypto-Boxes, Hardware-Encryption

Tab.1: vereinfachtes OSI-Schichtenmodell

Verschlüsselung kann auf unterschiedlichen logischen Ebenen des Datenverkehrs zum Einsatz kommen. Vielen der gebräuchlichen Technologien gemeinsam ist die Verwendung von asymmetrischen Verschlüsselungsverfahren.

Asymmetrische Verschlüsselungsverfahren

Asymmetrische Verschlüsselungsverfahren basieren auf einem mathematisch zusammenhängenden Schlüsselpaar, wobei der eine Schlüssel zum Verschlüsseln, der andere zum Entschlüsseln verwendet wird. Bei ausreichender Schlüssellänge kann man keinen der beiden Schlüssel aus dem jeweils anderen rechnerisch ermitteln. Beide Schlüssel eignen sich sowohl zum Ver- als auch zum Entschlüsseln, allerdings kann ein mittels eines der beiden Schlüssel erzeugtesKryptogramm (verschlüsselter Text) nur mit dem jeweils anderen wieder entschlüsselt werden. Einer der beiden Schlüssel wird als Chiffrierschlüssel öffentlich bekanntgegeben und als Public Key (PK) bezeichnet. Der andere, der zum Entschlüsseln dient, wird von seinem Besitzer geheimgehalten und deshalb auch Secret Key (SK) genannt.

Möchte ein Sender S einem Empfänger R eine geheime Nachricht schicken, muss er sich zunächst den Public Key des Empfängers (PKR) verschaffen. Dies kann über E-Mail oder einen Key Server geschehen. Der Sender verschlüsselt seine Nachricht mit diesem PKR und schickt das Kryptogramm an R. Da nur R den passenden Secret Key SKR besitzt, kann auch nur er mit diesem die Nachricht wieder entschlüsseln. Die Übermittlung des Public Keys (PKR) beim Erstkontakt ist unkritisch, da dieser nicht zum Entschlüsseln verwendet werden kann. Dies ist der große Vorteil gegenüber symmetrischen Verfahren, bei denen die Übermittlung des Schlüssels vertraulich sein muss. Es existiert nämlich nur ein Schlüssel, der sowohl zum Verschlüsseln als auch zum Entschlüsseln verwendet wird. Fällt allerdings SKR in falsche Hände, gilt das Schlüsselpaar als kompromittiert und kann nicht mehr verwendet werden. Ein großer Nachteil gegenüber symmetrischen Verfahren besteht im hohen Rechenaufwand und der damit verbundenen niedrigen Performance. Es werden daher oft kombinierte Verfahren verwendet, bei denen ein einmaliger, mit dem asymmetrischen Schlüssel verschlüsselter, symmetrischer Session Key zwischen den beiden Kommunikationspartnern ausgetauscht wird, der in Folge zur Verschlüsselung der Kommunikation dient (z.B. SSL).

symmetrisch

asymmetrisch

DES, TripleDES, IDEA, CAST, Blowfish

RSA, DH/DSS (Diffie Hellmann)

Typische Schlüssellänge: 40, 56, 128, 168

Typische Schlüssellänge: 512, 768, 1024, 2048, 4096

Tab.2: Verschlüsselungsverfahren

Die Schlüssellänge erlaubt keinen direkten Schluss auf die Schlüsselstärke, so ist laut Phil Zimmermann, dem Schöpfer von PGP, ein RSA-Schlüssel der Länge 3000 in etwa gleich schwer zu brechen wie ein TripleDES-Schlüssel mit der Länge 168. Bei kombinierten Verfahren ist dieses Faktum zu beachten, da eine falsche Wahl der Schlüssellängen die Sicherheit nicht erhöht, sehr wohl aber die Verschlüsselungsdauer.

Digitale Signaturen

Einige Public Key-Verfahren eignen sich auch zum Erzeugen sogenannter digitaler Signaturen. Eine digitale Signatur wird an die Nachricht oder Datei angehängt und gewährleistet einerseits deren Unverändertheit (Integrität), andererseits die Identität des Senders. Damit ist sie der echten Unterschrift insofern überlegen, als diese nicht in solch hohem Grad garantiert, dass der unterzeichnete Text nachträglich nicht mehr manipuliert werden kann. Wie funktioniert die digitale Signatur?

Von der Nachricht wird mittels einer Einweg-Hashfunktion eine Prüfsumme (Fingerprint) gebildet. Zu diesen Hash-Funktionen zählen MD5, SHA1 und RIPEMD160. Die Art der Hashfunktion garantiert, dass eine geringfügige Änderung der Nachricht (z.B. Datum) eine markante Änderung des Fingerprints zur Folge hat. Es ist also fast unmöglich, die Nachricht sinnvoll zu verändern, ohne den Fingerprint zu verändern. Der Fingerprint kann als sicheres Siegel für die Unverfälschtheit der Nachricht M angenommen werden. Im nächsten Schritt wird der Fingerprint mit dem Secret Key SKS des Senders S verschlüsselt. Dies stellt sicher, dass M auch wirklich von S signiert wurde. Der Empfänger kann die Signatur nur mit dem passenden Public Key PKS des Senders S wieder entschlüsseln. Da aber nur S SKS besitzt, ist sichergestellt, dass M auch nur von S signiert worden sein kann.

Probleme der Public Key-Verfahren ® Zertifizierung

Noch vor dem bereits erwähnten hohen Rechenaufwand, ist das Hauptproblem die Sicherstellung der Identitäten von R und S. Die meisten Programme erlauben eine lokale Schlüsselgenerierung (z. B.: PGP, OpenSSL (siehe http://www.openssl.org/)), wobei die Identifizierung meist über Namen der Person bzw. des Servers und E-Mail-Adresse erfolgt. Es ist also leicht, sich für eine andere Person auszugeben, indem man bei der Schlüsselgenerierung einen fremden Namen verwendet. Analog kann ein fremder Hostname verwendet werden. Ist ein solchermaßen gefälschter Schlüssel einmal akzeptiert, greift die Sicherheit durch den einmaligen Secure Key SK nicht mehr. Es sollten daher zur Gewährleistung der Authentizität immer zwei von einander unabhängige Informationskanäle verwendet werden (E-Mail und Telefon, Home Page und FAX etc.). Da der Aufwand dazu mit der Anzahl der Schlüssel zunehmend steigt, wurden zwei unterschiedliche Ansätze zur Lösung dieser Problematik entwickelt.

Der Eine wird Web of Trust genannt. Es werden dabei nur Schlüssel persönlich bekannter Personen akzeptiert, bzw. Schlüssel, die von solchen Bekannten akzeptiert werden. Auch dieser Vorgang nennt sich Signieren, da man tatsächlich den fremden Public Key mit seinem eigenen Secret Key unterschreibt. Die bestätigende Unterschrift wird als Zertifikat bezeichnet. Dieses dezentrale Netzwerk lebt von der Ehrlichkeit seiner Mitglieder und hat sich beim Einsatz von PGP als gut funktionierend erwiesen.

Beim zweiten Ansatz übernimmt eine zentrale Zertifizierungsstelle - Certificate Authority (CA) - die Zertifizierung. Eine (oder mehrere) Registrierungsstellen - Registration Authority (RA) - überprüfen die Identität der Teilnehmer und leiten deren Schlüssel an die Certificate Authority zur Zertifizierung weiter, sofern keine Verstöße gegen die Policy vorliegen. In dieser Policy werden Rechte und Pflichten von Certificate Authority und Kunden definiert, wie z. B: Bestimmungen zur Qualität der Schlüssel, Sicherheitsvorkehrungen der CA, sowie der Betrieb eines Key Servers zur Publikation neuer und Rückruf nicht mehr gültiger Schlüssel.

 Certificate Authority und Registration Authority können gegebenenfalls in derselben Institution realisiert werden. Vorteil dieser Methode ist die bessere Überprüfung der Schlüssel, deren Güte auch durch die Definition in der Policy festgelegt und nachlesbar ist, sowie der Umstand, dass man sich nur mehr über die Vertrauenswürdigkeit einer Stelle, nämlich der CA, informieren muss. Da im Rahmen der Kommerzialisierung der Kryptotechniken (E-Commerce, E-Government) in nächster Zeit auch bei uns gesetzliche Regelungen zu erwarten sind, kann von einer gewissen Qualität dieser Services ausgegangen werden. Der organisatorische Aufwand der Schlüsselverwaltung wandert vom Benutzer zur Zertifizierungsstelle, die in der Regel dafür ein Entgelt verlangen wird. Relativ neu, und durch das strenge deutsche Signaturgesetz (1997) gefördert, ist der technisch an sich vernünftige Einsatz von Chipkarten zur sicheren Speicherung des Secret Keys. Kolportierte Preise von öS 800.-/Jahr für ein Zertifikat auf der Chipkarte exklusive der Kosten für die Chipkartenleser lassen jedoch erwarten, dass der Einsatz vorerst auf gewisse sensitive Bereiche beschränkt bleibt (E-Government). Ein geplanter Einsatzbereich ist der Einsatz von Zertifikaten als Ersatz für die TAN-Briefe im E-Banking. Es sollte an dieser Stelle wiederholt werden, dass das Service der Zertifizierungsstelle primär die Überprüfung der Identität einer Person und der eindeutigen Zugehörigkeit eines Schlüssels zu dieser Person ist. Die Korrektheit dieser Angaben bestätigt sie durch ein Zertifikat. Zertifizierung per E-Mail-Anfragen, wie sie in jüngster Zeit immer häufiger angeboten wird, ist daher ein Humbug und gefährdet den Erfolg dieser an sich großartigen Technologie.


Quellen und Adressen

Security Home Page am ZID:
http://www.zid.tuwien.ac.at/security/

E-Mail:    udo.linauer@tuwien.ac.at
security@tuwien.ac.at


Zum Inhaltsverzeichnis, ZIDline 1, Juni 1999