Feb 092011
 

Linux bietet auf x86-Architekturen die Möglichkeit, statt der normalerweise 4K großen Memory Pages auch 2M große Pages zu nutzen. Der Vorteil hierbei ist, dass die MMU der CPU deutlich seltener ein Address Mapping von virtuellem Speicher auf die physikalische Adresse durchführen muss. Dieser Vorgang wird auch Table Walk genannt. Er hat den Nachteil, dass der Zugriff auf diese Mapping-Tabellen am Cache vorbei durchgeführt werden muss und somit sehr langsam ist. Das Ergebnis des Table Walks landet seinerseits in einem speziellem Cache, dem sog. TLB. Es bietet sich unter Linux an, Software mit hohem Speicherverbrauch diese Huge Pages oder Huge Tables nutzen zu lassen. Gerade Server-Prozesse wie JBoss fallen da schnell ins Auge.

Will man unter Java diese sog. Huge Pages verwenden, reicht da die JVM-Option -XX:+UseLargePages. Allerdings ist das nicht die gesamte Arbeit. Dazu muss man den Linux-Kernel anweisen, Huge Tables zur Verfügung zu stellen. Dazu muss man sich erst klar werden, dass Huge Tables dem allgemeinen Memory Pool entzogen wird und nicht mal dem Linux Caching mehr zur Verfügung steht. Es ist also Speicher, der dem Java-Prozess dediziert zur Verfügung steht. Es empfiehlt sich, 512M mehr als Huge Tables bereitzustellen, als man mit -Xmx der virtuellen Maschine zur Verfügung stellt. Hat man 8G RAM, und will man 3,5G dem Java bereit stellen. Müssen wir 4G an Huge Tables bereitstellen. Das geschieht in der Datei /etc/sysctl.d/hugetlb.conf. Dort müssen drei Einträge gemacht werden:

  1. kernel.shmmax=<max-shared-memory-in-bytes>
    Da Huge Tables als Shared Memory allokiert werden, muss die Maximalzahl hier auf die verwendete Speichergröße hochgesetzt werden.
  2. vm.nr_hugepages=<amount>
    Die Zahl der Huge Tables selbst. Will man 4G an Huge Tables haben, muss hier eine 2048 eingetragen werden, weil 2048 * 2M = 4G ist.
  3. vm.hugetlb_shm_group=<gid>
    Hier muss die Usergroup eingetragen werden, die Huge Tables benutzen darf.

Sind die Werte eingetragen, muss man ein sysctl -p -f /etc/sysctl.d/hugetlb.conf ausführen, um die Werte dem Kernel mitzuteilen. Hat der Server schon eine relativ lange Uptime, muss er vielleicht durchgestartet werden. Grund ist, dass die Huge Tables im Stück im Speicher liegen müssen. Da es auch beim Hauptspeicher eine Fragmentierung geben kann, kann evtl. die Zuteilung der Huge Tables nur teilweise gelingen. Kontrollieren kann man das, indem man cat /proc/meminfo ausführt. Das ergibt dann so eine Ausgabe wie:

HugePages_Total:     512
HugePages_Free:      512
HugePages_Rsvd:        0
HugePages_Surp:        0
Hugepagesize:       2048 kB
DirectMap4k:       47040 kB
DirectMap2M:     4147200 kB

Hier sind 512 (= 1G) Huge Tables zugewiesen worden. Als Nächstes muss dem entsprechenden Benutzer, der die Huge Tables benutzen möchte, die Erlaubnis geben, diesen Speicher fest im Speicher zu halten, so dass er nicht im Swap landen kann. Das erfolgt in der Datei /etc/security/limits.conf. Hier wird die Größe des Wertes kernel.shmmax aus der Datei /etc/sysctl.d/hugetlb.conf übernommen. Die Einträge lauten:

<username> soft memlock <locked-memory-in-kbytes>
<username> hard memlock <locked-memory-in-kbytes>

Benutzt man für den Usernamen „*“, gilt diese Einstellung für alle Benutzer, ausgenommen root. Für ihn muss man explizit einen Eintrag machen, wenn gewünscht. Üblicherweise läuft JBoss nicht als root, sondern hat einen dedizierten Benutzer, den man dann auch hier eintragen sollte. Hierbei muss man darauf achten, das PAM so konfiguriert ist, dass die Limits auch als Benutzer entsprechend konfiguriert werden. Hat man als Shell die bash, kann man mit ulimit -a überprüfen, ob der Wert max locked memory korrekt gesetzt wurde. Ein Reboot ist hierfür nicht erforderlich!

jboss@master:~$ ulimit -a
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 20
file size               (blocks, -f) unlimited
pending signals                 (-i) 16382
max locked memory       (kbytes, -l) 3145728
max memory size         (kbytes, -m) unlimited
open files                      (-n) 65536
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) unlimited
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

Sind die Huge Tables verfügbar und die Limits gesetzt, kann man jede JVM mit der Option -XX:+UseLargePages starten und Java benutzt Huge Tables.

Kann Java keine Huge Tables allokieren, kommt es zu folgender Fehlermeldung:

Java HotSpot(TM) 64-Bit Server VM warning: Failed to reserve shared memory (errno = 22).

In diesem Falle allokiert Java „normalen“ Speicher. Wenn zu viele Huge Tables belegt wurden, kann es dann zu einem Engpass an normalen Speicher kommen. Die Wahl der Option -Xmx ist daher wichtig!

Unter JBoss sollte diese Option in die Datei $JBOSS_HOME/bin/run.conf übernommen werden.

Was nützen die smartmontools?

 Linux, Systemmanagement  Kommentare deaktiviert für Was nützen die smartmontools?
Jul 232008
 

Jede Festplatte besitzt einen eingebauten Standard, der vielleicht Jemandem beim Booten als BIOS-Meldung aufgefallen ist, aber noch nicht aktiv genutzt hat: Das S.M.A.R.T. Es ist eine Abkürzung für Self-Monitoring, Analysis and Reporting Technology. Es handelt sich dabei um die Möglichkeit, den Zustand der Festplatte zu überwachen. Hier werden Werte wie Start/Stop-Zyklen, Betriebssystunden und Fehlerzähler verwaltet. Da heutzutage jede Festplatte über diesen Standard verfügt, macht es gerade in IT-Infrastrukturen Sinn, diese Werte permanent zu überprüfen. Selbst bei Desktop-Rechnern oder Laptops macht es Sinn, von Zeit zu Zeit über diesen Standard den Zustand der Festplatte abzufragen.

Unter Linux gibt es für die automatische Überwachung die sog. smartmontools. Diese haben das Abfragetool smartctl, was den Zustand einer Platte abfragen kann. Ferner gibt es noch einen Daemon, der in regelmäßigen Abständen den Zustand der Festplatte(n) abfragt und im Fehlerfalle sogar eine EMail verschickt. Dadurch ist eine engmaschige Überwachung der Festplatten gewährleistet. Einer Studie von Google zufolge, kann auf diesem Wege ein Ausfall einer Festplatte zu 64% Wahrscheinlichkeit rechtzeitig vorhergesagt werden. Häufigster Indikator ist das Bad-Block-Remapping. Wird ein Festplattensektor schadhaft, verwendet die Festplatte automatisch einen Alternativblock. Dieser Vorgang wird von SMART mitgezählt. Häufen sich Remappings, wird es Zeit, die Platte auszuwechseln. Auch ein relativer langsamer Temperaturanstieg über Wochen ist ein Indikator für ein baldiges Ableben der Mechanik. Platten in kühlen Umgebungen (z.B. durch eine Klimaanlage) sollten nicht über 40 Grad überschreiten, tun sie es trotzdem, kann das ein Indikator für einen baldigen Ausfall sein. Was durch S.M.A.R.T nicht erfasst werden kann, ist der Ausfall der Elektronik.

Ich kann nur Jedem IT-Verantwortlichen die smartmontools ans Herz legen. Mir selbst haben die Tools schon viele Crashes vorhergesagt und größeren Schaden abgewendet. Gerade Betreiber von Root-Servern sollten auf den Einsatz der smartmontools nicht verzichten, da gerade dort die eingesetzten Festplatten nicht redundant in RAID-Verbünde eingegliedert sind.

Quellen:
http://labs.google.com/papers/disk_failures.pdf
http://smartmontools.sourceforge.net

Beispiel für ein Mail-Script:

SMART_MSG=/tmp/smart.msgcat > $SMART_MSG

echo "======================================================================" >>$SMART_MSG

# Append the output of smartctl -a to the message:

/usr/sbin/smartctl -a -d $SMARTD_DEVICETYPE $SMARTD_DEVICE >> $SMART_MSG

echo "======================================================================" >>$SMART_MSG

echo "-- " >>$SMART_MSG

echo "System administrator" >>$SMART_MSG

# Now email the message to the user at address ADD.  Solaris and

# other OSes may need to use /bin/mailx below.

/usr/bin/mail -s "$SMARTD_SUBJECT" $SMARTD_ADDRESS < $SMART_MSG

rm $SMART_MSG

und die Einbindung in die smartd-Konfiguration über die Datei smartd.conf:

/dev/sda -d ata -S on -m <EMail-adresse-des-Admins> -a -M exec /root/bin/smartmail.sh

Subversion im Alltag

 Linux, Systemmanagement  Kommentare deaktiviert für Subversion im Alltag
Jul 032008
 

Subversion wird seit acht Jahren entwickelt und hat im Februar 2004 die erste stabile Version 1.0 erreicht. In dieser Zeit wurden viele Entwickler von den Vorzügen von Subversion überzeugt. Wer CVS kennt, wird sich als Entwickler nicht wensentlich umgewöhnen müssen, da das Konzept Copy-Modify-Merge gleich geblieben ist. Administrativ hat sich allerdings Einiges geändert. Die Versionsdaten werden wie in einer Datenbank gespeichert. Die Backend-Schnittstelle ermöglicht es, verschiedene Backends zu verwenden. Der Vorteil gegenüber CVS ist hier, dass die Dateien nicht direkt manipuliert werden können, da sie nur als Binärdaten vorliegen. Bei CVS werden in einer ASCII-Datei Diffs gespeichert, sodass Manipulationen möglich sind.

In der Praxis hat sich Subversion durch die Stabilität bewährt. Der Verwaltungsaufwand ist nur minimal. Nach dem Einrichten mit svnadmin kann man sofort arbeiten. Es gibt aber noch ein paar Tipps, wie man durch Feintuning die Disziplin der Entwickler fördern kann. Zwei herausragende Punkte sind einerseits die Commit-Meldungen und andererseits die anonymen Commits. Unter Subversion sind leere Commit-Meldungen möglich. Möchte man die Entwicklungsgeschichte nachverfolgen, sind leere Kommentare teilweise frustrierend. Wenn Dutzende von Revisions committed wurden, ohne dass sich scheinbar was geändert hat, muss man ein Difftool bemühen, um Änderungen nachverfolgen zu können. Ähnlich verhält es sich bei anonymen Usern. Subversion lässt bei falscher Konfiguration anonyme Commits zu.

Um leere Commit-Meldungen zu unterbinden gibt es das Mittel der Hook-Skripte. Diese werden zu bestimmten Zeitpunkten während eines Commits aufgerufen. Dadurch können Plausibilitätschecks durchgeführt werden und ggf. ein Commit verhindert werden. Baut man in den sog. pre-commit-hook eine Prüfung ein, die eine leere Meldung verhindert, bleiben die Log-Meldungen deutlich informativer

Das folgende Beispiel zeigt das pre-commit-Skript. Es überprüft, ob mindestens 15 Zeichen und alphanumerischer Text eingegeben wurde.

#!/bin/bash

REPOS="$1"
TXN="$2"

LOG=`svnlook log -t "$TXN" "$REPOS"`
COUNT=`echo $LOG |wc -c`

# Check for at least some chars.
if [ $COUNT -lt 15 ]
then
echo 1>&2
echo 1>&2  "Need at least 15 characters for commit message!"
exit 1
fi

# Check for some clear text characters
echo "$LOG" | grep "[a-zA-Z0-9]" > /dev/null && exit 0
echo 1>&2
echo 1>&2  "Need a clear text message!"
exit 1

Die Konfiguration, um anonyme Commits zu verhindern, muss im Apache erfolgen. In unserer Firma authentifiziert und authorisiert Apache gegen OpenLDAP. Hier kann eine Authentifizierung erzwungen werden und anonymer aber lesender Zugriff erlaubt werden. Bei Schreibzugriffen wird eine Authorisierung gegen eine LDAP-Gruppe durchgeführt.

Die Konfiguration für ein vollständiges Subversion-Repository sieht wie folgt aus:

<IfModule mod_dav_svn.c>

<Location /subversion/webdev>>
        DAV svn
        SVNPath /data/subversion/webdev
        Options +Indexes
        Allow from all

        AuthType Basic
        AuthName "Subversion Repository: webdev"

        AuthzLDAPAuthoritative off
        AuthBasicProvider ldap
        AuthLDAPURL "ldap://master.domain.de slave.domain.de/ou=Users,dc=domain,dc=de?uid?sub?(objectClass=*)"
#       <LimitExcept GET PROPFIND OPTIONS REPORT>
                Require ldap-group cn=webdev,ou=Groups,dc=domain,dc=de
#       </LimitExcept>
        AuthLDAPGroupAttribute memberUid
        AuthLDAPGroupAttributeIsDN off
        SSLRequireSSL
<Location>
</IfModule>

Diese Konfiguration verlangt eine Authorisierung gegen die LDAP-Gruppe webdev. Soll lesender anonymer Zugriff gestattet werden, müssen die # entfernt werden. Zusätzlich wird durch die Direktive SSLRequireSSL SSL-Verschlüsselung verlangt.

Quellen:
www.apache.org
subversion.tigris.org

Was haben reale Anforderungen mit Modellbau zu tun?

 Modellbau, Requirements, Systemmanagement  Kommentare deaktiviert für Was haben reale Anforderungen mit Modellbau zu tun?
Jun 122008
 

Auf den ersten Blick scheinen Modellbau und Anforderungsverwaltung (= Requirements Engineering) nichts miteinander zu tun zu haben, aber bei der Erstellung der Stellwerks-Software wird deutlich, wie viel Komplexität hinter diesem Thema steckt. Beim Entwurf einer Modellbahnsteuerung stand am Anfang die Idee, möglichst kostengünstig mit Standardtechnologien eine Steuerung zu entwickeln, um simpel Weichen schalten zu können. Dabei stand im Wesentlichen die Technik im Vordergrund. Nach und nach hat sich gezeigt, dass es die Software-Steuerung am Front-End in sich hat.

Anfangs stand die Darstellung des Soll-Zustand im Vordergrund. Es wurde über Start/Via/Ziel-Checkboxen ein Fahrtweg vorgegeben. Dieser soll so eingestellt werden, dass nur freie Gleise benutzt werden. Wurde eine freie Fahrstraße gefunden, sollen die Weichen geschaltet und die Signalfreigabe erteilt werden. Diese Anforderung war für den Anfang schnell implementiert. Bei genauerer Betrachtung zeigt sich, dass die Darstellung des Ist-Zustandes inkl. des Soll-Zustandes für den Benutzer erforderlich ist. Beim Studium von Berichten, wie realen Stellwerke funktionieren, hat sich gezeigt, dass das Thema sehr komplex ist. Die erste Idee war insofern nicht falsch angedacht. Tatsächlich erfolgt beim Suchen einer Fahrstraße erst eine Route, die frei ist. Diese muss durch das Stellen von Weichen erreicht werden. Dieser Vorgang heißt in der Realität Weichenumlauf. Hierbei ist der Vorgang an sich interessant, weil eine Rückmeldung erfolgen muss, dass die sog. Weichenendlage erreicht ist. Danach wird die Weiche verschlossen. Dieser mechanische Vorgang soll verhindern, dass sich durch die Erschütterung des darüberfahrenden Zuges die Weiche verstellt und somit den Zug zur Entgleisung bringt. Desweiteren ist eine versehentliche Umstellung durch den Fahrdienstleiter im Stellwerk dadurch nicht mehr möglich. Der mechanische Verschluss ist im Modellbau nicht möglich, wohl aber die Rückmeldung. Ein einfacher Schalter soll das Durchbrennen des Antriebes verhindern. Somit ist nur eine Spule unter Strom. Es lässt sich also mit einem hochohmigen Strom festellen, in welcher Lage sich die Weiche befindet ohne die Weiche durch den Strom selbst zu stellen. Somit kann diese Information dafür ausgewertet werden, ob eine Fahrstraße korrekt geschaltet wurde.

Erst danach kann eine Gleisfreigabe erfolgen. Die Realität weicht an dieser Stelle erheblich vom Modell ab. Die Gleisfreigabe erfolgt in der Realität durch Signale. Diese haben eine sog. punktuelle Zugbeeinflussung. Überfährt man ein auf rot stehendes Signal, löst ein unter dem Signal angebrachter Schwingkreis an der Lok eine Zwangsbremsung aus. Beim Modellbau sind Signale eher Kosmetik, allerdings kann keine Lok fahren, wenn kein Strom auf dem Gleis anliegt. Somit werden der Optik halber erst die Signale gestellt und danach erfolgt die Gleisfreigabe über das Aufschalten von Fahrstrom.

Jeder dieser Vorgänge ähnelt einer Transaktion so wie wir es aus der Informatik her kennen. Ein Vorgang (Weichenschalten) muss vollständig erfolgreich ausgeführt werden. Erst danach darf der nächste Vorgang (Signale schalten) folgen, denn sonst würde der Zug schon die Freigabe erhalten, während sich noch fatalerweise die Weichen schalten. Ist ein Vorgang nicht erfolgreich, müssen ggf. Vorgänge zurückgenommen werden. Weichen müssen nicht wieder zurückgestellt werden, wohl aber Signale und die Gleisfreigaben.

Die Steuerungs-Software muss diesen Anforderungen Rechnung tragen. Die Mikrocontroller müssen sowohl für eine korrekte Ansteuerung der Geräte (Weichen, Signale und Gleise) sorgen, eine korrekte Zustandsmeldung liefern und Zustandsmeldungen korrekt melden. Die Steuerungs-Software am Front End muss diese Meldungen korrekt darstellen und Fehlbedienungen ausschließen. Speziell bei der Fehlbedienung kommt eine Simulation des Verschlusses ins Spiel. Ist eine Fahrstraße erst einmal eingestellt, dürfen alle beteiligten Geräte nicht mehr verstellt werden. Mangels mechanischen Verschlusses kann das bei Modellweichen durch manuelles Verstellen trotzdem passieren. In diesem Fall muss eine dadurch betroffene Fahrstraße sofort deaktiviert werden. Desweiteren spielt das visuelle Feed-Back eine entscheidende Rolle. Da Mechanik im Spiel ist, dauert das Einstellen der Fahrstraße ggf. mehrere Sekunden. Dieser Vorgang muss auf der GUI dargestellt werden, ohne dass diese dadurch bedienungsunfähig wird. Das wird durch Multi-Threading erreicht. Das Versenden von Schaltkommandos wird in einem eigenen Thread durchgeführt. Diese Kommandos werden pro Vorgang in Batches zusammengefasst. Das Empfangen von Rückmeldungen erfolgt wiederum in einem eigenen Thread. SWT kann architekturbedingt nur Änderungen an der eigenen GUI im Haupt-Thread durchführen. Somit ist Message Passing nötig, um Zustandsänderungen in der GUI des Haupt-Threads visualisieren zu können. Optisch wird das so dargestellt, dass der Gleisplan in schwarz-weißen Strichen dargestellt wird. Durch Loks belegte Gleise werden immer orange dargestellt. Eine sich schaltende Fahrstraße ist schwarz-gelb. Weichen im Umlauf haben blinkende Weichennummern (in einem weiteren Thread als TimerTask implementiert). Ist die Fahrstraße erfolgreich eingestellt, wird diese grün dargestellt. Diese Darstellung ähnelt der eines voll-elektronischen Stellwerks der Realität. Hier werden weitere Sicherungsmaßnahmen genutzt, die im Modellbau schlicht Overkill wären: Ein Farbbalken, der zeigen soll, dass der Bildschirm auch wirklich alle Farben zeigen kann. Das alles nochmal als blinkender Farbbalken. Zusätzlich ist der darstellende Rechner mit zwei Grafikkarten ausgestattet, welche das Gleiche darstellen müssen.

Somit zeigt sich, dass Sicherungstechnik der Realität auch im Modellbau Anwendung findet. Viele Anforderungen zeigen sich erst währen der Implementierungsphase. Man muss einerseits den Entwicklungsprozess darauf abstimmen, andererseits muss die Architektur der Software so gestaltet sein, dass sich erweiterte Anforderungen leicht ergänzen lassen.

Quellen:
http://www.stellwerke.de
http://www.uni-stuttgart.de/iev/index.htm?/vwi/lupse/LUPSE.HTM

Erfahrungen mit der OpenSSL Schwachstelle unter Debian

 Linux, Systemmanagement  Kommentare deaktiviert für Erfahrungen mit der OpenSSL Schwachstelle unter Debian
Mai 282008
 

Am 13.05.2008 kam eine Meldung über den Heise-Ticker, dass Debian durch einen Patch eine Schwachstelle bei der Schlüsselgenerierung eingepflegt hat. Das Brisante daran ist, dass dieser Patch vor nahezu zwei Jahren eingespielt wurde.

Was passiert genau dabei? Der Patch hat dafür gesorgt, dass der Zufallszahlengenerator aus den Prozess-IDs gefüttert wird. Der Wertebereich ist unter Linux mit 1-32767 äußerst eingeschränkt. Jede Software, die diesen Generator benutzt, erzeugt somit schwache Schlüsselpaare. Dazu gehört z.B. SSH. Jeder Rechner, der nach dem September 2006 mit Debian oder Ubuntu installiert wurde, generiert somit bei der Installation ein schwaches Host-Key-Pärchen. Jeder Benutzer, der unter Ubuntu oder Debian einen neuen Private Key zum Einloggen generiert hat, hat somit auch ein schwaches Schlüsselpärchen generiert. Damit können die Schlüssel sehr schnell geknackt werden.

Was heißt das in der Konsequenz? Das heißt, dass alle mit Debian oder Ubuntu erzeugten Schlüssel die nach dem September 2006 generiert wurden neu generiert werden müssen. Macht man über den üblichen Weg ein Software Upgrade, wird das für die SSH Host Keys automatisch erledigt. Loggt man sich danach auf so einem aufgefrischtem Rechner ein, wird man abgewiesen mit dem Hinweis, dass in der known_hosts-Datei der Schlüssel nicht mehr passt. Der Eintrag in dieser Datei sollte daher gelöscht werden. Das SSH-Paket hat jetzt ein neues Tool: ssh-vulnkey, mit dem die Schlüssel in der authorized_keys-Datei überprüft werden können. Schwache Schlüssel sollten aus dieser Datei entfernt werden. Zusätzlich lässt ein SSH-Daemon diese Schlüssel beim Einloggen nicht mehr zu. Das Neugenerieren eines Schlüssels ist dabei kein Problem. Eher ist es problematisch, dass der Public Key auf Dutzenden von Rechnern untergebracht sein kann. Ein weiteres Problem sind SSL-Zertifikate, so wie sie für Webseiten verwendet werden. Selbst, wenn man keine selbstsignierten Zertifikate verwendet und Zertifikate kauft, wird der Private Key selbstgeneriert. In der Konsequenz müssen nicht nur die Zertifikate neu generiert bzw. gekauft werden, sondern der Private Key muss komplett neu samt Certificate Request generiert werden.

In einem Unternehmen wie itemis mussten nicht weniger als 30 Zertifkate neu generiert werden. Diese mussten natürlich auch auf den Hosts installiert werden. Hierbei kam wenigstens die modellgetriebene Serverkonfiguration unterstützend zum Einsatz. Die Entwicklungsrechner haben zwar selbstsignierte Zertifikate, aber gerade für die öffentlich zugänglichen Server mussten neue Zertifkate gekauft werden. Zusätzlich kam die Überprüfung der SSH-Schlüssel. Die Software-Upgrades haben die Host Keys automatisch erneuert. Die Überprüfung und der Ersatz der User-Schlüssel hat aber sehr viel mehr Aufwand gekostet. Alles in Allem hat dieser Vorgang zwei Tage Arbeit gekostet.

Hat sich der Aufwand gelohnt? Wer hier nein sagt, handelt schlichtweg grob fahrlässig! Im Moment ist es nur Aufwand. Aber langfristig möchte man sich nicht der Gefahr aussetzen, dass Daten ausspioniert werden oder gar Rechner gehackt werden. Die heutige Meldung begründet diese Sorge. Es lassen sich ohne wenig Probleme von außen Rechner ermitteln, die sich hacken lassen!

Wer mehr zu diesem Thema lesen möchte und wie man mit dieser Schwachstelle umgeht, können Sie hier lesen:
http://www.heise.de/security/Der-kleine-OpenSSL-Wegweiser–/artikel/108001

Es gibt auch ein Tool, das schwache Schlüssel ausfindig machen kann. Es hat aber den Nachteil, dass es nicht alle Schlüssel erkennt. Im Zweifel sollte man lieber einen Schlüssel zu viel als zu wenig neu generieren:
http://security.debian.org/project/extra/dowkd/dowkd.pl.gz

Ubuntu – Eine Erfolgsstory im eigenen Unternehmen

 Linux, Management, Systemmanagement  Kommentare deaktiviert für Ubuntu – Eine Erfolgsstory im eigenen Unternehmen
Feb 292008
 

Vor einem Jahr hat unser Unternehmen eine neue IT-Infrastruktur in Betrieb genommen. Grund genug zu hinterfragen, ob die Umstellung erfolgreich war. Nachdem entschieden war, dass fünf neue Server samt weiterer Infrastruktur wie z.B. unterbrechnungsfreie Stromversorgungen, angeschafft werden sollen, kam die Frage auf, welches Betriebssystem dafür benutzt werden sollte. Die Frage ob Microsoft oder Linux genutzt werden sollte stellte sich gar nicht erst, da ausreichend Linux-Know-How zur Verfügung stand. Ferner sind die Fernwartungsmöglichkeiten unter Linux deutlich höher. Eine Sicherheitsabwägung zwischen Windows und Linux gibt es nicht, da auch unter Linux nicht minder häufig viele Patches und Updates auf Grund von Sicherheitslücken notwendig sind.

Blieb also noch die Frage, welche Linux-Distribution gewählt werden sollte. Hier war zuerst die Wahl zwischen SuSE bzw. openSuSE und Debian. Debian hat gegenüber SuSE den Vorteil, dass langfristig die Upgrades wesentlich wartungsärmer ausfallen, als unter SuSE. Wer z.B. schon mal von SuSE 9.2 auf SuSE 10.1 ein Upgrade durchgeführt hat, weiß wovon die Rede ist. Ein Debian-basiertes System hat deutlich weniger Probleme mit Upgrades selbst über mehrere Jahre hinweg. Grund hierfür ist ein ausgereiftes und durchdachtes Paketmanagement, das es selbst nach Jahren ermöglicht, aktuelle Software samt Abhängigkeiten zwischen unterschiedlichen Paketen zu pflegen. SuSE hat den Vorteil, dass die angebotenen Software-Pakete aktueller sind. Gerade bei relativ neuer Hardware spielt das eine Rolle. Hier lag Debian z.T. erheblich zurück, war vor einem Jahr nur die Distribution Sarge aktuell und der Nacholger Etch ließ noch auf sich warten. Ferner konnte Debian nicht mit einer stabilen 64-Bit-Variante für Opterons aufwarten.

Hier kam Ubuntu auf den Plan. Ubuntu basiert mit seinem Paketmanagement auf Debian, weist aber eine deutlich höhere Aktualität in der Software auf. Ferner gab es auch eine stabile 64-Bit-Variante. Genutzt haben wir den Ubuntu-Server-Zweig. Daduch konnte eine sehr schlanke Basisinstallation erfolgen, die nur ca. 600 MByte umfasst. Denn: Jede Software, die nicht installiert ist, kann nicht durch Sicherheitslücken auffallen. Im Gegensatz dazu SuSE oder SLES, welche aus Bequemlichkeit das Rundum-Sorglos-Paket – also nahezu alles – installieren. Ob das dann wirklich sorglos ist, muss danach entschieden werden.

Sicherlich hat Ubuntu noch Probleme bei der Hardware-Erkennung. Hier ist SuSE eindeutig besser. Das trifft sowohl auf alte Hardware („attic hardware“) zu, als auch auf sehr neue Hardware. Hier ist Ubuntu eher am Mainstream orientiert. Ist aber erst einmal ein funktionierendes Ubuntu lauffähig, kann es fast nur noch mutwillig die Arbeit verweigern.

Die Erstinstallation umfasste Ubuntu Edgy Eft und wurde inzwischen ohne Probleme auf Gutsy Gibbon aktualisiert. Jeder Server hat also schon zwei Upgrades hinter sich. Nachdem auf einem Staging System die kleinere Probleme bei neueren Konfigurationsdateien erkannt wurden, konnten diese komfortabel per modellgetriebener Serverkonfiguration bei den Upgrades anderer Server umgangen werden. Das Staging System läuft auf einer virtuellen Maschine, wodurch keinerlei Hardware-Anschaffung nötig waren. Einer der vielen Vorteile der Virtualisierung – aber das nur am Rande.

Abschließend lässt sich sagen, dass ein Umstieg auf Ubuntu die richtige Entscheidung war. Es liegt eine wartungsarme Distribution vor, die Sicherheitsupdates mit nur kleiner Zeitverzögerung nach Bekanntwerden aktualisiert. Im Alltag haben sich nahezu keine Probleme in Sachen Stabilität gezeigt. Insofern kann man Ubuntu alles Gute für die weitere Zukunft wünschen.