{ // 获取包含Hugging Face文本的span元素 const spans = link.querySelectorAll('span.whitespace-nowrap, span.hidden.whitespace-nowrap'); spans.forEach(span => { if (span.textContent && span.textContent.trim().match(/Hugging\s*Face/i)) { span.textContent = 'AI快站'; } }); }); // 替换logo图片的alt属性 document.querySelectorAll('img[alt*="Hugging"], img[alt*="Face"]').forEach(img => { if (img.alt.match(/Hugging\s*Face/i)) { img.alt = 'AI快站 logo'; } }); } // 替换导航栏中的链接 function replaceNavigationLinks() { // 已替换标记,防止重复运行 if (window._navLinksReplaced) { return; } // 已经替换过的链接集合,防止重复替换 const replacedLinks = new Set(); // 只在导航栏区域查找和替换链接 const headerArea = document.querySelector('header') || document.querySelector('nav'); if (!headerArea) { return; } // 在导航区域内查找链接 const navLinks = headerArea.querySelectorAll('a'); navLinks.forEach(link => { // 如果已经替换过,跳过 if (replacedLinks.has(link)) return; const linkText = link.textContent.trim(); const linkHref = link.getAttribute('href') || ''; // 替换Spaces链接 - 仅替换一次 if ( (linkHref.includes('/spaces') || linkHref === '/spaces' || linkText === 'Spaces' || linkText.match(/^s*Spacess*$/i)) && linkText !== 'OCR模型免费转Markdown' && linkText !== 'OCR模型免费转Markdown' ) { link.textContent = 'OCR模型免费转Markdown'; link.href = 'https://fast360.xyz'; link.setAttribute('target', '_blank'); link.setAttribute('rel', 'noopener noreferrer'); replacedLinks.add(link); } // 删除Posts链接 else if ( (linkHref.includes('/posts') || linkHref === '/posts' || linkText === 'Posts' || linkText.match(/^s*Postss*$/i)) ) { if (link.parentNode) { link.parentNode.removeChild(link); } replacedLinks.add(link); } // 替换Docs链接 - 仅替换一次 else if ( (linkHref.includes('/docs') || linkHref === '/docs' || linkText === 'Docs' || linkText.match(/^s*Docss*$/i)) && linkText !== '模型下载攻略' ) { link.textContent = '模型下载攻略'; link.href = '/'; replacedLinks.add(link); } // 删除Enterprise链接 else if ( (linkHref.includes('/enterprise') || linkHref === '/enterprise' || linkText === 'Enterprise' || linkText.match(/^s*Enterprises*$/i)) ) { if (link.parentNode) { link.parentNode.removeChild(link); } replacedLinks.add(link); } }); // 查找可能嵌套的Spaces和Posts文本 const textNodes = []; function findTextNodes(element) { if (element.nodeType === Node.TEXT_NODE) { const text = element.textContent.trim(); if (text === 'Spaces' || text === 'Posts' || text === 'Enterprise') { textNodes.push(element); } } else { for (const child of element.childNodes) { findTextNodes(child); } } } // 只在导航区域内查找文本节点 findTextNodes(headerArea); // 替换找到的文本节点 textNodes.forEach(node => { const text = node.textContent.trim(); if (text === 'Spaces') { node.textContent = node.textContent.replace(/Spaces/g, 'OCR模型免费转Markdown'); } else if (text === 'Posts') { // 删除Posts文本节点 if (node.parentNode) { node.parentNode.removeChild(node); } } else if (text === 'Enterprise') { // 删除Enterprise文本节点 if (node.parentNode) { node.parentNode.removeChild(node); } } }); // 标记已替换完成 window._navLinksReplaced = true; } // 替换代码区域中的域名 function replaceCodeDomains() { // 特别处理span.hljs-string和span.njs-string元素 document.querySelectorAll('span.hljs-string, span.njs-string, span[class*="hljs-string"], span[class*="njs-string"]').forEach(span => { if (span.textContent && span.textContent.includes('huggingface.co')) { span.textContent = span.textContent.replace(/huggingface.co/g, 'aifasthub.com'); } }); // 替换hljs-string类的span中的域名(移除多余的转义符号) document.querySelectorAll('span.hljs-string, span[class*="hljs-string"]').forEach(span => { if (span.textContent && span.textContent.includes('huggingface.co')) { span.textContent = span.textContent.replace(/huggingface.co/g, 'aifasthub.com'); } }); // 替换pre和code标签中包含git clone命令的域名 document.querySelectorAll('pre, code').forEach(element => { if (element.textContent && element.textContent.includes('git clone')) { const text = element.innerHTML; if (text.includes('huggingface.co')) { element.innerHTML = text.replace(/huggingface.co/g, 'aifasthub.com'); } } }); // 处理特定的命令行示例 document.querySelectorAll('pre, code').forEach(element => { const text = element.innerHTML; if (text.includes('huggingface.co')) { // 针对git clone命令的专门处理 if (text.includes('git clone') || text.includes('GIT_LFS_SKIP_SMUDGE=1')) { element.innerHTML = text.replace(/huggingface.co/g, 'aifasthub.com'); } } }); // 特别处理模型下载页面上的代码片段 document.querySelectorAll('.flex.border-t, .svelte_hydrator, .inline-block').forEach(container => { const content = container.innerHTML; if (content && content.includes('huggingface.co')) { container.innerHTML = content.replace(/huggingface.co/g, 'aifasthub.com'); } }); // 特别处理模型仓库克隆对话框中的代码片段 try { // 查找包含"Clone this model repository"标题的对话框 const cloneDialog = document.querySelector('.svelte_hydration_boundary, [data-target="MainHeader"]'); if (cloneDialog) { // 查找对话框中所有的代码片段和命令示例 const codeElements = cloneDialog.querySelectorAll('pre, code, span'); codeElements.forEach(element => { if (element.textContent && element.textContent.includes('huggingface.co')) { if (element.innerHTML.includes('huggingface.co')) { element.innerHTML = element.innerHTML.replace(/huggingface.co/g, 'aifasthub.com'); } else { element.textContent = element.textContent.replace(/huggingface.co/g, 'aifasthub.com'); } } }); } // 更精确地定位克隆命令中的域名 document.querySelectorAll('[data-target]').forEach(container => { const codeBlocks = container.querySelectorAll('pre, code, span.hljs-string'); codeBlocks.forEach(block => { if (block.textContent && block.textContent.includes('huggingface.co')) { if (block.innerHTML.includes('huggingface.co')) { block.innerHTML = block.innerHTML.replace(/huggingface.co/g, 'aifasthub.com'); } else { block.textContent = block.textContent.replace(/huggingface.co/g, 'aifasthub.com'); } } }); }); } catch (e) { // 错误处理但不打印日志 } } // 当DOM加载完成后执行替换 if (document.readyState === 'loading') { document.addEventListener('DOMContentLoaded', () => { replaceHeaderBranding(); replaceNavigationLinks(); replaceCodeDomains(); // 只在必要时执行替换 - 3秒后再次检查 setTimeout(() => { if (!window._navLinksReplaced) { console.log('[Client] 3秒后重新检查导航链接'); replaceNavigationLinks(); } }, 3000); }); } else { replaceHeaderBranding(); replaceNavigationLinks(); replaceCodeDomains(); // 只在必要时执行替换 - 3秒后再次检查 setTimeout(() => { if (!window._navLinksReplaced) { console.log('[Client] 3秒后重新检查导航链接'); replaceNavigationLinks(); } }, 3000); } // 增加一个MutationObserver来处理可能的动态元素加载 const observer = new MutationObserver(mutations => { // 检查是否导航区域有变化 const hasNavChanges = mutations.some(mutation => { // 检查是否存在header或nav元素变化 return Array.from(mutation.addedNodes).some(node => { if (node.nodeType === Node.ELEMENT_NODE) { // 检查是否是导航元素或其子元素 if (node.tagName === 'HEADER' || node.tagName === 'NAV' || node.querySelector('header, nav')) { return true; } // 检查是否在导航元素内部 let parent = node.parentElement; while (parent) { if (parent.tagName === 'HEADER' || parent.tagName === 'NAV') { return true; } parent = parent.parentElement; } } return false; }); }); // 只在导航区域有变化时执行替换 if (hasNavChanges) { // 重置替换状态,允许再次替换 window._navLinksReplaced = false; replaceHeaderBranding(); replaceNavigationLinks(); } }); // 开始观察document.body的变化,包括子节点 if (document.body) { observer.observe(document.body, { childList: true, subtree: true }); } else { document.addEventListener('DOMContentLoaded', () => { observer.observe(document.body, { childList: true, subtree: true }); }); } })(); \\ \n Dieses Script können Sie nun wie folgt anwenden:\n you@host > sed -f text2html.sed mrolympia.dat > mrolympia.html you@host > cat mrolympia.html Converted with txt2html.sed
  USA 1965 1966  USA 1967 1968 1969  Österreich 1970 1971 1972 1973 1974 1975  Argentinien 1976 1981  USA 1982  Libanon 1983 Lee Haney USA 1984 1985 1986 1987 1988 1989 1990 1991 ien 1992 1993 1994 1995 1996 1997  USA 1998 1999 2000 2001 2002 2003 2004 
\n Dieses HTML-Dokument können Sie sich nun mit einem beliebigen Webbrowser Ihrer Wahl ansehen. In einem Shellscript mit vielen Dateien auf einmal können Sie das Ganze wie folgt realisieren:\n # Alle Dateien aus der Kommandozeile; alternativ könnte hier auch # das Metazeichen * verwendet werden, sodass alle Dateien aus dem # aktuellen Verzeichnis bearbeitet werden for file in \"$@\" do sed -f txt2html.sed $file > temp # Achtung, hier wird das Original verändert!!! mv tmp $file done\n\n Hinweis   An dieser Stelle muss ich nochmals darauf hinweisen, dass eine Umleitung wie sed -f script datei > datei deshalb nicht funktioniert, weil die Eingabe die Ausgabe überschreiben würde.\n\n Jetzt haben Sie noch eine weitere Möglichkeit, sed zu verwenden und zwar als eigenständiges Programm. Hierzu müssen Sie nur die Ausführrechte entsprechend setzen und in der ersten Zeile Folgendes eingeben:\n #!/usr/bin/sed -f\n Jetzt können Sie (im Beispiel nochmals das text2html-Script) das sed-Script wie ein gewöhnliches Shellscript ausführen:\n you@host > chmod u+x text2html.sed you@host > ./text2html.sed mrolympia.dat > mrolympia.html\n\n Hinweis   Eine interessante Sammlung von sed-Scripts (auch von weiteren Dokumentationen, Links etc.) finden Sie unter http://sed.sourceforge.net/grabbag/.\n Hinweis   sed unterstützt übrigens auch Sprungziele (label) â einen unbedingten Sprung (es wird also immer gesprungen). Diesen Hinweis wollte ich geben, falls Sie sich noch intensiver mit den sed-Scripts auseinander setzen wollen.\n\n## 12.5 sed-ScriptsÂ\n\nNeben der Methode, den sed-Befehl in den Shellscripts wie übliche Befehle oder sed in der Kommandozeile zu verwenden, haben Sie noch eine dritte Möglichkeit, nämlich echte sed-Scripts zu schreiben. Der Vorteil ist, dass Sie so immer wieder verwendete sed-Kommandos gleich zur Hand haben und vor allem bei etwas längeren sed-Kommandos den Überblick behalten. Das sed-Script können Sie natürlich trotzdem in einem Shellscript verwenden, nur benötigen Sie dann neben dem Shellscript auch noch das sed-Script.\n\nDamit sed weiß, dass es sein Kommando aus einer Datei erhält, müssen Sie die Option âf (file) verwenden. Die Syntax:\n > sed -f sed_script.sed Datei\n\nFolgendes müssen Sie beim Verwenden von sed-Scripts beachten:\n\n | Keine Leerzeichen, Tabulatoren etc. vor und nach den Kommandos |\n | --- | --- |\n\n | Eine Zeile, die mit # beginnt, wird als Kommentar behandelt. |\n | --- | --- |\n\nHier ein einfaches sed-Script, mit dem Sie eine Textdatei in eine HTML-Datei einbetten können:\n > # Name: text2html.sed # Sonderzeichen '<', '>' und '&' ins HTML-Format s/&/\\&amp;/g s//\\&gt;/g # Zeile 1 selelektieren wir mit insert für den HTML-Header 1 i\\ \\ \\ \\ \\ Converted with txt2html.sed\\ \\ \\ \\
 # Hier kommt der Text der Datei hin # Mit append hängen wir den Footer ans Ende $ a\\ 
\\ \\ you@host > sed -f text2html.sed mrolympia.dat > mrolympia.html you@host > cat mrolympia.html Converted with txt2html.sed
  USA 1965 1966 Sergio Oliva USA 1967 1968 1969  Österreich 1970 1971 1972 1973 1974 1975  Argentinien 1976 1981  USA 1982  Libanon 1983 Lee Haney USA 1984 1985 1986 1987 1988 1989 1990 1991  1992 1993 1994 1995 1996 1997  USA 1998 1999 2000 2001 2002 2003 2004 
# Alle Dateien aus der Kommandozeile; alternativ könnte hier auch # das Metazeichen * verwendet werden, sodass alle Dateien aus dem # aktuellen Verzeichnis bearbeitet werden for file in \"$@\" do sed -f txt2html.sed $file > temp # Achtung, hier wird das Original verändert!!! mv tmp $file done\n\nJetzt haben Sie noch eine weitere Möglichkeit, sed zu verwenden und zwar als eigenständiges Programm. Hierzu müssen Sie nur die Ausführrechte entsprechend setzen und in der ersten Zeile Folgendes eingeben:\n > #!/usr/bin/sed -f\n\nJetzt können Sie (im Beispiel nochmals das text2html-Script) das sed-Script wie ein gewöhnliches Shellscript ausführen:\n > you@host > chmod u+x text2html.sed you@host > ./text2html.sed mrolympia.dat > mrolympia.html\n\n# 13.2 Aufruf von awk-ProgrammenÂ\n\n13.2 Aufruf von awk-Programmen \n Auch hier stellt sich die Frage, wie man awk aufrufen kann. Zunächst empfiehlt es sich, hierbei den Programmteil von awk in einzelne Anführungsstriche zu setzen, um Konflikte mit der Shell zu vermeiden. Die Syntax:\n awk 'Programm' Datei [Datei] ... awk 'Programm Programm Programm' Datei [Datei] ... awk -f Programmdatei Datei [Datei]\n Sie haben wieder die beiden Möglichkeiten, entweder alle awk-Kommandos direkt zwischen die Single Quotes zu schreiben oder Sie verwenden auch hier die Option âf (für file, wie bei sed), um alle Befehle von awk in eine Programmdatei (awk-Script) zu schreiben, um diese Programmdatei beim Start von awk auf die Datei(en) bzw. den Eingabestrom anzuwenden.\n 13.2.1 Grundlegender Aufbau eines awk-Kommandos \n Im Abschnitt zuvor war die Rede von awk-Kommandos. Wie sehen denn nun solche Befehle aus? Ein reguläres awk-Kommando besteht aus mindestens einer Zeile.\n Muster { Aktion }\n Der Aktionsteil kann hierbei mehrere Befehle beinhalten und muss in geschweifte Klammern gesetzt werden. Nur so kann awk den Muster- und Aktionsteil voneinander unterscheiden. Beim Vergessen der geschweiften Klammern erhalten Sie ohnehin eine Fehlermeldung.\n Wenn nun eine Datei geladen wurde, wird diese zeilenweise eingelesen und anhand eines Musters verglichen. Trifft entsprechendes Muster zu, wird der Aktionsteil ausgeführt. Beachten Sie bitte, dass nicht zwangsläufig ein Muster und ein Aktionsteil angegeben werden muss. Ein einfaches Beispiel (ich hoffe, Sie haben noch die Datei mrolympia.dat):\n you@host > awk '$1 ~ \"Samir\"' mrolympia.dat Libanon 1983\n Hier wurde als Muster der Name »Samir« verwendet, der im ersten Feld einer Zeile stehen muss ($1). Findet awk ein entsprechendes Muster, wird die Zeile ausgegeben. Wollen Sie hier nur die Nationalität ausgeben, benötigen Sie auf jeden Fall einen Aktionsteil:\n you@host > awk ' $1 ~ \"Samir\" { print $3 }' mrolympia.dat Libanon\n Hier wird wiederum nach dem Muster »Samir« gesucht, das sich im ersten Feld einer Zeile befinden muss ($1). Aber anstatt die komplette Zeile auszugeben, wird hier nur das dritte Feld (bzw. Wort) ausgegeben ($3).\n Andererseits müssen Sie auch nicht unbedingt ein Muster verwenden, um mit awk irgendetwas bewirken zu können. Sie können hierbei auch Folgendes schreiben:\n you@host > awk '{ print }' mrolympia.dat USA 1965 1966 USA 1967 1968 1969 Arnold Schwarzenegger Österreich 1970 1971 1972 1973 1974 1975 ...\n Damit gibt awk den vollständigen Inhalt einer Datei aus. Wollen Sie nur die Nationalität (drittes Feld) ausgeben, so müssen Sie nur Folgendes schreiben:\n you@host > awk '{ print $3 }' mrolympia.dat USA USA Österreich Argentinien USA Libanon USA Grossbritannien USA\n In der Praxis könnten Sie die einzelnen Nationalitäten jetzt zählen und der Rangfolge oder dem Alphabet nach ausgeben lassen. Aber bis dahin ist es noch ein etwas längerer (Lern-)Weg.\n Natürlich ist es auch möglich, dass ein awk-Kommando aus mehreren Muster- und Aktionsteilen besteht. Jedes dieser Teile wird pro eingelesene Zeile einmal ausgeführt, wenn ein Muster zutrifft â vorausgesetzt, es wurde ein Muster angegeben.\n Muster { Aktion } Muster { Aktion } Muster { Aktion }\n Wurden alle Muster-Aktions-Teile ausgeführt, liest awk die nächste Zeile ein und beginnt wieder von vorn, alle Muster-Aktions-Teile zu durchlaufen.\n 13.2.2 Die Kommandozeilen-Optionen von awk \n awk bietet nicht sehr viele Kommandozeilen-Optionen an. Wenn Sie wissen wollen, welche dies sind, müssen Sie awk ohne jegliche Argumente in der Kommandozeile eingeben:\n you@host > awk Anwendung: awk [POSIX- oder GNU-Optionen] -f PROGRAM [--] Datei Anwendung: awk [POSIX- oder GNU-Optionen] -- 'PROGRAM' Datei ... POSIX-Optionen GNU-Optionen (lang): -f PROGRAM --file=PROGRAM -F Feldtrenner --field-separator=Feldtrenner -v var=Wert --assign=var=Wert -W compat --compat -W copyleft --copyleft ...\n awk selbst verfügt eigentlich nur über die drei Optionen âF, âf und âv. Alle anderen Optionen mit âW sind GNU-spezifische Optionen, die eben nur gawk zur Verfügung stehen. Wobei es hier jedoch zwei sehr interessante Schalter gibt (sofern Sie gawk verwenden), mit denen Sie einen Kompatibilitätsmodus einschalten können:\n\n Tabelle 13.1  GNU-spezifische Optionen für gawk (nicht nawk)\n\n âW compat\n gawk verhält sich wie ein UNIX-awk; damit werden alle GNU-Erweiterungen ausgeschaltet.\n\n âW posix\n gawk hält sich an den POSIX-Standard.\n\n Tabelle 13.2  Standard-Optionen für awk\n\n âF\n Damit können Sie das/die Trennzeichen angeben, anhand dessen awk eine Zeile in einzelne Felder zerlegen soll. So verändern Sie die spezielle Variable FS.\n\n âf\n Angabe einer Datei (awk-Script) mit awk-Anweisungen\n\n âv\n Damit erzeugen Sie eine Variable mit einem vorbelegten Wert, der dem awk-Programm gleich zum Programmstart zu Verfügung steht.\n\n 13.2.3 awk aus der Kommandozeile aufrufen \n Die einfachste Methode, awk zu verwenden, ist gleichzeitig auch die unpraktischste â nämlich aus der Kommandozeile. Unpraktisch dann, wenn Sie regelmäßig diverse Kommandos wiederholen bzw. immer wieder verwenden. Auch so genannte Einzeiler lohnt es, in einer Programmdatei abzuspeichern.\n awk wurde bereits aus der Kommandozeile verwendet:\n you@host > awk -F: '{print $3}' /etc/passwd\n So legen Sie zuerst mit âF als Trennzeichen den Doppelpunkt fest. Anschließend filtern Sie mit awk alle User-IDs aus der Datei /etc/passwd aus und geben diese auf die Standardausgabe aus.\n Damit können Sie wohl in der Praxis nicht viel anfangen. Warum also nicht die User-ID eines bestimmten Users ausfiltern? Mit grep und einer Pipe sollte dies nicht schwer sein:\n you@host > grep you /etc/passwd | awk -F: '{print $3}' 1001\n Sie haben erst mit grep nach einer Zeile in /etc/passwd mit der Textfolge »you« gesucht und die Ausgabe durch die Pipe an die Eingabe von awk weitergeleitet. awk filtert aus dieser Zeile nur noch die User-ID (Feld $3) aus.\n 13.2.4 awk in Shellscripts aufrufen \n Die für Sie als Shell-Programmierer wohl gängigste Methode dürfte die Verwendung von awk in Shellscripts sein. Hierbei werden Sie entweder die einzelnen Befehle von awk direkt ins Script schreiben oder aber wiederum ein weiteres awk-Script mit dem Schalter âf ausführen lassen. Ein einfaches Beispiel:\n # Name : who_uid # Argumente vorhanden ... ? usage() { if [ $# -lt 1 ] then echo \"usage: $0 user\" exit 1 fi } usage $* uid=`grep $1 /etc/passwd | awk -F: '{ print $3 }'` echo \"Der User $1 hat die ID $uid\"\n Das Script bei der Ausführung:\n you@host > ./who_uid tot Der User tot hat die ID 1000 you@host > ./who_uid you Der User you hat die ID 1001 you@host > ./who_uid root Der User root hat die ID 0\n Hier wurde mit einer einfachen Kommando-Substitution die User-ID wie im Abschnitt zuvor ermittelt und an eine Variable übergeben. Natürlich lassen sich auch ohne weiteres Shell-Variablen in awk verwenden:\n # Name : readfield printf \"Welche Datei wollen Sie verwenden : \" read datei printf \"Welches Feld wollen Sie hierbei ermitteln : \" read feld awk '{ print $'$feld' }' $datei\n Das Script bei der Ausführung:\n you@host > ./readfield Welche Datei wollen Sie verwenden : mrolympia.dat Welches Feld wollen Sie hierbei ermitteln : 2 ...\n 13.2.5 awk als eigenes Script ausführen \n awk-Scripts können Sie â wie auch viele andere Programme â mit der She-Bank-Zeile (#!) selbstständig laufen lassen. Sie müssen nur am Anfang Ihres awk-Scripts folgende Zeile einfügen:\n #!/usr/bin/gawk -f\n Wichtig ist hierbei die Option âf, denn nur dadurch wird das Script als auszuführende Programmdatei an awk übergeben. Hierzu ein simples awk-Script:\n #!/usr/bin/awk âf # Name : awkargs BEGIN { print \"Anzahl Argumente: \", ARGC; for (i=0; i < ARGC; i++) print i, \". Argument: \", ARGV[i]; }\n Das awk-Script (der Name sei »awkargs«) bei der Ausführung:\n you@host > chmod u+x awkargs you@host > ./awkargs Hallo awk wie gehts Anzahl Argumente: 5 0 . Argument: awk 1 . Argument: Hallo 2 . Argument: awk 3 . Argument: wie 4 . Argument: gehts\n Nachdem Sie das awk-Script ausführbar gemacht haben, zählt dieses Script alle Argumente der Kommandozeile zusammen und gibt die einzelnen Argumente auf dem Bildschirm aus. Natürlich können Sie awk-Scripts auch aus Ihren Shellscripts heraus starten. Dabei ist wie bei einem gewöhnlichen Kommando vorzugehen.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 13.2 Aufruf von awk-ProgrammenÂ\n\nAuch hier stellt sich die Frage, wie man awk aufrufen kann. Zunächst empfiehlt es sich, hierbei den Programmteil von awk in einzelne Anführungsstriche zu setzen, um Konflikte mit der Shell zu vermeiden. Die Syntax:\n > awk 'Programm' Datei [Datei] ... awk 'Programm Programm Programm' Datei [Datei] ... awk -f Programmdatei Datei [Datei]\n\nSie haben wieder die beiden Möglichkeiten, entweder alle awk-Kommandos direkt zwischen die Single Quotes zu schreiben oder Sie verwenden auch hier die Option âf (für file, wie bei sed), um alle Befehle von awk in eine Programmdatei (awk-Script) zu schreiben, um diese Programmdatei beim Start von awk auf die Datei(en) bzw. den Eingabestrom anzuwenden.\n\n### 13.2.1 Grundlegender Aufbau eines awk-KommandosÂ\n\nIm Abschnitt zuvor war die Rede von awk-Kommandos. Wie sehen denn nun solche Befehle aus? Ein reguläres awk-Kommando besteht aus mindestens einer Zeile.\n > Muster { Aktion }\n\nDer Aktionsteil kann hierbei mehrere Befehle beinhalten und muss in geschweifte Klammern gesetzt werden. Nur so kann awk den Muster- und Aktionsteil voneinander unterscheiden. Beim Vergessen der geschweiften Klammern erhalten Sie ohnehin eine Fehlermeldung.\n\nWenn nun eine Datei geladen wurde, wird diese zeilenweise eingelesen und anhand eines Musters verglichen. Trifft entsprechendes Muster zu, wird der Aktionsteil ausgeführt. Beachten Sie bitte, dass nicht zwangsläufig ein Muster und ein Aktionsteil angegeben werden muss. Ein einfaches Beispiel (ich hoffe, Sie haben noch die Datei mrolympia.dat):\n > you@host > awk '$1 ~ \"Samir\"' mrolympia.dat 1983\n\nHier wurde als Muster der Name »Samir« verwendet, der im ersten Feld einer Zeile stehen muss ($1). Findet awk ein entsprechendes Muster, wird die Zeile ausgegeben. Wollen Sie hier nur die Nationalität ausgeben, benötigen Sie auf jeden Fall einen Aktionsteil:\n > you@host > awk ' $1 ~ \"Samir\" { print $3 }' mrolympia.dat Libanon\n\nHier wird wiederum nach dem Muster »Samir« gesucht, das sich im ersten Feld einer Zeile befinden muss ($1). Aber anstatt die komplette Zeile auszugeben, wird hier nur das dritte Feld (bzw. Wort) ausgegeben ($3).\n\nAndererseits müssen Sie auch nicht unbedingt ein Muster verwenden, um mit awk irgendetwas bewirken zu können. Sie können hierbei auch Folgendes schreiben:\n > you@host > awk '{ print }' mrolympia.dat USA 1965 1966 USA 1967 1968 1969 Österreich 1970 1971 1972 1973 1974 1975 ...\n\nDamit gibt awk den vollständigen Inhalt einer Datei aus. Wollen Sie nur die Nationalität (drittes Feld) ausgeben, so müssen Sie nur Folgendes schreiben:\n > you@host > awk '{ print $3 }' mrolympia.dat USA USA Österreich Argentinien USA Libanon USA Grossbritannien USA\n\nIn der Praxis könnten Sie die einzelnen Nationalitäten jetzt zählen und der Rangfolge oder dem Alphabet nach ausgeben lassen. Aber bis dahin ist es noch ein etwas längerer (Lern-)Weg.\n\nNatürlich ist es auch möglich, dass ein awk-Kommando aus mehreren Muster- und Aktionsteilen besteht. Jedes dieser Teile wird pro eingelesene Zeile einmal ausgeführt, wenn ein Muster zutrifft â vorausgesetzt, es wurde ein Muster angegeben.\n > Muster { Aktion } Muster { Aktion } Muster { Aktion }\n\nWurden alle Muster-Aktions-Teile ausgeführt, liest awk die nächste Zeile ein und beginnt wieder von vorn, alle Muster-Aktions-Teile zu durchlaufen.\n\n### 13.2.2 Die Kommandozeilen-Optionen von awkÂ\n\nawk bietet nicht sehr viele Kommandozeilen-Optionen an. Wenn Sie wissen wollen, welche dies sind, müssen Sie awk ohne jegliche Argumente in der Kommandozeile eingeben:\n > you@host > awk Anwendung: awk [POSIX- oder GNU-Optionen] -f PROGRAM [--] Datei Anwendung: awk [POSIX- oder GNU-Optionen] -- 'PROGRAM' Datei ... POSIX-Optionen GNU-Optionen (lang): -f PROGRAM --file=PROGRAM -F Feldtrenner --field-separator=Feldtrenner -v var=Wert --assign=var=Wert -W compat --compat -W copyleft --copyleft ...\n\nawk selbst verfügt eigentlich nur über die drei Optionen âF, âf und âv. Alle anderen Optionen mit âW sind GNU-spezifische Optionen, die eben nur gawk zur Verfügung stehen. Wobei es hier jedoch zwei sehr interessante Schalter gibt (sofern Sie gawk verwenden), mit denen Sie einen Kompatibilitätsmodus einschalten können:\n\nOption | Bedeutung |\n | --- | --- |\nâW compat | gawk verhält sich wie ein UNIX-awk; damit werden alle GNU-Erweiterungen ausgeschaltet. |\nâW posix | gawk hält sich an den POSIX-Standard. |\n\nOption | Bedeutung |\n | --- | --- |\nâF | Damit können Sie das/die Trennzeichen angeben, anhand dessen awk eine Zeile in einzelne Felder zerlegen soll. So verändern Sie die spezielle Variable FS. |\nâf | Angabe einer Datei (awk-Script) mit awk-Anweisungen |\nâv | Damit erzeugen Sie eine Variable mit einem vorbelegten Wert, der dem awk-Programm gleich zum Programmstart zu Verfügung steht. |\n\n### 13.2.3 awk aus der Kommandozeile aufrufenÂ\n\nDie einfachste Methode, awk zu verwenden, ist gleichzeitig auch die unpraktischste â nämlich aus der Kommandozeile. Unpraktisch dann, wenn Sie regelmäßig diverse Kommandos wiederholen bzw. immer wieder verwenden. Auch so genannte Einzeiler lohnt es, in einer Programmdatei abzuspeichern.\n\nawk wurde bereits aus der Kommandozeile verwendet:\n > you@host > awk -F: '{print $3}' /etc/passwd\n\nSo legen Sie zuerst mit âF als Trennzeichen den Doppelpunkt fest. Anschließend filtern Sie mit awk alle User-IDs aus der Datei /etc/passwd aus und geben diese auf die Standardausgabe aus.\n\nDamit können Sie wohl in der Praxis nicht viel anfangen. Warum also nicht die User-ID eines bestimmten Users ausfiltern? Mit grep und einer Pipe sollte dies nicht schwer sein:\n > you@host > grep you /etc/passwd | awk -F: '{print $3}' 1001\n\nSie haben erst mit grep nach einer Zeile in /etc/passwd mit der Textfolge »you« gesucht und die Ausgabe durch die Pipe an die Eingabe von awk weitergeleitet. awk filtert aus dieser Zeile nur noch die User-ID (Feld $3) aus.\n\n### 13.2.4 awk in Shellscripts aufrufenÂ\n\nDie für Sie als Shell-Programmierer wohl gängigste Methode dürfte die Verwendung von awk in Shellscripts sein. Hierbei werden Sie entweder die einzelnen Befehle von awk direkt ins Script schreiben oder aber wiederum ein weiteres awk-Script mit dem Schalter âf ausführen lassen. Ein einfaches Beispiel:\n > # Name : who_uid # Argumente vorhanden ... ? usage() { if [ $# -lt 1 ] then echo \"usage: $0 user\" exit 1 fi } usage $* uid=`grep $1 /etc/passwd | awk -F: '{ print $3 }'` echo \"Der User $1 hat die ID $uid\"\n\nDas Script bei der Ausführung:\n > you@host > ./who_uid tot Der User tot hat die ID 1000 you@host > ./who_uid you Der User you hat die ID 1001 you@host > ./who_uid root Der User root hat die ID 0\n\nHier wurde mit einer einfachen Kommando-Substitution die User-ID wie im Abschnitt zuvor ermittelt und an eine Variable übergeben. Natürlich lassen sich auch ohne weiteres Shell-Variablen in awk verwenden:\n > # Name : readfield printf \"Welche Datei wollen Sie verwenden : \" read datei printf \"Welches Feld wollen Sie hierbei ermitteln : \" read feld awk '{ print $'$feld' }' $datei\n\nDas Script bei der Ausführung:\n > you@host > ./readfield Welche Datei wollen Sie verwenden : mrolympia.dat Welches Feld wollen Sie hierbei ermitteln : 2 ...\n\n### 13.2.5 awk als eigenes Script ausführenÂ\n\nawk-Scripts können Sie â wie auch viele andere Programme â mit der She-Bank-Zeile (#!) selbstständig laufen lassen. Sie müssen nur am Anfang Ihres awk-Scripts folgende Zeile einfügen:\n > #!/usr/bin/gawk -f\n\nWichtig ist hierbei die Option âf, denn nur dadurch wird das Script als auszuführende Programmdatei an awk übergeben. Hierzu ein simples awk-Script:\n > #!/usr/bin/awk âf # Name : awkargs BEGIN { print \"Anzahl Argumente: \", ARGC; for (i=0; i < ARGC; i++) print i, \". Argument: \", ARGV[i]; }\n\nDas awk-Script (der Name sei »awkargs«) bei der Ausführung:\n > you@host > chmod u+x awkargs you@host > ./awkargs Hallo awk wie gehts Anzahl Argumente: 5 0 . Argument: awk 1 . Argument: Hallo 2 . Argument: awk 3 . Argument: wie 4 . Argument: gehts\n\nNachdem Sie das awk-Script ausführbar gemacht haben, zählt dieses Script alle Argumente der Kommandozeile zusammen und gibt die einzelnen Argumente auf dem Bildschirm aus. Natürlich können Sie awk-Scripts auch aus Ihren Shellscripts heraus starten. Dabei ist wie bei einem gewöhnlichen Kommando vorzugehen.\n\n# 13.3 Grundlegende awk-Programme und -ElementeÂ\n\n13.3 Grundlegende awk-Programme und -Elemente \n Wenn man noch nie einen Baum gepflanzt hat, wird man keine ganzen Wälder anlegen. Daher folgen hier zunächst die grundlegenden Elemente bzw. die einfachen Anwendungen von awk. Was man für awk zuallererst benötigt, das ist die Ausgabe von Zeilen und alles, was mit den Zeilen zu tun hat, die Verwendung von Feldern (bzw. Wörtern) und die formatierte Ausgabe bzw. die Ausgabe in einer Datei.\n 13.3.1 Ausgabe von Zeilen und Zeilennummern \n Am besten fängt man mit dem Einfachsten an:\n you@host > awk '{print}' Ein Test Ein Test Noch einer Noch einer\n Dieser Einzeiler macht nichts anderes, als alle Eingaben, die Sie mit (ENTER) abgeschlossen haben, wieder auf dem Bildschirm auszugeben. Und zwar so lange, bis Sie die Tastenkombination (Strg)+(D) (für EOF) drücken. Im Prinzip funktioniert dies wie bei einem einfachen cat. Schreiben Sie jetzt einen Dateinamen hinter dem awk-Programm\n you@host > awk '{print}' mrolympia.dat ...\n erhält awk seine Eingabe nicht mehr von der Tastatur, sondern entnimmt diese zeilenweise der Datei. Aber, so ein einfaches cat ist awk auch wieder nicht. Wollen Sie, dass awk bestimmte Wörter von der Tastatur herausfiltert, können Sie hierzu ein Muster verwenden:\n you@host > awk '!/mist/ {print}' Die ist kein Mist Die ist kein Mist Aber hier ist ein mist! Ende Ende\n Hiermit wird jede Zeile, welche die Textfolge »mist« enthält, nicht ausgegeben.\n Benötigen Sie die laufende Zeilennummer, steht Ihnen die awk-interne Variable NR zur Verfügung, die sich immer die aktuelle Nummer der Eingabezeile merkt.\n you@host > awk '{print NR \" : \" $0}' mrolympia.dat 1 : USA 1965 1966 2 : USA 1967 1968 1969 ... ... 8 : ien 1992 1993 1994 1995 1996 1997 9 : USA 1998 1999 2000 2001 2002 2003 2004\n Hiermit geben Sie die komplette Datei mrolympia.dat mitsamt der Zeilennummern auf dem Bildschirm aus. Eine weitere Besonderheit ist hier die Variable $0, die immer automatisch mit der gesamten eingelesenen Zeile belegt ist. Wollen Sie mit awk nach einem bestimmten Muster suchen und hierbei die entsprechende Zeile bei Übereinstimmung mit ausgeben, kann dies wie folgt realisiert werden:\n you@host > awk '/Lee/ {print NR \" : \" $0}' mrolympia.dat 7 : USA 1984 1985 1986 1987 1988 1989 1990 1991\n Es wird nach dem Muster »Lee« in der Datei mrolympia.dat gesucht und dann mitsamt der Zeilennummer ausgegeben.\n\n Hinweis   Sie können mit awk noch einen Schritt weiter gehen, wenn Sie nicht die Variablen NR verwenden wollen, indem Sie die Zeilen selbst hochzählen. Hierzu müssen Sie nur eine extra Variable einsetzen und diese hochzählen: awk '{print ++i, \" : \" $0}' mrolympia.dat\n\n 13.3.2 Felder \n Die nächst kleinere Einheit nach den Zeilen sind die einzelnen Felder bzw. Wörter (abhängig von FS), in die jede Eingabezeile zerlegt wird. Allerdings ist es im Grunde falsch, bei awk von Wörtern zu sprechen, vielmehr sind es Felder. Standardmäßig werden die einzelnen Zeilen durch Leerzeichen und Tabulatorzeichen aufgetrennt und jeweils in eine eigene Variable gespeichert. Die Namen der Variablen entsprechen den Positionsparametern der Shell: $1, $2, $3 ...\n Damit ist es ohne größeren Umweg möglich, einzelne Spalten aus einer Datei zu extrahieren, was u. a. auch ein Hauptanwendungsgebiet von awk ist. So können Sie z. B. ohne Probleme den Inhalt der Spalte 3 und 2 einer Datei ausgeben lassen:\n you@host > awk '{print $3, $2}' mrolympia.dat USA Scott USA Oliva Österreich Schwarzenegger Argentinien Columbu USA Dickerson Libanon Bannout USA Haney Grossbritannien Yates USA Coleman\n Wollen Sie jetzt noch wissen, wie viele Titel einer der Teilnehmer gewonnen hat, können Sie die Variable NF (Number of Fields) verwenden:\n you@host > awk '{print $3, $2, NF-3}' mrolympia.dat USA Scott 2 USA Oliva 3 Österreich Schwarzenegger 7 Argentinien Columbu 2 USA Dickerson 1 Libanon Bannout 1 USA Haney 8 Grossbritannien Yates 6 USA Coleman 7\n Hier wurde von NF der Wert 3 subtrahiert, da die ersten drei Spalten eine andere Bedeutung haben. Ich kann mir schon denken, wie die nächste Frage lauten könnte: Wie kann man dies jetzt noch nach der Anzahl von Titeln sortieren? Hier gibt es immer mehrere Wege â ich könnte folgenden anbieten:\n you@host > awk '{print NF-3, $3, $2}' mrolympia.dat | sort -r 8 USA Haney 7 USA Coleman 7 Österreich Schwarzenegger 6 Grossbritannien Yates 3 USA Oliva 2 USA Scott 2 Argentinien Columbu 1 USA Dickerson 1 Libanon Bannout\n Verwenden Sie NF mit einem Dollarzeichen davor ($NF), befindet sich darin immer das letzte Wort der Zeile. Das Vorletzte würden Sie mit $(NFâ1) erreichen:\n you@host > awk '{print $NF, $(NF-1)}' mrolympia.dat 1966 1965 1969 1968 1980 1975 1981 1976 1982 USA 1983 Libanon 1991 1990 1997 1996 2004 2003 you@host > awk '{print \"Zeile \" NR, \"enhält \" NF \" Worte \\ > (letztes Wort: \" $NF \"; vorletztes: \" $(NF-1) \")\"}' \\ > mrolympia.dat Zeile 1 enhält 5 Worte (letztes Wort: 1966 ; vorletztes: 1965) Zeile 2 enhält 6 Worte (letztes Wort: 1969 ; vorletztes:1968 Zeile 3 enhält 10 Worte (letztes Wort: 1980 ; vorletztes: 1975) Zeile 4 enhält 5 Worte (letztes Wort: 1981 ; vorletztes: 1976) Zeile 5 enhält 4 Worte (letztes Wort: 1982 ; vorletztes: USA) Zeile 6 enhält 4 Worte (letztes Wort: 1983 ; vorletztes:Libanon) Zeile 7 enhält 11 Worte (letztes Wort: 1991 ; vorletztes: 1990) Zeile 8 enhält 9 Worte (letztes Wort: 1997 ; vorletztes: 1996) Zeile 9 enhält 10 Worte (letztes Wort: 2004 ; vorletztes: 2003)\n Und natürlich gehört es zu den Grundlagen von Feldern, den Feldtrenner zu verändern. Dies kann über den Schalter âF oder in einem awk-Script über die Variable FS geschehen.\n Formatierte Ausgabe und Dateiausgabe\n Zur formatierten Ausgabe wurde bisher immer print verwendet, welches ähnlich wie echo in der Shell funktioniert. Da ja die einzelnen Felder anhand von Leerzeichen und Tabulatorzeichen getrennt werden, sollte es einleuchtend sein, dass bei der folgenden Ausgabe die Wörter nicht voneinander getrennt werden:\n you@host > awk '{print $1 $2 }' mrolympia.dat ... ... DorianYates RonnieColeman\n Man kann entweder das Leerzeichen (oder auch ein anderes Zeichen bzw. andere Zeichenfolge) in Double Quotes eingeschlossen einfügen:\n you@host > awk '{print $1 \" \" $2 }' mrolympia.dat\n Oder aber man trennt die einzelnen Felder voneinander mit einem Komma:\n you@host > awk '{print $1, $2 }' mrolympia.dat\n Meistens reicht die Ausgabe von print. Aber auch hier haben Sie mit printf die Möglichkeit, Ihre Ausgabe erweitert zu formatieren. printf funktioniert hier genauso, wie es schon für die Shell beschrieben wurde, weshalb ich hier auf Tabellen mit den Typezeichen (s für String, d für Dezimal, f für Float usw.) verzichten kann. Bei Bedarf werfen Sie bitte einen Blick in Abschnitt 5.2.3. Gleiches gilt übrigens auch für die Escapesequenzen (alias Steuerzeichen) (siehe Tabelle 5.2). Einziger Unterschied im Gegensatz zum printf der Shell: Die Argumente am Ende müssen durch ein Komma getrennt werden. Ein einfaches Beispiel der formatierten Ausgabe mit printf:\n you@host > awk ' \\ > {printf \"%-2d Titel\\tLand: %-15s\\tName: %-15s\\n\",NF-3,$3,$2}'\\ > mrolympia.dat | sort -r 8 Titel Land: USA Name: Haney 7 Titel Land: USA Name: Coleman 7 Titel Land: Österreich Name: Schwarzenegger 6 Titel Land: Grossbritannien Name: Yates 3 Titel Land: USA Name: Oliva 2 Titel Land: USA Name: Scott 2 Titel Land: Argentinien Name: Columbu 1 Titel Land: USA Name: Dickerson 1 Titel Land: Libanon Name: Bannout\n Zur Ausgabe in einer Datei wird für gewöhnlich eine Umlenkung verwendet:\n you@host > awk \\ > '{printf \"%-2d Titel\\tLand: %-15s\\tName: %-15s\\n\",NF-3,$3,$2}'\\ > mrolympia.dat > olymp.dat you@host > cat olymp.dat 2 Titel Land: USA Name: Scott 3 Titel Land: USA Name: Oliva 7 Titel Land: Österreich Name: Schwarzenegger 2 Titel Land: Argentinien Name: Columbu 1 Titel Land: USA Name: Dickerson 1 Titel Land: Libanon Name: Bannout 8 Titel Land: USA Name: Haney 6 Titel Land: Grossbritannien Name: Yates 7 Titel Land: USA Name: Coleman\n Es ist aber auch möglich, innerhalb von awk â im Aktionsteil â in eine Datei zu schreiben:\n you@host > awk '/USA/{ print > \"usa.dat\"}' mrolympia.dat you@host > cat usa.dat USA 1965 1966 USA 1967 1968 1969 USA 1982 USA 1984 1985 1986 1987 1988 1989 1990 1991 USA 1998 1999 2000 2001 2002 2003 2004\n Im Beispiel wurden alle Zeilen mit einer Zeichenfolge »USA« in die Datei usa.dat geschrieben. Dies ist zum Beispiel sinnvoll, wenn Sie mehrere Muster-Aktions-Teile verwenden und nicht jede Ausgabe gleich in eine Datei geschrieben werden soll.\n Um dem Ganzen die Krone aufzusetzen, folgendes Beispiel:\n you@host > awk '$3 {print >> $3}' mrolympia.dat\n Hier schreiben Sie für jedes Land den Inhalt des entsprechenden Eintrags ans Ende einer Datei mit dem entsprechenden Landesnamen. Genauer: Für jedes Land wird eine extra Datei angelegt, worin die einzelnen Teilnehmer immer ans Ende der Datei gehängt werden. Führen Sie das einmal in einer anderen Sprache mit einer Zeile durch.\n you@host > ls -l -rw------- 1 tot users 37 2005â04â11 15:34 Argentinien -rw------- 1 tot users 58 2005â04â11 15:34 Grossbritannien -rw------- 1 tot users 27 2005â04â11 15:34 Libanon -rw------- 1 tot users 381 2005â04â08 07:32 mrolympia.dat -rw------- 1 tot users 68 2005â04â11 15:34 Österreich -rw------- 1 tot users 191 2005â04â11 15:34 USA you@host > cat Libanon Samannout Libanon 1983 you@host > cat Österreich Arnold Schwarzenegger Österreich 1970 1971 1972 1973 1974 1975\n Natürlich können Sie das noch ganz anders erreichen:\n you@host > awk '$3 {print $2, $1, $3 >> $3}' mrolympia.dat\n Hier machen Sie das Gleiche, hängen jedoch nur den Inhalt der Felder $2, $3 und $1 an entsprechende Landesdatei. In Verbindung mit einer umfangreichen Datenbank ist das wirklich mächtig. Doch im Prinzip ist das noch gar nichts, awk ist bei richtiger Anwendung zu viel mehr im Stande.\n Natürlich können Sie awk auch cat-ähnlich verwenden, um alle Eingaben von der Tastatur in eine Datei zu schreiben:\n you@host > awk '{print > \"atextfile\"}' Hallo Textdatei Das steht drin (Strg)+(D) you@host > cat atextfile Hallo Textdatei Das steht drin\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 13.3 Grundlegende awk-Programme und -ElementeÂ\n\nWenn man noch nie einen Baum gepflanzt hat, wird man keine ganzen Wälder anlegen. Daher folgen hier zunächst die grundlegenden Elemente bzw. die einfachen Anwendungen von awk. Was man für awk zuallererst benötigt, das ist die Ausgabe von Zeilen und alles, was mit den Zeilen zu tun hat, die Verwendung von Feldern (bzw. Wörtern) und die formatierte Ausgabe bzw. die Ausgabe in einer Datei.\n\n### 13.3.1 Ausgabe von Zeilen und ZeilennummernÂ\n\nAm besten fängt man mit dem Einfachsten an:\n > you@host > awk '{print}' Ein Test Ein Test Noch einer Noch einer\n\nDieser Einzeiler macht nichts anderes, als alle Eingaben, die Sie mit (ENTER) abgeschlossen haben, wieder auf dem Bildschirm auszugeben. Und zwar so lange, bis Sie die Tastenkombination (Strg)+(D) (für EOF) drücken. Im Prinzip funktioniert dies wie bei einem einfachen cat. Schreiben Sie jetzt einen Dateinamen hinter dem awk-Programm\n > you@host > awk '{print}' mrolympia.dat ...\n\nerhält awk seine Eingabe nicht mehr von der Tastatur, sondern entnimmt diese zeilenweise der Datei. Aber, so ein einfaches cat ist awk auch wieder nicht. Wollen Sie, dass awk bestimmte Wörter von der Tastatur herausfiltert, können Sie hierzu ein Muster verwenden:\n > you@host > awk '!/mist/ {print}' Die ist kein Mist Die ist kein Mist Aber hier ist ein mist! Ende Ende\n\nHiermit wird jede Zeile, welche die Textfolge »mist« enthält, nicht ausgegeben.\n\nBenötigen Sie die laufende Zeilennummer, steht Ihnen die awk-interne Variable NR zur Verfügung, die sich immer die aktuelle Nummer der Eingabezeile merkt.\n > you@host > awk '{print NR \" : \" $0}' mrolympia.dat 1 : USA 1965 1966 2 : USA 1967 1968 1969 ... ... 8 : ien 1992 1993 1994 1995 1996 1997 9 : USA 1998 1999 2000 2001 2002 2003 2004\n\nHiermit geben Sie die komplette Datei mrolympia.dat mitsamt der Zeilennummern auf dem Bildschirm aus. Eine weitere Besonderheit ist hier die Variable $0, die immer automatisch mit der gesamten eingelesenen Zeile belegt ist. Wollen Sie mit awk nach einem bestimmten Muster suchen und hierbei die entsprechende Zeile bei Übereinstimmung mit ausgeben, kann dies wie folgt realisiert werden:\n > you@host > awk '/Lee/ {print NR \" : \" $0}' mrolympia.dat 7 : USA 1984 1985 1986 1987 1988 1989 1990 1991\n\nEs wird nach dem Muster »Lee« in der Datei mrolympia.dat gesucht und dann mitsamt der Zeilennummer ausgegeben.\n\n### 13.3.2 FelderÂ\n\nDie nächst kleinere Einheit nach den Zeilen sind die einzelnen Felder bzw. Wörter (abhängig von FS), in die jede Eingabezeile zerlegt wird. Allerdings ist es im Grunde falsch, bei awk von Wörtern zu sprechen, vielmehr sind es Felder. Standardmäßig werden die einzelnen Zeilen durch Leerzeichen und Tabulatorzeichen aufgetrennt und jeweils in eine eigene Variable gespeichert. Die Namen der Variablen entsprechen den Positionsparametern der Shell: $1, $2, $3 ...\n\nDamit ist es ohne größeren Umweg möglich, einzelne Spalten aus einer Datei zu extrahieren, was u. a. auch ein Hauptanwendungsgebiet von awk ist. So können Sie z. B. ohne Probleme den Inhalt der Spalte 3 und 2 einer Datei ausgeben lassen:\n > you@host > awk '{print $3, $2}' mrolympia.dat USA Scott USA Oliva Österreich Schwarzenegger Argentinien Columbu USA Dickerson Libanon Bannout USA Haney Grossbritannien Yates USA Coleman\n\nWollen Sie jetzt noch wissen, wie viele Titel einer der Teilnehmer gewonnen hat, können Sie die Variable NF (Number of Fields) verwenden:\n > you@host > awk '{print $3, $2, NF-3}' mrolympia.dat USA Scott 2 USA Oliva 3 Österreich Schwarzenegger 7 Argentinien Columbu 2 USA Dickerson 1 Libanon Bannout 1 USA Haney 8 Grossbritannien Yates 6 USA Coleman 7\n\nHier wurde von NF der Wert 3 subtrahiert, da die ersten drei Spalten eine andere Bedeutung haben. Ich kann mir schon denken, wie die nächste Frage lauten könnte: Wie kann man dies jetzt noch nach der Anzahl von Titeln sortieren? Hier gibt es immer mehrere Wege â ich könnte folgenden anbieten:\n > you@host > awk '{print NF-3, $3, $2}' mrolympia.dat | sort -r 8 USA Haney 7 USA Coleman 7 Österreich Schwarzenegger 6 Grossbritannien Yates 3 USA Oliva 2 USA Scott 2 Argentinien Columbu 1 USA Dickerson 1 Libanon Bannout\n\nVerwenden Sie NF mit einem Dollarzeichen davor ($NF), befindet sich darin immer das letzte Wort der Zeile. Das Vorletzte würden Sie mit $(NFâ1) erreichen:\n > you@host > awk '{print $NF, $(NF-1)}' mrolympia.dat 1966 1965 1969 1968 1980 1975 1981 1976 1982 USA 1983 Libanon 1991 1990 1997 1996 2004 2003 you@host > awk '{print \"Zeile \" NR, \"enhält \" NF \" Worte \\ > (letztes Wort: \" $NF \"; vorletztes: \" $(NF-1) \")\"}' \\ > mrolympia.dat Zeile 1 enhält 5 Worte (letztes Wort: 1966 ; vorletztes: 1965) Zeile 2 enhält 6 Worte (letztes Wort: 1969 ; vorletztes:1968 Zeile 3 enhält 10 Worte (letztes Wort: 1980 ; vorletztes: 1975) Zeile 4 enhält 5 Worte (letztes Wort: 1981 ; vorletztes: 1976) Zeile 5 enhält 4 Worte (letztes Wort: 1982 ; vorletztes: USA) Zeile 6 enhält 4 Worte (letztes Wort: 1983 ; vorletztes:Libanon) Zeile 7 enhält 11 Worte (letztes Wort: 1991 ; vorletztes: 1990) Zeile 8 enhält 9 Worte (letztes Wort: 1997 ; vorletztes: 1996) Zeile 9 enhält 10 Worte (letztes Wort: 2004 ; vorletztes: 2003)\n\nUnd natürlich gehört es zu den Grundlagen von Feldern, den Feldtrenner zu verändern. Dies kann über den Schalter âF oder in einem awk-Script über die Variable FS geschehen.\n\n# Formatierte Ausgabe und Dateiausgabe\n\nZur formatierten Ausgabe wurde bisher immer print verwendet, welches ähnlich wie echo in der Shell funktioniert. Da ja die einzelnen Felder anhand von Leerzeichen und Tabulatorzeichen getrennt werden, sollte es einleuchtend sein, dass bei der folgenden Ausgabe die Wörter nicht voneinander getrennt werden:\n > you@host > awk '{print $1 $2 }' mrolympia.dat LarryScott SergioOliva ... ... DorianYates RonnieColeman\n\nMan kann entweder das Leerzeichen (oder auch ein anderes Zeichen bzw. andere Zeichenfolge) in Double Quotes eingeschlossen einfügen:\n > you@host > awk '{print $1 \" \" $2 }' mrolympia.dat\n\nOder aber man trennt die einzelnen Felder voneinander mit einem Komma:\n > you@host > awk '{print $1, $2 }' mrolympia.dat\n\nMeistens reicht die Ausgabe von print. Aber auch hier haben Sie mit printf die Möglichkeit, Ihre Ausgabe erweitert zu formatieren. printf funktioniert hier genauso, wie es schon für die Shell beschrieben wurde, weshalb ich hier auf Tabellen mit den Typezeichen (s für String, d für Dezimal, f für Float usw.) verzichten kann. Bei Bedarf werfen Sie bitte einen Blick in Abschnitt 5.2.3. Gleiches gilt übrigens auch für die Escapesequenzen (alias Steuerzeichen) (siehe Tabelle 5.2). Einziger Unterschied im Gegensatz zum printf der Shell: Die Argumente am Ende müssen durch ein Komma getrennt werden. Ein einfaches Beispiel der formatierten Ausgabe mit printf:\n > you@host > awk ' \\ > {printf \"%-2d Titel\\tLand: %-15s\\tName: %-15s\\n\",NF-3,$3,$2}'\\ > mrolympia.dat | sort -r 8 Titel Land: USA Name: Haney 7 Titel Land: USA Name: Coleman 7 Titel Land: Österreich Name: Schwarzenegger 6 Titel Land: Grossbritannien Name: Yates 3 Titel Land: USA Name: Oliva 2 Titel Land: USA Name: Scott 2 Titel Land: Argentinien Name: Columbu 1 Titel Land: USA Name: Dickerson 1 Titel Land: Libanon Name: Bannout\n\nZur Ausgabe in einer Datei wird für gewöhnlich eine Umlenkung verwendet:\n > you@host > awk \\ > '{printf \"%-2d Titel\\tLand: %-15s\\tName: %-15s\\n\",NF-3,$3,$2}'\\ > mrolympia.dat > olymp.dat you@host > cat olymp.dat 2 Titel Land: USA Name: Scott 3 Titel Land: USA Name: Oliva 7 Titel Land: Österreich Name: Schwarzenegger 2 Titel Land: Argentinien Name: Columbu 1 Titel Land: USA Name: Dickerson 1 Titel Land: Libanon Name: Bannout 8 Titel Land: USA Name: Haney 6 Titel Land: Grossbritannien Name: Yates 7 Titel Land: USA Name: Coleman\n\nEs ist aber auch möglich, innerhalb von awk â im Aktionsteil â in eine Datei zu schreiben:\n > you@host > awk '/USA/{ print > \"usa.dat\"}' mrolympia.dat you@host > cat usa.dat USA 1965 1966 USA 1967 1968 1969 USA 1982 USA 1984 1985 1986 1987 1988 1989 1990 1991 USA 1998 1999 2000 2001 2002 2003 2004\n\nIm Beispiel wurden alle Zeilen mit einer Zeichenfolge »USA« in die Datei usa.dat geschrieben. Dies ist zum Beispiel sinnvoll, wenn Sie mehrere Muster-Aktions-Teile verwenden und nicht jede Ausgabe gleich in eine Datei geschrieben werden soll.\n\nUm dem Ganzen die Krone aufzusetzen, folgendes Beispiel:\n > you@host > awk '$3 {print >> $3}' mrolympia.dat\n\nHier schreiben Sie für jedes Land den Inhalt des entsprechenden Eintrags ans Ende einer Datei mit dem entsprechenden Landesnamen. Genauer: Für jedes Land wird eine extra Datei angelegt, worin die einzelnen Teilnehmer immer ans Ende der Datei gehängt werden. Führen Sie das einmal in einer anderen Sprache mit einer Zeile durch.\n > you@host > ls -l -rw------- 1 tot users 37 2005â04â11 15:34 Argentinien -rw------- 1 tot users 58 2005â04â11 15:34 Grossbritannien -rw------- 1 tot users 27 2005â04â11 15:34 Libanon -rw------- 1 tot users 381 2005â04â08 07:32 mrolympia.dat -rw------- 1 tot users 68 2005â04â11 15:34 Österreich -rw------- 1 tot users 191 2005â04â11 15:34 USA you@host > cat Libanon Samir Bannout Libanon 1983 you@host > cat Österreich Arnold Schwarzenegger Österreich 1970 1971 1972 1973 1974 1975\n\nNatürlich können Sie das noch ganz anders erreichen:\n > you@host > awk '$3 {print $2, $1, $3 >> $3}' mrolympia.dat\n\nHier machen Sie das Gleiche, hängen jedoch nur den Inhalt der Felder $2, $3 und $1 an entsprechende Landesdatei. In Verbindung mit einer umfangreichen Datenbank ist das wirklich mächtig. Doch im Prinzip ist das noch gar nichts, awk ist bei richtiger Anwendung zu viel mehr im Stande.\n\nNatürlich können Sie awk auch cat-ähnlich verwenden, um alle Eingaben von der Tastatur in eine Datei zu schreiben:\n > you@host > awk '{print > \"atextfile\"}' Hallo Textdatei Das steht drin (Strg)+(D) you@host > cat atextfile Hallo Textdatei Das steht drin\n\n# 13.4 Muster (bzw. Adressen) von awk-ScriptsÂ\n\n13.4 Muster (bzw. Adressen) von awk-Scripts \n Wie schon bei sed können Sie mit awk Adressen bzw. Muster benennen, die als Suchkriterium angegeben werden. Ein Muster dient auch hier dazu, den Programmfluss von awk zu steuern. Stimmt der Inhalt mit der zu bearbeitenden Zeile mit dem angegebenen Muster überein, wird der entsprechende Aktionsteil ausgeführt. Um solche Muster in awk darzustellen, haben Sie mehrere Möglichkeiten. Welche dies sind und wie Sie diese verwenden können, erfahren Sie in den folgenden Unterabschnitten.\n 13.4.1 Zeichenkettenvergleiche \n Am einfachsten und gleichzeitig auch häufigsten werden Muster bei Zeichenvergleichen eingesetzt. Diese Verwendung sieht folgendermaßen aus:\n you@host > awk '//' Hallo Jürgen Hal Mein Name ist Mein Name ist (Strg)+(D)\n Hier wird nur die Eingabe von der Tastatur wiederholt, wenn in $0 die Textfolge »Jürgen Wolf« enthalten ist. Auf eine Datei wird der Zeichenkettenvergleich ähnlich ausgeführt:\n you@host > awk '/Samir/' mrolympia.dat 1983\n Hier erhält awk die Eingabezeile aus der Datei mrolympia.dat, sucht nach einem Muster und gibt gegebenenfalls die komplette Zeile der Fundstelle auf den Bildschirm aus. Hier fällt außerdem auf, dass awk auch ohne den Aktionsteil und den Befehl print die komplette Zeile auf dem Bildschirm ausgibt. Natürlich werden auch Teil-Textfolgen gefunden, sprich es müssen nicht zwangsläufig ganze Wörter sein:\n you@host > awk '/ie/' mrolympia.dat 1976 1981 1992 1993 1994 1995 1996 1997 USA 1998 1999 2000 2001 2002 2003 2004\n 13.4.2 Vergleichsausdrücke \n awk bietet auch Vergleichsausdrücke in den Mustern an. Hierzu werden die in vielen Programmiersprachen üblichen Vergleichsoperatoren verwendet. Ist ein Vergleichsausdruck (also das Muster) wahr, wird der entsprechende Aktionsteil ausgeführt. In der folgenden Tabelle finden Sie alle Vergleichsoperatoren aufgelistet.\n\n Tabelle 13.3  Vergleichsoperatoren von awk\n\n Operator\n Bedeutung\n Beispiel\n\n <\n Kleiner als\n x < y\n\n <=\n Kleiner als oder gleich\n x <= y\n\n ==\n Gleichheit\n x == y\n\n !=\n Ungleichheit\n x != y\n\n >=\n Größer als oder gleich\n x >= y\n\n >\n Größer als\n x > y\n\n ~\n Mustervergleich\n x ~ /y/\n\n !~\n Negierter Mustervergleich\n x !~ /y/\n\n Ein Vergleichsausdruck lässt sich dabei sowohl auf Zahlen als auch auf Zeichenketten anwenden. Ein Beispiel:\n you@host > awk '$4 > 1990' mrolympia.dat 1992 1993 1994 1995 1996 1997 USA 1998 1999 2000 2001 2002 2003 2004\n Hier geben Sie alle Teilnehmer aus, die Ihren ersten Wettkampf nach 1990 gewonnen haben. Es werden also sämtliche Zeilen ausgegeben, bei denen der Wert des vierten Feldes größer als 1990 ist. Ein weiteres Beispiel:\n you@host > awk '$2 < \"H\"' mrolympia.dat Franco Columbu Argentinien 1976 1981 USA 1982 Libanon 1983 USA 1998 1999 2000 2001 2002 2003 2004\n Hiermit werden alle Werte (Namen) der zweiten Spalte ausgegeben, deren Anfangsbuchstabe kleiner als »H« ist. Gemeint ist hier der ASCII-Wert! »C« ist zum Beispiel kleiner als »H« in der ASCII-Tabelle usw. Natürlich lässt sich dies auch auf eine ganze Zeichenkette anwenden:\n you@host > awk '$1 > \"Dorian\" ' mrolympia.dat Larry Scott USA 1965 1966 USA 1967 1968 1969 Franco Columbu Argentinien 1976 1981 Libanon 1983 Lee Haney USA 1984 1985 1986 1987 1988 1989 1990 1991 Ronnie Coleman USA 1998 1999 2000 2001 2002 2003 2004\n Hier werden alle Vornamen ausgegeben, deren Name im ersten Feld größer als (heißt: nicht länger) der von »Dorian« ist â auch wenn es in diesem Beispiel wenig Sinn macht. Interessant ist auch der Vergleichsoperator für Mustervergleiche, beispielsweise:\n you@host > awk '$3 ~ /USA/ ' mrolympia.dat USA 1965 1966 USA 1967 1968 1969 USA 1982 USA 1984 1985 1986 1987 1988 1989 1990 1991 USA 1998 1999 2000 2001 2002 2003 2004\n Hier werden alle Zeilen selektiert, in denen sich in der dritten Spalte das Muster »USA« befindet. Damit können Sie das exakte Vorkommen eines Musters in der entsprechenden Spalte bestimmen. Natürlich können Sie dies auch negieren (verneinen):\n you@host > awk '$3 !~ /USA/ ' mrolympia.dat ger Österreich 1970 1971 1972 1973 1974 1975 Argentinien 1976 1981 Libanon 1983 britannien 1992 1993 1994 1995 1996 1997\n Jetzt werden alle Zeilen ausgegeben, bei denen sich in der dritten Spalte nicht das Muster »USA« befindet.\n Wissen Sie jetzt zum Beispiel, dass 1988 ein US-Amerikaner den Wettkampf gewonnen hat, aber nicht genau welcher, formulieren Sie dies mit awk folgendermaßen:\n you@host > awk '$3 ~ /USA/ && /1988/' mrolympia.dat USA 1984 1985 1986 1987 1988 1989 1990 1991\n Damit wählen Sie die Zeile(n) aus, bei denen sich in der dritten Spalte das Muster »USA« befindet und irgendwo in der Zeile das Jahr 1988. Hier wurde mit dem && eine logische UND-Verknüpfung vorgenommen, worauf noch in einem extra Abschnitt eingegangen wird.\n Wollen Sie nur die ersten fünf Zeilen einer Datei ausgeben lassen? Nichts ist leichter als das:\n you@host > awk 'NR <=5' mrolympia.dat USA 1965 1966 USA 1967 1968 1969 Österreich 1970 1971 1972 1973 1974 1975 Argentinien 1976 1981 USA 1982\n Wenn Sie jeden Datensatz ausgeben lassen wollen, der weniger als 5 Felder enthält, dann machen Sie dies mit awk so:\n you@host > awk 'NF < 5' mrolympia.dat USA 1982 Libanon 1983\n 13.4.3 Reguläre Ausdrücke \n Natürlich stehen Ihnen auch mit awk wieder die regulären Ausdrücke zur Verfügung, mit denen Sie Ihre Muster formulieren können. Hierzu ein kurzer Überblick zu den Metazeichen und ihren Bedeutungen, die Sie für reguläre Ausdrücke mit awk heranziehen können. Da die regulären Ausdrücke ja bereits einige Mal behandelt wurden, finden Sie hier allerdings nur einen kurzen Überblick, da die meisten Zeichen auch hier ihre bereits bekannte Funktion erfüllen.\n\n Tabelle 13.4  Metazeichen für reguläre Ausdrücke in awk\n\n ^\n Anfang einer Zeile oder Zeichenkette\n\n $\n Ende einer Zeile oder Zeichenkette\n\n .\n Jedes Zeichen außer einem Zeilenumbruch\n\n *\n Null, eines oder mehrere Vorkommen\n\n []\n Ein Zeichen aus der Menge enthalten\n\n [^]\n Kein Zeichen aus der Menge enthalten\n\n re1|re2\n ODER; entweder Muster re1 oder re2 enthalten\n\n re1&re2\n UND; Muster re1 und Muster re2 enthalten\n\n +\n Eines oder mehrere Vorkommen\n\n (ab)+\n Mindestens ein Auftreten der Menge »ab«\n\n ?\n Null oder einmaliges Vorkommen\n\n &\n Enthält das Suchmuster des Ersetzungsstrings\n\n Auch zur Verwendung muss wohl nicht mehr allzu viel geschrieben werden, da Sie ja bereits zuhauf Beispiele in sed gesehen haben. Trotzdem hierzu einige Beispiele mit regulären Ausdrücken.\n you@host > awk '/[0â9]+/ { print $0 \": eine Zahl\" } \\ > /[A-Za-z]+/ { print $0 \": ein Wort\" }' Hallo Hallo: ein Wort 1234 1234: eine Zahl\n Hier können Sie ermitteln, ob es sich bei der Eingabe von der Tastatur um ein Wort oder um eine Zahl handelt. Allerdings funktioniert dieses Script nur so lange, wie es in einer Umgebung eingesetzt wird, in der sich derselbe Zeichensatz befindet wie beim Entwickler. Um hier wirklich Kompatibilität zu erreichen, sollten Sie in einem solchen Fall vordefinierte Zeichenklassen verwenden (siehe Abschnitt 1.10.6, Tabelle 1.5). In der Praxis sollte diese Zeile daher folgendermaßen aussehen:\n you@host > awk '/[[:digit:]]+/ { print $0 \": eine Zahl\" } \\ > /[[:alpha:]]+/ { print $0 \": ein Wort\" }'\n Im Zusammenhang mit den regulären Ausdrücken wird zudem häufig der Match-Operator (~) eingesetzt, womit Sie ermitteln, ob ein bestimmtes Feld in einer Zeile einem bestimmten Muster (regulären Ausdruck) entspricht.\n you@host > awk '$1 ~ /^[A-D]/' mrolympia.dat Österreich 1970 1971 1972 1973 1974 1975 USA 1982 ien 1992 1993 1994 1995 1996 1997\n Hier werden zum Beispiel alle Zeilen ausgegeben, bei denen in der ersten Spalte der erste Buchstabe in der Zeile ein »A«, »B«, »C« oder »D« ist. Das Gegenteil erreichen Sie mit:\n you@host > awk '$1 ~ /^[^A-D]/' mrolympia.dat USA 1965 1966 USA 1967 1968 1969 Argentinien 1976 1981 ...\n Hierbei lässt sich allerdings auch erkennen, dass reguläre Ausdrücke in Verbindung mit awk zum einen sehr leistungsstark sind, aber auch sehr »kryptisch« werden können. Hier zu Rezept-Zwecken einige weitere awk-Beispiele mit regulären Ausdrücken.\n awk '$0 !~ /^$/' datei.dat\n Damit »löschen« Sie alle leeren Zeilen in einer Datei (datei.dat) (»Löschen« trifft die Sache eigentlich nicht genau, vielmehr löscht man die Zeilen nicht in einer Datei, sondern gibt alles, was nicht leer ist, auf dem Bildschirm aus). $0 steht für die komplette Zeile und schließt alle Muster aus (!~), die eine leere Zeile enthalten. ^ steht für den Anfang und $ für das Ende einer Zeile.\n Nächstes Beispiel:\n you@host > awk '$2 ~ /^[CD]/ { print $3 }' mrolympia.dat Argentinien USA USA\n Hier suchen Sie nach allen Zeilen, bei denen sich in der zweiten Spalte ein Wort befindet, das mit den Buchstaben »C« oder »D« beginnt, und geben bei Erfolg das dritte Feld der Zeile aus.\n Noch ein Beispiel:\n you@host > awk '$3 ~ /Argentinien|Libanon/' mrolympia.dat Argentinien 1976 1981 Libanon 1983\n Hier werden alle Zeilen ausgegeben, die in der dritten Spalte die Textfolge »Argentinien« oder »Libanon« enthalten.\n 13.4.4 Zusammengesetzte Ausdrücke \n Es ist ebenso möglich, mehrere Ausdrücke zu einem Ausdruck zusammenzusetzen. Hierzu werden die üblichen Verknüpfungen UND (&&) und ODER (||) zwischen den Ausdrücken verwendet. So gilt bei einer UND-Verknüpfung von zwei Ausdrücken, dass der Aktionsteil bzw. der Ausdruck wahr ist, wenn beide Ausdrücke zutreffen, zum Beispiel:\n you@host > awk '$3 ~ /USA/ && $2 ~ /Dickerson/' mrolympia.dat USA 1982\n Hier wird nur die Zeile ausgegeben, welche die Textfolge »USA« in der dritten Spalte als Ausdruck UND die Textfolge »Dickerson« in der zweiten Spalte enthält. Wird keine Zeile gefunden, die mit beiden Ausdrücken übereinstimmt, wird nichts ausgegeben.\n Auf der anderen Seite können Sie mit einer ODER-Verknüpfung dafür sorgen, dass nur einer der Ausdrücke zutreffen muss:\n you@host > awk '$3 ~ /USA/ || $2 ~ /Yates/' mrolympia.dat USA 1965 1966 USA 1967 1968 1969 USA 1982 USA 1984 1985 1986 1987 1988 1989 1990 1991 annien 1992 1993 1994 1995 1996 1997 USA 1998 1999 2000 2001 2002 2003 2004\n Hierbei werden alle Zeilen ausgegeben, bei denen das Muster »USA« in der dritten Spalte ODER das Muster »Yates« in der zweiten Spalte enthalten ist.\n Natürlich lassen sich mehr als nur zwei Ausdrücke verknüpfen und auch die ODER- bzw. UND-Verknüpfungen mischen. Doch es gilt, nicht zu übertreiben, um den Überblick zu wahren.\n 13.4.5 BEGIN und END \n Mit BEGIN und END haben Sie zwei Muster, die vollkommend unabhängig von der Eingabezeile sind. Man kann sich dies wie bei einer Schleife vorstellen. Alles, was sich vor dem eigentlichen awk-Script noch abspielen soll, können Sie in einen BEGIN-Block schreiben:\n BEGIN { Aktionsteil }\n Hier können Sie bspw. eine Vorverarbeitung für den eigentlichen Hauptteil von awk festlegen. Allerdings ist damit nicht die Vorverarbeitung der Eingabezeile gemeint, da diese zu dem Zeitpunkt, wenn der BEGIN-Block ausgeführt wird, noch gar nicht eingelesen wurde. Der Aktionsteil kann genauso wie schon bei den »normalen« Mustern verwendet werden.\n you@host > awk 'BEGIN { print \"Vorname Name Land\" } > /USA/ { printf \"%-10s %-10s %-5s\\n\", $1, $2, $3 }' \\ > mrolympia.dat Vorname Name Land USA USA USA USA USA\n Wenn der BEGIN-Block vor der Verarbeitung der Eingabezeile ausgeführt wird, werden Sie sich sicherlich wohl denken können, dass sich der END-Block auf die Ausführung nach der Verarbeitung einer Eingabezeile bezieht. Wenn also alle Zeilen im Hauptblock ausgeführt wurden, kann am Ende noch zur Nachbearbeitung ein END-Block angehängt werden. Der END-Block wird ausgeführt, nachdem die letzte Zeile einer Datei abgearbeitet wurde oder bei Eingabe von der Tastatur (Strg)+(D) gedrückt wurde. Hier das Beispiel mit dem BEGIN-Block, erweitert um einen END-Block:\n you@host > awk 'BEGIN { print \"\\nVorname Name Land\" } \\ > /USA/ { printf \"%-10s %-10s %-5s\\n\", $1, $2, $3 } \\ > END { print \"---------Ende------------\" } ' mrolympia.dat Vorname Name Land USA USA USA USA USA ---------Ende------------\n Hier wird zuerst der BEGIN-Block ausgeführt â im Beispiel nichts anderes als eine einfache Ausgabe auf dem Bildschirm. Anschließend werden die einzelnen Zeilen der Datei mrolympia.dat eingelesen und alle Zeilen mit dem Muster »USA« formatiert mit printf ausgegeben. Am Ende wird der END-Block ausgeführt, was hier nur eine einfache Textausgabe auf dem Bildschirm bedeutet. Ein END-Block setzt übrigens in keiner Weise einen BEGIN-Block voraus und kann immer auch nach einem Hauptteil verwendet werden â oder natürlich ganz alleine:\n you@host > awk '{ print } END { print \"Tschüssss...\" }' Hallo Hallo Welt Welt (Strg)+(D) Tschüssss...\n Hier liest awk Zeile für Zeile von der Kommandozeile ein und gibt diese im Hauptblock mit print zurück. Dies geht so lange, bis Sie (Strg)+(D) drücken. Nach dem Beenden mit (Strg)+(D) wird noch der END-Block ausgeführt.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 13.4 Muster (bzw. Adressen) von awk-ScriptsÂ\n\nWie schon bei sed können Sie mit awk Adressen bzw. Muster benennen, die als Suchkriterium angegeben werden. Ein Muster dient auch hier dazu, den Programmfluss von awk zu steuern. Stimmt der Inhalt mit der zu bearbeitenden Zeile mit dem angegebenen Muster überein, wird der entsprechende Aktionsteil ausgeführt. Um solche Muster in awk darzustellen, haben Sie mehrere Möglichkeiten. Welche dies sind und wie Sie diese verwenden können, erfahren Sie in den folgenden Unterabschnitten.\n\n### 13.4.1 ZeichenkettenvergleicheÂ\n\nAm einfachsten und gleichzeitig auch häufigsten werden Muster bei Zeichenvergleichen eingesetzt. Diese Verwendung sieht folgendermaßen aus:\n > you@host > awk '//' Hallo Jürgen Hal Mein Name ist Mein Name ist (Strg)+(D)\n\nHier wird nur die Eingabe von der Tastatur wiederholt, wenn in $0 die Textfolge »Jürgen Wolf« enthalten ist. Auf eine Datei wird der Zeichenkettenvergleich ähnlich ausgeführt:\n > you@host > awk '/Samir/' mrolympia.dat 1983\n\nHier erhält awk die Eingabezeile aus der Datei mrolympia.dat, sucht nach einem Muster und gibt gegebenenfalls die komplette Zeile der Fundstelle auf den Bildschirm aus. Hier fällt außerdem auf, dass awk auch ohne den Aktionsteil und den Befehl print die komplette Zeile auf dem Bildschirm ausgibt. Natürlich werden auch Teil-Textfolgen gefunden, sprich es müssen nicht zwangsläufig ganze Wörter sein:\n > you@host > awk '/ie/' mrolympia.dat Argentinien 1976 1981 1992 1993 1994 1995 1996 1997 USA 1998 1999 2000 2001 2002 2003 2004\n\n### 13.4.2 VergleichsausdrückeÂ\n\nawk bietet auch Vergleichsausdrücke in den Mustern an. Hierzu werden die in vielen Programmiersprachen üblichen Vergleichsoperatoren verwendet. Ist ein Vergleichsausdruck (also das Muster) wahr, wird der entsprechende Aktionsteil ausgeführt. In der folgenden Tabelle finden Sie alle Vergleichsoperatoren aufgelistet.\n\nOperator | Bedeutung | Beispiel |\n | --- | --- | --- |\n< | Kleiner als | x < y |\n<= | Kleiner als oder gleich | x <= y |\n== | Gleichheit | x == y |\n!= | Ungleichheit | x != y |\n>= | Größer als oder gleich | x >= y |\n> | Größer als | x > y |\n~ | Mustervergleich | x ~ /y/ |\n!~ | Negierter Mustervergleich | x !~ /y/ |\n\nEin Vergleichsausdruck lässt sich dabei sowohl auf Zahlen als auch auf Zeichenketten anwenden. Ein Beispiel:\n > you@host > awk '$4 > 1990' mrolympia.dat 1992 1993 1994 1995 1996 1997 USA 1998 1999 2000 2001 2002 2003 2004\n\nHier geben Sie alle Teilnehmer aus, die Ihren ersten Wettkampf nach 1990 gewonnen haben. Es werden also sämtliche Zeilen ausgegeben, bei denen der Wert des vierten Feldes größer als 1990 ist. Ein weiteres Beispiel:\n > you@host > awk '$2 < \"H\"' mrolympia.dat Franco Columbu Argentinien 1976 1981 USA 1982 Libanon 1983 Ronnie Coleman USA 1998 1999 2000 2001 2002 2003 2004\n\nHiermit werden alle Werte (Namen) der zweiten Spalte ausgegeben, deren Anfangsbuchstabe kleiner als »H« ist. Gemeint ist hier der ASCII-Wert! »C« ist zum Beispiel kleiner als »H« in der ASCII-Tabelle usw. Natürlich lässt sich dies auch auf eine ganze Zeichenkette anwenden:\n > you@host > awk '$1 > \"Dorian\" ' mrolympia.dat Larry Scott USA 1965 1966 Sergio Oliva USA 1967 1968 1969 Franco Columbu Argentinien 1976 1981 Libanon 1983 Lee Haney USA 1984 1985 1986 1987 1988 1989 1990 1991 Ronnie Coleman USA 1998 1999 2000 2001 2002 2003 2004\n\nHier werden alle Vornamen ausgegeben, deren Name im ersten Feld größer als (heißt: nicht länger) der von »Dorian« ist â auch wenn es in diesem Beispiel wenig Sinn macht. Interessant ist auch der Vergleichsoperator für Mustervergleiche, beispielsweise:\n > you@host > awk '$3 ~ /USA/ ' mrolympia.dat Larry Scott USA 1965 1966 Sergio Oliva USA 1967 1968 1969 USA 1982 USA 1984 1985 1986 1987 1988 1989 1990 1991 USA 1998 1999 2000 2001 2002 2003 2004\n\nHier werden alle Zeilen selektiert, in denen sich in der dritten Spalte das Muster »USA« befindet. Damit können Sie das exakte Vorkommen eines Musters in der entsprechenden Spalte bestimmen. Natürlich können Sie dies auch negieren (verneinen):\n > you@host > awk '$3 !~ /USA/ ' mrolympia.dat Österreich 1970 1971 1972 1973 1974 1975 Argentinien 1976 1981 1983 1992 1993 1994 1995 1996 1997\n\nWissen Sie jetzt zum Beispiel, dass 1988 ein US-Amerikaner den Wettkampf gewonnen hat, aber nicht genau welcher, formulieren Sie dies mit awk folgendermaßen:\n > you@host > awk '$3 ~ /USA/ && /1988/' mrolympia.dat USA 1984 1985 1986 1987 1988 1989 1990 1991\n\nDamit wählen Sie die Zeile(n) aus, bei denen sich in der dritten Spalte das Muster »USA« befindet und irgendwo in der Zeile das Jahr 1988. Hier wurde mit dem && eine logische UND-Verknüpfung vorgenommen, worauf noch in einem extra Abschnitt eingegangen wird.\n\nWollen Sie nur die ersten fünf Zeilen einer Datei ausgeben lassen? Nichts ist leichter als das:\n > you@host > awk 'NR <=5' mrolympia.dat USA 1965 1966 USA 1967 1968 1969 Österreich 1970 1971 1972 1973 1974 1975 Argentinien 1976 1981 USA 1982\n\nWenn Sie jeden Datensatz ausgeben lassen wollen, der weniger als 5 Felder enthält, dann machen Sie dies mit awk so:\n > you@host > awk 'NF < 5' mrolympia.dat USA 1982 Libanon 1983\n\n### 13.4.3 Reguläre AusdrückeÂ\n\nNatürlich stehen Ihnen auch mit awk wieder die regulären Ausdrücke zur Verfügung, mit denen Sie Ihre Muster formulieren können. Hierzu ein kurzer Überblick zu den Metazeichen und ihren Bedeutungen, die Sie für reguläre Ausdrücke mit awk heranziehen können. Da die regulären Ausdrücke ja bereits einige Mal behandelt wurden, finden Sie hier allerdings nur einen kurzen Überblick, da die meisten Zeichen auch hier ihre bereits bekannte Funktion erfüllen.\n\nZeichen | Bedeutung |\n | --- | --- |\n^ | Anfang einer Zeile oder Zeichenkette |\n$ | Ende einer Zeile oder Zeichenkette |\n. | Jedes Zeichen außer einem Zeilenumbruch |\n* | Null, eines oder mehrere Vorkommen |\n[] | Ein Zeichen aus der Menge enthalten |\n[^] | Kein Zeichen aus der Menge enthalten |\nre1|re2 | ODER; entweder Muster re1 oder re2 enthalten |\nre1&re2 | UND; Muster re1 und Muster re2 enthalten |\n+ | Eines oder mehrere Vorkommen |\n(ab)+ | Mindestens ein Auftreten der Menge »ab« |\n? | Null oder einmaliges Vorkommen |\n& | Enthält das Suchmuster des Ersetzungsstrings |\n\nAuch zur Verwendung muss wohl nicht mehr allzu viel geschrieben werden, da Sie ja bereits zuhauf Beispiele in sed gesehen haben. Trotzdem hierzu einige Beispiele mit regulären Ausdrücken.\n > you@host > awk '/[0â9]+/ { print $0 \": eine Zahl\" } \\ > /[A-Za-z]+/ { print $0 \": ein Wort\" }' Hallo Hallo: ein Wort 1234 1234: eine Zahl\n\nHier können Sie ermitteln, ob es sich bei der Eingabe von der Tastatur um ein Wort oder um eine Zahl handelt. Allerdings funktioniert dieses Script nur so lange, wie es in einer Umgebung eingesetzt wird, in der sich derselbe Zeichensatz befindet wie beim Entwickler. Um hier wirklich Kompatibilität zu erreichen, sollten Sie in einem solchen Fall vordefinierte Zeichenklassen verwenden (siehe Abschnitt 1.10.6, Tabelle 1.5). In der Praxis sollte diese Zeile daher folgendermaßen aussehen:\n > you@host > awk '/[[:digit:]]+/ { print $0 \": eine Zahl\" } \\ > /[[:alpha:]]+/ { print $0 \": ein Wort\" }'\n\nIm Zusammenhang mit den regulären Ausdrücken wird zudem häufig der Match-Operator (~) eingesetzt, womit Sie ermitteln, ob ein bestimmtes Feld in einer Zeile einem bestimmten Muster (regulären Ausdruck) entspricht.\n > you@host > awk '$1 ~ /^[A-D]/' mrolympia.dat Österreich 1970 1971 1972 1973 1974 1975 USA 1982 ien 1992 1993 1994 1995 1996 1997\n\nHier werden zum Beispiel alle Zeilen ausgegeben, bei denen in der ersten Spalte der erste Buchstabe in der Zeile ein »A«, »B«, »C« oder »D« ist. Das Gegenteil erreichen Sie mit:\n > you@host > awk '$1 ~ /^[^A-D]/' mrolympia.dat USA 1965 1966 USA 1967 1968 1969 Franco Columbu Argentinien 1976 1981 ...\n\nHierbei lässt sich allerdings auch erkennen, dass reguläre Ausdrücke in Verbindung mit awk zum einen sehr leistungsstark sind, aber auch sehr »kryptisch« werden können. Hier zu Rezept-Zwecken einige weitere awk-Beispiele mit regulären Ausdrücken.\n > awk '$0 !~ /^$/' datei.dat\n\nDamit »löschen« Sie alle leeren Zeilen in einer Datei (datei.dat) (»Löschen« trifft die Sache eigentlich nicht genau, vielmehr löscht man die Zeilen nicht in einer Datei, sondern gibt alles, was nicht leer ist, auf dem Bildschirm aus). $0 steht für die komplette Zeile und schließt alle Muster aus (!~), die eine leere Zeile enthalten. ^ steht für den Anfang und $ für das Ende einer Zeile.\n\nNächstes Beispiel:\n > you@host > awk '$2 ~ /^[CD]/ { print $3 }' mrolympia.dat Argentinien USA USA\n\nHier suchen Sie nach allen Zeilen, bei denen sich in der zweiten Spalte ein Wort befindet, das mit den Buchstaben »C« oder »D« beginnt, und geben bei Erfolg das dritte Feld der Zeile aus.\n\nNoch ein Beispiel:\n > you@host > awk '$3 ~ /Argentinien|Libanon/' mrolympia.dat Argentinien 1976 1981 Libanon 1983\n\nHier werden alle Zeilen ausgegeben, die in der dritten Spalte die Textfolge »Argentinien« oder »Libanon« enthalten.\n\n### 13.4.4 Zusammengesetzte AusdrückeÂ\n\nEs ist ebenso möglich, mehrere Ausdrücke zu einem Ausdruck zusammenzusetzen. Hierzu werden die üblichen Verknüpfungen UND (&&) und ODER (||) zwischen den Ausdrücken verwendet. So gilt bei einer UND-Verknüpfung von zwei Ausdrücken, dass der Aktionsteil bzw. der Ausdruck wahr ist, wenn beide Ausdrücke zutreffen, zum Beispiel:\n > you@host > awk '$3 ~ /USA/ && $2 ~ /Dickerson/' mrolympia.dat USA 1982\n\nHier wird nur die Zeile ausgegeben, welche die Textfolge »USA« in der dritten Spalte als Ausdruck UND die Textfolge »Dickerson« in der zweiten Spalte enthält. Wird keine Zeile gefunden, die mit beiden Ausdrücken übereinstimmt, wird nichts ausgegeben.\n\nAuf der anderen Seite können Sie mit einer ODER-Verknüpfung dafür sorgen, dass nur einer der Ausdrücke zutreffen muss:\n > you@host > awk '$3 ~ /USA/ || $2 ~ /Yates/' mrolympia.dat USA 1965 1966 USA 1967 1968 1969 USA 1982 USA 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 USA 1998 1999 2000 2001 2002 2003 2004\n\nNatürlich lassen sich mehr als nur zwei Ausdrücke verknüpfen und auch die ODER- bzw. UND-Verknüpfungen mischen. Doch es gilt, nicht zu übertreiben, um den Überblick zu wahren.\n\n### 13.4.5 BEGIN und ENDÂ\n\nMit BEGIN und END haben Sie zwei Muster, die vollkommend unabhängig von der Eingabezeile sind. Man kann sich dies wie bei einer Schleife vorstellen. Alles, was sich vor dem eigentlichen awk-Script noch abspielen soll, können Sie in einen BEGIN-Block schreiben:\n > BEGIN { Aktionsteil }\n\nHier können Sie bspw. eine Vorverarbeitung für den eigentlichen Hauptteil von awk festlegen. Allerdings ist damit nicht die Vorverarbeitung der Eingabezeile gemeint, da diese zu dem Zeitpunkt, wenn der BEGIN-Block ausgeführt wird, noch gar nicht eingelesen wurde. Der Aktionsteil kann genauso wie schon bei den »normalen« Mustern verwendet werden.\n > you@host > awk 'BEGIN { print \"Vorname Name Land\" } > /USA/ { printf \"%-10s %-10s %-5s\\n\", $1, $2, $3 }' \\ > mrolympia.dat Vorname Name Land Larry Scott USA USA USA USA Ronnie Coleman USA\n\nWenn der BEGIN-Block vor der Verarbeitung der Eingabezeile ausgeführt wird, werden Sie sich sicherlich wohl denken können, dass sich der END-Block auf die Ausführung nach der Verarbeitung einer Eingabezeile bezieht. Wenn also alle Zeilen im Hauptblock ausgeführt wurden, kann am Ende noch zur Nachbearbeitung ein END-Block angehängt werden. Der END-Block wird ausgeführt, nachdem die letzte Zeile einer Datei abgearbeitet wurde oder bei Eingabe von der Tastatur (Strg)+(D) gedrückt wurde. Hier das Beispiel mit dem BEGIN-Block, erweitert um einen END-Block:\n > you@host > awk 'BEGIN { print \"\\nVorname Name Land\" } \\ > /USA/ { printf \"%-10s %-10s %-5s\\n\", $1, $2, $3 } \\ > END { print \"---------Ende------------\" } ' mrolympia.dat Vorname Name Land Larry Scott USA USA USA USA Ronnie Coleman USA ---------Ende------------\n\nHier wird zuerst der BEGIN-Block ausgeführt â im Beispiel nichts anderes als eine einfache Ausgabe auf dem Bildschirm. Anschließend werden die einzelnen Zeilen der Datei mrolympia.dat eingelesen und alle Zeilen mit dem Muster »USA« formatiert mit printf ausgegeben. Am Ende wird der END-Block ausgeführt, was hier nur eine einfache Textausgabe auf dem Bildschirm bedeutet. Ein END-Block setzt übrigens in keiner Weise einen BEGIN-Block voraus und kann immer auch nach einem Hauptteil verwendet werden â oder natürlich ganz alleine:\n > you@host > awk '{ print } END { print \"Tschüssss...\" }' Hallo Hallo Welt Welt (Strg)+(D) Tschüssss...\n\nHier liest awk Zeile für Zeile von der Kommandozeile ein und gibt diese im Hauptblock mit print zurück. Dies geht so lange, bis Sie (Strg)+(D) drücken. Nach dem Beenden mit (Strg)+(D) wird noch der END-Block ausgeführt.\n\n# 13.5 Die Komponenten von awk-ScriptsÂ\n\n13.5 Die Komponenten von awk-Scripts \n Die Verwendung von awk wurde bisher vorwiegend mit Einzeilern demonstriert, was häufig für den Hausgebrauch in Shellscripts ausreicht. So haben Sie die Mächtigkeit von awk schon näher kennen gelernt. Allerdings wurde bereits erwähnt, dass awk eher eine Programmiersprache als ein Tool ist, weshalb hier nun näher auf die Eigenheiten von awk als Programmiersprache eingegangen werden soll. Natürlich können Sie die awk-Scripts auch in Ihren Shellscripts einsetzen, womit Sie sich bedeutendes Know-how aneignen und sich gern als Guru bezeichnen dürfen.\n Gewöhnlich verwendet man beim Erstellen eigener awk-Scripts das Verfahren mit der She-Bang-Zeile (#!) in der ersten Zeile:\n #!/usr/bin/awk -f\n Kommentare können Sie in gleicher Weise â wie schon bei den Shellscripts â mit # kennzeichnen.\n #!/usr/bin/awk -f # # Programmname: programmname.awk # Erstellt : J.Wolf # Datum : ... # ...\n Eine Dateiendung ist genauso unnötig wie in Shellscripts. Trotzdem wird hierbei relativ häufig die Endung ».awk« verwendet, damit der Anwender weiß, worum es sich bei diesem Script handelt. Man kann die Aktionen in einem awk-Script in einer Zeile schreiben, wobei hier dann jede Aktion durch ein Semikolon getrennt werden muss:\n # Anfang Haupt-Aktionsteil eines awk-Scripts { aktion ; aktion ; aktion } # Ende Haupt-Aktionsteil eines awk-Scripts\n Oder aber, was empfehlenswerter ist, man schreibt jede Aktion in eine extra Zeile:\n # Anfang Haupt-Aktionsteil eines awk-Scripts { aktion aktion aktion } # Ende Haupt-Aktionsteil eines awk-Scripts\n 13.5.1 Variablen \n Neben den dynamisch angelegten Feldvariablen stehen Ihnen in awk auch benutzerdefinierte Variablen zur Verfügung. Die Variablen werden mit derselben Syntax wie schon in der Shell definiert und behandelt. Bei der Verwendung wird jedoch vor die Variable kein Dollarzeichen ($) gestellt, weil dieses Zeichen für die einzelnen Felder (bzw. Wörter) reserviert ist. Zahlen können Sie ohne weitere Vorkehrungen übergeben:\n # val1 mit dem Wert 1234 definieren val1=1234 # val2 mit dem Wert 1234.1234 definieren val2=1234.1234\n Zeichenketten müssen Sie allerdings zwischen doppelte Hochkommata schreiben:\n # string1 mit einer Zeichenkette belegen string1=\"Ich bin ein String\"\n Machen Sie dies nicht wie im folgenden Beispiel\n string2=teststring\n weist awk der Variablen »string2« nicht die Zeichenkette »teststring« zu, sondern die Variable »teststring« â was allerdings hier keinen Fehler auslöst, da auch hier, wie schon in der Shell, nicht definierte Werte automatisch mit 0 bzw. \"\" vorbelegt sind. Ein einfaches Beispiel, in dem die Anzahl der Zeilen einer Datei hochgezählt wird, die Sie als Argumente in der Kommandozeile mit angeben:\n #!/usr/bin/awk -f # # Programmname: countline.awk BEGIN { count=0 } # Haupt-Aktionsteil { count++ } END { printf \"Anzahl Zeilen : %d\\n\" count }\n Das Script bei der Ausführung:\n you@host > chmod u+x countline.awk you@host > ./countline.awk countline.awk Anzahl Zeilen : 15\n Zwar lässt sich dieses Beispiel einfacher mit der Variablen NR ausführen, aber hier geht es um die Demonstration von Variablen. Zuerst wird der BEGIN-Block ausgeführt, in dem die Variable »count« mit dem Wert 0 definiert wurde. Variablen, die Sie mit dem Wert 0 vorbelegen, könnten Sie sich sparen, da diese bei der ersten Verwendung automatisch mit 0 (bzw. \"\"; abhängig vom Kontext) definiert würden. Allerdings ist es hilfreich, eine solche Variable trotzdem im BEGIN-Block zu definieren â der Übersichtlichkeit zuliebe.\n Im Haupt-Aktionsteil wird nur der Wert der Variablen »count« um 1 inkrementiert (erhöht). Hierzu wird der Inkrement-Operator (++) in der Postfix-Schreibweise verwendet. Wurden alle Zeilen der als erstes Argument angegebenen Datei durchlaufen (wo jeweils pro Zeile der Haupt-Aktionsteil aktiv war), wird der END-Block ausgeführt und gibt die Anzahl der Zeilen aus. Hier kann übrigens durchaus mehr als nur eine Datei in der Kommandozeile angegeben werden:\n you@host > ./countline.awk countline.awk mrolympia.dat Anzahl Zeilen : 25\n Das awk-Script können Sie übrigens auch wie ein wc âl benutzen. Beispiel:\n you@host > ls -l | wc -l 26 you@host > ls -l | ./counterline.awk Anzahl Zeilen : 26\n Aber wie bereits erwähnt, Sie können dieses Script mit der Variablen NR erheblich abkürzen, und zwar bis auf den END-Block:\n #!/usr/bin/awk -f # # Programmname: countline2.awk END { printf \"Anzahl Zeilen : %d\\n\", NR }\n Kommandozeilen-Argumente\n Für die Argumente aus der Kommandozeile stehen Ihnen ähnlich wie in C die beiden Variablen ARGC und ARGV zur Verfügung. ARGC (ARGument Counter) enthält immer die Anzahl der Argumente in der Kommandozeile (inklusive) dem Programmnamen awk (!) und ARGV (ARGumenten Vector) ist ein Array, worin sich die einzelnen Argumente der Kommandozeile befinden (allerdings ohne Optionen von awk). Hierzu nochmals ein Script, welches die Anzahl der Argumente und jedes einzelne davon ausgibt (im Beispiel wurde die for-Schleife vorgezogen, die gleich näher beschrieben wird).\n #!/usr/bin/awk -f # # Programmname: countarg.awk BEGIN { print \"Anzahl Argumente in ARGC : \" , ARGC # einzelne Argumente durchlaufen for(i=0; i < ARGC; i++) printf \"ARGV[%d] = %s\\n\", i, ARGV[i] }\n Das Script bei der Ausführung:\n you@host > ./countarg.awk eine Zeile mit vielen Argumenten Anzahl Argumente in ARGC : 6 ARGV[0] = awk ARGV[1] = eine ARGV[2] = Zeile ARGV[3] = mit ARGV[4] = vielen ARGV[5] = Argumenten\n Vordefinierte Variablen\n In awk existiert eine interessante Auswahl von vordefinierten Variablen, wovon Sie ja bereits mit NR, NF, ARGC, ARGV, FS, $0, $1 ... schon einige kennen gelernt haben. In der folgenden Tabelle finden Sie einen kurzen Überblick zu den vordefinierte Variablen sowie ein kurze Beschreibung ihrer Funktionen.\n\n Tabelle 13.5  Vordefinierte Variablen in awk\n\n ARGC\n Anzahl der Argumente aus der Kommanodzeile (+1)\n\n ARGV\n Array mit dem Inhalt der Kommandozeilen-Argumente\n\n ENVIRON\n Enthält ein Array mit allen momentanen Umgebungsvariablen\n\n FILENAME\n Name der aktuellen Eingabedatei. Bei einer Eingabe von der Tastatur steht hier der Wert 'â'.\n\n FNR\n Zeilennummer der Eingabe aus der aktuellen Datei\n\n FS\n Das oder die Trennzeichen für die Zerlegung der Eingabezeile. Standardmäßig befindet sich hier das Leerzeichen.\n\n NF\n Anzahl der Felder der aktuellen Zeile. Felder werden anhand von FS getrennt.\n\n NR\n Anzahl der bisher eingelesenen Zeilen\n\n OFMT\n Ausgabeformat für Fließkommazahlen\n\n OFS\n Ausgabetrennzeichen für einzelne Felder; auch hier standardmäßig das Leerzeichen\n\n ORS\n Das Ausgabetrennzeichen für neue Datensätze (Zeilen). Standardmäßig wird hierbei das Newline-Zeichen verwendet.\n\n RLENGTH\n Gibt im Zusammenhang mit der Funktion match die Länge der übereinstimmenden Teilzeichenkette an\n\n RS\n Das Eingabetrennzeichen für neue Datensätze (Zeilen), standardmäßig das Newline-Zeichen\n\n RSTART\n Gibt im Zusammenhang mit der Zeichenkettenfunktion match den Index des Beginns der übereinstimmenden Teilzeichenkette an\n\n SUBSEP\n Das Zeichen, das in Arrays die einzelnen Elemente trennt (\\034)\n\n $0\n Enthält immer den kompletten Datensatz (Eingabezeile)\n\n $1, $2, ...\n Die einzelnen Felder (Worte) der Eingabezeile, die nach dem Trennzeichen in der Variablen FS getrennt wurden\n\n Hierzu ein einfaches Beispiel, das einige der vordefinierten Variablen demonstrieren soll:\n #!/usr/bin/awk -f # # Programmname: vars.awk BEGIN { count=0 # Ausgabetrennzeichen: Minuszeichen OFS=\"-\" } /USA/ { print $1, $2, $3 count++ } END { printf \"%d Ergebnisse (von %d Zeilen) gefunden in %s\\n\", count, NR, FILENAME printf \"Datei %s befindet sich in %s\\n\", FILENAME, ENVIRON[\"PWD\"] }\n Das Script bei der Ausführung:\n you@host > ./vars.awk mrolympia.dat Larry-Scott-USA Sergio-Oliva-USA Chris-Dickerson-USA Lee-Haney-USA Ronnie-Coleman-USA 5 Ergebnisse (von 9 Zeilen) gefunden in mrolympia.dat Datei mrolympia.dat befindet sich in /home/you\n 13.5.2 Arrays \n Arrays stehen Ihnen in awk gleich in zweierlei Formen zur Verfügung, zum einen die »gewöhnlichen« Arrays und zum anderen assoziative Arrays. Die »normalen« Arrays werden genauso verwendet, wie Sie dies schon in Abschnitt 2.5 bei der Shell-Programmierung gesehen haben. Verwenden können Sie die Arrays wie gewöhnliche Variablen, nur benötigen Sie hier den Indexwert (eine Ganzzahl), um auf die einzelnen Elemente zuzugreifen. Ein einfaches Script zur Demonstration:\n #!/usr/bin/awk -f # # Programmname: playarray.awk { # komplette Zeile in das Array mit dem Index NR ablegen line[NR]=$0 # Anzahl der Felder (Wörter) in das Array # fields mit dem Index NR ablegen fields[NR]=NF } END { for(i=1; i <=NR; i++) { printf \"Zeile %2d hat %2d Felder:\\n\", i, fields[i] print line[i] } }\n Das Script bei der Ausführung:\n you@host > ./playarray.awk mrolympia.dat Zeile 1 hat 5 Felder: USA 1965 1966 Zeile 2 hat 6 Felder: USA 1967 1968 1969 ... Zeile 9 hat 10 Felder: USA 1998 1999 2000 2001 2002 2003 2004\n Hier wurden im Haupt-Aktionsteil die einzelnen Zeilen im Array »line« gespeichert. Als Indexnummer wird hier die vordefinierte Variable NR verwendet. Ebenfalls wurde die Anzahl von Feldern (Wörtern) dieser Zeile in einem extra Array (»fields«) gespeichert.\n Neben den »gewöhnlichen« Arrays kennt awk auch noch assoziative Arrays. Dies sind Arrays, die neben Zahlen als Indexwert auch Zeichenketten zulassen. Somit sind folgende Werteübergaben möglich:\n array[\"Wolf\"]=10 array[\"ION\"]=1234 array[\"WION\"] = array[\"Wolf\"] array[\"GESAMT\"] = array[\"Wolf\"] + array[\"ION\"]\n Diese Variante der Arrays zu verwenden, ist wirklich außergewöhnlich. Allerdings stellen Sie sich sicherlich zunächst die Frage, wie kommt man wieder an die einzelnen Werte, also welchen Index verwendet man hierzu? Zum einen haben Sie natürlich die Möglichkeit, auf die einzelnen Werte zuzugreifen, wenn Sie das [\"Wort\"] des Indexwertes kennen. Aber wenn Sie nicht vorhersehen können, welche Worte hier stehen, hilft Ihnen eine spezielle, zum Arbeiten mit assoziativen Arrays gedachte Variante der for-Schleife:\n for (indexwort in array)\n Mit diesem Konstrukt wird das komplette assoziative Array durchlaufen. Und was eignet sich besser zur Demonstration von assoziativen Arrays als das Zählen von Wörtern einer Datei bzw. Eingabe?\n #!/usr/bin/awk -f # # Programmname: countwords.awk { # Durchläuft alle Felder einer Zeile for(f=1; f <= NF; ++f) field[$f]++ } END { for(word in field) print word, field[word] }\n Das Script bei der Ausführung:\n you@host > ./countwords.awk mrolympia.dat Dorian 1 2000 1 2001 1 USA 5 ...\n Im Beispiel durchlaufen wir mit einer for-Schleife die komplette Zeile anhand der einzelnen Felder (NF). Jedes Wort wird hier als Wortindex für ein Array benutzt und inkrementiert (um eins erhöht). Existiert ein solcher Index noch nicht, wird dieser neu erzeugt und um den Wert eins erhöht. Existiert bereits ein entsprechender »Wortindex«, so wird nur die Speicherstelle zum zugehörigen Wort um eins erhöht. Im END-Block wird dann das spezielle for-Konstrukt der assoziativen Arrays für die Ausgabe verwendet. Dabei wird zuerst der Indexname (also das Wort selber) und dann dessen Häufigkeit ausgegeben.\n Die Zuweisung von Werten eines Arrays ist etwas umständlich, da die Werte häufig einzeln übergeben werden müssen. Einfacher gelingt dies mit der Funktion split. split zerlegt ein Array automatisch in die einzelnen Bestandteile (anhand der Variablen FS). Ein Beispiel:\n #!/usr/bin/awk -f # # Programmname: splitting.awk /Coleman/ { # Durchläuft alle Felder einer Zeile split($0, field) } END { for(word in field) print field[word] }\n Das Script bei der Ausführung:\n you@host > ./splitting.awk mrolympia.dat 1998 1999 2000 2001 2002 2003 2004 USA\n Hier wird die Zeile mit der Textfolge »Coleman« in die einzelnen Bestandteile zerlegt und an das assoziative Array »field« übergeben. Sofern Sie ein anderes Zeichen zur Trennung verwenden wollen, müssen Sie die vordefinierte Variable FS entsprechend anpassen.\n 13.5.3 Operatoren \n Im Großen und Ganzen werden Sie in diesem Kapitel nicht viel Neues erfahren, da Operatoren meistens in allen Programmiersprachen dieselbe Bedeutung haben. Trotzdem stellt sich hierbei zunächst die Frage, wie awk einen Wert einer Variablen oder Konstante typisiert. In der Regel versucht awk, bei einer Berechnung beispielsweise die Typen aneinander anzupassen. Somit hängt der Typ eines Ausdrucks vom Kontext der Benutzung ab. So kann ein String \"100\" einmal als String verwendet werden und ein anderes Mal als die Zahl 100. Zum Beispiel stellt\n print \"100\"\n eine Ausgabe einer Zeichenkette dar. Hingegen wird\n print \"100\"+0\n als Zahl präsentiert â auch wenn jeweils immer »nur« 100 ausgegeben wird. Man spricht hierbei vom Erzwingen eines numerischen bzw. String-Kontexts.\n Einen numerischen Kontext können Sie erzwingen, wenn der Typ des Ergebnisses eine Zahl ist. Befindet sich ein String in der Berechnung, wird dieser in eine Zahl umgewandelt. Ein Beispiel:\n print \"100Wert\"+10\n Hier ist das Ergebnis der Ausgabe 110 â das Suffix »Wert« wird ignoriert. Würde sich hier ein ungültiger Wert befinden, so wird dieser in 0 umgewandelt:\n print \"Wert\"+10\n Als Ergebnis würden Sie den Wert 10 zurückbekommen.\n Einen String-Kontext erzwingen Sie, wenn der Typ des Ergebnisses ein String ist. Somit könnten Sie z. B. eine Zahl in einen String umwandeln, wenn Sie etwa eine »Konkatenation« (Anhängen mehrere Zeichenketten) vornehmen oder Vergleichsoperatoren einen String erwarten.\n Leider ist es nicht immer so eindeutig, ob ein String als fester String oder als eine Zahl repräsentiert wird. So würde beispielsweise folgender Vergleich fehlschlagen:\n if( 100==\"00100\" ) ...\n Und zwar deshalb, weil hier die Regel in Kraft tritt: Sobald eines der Argumente ein String ist, wird auch das andere Argument als String behandelt. Daher würden Sie hier folgenden Vergleich durchführen:\n if ( \"100\"==\"00100\" ) ...\n Anders hingegen sieht dies aus, wenn Sie z. B. eine Feldvariable (bspw. $1) mit dem Wert »00100« vergleichen würden:\n if (100==$1) ...\n Hier würde der Vergleich »wahr« zurückgeben. Wie dem auch sei, Sie sehen, dass es hier zu einigen Ungereimtheiten kommen kann. Zwar könnte ich Ihnen jetzt eine Liste anführen, in welchem Fall ein String als numerischer und wann als nicht numerischer String behandelt wird. Allerdings ist es mühsam, sich dies zu merken, weshalb man â sofern man Strings mit Zahlen vermischt â hier auf Nummer sicher gehen und die Umwandlung in eine Zahl bzw. in einen String selbst vornehmen sollte. Eine erzwungene Umwandlung eines Strings können Sie wie folgt durchführen:\n variable = variable \"\"\n Jetzt können Sie sicher sein, dass »variable« ein String ist. Wollen Sie hingegen, dass »variable« eine Zahl ist, so können Sie diese Umwandlung wie folgt erzwingen:\n variable = variable + 0\n Hiermit haben Sie in »variable« immer eine Zahl. Befindet sich in Variable ein sinnloser Wert, so wird durch die erzwungene Umwandlung eben der Wert 0 aus der Variablen. Zugegeben, viel Theorie, aber sie ist erforderlich, um auch zu den gewünschten Ergebnissen zu kommen.\n Arithmetische Operatoren\n Hier finden Sie ebenfalls wieder die üblichen arithmetischen Operatoren, wie in anderen Programmiersprachen auch. Ebenso existieren hier die kombinierten Zuweisungen, mit denen Sie Berechnungen wie »var=var+5« durch »var+=5« abkürzen können. Hier eine Tabelle mit allen arithmetischen Operatoren in awk:\n\n Tabelle 13.6  Arithmetische Operatoren\n\n +\n Addition\n\n â\n Subtraktion\n\n *\n Multiplikation\n\n /\n Division\n\n %\n Modulo (Rest einer Division)\n\n ^\n Exponentation bspw. x^y ist x hoch y\n\n +=\n Abkürzung für var=var+x gleichwertig zu var+=x\n\n â=\n Abkürzung für var=varâx gleichwertig zu varâ=x\n\n *=\n Abkürzung für var=var*x gleichwertig zu var*=x\n\n /=\n Abkürzung für var=var/x gleichwertig zu var/=x\n\n %=\n Abkürzung für var=var%x gleichwertig zu var%=x\n\n ^=\n Abkürzung für var=var^x gleichwertig zu var^=x\n\n Ein einfaches Beispiel:\n #!/usr/bin/awk -f # # Programmname: countfields.awk { field[FILENAME]+=NF } END { for(word in field) print \"Anzahl Felder in \" word \" : \" field[word] }\n Das Script bei der Ausführung:\n you@ghost > ./countfields.awk mrolympia.dat USA.dat Argentinien Anzahl Felder in Argentinien : 5 Anzahl Felder in USA.dat : 15 Anzahl Felder in mrolympia.dat : 64\n In diesem Beispiel werden alle Felder einer Datei gezählt. Da wir nicht wissen können, wie viele Dateien der Anwender in der Kommandozeile eingibt, verwenden wir gleich ein assoziatives Array mit dem entsprechenden Dateinamen als Feldindex.\n Logische Operatoren\n Die logischen Operatoren wurden bereits verwendet. Hier haben Sie die Möglichkeit einer logischen UND- und einer logischen ODER-Verknüpfung. Das Prinzip der beiden Operatoren wurde schon bei der Shell-Programmierung erklärt. Auch hier gilt: Verknüpfen Sie zwei Ausdrücke mit einem logischen UND, wird wahr zurückgegeben, wenn beide Ausdrücke zutreffen. Bei einer logischen ODER-Verknüpfung hingegen genügt es, wenn einer der Ausdrücke wahr zurückgibt. Und natürlich steht Ihnen in awk auch der Negationsoperator (!) zur Verfügung, womit Sie alles Wahre unwahr und alles Unwahre wahr machen können.\n\n Tabelle 13.7  Logische Operatoren in awk\n\n ||\n Logisches ODER\n\n &&\n Logisches UND\n\n !\n Logische Verneinung\n\n Das folgende Script gibt alle Gewinner der 80er-Jahre der Datei mrolympia.dat zurück:\n #!/usr/bin/awk -f # # Programmname: winner80er.awk { for(i=4; i<=NF; i++) { if( $i >= 1980 && $i < 1990 ) { print $0 # gefunden -> Abbruchbedingung für for i=NF; } } }\n Das Script bei der Ausführung:\n you@host > ./winner80er.awk mrolympia.dat 1970 1971 1972 1973 1974 1980 inien 1976 1981 USA 1982 Libanon 1983 USA 1984 1985 1986 1987 1988 1989 1990 1991\n Bedingungsoperator\n Auch awk unterstützt den ternären Bedingungsoperator ?: von C. Dieser Operator stellt eine verkürzte if-Anweisung dar. So können Sie statt\n if ( Bedingung ) anweisung1 else anweisung2\n den ternären Operator ?: wie folgt einsetzen:\n Bedingung ?anweisung1 :anweisung2\n Auch hier gilt wie in der if-Anweisung: Ist die Bedingung wahr, wird »anweisung1« ausgeführt, ansonsten wird »anweisung2« verwendet. Zwar mag dieser ternäre Operator eine Verkürzung des Programmcodes bedeuten, doch aus Übersichtlichkeitsgründen verwende ich persönlich immer noch lieber das if-else-Konstrukt (auch in C) â aber dies ist letztendlich Geschmackssache.\n Inkrement- und Dekrementoperator\n Den Inkrementoperator ++ haben Sie bereits verwendet. Dabei handelt es sich um einen Zähloperator, der den Inhalt einer Variablen um 1 erhöht â also eine Abkürzung für »var=var+1« ist »var++«. Gleiches erreichen Sie mit dem Dekrementoperator ââ. Damit reduzieren Sie den Wert einer Variablen um 1. Allerdings ist es entscheidend, ob Sie den Operator vor oder nach der Variablen schreiben. In Verbindung mit einer Variablen kann dabei folgender (Neben-)Effekt auftreten:\n var=1 wert=var++ print wert i # wert=1, i=2\n Hier wurde die Postfixschreibweise mit »var++« verwendet. In diesem Beispiel wird zuerst der Variablen »wert« der Inhalt von »var« zugewiesen und anschließend inkrementiert. Somit bekommt »wert« den Inhalt 1. Wollen Sie, dass »wert« hier 2 erhält, müssen Sie »var« in der Präfixschreibweise erhöhen.\n var=1 wert=++var print wert i # wert=2, i=2\n Jetzt wird der Inhalt von »var« zuerst inkrementiert und dann an »wert« übergeben. Gleiches gilt natürlich auch bei dem Dekrementoperator. Relativ häufig werden diese Operatoren in Zählschleifen verwendet.\n Leerzeichen- und Feldoperator\n Zwar würde man das Leerzeichen nicht als Operator bezeichnen, aber zwischen zwei Strings dient es dazu, diese miteinander zu verbinden â sprich zu einer neuen Zeichenkette zu verbinden. Folgendes Script als Beispiel:\n #!/usr/bin/awk -f # # Programmname: names.awk { string = string $2 \" \" } END { print string }\n Das Script bei der Ausführung:\n you@host > ./names.awk mrolympia.dat Columbu \n In diesem Script wurden alle Nachnamen (zweite Spalte â $2) zu einem String verbunden, ohne das Leerzeichen wäre dies nicht möglich.\n Des Weiteren steht Ihnen noch der Feldzugriffsoperator $ zur Verfügung. Sie können ihn, im Gegensatz zum Positionsparameter der Shell, relativ flexibel einsetzen:\n #!/usr/bin/awk -f # # Programmname: names2.awk BEGIN { i=2 } { string = string $i \" \" } END { print string }\n Das Script macht dasselbe wie schon das Script zuvor, es verwendet alle Felder der zweiten Spalte und fügt Sie zu einem String zusammen. Allerdings wurde hier der Feldzugriffsoperator mit $i verwendet. »i« wurde im BEGIN-Block mit dem Wert 2 belegt. Dies macht den Zugriff auf die einzelnen Felder erheblich flexibler, besonders in Verbindung mit einer Schleife:\n #!/usr/bin/awk -f # # Programmname: winner.awk { for(i=4; i<=NF; i++) string[$2]= string[$2] $i \"-\" } END { for(word in string) print \"Titel von \" word \" in den Jahren : \" string[word] }\n Das Script bei der Ausführung:\n you@host > ./winner.awk mrolympia.dat Titel von Bannout in den Jahren : 1983- Titel von Columbu in den Jahren : 1976â1981- ... Titel von Yates in den Jahren : 1992â1993â1994â1995â1996â1997- Titel von Dickerson in den Jahren : 1982-\n Hier wurden alle Jahre, in denen ein Wettkämpfer gesiegt hat, in ein assoziatives Array gespeichert. Die einzelnen Jahre wurden mit dem Zugriffsoperator auf Felder ($) dem Array zugewiesen.\n 13.5.4 Kontrollstrukturen \n Mit den Kontrollstrukturen lernen Sie eigentlich nichts mehr Neues, da Sie hier auf alle alten Bekannten wie if, for, while und Co. stoßen werden, die Sie bereits in Kapitel 4, Kontrollstrukturen, zur Shell-Programmierung kennen gelernt haben. Leider kann ich das Thema nicht ganz so schnell überfliegen, weil hier die Syntax im Gegensatz zur Shell-Programmierung ein wenig anders ist. Derjenige, der bereits C-erprobt ist (oder sich mit den C-Shells befasst hat), ist fein raus, weil die Syntax der Kontrollstrukturen in awk exakt derjenigen von C entspricht.\n if-Verzweigungen\n Mit der if-Verzweigung können Sie (wie gewohnt) eine bestimmte Bedingung testen. Trifft die Bedingung zu, wird wahr (TRUE), ansonsten falsch (FALSE) zurückgegeben. Optional können Sie auch hier einer if-Verzweigung ein else-Konstrukt folgen lassen. Die Syntax:\n if( Bedingung ) # Bedingung-ist-wahr-Zweig else # Bedingung-ist-falsch-Zweig (optional)\n Besteht die Anweisung einer Verzweigung aus mehr als nur einer Anweisung, müssen Sie diese in einem Anweisungsblock zwischen geschweiften Klammern zusammenfassen:\n if( Bedingung ) { # Bedingung-ist-wahr-Zweig anweisung1 anweisung2 } else { # Bedingung-ist-falsch-Zweig (optional) anweisung1 anweisung2 }\n Und selbstverständlich gibt es in awk auch das else if-Konstrukt (gleich mehr zu elif in der Shell-Programmierung):\n if( Bedingung1 ) { # Bedingung-ist-wahr-Zweig anweisung1 anweisung2 } else if( Bedingung2 ) { # Bedingung2-ist-wahr-Zweig (optional) anweisung1 anweisung2 } else { # Bedingung1-und-Bedingung2-ist-falsch-Zweig (optional) anweisung1 anweisung2 }\n Ein einfaches Bespiel:\n #!/usr/bin/awk -f # # Programmname: findusa.awk { if( $0 ~ /USA/ ) print \"USA gefunden in Zeile \" NR else print \"USA nicht gefunden in Zeile \" NR }\n Das Script bei der Ausführung:\n you@host > ./findusa.awk mrolympia.dat USA gefunden in Zeile 1 USA gefunden in Zeile 2 USA nicht gefunden in Zeile 3 ...\n for-Schleifen\n for-Schleifen wurden auf den vorangegangenen Seiten recht häufig eingesetzt. Die Syntax zur klassischen for-Schleife sieht wie folgt aus:\n for( Initialisierung; Bedingung; Zähler ) anweisung\n Folgen auch hierbei mehrere Anweisungen, müssen Sie diese in einem Anweisungsblock zwischen geschweiften Klammern zusammenfassen:\n for( Initialisierung; Bedingung; Zähler ) { anweisung1 anweisung2 }\n Der erste Ausdruck (Initialisierung) der for-Schleife wird nur ein einziges Mal beim Starten der for-Schleife ausgeführt. Hier wird häufig eine Variable mit Startwerten initialisiert. Anschließend folgt ein Semikolon, gefolgt von einer Überprüfung der Bedingung. Ist diese wahr, so werden die Anweisungen ausgeführt. Ist die Bedingung nicht wahr, wird die Schleife beendet und das Script fährt mit seiner Ausführung hinter der Schleife fort. Sofern die Bedingung wahr ist und die Anweisungen ausgeführt wurden, wird der dritte Ausdruck in der for-Schleife â hier der Zähler â aktiv. Hierbei wird häufig ein bestimmter Wert, der entscheidend für die Abbruchbedingung des zweiten Ausdrucks der for-Schleife ist, erhöht bzw. erniedrigt. Anschließend wird wieder die Bedingung überprüft usw.\n Auch die zweite Form der for-Schleife haben Sie schon des Öfteren verwendet. Sie wird in Verbindung mit assoziativen Arrays eingesetzt (siehe Abschnitt 13.5.2). Die Syntax:\n for(indexname in array) anweisung\n oder bei mehreren Anweisungen:\n for(indexname in array) { anweisung1 anweisung2 }\n Mit dieser for-Schleife wird das assoziative Array Element für Element durchlaufen. Das Indexwort steht Ihnen hierbei in »indexname« zur Verfügung, sodass es im Schleifenkörper weiterverwendet werden kann.\n while- und do-while-Schleifen\n Die while-Schleife kennen Sie ebenfalls aus der Shell-Programmierung. Sie führt die Anweisungen in einem Befehlsblock so lange aus, wie die Bedingung zwischen den runden Klammern erfüllt wird. Die Syntax:\n while( Bedingung ) anweisung\n Oder, wenn mehrere Anweisungen folgen:\n while( Bedingung ) { anweisung1 anweisung2 }\n Ein einfaches Anwendungsbeispiel zur while-Schleife:\n #!/usr/bin/awk -f # # Programmname: countfl.awk { while( i <=NF ) { fields++ i++ } i=0 lines++ } END { print \"Anzahl Felder in \" FILENAME \": \" fields print \"Anzahl Zeilen in \" FILENAME \": \" lines }\n Das Script bei der Ausführung:\n you@host > ./countfl.awk mrolympia.dat Anzahl Felder in mrolympia.dat: 73 Anzahl Zeilen in mrolympia.dat: 9\n Das Script macht nichts anderes, als die Anzahl der Felder und Zeilen zu zählen. Die while-Schleife durchläuft hierbei jedes einzelne Feld einer Zeile. In der while-Schleife wird die Variable »field« und »i« (welche als Abbruchbedingung für die while-Schleife dient) inkrementiert. Am Ende einer Zeile trifft die Abbruchbedingung zu und die while-Schleife ist fertig. Daher wird hinter der while-Schleife »i« wieder auf 0 gesetzt und der Zähler für die Zeilen inkrementiert. Jetzt ist die while-Schleife für die neue Zeile bereit, da »i« wieder 0 ist.\n In awk steht Ihnen auch eine zweite Form der while-Schleife mit do-while zur Verfügung. Der Unterschied zu herkömmlichen while-Schleife besteht darin, dass die do-while-Schleife die Bedingung erst nach der Ausführung alle Anweisungen überprüft. Die Syntax:\n do { anweisung1 anweisung2 } while( Bedingung)\n Umgeschrieben auf das Beispiel der while-Schleife, würde dieselbe Programmausführung wie folgt aussehen:\n #!/usr/bin/awk -f # # Programmname: countfl2.awk { do { fields++ i++ } while (i<=NF) i=0 lines++ } END { print \"Anzahl Felder in \" FILENAME \": \" fields print \"Anzahl Zeilen in \" FILENAME \": \" lines }\n Sprungbefehle â break, continue, exit, next\n Zur Steuerung von Schleifen können Sie auch bei awk auf die Befehle break und continue (siehe Abschnitte 4.13.1 und 4.13.2) wie in der Shell-Programmierung zurückgreifen. Mit break können Sie somit aus einer Schleife herausspringen und mit continue den aktuellen Schleifendurchgang abbrechen und mit dem nächsten fortsetzen.\n exit ist zwar nicht direkt ein Sprungbefehl im Script, aber man kann es hier hinzufügen. Mit exit beenden Sie das komplette awk-Script. Gewöhnlich wird exit in awk-Scripts verwendet, wenn die Weiterarbeit keinen Sinn mehr ergibt oder ein unerwarteter Fehler aufgetreten ist. exit kann hier mit oder ohne Rückgabewert verwendet werden. Der Rückgabewert kann dann in der Shell zur Behandlung des aufgetretenen Fehlers bearbeitet werden.\n while ( Bedingung ) { ... if( Bedingung ) break # while-Schleife beenden if( Bedingung ) continue # hochspringen zum nächsten Schleifendurchlauf if( Bedingung ) exit 1 # Schwerer Fehler â Script beenden ... }\n Ein für Sie wahrscheinlich etwas unbekannterer Befehl ist next. Mit ihm können Sie die Verarbeitung der aktuellen Zeile unterbrechen und mit der nächsten Zeile fortfahren. Dies kann zum Beispiel sinnvoll sein, wenn Sie eine Zeile bearbeiten, die zu wenig Felder enthält:\n ... # weniger als 10 Felder -> überspringen if( NF < 10 ) next\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 13.5 Die Komponenten von awk-ScriptsÂ\n\nDie Verwendung von awk wurde bisher vorwiegend mit Einzeilern demonstriert, was häufig für den Hausgebrauch in Shellscripts ausreicht. So haben Sie die Mächtigkeit von awk schon näher kennen gelernt. Allerdings wurde bereits erwähnt, dass awk eher eine Programmiersprache als ein Tool ist, weshalb hier nun näher auf die Eigenheiten von awk als Programmiersprache eingegangen werden soll. Natürlich können Sie die awk-Scripts auch in Ihren Shellscripts einsetzen, womit Sie sich bedeutendes Know-how aneignen und sich gern als Guru bezeichnen dürfen.\n\nGewöhnlich verwendet man beim Erstellen eigener awk-Scripts das Verfahren mit der She-Bang-Zeile (#!) in der ersten Zeile:\n > #!/usr/bin/awk -f\n\nKommentare können Sie in gleicher Weise â wie schon bei den Shellscripts â mit # kennzeichnen.\n > #!/usr/bin/awk -f # # Programmname: programmname.awk # Erstellt : J.Wolf # Datum : ... # ...\n\nEine Dateiendung ist genauso unnötig wie in Shellscripts. Trotzdem wird hierbei relativ häufig die Endung ».awk« verwendet, damit der Anwender weiß, worum es sich bei diesem Script handelt. Man kann die Aktionen in einem awk-Script in einer Zeile schreiben, wobei hier dann jede Aktion durch ein Semikolon getrennt werden muss:\n > # Anfang Haupt-Aktionsteil eines awk-Scripts { aktion ; aktion ; aktion } # Ende Haupt-Aktionsteil eines awk-Scripts\n\nOder aber, was empfehlenswerter ist, man schreibt jede Aktion in eine extra Zeile:\n > # Anfang Haupt-Aktionsteil eines awk-Scripts { aktion aktion aktion } # Ende Haupt-Aktionsteil eines awk-Scripts\n\n### 13.5.1 VariablenÂ\n\nNeben den dynamisch angelegten Feldvariablen stehen Ihnen in awk auch benutzerdefinierte Variablen zur Verfügung. Die Variablen werden mit derselben Syntax wie schon in der Shell definiert und behandelt. Bei der Verwendung wird jedoch vor die Variable kein Dollarzeichen ($) gestellt, weil dieses Zeichen für die einzelnen Felder (bzw. Wörter) reserviert ist. Zahlen können Sie ohne weitere Vorkehrungen übergeben:\n > # val1 mit dem Wert 1234 definieren val1=1234 # val2 mit dem Wert 1234.1234 definieren val2=1234.1234\n\nZeichenketten müssen Sie allerdings zwischen doppelte Hochkommata schreiben:\n > # string1 mit einer Zeichenkette belegen string1=\"Ich bin ein String\"\n\nMachen Sie dies nicht wie im folgenden Beispiel\n > string2=teststring\n\nweist awk der Variablen »string2« nicht die Zeichenkette »teststring« zu, sondern die Variable »teststring« â was allerdings hier keinen Fehler auslöst, da auch hier, wie schon in der Shell, nicht definierte Werte automatisch mit 0 bzw. \"\" vorbelegt sind. Ein einfaches Beispiel, in dem die Anzahl der Zeilen einer Datei hochgezählt wird, die Sie als Argumente in der Kommandozeile mit angeben:\n > #!/usr/bin/awk -f # # Programmname: countline.awk BEGIN { count=0 } # Haupt-Aktionsteil { count++ } END { printf \"Anzahl Zeilen : %d\\n\" count }\n\nDas Script bei der Ausführung:\n > you@host > chmod u+x countline.awk you@host > ./countline.awk countline.awk Anzahl Zeilen : 15\n\nZwar lässt sich dieses Beispiel einfacher mit der Variablen NR ausführen, aber hier geht es um die Demonstration von Variablen. Zuerst wird der BEGIN-Block ausgeführt, in dem die Variable »count« mit dem Wert 0 definiert wurde. Variablen, die Sie mit dem Wert 0 vorbelegen, könnten Sie sich sparen, da diese bei der ersten Verwendung automatisch mit 0 (bzw. \"\"; abhängig vom Kontext) definiert würden. Allerdings ist es hilfreich, eine solche Variable trotzdem im BEGIN-Block zu definieren â der Übersichtlichkeit zuliebe.\n\nIm Haupt-Aktionsteil wird nur der Wert der Variablen »count« um 1 inkrementiert (erhöht). Hierzu wird der Inkrement-Operator (++) in der Postfix-Schreibweise verwendet. Wurden alle Zeilen der als erstes Argument angegebenen Datei durchlaufen (wo jeweils pro Zeile der Haupt-Aktionsteil aktiv war), wird der END-Block ausgeführt und gibt die Anzahl der Zeilen aus. Hier kann übrigens durchaus mehr als nur eine Datei in der Kommandozeile angegeben werden:\n > you@host > ./countline.awk countline.awk mrolympia.dat Anzahl Zeilen : 25\n\nDas awk-Script können Sie übrigens auch wie ein wc âl benutzen. Beispiel:\n > you@host > ls -l | wc -l 26 you@host > ls -l | ./counterline.awk Anzahl Zeilen : 26\n\nAber wie bereits erwähnt, Sie können dieses Script mit der Variablen NR erheblich abkürzen, und zwar bis auf den END-Block:\n > #!/usr/bin/awk -f # # Programmname: countline2.awk END { printf \"Anzahl Zeilen : %d\\n\", NR }\n\n# Kommandozeilen-Argumente\n\nFür die Argumente aus der Kommandozeile stehen Ihnen ähnlich wie in C die beiden Variablen ARGC und ARGV zur Verfügung. ARGC (ARGument Counter) enthält immer die Anzahl der Argumente in der Kommandozeile (inklusive) dem Programmnamen awk (!) und ARGV (ARGumenten Vector) ist ein Array, worin sich die einzelnen Argumente der Kommandozeile befinden (allerdings ohne Optionen von awk). Hierzu nochmals ein Script, welches die Anzahl der Argumente und jedes einzelne davon ausgibt (im Beispiel wurde die for-Schleife vorgezogen, die gleich näher beschrieben wird).\n > #!/usr/bin/awk -f # # Programmname: countarg.awk BEGIN { print \"Anzahl Argumente in ARGC : \" , ARGC # einzelne Argumente durchlaufen for(i=0; i < ARGC; i++) printf \"ARGV[%d] = %s\\n\", i, ARGV[i] }\n\nDas Script bei der Ausführung:\n > you@host > ./countarg.awk eine Zeile mit vielen Argumenten Anzahl Argumente in ARGC : 6 ARGV[0] = awk ARGV[1] = eine ARGV[2] = Zeile ARGV[3] = mit ARGV[4] = vielen ARGV[5] = Argumenten\n\n# Vordefinierte Variablen\n\nIn awk existiert eine interessante Auswahl von vordefinierten Variablen, wovon Sie ja bereits mit NR, NF, ARGC, ARGV, FS, $0, $1 ... schon einige kennen gelernt haben. In der folgenden Tabelle finden Sie einen kurzen Überblick zu den vordefinierte Variablen sowie ein kurze Beschreibung ihrer Funktionen.\n\nVariable | Bedeutung |\n | --- | --- |\nARGC | Anzahl der Argumente aus der Kommanodzeile (+1) |\nARGV | Array mit dem Inhalt der Kommandozeilen-Argumente |\nENVIRON | Enthält ein Array mit allen momentanen Umgebungsvariablen |\nFILENAME | Name der aktuellen Eingabedatei. Bei einer Eingabe von der Tastatur steht hier der Wert 'â'. |\nFNR | Zeilennummer der Eingabe aus der aktuellen Datei |\nFS | Das oder die Trennzeichen für die Zerlegung der Eingabezeile. Standardmäßig befindet sich hier das Leerzeichen. |\nNF | Anzahl der Felder der aktuellen Zeile. Felder werden anhand von FS getrennt. |\nNR | Anzahl der bisher eingelesenen Zeilen |\nOFMT | Ausgabeformat für Fließkommazahlen |\nOFS | Ausgabetrennzeichen für einzelne Felder; auch hier standardmäßig das Leerzeichen |\nORS | Das Ausgabetrennzeichen für neue Datensätze (Zeilen). Standardmäßig wird hierbei das Newline-Zeichen verwendet. |\nRLENGTH | Gibt im Zusammenhang mit der Funktion match die Länge der übereinstimmenden Teilzeichenkette an |\nRS | Das Eingabetrennzeichen für neue Datensätze (Zeilen), standardmäßig das Newline-Zeichen |\nRSTART | Gibt im Zusammenhang mit der Zeichenkettenfunktion match den Index des Beginns der übereinstimmenden Teilzeichenkette an |\nSUBSEP | Das Zeichen, das in Arrays die einzelnen Elemente trennt (\\034) |\n$0 | Enthält immer den kompletten Datensatz (Eingabezeile) |\n$1, $2, ... | Die einzelnen Felder (Worte) der Eingabezeile, die nach dem Trennzeichen in der Variablen FS getrennt wurden |\n\nHierzu ein einfaches Beispiel, das einige der vordefinierten Variablen demonstrieren soll:\n > #!/usr/bin/awk -f # # Programmname: vars.awk BEGIN { count=0 # Ausgabetrennzeichen: Minuszeichen OFS=\"-\" } /USA/ { print $1, $2, $3 count++ } END { printf \"%d Ergebnisse (von %d Zeilen) gefunden in %s\\n\", count, NR, FILENAME printf \"Datei %s befindet sich in %s\\n\", FILENAME, ENVIRON[\"PWD\"] }\n\nDas Script bei der Ausführung:\n > you@host > ./vars.awk mrolympia.dat Larry-Scott-USA Sergio-Oliva-USA Chris-Dickerson-USA Lee-Haney-USA Ronnie-Coleman-USA 5 Ergebnisse (von 9 Zeilen) gefunden in mrolympia.dat Datei mrolympia.dat befindet sich in /home/you\n\n### 13.5.2 ArraysÂ\n\nArrays stehen Ihnen in awk gleich in zweierlei Formen zur Verfügung, zum einen die »gewöhnlichen« Arrays und zum anderen assoziative Arrays. Die »normalen« Arrays werden genauso verwendet, wie Sie dies schon in Abschnitt 2.5 bei der Shell-Programmierung gesehen haben. Verwenden können Sie die Arrays wie gewöhnliche Variablen, nur benötigen Sie hier den Indexwert (eine Ganzzahl), um auf die einzelnen Elemente zuzugreifen. Ein einfaches Script zur Demonstration:\n > #!/usr/bin/awk -f # # Programmname: playarray.awk { # komplette Zeile in das Array mit dem Index NR ablegen line[NR]=$0 # Anzahl der Felder (Wörter) in das Array # fields mit dem Index NR ablegen fields[NR]=NF } END { for(i=1; i <=NR; i++) { printf \"Zeile %2d hat %2d Felder:\\n\", i, fields[i] print line[i] } }\n\nDas Script bei der Ausführung:\n > you@host > ./playarray.awk mrolympia.dat Zeile 1 hat 5 Felder: USA 1965 1966 Zeile 2 hat 6 Felder: USA 1967 1968 1969 ... Zeile 9 hat 10 Felder: USA 1998 1999 2000 2001 2002 2003 2004\n\nHier wurden im Haupt-Aktionsteil die einzelnen Zeilen im Array »line« gespeichert. Als Indexnummer wird hier die vordefinierte Variable NR verwendet. Ebenfalls wurde die Anzahl von Feldern (Wörtern) dieser Zeile in einem extra Array (»fields«) gespeichert.\n\nNeben den »gewöhnlichen« Arrays kennt awk auch noch assoziative Arrays. Dies sind Arrays, die neben Zahlen als Indexwert auch Zeichenketten zulassen. Somit sind folgende Werteübergaben möglich:\n > array[\"Wolf\"]=10 array[\"ION\"]=1234 array[\"WION\"] = array[\"Wolf\"] array[\"GESAMT\"] = array[\"Wolf\"] + array[\"ION\"]\n\nDiese Variante der Arrays zu verwenden, ist wirklich außergewöhnlich. Allerdings stellen Sie sich sicherlich zunächst die Frage, wie kommt man wieder an die einzelnen Werte, also welchen Index verwendet man hierzu? Zum einen haben Sie natürlich die Möglichkeit, auf die einzelnen Werte zuzugreifen, wenn Sie das [\"Wort\"] des Indexwertes kennen. Aber wenn Sie nicht vorhersehen können, welche Worte hier stehen, hilft Ihnen eine spezielle, zum Arbeiten mit assoziativen Arrays gedachte Variante der for-Schleife:\n > for (indexwort in array)\n\nMit diesem Konstrukt wird das komplette assoziative Array durchlaufen. Und was eignet sich besser zur Demonstration von assoziativen Arrays als das Zählen von Wörtern einer Datei bzw. Eingabe?\n > #!/usr/bin/awk -f # # Programmname: countwords.awk { # Durchläuft alle Felder einer Zeile for(f=1; f <= NF; ++f) field[$f]++ } END { for(word in field) print word, field[word] }\n\nDas Script bei der Ausführung:\n > you@host > ./countwords.awk mrolympia.dat Dorian 1 2000 1 2001 1 USA 5 ...\n\nIm Beispiel durchlaufen wir mit einer for-Schleife die komplette Zeile anhand der einzelnen Felder (NF). Jedes Wort wird hier als Wortindex für ein Array benutzt und inkrementiert (um eins erhöht). Existiert ein solcher Index noch nicht, wird dieser neu erzeugt und um den Wert eins erhöht. Existiert bereits ein entsprechender »Wortindex«, so wird nur die Speicherstelle zum zugehörigen Wort um eins erhöht. Im END-Block wird dann das spezielle for-Konstrukt der assoziativen Arrays für die Ausgabe verwendet. Dabei wird zuerst der Indexname (also das Wort selber) und dann dessen Häufigkeit ausgegeben.\n\nDie Zuweisung von Werten eines Arrays ist etwas umständlich, da die Werte häufig einzeln übergeben werden müssen. Einfacher gelingt dies mit der Funktion split. split zerlegt ein Array automatisch in die einzelnen Bestandteile (anhand der Variablen FS). Ein Beispiel:\n > #!/usr/bin/awk -f # # Programmname: splitting.awk /Coleman/ { # Durchläuft alle Felder einer Zeile split($0, field) } END { for(word in field) print field[word] }\n\nDas Script bei der Ausführung:\n > you@host > ./splitting.awk mrolympia.dat 1998 1999 2000 2001 2002 2003 2004 USA\n\nHier wird die Zeile mit der Textfolge »Coleman« in die einzelnen Bestandteile zerlegt und an das assoziative Array »field« übergeben. Sofern Sie ein anderes Zeichen zur Trennung verwenden wollen, müssen Sie die vordefinierte Variable FS entsprechend anpassen.\n\n### 13.5.3 OperatorenÂ\n\nIm Großen und Ganzen werden Sie in diesem Kapitel nicht viel Neues erfahren, da Operatoren meistens in allen Programmiersprachen dieselbe Bedeutung haben. Trotzdem stellt sich hierbei zunächst die Frage, wie awk einen Wert einer Variablen oder Konstante typisiert. In der Regel versucht awk, bei einer Berechnung beispielsweise die Typen aneinander anzupassen. Somit hängt der Typ eines Ausdrucks vom Kontext der Benutzung ab. So kann ein String \"100\" einmal als String verwendet werden und ein anderes Mal als die Zahl 100. Zum Beispiel stellt\n > print \"100\"\n\neine Ausgabe einer Zeichenkette dar. Hingegen wird\n > print \"100\"+0\n\nals Zahl präsentiert â auch wenn jeweils immer »nur« 100 ausgegeben wird. Man spricht hierbei vom Erzwingen eines numerischen bzw. String-Kontexts.\n\nEinen numerischen Kontext können Sie erzwingen, wenn der Typ des Ergebnisses eine Zahl ist. Befindet sich ein String in der Berechnung, wird dieser in eine Zahl umgewandelt. Ein Beispiel:\n > print \"100Wert\"+10\n\nHier ist das Ergebnis der Ausgabe 110 â das Suffix »Wert« wird ignoriert. Würde sich hier ein ungültiger Wert befinden, so wird dieser in 0 umgewandelt:\n > print \"Wert\"+10\n\nAls Ergebnis würden Sie den Wert 10 zurückbekommen.\n\nEinen String-Kontext erzwingen Sie, wenn der Typ des Ergebnisses ein String ist. Somit könnten Sie z. B. eine Zahl in einen String umwandeln, wenn Sie etwa eine »Konkatenation« (Anhängen mehrere Zeichenketten) vornehmen oder Vergleichsoperatoren einen String erwarten.\n\nLeider ist es nicht immer so eindeutig, ob ein String als fester String oder als eine Zahl repräsentiert wird. So würde beispielsweise folgender Vergleich fehlschlagen:\n > if( 100==\"00100\" ) ...\n\nUnd zwar deshalb, weil hier die Regel in Kraft tritt: Sobald eines der Argumente ein String ist, wird auch das andere Argument als String behandelt. Daher würden Sie hier folgenden Vergleich durchführen:\n > if ( \"100\"==\"00100\" ) ...\n\nAnders hingegen sieht dies aus, wenn Sie z. B. eine Feldvariable (bspw. $1) mit dem Wert »00100« vergleichen würden:\n > if (100==$1) ...\n\nHier würde der Vergleich »wahr« zurückgeben. Wie dem auch sei, Sie sehen, dass es hier zu einigen Ungereimtheiten kommen kann. Zwar könnte ich Ihnen jetzt eine Liste anführen, in welchem Fall ein String als numerischer und wann als nicht numerischer String behandelt wird. Allerdings ist es mühsam, sich dies zu merken, weshalb man â sofern man Strings mit Zahlen vermischt â hier auf Nummer sicher gehen und die Umwandlung in eine Zahl bzw. in einen String selbst vornehmen sollte. Eine erzwungene Umwandlung eines Strings können Sie wie folgt durchführen:\n > variable = variable \"\"\n\nJetzt können Sie sicher sein, dass »variable« ein String ist. Wollen Sie hingegen, dass »variable« eine Zahl ist, so können Sie diese Umwandlung wie folgt erzwingen:\n > variable = variable + 0\n\nHiermit haben Sie in »variable« immer eine Zahl. Befindet sich in Variable ein sinnloser Wert, so wird durch die erzwungene Umwandlung eben der Wert 0 aus der Variablen. Zugegeben, viel Theorie, aber sie ist erforderlich, um auch zu den gewünschten Ergebnissen zu kommen.\n\n# Arithmetische Operatoren\n\nHier finden Sie ebenfalls wieder die üblichen arithmetischen Operatoren, wie in anderen Programmiersprachen auch. Ebenso existieren hier die kombinierten Zuweisungen, mit denen Sie Berechnungen wie »var=var+5« durch »var+=5« abkürzen können. Hier eine Tabelle mit allen arithmetischen Operatoren in awk:\n\nOperator | Bedeutung |\n | --- | --- |\n+ | Addition |\nâ | Subtraktion |\n* | Multiplikation |\n/ | Division |\n% | Modulo (Rest einer Division) |\n^ | Exponentation bspw. x^y ist x hoch y |\n+= | Abkürzung für var=var+x gleichwertig zu var+=x |\nâ= | Abkürzung für var=varâx gleichwertig zu varâ=x |\n*= | Abkürzung für var=var*x gleichwertig zu var*=x |\n/= | Abkürzung für var=var/x gleichwertig zu var/=x |\n%= | Abkürzung für var=var%x gleichwertig zu var%=x |\n^= | Abkürzung für var=var^x gleichwertig zu var^=x |\n\nEin einfaches Beispiel:\n > #!/usr/bin/awk -f # # Programmname: countfields.awk { field[FILENAME]+=NF } END { for(word in field) print \"Anzahl Felder in \" word \" : \" field[word] }\n\nDas Script bei der Ausführung:\n > you@ghost > ./countfields.awk mrolympia.dat USA.dat Argentinien Anzahl Felder in Argentinien : 5 Anzahl Felder in USA.dat : 15 Anzahl Felder in mrolympia.dat : 64\n\nIn diesem Beispiel werden alle Felder einer Datei gezählt. Da wir nicht wissen können, wie viele Dateien der Anwender in der Kommandozeile eingibt, verwenden wir gleich ein assoziatives Array mit dem entsprechenden Dateinamen als Feldindex.\n\n# Logische Operatoren\n\nDie logischen Operatoren wurden bereits verwendet. Hier haben Sie die Möglichkeit einer logischen UND- und einer logischen ODER-Verknüpfung. Das Prinzip der beiden Operatoren wurde schon bei der Shell-Programmierung erklärt. Auch hier gilt: Verknüpfen Sie zwei Ausdrücke mit einem logischen UND, wird wahr zurückgegeben, wenn beide Ausdrücke zutreffen. Bei einer logischen ODER-Verknüpfung hingegen genügt es, wenn einer der Ausdrücke wahr zurückgibt. Und natürlich steht Ihnen in awk auch der Negationsoperator (!) zur Verfügung, womit Sie alles Wahre unwahr und alles Unwahre wahr machen können.\n\nOperator | Bedeutung |\n | --- | --- |\n|| | Logisches ODER |\n&& | Logisches UND |\n! | Logische Verneinung |\n\nDas folgende Script gibt alle Gewinner der 80er-Jahre der Datei mrolympia.dat zurück:\n > #!/usr/bin/awk -f # # Programmname: winner80er.awk { for(i=4; i<=NF; i++) { if( $i >= 1980 && $i < 1990 ) { print $0 # gefunden -> Abbruchbedingung für for i=NF; } } }\n\nDas Script bei der Ausführung:\n > you@host > ./winner80er.awk mrolympia.dat Österreich 1970 1971 1972 1973 1974 1980 Argentinien 1976 1981 USA 1982 Libanon 1983 USA 1984 1985 1986 1987 1988 1989 1990 1991\n\n# Bedingungsoperator\n\nAuch awk unterstützt den ternären Bedingungsoperator ?: von C. Dieser Operator stellt eine verkürzte if-Anweisung dar. So können Sie statt\n > if ( Bedingung ) anweisung1 else anweisung2\n\nden ternären Operator ?: wie folgt einsetzen:\n > Bedingung ?anweisung1 :anweisung2\n\nAuch hier gilt wie in der if-Anweisung: Ist die Bedingung wahr, wird »anweisung1« ausgeführt, ansonsten wird »anweisung2« verwendet. Zwar mag dieser ternäre Operator eine Verkürzung des Programmcodes bedeuten, doch aus Übersichtlichkeitsgründen verwende ich persönlich immer noch lieber das if-else-Konstrukt (auch in C) â aber dies ist letztendlich Geschmackssache.\n\n# Inkrement- und Dekrementoperator\n\nDen Inkrementoperator ++ haben Sie bereits verwendet. Dabei handelt es sich um einen Zähloperator, der den Inhalt einer Variablen um 1 erhöht â also eine Abkürzung für »var=var+1« ist »var++«. Gleiches erreichen Sie mit dem Dekrementoperator ââ. Damit reduzieren Sie den Wert einer Variablen um 1. Allerdings ist es entscheidend, ob Sie den Operator vor oder nach der Variablen schreiben. In Verbindung mit einer Variablen kann dabei folgender (Neben-)Effekt auftreten:\n > var=1 wert=var++ print wert i # wert=1, i=2\n\nHier wurde die Postfixschreibweise mit »var++« verwendet. In diesem Beispiel wird zuerst der Variablen »wert« der Inhalt von »var« zugewiesen und anschließend inkrementiert. Somit bekommt »wert« den Inhalt 1. Wollen Sie, dass »wert« hier 2 erhält, müssen Sie »var« in der Präfixschreibweise erhöhen.\n > var=1 wert=++var print wert i # wert=2, i=2\n\nJetzt wird der Inhalt von »var« zuerst inkrementiert und dann an »wert« übergeben. Gleiches gilt natürlich auch bei dem Dekrementoperator. Relativ häufig werden diese Operatoren in Zählschleifen verwendet.\n\n# Leerzeichen- und Feldoperator\n\nZwar würde man das Leerzeichen nicht als Operator bezeichnen, aber zwischen zwei Strings dient es dazu, diese miteinander zu verbinden â sprich zu einer neuen Zeichenkette zu verbinden. Folgendes Script als Beispiel:\n > #!/usr/bin/awk -f # # Programmname: names.awk { string = string $2 \" \" } END { print string }\n\nDas Script bei der Ausführung:\n > you@host > ./names.awk mrolympia.dat \n\nIn diesem Script wurden alle Nachnamen (zweite Spalte â $2) zu einem String verbunden, ohne das Leerzeichen wäre dies nicht möglich.\n\nDes Weiteren steht Ihnen noch der Feldzugriffsoperator $ zur Verfügung. Sie können ihn, im Gegensatz zum Positionsparameter der Shell, relativ flexibel einsetzen:\n > #!/usr/bin/awk -f # # Programmname: names2.awk BEGIN { i=2 } { string = string $i \" \" } END { print string }\n\nDas Script macht dasselbe wie schon das Script zuvor, es verwendet alle Felder der zweiten Spalte und fügt Sie zu einem String zusammen. Allerdings wurde hier der Feldzugriffsoperator mit $i verwendet. »i« wurde im BEGIN-Block mit dem Wert 2 belegt. Dies macht den Zugriff auf die einzelnen Felder erheblich flexibler, besonders in Verbindung mit einer Schleife:\n > #!/usr/bin/awk -f # # Programmname: winner.awk { for(i=4; i<=NF; i++) string[$2]= string[$2] $i \"-\" } END { for(word in string) print \"Titel von \" word \" in den Jahren : \" string[word] }\n\nDas Script bei der Ausführung:\n > you@host > ./winner.awk mrolympia.dat Titel von Bannout in den Jahren : 1983- Titel von Columbu in den Jahren : 1976â1981- ... Titel von Yates in den Jahren : 1992â1993â1994â1995â1996â1997- Titel von Dickerson in den Jahren : 1982-\n\nHier wurden alle Jahre, in denen ein Wettkämpfer gesiegt hat, in ein assoziatives Array gespeichert. Die einzelnen Jahre wurden mit dem Zugriffsoperator auf Felder ($) dem Array zugewiesen.\n\n### 13.5.4 KontrollstrukturenÂ\n\nMit den Kontrollstrukturen lernen Sie eigentlich nichts mehr Neues, da Sie hier auf alle alten Bekannten wie if, for, while und Co. stoßen werden, die Sie bereits in Kapitel 4, Kontrollstrukturen, zur Shell-Programmierung kennen gelernt haben. Leider kann ich das Thema nicht ganz so schnell überfliegen, weil hier die Syntax im Gegensatz zur Shell-Programmierung ein wenig anders ist. Derjenige, der bereits C-erprobt ist (oder sich mit den C-Shells befasst hat), ist fein raus, weil die Syntax der Kontrollstrukturen in awk exakt derjenigen von C entspricht.\n\n# if-Verzweigungen\n\nMit der if-Verzweigung können Sie (wie gewohnt) eine bestimmte Bedingung testen. Trifft die Bedingung zu, wird wahr (TRUE), ansonsten falsch (FALSE) zurückgegeben. Optional können Sie auch hier einer if-Verzweigung ein else-Konstrukt folgen lassen. Die Syntax:\n > if( Bedingung ) # Bedingung-ist-wahr-Zweig else # Bedingung-ist-falsch-Zweig (optional)\n\nBesteht die Anweisung einer Verzweigung aus mehr als nur einer Anweisung, müssen Sie diese in einem Anweisungsblock zwischen geschweiften Klammern zusammenfassen:\n > if( Bedingung ) { # Bedingung-ist-wahr-Zweig anweisung1 anweisung2 } else { # Bedingung-ist-falsch-Zweig (optional) anweisung1 anweisung2 }\n\nUnd selbstverständlich gibt es in awk auch das else if-Konstrukt (gleich mehr zu elif in der Shell-Programmierung):\n > if( Bedingung1 ) { # Bedingung-ist-wahr-Zweig anweisung1 anweisung2 } else if( Bedingung2 ) { # Bedingung2-ist-wahr-Zweig (optional) anweisung1 anweisung2 } else { # Bedingung1-und-Bedingung2-ist-falsch-Zweig (optional) anweisung1 anweisung2 }\n\nEin einfaches Bespiel:\n > #!/usr/bin/awk -f # # Programmname: findusa.awk { if( $0 ~ /USA/ ) print \"USA gefunden in Zeile \" NR else print \"USA nicht gefunden in Zeile \" NR }\n\nDas Script bei der Ausführung:\n > you@host > ./findusa.awk mrolympia.dat USA gefunden in Zeile 1 USA gefunden in Zeile 2 USA nicht gefunden in Zeile 3 ...\n\n# for-Schleifen\n\nfor-Schleifen wurden auf den vorangegangenen Seiten recht häufig eingesetzt. Die Syntax zur klassischen for-Schleife sieht wie folgt aus:\n > for( Initialisierung; Bedingung; Zähler ) anweisung\n\nFolgen auch hierbei mehrere Anweisungen, müssen Sie diese in einem Anweisungsblock zwischen geschweiften Klammern zusammenfassen:\n > for( Initialisierung; Bedingung; Zähler ) { anweisung1 anweisung2 }\n\nDer erste Ausdruck (Initialisierung) der for-Schleife wird nur ein einziges Mal beim Starten der for-Schleife ausgeführt. Hier wird häufig eine Variable mit Startwerten initialisiert. Anschließend folgt ein Semikolon, gefolgt von einer Überprüfung der Bedingung. Ist diese wahr, so werden die Anweisungen ausgeführt. Ist die Bedingung nicht wahr, wird die Schleife beendet und das Script fährt mit seiner Ausführung hinter der Schleife fort. Sofern die Bedingung wahr ist und die Anweisungen ausgeführt wurden, wird der dritte Ausdruck in der for-Schleife â hier der Zähler â aktiv. Hierbei wird häufig ein bestimmter Wert, der entscheidend für die Abbruchbedingung des zweiten Ausdrucks der for-Schleife ist, erhöht bzw. erniedrigt. Anschließend wird wieder die Bedingung überprüft usw.\n\nAuch die zweite Form der for-Schleife haben Sie schon des Öfteren verwendet. Sie wird in Verbindung mit assoziativen Arrays eingesetzt (siehe Abschnitt 13.5.2). Die Syntax:\n > for(indexname in array) anweisung\n\noder bei mehreren Anweisungen:\n > for(indexname in array) { anweisung1 anweisung2 }\n\nMit dieser for-Schleife wird das assoziative Array Element für Element durchlaufen. Das Indexwort steht Ihnen hierbei in »indexname« zur Verfügung, sodass es im Schleifenkörper weiterverwendet werden kann.\n\n# while- und do-while-Schleifen\n\nDie while-Schleife kennen Sie ebenfalls aus der Shell-Programmierung. Sie führt die Anweisungen in einem Befehlsblock so lange aus, wie die Bedingung zwischen den runden Klammern erfüllt wird. Die Syntax:\n > while( Bedingung ) anweisung\n\nOder, wenn mehrere Anweisungen folgen:\n > while( Bedingung ) { anweisung1 anweisung2 }\n\nEin einfaches Anwendungsbeispiel zur while-Schleife:\n > #!/usr/bin/awk -f # # Programmname: countfl.awk { while( i <=NF ) { fields++ i++ } i=0 lines++ } END { print \"Anzahl Felder in \" FILENAME \": \" fields print \"Anzahl Zeilen in \" FILENAME \": \" lines }\n\nDas Script bei der Ausführung:\n > you@host > ./countfl.awk mrolympia.dat Anzahl Felder in mrolympia.dat: 73 Anzahl Zeilen in mrolympia.dat: 9\n\nDas Script macht nichts anderes, als die Anzahl der Felder und Zeilen zu zählen. Die while-Schleife durchläuft hierbei jedes einzelne Feld einer Zeile. In der while-Schleife wird die Variable »field« und »i« (welche als Abbruchbedingung für die while-Schleife dient) inkrementiert. Am Ende einer Zeile trifft die Abbruchbedingung zu und die while-Schleife ist fertig. Daher wird hinter der while-Schleife »i« wieder auf 0 gesetzt und der Zähler für die Zeilen inkrementiert. Jetzt ist die while-Schleife für die neue Zeile bereit, da »i« wieder 0 ist.\n\nIn awk steht Ihnen auch eine zweite Form der while-Schleife mit do-while zur Verfügung. Der Unterschied zu herkömmlichen while-Schleife besteht darin, dass die do-while-Schleife die Bedingung erst nach der Ausführung alle Anweisungen überprüft. Die Syntax:\n > do { anweisung1 anweisung2 } while( Bedingung)\n\nUmgeschrieben auf das Beispiel der while-Schleife, würde dieselbe Programmausführung wie folgt aussehen:\n > #!/usr/bin/awk -f # # Programmname: countfl2.awk { do { fields++ i++ } while (i<=NF) i=0 lines++ } END { print \"Anzahl Felder in \" FILENAME \": \" fields print \"Anzahl Zeilen in \" FILENAME \": \" lines }\n\n# Sprungbefehle â break, continue, exit, next\n\nZur Steuerung von Schleifen können Sie auch bei awk auf die Befehle break und continue (siehe Abschnitte 4.13.1 und 4.13.2) wie in der Shell-Programmierung zurückgreifen. Mit break können Sie somit aus einer Schleife herausspringen und mit continue den aktuellen Schleifendurchgang abbrechen und mit dem nächsten fortsetzen.\n\nexit ist zwar nicht direkt ein Sprungbefehl im Script, aber man kann es hier hinzufügen. Mit exit beenden Sie das komplette awk-Script. Gewöhnlich wird exit in awk-Scripts verwendet, wenn die Weiterarbeit keinen Sinn mehr ergibt oder ein unerwarteter Fehler aufgetreten ist. exit kann hier mit oder ohne Rückgabewert verwendet werden. Der Rückgabewert kann dann in der Shell zur Behandlung des aufgetretenen Fehlers bearbeitet werden.\n > while ( Bedingung ) { ... if( Bedingung ) break # while-Schleife beenden if( Bedingung ) continue # hochspringen zum nächsten Schleifendurchlauf if( Bedingung ) exit 1 # Schwerer Fehler â Script beenden ... }\n\nEin für Sie wahrscheinlich etwas unbekannterer Befehl ist next. Mit ihm können Sie die Verarbeitung der aktuellen Zeile unterbrechen und mit der nächsten Zeile fortfahren. Dies kann zum Beispiel sinnvoll sein, wenn Sie eine Zeile bearbeiten, die zu wenig Felder enthält:\n > ... # weniger als 10 Felder -> überspringen if( NF < 10 ) next\n\n# 13.6 FunktionenÂ\n\n13.6 Funktionen \n awk ist ohnehin ein mächtiges Werkzeug. Doch mit den Funktionen, die awk Ihnen jetzt auch noch anbietet, können Sie awk noch mehr erweitern. Und sollten Ihnen die Funktionen, die awk mitliefert, nicht ausreichen, können Sie immer noch eigene benutzerdefinierte Funktionen hinzufügen.\n 13.6.1 Mathematische Funktionen \n Hier zunächst ein Überblick aller arithmetischen Funktionen, die Ihnen awk zur Verfügung stellt.\n\n Tabelle 13.8  Mathematische Builtin-Funktionen von awk\n\n atan2(x,y)\n Arcustangens von x/y in Radian\n\n cos(x)\n Liefert den Cosinus in Radian\n\n exp(x)\n Exponentialfunktion\n\n int(x)\n Abschneiden einer Zahl zu einer Ganzzahl\n\n log(x)\n Natürlicher Logarithmus zur Basis e\n\n rand()\n (Pseudo-)Zufallszahl zwischen 0 und 1\n\n sin(x)\n Liefert den Sinus in Radian\n\n sqrt(x)\n Quadratwurzel\n\n srand(x)\n Setzt Startwert für Zufallszahlen. Bei keiner Angabe wird die aktuelle Zeit verwendet.\n\n Zwar werden Sie als Systemadministrator seltener mit komplizierten arithmetischen Berechnungen konfrontiert sein, dennoch soll hier auf einige Funktionen eingegangen werden, mit denen Sie es als Nicht-Mathematiker häufiger zu tun bekommen. So zum Beispiel die Funktion int, womit Sie aus einer Gleitpunktzahl eine Ganzzahl machen, indem die Nachkommastellen abgeschnitten werden. Ein Beispiel:\n you@host > awk 'END { print 30/4 }' datei 7,5 you@host > awk 'END { print int(30/4) }' datei 7\n Neben dem Abschneiden von Gleitpunktzahlen benötigt man manchmal auch Zufallszahl. Hier bieten Ihnen die Funktionen rand und srand eine Möglichkeit an, solche zu erzeugen.\n you@host > awk 'END { print rand() }' datei 0,237788\n Hier haben Sie mit der Verwendung von rand eine Zufallszahl zwischen 0 und 1 erzeugt. Wenn Sie allerdings rand erneut aufrufen, ergibt sich dasselbe Bild:\n you@host > awk 'END { print rand() }' datei 0,237788\n Die Zufallsfunktion rand bezieht sich auf einen Startwert, mit dem sie eine (Pseudo-)Zufallszahl generiert. Diesen Startwert können Sie mit der Funktion srand verändern:\n you@host > awk 'BEGIN { print srand() }; { print rand() }' datei 0,152827 you@host > awk 'BEGIN { print srand() }; { print rand() }' datei 0,828926\n Mit der Funktion srand ohne Angabe eines Parameters wird jedes Mal zum Setzen eines neuen Startwerts für die Funktion rand die aktuelle Zeit verwendet. Dadurch ist die Verwendung von rand schon wesentlich effektiver und zufälliger (wenn auch nicht perfekt).\n 13.6.2 Funktionen für Zeichenketten \n Die Funktionen für Zeichenketten dürften die am häufigsten eingesetzten Funktionen für Sie als Shell-Programmierer sein. Oft werden Sie hierbei kein extra awk-Script schreiben, sondern die allseits beliebten Einzeiler verwenden. Trotzdem sollten Sie immer bedenken, dass wenn Sie awk-Einzeiler in Ihrem Shellscript in einer Schleife mehrmals aufrufen, dies jedes Mal den Start eines neuen (awkâ)Prozesses bedeutet. Die Performance könnte darunter erheblich leiden. Bei häufigen awk-Aufrufen in Schleifen sollten Sie daher in Erwägung ziehen, ein awk-Script zu schreiben. Wie dies geht, haben Sie ja in diesem Kapitel erfahren. Die Syntax eines solchen Einzeilers in einem Shellscript sieht häufig wie folgt aus:\n echo string | awk '{ print string_funktion($0) }'\n oder\n cat datei | awk '{ print string_funktion($0) }'\n (Globale) Ersetzung mit sub und gsub\n Die Syntax:\n sub (regulärer_Ausdruck, Ersetzungs_String); sub (regulärer_Ausdruck, Ersetzungs_String, Ziel_String) gsub (regulärer_Ausdruck, Ersetzungs_String); gsub (regulärer_Ausdruck, Ersetzungs_String, Ziel_String)\n Mit beiden Funktionen wird das Auftreten von »regulärer_Ausdruck« durch »Ersetzungs_String« ersetzt. Wird kein »Ziel_String« mit angegeben, so wird $0 verwendet. Der Rückgabewert ist die Anzahl erfolgreicher Ersetzungen. Der Unterschied zwischen gsub und sub liegt darin, dass mit gsub (global substitution) eine globale Ersetzung und mit sub eine Ersetzung des ersten Vorkommens durchgeführt wird.\n you@host > awk '{ gsub(/USA/, \"Amerika\"); print }' mrolympia.dat Amerika 1965 1966 1967 1968 1969 ...\n Hier werden alle Textfolgen »USA« der Datei mrolympia.dat durch »Amerika« ersetzt. Wollen Sie nur das erste Vorkommen ersetzen, so müssen Sie sub verwenden. Es kann aber nun sein, dass sich in einer Zeile mehrmals die Textfolge »USA« befindet, Sie aber nur eine bestimmte Spalte ersetzen wollen. Dann können Sie das dritte Argument von gsub bzw. sub verwenden:\n you@host > awk '{ gsub(/USA/, \"Amerika\", $3); print }' mrolympia.dat 1965 1966 1967 1968 1969 ...\n Hier weisen Sie explizit an, dass nur wenn die dritte Spalte die Textfolge »USA« enthält, diese durch die Textfolge »Amerika« zu ersetzen ist.\n\n Hinweis   Zu Demonstrationszwecken werden keine komplizierten regulären Ausdrücke verwendet, sondern immer einfache Textfolgen. Hier geht es lediglich um eine Funktionsbeschreibung der Zeichenketten-Funktionen von awk.\n\n Position einer Zeichenkette ermitteln â index\n Die Syntax:\n index(string, substring)\n Diese Funktion gibt die erste Position der Zeichenkette »substring« in »string« zurück. 0 wird zurückgegeben, wenn keine Übereinstimmung gefunden wurde. Folgendes Beispiel gibt alle Zeilen mit der Textfolge »USA« mitsamt ihren Positionen zurück:\n you@host > awk '{ i=index($0, \"USA\"); if(i) print NR \":\" i }' \\ > mrolympia.dat 1:13 2:14 5:17 7:11 9:16\n Länge einer Zeichenkette ermitteln â length\n Die Syntax:\n length(string)\n Mit dieser Funktion können Sie die Länge der Zeichenkette »string« ermitteln. Nehmen Sie für »string« keine Angabe vor, wird $0 verwendet.\n Folgendes Beispiel gibt die Länge der jeweils ersten Spalten einer jeden Zeile aus und das darauf folgende Beispiel, die Länge einer kompletten Zeile ($0):\n you@host > awk '{ print NR \":\" length($1) }' mrolympia.dat 1:5 2:6 3:6 ... you@host > awk '{ print NR \":\" length }' mrolympia.dat 1:25 2:31 3:67 ...\n Suchen nach Muster â match\n Die Syntax:\n match(string, regulärer_Ausdruck)\n Mit match suchen Sie nach dem Muster »regulärer_Ausdruck« in »string«. Wird ein entsprechender Ausdruck gefunden, wird die Position zurückgegeben, ansonsten bei erfolgloser Suche lautet der Rückgabewert 0. Die Startposition des gefundenen (Teil-)Strings »regulärer_Ausdruck« finden Sie in RSTART und die Länge des Teilstücks in RLENGTH. Ein Beispiel:\n you@host > awk '{ i=match($0, \"Yates\"); \\ > if(i) print NR, RSTART, RLENGTH }' mrolympia.dat 8 8 5\n Hier wird nach der Zeichenfolge »Yates« gematcht und bei Erfolg werden die Zeile, die Position in der Zeile und die Länge zurückgegeben.\n Zeichenkette zerlegen â split\n Die Syntax:\n split (string, array, feld_trenner) split (string, array)\n Mit dieser Funktion zerlegen Sie die Zeichenkette »string« und teilen die einzelnen Stücke in das Array »array« auf. Standardmäßig werden die einzelnen Zeichenketten anhand von FS (standardmäßig ein Leerzeichen) »zersplittet«. Allerdings können Sie dieses Verhalten optional über den dritten Parameter mit »feld_trenner« verändern. Als Rückgabewert erhalten Sie die höchste Indexnummer des erzeugten Arrays. Ein Beispiel zu dieser Funktion wurde bereits in Abschnitt 13.5.2 gegeben.\n Eine Zeichenkette erzeugen â sprintf\n Die Syntax:\n string=sprintf(fmt, exprlist)\n Mit sprintf erzeugen Sie eine Zeichenkette und liefern diese zurück. Der Formatstring »fmt« und die Argumente »exprlist« werden genauso verwendet wie bei printf für die Ausgabe. Ein einfaches Beispiel:\n you@host > awk '{ \\ > line=sprintf(\"%-10s\\t%-15s\\t%-15s\", $1, $2, $3); print line }'\\ > mrolympia.dat USA USA ger Österreich Franco Columbu Argentinien ...\n Teilstück einer Zeichenkette zurückgegeben â substr\n Die Syntax:\n substr(string, start_position) substr(string, start_position, länge)\n Die Funktion gibt einen Teil einer Zeichenkette »string« ab der Position »start_position« entweder bis zur Länge »länge« oder bis zum Ende zurück.\n you@host > awk '{ print substr($0, 5, 10)}' mrolympia.dat y Scott US io Oliva U ld Schwarz co Columbu ...\n In diesem Beispiel wird (auch wenn es hier keinen Sinn macht) aus jeder Zeile der Datei mrolympia.dat eine Textfolge ab der Position 5 bis 10 ausgegeben (oder auch ausgeschnitten).\n Groß- und Kleinbuchstaben â toupper und tolower\n Die Syntax:\n toupper(string) tolower(string)\n Mit der Funktion toupper werden alle Kleinbuchstaben in »string« in Großbuchstaben und mit tolower alle Großbuchstaben in Kleinbuchstaben umgewandelt. Ein Beispiel:\n you@host > awk '{ print toupper($0)}' mrolympia.dat LARRY SCOTT USA 1965 1966 SERGIO OLIVA USA 1967 1968 1969 ARNOLD SCHWARZENEGGER ÖSTERREICH 1970 1971 1972 1973 1974 1975 ... you@host > awk '{ print tolower($0)}' mrolympia.dat larry scott usa 1965 1966 sergio oliva usa 1967 1968 1969 arnold schwarzenegger österreich 1970 1971 1972 1973 1974 1975 ...\n 13.6.3 Funktionen für die Zeit \n In awk existieren auch zwei Funktionen für eine Zeitangabe: zum einen die Funktion systime (der UNIX-Timestamp), welche die aktuelle Tageszeit als Anzahl Sekunden zurückgibt, die seit dem 1.1.1970 vergangen sind. Zum anderen existiert noch die Funktion strftime, welche einen Zeitwert nach Maßangaben einer Formatanweisung (ähnlich wie bei dem Kommando date) formatiert. Diese Funktion ist außerdem der Funktion strftime() aus C nachgebildet und auch die Formatanweisungen haben dieselbe Bedeutung. Die Syntax zu strftime lautet:\n strftime( format, timestamp );\n Die möglichen Formatanweisungen von »format« finden Sie in der folgenden Tabelle. Den »timestamp« erhalten Sie aus dem Rückgabewert der Funktion systime. Hier zunächst die Formatanweisungen für strftime:\n\n Tabelle 13.9  (Zeit-)Formatanweisungen für strftime\n\n Format\n ⦠wird ersetzt durch â¦\n Beispiel\n\n %a\n Wochenname (gekürzt)\n Sat\n\n %A\n Wochenname (ausgeschrieben)\n Saturday\n\n %b\n Monatsname (gekürzt)\n Jan\n\n %B\n Monatsname (ausgeschrieben)\n January\n\n %c\n Entsprechende lokale Zeit- und Datumsdarstellung\n Sat Jan 22 22:22:22 MET 2003\n\n %d\n Monatstag (1â31)\n 22\n\n %H\n Stunde im 24-Stunden-Format (0â23)\n 23\n\n %I\n Stunde im 12-Stunden-Format (1â12)\n 5\n\n %j\n Tag des Jahres (1â366)\n 133\n\n %m\n Monat (1â12)\n 5\n\n %M\n Minute (0â59)\n 40\n\n %p\n AM- oder PM-Zeitangabe; Indikator für das 12-Stunden-Format (USA)\n PM\n\n %S\n Sekunden (0â69)\n 55\n\n %U\n Wochennummer (0â53) (Sonntag als erster Tag der Woche)\n 33\n\n %w\n Wochentag (0â6, Sonntag = 0)\n 3\n\n %W\n Wochennummer (0â53) (Montag als erster Tag der Woche)\n 4\n\n %x\n Lokale Datumsdarstellung\n 02/20/02\n\n %X\n Lokale Zeitdarstellung\n 20:15:00\n\n %y\n Jahreszahl (ohne Jahrhundertzahl 0â99)\n 01 (2001)\n\n %Y\n Jahreszahl (mit Jahrhundertzahl YYYY)\n 2001\n\n %Z, %z\n Zeitzone (gibt nichts aus, wenn Zeitzone unbekannt)\n MET\n\n %%\n Prozentzeichen\n %\n\n Hierzu ein simples Anwendungsbeispiel, welches alle Zeilen einer Datei auf dem Bildschirm und am Ende einen Zeitstempel ausgibt â eine einfache Demonstration der Funktionen systime und strftime:\n #!/usr/bin/awk -f # # Programmname: timestamp.awk BEGIN { now = systime() # macht eine Ausgabe ala date timestamp = strftime(\"%a %b %d %H:%M:%S %Z %Y\", now) } { print } END { print timestamp }\n Das Script bei der Ausführung:\n you@host > ./timestamp.awk mrolympia.dat USA 1965 1966 USA 1967 1968 1969 ... ... USA 1998 1999 2000 2001 2002 2003 2004 Fr Apr 15 07:48:35 CEST 2005\n 13.6.4 Systemfunktionen \n Sofern Sie reine awk-Scripts schreiben und awk nicht in ein Shellscript einbauen, aber einen UNIX-Befehl ausführen wollen, gibt es hierfür die Funktion system:\n system(\"Befehl\")\n Damit können Sie jeden »Befehl« wie in der Kommandozeile ausführen. Sofern Sie die Ausgabe des Befehls abfangen wollen, müssen Sie getline (siehe Abschnitt 13.6.6) dazu verwenden:\n \"Befehl\" | getline\n 13.6.5 Ausgabefunktionen \n Die eigentlichen Ausgabefunktionen print und printf haben Sie bereits kennen gelernt. Trotzdem soll hier noch eine Tabelle erstellt werden, worin Sie aufgelistet finden, wie Sie die Ausgabe anwenden können.\n\n Tabelle 13.10  Mögliche print-Ausgaben\n\n print\n Ausgabe der aktuellen Zeile (Datensatz); gleichwertig mit print $0.\n\n print /reguläerer Ausdruck/\n Hier können Sie bspw. testen, ob der Ausdruck in der entsprechenden Zeile zutrifft. Trifft der Ausdruck nicht zu, wird 0, ansonsten 1 zurückgegeben. Bspw.: awk '{ print /USA/ }' mrolympia.dat gibt in jeder Zeile, in der die Textfolge »USA« enthalten ist, 1 und sonst 0 zurück.\n\n print Ausdrucksliste\n Ausgabe aller in »Ausdrucksliste« angegebenen Werte. Hierbei können Konstanten, berechnete Werte, Variablen- oder Feldwerte enthalten sein.\n\n print Ausdrucksliste > datei\n Die Ausgabe aller in »Ausdrucksliste« angegebenen Werte wird in datei geschrieben. Dabei kann es sich durchaus um einen berechneten Wert handeln.\n\n print Ausdrucksliste >> datei\n Wie eben, nur dass hierbei die Ausgabe aller in »Ausdrucksliste« enthaltenen Werte ans Ende von datei gehängt wird.\n\n Für printf gilt das Gleiche, nur dass die Ausgabe formatiert erfolgt.\n 13.6.6 Eingabefunktion \n Der eine oder andere mag jetzt ganz verwundert sein, aber awk unterstützt auch eine Eingabefunktion mit getline. getline ist ein sehr vielseitiges Kommando. Diese Funktion liefert im Fall eines Fehlers â1, bei Dateiende oder (Strg)+(D) 0 und bei erfolgreichem Lesen 1 zurück. Sie liest eine Zeile von der Eingabezeile, was stdin oder eine Datei sein kann, und speichert diese entweder in $0 oder in einer separat angegebenen Variablen.\n\n Tabelle 13.11  Die getline-Eingabefunktion\n\n getline\n Verwenden Sie getline ohne Argumente, wird vom aktuellen Eingabekanal der nächste Datensatz (Zeile) eingelesen und in $0 gespeichert.\n\n getline var\n Liest die nächste Zeile vom aktuellen Eingabekanal und speichert diese Zeile in »var«. Wichtig, NR und FNR werden hochgezählt, aber NF wird nicht belegt, weil hier keine Auftrennung in Worten (Feldern) erfolgt!\n\n getline < datei\n Liest die nächste Zeile von einer Datei, welche geöffnet wird und am Ende mittels close() selbst geschlossen werden muss! Die Zeile befindet sich in $0.\n\n getline var < datei\n Liest die nächste Zeile von einer Datei, welche geöffnet wird und am Ende mittels close() selbst geschlossen werden muss, in die Variable »var« ein. Hierbei werden allerdings NF, NR und FNR nicht verändert!\n\n string | getline\n Liest die nächste Zeile von der Pipe (hier dem String »string«) ein. Die eingelesene Zeile wird in $0 gespeichert.\n\n \"kommando\" | getline var\n Hier wird die nächste Zeile von einem Kommando eingelesen und die eingelesene Zeile befindet sich in »var«.\n\n Bei der Verwendung von getline war auch die Rede von der Funktion close, mit der Sie eine Datei oder eine geöffnete Pipe wieder schließen müssen.\n close(Dateinamen)\n Der Dateiname kann hierbei als eine Stringkonstante vorliegen oder eine Variable sein.\n\n Hinweis   Möglicherweise ist dies etwas verwirrend, weil in awk die Datei zwar automatisch geöffnet wird, aber sobald man mit getline etwas daraus liest, diese wieder von Hand mit close geschlossen werden soll. Gerade wenn man andere Programmiersprachen verwendet, kennt man doch die Logik, ein Programm manuell zu öffnen und diese auch wieder manuell zu schließen.\n\n Hinweis   In der Praxis sollten Sie natürlich überprüfen, ob die Datei zum Öffnen überhaupt existiert oder/und lesbar ist und gegebenenfalls abbrechen.\n\n Das Script bei der Ausführung:\n you@host > ./search.awk Wonach suchen Sie : USA In welcher Datei : mrolympia.dat USA 1965 1966 USA 1967 1968 1969 USA 1982 USA 1984 1985 1986 1987 1988 1989 1990 1991 USA 1998 1999 2000 2001 2002 2003 2004 you@host > ./search.awk Wonach suchen Sie : ien In welcher Datei : mrolympia.dat Argentinien 1976 1981 itannien 1992 1993 1994 1995 1996 1997 you@host > ./search.awk Wonach suchen Sie : Samir In welcher Datei : mrolympia.dat 1983\n Hier soll auch noch ein weiteres gängiges und mächtiges Feature von getline vorgestellt werden, und zwar die Möglichkeit, ein (Linux-/UNIX-)Kommando nach getline zu »pipen«. Das folgende Script gibt die größte Datei aus. Die Größe einer Datei finden Sie mit ls âl in der fünften Spalte.\n #!/usr/bin/awk -f # # Programmname: bigfile.awk { my_ls=\"/bin/ls -ld '\" quoting($0) \"' 2>/dev/null\" if( my_ls | getline ) { if( $5 > filesize ) { filename=$8 filesize=$5 } } close(my_ls) } END { if( filename ) print \"Größte Datei ist \" filename \" mit \" filesize \" Bytes\" else print \"Konnte keine größte Datei ermitteln?!?\" } function quoting(s, n) { n=s gsub(/'/, \"'\\\"'\\\"'\", n) return n }\n Das Script bei der Ausführung:\n you@host > find $HOME -print | ./bigfile.awk Größte Datei ist ~/Desktop/Trash/Trailer.mpg mit 91887620 Byte\n Im Script wurde auch eine Funktion zum Schutz für Dateien mit einfachen Anführungszeichen (Single Quotes) verwendet. Mehr zu den selbst definierten Funktionen erfahren Sie gleich.\n 13.6.7 Benutzerdefinierte Funktionen \n Als Programmierer von Shellscripts dürften Sie mit dem awk-Wissen, das Sie jetzt haben, mehr als zufrieden sein. Aber neben der Verwendung von Builtin-Funktionen von awk haben Sie außerdem noch die Möglichkeit, eigenen Funktionen zu schreiben. Daher hier noch eine kurze Beschreibung, wie Sie auch dies realisieren können. Der Ort einer Funktionsdefinition ist nicht so wichtig, obgleich es sich eingebürgert hat, diese am Ende des Scripts zu definieren.\n function functions_name( parameter ) { # Anweisungen }\n Dem Schlüsselwort function, welches Sie immer verwenden müssen, folgt der Funktionsname. Erlaubt sind hier alle Kombinationen aus Buchstaben, Ziffern und einem Unterstrich â einzig am Anfang darf keine Ziffer stehen. Variablen und Funktion dürfen in einem Script allerdings nicht denselben Namen haben. Als Argumente können Sie einer Funktion beliebig viele oder auch gar keine Parameter angeben. Mehrere Argumente werden mit einem Komma getrennt. Die Anweisungen einer Funktion werden zwischen geschweiften Klammern (dem Anweisungsblock) zusammengefasst.\n Zum Aufruf einer Funktion müssen Sie den Funktionsnamen gefolgt von runden Klammern und eventuell den einzelnen Parametern angeben. Beachten Sie außerdem, dass sich zwischen dem Funktionsnamen und der sich öffnenden Klammer kein Leerzeichen befinden darf. Werden weniger Parameter als in der Funktionsdefinition definiert angegeben, so führt dies nicht zu einem Fehler. Nicht angegebene Parameter werden â abhängig vom Kontext â als 0 oder eine leere Zeichenkette interpretiert.\n Anders sieht dies allerdings aus, wenn Sie einer Funktion einen Parameter übergeben, obwohl in der Funktionsdefinition keinerlei Argumente enthalten sind. Dann wird Ihnen awk das Script mit einer Fehlermeldung abbrechen.\n Alle Variablen einer Funktion sind global, abgesehen von den Variablen in den runden Klammern. Deren Gültigkeitsbereich ist nur auf die Funktion allein beschränkt.\n Um Werte aus einer Funktion zurückzugeben, wird auch hierbei der return-Befehl gefolgt vom Wert verwendet. Beispielsweise:\n function functions_name( parameter ) { # Anweisungen ... return Wert }\n Mehrere Werte können Sie auch hier, wie in der Shell, zu einem String zusammenfassen und im Hauptteil wieder splitten:\n function functions_name( parameter ) { # Anweisungen ... return Wert1 \" \" Wert2 \" \" Wert3 } ... ret=functions_name( param ) split(ret, array) ... print array[1]\n Hier konnten Sie auch gleich sehen, wie Sie im Hauptteil den Rückgabewert auffangen können.\n Die Übergabe von Variablen erfolgt in der Regel »by-value«, sprich: Die Werte des Funktionsaufrufs werden in die Argumente der Funktion kopiert, sodass jede Veränderung des Werts nur in der Funktion gültig ist. Anders hingegen werden Arrays behandelt, diese werden »by-reference«, also als Speicheradresse auf den ersten Wert des Arrays übergeben. Dies erscheint sinnvoll, denn müsste ein Array mit mehreren hundert Einträgen erst kopiert werden, wäre ein Funktionsaufruf wohl eine ziemliche Bremse. Somit bezieht sich allerdings eine Veränderung des Arrays in der Funktion auch auf das Original.\n Hierzu ein einfaches Beispiel mit einer selbst definierten Funktion:\n #!/usr/bin/awk -f # # Programmname: FILEprint.awk { FILEprint($0) } function FILEprint( line ) { if(length(line) == 0) return \"Leerer String\" else print FILENAME \"(\" NR \") : \" line }\n Das Script bei der Ausführung:\n you@host > ./FILEprint.awk mrolympia.dat mrolympia.dat(1) : USA 1965 1966 mrolympia.dat(2) : USA 1967 1968 1969 mrolympia.dat(3) : Österreich 1970 1971 1972 ... ...\n Hier haben Sie eine einfache benutzerdefinierte print-Funktion, welche am Anfang einer Zeile jeweils den Dateinamen und die Zeilennummer mit ausgibt.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 13.6 FunktionenÂ\n\nawk ist ohnehin ein mächtiges Werkzeug. Doch mit den Funktionen, die awk Ihnen jetzt auch noch anbietet, können Sie awk noch mehr erweitern. Und sollten Ihnen die Funktionen, die awk mitliefert, nicht ausreichen, können Sie immer noch eigene benutzerdefinierte Funktionen hinzufügen.\n\n### 13.6.1 Mathematische FunktionenÂ\n\nHier zunächst ein Überblick aller arithmetischen Funktionen, die Ihnen awk zur Verfügung stellt.\n\nFunktion | Bedeutung |\n | --- | --- |\natan2(x,y) | Arcustangens von x/y in Radian |\ncos(x) | Liefert den Cosinus in Radian |\nexp(x) | Exponentialfunktion |\nint(x) | Abschneiden einer Zahl zu einer Ganzzahl |\nlog(x) | Natürlicher Logarithmus zur Basis e |\nrand() | (Pseudo-)Zufallszahl zwischen 0 und 1 |\nsin(x) | Liefert den Sinus in Radian |\nsqrt(x) | Quadratwurzel |\nsrand(x) | Setzt Startwert für Zufallszahlen. Bei keiner Angabe wird die aktuelle Zeit verwendet. |\n\nZwar werden Sie als Systemadministrator seltener mit komplizierten arithmetischen Berechnungen konfrontiert sein, dennoch soll hier auf einige Funktionen eingegangen werden, mit denen Sie es als Nicht-Mathematiker häufiger zu tun bekommen. So zum Beispiel die Funktion int, womit Sie aus einer Gleitpunktzahl eine Ganzzahl machen, indem die Nachkommastellen abgeschnitten werden. Ein Beispiel:\n > you@host > awk 'END { print 30/4 }' datei 7,5 you@host > awk 'END { print int(30/4) }' datei 7\n\nNeben dem Abschneiden von Gleitpunktzahlen benötigt man manchmal auch Zufallszahl. Hier bieten Ihnen die Funktionen rand und srand eine Möglichkeit an, solche zu erzeugen.\n > you@host > awk 'END { print rand() }' datei 0,237788\n\nHier haben Sie mit der Verwendung von rand eine Zufallszahl zwischen 0 und 1 erzeugt. Wenn Sie allerdings rand erneut aufrufen, ergibt sich dasselbe Bild:\n > you@host > awk 'END { print rand() }' datei 0,237788\n\nDie Zufallsfunktion rand bezieht sich auf einen Startwert, mit dem sie eine (Pseudo-)Zufallszahl generiert. Diesen Startwert können Sie mit der Funktion srand verändern:\n > you@host > awk 'BEGIN { print srand() }; { print rand() }' datei 0,152827 you@host > awk 'BEGIN { print srand() }; { print rand() }' datei 0,828926\n\nMit der Funktion srand ohne Angabe eines Parameters wird jedes Mal zum Setzen eines neuen Startwerts für die Funktion rand die aktuelle Zeit verwendet. Dadurch ist die Verwendung von rand schon wesentlich effektiver und zufälliger (wenn auch nicht perfekt).\n\n### 13.6.2 Funktionen für ZeichenkettenÂ\n\nDie Funktionen für Zeichenketten dürften die am häufigsten eingesetzten Funktionen für Sie als Shell-Programmierer sein. Oft werden Sie hierbei kein extra awk-Script schreiben, sondern die allseits beliebten Einzeiler verwenden. Trotzdem sollten Sie immer bedenken, dass wenn Sie awk-Einzeiler in Ihrem Shellscript in einer Schleife mehrmals aufrufen, dies jedes Mal den Start eines neuen (awkâ)Prozesses bedeutet. Die Performance könnte darunter erheblich leiden. Bei häufigen awk-Aufrufen in Schleifen sollten Sie daher in Erwägung ziehen, ein awk-Script zu schreiben. Wie dies geht, haben Sie ja in diesem Kapitel erfahren. Die Syntax eines solchen Einzeilers in einem Shellscript sieht häufig wie folgt aus:\n > echo string | awk '{ print string_funktion($0) }'\n\noder\n > cat datei | awk '{ print string_funktion($0) }'\n\n# (Globale) Ersetzung mit sub und gsub\n\nDie Syntax:\n > sub (regulärer_Ausdruck, Ersetzungs_String); sub (regulärer_Ausdruck, Ersetzungs_String, Ziel_String) gsub (regulärer_Ausdruck, Ersetzungs_String); gsub (regulärer_Ausdruck, Ersetzungs_String, Ziel_String)\n\nMit beiden Funktionen wird das Auftreten von »regulärer_Ausdruck« durch »Ersetzungs_String« ersetzt. Wird kein »Ziel_String« mit angegeben, so wird $0 verwendet. Der Rückgabewert ist die Anzahl erfolgreicher Ersetzungen. Der Unterschied zwischen gsub und sub liegt darin, dass mit gsub (global substitution) eine globale Ersetzung und mit sub eine Ersetzung des ersten Vorkommens durchgeführt wird.\n > you@host > awk '{ gsub(/USA/, \"Amerika\"); print }' mrolympia.dat Amerika 1965 1966 1967 1968 1969 ...\n\nHier werden alle Textfolgen »USA« der Datei mrolympia.dat durch »Amerika« ersetzt. Wollen Sie nur das erste Vorkommen ersetzen, so müssen Sie sub verwenden. Es kann aber nun sein, dass sich in einer Zeile mehrmals die Textfolge »USA« befindet, Sie aber nur eine bestimmte Spalte ersetzen wollen. Dann können Sie das dritte Argument von gsub bzw. sub verwenden:\n > you@host > awk '{ gsub(/USA/, \"Amerika\", $3); print }' mrolympia.dat ika 1965 1966 1967 1968 1969 ...\n\nHier weisen Sie explizit an, dass nur wenn die dritte Spalte die Textfolge »USA« enthält, diese durch die Textfolge »Amerika« zu ersetzen ist.\n\n# Position einer Zeichenkette ermitteln â index\n\nDie Syntax:\n > index(string, substring)\n\nDiese Funktion gibt die erste Position der Zeichenkette »substring« in »string« zurück. 0 wird zurückgegeben, wenn keine Übereinstimmung gefunden wurde. Folgendes Beispiel gibt alle Zeilen mit der Textfolge »USA« mitsamt ihren Positionen zurück:\n > you@host > awk '{ i=index($0, \"USA\"); if(i) print NR \":\" i }' \\ > mrolympia.dat 1:13 2:14 5:17 7:11 9:16\n\n# Länge einer Zeichenkette ermitteln â length\n\nDie Syntax:\n > length(string)\n\nMit dieser Funktion können Sie die Länge der Zeichenkette »string« ermitteln. Nehmen Sie für »string« keine Angabe vor, wird $0 verwendet.\n\nFolgendes Beispiel gibt die Länge der jeweils ersten Spalten einer jeden Zeile aus und das darauf folgende Beispiel, die Länge einer kompletten Zeile ($0):\n > you@host > awk '{ print NR \":\" length($1) }' mrolympia.dat 1:5 2:6 3:6 ... you@host > awk '{ print NR \":\" length }' mrolympia.dat 1:25 2:31 3:67 ...\n\n# Suchen nach Muster â match\n\nDie Syntax:\n > match(string, regulärer_Ausdruck)\n\nMit match suchen Sie nach dem Muster »regulärer_Ausdruck« in »string«. Wird ein entsprechender Ausdruck gefunden, wird die Position zurückgegeben, ansonsten bei erfolgloser Suche lautet der Rückgabewert 0. Die Startposition des gefundenen (Teil-)Strings »regulärer_Ausdruck« finden Sie in RSTART und die Länge des Teilstücks in RLENGTH. Ein Beispiel:\n > you@host > awk '{ i=match($0, \"Yates\"); \\ > if(i) print NR, RSTART, RLENGTH }' mrolympia.dat 8 8 5\n\nHier wird nach der Zeichenfolge »Yates« gematcht und bei Erfolg werden die Zeile, die Position in der Zeile und die Länge zurückgegeben.\n\n# Zeichenkette zerlegen â split\n\nDie Syntax:\n > split (string, array, feld_trenner) split (string, array)\n\nMit dieser Funktion zerlegen Sie die Zeichenkette »string« und teilen die einzelnen Stücke in das Array »array« auf. Standardmäßig werden die einzelnen Zeichenketten anhand von FS (standardmäßig ein Leerzeichen) »zersplittet«. Allerdings können Sie dieses Verhalten optional über den dritten Parameter mit »feld_trenner« verändern. Als Rückgabewert erhalten Sie die höchste Indexnummer des erzeugten Arrays. Ein Beispiel zu dieser Funktion wurde bereits in Abschnitt 13.5.2 gegeben.\n\n# Eine Zeichenkette erzeugen â sprintf\n\nDie Syntax:\n > string=sprintf(fmt, exprlist)\n\nMit sprintf erzeugen Sie eine Zeichenkette und liefern diese zurück. Der Formatstring »fmt« und die Argumente »exprlist« werden genauso verwendet wie bei printf für die Ausgabe. Ein einfaches Beispiel:\n > you@host > awk '{ \\ > line=sprintf(\"%-10s\\t%-15s\\t%-15s\", $1, $2, $3); print line }'\\ > mrolympia.dat Lcott USA USA Arenegger Österreich Franco Columbu Argentinien ...\n\n# Teilstück einer Zeichenkette zurückgegeben â substr\n\nDie Syntax:\n > substr(string, start_position) substr(string, start_position, länge)\n\nDie Funktion gibt einen Teil einer Zeichenkette »string« ab der Position »start_position« entweder bis zur Länge »länge« oder bis zum Ende zurück.\n > you@host > awk '{ print substr($0, 5, 10)}' mrolympia.dat y Scott US io Oliva U ld Schwarz co Columbu ...\n\nIn diesem Beispiel wird (auch wenn es hier keinen Sinn macht) aus jeder Zeile der Datei mrolympia.dat eine Textfolge ab der Position 5 bis 10 ausgegeben (oder auch ausgeschnitten).\n\n# Groß- und Kleinbuchstaben â toupper und tolower\n\nDie Syntax:\n > toupper(string) tolower(string)\n\nMit der Funktion toupper werden alle Kleinbuchstaben in »string« in Großbuchstaben und mit tolower alle Großbuchstaben in Kleinbuchstaben umgewandelt. Ein Beispiel:\n > you@host > awk '{ print toupper($0)}' mrolympia.dat LARRY SCOTT USA 1965 1966 SERGIO OLIVA USA 1967 1968 1969 ARNOLD SCHWARZENEGGER ÖSTERREICH 1970 1971 1972 1973 1974 1975 ... you@host > awk '{ print tolower($0)}' mrolympia.dat larry scott usa 1965 1966 sergio oliva usa 1967 1968 1969 arnold schwarzenegger österreich 1970 1971 1972 1973 1974 1975 ...\n\n### 13.6.3 Funktionen für die ZeitÂ\n\nIn awk existieren auch zwei Funktionen für eine Zeitangabe: zum einen die Funktion systime (der UNIX-Timestamp), welche die aktuelle Tageszeit als Anzahl Sekunden zurückgibt, die seit dem 1.1.1970 vergangen sind. Zum anderen existiert noch die Funktion strftime, welche einen Zeitwert nach Maßangaben einer Formatanweisung (ähnlich wie bei dem Kommando date) formatiert. Diese Funktion ist außerdem der Funktion strftime() aus C nachgebildet und auch die Formatanweisungen haben dieselbe Bedeutung. Die Syntax zu strftime lautet:\n > strftime( format, timestamp );\n\nDie möglichen Formatanweisungen von »format« finden Sie in der folgenden Tabelle. Den »timestamp« erhalten Sie aus dem Rückgabewert der Funktion systime. Hier zunächst die Formatanweisungen für strftime:\n\nFormat | ⦠wird ersetzt durch ⦠| Beispiel |\n | --- | --- | --- |\n%a | Wochenname (gekürzt) | Sat |\n%A | Wochenname (ausgeschrieben) | Saturday |\n%b | Monatsname (gekürzt) | Jan |\n%B | Monatsname (ausgeschrieben) | January |\n%c | Entsprechende lokale Zeit- und Datumsdarstellung | Sat Jan 22 22:22:22 MET 2003 |\n%d | Monatstag (1â31) | 22 |\n%H | Stunde im 24-Stunden-Format (0â23) | 23 |\n%I | Stunde im 12-Stunden-Format (1â12) | 5 |\n%j | Tag des Jahres (1â366) | 133 |\n%m | Monat (1â12) | 5 |\n%M | Minute (0â59) | 40 |\n%p | AM- oder PM-Zeitangabe; Indikator für das 12-Stunden-Format (USA) | PM |\n%S | Sekunden (0â69) | 55 |\n%U | Wochennummer (0â53) (Sonntag als erster Tag der Woche) | 33 |\n%w | Wochentag (0â6, Sonntag = 0) | 3 |\n%W | Wochennummer (0â53) (Montag als erster Tag der Woche) | 4 |\n%x | Lokale Datumsdarstellung | 02/20/02 |\n%X | Lokale Zeitdarstellung | 20:15:00 |\n%y | Jahreszahl (ohne Jahrhundertzahl 0â99) | 01 (2001) |\n%Y | Jahreszahl (mit Jahrhundertzahl YYYY) | 2001 |\n%Z, %z | Zeitzone (gibt nichts aus, wenn Zeitzone unbekannt) | MET |\n%% | Prozentzeichen | % |\n\nHierzu ein simples Anwendungsbeispiel, welches alle Zeilen einer Datei auf dem Bildschirm und am Ende einen Zeitstempel ausgibt â eine einfache Demonstration der Funktionen systime und strftime:\n > #!/usr/bin/awk -f # # Programmname: timestamp.awk BEGIN { now = systime() # macht eine Ausgabe ala date timestamp = strftime(\"%a %b %d %H:%M:%S %Z %Y\", now) } { print } END { print timestamp }\n\nDas Script bei der Ausführung:\n > you@host > ./timestamp.awk mrolympia.dat USA 1965 1966 USA 1967 1968 1969 ... ... USA 1998 1999 2000 2001 2002 2003 2004 Fr Apr 15 07:48:35 CEST 2005\n\n### 13.6.4 SystemfunktionenÂ\n\nSofern Sie reine awk-Scripts schreiben und awk nicht in ein Shellscript einbauen, aber einen UNIX-Befehl ausführen wollen, gibt es hierfür die Funktion system:\n > system(\"Befehl\")\n\nDamit können Sie jeden »Befehl« wie in der Kommandozeile ausführen. Sofern Sie die Ausgabe des Befehls abfangen wollen, müssen Sie getline (siehe Abschnitt 13.6.6) dazu verwenden:\n > \"Befehl\" | getline\n\n### 13.6.5 AusgabefunktionenÂ\n\nDie eigentlichen Ausgabefunktionen print und printf haben Sie bereits kennen gelernt. Trotzdem soll hier noch eine Tabelle erstellt werden, worin Sie aufgelistet finden, wie Sie die Ausgabe anwenden können.\n\nVerwendung | Bedeutung |\n | --- | --- |\nprint | Ausgabe der aktuellen Zeile (Datensatz); gleichwertig mit print $0. |\nprint /reguläerer Ausdruck/ | Hier können Sie bspw. testen, ob der Ausdruck in der entsprechenden Zeile zutrifft. Trifft der Ausdruck nicht zu, wird 0, ansonsten 1 zurückgegeben. Bspw.: awk '{ print /USA/ }' mrolympia.dat gibt in jeder Zeile, in der die Textfolge »USA« enthalten ist, 1 und sonst 0 zurück. |\nprint Ausdrucksliste | Ausgabe aller in »Ausdrucksliste« angegebenen Werte. Hierbei können Konstanten, berechnete Werte, Variablen- oder Feldwerte enthalten sein. |\nprint Ausdrucksliste > datei | Die Ausgabe aller in »Ausdrucksliste« angegebenen Werte wird in datei geschrieben. Dabei kann es sich durchaus um einen berechneten Wert handeln. |\nprint Ausdrucksliste >> datei | Wie eben, nur dass hierbei die Ausgabe aller in »Ausdrucksliste« enthaltenen Werte ans Ende von datei gehängt wird. |\n\nFür printf gilt das Gleiche, nur dass die Ausgabe formatiert erfolgt.\n\n### 13.6.6 EingabefunktionÂ\n\nDer eine oder andere mag jetzt ganz verwundert sein, aber awk unterstützt auch eine Eingabefunktion mit getline. getline ist ein sehr vielseitiges Kommando. Diese Funktion liefert im Fall eines Fehlers â1, bei Dateiende oder (Strg)+(D) 0 und bei erfolgreichem Lesen 1 zurück. Sie liest eine Zeile von der Eingabezeile, was stdin oder eine Datei sein kann, und speichert diese entweder in $0 oder in einer separat angegebenen Variablen.\n\nVerwendung | Bedeutung |\n | --- | --- |\ngetline | Verwenden Sie getline ohne Argumente, wird vom aktuellen Eingabekanal der nächste Datensatz (Zeile) eingelesen und in $0 gespeichert. |\ngetline var | Liest die nächste Zeile vom aktuellen Eingabekanal und speichert diese Zeile in »var«. Wichtig, NR und FNR werden hochgezählt, aber NF wird nicht belegt, weil hier keine Auftrennung in Worten (Feldern) erfolgt! |\ngetline < datei | Liest die nächste Zeile von einer Datei, welche geöffnet wird und am Ende mittels close() selbst geschlossen werden muss! Die Zeile befindet sich in $0. |\ngetline var < datei | Liest die nächste Zeile von einer Datei, welche geöffnet wird und am Ende mittels close() selbst geschlossen werden muss, in die Variable »var« ein. Hierbei werden allerdings NF, NR und FNR nicht verändert! |\nstring | getline | Liest die nächste Zeile von der Pipe (hier dem String »string«) ein. Die eingelesene Zeile wird in $0 gespeichert. |\n\"kommando\" | getline var | Hier wird die nächste Zeile von einem Kommando eingelesen und die eingelesene Zeile befindet sich in »var«. |\n\nBei der Verwendung von getline war auch die Rede von der Funktion close, mit der Sie eine Datei oder eine geöffnete Pipe wieder schließen müssen.\n > close(Dateinamen)\n\nDer Dateiname kann hierbei als eine Stringkonstante vorliegen oder eine Variable sein.\n\nDas Script bei der Ausführung:\n > you@host > ./search.awk Wonach suchen Sie : USA In welcher Datei : mrolympia.dat USA 1965 1966 USA 1967 1968 1969 USA 1982 USA 1984 1985 1986 1987 1988 1989 1990 1991 USA 1998 1999 2000 2001 2002 2003 2004 you@host > ./search.awk Wonach suchen Sie : ien In welcher Datei : mrolympia.dat Argentinien 1976 1981 1992 1993 1994 1995 1996 1997 you@host > ./search.awk Wonach suchen Sie : Samir In welcher Datei : mrolympia.dat 1983\n\nHier soll auch noch ein weiteres gängiges und mächtiges Feature von getline vorgestellt werden, und zwar die Möglichkeit, ein (Linux-/UNIX-)Kommando nach getline zu »pipen«. Das folgende Script gibt die größte Datei aus. Die Größe einer Datei finden Sie mit ls âl in der fünften Spalte.\n > #!/usr/bin/awk -f # # Programmname: bigfile.awk { my_ls=\"/bin/ls -ld '\" quoting($0) \"' 2>/dev/null\" if( my_ls | getline ) { if( $5 > filesize ) { filename=$8 filesize=$5 } } close(my_ls) } END { if( filename ) print \"Größte Datei ist \" filename \" mit \" filesize \" Bytes\" else print \"Konnte keine größte Datei ermitteln?!?\" } function quoting(s, n) { n=s gsub(/'/, \"'\\\"'\\\"'\", n) return n }\n\nDas Script bei der Ausführung:\n > you@host > find $HOME -print | ./bigfile.awk Größte Datei ist ~/Desktop/Trash/Trailer.mpg mit 91887620 Byte\n\nIm Script wurde auch eine Funktion zum Schutz für Dateien mit einfachen Anführungszeichen (Single Quotes) verwendet. Mehr zu den selbst definierten Funktionen erfahren Sie gleich.\n\n### 13.6.7 Benutzerdefinierte FunktionenÂ\n\nAls Programmierer von Shellscripts dürften Sie mit dem awk-Wissen, das Sie jetzt haben, mehr als zufrieden sein. Aber neben der Verwendung von Builtin-Funktionen von awk haben Sie außerdem noch die Möglichkeit, eigenen Funktionen zu schreiben. Daher hier noch eine kurze Beschreibung, wie Sie auch dies realisieren können. Der Ort einer Funktionsdefinition ist nicht so wichtig, obgleich es sich eingebürgert hat, diese am Ende des Scripts zu definieren.\n > function functions_name( parameter ) { # Anweisungen }\n\nDem Schlüsselwort function, welches Sie immer verwenden müssen, folgt der Funktionsname. Erlaubt sind hier alle Kombinationen aus Buchstaben, Ziffern und einem Unterstrich â einzig am Anfang darf keine Ziffer stehen. Variablen und Funktion dürfen in einem Script allerdings nicht denselben Namen haben. Als Argumente können Sie einer Funktion beliebig viele oder auch gar keine Parameter angeben. Mehrere Argumente werden mit einem Komma getrennt. Die Anweisungen einer Funktion werden zwischen geschweiften Klammern (dem Anweisungsblock) zusammengefasst.\n\nZum Aufruf einer Funktion müssen Sie den Funktionsnamen gefolgt von runden Klammern und eventuell den einzelnen Parametern angeben. Beachten Sie außerdem, dass sich zwischen dem Funktionsnamen und der sich öffnenden Klammer kein Leerzeichen befinden darf. Werden weniger Parameter als in der Funktionsdefinition definiert angegeben, so führt dies nicht zu einem Fehler. Nicht angegebene Parameter werden â abhängig vom Kontext â als 0 oder eine leere Zeichenkette interpretiert.\n\nAnders sieht dies allerdings aus, wenn Sie einer Funktion einen Parameter übergeben, obwohl in der Funktionsdefinition keinerlei Argumente enthalten sind. Dann wird Ihnen awk das Script mit einer Fehlermeldung abbrechen.\n\nAlle Variablen einer Funktion sind global, abgesehen von den Variablen in den runden Klammern. Deren Gültigkeitsbereich ist nur auf die Funktion allein beschränkt.\n\nUm Werte aus einer Funktion zurückzugeben, wird auch hierbei der return-Befehl gefolgt vom Wert verwendet. Beispielsweise:\n > function functions_name( parameter ) { # Anweisungen ... return Wert }\n\nMehrere Werte können Sie auch hier, wie in der Shell, zu einem String zusammenfassen und im Hauptteil wieder splitten:\n > function functions_name( parameter ) { # Anweisungen ... return Wert1 \" \" Wert2 \" \" Wert3 } ... ret=functions_name( param ) split(ret, array) ... print array[1]\n\nHier konnten Sie auch gleich sehen, wie Sie im Hauptteil den Rückgabewert auffangen können.\n\nDie Übergabe von Variablen erfolgt in der Regel »by-value«, sprich: Die Werte des Funktionsaufrufs werden in die Argumente der Funktion kopiert, sodass jede Veränderung des Werts nur in der Funktion gültig ist. Anders hingegen werden Arrays behandelt, diese werden »by-reference«, also als Speicheradresse auf den ersten Wert des Arrays übergeben. Dies erscheint sinnvoll, denn müsste ein Array mit mehreren hundert Einträgen erst kopiert werden, wäre ein Funktionsaufruf wohl eine ziemliche Bremse. Somit bezieht sich allerdings eine Veränderung des Arrays in der Funktion auch auf das Original.\n\nHierzu ein einfaches Beispiel mit einer selbst definierten Funktion:\n > #!/usr/bin/awk -f # # Programmname: FILEprint.awk { FILEprint($0) } function FILEprint( line ) { if(length(line) == 0) return \"Leerer String\" else print FILENAME \"(\" NR \") : \" line }\n\nDas Script bei der Ausführung:\n > you@host > ./FILEprint.awk mrolympia.dat mrolympia.dat(1) : USA 1965 1966 mrolympia.dat(2) : USA 1967 1968 1969 mrolympia.dat(3) : ger Österreich 1970 1971 1972 ... ...\n\nHier haben Sie eine einfache benutzerdefinierte print-Funktion, welche am Anfang einer Zeile jeweils den Dateinamen und die Zeilennummer mit ausgibt.\n\n# 13.7 EmpfehlungÂ\n\n13.7 Empfehlung \n Sie habe in diesem Kapitel eine Menge zu awk gelernt und doch lässt sich nicht alles hier unterbringen. Gerade was die Praxis betrifft, musste ich Sie leider das ein oder andere Mal mit einem extrem kurzen Code abspeisen. Allerdings würde eine weitere Ausweitung des Kapitels dem eigentlichen Thema des Buches nicht gerecht.\n Wenn Sie sich wirklich noch intensiver mit awk befassen wollen oder müssen, sei hierzu das Original-awk-Buch von Aho, Weinberger und Kernighan empfohlen, worin Sie einen noch tieferen und fundierteren Einblick in awk erhalten. Hierbei wird u. a. auch demonstriert, wie man mit awk eine eigene Programmiersprache realisieren kann.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 13.7 EmpfehlungÂ\n\nSie habe in diesem Kapitel eine Menge zu awk gelernt und doch lässt sich nicht alles hier unterbringen. Gerade was die Praxis betrifft, musste ich Sie leider das ein oder andere Mal mit einem extrem kurzen Code abspeisen. Allerdings würde eine weitere Ausweitung des Kapitels dem eigentlichen Thema des Buches nicht gerecht.\n\nWenn Sie sich wirklich noch intensiver mit awk befassen wollen oder müssen, sei hierzu das Original-awk-Buch von Aho, Weinberger und Kernighan empfohlen, worin Sie einen noch tieferen und fundierteren Einblick in awk erhalten. Hierbei wird u. a. auch demonstriert, wie man mit awk eine eigene Programmiersprache realisieren kann.\n\n# 14.2 Dateiorientierte KommandosÂ\n\n14.2 Dateiorientierte Kommandos \n bzcat â Ausgabe von bzip2-komprimierten Dateien \n Mit bzcat können Sie die Inhalte von bzip2-komprimierten Dateien ausgeben, ohne dass Sie hierbei die komprimierte Datei dekomprimieren müssen. Dies ist z. B. auch ein Grund, warum Sie mit einem Dateibrowser den Inhalt einer Datei sehen und sogar lesen können, obwohl Sie diese noch gar nicht dekomprimiert haben. Ansonsten funktioniert bzcat wie cat.\n cat â Datei(en) nacheinander ausgeben \n cat wurde bereits mehrfach in diesem Buch verwendet und auch beschrieben. Mit diesem Kommando werden gewöhnlich Dateien ausgegeben. Geben Sie cat beim Aufruf keine Dateien zum Lesen als Argument mit, liest cat so lange aus der Standardeingabe, bis (Strg)+(D) (EOF) betätigt wurde.\n\n Tabelle 14.2  Anwendungen von cat\n\n cat file\n Gibt den Inhalt von file aus\n\n cat file | kommando\n Gibt den Inhalt von file via Pipe an die Standardeingabe von kommando weiter\n\n cat file1 file2 > file_all\n Dateien aneinander hängen\n\n cat > file\n Schreibt alle Zeilen, die von der Tastatur eingegeben wurden, in die Datei file, bis (Strg)+(D) betätigt wurde\n\n Hinweis   cat wurde bereits separat in Abschnitt 1.7.2 behandelt.\n\n chgrp â Gruppe von Dateien oder Verzeichnissen ändern \n Mit chgrp ändern Sie die Gruppenzugehörigkeit einer Datei oder eines Verzeichnisses. Dieses Kommando bleibt somit nur dem Eigentümer einer Datei/Verzeichnis oder dem Superuser vorbehalten. Als Eigentümer können Sie außerdem nur diejenigen Dateien oder Verzeichnisse einer bestimmten Gruppe zuordnen, der Sie selbst auch angehören. Wollen Sie die Gruppenzugehörigkeit aller Dateien in einem Verzeichnis mit allen Unterverzeichnissen ändern, dann bietet sich hierzu die Option âR (für rekursiv) an.\n cksum/md5sum/sum â eine Prüfsumme für eine Datei ermitteln \n Mit diesen Funktionen errechnet man die CRC-(cyclic redundancy check)-Prüfsumme und die Anzahl Bytes (Anzahl Bytes gilt nur für cksum) für eine Datei. Wird keine Datei angegeben, liest cksum diejenige aus der Standardeingabe, bis (Strg)+(D) betätigt wurde, und berechnet hieraus die Prüfsumme.\n Diese Kommandos werden häufig eingesetzt um festzustellen, ob zwei Daten identisch sind. So kann z. B. überprüft werden, ob eine Datei, die Sie aus dem Netz geladen haben, auch korrekt übertragen wurde. Voraussetzung hierfür ist natürlich, dass Sie die Prüfsumme der Quelle kennen. Häufig findet man dies beim Herunterladen von ISO-Distributionen. Ein anderer Anwendungsfall wäre das Überprüfen auf Virenbefall. Hiermit kann ermittelt werden, ob sich jemand an einer Datei zu schaffen gemacht hat, beispielsweise:\n you@host > cksum data.conf 2935371588 51 data.conf you@host > cksum data.conf 2935371588 51 data.conf you@host > echo Hallo >> data.conf you@host > cksum data.conf 966396470 57 data.conf\n Hier eine Konfigurationsdatei data.conf, bei der zweimal mit cksum derselbe Wert berechnet wurde (nur zur Demonstration). Kurz darauf wurde am Ende dieser Datei ein Text angehängt und erneut cksum ausgeführt. Jetzt erhalten Sie eine andere Prüfsumme. Voraussetzung, dass dieses Prinzip funktioniert, ist natürlich auch eine Datei oder Datenbank, die solche Prüfsummen zu den entsprechenden Dateien speichert. Dabei können Sie auch zwei Dateien auf einmal eingeben, um die Prüfsummen zu vergleichen:\n you@host > cksum data.conf data.conf~bak 966396470 57 data.conf 2131264154 10240 data.conf~bak\n cksum ist gegenüber sum zu bevorzugen, da diese Version neuer ist und auch dem POSIX.2-Standard entspricht. Beachten Sie allerdings, dass alle drei Versionen zum Berechnen von Prüfsummen (sum, cksum und md5sum) untereinander inkompatibel sind und andere Prüfsummen als Ergebnis berechnen:\n you@host > sum data.conf 20121 1 you@host > cksum data.conf 966396470 57 data.conf you@host > md5sum data.conf 5a04a9d083bc0b0982002a2c8894e406 data.conf\n\n Hinweis   md5sum gibt es unter FreeBSD nicht, hier heißt es md5.\n\n Noch ein beliebter Anwendungsfall von md5sum (bzw. md5):\n cd /bin; md5 `ls -R /bin` | md5\n Wenn sich jetzt jemand am Verzeichnis /bin zu schaffen gemacht hat, merkt man dies relativ schnell. Am besten lässt man hierbei einen cron-Job laufen und sich gegebenenfalls täglich per E-Mail benachrichtigen.\n chmod â Zugriffsrechte von Dateien oder Verzeichnissen ändern \n Mit chmod setzen oder verändern Sie die Zugriffsrechte auf Dateien oder Verzeichnisse. Die Benutzung von chmod ist selbstverständlich nur dem Dateieigentümer und dem Superuser gestattet. Die Bedienung von chmod muss eigentlich jedem Systemadministrator geläufig sein, weil es ein sehr häufig verwendetes Kommando ist. chmod kann zum Glück sehr flexibel eingesetzt werden. Man kann einen numerischen Wert wie folgt verwenden:\n chmod 755 file\n oder\n chmod 0755 file\n Einfacher anzuwenden ist chmod über eine symbolische Angabe wie:\n chmode u+x file\n Hier bekommt der User (u; Eigentümer) der Datei file das Ausführrecht (+x) erteilt.\n chmod g-x file\n Damit wurde der Gruppe (g) das Ausführrecht entzogen (âx). Wollen Sie hingegen allen Teilnehmern (a) ein Ausführrecht erteilen, dann geht dies so:\n chmod a+x file\n Mit chmod können Sie auch die Spezialbits setzen (SUID=4000; SGUID=2000 oder Sticky=1000). Wollen Sie z. B. für eine Datei das setuid-(Set-User-ID)-Bit setzen, funktioniert dies folgendermaßen:\n chmod 4744 file\n Das setgid-(Set Group ID)-Bit hingegen setzen Sie mit »2xxx«.\n Zu erwähnen ist auch die Option âR, mit der Sie ein Verzeichnis rekursiv durchlaufen und alle Dateien, die sich darin befinden, entsprechend den neu angegebenen Rechten ändern.\n chown â Eigentümer von Dateien oder Verzeichnissen ändern \n Mit chown können Sie den Eigentümer von Dateien oder Verzeichnissen ändern. Als neuen Eigentümer kann man entweder den Login-Namen oder die User-ID angeben. Name oder Zahl müssen selbstverständlich in der Datei /etc/passwd vorhanden sein. Dieses Kommando kann wiederum nur vom Eigentümer selbst oder dem Superuser aufgerufen und auf Dateien bzw. Verzeichnisse angewendet werden.\n chown john file1 file2\n Hier wird der User »john« Eigentümer der Datei file1 und file2. Wollen Sie auch hier ein komplettes Verzeichnis mitsamt den Unterverzeichnissen erfassen, so kann auch hierbei die Option âR verwendet werden.\n Wollen Sie sowohl den Eigentümer als auch die Gruppe einer Datei ändern, nutzen Sie folgende Syntax:\n chown john:user file1 file2\n cmp â Dateien miteinander vergleichen \n Mit der Funktion cmp vergleichen Sie zwei Dateien Byte für Byte miteinander und erhalten die dezimale Position und Zeilennummer vom ersten Byte zurück, bei dem sich beide Dateien unterscheiden. cmp vergleicht auch Binärdateien. Sind beide Dateien identisch, erfolgt keine Ausgabe.\n you@host > cmp out.txt textfile.txt out.txt textfile.txt differieren: Byte 52, Zeile 3.\n comm â zwei sortierte Textdateien miteinander vergleichen \n Mit comm vergleichen Sie zwei sortierte Dateien und geben die gemeinsamen und die unterschiedlichen Zeilen jeweils in Spalten aus, indem die zweite und dritte Spalte von einem bzw. zwei Tabulatorenvorschüben angeführt werden.\n comm [-123] file1 file2\n Die erste Spalte enthält die Zeilen, die nur in der Datei file1 enthalten sind. Die zweite Spalte hingegen beinhaltet die Zeilen, die in der zweiten Datei file2 enthalten sind, und die dritte Spalte die Zeilen, die in beiden Dateien enthalten sind.\n you@host > cat file1.txt # wichtige Initialisierungsdatei # noch eine Zeile Hallo you@host > cat file2.txt # wichtige Initialisierungsdatei # noch eine Zeile Hallo you@host > comm file1.txt file2.txt # wichtige Initialisierungsdatei # noch eine Zeile Hallo you@host > echo \"Neue Zeile\" >> file2.txt you@host > comm file1.txt file2.txt # wichtige Initialisierungsdatei # noch eine Zeile Hallo Neue Zeile you@host > comm â3 file1.txt file2.txt Neue Zeile\n In der letzten Zeile ist außerdem zu sehen, wie Sie mit dem Schalter â3 die Ausgabe der dritten Spalte ganz abschalten, um nur die Differenzen beider Dateien zu erkennen. comm arbeitet zeilenweise, weshalb hier keine Vergleiche mit binären Dateien möglich sind. Weitere Schalterstellungen und ihre Bedeutung sind:\n\n Tabelle 14.3  Optionen für comm\n\n â23 file1 file2\n Es werden nur Zeilen ausgegeben, die in file1 vorkommen.\n\n â123 file1 file2\n Es wird keine Ausgabe erzeugt.\n\n Tabelle 14.4  Anwendungen von cp\n\n cp file newfile\n Es wird mit newfile eine Kopie von file erzeugt.\n\n cp âp file newfile\n newfile erhält dieselben Zugriffsrechte, Eigentümer und Zeitstempel.\n\n cp âr dir newdir\n Es wird ein komplettes Verzeichnis rekursiv (âr) kopiert.\n\n cp file1 file2 file3 dir\n Es werden mehrere Dateien in ein Verzeichnis kopiert.\n\n Hinweis   cp wurde bereits separat in Abschnitt 1.7.2 beschrieben.\n\n csplit â Zerteilen von Dateien (kontextabhängig) \n Mit csplit können Sie eine Datei in mehrere Teile aufteilen. Als Trennstelle kann hierbei ein Suchmuster, also auch ein regulärer Ausdruck angegeben werden. Dabei werden aus einer Eingabedatei mehrere Ausgabedateien erzeugt, deren Inhalt vom Suchmuster abhängig gemacht werden kann. Ein Beispiel:\n csplit Kapitel20.txt /Abschnitt 1/ /Abschnitt 2/ /Abschnitt 3/\n Hier wird das Kapitel20.txt in vier Teile aufgeteilt. Zunächst vom Anfang bis zum »Abschnitt 1«, als Nächstes von »Abschnitt 1« bis »Abschnitt 2«, dann »Abschnitt 2« bis »Abschnitt 3« und zu guter Letzt »Abschnitt 3« bis »Abschnitt4«. Hier können Sie allerdings auch einzelne Zeilen angeben, ab denen Sie eine Datei teilen wollen:\n csplit -f Abschnitt Kapitel20.txt 20 40\n Hier haben Sie mit der Option âf veranlasst, dass statt eines Dateinamens wie »xx01«, »xx02« usw. dem darauf folgenden Namen eine Datei wie »Abschnitt01«, »Abschnitt02« usw. erzeugt wird. Hier zerteilen Sie die Datei Kapitel20.txt in drei Dateien: »Abschnitt01« (Zeile 1â20), »Abschnitt02« (Zeile 21â40) und »Abschnitt03« (Zeile 41 bis zum Ende). Sie können mit {n} am Ende auch angeben, dass ein bestimmter Ausdruck n-mal angewendet werden soll. Beispielsweise:\n csplit -k /var/spool/mail/$LOGNAME /^From / {100}\n Hier zerteilen Sie in Ihrer Mailbox die einzelnen E-Mails in die einzelnen Dateien »xx01«, »xx02« ... »xx99«. Jeder Brief einer E-Mail im mbox-Format beginnt mit »From«, weshalb dies als Trennzeichen für die einzelnen Dateien dient. Weil Sie wahrscheinlich nicht genau wissen, wie viele Mails in Ihrer Mailbox liegen, können Sie durch die Angabe einer relativ hohen Zahl zusammen mit der Option âk erreichen, dass alle Mails getrennt und nach einem eventuell vorzeitigen Scheitern die bereits erzeugten Dateien nicht wieder gelöscht werden.\n cut â Zeichen oder Felder aus Dateien herausschneiden \n Mit cut schneiden Sie bestimmte Teile aus einer Datei heraus. Dabei liest cut von der angegebenen Datei und gibt die Teile auf dem Bildschirm aus, die Sie als gewählte Option und per Wahl des Bereichs verwendet haben. Ein Bereich ist eine durch ein Komma getrennte Liste von einzelnen Zahlen bzw. Zahlenbereichen. Diese Zahlenbereiche werden in der Form »a-z« angegeben. Wird a oder z weggelassen, so wird hierzu der Anfang bzw. das Ende einer Zeile verwendet.\n\n Hinweis   cut wurde bereits in Abschnitt 2.3.1 ausführlich beschrieben und demonstriert.\n\n diff â Vergleichen zweier Dateien \n diff vergleicht den Inhalt von zwei Dateien. Da diff zeilenweise vergleicht, sind keine binären Dateien erlaubt. Ein Beispiel:\n you@host > diff file1.txt file2.txt 2a3 > neueZeile\n Hier wurden die Dateien file1.txt und file2.txt miteinander verglichen. Die Ausgabe »2a3« besagt lediglich, dass Sie in der Datei file1.txt zwischen der Zeile 2 und 3 die Zeile »neueZeile« einfügen (a = append) müssten, damit die Datei exakt mit der Datei file2.txt übereinstimmt. Noch ein Beispiel:\n you@host > diff file1.txt file2.txt 2c2 < zeile2 --- > zeile2 wurde verändert\n Hier bekommen Sie mit »2c2« die Meldung, dass die zweite Zeile unterschiedlich (c = change) ist. Die darauf folgende Ausgabe zeigt auch den Unterschied dieser Zeile an. Eine sich öffnende spitze Klammer (<) zeigt file1.txt und die sich schließende spitze Klammer bezieht sich auf file2.txt. Und eine dritte Möglichkeit, die Ihnen diff meldet, wäre:\n you@host > diff file1.txt file2.txt 2d1 < zeile2\n Hier will Ihnen diff sagen, dass die zweite Zeile in file2.txt fehlt (d = delete) bzw. gelöscht wurde. Daraufhin wird die entsprechende Zeile auch ausgegeben. Natürlich beschränkt sich die Verwendung von diff nicht ausschließlich auf Dateien. Mit der Option âr können Sie ganze Verzeichnisse miteinander vergleichen:\n diff -r dir1 dir2\n diff3 â Vergleich von drei Dateien \n Die Funktion entspricht etwa der von diff, nur dass Sie hierbei drei Dateien Zeile für Zeile miteinander vergleichen können. Folgendes besagt die Ausgabe von diff3:\n diff file1 file2 file3\n\n Tabelle 14.5  Bedeutung der Ausgabe von diff3\n\n Ausgabe\n Bedeutung\n\n ====\n Alle drei Dateien sind unterschiedlich.\n\n ====1\n file1 ist unterschiedlich.\n\n ====2\n file2 ist unterschiedlich.\n\n ====3\n file3 ist unterschiedlich.\n\n dos2unix â Dateien vom DOS- in UNIX-Format umwandeln \n Mit dos2unix können Sie Textdateien vom DOS- in das UNIX-Format umwandeln. Alternativ gibt es außerdem noch den Befehl mac2unix, mit dem Sie Textdateien vom MAC- in das UNIX-Format konvertieren können.\n you@host > dos2unix file1.txt file2.txt dos2unix: converting file file1.txt to UNIX format ... dos2unix: converting file file2.txt to UNIX format ...\n expand â Tabulatoren in Leerzeichen umwandeln \n expand ersetzt alle Tabulatoren einer Datei durch eine Folge von Leerzeichen. Standardmäßig sind dies acht Leerzeichen, allerdings kann dieser Wert explizit mit einem Schalter verändert werden. Wollen Sie z. B., dass alle Tabulatorzeichen mit nur drei Leerzeichen ersetzt werden, erreichen Sie dies folgendermaßen:\n you@host > expand â3 file\n Allerdings erlaubt expand nicht das vollständige Entfernen von Tabulatorenzeichen â sprich ein Schalter mit â0 gibt eine Fehlermeldung zurück. Hierzu können Sie alternativ z. B. das Kommando tr verwenden.\n file â den Inhalt von Dateien analysieren \n Das Kommando file versucht, die Art oder den Typ einer von Ihnen angegebenen Datei zu ermitteln. Hierzu führt file einen Dateisystemtest, einen Kennzahlentest und einen Sprachtest durch. Je nach Erfolg wird eine entsprechende Ausgabe des Tests vorgenommen. Der Dateisystemtest wird mithilfe des Systemaufrufes stat(2) ausgeführt. Dieser Aufruf erkennt viele Arten von Dateien. Der Kennzahlentest wird anhand von festgelegten Kennzahlen (der Datei /etc/magic oder /etc/usr/share/magic) durchgeführt. In dieser Datei steht beispielsweise geschrieben, welche Bytes einer Datei zu untersuchen sind und auf welches Muster man dann den Inhalt dieser Datei zurückführen kann. Am Ende erfolgt noch ein Sprachtest. Hier versucht file, eine Programmiersprache anhand von Schlüsselwörtern zu erkennen.\n you@host > cat > hallo.c #include int main(void) { printf(\"Hallo Welt\\n\"); return 0; } (Strg)+(D) you@host > file hallo.c hallo.c: ASCII C program text you@host > gcc -o hallo hallo.c you@host > ./hallo Hallo Welt you@host > file hallo hallo: ELF 32-bit LSB executable, Intel 80386, version 1 (SYSV), for GNU/Linux 2.2.5, dynamically linked (uses shared libs), not stripped you@host > file file1.txt file1.txt: ASCII text you@host > mkfifo abc you@host > file abc abc: fifo (named pipe) ...\n find â Suchen nach Dateien \n Zum Suchen nach Dateien wird häufig auf das Kommando find zurückgegriffen. find durchsucht eine oder mehrere Verzeichnisebenen nach Dateien mit einer bestimmten vorgegebenen Eigenschaft. Die Syntax zu find:\n find [Verzeichnis] [-Option ...] [-Test ...] [-Aktion ...]\n Die Optionen, Tests und Aktionen können Sie mit Operatoren zusammenfassen. Dabei wertet find jede Datei in den Verzeichnissen hinsichtlich der Optionen, Tests und Aktionen von links nach rechts aus, bis ein Wert unwahr ist oder die Kommandozeilenargumente zu Ende sind. Wenn kein Verzeichnis angegeben wird, wird das aktuelle Verzeichnis verwendet â allerdings gilt dies nur bei GNU-find. Von daher sollte man aus Kompatibilitätsgründen möglichst das Verzeichnis angeben. Wenn keine Aktion angegeben ist, wird meistens âprint (abhängig von einer eventuell angegebene Option) für die Ausgabe auf dem Bildschirm verwendet. Hierzu einige Beispiele.\n Alle Verzeichnisse und Unterverzeichnisse ab dem Heimverzeichnis ausgeben:\n find $HOME -print\n Gibt alle Dateien mit dem Namen »kapitel« aus dem Verzeichnis (und dessen Unterverzeichnisse) /dokus aus:\n find /dokus -name kapitel -print\n Gibt alle Dateien aus dem Verzeichnis (und dessen Unterverzeichnisse) dokus mit dem Namen »kap...«, bei denen »you« der Eigentümer ist, aus:\n find /dokus /usr -name 'kap*' -user you -print\n Damit durchsuchen Sie ab dem Wurzelverzeichnis nach einem Verzeichnis (âtype d = directory) mit dem Namen »dok...« und geben dies auf dem Bildschirm aus:\n find / -type d -name 'dok*' -print\n Sucht leere Dateien (size = 0) und löscht diese nach einer Rückfrage (âok):\n find / -size 0 -ok rm {} \\;\n Gibt alle Dateien ab dem Wurzelverzeichnis aus, die in den letzten sieben Tagen verändert wurden:\n find / -mtime â7 -print\n fold â einfaches Formatieren von Dateien \n Mit fold können Sie Textdateien ab einer bestimmten Zeilenlänge umbrechen. Standardmäßig sind hierbei 80 Zeichen pro Zeile eingestellt. Da fold die Bildschirmspalten und nicht die Zeichen zählt, werden auch Tabulatorzeichen korrekt behandelt. Wollen Sie etwa eine Textdatei nach 50 Zeichen umbrechen, gehen Sie folgendermaßen vor:\n you@host > fold â50 Kap003.txt ... Sicherlich erscheint Ihnen das Ganze nicht sonderl ich elegant oder sinnvoll, aber bspw. in Schleifen eingesetzt, können Sie hierbei hervorragend alle A rgumente der Kommandozeile zur Verarbeitung von Op tionen heranziehen. Als Beispiel ein kurzer theoreti scher Code-Ausschnitt, wie so etwas in der Praxis realisiert werden kann.\n Allerdings kann man an der Ausgabe erkennen, dass einfach die Wörter abgeschnitten und in der nächsten Zeile fortgeführt werden. Wollen Sie dies unterbinden, können Sie die Option âs verwenden. Damit findet der Zeilenumbruch beim letzten Leerzeichen der Zeile statt, wenn in der Zeile ein Leerzeichen vorhanden ist.\n you@host > fold -s â50 Kap003.txt ... Sicherlich erscheint Ihnen das Ganze nicht sonderlich elegant oder sinnvoll, aber bspw. in Schleifen eingesetzt, können Sie hierbei hervorragend alle Argumente der Kommandozeile zur Verarbeitung von Optionen heranziehen. Als Beispiel ein kurzer theoretischer Code-Ausschnitt, wie so etwas in der Praxis realisiert werden kann.\n Ein recht typischer Anwendungsfall ist es, Text für eine E-Mail zu formatieren:\n you@host > fold -s â72 text.txt | mail -s \"Betreff\" \n head â Anfang einer Datei ausgeben \n Mit der Funktion head geben Sie immer die ersten Zeilen einer Datei auf dem Bildschirm aus. Standardmäßig werden dabei die ersten zehn Zeilen ausgegeben. Wollen Sie selbst bestimmen, wie viele Zeilen vom Anfang der Datei ausgegeben werden sollen, können Sie dies explizit mit ân angeben:\n you@host > head â5 file\n Hier werden die ersten fünf Zeilen von file auf dem Bildschirm ausgegeben.\n less â Datei(en) seitenweise ausgeben \n Mit less geben Sie eine Datei seitenweise auf dem Bildschirm aus. Der Vorteil von less gegenüber more ist, dass Sie mit less auch zurückblättern können. Da less von der Standardeingabe liest, ist so auch eine Umleitung eines anderen Kommandos mit einer Pipe möglich. Mit der (Leertaste) blättern Sie eine Seite weiter und mit (B) können Sie jeweils eine Seite zurückblättern. Die meisten less-Versionen bieten außerdem das Scrollen nach unten bzw. oben mit den Pfeiltasten an. Mit (Q) wird less beendet. less bietet außerdem eine Unmenge von Optionen und weiterer Features an, über die Sie sich durch Drücken von (H) informieren können.\n ln â Links auf eine Datei erzeugen \n Wenn eine Datei erzeugt wird, werden im Verzeichnis der Name, ein Verweis auf eine Inode, die Zugriffsrechte, der Dateityp und gegebenenfalls die Anzahl der belegten Blöcke eingetragen. Mit ln wiederum wird ein neuer Eintrag im Verzeichnis abgelegt, der auf die Inode einer existierenden Datei zeigt. Man spricht dabei von einem Hardlink. Er wird standardmäßig ohne weitere Angaben angelegt. Es ist allerdings nicht möglich, diese Hardlinks über Dateisystemgrenzen hinweg anzulegen. Hierzu müssen Sie einen symbolischen Link mit der Option âs erzeugen.\n ln -s filea fileb\n Damit haben Sie einen symbolischen Link auf die bestehende Datei filea mit dem Namen fileb angelegt.\n Wollen Sie hingegen einen Hardlink auf die bestehende Datei filea mit dem Namen fileb anlegen, so gehen Sie wie folgt vor:\n ln filea fileb\n\n Smalltalk   Mit den Hardlinks kann man unter BSD und Jails nette Sachen machen. Unter BSD gibt es ja das »imutable flag« für Dateien, das das Schreiben auch für root verbietet. Nur root kann das Flag verändern. Man kann aber mit »make world« ein Betriebssystem in einem Verzeichnis für eine Jail bauen. Das Verzeichnis kann man dann rekursiv mit dem »imutable flag« versehen und per Hardlink in die Jail verlinken. Das »imutable flag« kann nur root vom Hostsystem aus verändern, Nicht-root aus der Jail. Somit kann man das root-Passwort im Internet bekannt geben (wurde auch schon oft gemacht) und es hat bisher noch nie jemand geschafft, solch eine Jail zu knacken.\n\n ls â Verzeichnisinhalt auflisten \n Mit ls wird der Inhalt eines Verzeichnisses auf dem Dateisystem angezeigt. Da ls bereits in Abschnitt 1.7.2 behandelt wurde, wird hier nicht mehr näher darauf eingegangen.\n more â Datei(en) seitenweise ausgeben \n more wird genauso eingesetzt wie less, und zwar zum seitenweisen Lesen von Dateien. Allerdings bietet less gegenüber more erheblich mehr Features und Funktionalitäten an.\n mv â Datei(en) und Verzeichnisse verschieben oder umbenennen \n Mit mv können Sie eine oder mehrere Dateien bzw. Verzeichnisse verschieben oder umbenennen.\n\n Tabelle 14.6  Anwendungen von mv\n\n mv file filenew\n Eine Datei umbenennen\n\n mv file dir\n Eine Datei in ein Verzeichnis verschieben\n\n mv dir dirnew\n Ein Verzeichnis in ein anderes Verzeichnis verschieben\n\n Hinweis   mv wurde bereits in Abschnitt 1.7.2 behandelt.\n\n nl â Datei mit Zeilennummer ausgeben \n Mit nl geben Sie die Zeilen einer Datei mit deren Nummer auf dem Bildschirm aus. Dabei ist nl nicht nur ein »dummer« Zeilenzähler, sondern kann die Zeilen einer Seite auch in einen Header, Body und einen Footer unterteilen und in unterschiedlichen Stilen nummerieren, zum Beispiel:\n you@host > ls | nl -w3 -s') ' 1) abc 2) bin 3) cxoffice 4) Desktop 5) Documents 6) file1.txt ...\n Wenn Sie mehrere Dateien verwenden, beginnt die Nummerierung allerdings nicht mehr neu, dann werden mehrere Dateien wie eine behandelt. Die Zeilennummer wird nicht zurückgesetzt. Ein weiteres Beispiel:\n you@host > nl hallo.c -s' : ' > hallo_line you@host > cat hallo_line 1 : #include 2 : int main(void) { 3 : printf(\"Hallo Welt\\n\"); 4 : return 0; 5 : }\n Mit der Option âs (optional) geben Sie das Zeichen an, das zwischen der Zeilennummer und der eigentlichen Zeile stehen soll.\n od â Datei(en) hexadezimal bzw. oktal ausgeben \n od liest von der Standardeingabe eine Datei ein und gibt diese â Byte für Byte â formatiert und kodiert auf dem Bildschirm aus. Standardmäßig wird dabei die siebenstellige Oktalzahl in je acht Spalten zu zwei Bytes verwendet:\n you@host > od file1.txt 0000000 064546 062554 035061 062572 066151 030545 063012 066151 0000020 030545 075072 064545 062554 005062 064546 062554 035062 0000040 062572 066151 031545 000012 0000047\n Jede Zeile enthält in der ersten Spalte die Positionsnummer in Bytes vom Dateianfang an. Mit der Option âh erfolgt die Ausgabe in hexadezimaler und mit âc in ASCII-Form.\n paste â Dateien spaltenweise verknüpfen \n Mit paste führen Sie Zeilen von mehreren Dateien zusammen. Das Kommando wurde bereits in Abschnitt 2.3.1 behandelt, weshalb Sie gegebenenfalls hierhin zurückblättern sollten.\n pcat â Ausgabe von pack-komprimierten Dateien \n Mit pcat kann man den Inhalt von pack-komprimierten Dateien ausgeben, ohne dass man die komprimierte Datei dekomprimieren muss. Ansonsten funktioniert pcat wie cat.\n rm â Dateien und Verzeichnisse löschen \n Mit dem Kommando rm können Sie Dateien und Verzeichnisse löschen.\n\n Tabelle 14.7  Anwendungen von rm\n\n rm datei\n Löscht eine Datei\n\n rm dir\n Löscht ein leeres Verzeichnis\n\n rm âr dir\n Löscht ein Verzeichnis rekursiv\n\n rm ârf dir\n Erzwingt rekursives Löschen, ohne eine Warnung auszugeben\n\n Hinweis   Das Kommando rm wurde bereits in den Abschnitten 1.7.2 und 1.7.3 (rmdir) behandelt.\n\n Tabelle 14.8  Optionen für das Kommando sort\n\n ân\n Sortiert eine Datei numerisch\n\n âf\n Unterscheidet nicht zwischen Klein- und Großbuchstaben\n\n âr\n Sortiert nach Alphabet in umgekehrter Reihenfolge\n\n ân âr\n Sortiert numerisch in umgekehrter Reihenfolge\n\n âc\n Überprüft, ob die Dateien bereits sortiert sind. Wenn nicht, wird mit einer Fehlermeldung und dem Rückgabewert 1 abgebrochen.\n\n âu\n Gibt keine doppelt vorkommenden Zeilen aus\n\n Alternativ gibt es hierzu noch das Kommando tsort, welches Dateien topologisch sortiert.\n split â Dateien in mehrere Teile zerlegen \n Mit split teilen Sie eine Datei in mehrere Teile auf. Ohne Angabe einer Option wird eine Datei in je 1000 Zeilen aufgeteilt. Die Ausgabe erfolgt in Dateien mit »x...« oder einem entsprechenden Präfix, wenn eines angegeben wurde:\n you@host > split â50 kommandos.txt you@host > ls x* xaa xab xac xad xae\n Die Datei können Sie folgendermaßen wieder zusammensetzen:\n for file in `ls x* | sort`; do cat $file >> new.txt; done\n Hier wurde z. B. die Textdatei kommandos.txt in je 50-zeilige Häppchen aufgeteilt. Wollen Sie den Namen der neu erzeugten Datei verändern, gehen Sie wie folgt vor:\n you@host > split â50 kommandos.txt kommandos you@host > ls komm* kommandosaa kommandosab kommandosac kommandosad kommandosae kommandos.txt\n Das Kommando split wird häufig eingesetzt, um große Dateien zu splitten, die nicht auf ein einzelnes Speichermedium passen.\n tac â Dateien rückwärts ausgeben \n Vereinfacht ausgedrückt ist tac wie cat (daher auch der rückwärts geschriebene Kommandoname), nur dass tac die einzelnen Zeilen rückwärts ausgibt. Es wird somit zuerst die letzte Zeile ausgegeben, dann die vorletzte usw. bis zur ersten Zeile.\n you@host > cat file1.txt file1:zeile1 file1:zeile2 file2:zeile3 you@host > tac file1.txt file2:zeile3 file1:zeile2 file1:zeile1\n tail â Ende einer Datei ausgeben \n tail gibt die letzten Zeilen (standardmäßig, ohne spezielle Angaben die letzten zehn) einer Datei aus.\n you@host > tail â5 kommandos.txt write â Nachrichten an andere Benutzer verschicken zcat â Ausgabe von gunzip-komprimierten Dateien zip/unzip â (De-) Komprimieren von Dateien zless â gunzip-komprimierte Dateien seitenweise ausgeben zmore â gunzip-komprimierte Dateien seitenweise ausgeben\n Hier gibt tail die letzten fünf Zeilen der Datei kommandos.txt aus. Wollen Sie eine Datei ab einer bestimmten Zeile ausgeben lassen, gehen Sie wie folgt vor:\n you@host > tail +100 kommandos.txt\n Hier werden alle Zeilen ab Zeile 100 ausgegeben. Wollen Sie tail wie tac verwenden, können Sie die Option âr verwenden:\n you@host > tail -r kommandos.txt\n Hiermit wird die komplette Datei zeilenweise rückwärts, von der letzten zur ersten Zeile ausgegeben. Häufig verwendet wird auch die Option âf (follow), die immer wieder das Dateiende ausgibt. Dadurch kann man eine Datei beim Wachsen beobachten, da jede neu hinzugekommene Zeile angezeigt wird. Natürlich lässt sich diese Option nur auf eine Datei gleichzeitig anwenden.\n tee â Ausgabe duplizieren \n Mit tee lesen Sie von der Standardeingabe und verzweigen die Ausgabe auf die Standardausgabe und Datei. Da tee ein eigener Abschnitt (1.10.5) im Buch gewidmet ist, sei hier auf diesen verwiesen.\n touch â Anlegen von Dateien oder Zeitstempel verändern \n Mit touch verändern Sie die Zugriffs- und Änderungszeit einer Datei auf die aktuelle Zeit. Existiert eine solche Datei nicht, wird diese angelegt. touch wurde bereits in Abschnitt 1.7.2 behandelt, aber dennoch sollen hier noch einige Optionen zu touch und ihre jeweilige Bedeutung erwähnt werden:\n\n Tabelle 14.9  Optionen für das Kommando touch\n\n âa\n Damit ändern Sie nur die Zugriffszeit.\n\n âc\n Falls eine Datei nicht existiert, wird diese trotzdem nicht erzeugt.\n\n âm\n Ändert nur die Änderungszeit\n\n tr â Zeichen ersetzen bzw. Umformen von Dateien \n Mit tr können Zeichen durch andere Zeichen ersetzt werden. Dies gilt auch für nicht druckbare Zeichen.\n tr str1 str2 file\n Wird in der Datei file ein Zeichen aus »str1« gefunden, wird es durch das entsprechende Zeichen in »str2« ersetzt.\n\n Hinweis   tr wurde bereits in Abschnitt 2.3.1 behandelt.\n\n Hinweis   type selbst ist ein Builtin und daher nicht in jeder Shell verfügbar.\n\n umask â Dateierstellungsmaske ändern bzw. ausgeben \n Mit der Shell-Funktion umask setzen Sie eine Maske, mit der die Zugriffsrechte auf eine Datei bzw. auf Verzeichnisse direkt nach der Erzeugung durch einen von der Shell kontrollierten Prozess bestimmt wird. Die in der Maske gesetzten Bits werden bei den Zugriffsrechten für die neue Datei bzw. das Verzeichnis gelöscht (man spricht auch von: Sie werden maskiert). Mehr zu diesem Kommando entnehmen Sie bitte dem Abschnitt 9.4, wo es näher behandelt wurde.\n uniq â doppelte Zeilen nur einmal ausgeben \n Mit uniq können Sie doppelt vorhandene Zeilen löschen. Voraussetzung ist allerdings, dass die Datei sortiert ist und die doppelten Zeilen direkt hintereinander folgen. Beispielsweise:\n you@host > cat file1.txt file1:zeile1 file1:zeile2 file1:zeile2 file2:zeile3 you@host > uniq file1.txt file1:zeile1 file1:zeile2 file2:zeile3\n unix2dos â Dateien vom UNIX- in DOS-Format umwandeln \n Das Gegenstück von dos2unix. Damit wandeln Sie eine Textdatei vom Unix-Format wieder zurück in das DOS-Format um.\n unix2dos fileunix filedos\n wc â Zeilen, Wörter und Zeichen einer Datei zählen \n Mit wc können Sie die Zeichen, Wörter und/oder Zeilen einer Datei zählen. Ohne spezielle Optionen wird eine Zeile mit den folgenden Zahlen ausgegeben:\n you@host > wc file1.txt 4 4 52 file1.txt\n Die erste Spalte enthält die Anzahl der Zeilen, gefolgt von der Anzahl der Worte und am Ende die Anzahl der Zeichen. Einzeln können Sie dies mit der Option âl (lines = Zeilen), âw (words = Wörter) und âc (characters = Zeichen) ermitteln.\n\n Hinweis   wc wurde bereits in Abschnitt 1.7.2 behandelt.\n\n whereis â Suche nach Dateien \n Mit dem Kommando whereis wird vorwiegend in wichtigen Pfaden (meistens allen Einträge in PATH) nach Binärdateien oder man-Dateien gesucht. whereis ist nicht so flexibel wie find, aber dafür erheblich schneller.\n you@host > whereis ls /bin/ls /usr/share/man/man1/ls.1.gz /usr/share/man/man1p/ls.1p.gz you@host > whereis -b ls /bin/ls you@host > whereis -m ls /usr/share/man/man1/ls.1.gz /usr/share/man/man1p/ls.1p.gz\n Zuerst wurde der Pfad zum Programm ls ermittelt. Hierbei werden allerdings auch gleich die Pfade zu den man-Seiten mit ausgegeben. Wollen Sie nur den Pfad zum Binärprogramm erhalten, müssen Sie die Option âb verwenden. Wünschen Sie nur den Pfad zu den man-Seiten, so verwenden Sie die Option âm, wie im Beispiel gesehen.\n zcat, zless, zmore â (seitenweise) Ausgabe von gunzip-komprimierten Dateien \n Alle drei Funktionen haben dieselbe Funktionsweise wie Ihre Gegenstücke ohne »z«, nur dass hiermit gzip- bzw. gunzip-komprimierte Dateien gelesen und ausgegeben werden können, ohne dass diese dekomprimiert werden müssen. Auf manchen Systemen gibt es mit zgrep auch noch eine entsprechende grep-Version.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 14.2 Dateiorientierte KommandosÂ\n\n### bzcat â Ausgabe von bzip2-komprimierten DateienÂ\n\nMit bzcat können Sie die Inhalte von bzip2-komprimierten Dateien ausgeben, ohne dass Sie hierbei die komprimierte Datei dekomprimieren müssen. Dies ist z. B. auch ein Grund, warum Sie mit einem Dateibrowser den Inhalt einer Datei sehen und sogar lesen können, obwohl Sie diese noch gar nicht dekomprimiert haben. Ansonsten funktioniert bzcat wie cat.\n\n### cat â Datei(en) nacheinander ausgebenÂ\n\ncat wurde bereits mehrfach in diesem Buch verwendet und auch beschrieben. Mit diesem Kommando werden gewöhnlich Dateien ausgegeben. Geben Sie cat beim Aufruf keine Dateien zum Lesen als Argument mit, liest cat so lange aus der Standardeingabe, bis (Strg)+(D) (EOF) betätigt wurde.\n\nVerwendung | Bedeutung |\n | --- | --- |\ncat file | Gibt den Inhalt von file aus |\ncat file | kommando | Gibt den Inhalt von file via Pipe an die Standardeingabe von kommando weiter |\ncat file1 file2 > file_all | Dateien aneinander hängen |\ncat > file | Schreibt alle Zeilen, die von der Tastatur eingegeben wurden, in die Datei file, bis (Strg)+(D) betätigt wurde |\n\n### chgrp â Gruppe von Dateien oder Verzeichnissen ändernÂ\n\nMit chgrp ändern Sie die Gruppenzugehörigkeit einer Datei oder eines Verzeichnisses. Dieses Kommando bleibt somit nur dem Eigentümer einer Datei/Verzeichnis oder dem Superuser vorbehalten. Als Eigentümer können Sie außerdem nur diejenigen Dateien oder Verzeichnisse einer bestimmten Gruppe zuordnen, der Sie selbst auch angehören. Wollen Sie die Gruppenzugehörigkeit aller Dateien in einem Verzeichnis mit allen Unterverzeichnissen ändern, dann bietet sich hierzu die Option âR (für rekursiv) an.\n\n### cksum/md5sum/sum â eine Prüfsumme für eine Datei ermittelnÂ\n\nMit diesen Funktionen errechnet man die CRC-(cyclic redundancy check)-Prüfsumme und die Anzahl Bytes (Anzahl Bytes gilt nur für cksum) für eine Datei. Wird keine Datei angegeben, liest cksum diejenige aus der Standardeingabe, bis (Strg)+(D) betätigt wurde, und berechnet hieraus die Prüfsumme.\n\nDiese Kommandos werden häufig eingesetzt um festzustellen, ob zwei Daten identisch sind. So kann z. B. überprüft werden, ob eine Datei, die Sie aus dem Netz geladen haben, auch korrekt übertragen wurde. Voraussetzung hierfür ist natürlich, dass Sie die Prüfsumme der Quelle kennen. Häufig findet man dies beim Herunterladen von ISO-Distributionen. Ein anderer Anwendungsfall wäre das Überprüfen auf Virenbefall. Hiermit kann ermittelt werden, ob sich jemand an einer Datei zu schaffen gemacht hat, beispielsweise:\n > you@host > cksum data.conf 2935371588 51 data.conf you@host > cksum data.conf 2935371588 51 data.conf you@host > echo Hallo >> data.conf you@host > cksum data.conf 966396470 57 data.conf\n\nHier eine Konfigurationsdatei data.conf, bei der zweimal mit cksum derselbe Wert berechnet wurde (nur zur Demonstration). Kurz darauf wurde am Ende dieser Datei ein Text angehängt und erneut cksum ausgeführt. Jetzt erhalten Sie eine andere Prüfsumme. Voraussetzung, dass dieses Prinzip funktioniert, ist natürlich auch eine Datei oder Datenbank, die solche Prüfsummen zu den entsprechenden Dateien speichert. Dabei können Sie auch zwei Dateien auf einmal eingeben, um die Prüfsummen zu vergleichen:\n > you@host > cksum data.conf data.conf~bak 966396470 57 data.conf 2131264154 10240 data.conf~bak\n\ncksum ist gegenüber sum zu bevorzugen, da diese Version neuer ist und auch dem POSIX.2-Standard entspricht. Beachten Sie allerdings, dass alle drei Versionen zum Berechnen von Prüfsummen (sum, cksum und md5sum) untereinander inkompatibel sind und andere Prüfsummen als Ergebnis berechnen:\n > you@host > sum data.conf 20121 1 you@host > cksum data.conf 966396470 57 data.conf you@host > md5sum data.conf 5a04a9d083bc0b0982002a2c8894e406 data.conf\n\nNoch ein beliebter Anwendungsfall von md5sum (bzw. md5):\n > cd /bin; md5 `ls -R /bin` | md5\n\nWenn sich jetzt jemand am Verzeichnis /bin zu schaffen gemacht hat, merkt man dies relativ schnell. Am besten lässt man hierbei einen cron-Job laufen und sich gegebenenfalls täglich per E-Mail benachrichtigen.\n\n### chmod â Zugriffsrechte von Dateien oder Verzeichnissen ändernÂ\n\nMit chmod setzen oder verändern Sie die Zugriffsrechte auf Dateien oder Verzeichnisse. Die Benutzung von chmod ist selbstverständlich nur dem Dateieigentümer und dem Superuser gestattet. Die Bedienung von chmod muss eigentlich jedem Systemadministrator geläufig sein, weil es ein sehr häufig verwendetes Kommando ist. chmod kann zum Glück sehr flexibel eingesetzt werden. Man kann einen numerischen Wert wie folgt verwenden:\n > chmod 755 file\n\noder\n > chmod 0755 file\n\nEinfacher anzuwenden ist chmod über eine symbolische Angabe wie:\n > chmode u+x file\n\nHier bekommt der User (u; Eigentümer) der Datei file das Ausführrecht (+x) erteilt.\n > chmod g-x file\n\nDamit wurde der Gruppe (g) das Ausführrecht entzogen (âx). Wollen Sie hingegen allen Teilnehmern (a) ein Ausführrecht erteilen, dann geht dies so:\n > chmod a+x file\n\nMit chmod können Sie auch die Spezialbits setzen (SUID=4000; SGUID=2000 oder Sticky=1000). Wollen Sie z. B. für eine Datei das setuid-(Set-User-ID)-Bit setzen, funktioniert dies folgendermaßen:\n > chmod 4744 file\n\nDas setgid-(Set Group ID)-Bit hingegen setzen Sie mit »2xxx«.\n\nZu erwähnen ist auch die Option âR, mit der Sie ein Verzeichnis rekursiv durchlaufen und alle Dateien, die sich darin befinden, entsprechend den neu angegebenen Rechten ändern.\n\n### chown â Eigentümer von Dateien oder Verzeichnissen ändernÂ\n\nMit chown können Sie den Eigentümer von Dateien oder Verzeichnissen ändern. Als neuen Eigentümer kann man entweder den Login-Namen oder die User-ID angeben. Name oder Zahl müssen selbstverständlich in der Datei /etc/passwd vorhanden sein. Dieses Kommando kann wiederum nur vom Eigentümer selbst oder dem Superuser aufgerufen und auf Dateien bzw. Verzeichnisse angewendet werden.\n > chown john file1 file2\n\nHier wird der User »john« Eigentümer der Datei file1 und file2. Wollen Sie auch hier ein komplettes Verzeichnis mitsamt den Unterverzeichnissen erfassen, so kann auch hierbei die Option âR verwendet werden.\n\nWollen Sie sowohl den Eigentümer als auch die Gruppe einer Datei ändern, nutzen Sie folgende Syntax:\n > chown john:user file1 file2\n\n### cmp â Dateien miteinander vergleichenÂ\n\nMit der Funktion cmp vergleichen Sie zwei Dateien Byte für Byte miteinander und erhalten die dezimale Position und Zeilennummer vom ersten Byte zurück, bei dem sich beide Dateien unterscheiden. cmp vergleicht auch Binärdateien. Sind beide Dateien identisch, erfolgt keine Ausgabe.\n > you@host > cmp out.txt textfile.txt out.txt textfile.txt differieren: Byte 52, Zeile 3.\n\n### comm â zwei sortierte Textdateien miteinander vergleichenÂ\n\nMit comm vergleichen Sie zwei sortierte Dateien und geben die gemeinsamen und die unterschiedlichen Zeilen jeweils in Spalten aus, indem die zweite und dritte Spalte von einem bzw. zwei Tabulatorenvorschüben angeführt werden.\n > comm [-123] file1 file2\n\nDie erste Spalte enthält die Zeilen, die nur in der Datei file1 enthalten sind. Die zweite Spalte hingegen beinhaltet die Zeilen, die in der zweiten Datei file2 enthalten sind, und die dritte Spalte die Zeilen, die in beiden Dateien enthalten sind.\n > you@host > cat file1.txt # wichtige Initialisierungsdatei # noch eine Zeile Hallo you@host > cat file2.txt # wichtige Initialisierungsdatei # noch eine Zeile Hallo you@host > comm file1.txt file2.txt # wichtige Initialisierungsdatei # noch eine Zeile Hallo you@host > echo \"Neue Zeile\" >> file2.txt you@host > comm file1.txt file2.txt # wichtige Initialisierungsdatei # noch eine Zeile Hallo Neue Zeile you@host > comm â3 file1.txt file2.txt Neue Zeile\n\nIn der letzten Zeile ist außerdem zu sehen, wie Sie mit dem Schalter â3 die Ausgabe der dritten Spalte ganz abschalten, um nur die Differenzen beider Dateien zu erkennen. comm arbeitet zeilenweise, weshalb hier keine Vergleiche mit binären Dateien möglich sind. Weitere Schalterstellungen und ihre Bedeutung sind:\n\nVerwendung | Bedeutung |\n | --- | --- |\nâ23 file1 file2 | Es werden nur Zeilen ausgegeben, die in file1 vorkommen. |\nâ123 file1 file2 | Es wird keine Ausgabe erzeugt. |\n\n### cp â Dateien kopierenÂ\n\nVerwendung | Bedeutung |\n | --- | --- |\ncp file newfile | Es wird mit newfile eine Kopie von file erzeugt. |\ncp âp file newfile | newfile erhält dieselben Zugriffsrechte, Eigentümer und Zeitstempel. |\ncp âr dir newdir | Es wird ein komplettes Verzeichnis rekursiv (âr) kopiert. |\ncp file1 file2 file3 dir | Es werden mehrere Dateien in ein Verzeichnis kopiert. |\n\n### csplit â Zerteilen von Dateien (kontextabhängig)Â\n\nMit csplit können Sie eine Datei in mehrere Teile aufteilen. Als Trennstelle kann hierbei ein Suchmuster, also auch ein regulärer Ausdruck angegeben werden. Dabei werden aus einer Eingabedatei mehrere Ausgabedateien erzeugt, deren Inhalt vom Suchmuster abhängig gemacht werden kann. Ein Beispiel:\n > csplit Kapitel20.txt /Abschnitt 1/ /Abschnitt 2/ /Abschnitt 3/\n\nHier wird das Kapitel20.txt in vier Teile aufgeteilt. Zunächst vom Anfang bis zum »Abschnitt 1«, als Nächstes von »Abschnitt 1« bis »Abschnitt 2«, dann »Abschnitt 2« bis »Abschnitt 3« und zu guter Letzt »Abschnitt 3« bis »Abschnitt4«. Hier können Sie allerdings auch einzelne Zeilen angeben, ab denen Sie eine Datei teilen wollen:\n > csplit -f Abschnitt Kapitel20.txt 20 40\n\nHier haben Sie mit der Option âf veranlasst, dass statt eines Dateinamens wie »xx01«, »xx02« usw. dem darauf folgenden Namen eine Datei wie »Abschnitt01«, »Abschnitt02« usw. erzeugt wird. Hier zerteilen Sie die Datei Kapitel20.txt in drei Dateien: »Abschnitt01« (Zeile 1â20), »Abschnitt02« (Zeile 21â40) und »Abschnitt03« (Zeile 41 bis zum Ende). Sie können mit {n} am Ende auch angeben, dass ein bestimmter Ausdruck n-mal angewendet werden soll. Beispielsweise:\n > csplit -k /var/spool/mail/$LOGNAME /^From / {100}\n\nHier zerteilen Sie in Ihrer Mailbox die einzelnen E-Mails in die einzelnen Dateien »xx01«, »xx02« ... »xx99«. Jeder Brief einer E-Mail im mbox-Format beginnt mit »From«, weshalb dies als Trennzeichen für die einzelnen Dateien dient. Weil Sie wahrscheinlich nicht genau wissen, wie viele Mails in Ihrer Mailbox liegen, können Sie durch die Angabe einer relativ hohen Zahl zusammen mit der Option âk erreichen, dass alle Mails getrennt und nach einem eventuell vorzeitigen Scheitern die bereits erzeugten Dateien nicht wieder gelöscht werden.\n\n### cut â Zeichen oder Felder aus Dateien herausschneidenÂ\n\nMit cut schneiden Sie bestimmte Teile aus einer Datei heraus. Dabei liest cut von der angegebenen Datei und gibt die Teile auf dem Bildschirm aus, die Sie als gewählte Option und per Wahl des Bereichs verwendet haben. Ein Bereich ist eine durch ein Komma getrennte Liste von einzelnen Zahlen bzw. Zahlenbereichen. Diese Zahlenbereiche werden in der Form »a-z« angegeben. Wird a oder z weggelassen, so wird hierzu der Anfang bzw. das Ende einer Zeile verwendet.\n\n### diff â Vergleichen zweier DateienÂ\n\ndiff vergleicht den Inhalt von zwei Dateien. Da diff zeilenweise vergleicht, sind keine binären Dateien erlaubt. Ein Beispiel:\n > you@host > diff file1.txt file2.txt 2a3 > neueZeile\n\nHier wurden die Dateien file1.txt und file2.txt miteinander verglichen. Die Ausgabe »2a3« besagt lediglich, dass Sie in der Datei file1.txt zwischen der Zeile 2 und 3 die Zeile »neueZeile« einfügen (a = append) müssten, damit die Datei exakt mit der Datei file2.txt übereinstimmt. Noch ein Beispiel:\n > you@host > diff file1.txt file2.txt 2c2 < zeile2 --- > zeile2 wurde verändert\n\nHier bekommen Sie mit »2c2« die Meldung, dass die zweite Zeile unterschiedlich (c = change) ist. Die darauf folgende Ausgabe zeigt auch den Unterschied dieser Zeile an. Eine sich öffnende spitze Klammer (<) zeigt file1.txt und die sich schließende spitze Klammer bezieht sich auf file2.txt. Und eine dritte Möglichkeit, die Ihnen diff meldet, wäre:\n > you@host > diff file1.txt file2.txt 2d1 < zeile2\n\nHier will Ihnen diff sagen, dass die zweite Zeile in file2.txt fehlt (d = delete) bzw. gelöscht wurde. Daraufhin wird die entsprechende Zeile auch ausgegeben. Natürlich beschränkt sich die Verwendung von diff nicht ausschließlich auf Dateien. Mit der Option âr können Sie ganze Verzeichnisse miteinander vergleichen:\n > diff -r dir1 dir2\n\n### diff3 â Vergleich von drei DateienÂ\n\nDie Funktion entspricht etwa der von diff, nur dass Sie hierbei drei Dateien Zeile für Zeile miteinander vergleichen können. Folgendes besagt die Ausgabe von diff3:\n > diff file1 file2 file3\n\nAusgabe | Bedeutung |\n | --- | --- |\n==== | Alle drei Dateien sind unterschiedlich. |\n====1 | file1 ist unterschiedlich. |\n====2 | file2 ist unterschiedlich. |\n====3 | file3 ist unterschiedlich. |\n\n### dos2unix â Dateien vom DOS- in UNIX-Format umwandelnÂ\n\nMit dos2unix können Sie Textdateien vom DOS- in das UNIX-Format umwandeln. Alternativ gibt es außerdem noch den Befehl mac2unix, mit dem Sie Textdateien vom MAC- in das UNIX-Format konvertieren können.\n > you@host > dos2unix file1.txt file2.txt dos2unix: converting file file1.txt to UNIX format ... dos2unix: converting file file2.txt to UNIX format ...\n\n### expand â Tabulatoren in Leerzeichen umwandelnÂ\n\nexpand ersetzt alle Tabulatoren einer Datei durch eine Folge von Leerzeichen. Standardmäßig sind dies acht Leerzeichen, allerdings kann dieser Wert explizit mit einem Schalter verändert werden. Wollen Sie z. B., dass alle Tabulatorzeichen mit nur drei Leerzeichen ersetzt werden, erreichen Sie dies folgendermaßen:\n > you@host > expand â3 file\n\nAllerdings erlaubt expand nicht das vollständige Entfernen von Tabulatorenzeichen â sprich ein Schalter mit â0 gibt eine Fehlermeldung zurück. Hierzu können Sie alternativ z. B. das Kommando tr verwenden.\n\n### file â den Inhalt von Dateien analysierenÂ\n\nDas Kommando file versucht, die Art oder den Typ einer von Ihnen angegebenen Datei zu ermitteln. Hierzu führt file einen Dateisystemtest, einen Kennzahlentest und einen Sprachtest durch. Je nach Erfolg wird eine entsprechende Ausgabe des Tests vorgenommen. Der Dateisystemtest wird mithilfe des Systemaufrufes stat(2) ausgeführt. Dieser Aufruf erkennt viele Arten von Dateien. Der Kennzahlentest wird anhand von festgelegten Kennzahlen (der Datei /etc/magic oder /etc/usr/share/magic) durchgeführt. In dieser Datei steht beispielsweise geschrieben, welche Bytes einer Datei zu untersuchen sind und auf welches Muster man dann den Inhalt dieser Datei zurückführen kann. Am Ende erfolgt noch ein Sprachtest. Hier versucht file, eine Programmiersprache anhand von Schlüsselwörtern zu erkennen.\n > you@host > cat > hallo.c #include int main(void) { printf(\"Hallo Welt\\n\"); return 0; } (Strg)+(D) you@host > file hallo.c hallo.c: ASCII C program text you@host > gcc -o hallo hallo.c you@host > ./hallo Hallo Welt you@host > file hallo hallo: ELF 32-bit LSB executable, Intel 80386, version 1 (SYSV), for GNU/Linux 2.2.5, dynamically linked (uses shared libs), not stripped you@host > file file1.txt file1.txt: ASCII text you@host > mkfifo abc you@host > file abc abc: fifo (named pipe) ...\n\n### find â Suchen nach DateienÂ\n\nZum Suchen nach Dateien wird häufig auf das Kommando find zurückgegriffen. find durchsucht eine oder mehrere Verzeichnisebenen nach Dateien mit einer bestimmten vorgegebenen Eigenschaft. Die Syntax zu find:\n > find [Verzeichnis] [-Option ...] [-Test ...] [-Aktion ...]\n\nDie Optionen, Tests und Aktionen können Sie mit Operatoren zusammenfassen. Dabei wertet find jede Datei in den Verzeichnissen hinsichtlich der Optionen, Tests und Aktionen von links nach rechts aus, bis ein Wert unwahr ist oder die Kommandozeilenargumente zu Ende sind. Wenn kein Verzeichnis angegeben wird, wird das aktuelle Verzeichnis verwendet â allerdings gilt dies nur bei GNU-find. Von daher sollte man aus Kompatibilitätsgründen möglichst das Verzeichnis angeben. Wenn keine Aktion angegeben ist, wird meistens âprint (abhängig von einer eventuell angegebene Option) für die Ausgabe auf dem Bildschirm verwendet. Hierzu einige Beispiele.\n\nAlle Verzeichnisse und Unterverzeichnisse ab dem Heimverzeichnis ausgeben:\n > find $HOME -print\n\nGibt alle Dateien mit dem Namen »kapitel« aus dem Verzeichnis (und dessen Unterverzeichnisse) /dokus aus:\n > find /dokus -name kapitel -print\n\nGibt alle Dateien aus dem Verzeichnis (und dessen Unterverzeichnisse) dokus mit dem Namen »kap...«, bei denen »you« der Eigentümer ist, aus:\n > find /dokus /usr -name 'kap*' -user you -print\n\nDamit durchsuchen Sie ab dem Wurzelverzeichnis nach einem Verzeichnis (âtype d = directory) mit dem Namen »dok...« und geben dies auf dem Bildschirm aus:\n > find / -type d -name 'dok*' -print\n\nSucht leere Dateien (size = 0) und löscht diese nach einer Rückfrage (âok):\n > find / -size 0 -ok rm {} \\;\n\nGibt alle Dateien ab dem Wurzelverzeichnis aus, die in den letzten sieben Tagen verändert wurden:\n > find / -mtime â7 -print\n\n### fold â einfaches Formatieren von DateienÂ\n\nMit fold können Sie Textdateien ab einer bestimmten Zeilenlänge umbrechen. Standardmäßig sind hierbei 80 Zeichen pro Zeile eingestellt. Da fold die Bildschirmspalten und nicht die Zeichen zählt, werden auch Tabulatorzeichen korrekt behandelt. Wollen Sie etwa eine Textdatei nach 50 Zeichen umbrechen, gehen Sie folgendermaßen vor:\n > you@host > fold â50 Kap003.txt ... Sicherlich erscheint Ihnen das Ganze nicht sonderl ich elegant oder sinnvoll, aber bspw. in Schleifen eingesetzt, können Sie hierbei hervorragend alle A rgumente der Kommandozeile zur Verarbeitung von Op tionen heranziehen. Als Beispiel ein kurzer theoreti scher Code-Ausschnitt, wie so etwas in der Praxis realisiert werden kann.\n\nAllerdings kann man an der Ausgabe erkennen, dass einfach die Wörter abgeschnitten und in der nächsten Zeile fortgeführt werden. Wollen Sie dies unterbinden, können Sie die Option âs verwenden. Damit findet der Zeilenumbruch beim letzten Leerzeichen der Zeile statt, wenn in der Zeile ein Leerzeichen vorhanden ist.\n > you@host > fold -s â50 Kap003.txt ... Sicherlich erscheint Ihnen das Ganze nicht sonderlich elegant oder sinnvoll, aber bspw. in Schleifen eingesetzt, können Sie hierbei hervorragend alle Argumente der Kommandozeile zur Verarbeitung von Optionen heranziehen. Als Beispiel ein kurzer theoretischer Code-Ausschnitt, wie so etwas in der Praxis realisiert werden kann.\n\nEin recht typischer Anwendungsfall ist es, Text für eine E-Mail zu formatieren:\n > you@host > fold -s â72 text.txt | mail -s \"Betreff\" \n\n### head â Anfang einer Datei ausgebenÂ\n\nMit der Funktion head geben Sie immer die ersten Zeilen einer Datei auf dem Bildschirm aus. Standardmäßig werden dabei die ersten zehn Zeilen ausgegeben. Wollen Sie selbst bestimmen, wie viele Zeilen vom Anfang der Datei ausgegeben werden sollen, können Sie dies explizit mit ân angeben:\n > you@host > head â5 file\n\nHier werden die ersten fünf Zeilen von file auf dem Bildschirm ausgegeben.\n\nMit less geben Sie eine Datei seitenweise auf dem Bildschirm aus. Der Vorteil von less gegenüber more ist, dass Sie mit less auch zurückblättern können. Da less von der Standardeingabe liest, ist so auch eine Umleitung eines anderen Kommandos mit einer Pipe möglich. Mit der (Leertaste) blättern Sie eine Seite weiter und mit (B) können Sie jeweils eine Seite zurückblättern. Die meisten less-Versionen bieten außerdem das Scrollen nach unten bzw. oben mit den Pfeiltasten an. Mit (Q) wird less beendet. less bietet außerdem eine Unmenge von Optionen und weiterer Features an, über die Sie sich durch Drücken von (H) informieren können.\n\n### ln â Links auf eine Datei erzeugenÂ\n\nWenn eine Datei erzeugt wird, werden im Verzeichnis der Name, ein Verweis auf eine Inode, die Zugriffsrechte, der Dateityp und gegebenenfalls die Anzahl der belegten Blöcke eingetragen. Mit ln wiederum wird ein neuer Eintrag im Verzeichnis abgelegt, der auf die Inode einer existierenden Datei zeigt. Man spricht dabei von einem Hardlink. Er wird standardmäßig ohne weitere Angaben angelegt. Es ist allerdings nicht möglich, diese Hardlinks über Dateisystemgrenzen hinweg anzulegen. Hierzu müssen Sie einen symbolischen Link mit der Option âs erzeugen.\n > ln -s filea fileb\n\nDamit haben Sie einen symbolischen Link auf die bestehende Datei filea mit dem Namen fileb angelegt.\n\nWollen Sie hingegen einen Hardlink auf die bestehende Datei filea mit dem Namen fileb anlegen, so gehen Sie wie folgt vor:\n > ln filea fileb\n\n### ls â Verzeichnisinhalt auflistenÂ\n\nMit ls wird der Inhalt eines Verzeichnisses auf dem Dateisystem angezeigt. Da ls bereits in Abschnitt 1.7.2 behandelt wurde, wird hier nicht mehr näher darauf eingegangen.\n\nmore wird genauso eingesetzt wie less, und zwar zum seitenweisen Lesen von Dateien. Allerdings bietet less gegenüber more erheblich mehr Features und Funktionalitäten an.\n\n### mv â Datei(en) und Verzeichnisse verschieben oder umbenennenÂ\n\nMit mv können Sie eine oder mehrere Dateien bzw. Verzeichnisse verschieben oder umbenennen.\n\nVerwendung | Bedeutung |\n | --- | --- |\nmv file filenew | Eine Datei umbenennen |\nmv file dir | Eine Datei in ein Verzeichnis verschieben |\nmv dir dirnew | Ein Verzeichnis in ein anderes Verzeichnis verschieben |\n\n### nl â Datei mit Zeilennummer ausgebenÂ\n\nMit nl geben Sie die Zeilen einer Datei mit deren Nummer auf dem Bildschirm aus. Dabei ist nl nicht nur ein »dummer« Zeilenzähler, sondern kann die Zeilen einer Seite auch in einen Header, Body und einen Footer unterteilen und in unterschiedlichen Stilen nummerieren, zum Beispiel:\n > you@host > ls | nl -w3 -s') ' 1) abc 2) bin 3) cxoffice 4) Desktop 5) Documents 6) file1.txt ...\n\nWenn Sie mehrere Dateien verwenden, beginnt die Nummerierung allerdings nicht mehr neu, dann werden mehrere Dateien wie eine behandelt. Die Zeilennummer wird nicht zurückgesetzt. Ein weiteres Beispiel:\n > you@host > nl hallo.c -s' : ' > hallo_line you@host > cat hallo_line 1 : #include 2 : int main(void) { 3 : printf(\"Hallo Welt\\n\"); 4 : return 0; 5 : }\n\nMit der Option âs (optional) geben Sie das Zeichen an, das zwischen der Zeilennummer und der eigentlichen Zeile stehen soll.\n\n### od â Datei(en) hexadezimal bzw. oktal ausgebenÂ\n\nod liest von der Standardeingabe eine Datei ein und gibt diese â Byte für Byte â formatiert und kodiert auf dem Bildschirm aus. Standardmäßig wird dabei die siebenstellige Oktalzahl in je acht Spalten zu zwei Bytes verwendet:\n > you@host > od file1.txt 0000000 064546 062554 035061 062572 066151 030545 063012 066151 0000020 030545 075072 064545 062554 005062 064546 062554 035062 0000040 062572 066151 031545 000012 0000047\n\nJede Zeile enthält in der ersten Spalte die Positionsnummer in Bytes vom Dateianfang an. Mit der Option âh erfolgt die Ausgabe in hexadezimaler und mit âc in ASCII-Form.\n\n### paste â Dateien spaltenweise verknüpfenÂ\n\nMit paste führen Sie Zeilen von mehreren Dateien zusammen. Das Kommando wurde bereits in Abschnitt 2.3.1 behandelt, weshalb Sie gegebenenfalls hierhin zurückblättern sollten.\n\n### pcat â Ausgabe von pack-komprimierten DateienÂ\n\nMit pcat kann man den Inhalt von pack-komprimierten Dateien ausgeben, ohne dass man die komprimierte Datei dekomprimieren muss. Ansonsten funktioniert pcat wie cat.\n\n### rm â Dateien und Verzeichnisse löschenÂ\n\nMit dem Kommando rm können Sie Dateien und Verzeichnisse löschen.\n\nVerwendung | Bedeutung |\n | --- | --- |\nrm datei | Löscht eine Datei |\nrm dir | Löscht ein leeres Verzeichnis |\nrm âr dir | Löscht ein Verzeichnis rekursiv |\nrm ârf dir | Erzwingt rekursives Löschen, ohne eine Warnung auszugeben |\n\n### sort â Dateien sortierenÂ\n\nHäufig verwendete Optionen zum Sortieren, die mit sort benutzt werden:\n\nOption | Bedeutung |\n | --- | --- |\nân | Sortiert eine Datei numerisch |\nâf | Unterscheidet nicht zwischen Klein- und Großbuchstaben |\nâr | Sortiert nach Alphabet in umgekehrter Reihenfolge |\nân âr | Sortiert numerisch in umgekehrter Reihenfolge |\nâc | Überprüft, ob die Dateien bereits sortiert sind. Wenn nicht, wird mit einer Fehlermeldung und dem Rückgabewert 1 abgebrochen. |\nâu | Gibt keine doppelt vorkommenden Zeilen aus |\n\nAlternativ gibt es hierzu noch das Kommando tsort, welches Dateien topologisch sortiert.\n\n### split â Dateien in mehrere Teile zerlegenÂ\n\nMit split teilen Sie eine Datei in mehrere Teile auf. Ohne Angabe einer Option wird eine Datei in je 1000 Zeilen aufgeteilt. Die Ausgabe erfolgt in Dateien mit »x...« oder einem entsprechenden Präfix, wenn eines angegeben wurde:\n > you@host > split â50 kommandos.txt you@host > ls x* xaa xab xac xad xae\n\nDie Datei können Sie folgendermaßen wieder zusammensetzen:\n > for file in `ls x* | sort`; do cat $file >> new.txt; done\n\nHier wurde z. B. die Textdatei kommandos.txt in je 50-zeilige Häppchen aufgeteilt. Wollen Sie den Namen der neu erzeugten Datei verändern, gehen Sie wie folgt vor:\n > you@host > split â50 kommandos.txt kommandos you@host > ls komm* kommandosaa kommandosab kommandosac kommandosad kommandosae kommandos.txt\n\nDas Kommando split wird häufig eingesetzt, um große Dateien zu splitten, die nicht auf ein einzelnes Speichermedium passen.\n\n### tac â Dateien rückwärts ausgebenÂ\n\nVereinfacht ausgedrückt ist tac wie cat (daher auch der rückwärts geschriebene Kommandoname), nur dass tac die einzelnen Zeilen rückwärts ausgibt. Es wird somit zuerst die letzte Zeile ausgegeben, dann die vorletzte usw. bis zur ersten Zeile.\n > you@host > cat file1.txt file1:zeile1 file1:zeile2 file2:zeile3 you@host > tac file1.txt file2:zeile3 file1:zeile2 file1:zeile1\n\n### tail â Ende einer Datei ausgebenÂ\n\ntail gibt die letzten Zeilen (standardmäßig, ohne spezielle Angaben die letzten zehn) einer Datei aus.\n > you@host > tail â5 kommandos.txt write â Nachrichten an andere Benutzer verschicken zcat â Ausgabe von gunzip-komprimierten Dateien zip/unzip â (De-) Komprimieren von Dateien zless â gunzip-komprimierte Dateien seitenweise ausgeben zmore â gunzip-komprimierte Dateien seitenweise ausgeben\n\nHier gibt tail die letzten fünf Zeilen der Datei kommandos.txt aus. Wollen Sie eine Datei ab einer bestimmten Zeile ausgeben lassen, gehen Sie wie folgt vor:\n > you@host > tail +100 kommandos.txt\n\nHier werden alle Zeilen ab Zeile 100 ausgegeben. Wollen Sie tail wie tac verwenden, können Sie die Option âr verwenden:\n > you@host > tail -r kommandos.txt\n\nHiermit wird die komplette Datei zeilenweise rückwärts, von der letzten zur ersten Zeile ausgegeben. Häufig verwendet wird auch die Option âf (follow), die immer wieder das Dateiende ausgibt. Dadurch kann man eine Datei beim Wachsen beobachten, da jede neu hinzugekommene Zeile angezeigt wird. Natürlich lässt sich diese Option nur auf eine Datei gleichzeitig anwenden.\n\n### tee â Ausgabe duplizierenÂ\n\nMit tee lesen Sie von der Standardeingabe und verzweigen die Ausgabe auf die Standardausgabe und Datei. Da tee ein eigener Abschnitt (1.10.5) im Buch gewidmet ist, sei hier auf diesen verwiesen.\n\n### touch â Anlegen von Dateien oder Zeitstempel verändernÂ\n\nMit touch verändern Sie die Zugriffs- und Änderungszeit einer Datei auf die aktuelle Zeit. Existiert eine solche Datei nicht, wird diese angelegt. touch wurde bereits in Abschnitt 1.7.2 behandelt, aber dennoch sollen hier noch einige Optionen zu touch und ihre jeweilige Bedeutung erwähnt werden:\n\nOption | Bedeutung |\n | --- | --- |\nâa | Damit ändern Sie nur die Zugriffszeit. |\nâc | Falls eine Datei nicht existiert, wird diese trotzdem nicht erzeugt. |\nâm | Ändert nur die Änderungszeit |\n\n### tr â Zeichen ersetzen bzw. Umformen von DateienÂ\n\nMit tr können Zeichen durch andere Zeichen ersetzt werden. Dies gilt auch für nicht druckbare Zeichen.\n > tr str1 str2 file\n\nWird in der Datei file ein Zeichen aus »str1« gefunden, wird es durch das entsprechende Zeichen in »str2« ersetzt.\n\n### type â Kommandos klassifizierenÂ\n\n### umask â Dateierstellungsmaske ändern bzw. ausgebenÂ\n\nMit der Shell-Funktion umask setzen Sie eine Maske, mit der die Zugriffsrechte auf eine Datei bzw. auf Verzeichnisse direkt nach der Erzeugung durch einen von der Shell kontrollierten Prozess bestimmt wird. Die in der Maske gesetzten Bits werden bei den Zugriffsrechten für die neue Datei bzw. das Verzeichnis gelöscht (man spricht auch von: Sie werden maskiert). Mehr zu diesem Kommando entnehmen Sie bitte dem Abschnitt 9.4, wo es näher behandelt wurde.\n\n### uniq â doppelte Zeilen nur einmal ausgebenÂ\n\nMit uniq können Sie doppelt vorhandene Zeilen löschen. Voraussetzung ist allerdings, dass die Datei sortiert ist und die doppelten Zeilen direkt hintereinander folgen. Beispielsweise:\n > you@host > cat file1.txt file1:zeile1 file1:zeile2 file1:zeile2 file2:zeile3 you@host > uniq file1.txt file1:zeile1 file1:zeile2 file2:zeile3\n\n### unix2dos â Dateien vom UNIX- in DOS-Format umwandelnÂ\n\nDas Gegenstück von dos2unix. Damit wandeln Sie eine Textdatei vom Unix-Format wieder zurück in das DOS-Format um.\n > unix2dos fileunix filedos\n\n### wc â Zeilen, Wörter und Zeichen einer Datei zählenÂ\n\nMit wc können Sie die Zeichen, Wörter und/oder Zeilen einer Datei zählen. Ohne spezielle Optionen wird eine Zeile mit den folgenden Zahlen ausgegeben:\n > you@host > wc file1.txt 4 4 52 file1.txt\n\nDie erste Spalte enthält die Anzahl der Zeilen, gefolgt von der Anzahl der Worte und am Ende die Anzahl der Zeichen. Einzeln können Sie dies mit der Option âl (lines = Zeilen), âw (words = Wörter) und âc (characters = Zeichen) ermitteln.\n\n### whereis â Suche nach DateienÂ\n\nMit dem Kommando whereis wird vorwiegend in wichtigen Pfaden (meistens allen Einträge in PATH) nach Binärdateien oder man-Dateien gesucht. whereis ist nicht so flexibel wie find, aber dafür erheblich schneller.\n > you@host > whereis ls /bin/ls /usr/share/man/man1/ls.1.gz /usr/share/man/man1p/ls.1p.gz you@host > whereis -b ls /bin/ls you@host > whereis -m ls /usr/share/man/man1/ls.1.gz /usr/share/man/man1p/ls.1p.gz\n\nZuerst wurde der Pfad zum Programm ls ermittelt. Hierbei werden allerdings auch gleich die Pfade zu den man-Seiten mit ausgegeben. Wollen Sie nur den Pfad zum Binärprogramm erhalten, müssen Sie die Option âb verwenden. Wünschen Sie nur den Pfad zu den man-Seiten, so verwenden Sie die Option âm, wie im Beispiel gesehen.\n\n### zcat, zless, zmore â (seitenweise) Ausgabe von gunzip-komprimierten DateienÂ\n\nAlle drei Funktionen haben dieselbe Funktionsweise wie Ihre Gegenstücke ohne »z«, nur dass hiermit gzip- bzw. gunzip-komprimierte Dateien gelesen und ausgegeben werden können, ohne dass diese dekomprimiert werden müssen. Auf manchen Systemen gibt es mit zgrep auch noch eine entsprechende grep-Version.\n\n# 14.3 Verzeichnisorientierte KommandosÂ\n\n14.3 Verzeichnisorientierte Kommandos \n basename â gibt den Dateianteil eines Pfadnamens zurück \n basename liefert den Dateiname ohne den Pfadnamen zurück, indem dieser abgeschnitten wird. Geben Sie ein Suffix an, wird auch die Dateiendung abgeschnitten. basename wurde bereits in Abschnitt 9.3 behandelt.\n cd â Verzeichnis wechseln \n Das Shellkommando cd wird zum Wechseln des aktuellen Verzeichnisses verwendet. Wird kein Verzeichnis angegeben, wird in das Heimverzeichnis gewechselt. Das Kommando wurde bereits ausführlich in Abschnitt 1.7.3 beschrieben.\n dircmp â Verzeichnisse rekursiv vergleichen \n Mit dem Kommando dircmp vergleichen Sie zwei Verzeichnisse mit allen ihren Dateien und Unterverzeichnissen auf Gleichheit.\n dircmp dir1 dir2\n Auf der ersten Seite gibt dircmp die Dateinamen aus, die nur in einem der Verzeichnisse vorkommen. Auf der zweiten Seite werden die Dateinamen aufgelistet, die zwar in beiden Verzeichnissen vorhanden sind, aber unterschiedliche Inhalte aufweisen. Auf der dritten Seite werden alle Dateien mit dem gleichen Inhalt aufgelistet. Die Namen der identischen Dateien können Sie mit der Option âs unterdrücken.\n dirname â Verzeichnisanteil eines Pfadnamens zurückgeben \n dirname ist das Gegenstück zu basename und gibt den Verzeichnisanteil zurück. Es wird hierbei also der Dateiname aus der absoluten Pfadangabe »ausgeschnitten«. dirname wurde bereits in Abschnitt 9.3 behandelt.\n mkdir â ein Verzeichnis anlegen \n Mit mkdir legen Sie ein leeres Verzeichnis an. Wollen Sie gleich beim Anlegen die Zugriffsrechte erteilen, können Sie dies mit der Option âm vornehmen:\n you@host > mkdir -m 600 mydir\n Wollen Sie ein neues Verzeichnis mitsamt Elternverzeichnissen anlegen, können Sie die Option âp verwenden:\n you@host > mkdir doku/neu/buch mkdir: kann Verzeichnis doku/neu/buch nicht anlegen: Datei oder Verzeichnis nicht gefunden you@host > mkdir -p doku/neu/buch\n\n Hinweis   mkdir wurde bereits ausführlich in Abschnitt 1.7.3 behandelt.\n\n pwd â Ausgeben des aktuellen Arbeitsverzeichnisses \n Mit pwd lassen Sie das aktuelle Arbeitsverzeichnis ausgeben, in dem Sie sich gerade befinden.\n rmdir â ein leeres Verzeichnis löschen \n Mit der Funktion rmdir können Sie ein leeres Verzeichnis löschen. Nicht leere Verzeichnisse können Sie mit rm âr rekursiv löschen. Etwas, was rm âr allerdings nicht kann, ist Verzeichnisse zu löschen, für die kein Ausführrecht vorhanden ist. Irgendwie ist dies auch logisch, weil ja rm mit der Option âr im Verzeichnis enthalten sein muss. rmdir hingegen verrichtet hierbei seine Arbeit klaglos:\n you@host > mkdir -m 600 mydir you@host > rm -r mydir rm: kann nicht aus Verzeichnis . in mydir wechseln: Keine Berechtigung you@host > rmdir mydir\n\n Hinweis   Beide Befehle wurde bereits in den Abschnitten 1.7.2 (rm) und 1.7.3 (rmdir) behandelt.\n\n## 14.3 Verzeichnisorientierte KommandosÂ\n\n### basename â gibt den Dateianteil eines Pfadnamens zurückÂ\n\nbasename liefert den Dateiname ohne den Pfadnamen zurück, indem dieser abgeschnitten wird. Geben Sie ein Suffix an, wird auch die Dateiendung abgeschnitten. basename wurde bereits in Abschnitt 9.3 behandelt.\n\n### cd â Verzeichnis wechselnÂ\n\nDas Shellkommando cd wird zum Wechseln des aktuellen Verzeichnisses verwendet. Wird kein Verzeichnis angegeben, wird in das Heimverzeichnis gewechselt. Das Kommando wurde bereits ausführlich in Abschnitt 1.7.3 beschrieben.\n\n### dircmp â Verzeichnisse rekursiv vergleichenÂ\n\nMit dem Kommando dircmp vergleichen Sie zwei Verzeichnisse mit allen ihren Dateien und Unterverzeichnissen auf Gleichheit.\n > dircmp dir1 dir2\n\nAuf der ersten Seite gibt dircmp die Dateinamen aus, die nur in einem der Verzeichnisse vorkommen. Auf der zweiten Seite werden die Dateinamen aufgelistet, die zwar in beiden Verzeichnissen vorhanden sind, aber unterschiedliche Inhalte aufweisen. Auf der dritten Seite werden alle Dateien mit dem gleichen Inhalt aufgelistet. Die Namen der identischen Dateien können Sie mit der Option âs unterdrücken.\n\n### dirname â Verzeichnisanteil eines Pfadnamens zurückgebenÂ\n\ndirname ist das Gegenstück zu basename und gibt den Verzeichnisanteil zurück. Es wird hierbei also der Dateiname aus der absoluten Pfadangabe »ausgeschnitten«. dirname wurde bereits in Abschnitt 9.3 behandelt.\n\n### mkdir â ein Verzeichnis anlegenÂ\n\nMit mkdir legen Sie ein leeres Verzeichnis an. Wollen Sie gleich beim Anlegen die Zugriffsrechte erteilen, können Sie dies mit der Option âm vornehmen:\n > you@host > mkdir -m 600 mydir\n\nWollen Sie ein neues Verzeichnis mitsamt Elternverzeichnissen anlegen, können Sie die Option âp verwenden:\n > you@host > mkdir doku/neu/buch mkdir: kann Verzeichnis doku/neu/buch nicht anlegen: Datei oder Verzeichnis nicht gefunden you@host > mkdir -p doku/neu/buch\n\n### pwd â Ausgeben des aktuellen ArbeitsverzeichnissesÂ\n\nMit pwd lassen Sie das aktuelle Arbeitsverzeichnis ausgeben, in dem Sie sich gerade befinden.\n\n### rmdir â ein leeres Verzeichnis löschenÂ\n\nMit der Funktion rmdir können Sie ein leeres Verzeichnis löschen. Nicht leere Verzeichnisse können Sie mit rm âr rekursiv löschen. Etwas, was rm âr allerdings nicht kann, ist Verzeichnisse zu löschen, für die kein Ausführrecht vorhanden ist. Irgendwie ist dies auch logisch, weil ja rm mit der Option âr im Verzeichnis enthalten sein muss. rmdir hingegen verrichtet hierbei seine Arbeit klaglos:\n > you@host > mkdir -m 600 mydir you@host > rm -r mydir rm: kann nicht aus Verzeichnis . in mydir wechseln: Keine Berechtigung you@host > rmdir mydir\n\n# 14.4 Verwaltung von Benutzern und GruppeÂ\n\n14.4 Verwaltung von Benutzern und Gruppe \n exit, logout â eine Session (Sitzung) beenden \n Mit beiden Befehlen beenden Sie eine Shellsitzung (eine Textkonsole bzw. ein Shell-Fenster). Gleiches würde man auch mit (Strg)+(D) erreichen.\n finger â Informationen zu anderen Benutzern abfragen \n Mit finger können Sie detaillierte Informationen zu momentan angemeldeten Benutzern abfragen (ähnlich wie mit who, nur dass die Terminals nicht einzeln aufgelistet werden):\n you@host > finger Login Name Tty Idle Login Time Where j 3 2 Thu 02:31 tot J.Wolf :0 14d Wed 22:30 console you Dr.No 2 2 Thu 02:31\n Ohne irgendwelche Optionen gibt finger zu allen aktiven Benutzern eine Informationszeile aus. Geben Sie einen Benutzernamen ein, bekommen Sie eine detailliertere Auskunft (im Langformat):\n you@host > finger you Login: you Name: Directory: /home/you Shell: /bin/bash On since Thu Apr 21 02:31 (CEST) on tty2, idle 0:04 Mail last read Fri Feb 25 04:21 2005 (CET) No Plan.\n Natürlich können Sie auch zu allen anderen aktiven Benutzern dieses Langformat mit der Option âl ausgeben lassen. Wollen Sie einen Benutzer auf einem entfernten System suchen, müssen Sie »benutzername@hostname« für den Benutzer angeben.\n groupadd, groupmod, groupdel â Gruppenverwaltung (distributionsabhängig) \n Eine neue Gruppe können Sie mit groupadd anlegen:\n groupadd [-g GID] gruppenname\n Die ID einer Gruppe (gid) können Sie mit groupmod verändern:\n groupmod [-g neueGID] gruppenname\n Eine Gruppe wieder löschen können Sie mit groupdel:\n groupdel gruppenname\n groups â Gruppenzugehörigkeit ausgeben \n Um alle Gruppen eines Benutzers zu ermitteln, wird groups verwendet. Wird groups ohne Angabe eines bestimmten Benutzers ausgeführt, werden alle Gruppen des aktuellen Benutzers ausgegeben.\n id â eigene Benutzer- und Gruppen-ID ermitteln \n Mit id können Sie die User- und Gruppen-ID eines Benutzers ermitteln. Geben Sie keinen bestimmten Benutzer an, so wird die UID und GID des aktuellen Benutzers ermittelt und ausgegeben.\n last â An- und Abmeldezeit eines Benutzers ermitteln \n Einen Überblick zu den letzten An- und Abmeldezeiten von Benutzern können Sie mit last erhalten:\n you@host > last john tty3 Thu Apr 21 02:31 still logged in you tty2 Thu Apr 21 02:31 still logged in tot :0 console Wed Apr 20 22:30 still logged in reboot system boot 2.6.4â52-default Wed Apr 20 22:30 (04:42) tot :0 console Wed Apr 20 06:40 â 07:42 (01:02) reboot system boot 2.6.4â52-default Wed Apr 20 06:39 (01:03) wtmp begins Wed Apr 20 05:26:11 2005\n Wollen Sie nur die Login-Zeiten eines einzelnen Users ermitteln, so müssen Sie diesen als Argument angeben.\n logname â Name des aktuellen Benutzers anzeigen \n Mit logname erhalten Sie den Benutzernamen, der von getty in der Datei /var/run/utmp gespeichert wird. Hierzu muss man allerdings auch in einem echten Terminal mit getty angemeldet sein. Unter einem Konsolenfenster wie dem xterm werden Sie hier keinen Namen erhalten.\n newgrp â Gruppenzugehörigkeit kurzzeitig wechseln (betriebssystemspezifisch) \n Mit newgrp kann ein Benutzer während einer Sitzung in eine andere Gruppe wechseln (in der er ebenfalls Mitglied ist). Wird keine Gruppe als Argument verwendet, wird in eine Standardgruppe von /etc/passwd gewechselt. Als Argument wird der Gruppenname â wie dieser in /etc/group eingetragen ist â erwartet, nicht die Gruppen-ID.\n passwd â Passwort ändern bzw. vergeben \n Mit dem Kommando passwd können Sie die Passwörter aller Benutzer in der Datei /etc/passwd ändern. Damit hierbei wenigstens der Benutzer selbst (nicht root) die Möglichkeit hat, sein eigenes Passwort zu ändern, läuft passwd als SUID root. Damit hat der Anwender für kurze Zeit root-Rechte und kann somit sein Passwort ändern und darf in die Datei schreiben. Alle Passwörter darf nur root verändern.\n linux:/home/you # passwd john Changing password for john. New password:******** Re-enter new password:******** Password changed\n Wenn Sie der allmächtige root auf dem Rechner sind, haben Sie noch folgende Optionen, einen Benutzer mit den Passworteinstellungen zu verwalten:\n\n Tabelle 14.10  Optionen für das Kommando passwd\n\n passwd âl benutzername\n Den Benutzer sperren (âl = lock)\n\n passwd âf benutzername\n Den Benutzer dazu zwingen, beim nächsten Anmelden das Passwort zu verändern\n\n passwd âd benutzername\n Passwort eines Benutzers löschen (dannach kann sich ein Benutzer ohne Passwort anmelden, bspw. für eingeschränkte Test-Accounts geeignet)\n\n Hinweis   Diese Erläuterungen gelten zumindest für Linux. Unter FreeBSD bedeutet der Schalter -l z. B., dass das Passwort in der lokalen Passwortdatei geändert wird, in der Kerberos DB aber erhalten bleibt. Somit scheinen die Optionen von passwd betriebssystem- bzw. distributionsspezifisch zu sein. Hier sollte ein Blick in die man-Page für Klarheit sorgen.\n\n useradd/adduser, userdel, usermod â Benutzerverwaltung (distributionsabhängig) \n Einen neuen Benutzer anlegen können Sie mit useradd bzw. adduser:\n # useradd testuser # passwd testuser Changing password for testuser. New password:******** Re-enter new password:******** Password changed\n Die Eigenschaften eines Users können Sie mit usermod modifizieren.\n # usermod -u 1235 -c \"Test User\" \\ > -s /bin/bash -d /home/testdir testuser\n Hier haben Sie z. B. einem User die ID 1235, den Kommentar bzw. Namen »Test User«, die Bash als Shell und als Verzeichnis /home/testdir zugewiesen. Hierzu gibt es noch eine Menge Optionen mehr, die Sie mit usermod einstellen können (siehe auch man-Seite zu usermod).\n Wollen Sie einen Benutzer wieder entfernen, können Sie dies mit userdel erreichen:\n # userdel testuser\n Beim Löschen wird eventuell noch überprüft, ob sich in crontab ein Eintrag für diesen User befindet. Dies ist sinnvoll, da der cron-Daemon sonst unnötig ins Leere laufen würde.\n who â eingeloggte Benutzer anzeigen \n Mit dem Kommando who werden alle angemeldeten Benutzer mitsamt dem Namen, der Login-Zeit und dem Terminal ausgegeben.\n you@host > who you tty2 Apr 21 22:41 john tty3 Apr 21 22:42 tot :0 Apr 21 22:38 (console)\n whoami â Name des aktuellen Benutzers anzeigen \n Mit whoami können Sie ermitteln, unter welchem Namen Sie gerade arbeiten. Dies wird oft verwendet, um zu überprüfen, ob man als root oder »normaler« User arbeitet.\n you@host > su Password:******** linux:/home/you # whoami root linux:/home/you # exit exit you@host > whoami you\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an inwerk-verlag.de.\n\n## 14.4 Verwaltung von Benutzern und GruppeÂ\n\n### exit, logout â eine Session (Sitzung) beendenÂ\n\nMit beiden Befehlen beenden Sie eine Shellsitzung (eine Textkonsole bzw. ein Shell-Fenster). Gleiches würde man auch mit (Strg)+(D) erreichen.\n\n### finger â Informationen zu anderen Benutzern abfragenÂ\n\nMit finger können Sie detaillierte Informationen zu momentan angemeldeten Benutzern abfragen (ähnlich wie mit who, nur dass die Terminals nicht einzeln aufgelistet werden):\n > you@host > finger Login Name Tty Idle Login Time Where john 3 2 Thu 02:31 tot J.Wolf :0 14d Wed 22:30 console you Dr.No 2 2 Thu 02:31\n\nOhne irgendwelche Optionen gibt finger zu allen aktiven Benutzern eine Informationszeile aus. Geben Sie einen Benutzernamen ein, bekommen Sie eine detailliertere Auskunft (im Langformat):\n > you@host > finger you Login: you Name: Directory: /home/you Shell: /bin/bash On since Thu Apr 21 02:31 (CEST) on tty2, idle 0:04 Mail last read Fri Feb 25 04:21 2005 (CET) No Plan.\n\nNatürlich können Sie auch zu allen anderen aktiven Benutzern dieses Langformat mit der Option âl ausgeben lassen. Wollen Sie einen Benutzer auf einem entfernten System suchen, müssen Sie »benutzername@hostname« für den Benutzer angeben.\n\n### groupadd, groupmod, groupdel â Gruppenverwaltung (distributionsabhängig)Â\n\nEine neue Gruppe können Sie mit groupadd anlegen:\n > groupadd [-g GID] gruppenname\n\nDie ID einer Gruppe (gid) können Sie mit groupmod verändern:\n > groupmod [-g neueGID] gruppenname\n\nEine Gruppe wieder löschen können Sie mit groupdel:\n > groupdel gruppenname\n\n### groups â Gruppenzugehörigkeit ausgebenÂ\n\nUm alle Gruppen eines Benutzers zu ermitteln, wird groups verwendet. Wird groups ohne Angabe eines bestimmten Benutzers ausgeführt, werden alle Gruppen des aktuellen Benutzers ausgegeben.\n\n### id â eigene Benutzer- und Gruppen-ID ermittelnÂ\n\nMit id können Sie die User- und Gruppen-ID eines Benutzers ermitteln. Geben Sie keinen bestimmten Benutzer an, so wird die UID und GID des aktuellen Benutzers ermittelt und ausgegeben.\n\n### last â An- und Abmeldezeit eines Benutzers ermittelnÂ\n\nEinen Überblick zu den letzten An- und Abmeldezeiten von Benutzern können Sie mit last erhalten:\n > you@host > last john tty3 Thu Apr 21 02:31 still logged in you tty2 Thu Apr 21 02:31 still logged in tot :0 console Wed Apr 20 22:30 still logged in reboot system boot 2.6.4â52-default Wed Apr 20 22:30 (04:42) tot :0 console Wed Apr 20 06:40 â 07:42 (01:02) reboot system boot 2.6.4â52-default Wed Apr 20 06:39 (01:03) wtmp begins Wed Apr 20 05:26:11 2005\n\nWollen Sie nur die Login-Zeiten eines einzelnen Users ermitteln, so müssen Sie diesen als Argument angeben.\n\n### logname â Name des aktuellen Benutzers anzeigenÂ\n\nMit logname erhalten Sie den Benutzernamen, der von getty in der Datei /var/run/utmp gespeichert wird. Hierzu muss man allerdings auch in einem echten Terminal mit getty angemeldet sein. Unter einem Konsolenfenster wie dem xterm werden Sie hier keinen Namen erhalten.\n\n### newgrp â Gruppenzugehörigkeit kurzzeitig wechseln (betriebssystemspezifisch)Â\n\nMit newgrp kann ein Benutzer während einer Sitzung in eine andere Gruppe wechseln (in der er ebenfalls Mitglied ist). Wird keine Gruppe als Argument verwendet, wird in eine Standardgruppe von /etc/passwd gewechselt. Als Argument wird der Gruppenname â wie dieser in /etc/group eingetragen ist â erwartet, nicht die Gruppen-ID.\n\n### passwd â Passwort ändern bzw. vergebenÂ\n\nMit dem Kommando passwd können Sie die Passwörter aller Benutzer in der Datei /etc/passwd ändern. Damit hierbei wenigstens der Benutzer selbst (nicht root) die Möglichkeit hat, sein eigenes Passwort zu ändern, läuft passwd als SUID root. Damit hat der Anwender für kurze Zeit root-Rechte und kann somit sein Passwort ändern und darf in die Datei schreiben. Alle Passwörter darf nur root verändern.\n > linux:/home/you # passwd john Changing password for john. New password:******** Re-enter new password:******** Password changed\n\nWenn Sie der allmächtige root auf dem Rechner sind, haben Sie noch folgende Optionen, einen Benutzer mit den Passworteinstellungen zu verwalten:\n\nVerwendung | Bedeutung |\n | --- | --- |\npasswd âl benutzername | Den Benutzer sperren (âl = lock) |\npasswd âf benutzername | Den Benutzer dazu zwingen, beim nächsten Anmelden das Passwort zu verändern |\npasswd âd benutzername | Passwort eines Benutzers löschen (dannach kann sich ein Benutzer ohne Passwort anmelden, bspw. für eingeschränkte Test-Accounts geeignet) |\n\n### useradd/adduser, userdel, usermod â Benutzerverwaltung (distributionsabhängig)Â\n\nEinen neuen Benutzer anlegen können Sie mit useradd bzw. adduser:\n > # useradd testuser # passwd testuser Changing password for testuser. New password:******** Re-enter new password:******** Password changed\n\nDie Eigenschaften eines Users können Sie mit usermod modifizieren.\n > # usermod -u 1235 -c \"Test User\" \\ > -s /bin/bash -d /home/testdir testuser\n\nHier haben Sie z. B. einem User die ID 1235, den Kommentar bzw. Namen »Test User«, die Bash als Shell und als Verzeichnis /home/testdir zugewiesen. Hierzu gibt es noch eine Menge Optionen mehr, die Sie mit usermod einstellen können (siehe auch man-Seite zu usermod).\n\nWollen Sie einen Benutzer wieder entfernen, können Sie dies mit userdel erreichen:\n > # userdel testuser\n\nBeim Löschen wird eventuell noch überprüft, ob sich in crontab ein Eintrag für diesen User befindet. Dies ist sinnvoll, da der cron-Daemon sonst unnötig ins Leere laufen würde.\n\n### who â eingeloggte Benutzer anzeigenÂ\n\nMit dem Kommando who werden alle angemeldeten Benutzer mitsamt dem Namen, der Login-Zeit und dem Terminal ausgegeben.\n > you@host > who you tty2 Apr 21 22:41 john tty3 Apr 21 22:42 tot :0 Apr 21 22:38 (console)\n\n### whoami â Name des aktuellen Benutzers anzeigenÂ\n\nMit whoami können Sie ermitteln, unter welchem Namen Sie gerade arbeiten. Dies wird oft verwendet, um zu überprüfen, ob man als root oder »normaler« User arbeitet.\n > you@host > su Password:******** linux:/home/you # whoami root linux:/home/you # exit exit you@host > whoami you\n\n# 14.5 Programm- und ProzessverwaltungÂ\n\n14.5 Programm- und Prozessverwaltung \n at â Kommando zu einem bestimmten Zeitpunkt ausführen lassen \n Mit dem Kommando at können Sie ein Kommando zum angegebenen Zeitpunkt ausführen lassen, auch wenn der Benutzer zu diesem Zeitpunkt nicht angemeldet ist. Beispielsweise können Sie mit\n at 2130 -f myscript\n das Script »myscript« um 21:30 Uhr ausführen lassen. Natürlich lassen sich mehrere solcher zeitgesteuerten Kommandos einrichten. Jeder dieser at-Aufrufe wird an die at-Queue (atq) angehängt. Natürlich funktioniert dies auch mit Datum:\n at 2200 apr 21 -f myscript\n So würde das Script »myscript« am 2. April um 22 Uhr ausgeführt. Wollen Sie sich alle Aufträge der atq auflisten lassen, müssen Sie die Option âl verwenden:\n at -l\n Wollen Sie den Status des Auftrags mit der Nummer 33 anzeigen lassen, geben Sie Folgendes ein:\n at -l 33\n Soll dieser Auftrag gelöscht werden, so kann die Option âd verwendet werden:\n at -d 33\n batch â Kommando irgendwann später ausführen lassen \n Mit batch lesen Sie Kommandos von der Kommandozeile, welche zu einem späteren Zeitpunkt ausgeführt werden, sobald das System Zeit hat. Dies wird bei extrem belasteten Rechnern gern verwendet, wenn man das Kommando bzw. Script zu einer Zeit ausführen lassen will, in der die Systemlast definitiv niedrig ist, und dies nicht nur zu vermuten ist. Die angegebenen Kommandos werden auch dann ausgeführt, wenn der Benutzer nicht angemeldet ist. Um batch auszuführen, muss auch hier der at-Daemon, der auch für das Kommando at verantwortlich ist, laufen.\n you@host > batch warning: commands will be executed using /bin/sh at> ls -l at> ./myscript at> sleep 1 at> (Strg)+(D) job 1 at 2005â04â21 23:30\n Das Ende der Kommandozeileneingabe von batch müssen Sie mit (Strg)+(D) angeben.\n bg â einen angehaltenen Prozess im Hintergrund fortsetzen \n Mit dem Kommando bg können Sie einen (z. B. mit (Strg)+(Z)) angehaltenen Prozess im Hintergrund fortsetzen. bg wurde bereits in Abschnitt 8.7 behandelt.\n cron/crontab â Programme in bestimmten Zeitintervallen ausführen lassen \n Mit cron können Sie beliebig viele Kommandos automatisch in bestimmten Zeitintervallen ausführen lassen. Einmal pro Minute sieht dieser Dämon in einen Terminkalender (crontab) nach und führt gegebenenfalls darin enthaltene Kommandos aus. cron wurde bereits ausführlich in Abschnitt 8.8 behandelt.\n fg â einen angehaltenen Prozess im Vordergrund fortsetzen \n Mit dem Kommando fg können Sie einen (z. B. mit (Strg)+(Z)) angehaltenen Prozess im Vordergrund fortsetzen. fg wurde bereits in Abschnitt 8.7 behandelt.\n jobs â Anzeigen angehaltener bzw. im Hintergrund laufender Prozesse \n Mit jobs bekommen Sie eine Liste mit den aktuellen Jobs zurückgegeben. Neben der Jobnummer steht bei jedem Job der Kommandoname, der Status und eine Markierung. Die Markierung »+« steht für den aktuellen Job, »-« für den vorhergehenden Job. Das Kommando job wurde bereits in Abschnitt 8.7 behandelt.\n kill â Signale an Prozesse mit einer Prozessnummer senden \n Mit kill senden Sie den Prozessen durch Angabe der Prozessnummer ein Signal. Standardmäßig wird das Signal SIGTERM zum Beenden des Prozesses gesendet. Es lassen sich aber auch beliebige andere Signale senden. Das Signal wird dabei als Nummer oder als Name übermittelt. Einen Überblick zu den möglichen Signalnamen finden Sie mit der Option âl. Das Kommando kill wurde bereits ausführlicher in Abschnitt 7.2 beschrieben.\n killall â Signale an Prozesse mit einem Prozessnamen senden \n Der Name killall führt schnell in die Irre. Damit lassen sich nicht etwa alle Prozesse »killen«, sondern killall stellt eher eine Erleichterung für kill dar. Anstatt wie mit kill einen Prozess mit der Prozessnummer zu beenden bzw. ein Signal zu senden, kann mit killall der Prozessname verwendet werden. Was gerade bei unzählig vielen gleichzeitig laufenden Prozessen eine erhebliche Erleichterung darstellt, weil man hier nicht mühsam erst nach der Prozessnummer (z. B. mit dem Kommando ps) suchen muss. Ansonsten lässt sich killall ähnlich wie kill verwenden, nur dass der Signalname ohne das vorangestellte SIG angegeben wird. Eine Liste aller Signale erhalten Sie auch hier mit der Option âl.\n you@host > sleep 60 & [1] 5286 you@host > killall sleep [1]+ Beendet sleep 60\n nice â Prozesse mit anderer Priorität ausführen lassen \n Mit nice können Sie veranlassen, dass ein Kommando mit einer niedrigeren Priorität ausgeführt wird.\n nice [-n] kommando [argumente]\n Für n können Sie dabei eine Ziffer angeben, um wie viel die Priorität verändert werden soll. Der Standardwert, falls keine Angabe erfolgt, lautet 10 (-20 ist die höchste und 19 die niedrigste Priorität). Prioritäten höher als 0 darf ohnehin nur root starten. Häufig wird man das Kommando mit nice im Hintergrund starten wollen.\n nice find / -name document -print > /home/tmp/find.txt &\n Hier wird mit find nach einer Datei »document« gesucht und die Ausgabe in die Datei find.txt geschrieben. Der Hintergrundprozess find wird dabei von nice mit einer niedrigen (10) Priorität gestartet. Dies stellt eine gängige Verwendung von nice dar.\n nohup â Prozesse beim Beenden einer Sitzung weiterlaufen lassenHH \n Mit nohup schützen Sie Prozesse vor dem HANGUP-Signal. Dadurch ist es möglich, dass ein Prozess im Hintergrund weiterlaufen kann, auch wenn sich ein Benutzer abmeldet. Ohne nohup würden sonst alle Prozesse einer Login-Shell des Anwenders durch das Signal SIGHUP beendet. Allerdings tritt dieses Verhalten nicht auf allen Systemen auf. Mehr zu nohup finden Sie in Abschnitt 8.4, wo dieses Kommando ausführlicher behandelt wurde.\n ps â Prozessinformationen anzeigen \n\n Hinweis   ps ist eines dieser Kommandos, welches vollkommen unterschiedliche Optionen auf den unterschiedlichen Betriebssystemen bietet. Die folgenden Beschreibung bezieht sich daher auf Linux.\n\n ps ist wohl das wichtigste Kommando für Systemadministratoren, um an Informationen zu aktiven Prozessen zu gelangen (neben top). Rufen Sie ps ohne irgendwelche Argumente auf, werden Ihnen die zum jeweiligen Terminal gestarteten Prozesse aufgelistet. Zu jedem Prozess erhalten Sie die Prozessnummer (PID), den Terminal-Namen (TTY), die verbrauchte Rechenzeit (TIME) und den Kommandonamen (COMMAND). Aber neben diesen Informationen lassen sich über Optionen noch viele weitere Informationen entlocken. Häufig verwendet wird dabei der Schalter âe, womit Informationen zu allen Prozessen zu gewinnen sind (also nicht nur zum jeweiligen Terminal), und ebenso der Schalter âf, womit Sie noch vollständigere Informationen bekommen:\n you@host > ps -ef UID PID PPID C STIME TTY TIME CMD root 1 0 0 Apr21 ? 00:00:04 init [5] root 2 1 0 Apr21 ? 00:00:00 [ksoftirqd/0] root 3 1 0 Apr21 ? 00:00:00 [events/0] root 23 3 0 Apr21 ? 00:00:00 [kblockd/0] ... postfix 5942 2758 0 00:17 ? 00:00:00 pickup -l -t fifo -u you 6270 1 0 00:26 ? 00:00:00 /opt/kde3/bin/kdesud you 7256 3188 0 01:50 pts/36 00:00:00 ps -ef\n Mittlerweile beinhaltet das Kommando ps unglaublich viele Optionen, die zum Teil systemabhängig sind, weshalb auf jeden Fall die man-Seite von ps zur Rate gezogen werden sollte. Häufig sucht man in der Liste von Prozessen nach einem bestimmten. Diesen können Sie folgendermaßen »herauspicken«:\n you@host > ps -ef | grep kamix tot 3171 1 0 Apr21 ? 00:00:00 kamix\n Damit noch nicht zufrieden, will man gern auch gleich die Prozessnummer (PID) erhalten:\n you@host > ps -ef | grep kamix | awk '{ print $2; exit }' 3171\n Aber so umständlich muss dies nicht sein. Sie können hierzu auch pgrep (sofern vorhanden) verwenden.\n pgrep â Prozesse über ihren Namen finden \n Im Abschnitt zuvor wurde pgrep kurz angesprochen. Sofern Sie die Prozessnummer eines Prozessnamens benötigen, ist pgrep das Kommando der Wahl.\n you@host > pgrep kamix 3171\n pgrep liefert zu jedem Prozessnamen die Prozessnummer, sofern ein entsprechender Prozess gerade aktiv ist und in der Prozessliste (ps) auftaucht.\n pstree â Prozesshierachie in Baumform ausgeben \n Mit pstree können Sie die aktuelle Prozesshierarchie in Baumform ausgeben lassen. Ohne Angabe von Argumenten zeigt pstree alle Prozesse an, angefangen vom ersten Prozess init (PID=1). Geben Sie hingegen eine PID oder einen Loginnamen an, so werden nur die Prozesse des Benutzers oder der Prozessnummer hierarchisch angezeigt.\n renice â Priorität laufender Prozesse verändern \n Mit dem Kommando renice können Sie im Gegensatz zu nice die Priorität von bereits laufenden Prozessen verändern. Ansonsten gilt auch hier alles schon beim Kommando nice Gesagte. Das Kommando renice wurde bereits in Abschnitt 8.1 beschrieben.\n\n Tipp für Linux   Komfortabler können Sie die Priorität laufender Prozesse mit dem Kommando top verändern. Ein Tastendruck (R) fragt Sie nach der Prozessnummer und dem nice-Wert, von welchem Prozess Sie die Priorität verändern wollen.\n\n sleep â Prozesse suspendieren (schlafen legen) \n Mit sleep legen Sie einen Prozess für n Sekunden schlafen. Voreingestellt sind zwar Sekunden, aber über Optionen können Sie hierbei auch Minuten, Stunden oder gar Tage verwenden.\n su â Ändern der Benutzerkennung (ohne Neuanmeldung) \n Dieses Kommando wird irrtümlicherweise immer als SuperUser abgekürzt, heißt aber in Wirklichkeit SwitchUser. su hat also zunächst überhaupt nichts mit dem »Superuser« (alias root) zu tun. Dieses Missverständnis resultiert daraus, dass die meisten Anwender dieses Kommando dazu verwenden, sich kurz die Root-Rechte (sofern diese vorhanden sind) anzueignen. Durch die Angabe ohne Argumente wird hierbei gewöhnlich auch nach dem Passwort des Superusers gefragt.\n you@host > whoami you you@host > su Password:******** linux:/home/you # whoami root linux:/home/you # exit exit you@host > whoami you you@host > su john Password:******** you@linux:/home/john> whoami john you@linux:/home/john> exit exit\n su startet immer eine neue Shell mit der neuen Benutzer- (UID) und Gruppenkennung (GID). Wie bei einem neuen Login wird nach einem Passwort gefragt. Geben Sie keinen Benutzernamen an, versucht su zu UID 0 zu wechseln, was ja der Superuser ist. Sofern Sie »Superuser« sind, können Sie auch die Identität eines jeden Benutzers annehmen, ohne ein entsprechendes Passwort zu kennen.\n sudo â Programm als anderer Benutzer ausführen \n sudo ist ein Kommando, womit ein bestimmter Benutzer ein Kommando ausführen kann, wozu er normalerweise nicht die Rechte hat (bspw. für administrative Aufgaben). Dazu legt root gewöhnlich in der Datei /etc/sudoers folgenden Eintrag ab:\n john ALL=/usr/bin/kommando\n Jetzt kann der User »john« das Kommando mit folgendem Aufruf starten:\n you@host > sudo /usr/bin/kommando Passwort: *********\n Nachdem »john« sein Passwort eingegeben hat, wird das entsprechende Kommando ausgeführt, wozu er normalerweise ohne den Eintrag in /etc/sudoers nicht im Stande wäre. Der Eintrag wird gewöhnlich mit dem Editor vi mit dem Aufruf visudo vorgenommen.\n Natürlich können Sie als normaler Benutzer auch mittels sudo Programme unter einem anderen Login-Namen ausführen. Dies erledigen Sie mit folgendem Aufruf (hier bspw. das Kommando whoami ausgeführt):\n you@host > whoami you you@host > sudo -u john whoami Password:******** john you@host >\n Das Kommando sudo hat bei mir bis vor kurzem eine Art Schattendasein geführt. Wenn ich ein Kommando benötigt habe, dass root-Rechte erfordert, habe ich mich schnell mit su befördert. Mittlerweile allerdings, seitdem ich das immer beliebter werdende »(k)ubuntu« verwende, bei dem es gar keinen root mehr gibt, sondern sudo für solche Zwecke verwendet wird, hat sich das Kommando einen »Stammplatz« erobert. Darauf wollte ich kurz hinweisen, bevor Sie auf die Idee kommen, »(k)ubuntu« nochmals zu installieren, weil Sie vielleicht vermuten, irgendwo das root-Passwort vergessen zu haben. »(k)ubuntu« ist da einfach anders als andere Distributionen.\n time â Zeitmessung für Prozesse \n Mit time führen Sie das in der Kommandozeile angegebene Kommando bzw. Script aus und bekommen die Zeit, die dafür benötigt wurde zurück. Diese Zeit wird dabei aufgeteilt in die tatsächlich benötigte Zeit (real), die Rechenzeit im Usermodus (user) und diejenige im Kernelmodus (sys). Das Kommando time wurde bereits in Abschnitt 9.6 behandelt.\n top â Prozesse nach CPU-Auslastung anzeigen (betriebssystemspezifisch) \n Mit top bekommen Sie eine Liste der gerade aktiven Prozesse angezeigt. Die Liste wird nach CPU-Belastung sortiert. Standardmäßig wird top alle fünf Sekunden aktualisiert; beendet wird top mit (Q). top kann aber noch mehr, als die Auslastung der einzelnen Prozesse anzuzeigen, beispielsweise können Sie mit dem Tastendruck (K) (kill) einem bestimmten Prozess ein Signal senden oder mit r (renice) die Priorität eines laufenden Prozesses verändern. Ein Blick auf die man-Seite von top bringt außerdem noch einen gewaltigen Überblick zu diesem auf den ersten Blick einfachen Kommando zum Vorschein.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 14.5 Programm- und ProzessverwaltungÂ\n\n### at â Kommando zu einem bestimmten Zeitpunkt ausführen lassenÂ\n\nMit dem Kommando at können Sie ein Kommando zum angegebenen Zeitpunkt ausführen lassen, auch wenn der Benutzer zu diesem Zeitpunkt nicht angemeldet ist. Beispielsweise können Sie mit\n > at 2130 -f myscript\n\ndas Script »myscript« um 21:30 Uhr ausführen lassen. Natürlich lassen sich mehrere solcher zeitgesteuerten Kommandos einrichten. Jeder dieser at-Aufrufe wird an die at-Queue (atq) angehängt. Natürlich funktioniert dies auch mit Datum:\n > at 2200 apr 21 -f myscript\n\nSo würde das Script »myscript« am 2. April um 22 Uhr ausgeführt. Wollen Sie sich alle Aufträge der atq auflisten lassen, müssen Sie die Option âl verwenden:\n > at -l\n\nWollen Sie den Status des Auftrags mit der Nummer 33 anzeigen lassen, geben Sie Folgendes ein:\n > at -l 33\n\nSoll dieser Auftrag gelöscht werden, so kann die Option âd verwendet werden:\n > at -d 33\n\n### batch â Kommando irgendwann später ausführen lassenÂ\n\nMit batch lesen Sie Kommandos von der Kommandozeile, welche zu einem späteren Zeitpunkt ausgeführt werden, sobald das System Zeit hat. Dies wird bei extrem belasteten Rechnern gern verwendet, wenn man das Kommando bzw. Script zu einer Zeit ausführen lassen will, in der die Systemlast definitiv niedrig ist, und dies nicht nur zu vermuten ist. Die angegebenen Kommandos werden auch dann ausgeführt, wenn der Benutzer nicht angemeldet ist. Um batch auszuführen, muss auch hier der at-Daemon, der auch für das Kommando at verantwortlich ist, laufen.\n > you@host > batch warning: commands will be executed using /bin/sh at> ls -l at> ./myscript at> sleep 1 at> (Strg)+(D) job 1 at 2005â04â21 23:30\n\nDas Ende der Kommandozeileneingabe von batch müssen Sie mit (Strg)+(D) angeben.\n\n### bg â einen angehaltenen Prozess im Hintergrund fortsetzenÂ\n\nMit dem Kommando bg können Sie einen (z. B. mit (Strg)+(Z)) angehaltenen Prozess im Hintergrund fortsetzen. bg wurde bereits in Abschnitt 8.7 behandelt.\n\n### cron/crontab â Programme in bestimmten Zeitintervallen ausführen lassenÂ\n\nMit cron können Sie beliebig viele Kommandos automatisch in bestimmten Zeitintervallen ausführen lassen. Einmal pro Minute sieht dieser Dämon in einen Terminkalender (crontab) nach und führt gegebenenfalls darin enthaltene Kommandos aus. cron wurde bereits ausführlich in Abschnitt 8.8 behandelt.\n\n### fg â einen angehaltenen Prozess im Vordergrund fortsetzenÂ\n\nMit dem Kommando fg können Sie einen (z. B. mit (Strg)+(Z)) angehaltenen Prozess im Vordergrund fortsetzen. fg wurde bereits in Abschnitt 8.7 behandelt.\n\n### jobs â Anzeigen angehaltener bzw. im Hintergrund laufender ProzesseÂ\n\nMit jobs bekommen Sie eine Liste mit den aktuellen Jobs zurückgegeben. Neben der Jobnummer steht bei jedem Job der Kommandoname, der Status und eine Markierung. Die Markierung »+« steht für den aktuellen Job, »-« für den vorhergehenden Job. Das Kommando job wurde bereits in Abschnitt 8.7 behandelt.\n\n### kill â Signale an Prozesse mit einer Prozessnummer sendenÂ\n\nMit kill senden Sie den Prozessen durch Angabe der Prozessnummer ein Signal. Standardmäßig wird das Signal SIGTERM zum Beenden des Prozesses gesendet. Es lassen sich aber auch beliebige andere Signale senden. Das Signal wird dabei als Nummer oder als Name übermittelt. Einen Überblick zu den möglichen Signalnamen finden Sie mit der Option âl. Das Kommando kill wurde bereits ausführlicher in Abschnitt 7.2 beschrieben.\n\n### killall â Signale an Prozesse mit einem Prozessnamen sendenÂ\n\nDer Name killall führt schnell in die Irre. Damit lassen sich nicht etwa alle Prozesse »killen«, sondern killall stellt eher eine Erleichterung für kill dar. Anstatt wie mit kill einen Prozess mit der Prozessnummer zu beenden bzw. ein Signal zu senden, kann mit killall der Prozessname verwendet werden. Was gerade bei unzählig vielen gleichzeitig laufenden Prozessen eine erhebliche Erleichterung darstellt, weil man hier nicht mühsam erst nach der Prozessnummer (z. B. mit dem Kommando ps) suchen muss. Ansonsten lässt sich killall ähnlich wie kill verwenden, nur dass der Signalname ohne das vorangestellte SIG angegeben wird. Eine Liste aller Signale erhalten Sie auch hier mit der Option âl.\n > you@host > sleep 60 & [1] 5286 you@host > killall sleep [1]+ Beendet sleep 60\n\n### nice â Prozesse mit anderer Priorität ausführen lassenÂ\n\nMit nice können Sie veranlassen, dass ein Kommando mit einer niedrigeren Priorität ausgeführt wird.\n > nice [-n] kommando [argumente]\n\nFür n können Sie dabei eine Ziffer angeben, um wie viel die Priorität verändert werden soll. Der Standardwert, falls keine Angabe erfolgt, lautet 10 (-20 ist die höchste und 19 die niedrigste Priorität). Prioritäten höher als 0 darf ohnehin nur root starten. Häufig wird man das Kommando mit nice im Hintergrund starten wollen.\n > nice find / -name document -print > /home/tmp/find.txt &\n\nHier wird mit find nach einer Datei »document« gesucht und die Ausgabe in die Datei find.txt geschrieben. Der Hintergrundprozess find wird dabei von nice mit einer niedrigen (10) Priorität gestartet. Dies stellt eine gängige Verwendung von nice dar.\n\n### nohup â Prozesse beim Beenden einer Sitzung weiterlaufen lassenHHÂ\n\nMit nohup schützen Sie Prozesse vor dem HANGUP-Signal. Dadurch ist es möglich, dass ein Prozess im Hintergrund weiterlaufen kann, auch wenn sich ein Benutzer abmeldet. Ohne nohup würden sonst alle Prozesse einer Login-Shell des Anwenders durch das Signal SIGHUP beendet. Allerdings tritt dieses Verhalten nicht auf allen Systemen auf. Mehr zu nohup finden Sie in Abschnitt 8.4, wo dieses Kommando ausführlicher behandelt wurde.\n\n### ps â Prozessinformationen anzeigenÂ\n\nps ist wohl das wichtigste Kommando für Systemadministratoren, um an Informationen zu aktiven Prozessen zu gelangen (neben top). Rufen Sie ps ohne irgendwelche Argumente auf, werden Ihnen die zum jeweiligen Terminal gestarteten Prozesse aufgelistet. Zu jedem Prozess erhalten Sie die Prozessnummer (PID), den Terminal-Namen (TTY), die verbrauchte Rechenzeit (TIME) und den Kommandonamen (COMMAND). Aber neben diesen Informationen lassen sich über Optionen noch viele weitere Informationen entlocken. Häufig verwendet wird dabei der Schalter âe, womit Informationen zu allen Prozessen zu gewinnen sind (also nicht nur zum jeweiligen Terminal), und ebenso der Schalter âf, womit Sie noch vollständigere Informationen bekommen:\n > you@host > ps -ef UID PID PPID C STIME TTY TIME CMD root 1 0 0 Apr21 ? 00:00:04 init [5] root 2 1 0 Apr21 ? 00:00:00 [ksoftirqd/0] root 3 1 0 Apr21 ? 00:00:00 [events/0] root 23 3 0 Apr21 ? 00:00:00 [kblockd/0] ... postfix 5942 2758 0 00:17 ? 00:00:00 pickup -l -t fifo -u you 6270 1 0 00:26 ? 00:00:00 /opt/kde3/bin/kdesud you 7256 3188 0 01:50 pts/36 00:00:00 ps -ef\n\nMittlerweile beinhaltet das Kommando ps unglaublich viele Optionen, die zum Teil systemabhängig sind, weshalb auf jeden Fall die man-Seite von ps zur Rate gezogen werden sollte. Häufig sucht man in der Liste von Prozessen nach einem bestimmten. Diesen können Sie folgendermaßen »herauspicken«:\n > you@host > ps -ef | grep kamix tot 3171 1 0 Apr21 ? 00:00:00 kamix\n\nDamit noch nicht zufrieden, will man gern auch gleich die Prozessnummer (PID) erhalten:\n > you@host > ps -ef | grep kamix | awk '{ print $2; exit }' 3171\n\nAber so umständlich muss dies nicht sein. Sie können hierzu auch pgrep (sofern vorhanden) verwenden.\n\n### pgrep â Prozesse über ihren Namen findenÂ\n\nIm Abschnitt zuvor wurde pgrep kurz angesprochen. Sofern Sie die Prozessnummer eines Prozessnamens benötigen, ist pgrep das Kommando der Wahl.\n > you@host > pgrep kamix 3171\n\npgrep liefert zu jedem Prozessnamen die Prozessnummer, sofern ein entsprechender Prozess gerade aktiv ist und in der Prozessliste (ps) auftaucht.\n\n### pstree â Prozesshierachie in Baumform ausgebenÂ\n\nMit pstree können Sie die aktuelle Prozesshierarchie in Baumform ausgeben lassen. Ohne Angabe von Argumenten zeigt pstree alle Prozesse an, angefangen vom ersten Prozess init (PID=1). Geben Sie hingegen eine PID oder einen Loginnamen an, so werden nur die Prozesse des Benutzers oder der Prozessnummer hierarchisch angezeigt.\n\n### renice â Priorität laufender Prozesse verändernÂ\n\nMit dem Kommando renice können Sie im Gegensatz zu nice die Priorität von bereits laufenden Prozessen verändern. Ansonsten gilt auch hier alles schon beim Kommando nice Gesagte. Das Kommando renice wurde bereits in Abschnitt 8.1 beschrieben.\n\n### sleep â Prozesse suspendieren (schlafen legen)Â\n\nMit sleep legen Sie einen Prozess für n Sekunden schlafen. Voreingestellt sind zwar Sekunden, aber über Optionen können Sie hierbei auch Minuten, Stunden oder gar Tage verwenden.\n\n### su â Ändern der Benutzerkennung (ohne Neuanmeldung)Â\n\nDieses Kommando wird irrtümlicherweise immer als SuperUser abgekürzt, heißt aber in Wirklichkeit SwitchUser. su hat also zunächst überhaupt nichts mit dem »Superuser« (alias root) zu tun. Dieses Missverständnis resultiert daraus, dass die meisten Anwender dieses Kommando dazu verwenden, sich kurz die Root-Rechte (sofern diese vorhanden sind) anzueignen. Durch die Angabe ohne Argumente wird hierbei gewöhnlich auch nach dem Passwort des Superusers gefragt.\n > you@host > whoami you you@host > su Password:******** linux:/home/you # whoami root linux:/home/you # exit exit you@host > whoami you you@host > su john Password:******** you@linux:/home/john> whoami john you@linux:/home/john> exit exit\n\nsu startet immer eine neue Shell mit der neuen Benutzer- (UID) und Gruppenkennung (GID). Wie bei einem neuen Login wird nach einem Passwort gefragt. Geben Sie keinen Benutzernamen an, versucht su zu UID 0 zu wechseln, was ja der Superuser ist. Sofern Sie »Superuser« sind, können Sie auch die Identität eines jeden Benutzers annehmen, ohne ein entsprechendes Passwort zu kennen.\n\n### sudo â Programm als anderer Benutzer ausführenÂ\n\nsudo ist ein Kommando, womit ein bestimmter Benutzer ein Kommando ausführen kann, wozu er normalerweise nicht die Rechte hat (bspw. für administrative Aufgaben). Dazu legt root gewöhnlich in der Datei /etc/sudoers folgenden Eintrag ab:\n > john ALL=/usr/bin/kommando\n\nJetzt kann der User »john« das Kommando mit folgendem Aufruf starten:\n > you@host > sudo /usr/bin/kommando Passwort: *********\n\nNachdem »john« sein Passwort eingegeben hat, wird das entsprechende Kommando ausgeführt, wozu er normalerweise ohne den Eintrag in /etc/sudoers nicht im Stande wäre. Der Eintrag wird gewöhnlich mit dem Editor vi mit dem Aufruf visudo vorgenommen.\n\nNatürlich können Sie als normaler Benutzer auch mittels sudo Programme unter einem anderen Login-Namen ausführen. Dies erledigen Sie mit folgendem Aufruf (hier bspw. das Kommando whoami ausgeführt):\n > you@host > whoami you you@host > sudo -u john whoami Password:******** john you@host Das Kommando sudo hat bei mir bis vor kurzem eine Art Schattendasein geführt. Wenn ich ein Kommando benötigt habe, dass root-Rechte erfordert, habe ich mich schnell mit su befördert. Mittlerweile allerdings, seitdem ich das immer beliebter werdende »(k)ubuntu« verwende, bei dem es gar keinen root mehr gibt, sondern sudo für solche Zwecke verwendet wird, hat sich das Kommando einen »Stammplatz« erobert. Darauf wollte ich kurz hinweisen, bevor Sie auf die Idee kommen, »(k)ubuntu« nochmals zu installieren, weil Sie vielleicht vermuten, irgendwo das root-Passwort vergessen zu haben. »(k)ubuntu« ist da einfach anders als andere Distributionen.\n\n### time â Zeitmessung für ProzesseÂ\n\nMit time führen Sie das in der Kommandozeile angegebene Kommando bzw. Script aus und bekommen die Zeit, die dafür benötigt wurde zurück. Diese Zeit wird dabei aufgeteilt in die tatsächlich benötigte Zeit (real), die Rechenzeit im Usermodus (user) und diejenige im Kernelmodus (sys). Das Kommando time wurde bereits in Abschnitt 9.6 behandelt.\n\n### top â Prozesse nach CPU-Auslastung anzeigen (betriebssystemspezifisch)Â\n\nMit top bekommen Sie eine Liste der gerade aktiven Prozesse angezeigt. Die Liste wird nach CPU-Belastung sortiert. Standardmäßig wird top alle fünf Sekunden aktualisiert; beendet wird top mit (Q). top kann aber noch mehr, als die Auslastung der einzelnen Prozesse anzuzeigen, beispielsweise können Sie mit dem Tastendruck (K) (kill) einem bestimmten Prozess ein Signal senden oder mit r (renice) die Priorität eines laufenden Prozesses verändern. Ein Blick auf die man-Seite von top bringt außerdem noch einen gewaltigen Überblick zu diesem auf den ersten Blick einfachen Kommando zum Vorschein.\n\n# 14.6 SpeicherplatzinformationenÂ\n\n14.6 Speicherplatzinformationen \n df â Abfrage des benötigten Speicherplatzes für die Dateisysteme \n df zeigt Ihnen den freien Festplattenplatz für das Dateisystem an, wenn Sie einen Pfad als Verzeichnis angegeben haben. Wird kein Verzeichnis angegeben, dann wird der freie Plattenplatz für alle montierten Dateisysteme angezeigt.\n you@host > df Dateisystem 1K-Blöcke Benutzt Verfügbar Ben% Eingehängt auf /dev/hda6 15528224 2450788 13077436 16 % / tmpfs 128256 16 128240 1 % /dev/shm /dev/hda1 13261624 9631512 3630112 73 % /windows/C\n Die erste Spalte stellt hierbei den Montierpunkt da, gefolgt von der Anzahl 1K-Blöcken, dann wie viel Speicherplatz benutzt wird und anschließend, wie viel noch verfügbar ist. Die Prozentangabe gibt den prozentualen Wert der Plattennutzung an. Am Ende finden Sie noch die Gerätedatei, über die die Platte im Dateisystem eingehängt ist.\n du â Größe eines Verzeichnisbaums ermitteln \n du zeigt die Belegung (Anzahl von KByte-Blöcken) durch die Dateien an. In Verzeichnissen wird dabei die Belegung der darin enthaltenen Dateibäume ausgegeben. Um den Wert der Ausgabe zu steuern, können folgende Optionen verwendet werden:\n\n Tabelle 14.11  Optionen für das Kommando du\n\n âb\n Ausgabe in Bytes\n\n âk\n Ausgabe in Kilobytes\n\n âm\n Ausgabe in Megabytes\n\n âh\n (human-readable) vernünftige Ausgabe in Byte, KB, MB oder GB\n\n Häufig will man nicht, dass bei umfangreichen Verzeichnissen jede Datei einzeln ausgegeben wird, sondern nur die Gesamtzahl der Blöcke. Dann verwendet man den Schalter âs (man nutzt diesen praktisch immer).\n you@host > du -s /home 582585 /home you@host > du -sh /home 569M /home\n Wollen Sie nicht der kompletten Tiefe eines Verzeichnisses folgen, so können Sie sie auch mittels ââmaxâdepth=n festlegen:\n you@host > du --max-depth=1 -m /home 519 /home/tot 25 /home/you 26 /home/john 569 /home\n free â verfügbaren Speicherplatz (RAM und Swap) anzeigen (betriebssystemabhängig) \n Den verfügbaren Speicherplatz (RAM und Swap-Speicher, also Arbeitsspeicher und Auslagerungsspeicher auf der Festplatte) können Sie sich mit free anzeigen lassen:\n you@host > free total used free shared buffers cached Mem: 256516 253820 2696 0 38444 60940 Swap: 512024 24 512000\n swap â Swap-Space anzeigen (nicht Linux) \n Hiermit können Sie die Swap-Belegung (Auslagerungsspeicher) unter Nicht-Linux-Sytemen ermitteln.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 14.6 SpeicherplatzinformationenÂ\n\n### df â Abfrage des benötigten Speicherplatzes für die DateisystemeÂ\n\ndf zeigt Ihnen den freien Festplattenplatz für das Dateisystem an, wenn Sie einen Pfad als Verzeichnis angegeben haben. Wird kein Verzeichnis angegeben, dann wird der freie Plattenplatz für alle montierten Dateisysteme angezeigt.\n > you@host > df Dateisystem 1K-Blöcke Benutzt Verfügbar Ben% Eingehängt auf /dev/hda6 15528224 2450788 13077436 16 % / tmpfs 128256 16 128240 1 % /dev/shm /dev/hda1 13261624 9631512 3630112 73 % /windows/C\n\nDie erste Spalte stellt hierbei den Montierpunkt da, gefolgt von der Anzahl 1K-Blöcken, dann wie viel Speicherplatz benutzt wird und anschließend, wie viel noch verfügbar ist. Die Prozentangabe gibt den prozentualen Wert der Plattennutzung an. Am Ende finden Sie noch die Gerätedatei, über die die Platte im Dateisystem eingehängt ist.\n\n### du â Größe eines Verzeichnisbaums ermittelnÂ\n\ndu zeigt die Belegung (Anzahl von KByte-Blöcken) durch die Dateien an. In Verzeichnissen wird dabei die Belegung der darin enthaltenen Dateibäume ausgegeben. Um den Wert der Ausgabe zu steuern, können folgende Optionen verwendet werden:\n\nOption | Bedeutung |\n | --- | --- |\nâb | Ausgabe in Bytes |\nâk | Ausgabe in Kilobytes |\nâm | Ausgabe in Megabytes |\nâh | (human-readable) vernünftige Ausgabe in Byte, KB, MB oder GB |\n\nHäufig will man nicht, dass bei umfangreichen Verzeichnissen jede Datei einzeln ausgegeben wird, sondern nur die Gesamtzahl der Blöcke. Dann verwendet man den Schalter âs (man nutzt diesen praktisch immer).\n > you@host > du -s /home 582585 /home you@host > du -sh /home 569M /home\n\nWollen Sie nicht der kompletten Tiefe eines Verzeichnisses folgen, so können Sie sie auch mittels ââmaxâdepth=n festlegen:\n > you@host > du --max-depth=1 -m /home 519 /home/tot 25 /home/you 26 /home/john 569 /home\n\n### free â verfügbaren Speicherplatz (RAM und Swap) anzeigen (betriebssystemabhängig)Â\n\nDen verfügbaren Speicherplatz (RAM und Swap-Speicher, also Arbeitsspeicher und Auslagerungsspeicher auf der Festplatte) können Sie sich mit free anzeigen lassen:\n > you@host > free total used free shared buffers cached Mem: 256516 253820 2696 0 38444 60940 Swap: 512024 24 512000\n\n### swap â Swap-Space anzeigen (nicht Linux)Â\n\nHiermit können Sie die Swap-Belegung (Auslagerungsspeicher) unter Nicht-Linux-Sytemen ermitteln.\n\n# 14.7 Dateisystem-KommandosÂ\n\n14.7 Dateisystem-Kommandos \n Bei den Kommandos zu den Dateisystemen handelt es sich häufig um Kommandos für Linux-Systeme, welche zumeist auch nur als root ausführbar sind. Aus Erfahrung weiß ich aber, dass man schnell gern mit root-Rechten spielt, um mit solchen Kommandos zu experimentieren. Hiervor möchte ich Sie aber warnen, sofern Sie nicht sicher sind, was Sie da tun. Mit zahlreichen dieser Kommandos verlieren Sie häufig nicht nur ein paar Daten, sondern können z. T. ein ganzes Dateisystem korrumpieren â was sich so weit auswirken kann, dass Ihr Betriebssystem nicht mehr startet.\n badblocks â überprüft, ob ein Datenträger defekte Sektoren hat \n Mit dem Kommando badblocks testen Sie den physischen Zustand eines Datenträgers. Dabei sucht badblocks auf einer Diskette oder Festplatte nach defekten Blöcken.\n # badblocks -s -o block.log /dev/fd0 1440\n Hier wird z. B. bei einer Diskette (1,44 MB) nach defekten Blöcken gesucht. Das Fortschreiten der Überprüfung wird durch die Option âs simuliert. Mit âo schreiben Sie das Ergebnis defekter Blöcke in die Datei block.log, welche wiederum von anderen Programmen verwendet werden kann, damit diese beschädigten Blöcke nicht mehr genutzt werden. Die Syntax sieht somit wie folgt aus:\n badblocks [-optionen] gerätedatei [startblock]\n Die »gerätedatei« ist der Pfad zum entsprechenden Speichermedium (bspw. /dev/hda1 = erste Festplatte). Es kann außerdem auch optional der »startblock« festgelegt werden, von dem mit dem Testen angefangen werden soll. Die Ausführung dieses Kommandos bleibt selbstverständlich nur dem Superuser überlassen.\n cfdisk â Partitionieren von Festplatten \n Mit cfdisk teilen Sie eine formatierte Festplatte in verschiedene Partitionen ein. Natürlich kann man auch eine bestehende Partition löschen oder eine vorhandene verändern (bspw. eine andere Systemkennung geben). Man kann mit cfdisk allerdings auch eine »rohe«, ganze Festplatte bearbeiten (nicht nur einzelne Partitionen). Die Gerätedatei ist also /dev/hda für die erste IDE-Festplatte, /dev/hdb für die zweite Festplatte, /dev/sda für die erste SCSI-Festplatte, /dev/sdb für die zweite SCSI-Festplatte ... usw.\n Starten Sie cfdisk, werden alle gefundene Partitionen mitsamt deren Größe angezeigt. Mit den Pfeiltasten »nach-oben« und »nach-unten« können Sie sich hierbei eine Partition auswählen und mit den Pfeiltasten »nach-rechts« bzw. »nach-links« ein Kommando. Mit (Q) können Sie cfdisk beenden.\n\n Achtung   Selbstverständlich ist cfdisk nur als root ausführbar. Sollten Sie solche Rechte haben und ohne Vorwissen mit cfdisk herumspielen, ist Ihnen mindestens ein Datenverlust sicher. Wenn Sie Ihre Festplatte wirklich »zerschneiden« wollen, so sollten Sie vor dem Partitionieren die alte Partitionstabelle sichern. Im Fall eines Missgeschicks kann so die alte Partitionstabelle wieder hergestellt werden, wodurch auf die Daten dann noch zugegriffen werden kann.\n\n dd â Datenblöcke zwischen Device (Low Level) kopieren (und konvertieren) \n Mit dd können Sie eine Datei lesen und den Inhalt in einer bestimmten Blockgröße mit verschiedenen Konvertierungen zwischen verschiedenen Speichermedien (Festplatte, Diskette usw.) übertragen. Damit lassen sich neben einfachen Dateien auch ganze Festplattenpartitionen kopieren. Ein komplettes Backup kann mit diesem Kommando realisiert werden. Ein Beispiel:\n # dd if=/dev/hda bs=512 count=1\n Damit geben Sie den Bootsektor (nur als root möglich) auf dem Bildschirm aus. Wollen Sie jetzt auch noch ein Backup des Bootsektors auf einer Diskette sichern, dann gehen Sie folgendermaßen vor:\n # dd if=/dev/hda of=/dev/fd0 bs=512 count=1\n Bevor Sie jetzt noch weitere Beispiele zum mächtigen Werkzeug dd sehen werden, müssen Sie sich zunächst mit den Optionen vertraut machen â im Beispiel mit if, of, bs und count verwendet.\n\n Tabelle 14.12  Optionen zur Steuerung des Kommandos dd\n\n if=Datei\n (input file) Hier gibt man den Namen der Eingabedatei (Quelldatei) an â ohne Angaben wird die Standardeingabe verwendet.\n\n of=Datei\n (output file) Hier kommt der Name der Ausgabedatei (Zieldatei) hin â ohne Angabe wird hier die Standardausgabe verwendet.\n\n ibs=Schritt\n (input block size) Hier wird die Blockgröße der Eingabedatei angegeben.\n\n obs=Schritt\n (output block size) Hier wird die Blockgröße der Ausgabedatei angegeben.\n\n bs=Schritt\n (block size) Hier legt man die Blockgröße für Ein- und Ausgabedatei fest.\n\n cbs=Schritt\n (conversion block size) Die Blockgröße für die Konvertierung wird bestimmt.\n\n skip=Blocks\n Hier können Sie eine Anzahl Blocks angeben, die von der Eingabe zu Beginn ignoriert werden sollen.\n\n seek=Blocks\n Hier können Sie eine Anzahl Blocks angeben, die von der Ausgabe am Anfang ignoriert werden sollen; unterdrückt am Anfang die Ausgabe der angegebenen Anzahl Blocks.\n\n count=Blocks\n Hier wird angegeben, wie viele Blöcke kopiert werden sollen.\n\n Tabelle 14.13  Spezielle Optionen für Konvertierungen mit dem Kommando dd\n\n Option\n Konvertierung\n\n conv=ascii\n EBCDIC nach ASCII\n\n conv=ebcdic\n ASCII nach EBCDIC\n\n conv=ibm\n ASCII nach big blue special EBCDIC\n\n conv=block\n Es werden Zeilen in Felder mit der Größe cbs geschrieben und das Zeilenende wird durch Leerzeichen ersetzt. Der Rest des Feldes wird mit Leerzeichen aufgefüllt.\n\n conv=unblock\n Abschließende Leerzeichen eines Blocks der Größe cbs werden durch ein Zeilenende ersetzt.\n\n conv=swab\n Vertauscht je zwei Bytes der Eingabe. Ist die Anzahl der gelesenen Bytes ungerade, wird das letzte Byte einfach kopiert.\n\n conv=noerror\n Lesefehler werden ignoriert.\n\n conv=sync\n Füllt Eingabeblöcke bis zur Größe von ibs mit Nullen\n\n Jetzt noch einige interessante Beispiel zu dd:\n # dd if=/vmlinuz of=/dev/fd0\n Damit kopieren Sie den Kernel (hier in »vmlinuz« â bitte anpassen) in den ersten Sektor der Diskette, welche als Bootdiskette verwendet werden kann.\n # dd if=/dev/hda of=/dev/hdc\n Mächtig, hiermit klonen Sie praktisch in einem Schritt die erste Festplatte am Master IDE-Kontroller auf die Festplatte am zweiten Master-Anschluss. Somit haben Sie auf /dev/hdc denselben Inhalt wie auf /dev/hda. Natürlich kann die Ausgabedatei auch ganz woanders hingeschrieben werden, bspw. auf einen DVD-Brenner, eine Festplatte am USB-Anschluss oder in eine Datei.\n\n Achtung   Zwar ist dd ein mächtigeres Werkzeug, als es hier vielleicht den Anschein hat, doch trotzdem sollten Sie gewarnt sein vor wirren dd-Aufrufen. Der Datensalat ist auch hier schneller entstanden als sonstwo. Daher benötigt man wieder die allmächtigen root-Rechte. Falls Sie größere Datenmengen mit dd kopieren, können Sie dem Programm von einer anderen Konsole aus mittels kill das Signal SIGUSR1 senden, um dd zu veranlassen, den aktuellen Fortschritt auszugeben.\n\n dd_rescue â fehlertolerantes Kopieren von Dateiblöcken \n Falls Sie z. B. eine defekte Festplatte â oder eine Partition auf derselben â kopieren wollen, stößt dd schnell an seine Grenzen. Zudem ist beim Retten von Daten eines defekten Speichermediums die Geschwindigkeit wichtig, da das Medium weitere Fehler verursachen kann und somit weitere Dateien korrumpiert werden können. Ein Fehlversuch mit dd kann hier also fatale Folgen haben.\n An dieser Stelle bietet sich dd_rescue an, welches inzwischen bei allen gängigen Linux-Distributionen mitgeliefert wird. Sie können damit â ähnlich wie mit dd â Dateiblöcke auf Low-Level-Basis auf ein anderes Medium kopieren. Als Zielort ist eine Datei auf einem anderen Speichermedium sinnvoll. Von diesem Abbild der defekten Festplatte können Sie eine Kopie erstellen, um das ursprüngliche Abbild nicht zu verändern, und in einem der Abbilder versuchen, das Dateisystem mittels fsck wieder zu reparieren. Ist dies gelungen, können Sie das Abbild wieder mit dd_rescue auf eine neue Festplatte kopieren.\n Ein Beispiel:\n # dd_rescue -v /dev/hda1 /mnt/rescue/hda1.img\n In dem Beispiel wird die Partition /dev/hda1 in die Abbilddatei /mnt/rescue/hda1.img kopiert.\n dumpe2fs â zeigt Informationen über ein ext2/ext3-Dateisystem an \n dumpe2fs gibt eine Menge interne Informationen zum Superblock und anderen Block-Gruppen zu einem ext2/ext3-Dateisystem aus (vorausgesetzt, dieses Dateisystem wird auch verwendet â logisch), zum Beispiel:\n # dumpe2fs -b /dev/hda6\n Mit der Option âb werden alle Blöcke von /dev/hda6 auf die Konsole ausgegeben, die als »schlecht« markiert wurden.\n e2fsck â repariert ein ext2/ext3-Dateisystem \n e2fsck überprüft ein ext2/ext3 Dateisystem und repariert den Fehler. Damit e2fsck verwendet werden kann, muss fsck.ext2 installiert sein, welches das eigentliche Programm ist. e2fsck ist nur ein »Frontend« dafür.\n e2fsck Gerätedatei\n Mit der »Gerätedatei« geben Sie die Partition an, auf der das Dateisystem überprüft werden soll (was selbstverständlich wieder ein ext2/ext3-Dateisystem sein muss). Bei den Dateien, bei denen die Inodes in keinem Verzeichnis notiert sind, werden sie von e2fsck im Verzeichnis lost+found eingetragen und können so repariert werden. e2fsck gibt beim Überprüfen einen Exit-Code zurück, den Sie mit echo $? abfragen können. Folgende wichtigen Exit-Codes und deren Bedeutung können dabei zurückgegeben werden:\n\n Tabelle 14.14  Exit-Codes des Kommandos e2fsck\n\n 8\n Fehler bei der Kommandoausführung von e2fsck\n\n 16\n Falsche Verwendung von e2fsck\n\n Tabelle 14.15  Optionen für das Kommando e2fsck\n\n âp\n Alle Fehler automatisch reparieren ohne Rückfragen\n\n âc\n Durchsucht das Dateisystem nach schlechten Blöcken\n\n âf\n Erzwingt eine Überprüfung des Dateisystems, auch wenn der Kernel das System für OK befunden hat (valid-Flag gesetzt)\n\n Hinweis   Einige fsck-Versionen fragen nach, ob das Kommando wirklich ausgeführt werden soll. Bei der Antwort genügt der Anfangsbuchstabe »j« oder »y« als Antwort nicht, sondern es muss »yes« oder »ja« (je nach Fragestellung) eingegeben werden. Ansonsten bricht fsck an dieser Stelle kommentarlos ab.\n\n fdformat â formatiert eine Diskette \n Auch wenn viele Rechner mittlerweile ohne Diskettenlaufwerk ausgeliefert werden, wird das Diskettenlaufwerk immer wieder einmal benötigt (bspw. für eine Rettungsdiskette mit einem Mini-Linux). Mit dem Kommando fdformat formatieren Sie eine Diskette. Das Format wird dabei anhand vom Kernel gespeicherten Parametern erzeugt. Beachten Sie allerdings, dass die Diskette nur mit leeren Blöcken beschrieben wird und nicht mit einem Dateisystem. Zum Erstellen von Dateisystemen stehen Ihnen die Kommandos mkfs, mk2fs oder mkreiserfs für Linux-Systeme zur Verfügung.\n fdformat Gerätedatei\n fdisk â Partitionieren von Speichermedien \n fdisk ist die etwas unkomfortablere Alternative gegenüber cfdisk, eine Festplatte in verschiedene Partitionen aufzuteilen, zu löschen oder gegebenenfalls zu ändern. Im Gegensatz zu cfisk können Sie hier nicht mit den Pfeiltasten navigieren und müssen einzelne Tastenkürzel verwenden. Allerdings hat fdisk den Vorteil, fast überall und immer präsent zu sein.\n Noch ein Vorzug ist, dass fdisk nicht interaktiv läuft. Man kann es z. B. benutzen, um einen ganzen Schlag Festplatten automatisch zu formatieren. Das ist ganz praktisch, wenn man ein System identisch auf einer ganzen Anzahl Rechner installieren muss. Man installiert nur auf einem, erzeugt mit dd ein Image, erstellt sich ein kleines Script, bootet die anderen Rechner z. B. von »damnsmall-Linux« (eine Mini-Distribution für u. a. den USB-Stick) und führt das Script aus, das dann per fdisk formatiert und per dd das Image des Prototypen installiert. Danach muss man nur noch die IP-Adresse und den Hostname anpassen, was Sie auch scriptgesteuert vornehmen können.\n Einen komfortablen Überblick zu allen Partitionen auf allen Festplatten können Sie sich mit der Option âl anzeigen lassen:\n linux:/home/you # fdisk -l Platte /dev/hda: 30.0 GByte, 30005821440 Byte 16 Köpfe, 63 Sektoren/Spuren, 58140 Zylinder Einheiten = Zylinder von 1008 * 512 = 516096 Bytes Gerät Boot Start End Blocks Id System /dev/hda1 1 26313 13261626 7 HPFS/NTFS /dev/hda2 26314 58140 16040808 f W95 Ext'd (LBA) /dev/hda5 26314 27329 512032+ 82 Linux Swap /dev/hda6 27330 58140 15528712+ 83 Linux\n Zum Partitionieren starten müssen Sie fdisk mit der Angabe der Gerätedatei:\n # fdisk /dev/hda\n Die wichtigsten Tastenkürzel zur Partitionierung selbst sind:\n\n Tabelle 14.16  Tastenkürzel zur Verwendung von fdisk\n\n Taste\n Bedeutung\n\n (b)\n »bsd disklabel« bearbeiten\n\n (d)\n Eine Partition löschen\n\n (l)\n Die bekannten Dateisystemtypen anzeigen (Sie benötigen die Nummer)\n\n (m)\n Ein Menü mit allen Befehlen anzeigen\n\n (n)\n Eine neue Partition anlegen\n\n (p)\n Die Partitionstabelle anzeigen\n\n (q)\n Ende ohne Speichern der Änderungen\n\n (s)\n Einen neuen leeren »Sun disklabel« anlegen\n\n (t)\n Den Dateisystemtyp einer Partition ändern\n\n (u)\n Die Einheit für die Anzeige/Eingabe ändern\n\n (v)\n Die Partitionstabelle überprüfen\n\n (W)\n Die Tabelle auf die Festplatte schreiben und das Programm beenden\n\n (X)\n Zusätzliche Funktionen (nur für Experten)\n\n Ansonsten gilt auch hier, Finger weg, wenn Sie nicht sicher sind, was Sie hier genau tun, es sei denn, Sie probieren dies alles an einem Testsystem aus.\n fsck â Reparieren und Überprüfen von Dateisystemen \n fsck ist ein unabhängiges Frontend zum Prüfen und Reparieren der Dateisystem-Struktur. fsck ruft gewöhnlich je nach Dateisystem das entsprechende Programm auf. Bei ext2/ext3 ist dies bspw. fsck.ext2, bei einem Minix-System fsck.minix, bei ReiserFS reiserfsck usw. Die Zuordnung des entsprechenden Dateisystems nimmt fsck anhand der Partitionstabelle oder durch eine Kommandozeilenoption vor. Die meisten dieser Programme unterstützen die Optionen âa, âA, âl, âr, âs und âv. Meistens wird hierbei die Option âa âA verwendet. Mit âa veranlassen Sie eine automatische Reparatur, sofern dies möglich ist, und mit âA geben Sie an, alle Dateisysteme zu testen, die in /etc/fstab eingetragen sind.\n fsck gibt beim Überprüfen einen Exit-Code zurück, den Sie mit echo $? abfragen können. Folgende wichtigen Exit-Codes und deren Bedeutung können dabei zurückgegeben werden:\n\n Tabelle 14.17  Exit-Codes von fsck und ihre Bedeutung\n\n 8\n Fehler bei der Kommandoausführung von fsck\n\n 16\n Falsche Verwendung von fsck\n\n Ganz wichtig ist es auch, fsck immer auf nicht eingebundene bzw. nur im readonly-Modus eingebundene Dateisysteme anzuwenden. Denn fsck kann sonst eventuell ein Dateisystem verändern (reparieren), ohne dass das System dies zu realisieren vermag. Ein Systemabsturz ist dann vorprogrammiert. Gewöhnlich wird fsck oder reiserfsck beim Systemstart automatisch ausgeführt, wenn eine Partition nicht sauber ausgebunden wurde oder nach jedem n-ten Booten. Wer mit einem ext2/ext3-Dateisystem arbeitet, kennt das wohl zu genüge, wenn fsck nach einem Systemabsturz beim Starten des Systems zunächst das komplette Dateisystem überprüft (Kaffee holen war angesagt).\n mkfs â Dateisystem einrichten \n Mit mkfs können Sie auf einer zuvor formatierten Festplatte bzw. Diskette ein Dateisystem anlegen. Wie schon fsck ist mkfs ein unabhängiges Frontend, das die Erzeugung des Dateisystems nicht selbst übernimmt, sondern auch hier das spezifische Programm zur Erzeugung des entsprechenden Dateisystems verwendet. Auch hierbei richtet sich mkfs wieder nach den Dateisystemen, die in der Partitionstabelle aufgelistet sind, oder gegebenenfalls nach der Kommandozeilenoption.\n Abhängig vom Dateisystemtyp ruft mkfs dann das Kommando mkfs.minix (für Minix), mk2fs (für ext2/ext3), mkreiserfs (für ReiserFS) usw. auf.\n mkfs [option] Gerätedatei [blöcke]\n Für die »Gerätedatei« müssen Sie den entsprechenden Pfad angeben (bspw. /dev/hda1). Es kann außerdem auch die Anzahl von Blöcken angegeben werden, die das Dateisystem belegen soll. Auch mkfs gibt einen Exit-Code über den Verlauf der Kommandoausführung zurück, den Sie mit echo $? auswerten können.\n\n Tabelle 14.18  Exit-Codes von mkfs und ihre Bedeutung\n\n 0\n Alles erfolgreich durchgeführt\n\n 8\n Ein Fehler bei der Programmausführung\n\n 16\n Ein Fehler in der Kommandozeile\n\n Interessant ist auch noch die Option ât, womit Sie den Dateisystemtyp des zu erzeugenden Dateisystems selbst festlegen können. Ohne ât würde hier wieder versucht, das Dateisystem anhand der Partitionstabelle zu bestimmen. So erzeugen Sie bspw. mit\n mkfs -f xiafs /dev/hda7\n auf der Partition /dev/hda7 ein Dateisystem xiafs (alternativ zu ext2).\n mkswap â eine Swap-Partition einrichten \n Mit mkswap legen Sie eine Swap-Partition an. Diese können Sie z. B. dazu verwenden, schlafende Prozesse, die auf das Ende von anderen Prozessen warten, in die Swap-Partition der Festplatte auszulagern. So halten Sie Platz im Arbeitsspeicher für andere laufende Prozesse frei. Sofern Sie nicht schon bei der Installation die (gewöhnlich) vorgeschlagene Swap-Partiton eingerichtet haben (je nach Distribution), können Sie dies nachträglich mit dem Kommando mkswap vornehmen. Zum Aktivieren einer Swap-Partition müssen Sie das Kommando swapon aufrufen.\n Ist Ihr Arbeitsspeicher wieder ausgelastet, können Sie auch kurzfristig solch einen Swap-Speicher einrichten. Ein Beispiel:\n # dd bs=1024 if=/dev/zero of=/tmp/myswap count=4096 4096+0 Datensätze ein 4096+0 Datensätze aus # mkswap -c /tmp/myswap 4096 Swapbereich Version 1 wird angelegt, Größe 4190 KBytes # sync # swapon /tmp/myswap\n Zuerst legen Sie mit dd einen leere Swapdatei mit 4 Megabytes Größe mit Null-Bytes an. Anschließend verwenden Sie diesen Bereich als Swap-Datei. Nach einem Aufruf von sync müssen Sie nur noch den Swap-Speicher aktivieren. Wie dieser Swap-Bereich allerdings verwendet wird, haben Sie nicht in der Hand, sondern wird vom Kernel mit dem »Paging« gesteuert.\n\n Hinweis   Eine Datei, die als Swap-Bereich eingebunden wird, sollte nur genutzt werden, wenn keine Partition dafür zur Verfügung steht, da die Methode erheblich langsamer ist als eine Swap-Partition.\n\n mount, umount â An- bzw. Abhängen eines Dateisystems \n mount hängt einzelne Dateisysteme mit den verschiedensten Medien (Festplatte, CD-ROM, Diskette ...) an einen einzigen Dateisystembaum an. Die einzelnen Partitionen werden dabei als Gerätedateien im Ordner /dev angezeigt. Rufen Sie mount ohne irgendwelche Argumente auf, werden alle »gemounteten« Dateisysteme aus /etc/mtab aufgelistet. Auch hier bleibt es wieder root überlassen, ob ein Benutzer ein bestimmtes Dateisystem einbinden kann oder nicht. Hierzu muss nur ein entsprechender Eintrag in /etc/fstab vorgenommen werden.\n Einige Beispiele, wie verschiedene Dateisysteme eingehängt werden können:\n\n Tabelle 14.19  Anwendungsbeispiele des Kommandos mount\n\n mount /dev/fd0\n Hängt das Diskettenlaufwerk ein\n\n mount /dev/hda9 /home/you\n Hier wird das Dateisystem /dev/hda9 an der Verzeichnis /home/you gemountet.\n\n mount goliath:/progs /home/progs\n Mountet ein Dateisystem per NFS von einem Rechner namens »goliath« und hängt diesen an das lokale Verzeichnis /home/progs\n\n Wollen Sie ein Dateisystem wieder aushängen, egal ob jetzt lokale oder entfernte Partitionen, dann nehmen Sie dies mit umount vor:\n umount /dev/fd0\n Hier wird das Diskettenlaufwerk aus dem Dateisystem ausgehängt.\n\n Hinweis   Wenn ein Eintrag für ein Dateisystem in der /etc/fstab besteht, reicht es aus, mount mit dem Device oder dem Mountpoint als Argument aufzurufen: »mount /dev/fd0«.\n\n parted â Partitionen anlegen, verschieben, vergrößern oder verkleinern \n Mit parted können Sie nicht nur â wie mit fdisk bzw. cfdisk â Partitionen anlegen oder löschen, sondern auch vergrößern, verkleinern, kopieren und verschieben. parted wird gern verwendet, wenn man Platz auf der Festplatte schaffen will für ein neues Betriebssystem oder alle Daten einer Festplatte auf eine neue kopieren will. Mehr hierzu entnehmen Sie bitte der Manual-Seite von parted.\n prtvtoc â Partitionstabellen ausgeben \n Mit prtvtoc können Sie ähnlich wie unter Linux mit fdisk die Partitionstabelle einer Festplatte ausgeben. Dieses Kommando ist bspw. unter Solaris vorhanden.\n swapon, swapoff â Swap-Datei oder Partition (de)aktivieren \n Wenn Sie auf dem System eine Swap-Partition eingerichtet haben (siehe mkswap), existiert diese zwar, muss aber noch mit dem Kommando swapon aktiviert werden. Den so aktivierten Bereich können Sie jederzeit mit swapoff wieder aus dem laufenden System deaktivieren.\n sync â alle gepufferten Schreiboperationen ausführen \n Normalerweise verwendet Linux einen Puffer (Cache) im Arbeitsspeicher, worin sich ganze Datenblöcke eines Massenspeichers befinden. So werden Daten häufig temporär erst im Arbeitsspeicher verwaltet, da sich ein dauernd schreibender Prozess äußerst negativ auf die Performance des Systems auswirken würde. Stellen Sie sich das einmal bei 100 Prozessen vor! Gewöhnlich übernimmt ein Daemon die Arbeit und entscheidet, wann die veränderten Datenblöcke auf die Festplatte geschrieben werden.\n Mit dem Kommando sync können Sie nun veranlassen, dass veränderte Daten sofort auf die Festplatte (oder auch jeden anderen Massenspeicher) geschrieben werden. Dies kann häufig der letzte Rettungsanker sein, wenn das System sich nicht mehr richtig beenden lässt. Können Sie hierbei noch schnell ein sync ausführen, werden alle Daten zuvor nochmals gesichert und der Datenverlust kann eventuell ganz verhindert werden.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 14.7 Dateisystem-KommandosÂ\n\nBei den Kommandos zu den Dateisystemen handelt es sich häufig um Kommandos für Linux-Systeme, welche zumeist auch nur als root ausführbar sind. Aus Erfahrung weiß ich aber, dass man schnell gern mit root-Rechten spielt, um mit solchen Kommandos zu experimentieren. Hiervor möchte ich Sie aber warnen, sofern Sie nicht sicher sind, was Sie da tun. Mit zahlreichen dieser Kommandos verlieren Sie häufig nicht nur ein paar Daten, sondern können z. T. ein ganzes Dateisystem korrumpieren â was sich so weit auswirken kann, dass Ihr Betriebssystem nicht mehr startet.\n\n### badblocks â überprüft, ob ein Datenträger defekte Sektoren hatÂ\n\nMit dem Kommando badblocks testen Sie den physischen Zustand eines Datenträgers. Dabei sucht badblocks auf einer Diskette oder Festplatte nach defekten Blöcken.\n > # badblocks -s -o block.log /dev/fd0 1440\n\nHier wird z. B. bei einer Diskette (1,44 MB) nach defekten Blöcken gesucht. Das Fortschreiten der Überprüfung wird durch die Option âs simuliert. Mit âo schreiben Sie das Ergebnis defekter Blöcke in die Datei block.log, welche wiederum von anderen Programmen verwendet werden kann, damit diese beschädigten Blöcke nicht mehr genutzt werden. Die Syntax sieht somit wie folgt aus:\n > badblocks [-optionen] gerätedatei [startblock]\n\nDie »gerätedatei« ist der Pfad zum entsprechenden Speichermedium (bspw. /dev/hda1 = erste Festplatte). Es kann außerdem auch optional der »startblock« festgelegt werden, von dem mit dem Testen angefangen werden soll. Die Ausführung dieses Kommandos bleibt selbstverständlich nur dem Superuser überlassen.\n\n### cfdisk â Partitionieren von FestplattenÂ\n\nMit cfdisk teilen Sie eine formatierte Festplatte in verschiedene Partitionen ein. Natürlich kann man auch eine bestehende Partition löschen oder eine vorhandene verändern (bspw. eine andere Systemkennung geben). Man kann mit cfdisk allerdings auch eine »rohe«, ganze Festplatte bearbeiten (nicht nur einzelne Partitionen). Die Gerätedatei ist also /dev/hda für die erste IDE-Festplatte, /dev/hdb für die zweite Festplatte, /dev/sda für die erste SCSI-Festplatte, /dev/sdb für die zweite SCSI-Festplatte ... usw.\n\nStarten Sie cfdisk, werden alle gefundene Partitionen mitsamt deren Größe angezeigt. Mit den Pfeiltasten »nach-oben« und »nach-unten« können Sie sich hierbei eine Partition auswählen und mit den Pfeiltasten »nach-rechts« bzw. »nach-links« ein Kommando. Mit (Q) können Sie cfdisk beenden.\n\n### dd â Datenblöcke zwischen Device (Low Level) kopieren (und konvertieren)Â\n\nMit dd können Sie eine Datei lesen und den Inhalt in einer bestimmten Blockgröße mit verschiedenen Konvertierungen zwischen verschiedenen Speichermedien (Festplatte, Diskette usw.) übertragen. Damit lassen sich neben einfachen Dateien auch ganze Festplattenpartitionen kopieren. Ein komplettes Backup kann mit diesem Kommando realisiert werden. Ein Beispiel:\n > # dd if=/dev/hda bs=512 count=1\n\nDamit geben Sie den Bootsektor (nur als root möglich) auf dem Bildschirm aus. Wollen Sie jetzt auch noch ein Backup des Bootsektors auf einer Diskette sichern, dann gehen Sie folgendermaßen vor:\n > # dd if=/dev/hda of=/dev/fd0 bs=512 count=1\n\nBevor Sie jetzt noch weitere Beispiele zum mächtigen Werkzeug dd sehen werden, müssen Sie sich zunächst mit den Optionen vertraut machen â im Beispiel mit if, of, bs und count verwendet.\n\nOption | Bedeutung |\n | --- | --- |\nif=Datei | (input file) Hier gibt man den Namen der Eingabedatei (Quelldatei) an â ohne Angaben wird die Standardeingabe verwendet. |\nof=Datei | (output file) Hier kommt der Name der Ausgabedatei (Zieldatei) hin â ohne Angabe wird hier die Standardausgabe verwendet. |\nibs=Schritt | (input block size) Hier wird die Blockgröße der Eingabedatei angegeben. |\nobs=Schritt | (output block size) Hier wird die Blockgröße der Ausgabedatei angegeben. |\nbs=Schritt | (block size) Hier legt man die Blockgröße für Ein- und Ausgabedatei fest. |\ncbs=Schritt | (conversion block size) Die Blockgröße für die Konvertierung wird bestimmt. |\nskip=Blocks | Hier können Sie eine Anzahl Blocks angeben, die von der Eingabe zu Beginn ignoriert werden sollen. |\nseek=Blocks | Hier können Sie eine Anzahl Blocks angeben, die von der Ausgabe am Anfang ignoriert werden sollen; unterdrückt am Anfang die Ausgabe der angegebenen Anzahl Blocks. |\ncount=Blocks | Hier wird angegeben, wie viele Blöcke kopiert werden sollen. |\n\nOption | Konvertierung |\n | --- | --- |\nconv=ascii | EBCDIC nach ASCII |\nconv=ebcdic | ASCII nach EBCDIC |\nconv=ibm | ASCII nach big blue special EBCDIC |\nconv=block | Es werden Zeilen in Felder mit der Größe cbs geschrieben und das Zeilenende wird durch Leerzeichen ersetzt. Der Rest des Feldes wird mit Leerzeichen aufgefüllt. |\nconv=unblock | Abschließende Leerzeichen eines Blocks der Größe cbs werden durch ein Zeilenende ersetzt. |\nconv=lcase | Großbuchstaben in Kleinbuchstaben |\nconv=ucase | Kleinbuchstaben in Großbuchstaben |\nconv=swab | Vertauscht je zwei Bytes der Eingabe. Ist die Anzahl der gelesenen Bytes ungerade, wird das letzte Byte einfach kopiert. |\nconv=noerror | Lesefehler werden ignoriert. |\nconv=sync | Füllt Eingabeblöcke bis zur Größe von ibs mit Nullen |\n\nJetzt noch einige interessante Beispiel zu dd:\n > # dd if=/vmlinuz of=/dev/fd0\n\nDamit kopieren Sie den Kernel (hier in »vmlinuz« â bitte anpassen) in den ersten Sektor der Diskette, welche als Bootdiskette verwendet werden kann.\n > # dd if=/dev/hda of=/dev/hdc\n\nMächtig, hiermit klonen Sie praktisch in einem Schritt die erste Festplatte am Master IDE-Kontroller auf die Festplatte am zweiten Master-Anschluss. Somit haben Sie auf /dev/hdc denselben Inhalt wie auf /dev/hda. Natürlich kann die Ausgabedatei auch ganz woanders hingeschrieben werden, bspw. auf einen DVD-Brenner, eine Festplatte am USB-Anschluss oder in eine Datei.\n\n### dd_rescue â fehlertolerantes Kopieren von DateiblöckenÂ\n\nFalls Sie z. B. eine defekte Festplatte â oder eine Partition auf derselben â kopieren wollen, stößt dd schnell an seine Grenzen. Zudem ist beim Retten von Daten eines defekten Speichermediums die Geschwindigkeit wichtig, da das Medium weitere Fehler verursachen kann und somit weitere Dateien korrumpiert werden können. Ein Fehlversuch mit dd kann hier also fatale Folgen haben.\n\nAn dieser Stelle bietet sich dd_rescue an, welches inzwischen bei allen gängigen Linux-Distributionen mitgeliefert wird. Sie können damit â ähnlich wie mit dd â Dateiblöcke auf Low-Level-Basis auf ein anderes Medium kopieren. Als Zielort ist eine Datei auf einem anderen Speichermedium sinnvoll. Von diesem Abbild der defekten Festplatte können Sie eine Kopie erstellen, um das ursprüngliche Abbild nicht zu verändern, und in einem der Abbilder versuchen, das Dateisystem mittels fsck wieder zu reparieren. Ist dies gelungen, können Sie das Abbild wieder mit dd_rescue auf eine neue Festplatte kopieren.\n\nEin Beispiel:\n > # dd_rescue -v /dev/hda1 /mnt/rescue/hda1.img\n\nIn dem Beispiel wird die Partition /dev/hda1 in die Abbilddatei /mnt/rescue/hda1.img kopiert.\n\n### dumpe2fs â zeigt Informationen über ein ext2/ext3-Dateisystem anÂ\n\ndumpe2fs gibt eine Menge interne Informationen zum Superblock und anderen Block-Gruppen zu einem ext2/ext3-Dateisystem aus (vorausgesetzt, dieses Dateisystem wird auch verwendet â logisch), zum Beispiel:\n > # dumpe2fs -b /dev/hda6\n\nMit der Option âb werden alle Blöcke von /dev/hda6 auf die Konsole ausgegeben, die als »schlecht« markiert wurden.\n\n### e2fsck â repariert ein ext2/ext3-DateisystemÂ\n\ne2fsck überprüft ein ext2/ext3 Dateisystem und repariert den Fehler. Damit e2fsck verwendet werden kann, muss fsck.ext2 installiert sein, welches das eigentliche Programm ist. e2fsck ist nur ein »Frontend« dafür.\n > e2fsck Gerätedatei\n\nMit der »Gerätedatei« geben Sie die Partition an, auf der das Dateisystem überprüft werden soll (was selbstverständlich wieder ein ext2/ext3-Dateisystem sein muss). Bei den Dateien, bei denen die Inodes in keinem Verzeichnis notiert sind, werden sie von e2fsck im Verzeichnis lost+found eingetragen und können so repariert werden. e2fsck gibt beim Überprüfen einen Exit-Code zurück, den Sie mit echo $? abfragen können. Folgende wichtigen Exit-Codes und deren Bedeutung können dabei zurückgegeben werden:\n\nOption | Bedeutung |\n | --- | --- |\nâp | Alle Fehler automatisch reparieren ohne Rückfragen |\nâc | Durchsucht das Dateisystem nach schlechten Blöcken |\nâf | Erzwingt eine Überprüfung des Dateisystems, auch wenn der Kernel das System für OK befunden hat (valid-Flag gesetzt) |\n\n### fdformat â formatiert eine DisketteÂ\n\nAuch wenn viele Rechner mittlerweile ohne Diskettenlaufwerk ausgeliefert werden, wird das Diskettenlaufwerk immer wieder einmal benötigt (bspw. für eine Rettungsdiskette mit einem Mini-Linux). Mit dem Kommando fdformat formatieren Sie eine Diskette. Das Format wird dabei anhand vom Kernel gespeicherten Parametern erzeugt. Beachten Sie allerdings, dass die Diskette nur mit leeren Blöcken beschrieben wird und nicht mit einem Dateisystem. Zum Erstellen von Dateisystemen stehen Ihnen die Kommandos mkfs, mk2fs oder mkreiserfs für Linux-Systeme zur Verfügung.\n > fdformat Gerätedatei\n\n### fdisk â Partitionieren von SpeichermedienÂ\n\nfdisk ist die etwas unkomfortablere Alternative gegenüber cfdisk, eine Festplatte in verschiedene Partitionen aufzuteilen, zu löschen oder gegebenenfalls zu ändern. Im Gegensatz zu cfisk können Sie hier nicht mit den Pfeiltasten navigieren und müssen einzelne Tastenkürzel verwenden. Allerdings hat fdisk den Vorteil, fast überall und immer präsent zu sein.\n\nNoch ein Vorzug ist, dass fdisk nicht interaktiv läuft. Man kann es z. B. benutzen, um einen ganzen Schlag Festplatten automatisch zu formatieren. Das ist ganz praktisch, wenn man ein System identisch auf einer ganzen Anzahl Rechner installieren muss. Man installiert nur auf einem, erzeugt mit dd ein Image, erstellt sich ein kleines Script, bootet die anderen Rechner z. B. von »damnsmall-Linux« (eine Mini-Distribution für u. a. den USB-Stick) und führt das Script aus, das dann per fdisk formatiert und per dd das Image des Prototypen installiert. Danach muss man nur noch die IP-Adresse und den Hostname anpassen, was Sie auch scriptgesteuert vornehmen können.\n\nEinen komfortablen Überblick zu allen Partitionen auf allen Festplatten können Sie sich mit der Option âl anzeigen lassen:\n > linux:/home/you # fdisk -l Platte /dev/hda: 30.0 GByte, 30005821440 Byte 16 Köpfe, 63 Sektoren/Spuren, 58140 Zylinder Einheiten = Zylinder von 1008 * 512 = 516096 Bytes Gerät Boot Start End Blocks Id System /dev/hda1 1 26313 13261626 7 HPFS/NTFS /dev/hda2 26314 58140 16040808 f W95 Ext'd (LBA) /dev/hda5 26314 27329 512032+ 82 Linux Swap /dev/hda6 27330 58140 15528712+ 83 Linux\n\nZum Partitionieren starten müssen Sie fdisk mit der Angabe der Gerätedatei:\n > # fdisk /dev/hda\n\nDie wichtigsten Tastenkürzel zur Partitionierung selbst sind:\n\nTaste | Bedeutung |\n | --- | --- |\n(b) | »bsd disklabel« bearbeiten |\n(d) | Eine Partition löschen |\n(l) | Die bekannten Dateisystemtypen anzeigen (Sie benötigen die Nummer) |\n(m) | Ein Menü mit allen Befehlen anzeigen |\n(n) | Eine neue Partition anlegen |\n(p) | Die Partitionstabelle anzeigen |\n(q) | Ende ohne Speichern der Änderungen |\n(s) | Einen neuen leeren »Sun disklabel« anlegen |\n(t) | Den Dateisystemtyp einer Partition ändern |\n(u) | Die Einheit für die Anzeige/Eingabe ändern |\n(v) | Die Partitionstabelle überprüfen |\n(W) | Die Tabelle auf die Festplatte schreiben und das Programm beenden |\n(X) | Zusätzliche Funktionen (nur für Experten) |\n\nAnsonsten gilt auch hier, Finger weg, wenn Sie nicht sicher sind, was Sie hier genau tun, es sei denn, Sie probieren dies alles an einem Testsystem aus.\n\n### fsck â Reparieren und Überprüfen von DateisystemenÂ\n\nfsck ist ein unabhängiges Frontend zum Prüfen und Reparieren der Dateisystem-Struktur. fsck ruft gewöhnlich je nach Dateisystem das entsprechende Programm auf. Bei ext2/ext3 ist dies bspw. fsck.ext2, bei einem Minix-System fsck.minix, bei ReiserFS reiserfsck usw. Die Zuordnung des entsprechenden Dateisystems nimmt fsck anhand der Partitionstabelle oder durch eine Kommandozeilenoption vor. Die meisten dieser Programme unterstützen die Optionen âa, âA, âl, âr, âs und âv. Meistens wird hierbei die Option âa âA verwendet. Mit âa veranlassen Sie eine automatische Reparatur, sofern dies möglich ist, und mit âA geben Sie an, alle Dateisysteme zu testen, die in /etc/fstab eingetragen sind.\n\nfsck gibt beim Überprüfen einen Exit-Code zurück, den Sie mit echo $? abfragen können. Folgende wichtigen Exit-Codes und deren Bedeutung können dabei zurückgegeben werden:\n\nGanz wichtig ist es auch, fsck immer auf nicht eingebundene bzw. nur im readonly-Modus eingebundene Dateisysteme anzuwenden. Denn fsck kann sonst eventuell ein Dateisystem verändern (reparieren), ohne dass das System dies zu realisieren vermag. Ein Systemabsturz ist dann vorprogrammiert. Gewöhnlich wird fsck oder reiserfsck beim Systemstart automatisch ausgeführt, wenn eine Partition nicht sauber ausgebunden wurde oder nach jedem n-ten Booten. Wer mit einem ext2/ext3-Dateisystem arbeitet, kennt das wohl zu genüge, wenn fsck nach einem Systemabsturz beim Starten des Systems zunächst das komplette Dateisystem überprüft (Kaffee holen war angesagt).\n\n### mkfs â Dateisystem einrichtenÂ\n\nMit mkfs können Sie auf einer zuvor formatierten Festplatte bzw. Diskette ein Dateisystem anlegen. Wie schon fsck ist mkfs ein unabhängiges Frontend, das die Erzeugung des Dateisystems nicht selbst übernimmt, sondern auch hier das spezifische Programm zur Erzeugung des entsprechenden Dateisystems verwendet. Auch hierbei richtet sich mkfs wieder nach den Dateisystemen, die in der Partitionstabelle aufgelistet sind, oder gegebenenfalls nach der Kommandozeilenoption.\n\nAbhängig vom Dateisystemtyp ruft mkfs dann das Kommando mkfs.minix (für Minix), mk2fs (für ext2/ext3), mkreiserfs (für ReiserFS) usw. auf.\n > mkfs [option] Gerätedatei [blöcke]\n\nFür die »Gerätedatei« müssen Sie den entsprechenden Pfad angeben (bspw. /dev/hda1). Es kann außerdem auch die Anzahl von Blöcken angegeben werden, die das Dateisystem belegen soll. Auch mkfs gibt einen Exit-Code über den Verlauf der Kommandoausführung zurück, den Sie mit echo $? auswerten können.\n\nExit-Code | Bedeutung |\n | --- | --- |\n0 | Alles erfolgreich durchgeführt |\n8 | Ein Fehler bei der Programmausführung |\n16 | Ein Fehler in der Kommandozeile |\n\nInteressant ist auch noch die Option ât, womit Sie den Dateisystemtyp des zu erzeugenden Dateisystems selbst festlegen können. Ohne ât würde hier wieder versucht, das Dateisystem anhand der Partitionstabelle zu bestimmen. So erzeugen Sie bspw. mit\n > mkfs -f xiafs /dev/hda7\n\nauf der Partition /dev/hda7 ein Dateisystem xiafs (alternativ zu ext2).\n\n### mkswap â eine Swap-Partition einrichtenÂ\n\nMit mkswap legen Sie eine Swap-Partition an. Diese können Sie z. B. dazu verwenden, schlafende Prozesse, die auf das Ende von anderen Prozessen warten, in die Swap-Partition der Festplatte auszulagern. So halten Sie Platz im Arbeitsspeicher für andere laufende Prozesse frei. Sofern Sie nicht schon bei der Installation die (gewöhnlich) vorgeschlagene Swap-Partiton eingerichtet haben (je nach Distribution), können Sie dies nachträglich mit dem Kommando mkswap vornehmen. Zum Aktivieren einer Swap-Partition müssen Sie das Kommando swapon aufrufen.\n\nIst Ihr Arbeitsspeicher wieder ausgelastet, können Sie auch kurzfristig solch einen Swap-Speicher einrichten. Ein Beispiel:\n > # dd bs=1024 if=/dev/zero of=/tmp/myswap count=4096 4096+0 Datensätze ein 4096+0 Datensätze aus # mkswap -c /tmp/myswap 4096 Swapbereich Version 1 wird angelegt, Größe 4190 KBytes # sync # swapon /tmp/myswap\n\nZuerst legen Sie mit dd einen leere Swapdatei mit 4 Megabytes Größe mit Null-Bytes an. Anschließend verwenden Sie diesen Bereich als Swap-Datei. Nach einem Aufruf von sync müssen Sie nur noch den Swap-Speicher aktivieren. Wie dieser Swap-Bereich allerdings verwendet wird, haben Sie nicht in der Hand, sondern wird vom Kernel mit dem »Paging« gesteuert.\n\n### mount, umount â An- bzw. Abhängen eines DateisystemsÂ\n\nmount hängt einzelne Dateisysteme mit den verschiedensten Medien (Festplatte, CD-ROM, Diskette ...) an einen einzigen Dateisystembaum an. Die einzelnen Partitionen werden dabei als Gerätedateien im Ordner /dev angezeigt. Rufen Sie mount ohne irgendwelche Argumente auf, werden alle »gemounteten« Dateisysteme aus /etc/mtab aufgelistet. Auch hier bleibt es wieder root überlassen, ob ein Benutzer ein bestimmtes Dateisystem einbinden kann oder nicht. Hierzu muss nur ein entsprechender Eintrag in /etc/fstab vorgenommen werden.\n\nEinige Beispiele, wie verschiedene Dateisysteme eingehängt werden können:\n\nVerwendung | Bedeutung |\n | --- | --- |\nmount /dev/fd0 | Hängt das Diskettenlaufwerk ein |\nmount /dev/hda9 /home/you | Hier wird das Dateisystem /dev/hda9 an der Verzeichnis /home/you gemountet. |\nmount goliath:/progs /home/progs | Mountet ein Dateisystem per NFS von einem Rechner namens »goliath« und hängt diesen an das lokale Verzeichnis /home/progs |\n\nWollen Sie ein Dateisystem wieder aushängen, egal ob jetzt lokale oder entfernte Partitionen, dann nehmen Sie dies mit umount vor:\n > umount /dev/fd0\n\nHier wird das Diskettenlaufwerk aus dem Dateisystem ausgehängt.\n\n### parted â Partitionen anlegen, verschieben, vergrößern oder verkleinernÂ\n\nMit parted können Sie nicht nur â wie mit fdisk bzw. cfdisk â Partitionen anlegen oder löschen, sondern auch vergrößern, verkleinern, kopieren und verschieben. parted wird gern verwendet, wenn man Platz auf der Festplatte schaffen will für ein neues Betriebssystem oder alle Daten einer Festplatte auf eine neue kopieren will. Mehr hierzu entnehmen Sie bitte der Manual-Seite von parted.\n\n### prtvtoc â Partitionstabellen ausgebenÂ\n\nMit prtvtoc können Sie ähnlich wie unter Linux mit fdisk die Partitionstabelle einer Festplatte ausgeben. Dieses Kommando ist bspw. unter Solaris vorhanden.\n\n### swapon, swapoff â Swap-Datei oder Partition (de)aktivierenÂ\n\nWenn Sie auf dem System eine Swap-Partition eingerichtet haben (siehe mkswap), existiert diese zwar, muss aber noch mit dem Kommando swapon aktiviert werden. Den so aktivierten Bereich können Sie jederzeit mit swapoff wieder aus dem laufenden System deaktivieren.\n\n### sync â alle gepufferten Schreiboperationen ausführenÂ\n\nNormalerweise verwendet Linux einen Puffer (Cache) im Arbeitsspeicher, worin sich ganze Datenblöcke eines Massenspeichers befinden. So werden Daten häufig temporär erst im Arbeitsspeicher verwaltet, da sich ein dauernd schreibender Prozess äußerst negativ auf die Performance des Systems auswirken würde. Stellen Sie sich das einmal bei 100 Prozessen vor! Gewöhnlich übernimmt ein Daemon die Arbeit und entscheidet, wann die veränderten Datenblöcke auf die Festplatte geschrieben werden.\n\nMit dem Kommando sync können Sie nun veranlassen, dass veränderte Daten sofort auf die Festplatte (oder auch jeden anderen Massenspeicher) geschrieben werden. Dies kann häufig der letzte Rettungsanker sein, wenn das System sich nicht mehr richtig beenden lässt. Können Sie hierbei noch schnell ein sync ausführen, werden alle Daten zuvor nochmals gesichert und der Datenverlust kann eventuell ganz verhindert werden.\n\n# 14.8 Archivierung und BackupÂ\n\n14.8 Archivierung und Backup \n bzip2/bunzip2 â (De-)Komprimieren von Dateien \n bzip2 ist dem Kommando gzip nicht unähnlich, nur dass bzip2 einen besseren Komprimierungsgrad als gzip erreicht. bzip arbeitet mit dem Burrows-Wheeler Block-Sorting-Algorithmus, der den Text zwar nicht komprimiert, aber leichter komprimierbar macht, sowie mit der Huffman-Kodierung. Allerdings ist die Kompression mit bzip2 erheblich besser, aber dafür auch erheblich langsamer, sofern die Geschwindigkeit eine Rolle spielen sollte. Alle Dateien, die mit bzip2 komprimiert werden, bekommen automatisch die Dateiendung ».bz2«. TAR-Dateien, die mit bzip2 komprimiert werden, erhalten üblicherweise die Endung ».tbz«. Die »2« hinter bzip2 bzw. bunzip2 kam dadurch, dass der Vorgänger bzip lautete, der allerdings aus patentrechtlichen Gründen nicht mehr weiterentwickelt wurde. Komprimieren können Sie Dateien mit bzip2 folgendermaßen:\n you@host > bzip2 file.txt\n Entpacken können Sie die komprimierte Datei wieder mit der Option âd und bzip2 oder mit bunzip2.\n you@host > bzip2 -d file.txt.bz2\n oder\n you@host > bunzip2 file.txt.bz2\n Sie können gern bzip2 mit der Option âd bevorzugen, weil bunzip2 wieder nichts anderes ist als ein Link auf bzip2, wobei allerdings automatisch die Option âd verwendet wird:\n you@host > which bunzip2 /usr/bin/bunzip2 you@host > ls -l /usr/bin/bunzip2 lrwxrwxrwx 1 root root 5 /usr/bin/bunzip2 -> bzip2\n Interessant in diesem Zusammenhang ist auch das Kommando bzcat, womit Sie bzip2-komprimierte Dateien lesen können, ohne diese vorher zu dekomprimieren.\n you@host > bzcat file.txt.bz2 ...\n compress/uncompress â (De-)Komprimieren von Dateien \n compress zum Komprimieren und uncompress zum Dekomprimieren wird heute zwar kaum noch verwendet, aber man sollte beide aus Kompatibilitätsgründen hier doch erwähnen, falls Sie einmal auf ein Uralt-Archiv stoßen, bei dem die Dateien mit einem ».Z« enden. compress beruht auf einer älteren Version des Lempel-Ziv-Algorithmus.\n cpio, afio â Dateien und Verzeichnisse archivieren \n cpio (copy in and out) eignet sich hervorragend, um ganze Verzeichnisbäume zu archivieren. Etwas ungewöhnlich auf de ersten Blick ist, dass cpio die zu archivierenden Dateien nicht von der Kommandozeile, sondern von der Standardeingabe liest. Häufig wird daher cpio in Verbindung mit den Kommandos ls oder find und einer Pipe verwendet. Damit ist es möglich, ein spezielles Archiv zu erzeugen, das den Eigentümer, die Zugriffsrechte, die Erzeugungszeit, die Dateigröße usw. berücksichtigt. Gewöhnlich wird cpio in drei verschiedenen Arten aufgerufen.\n copy out\n Diese Art wird mit der Option âo bzw. ââcreate verwendet. So werden die Pfadnamen der zu kopierenden Dateien von der Standardeingabe eingelesen und auf die Standardausgabe kopiert. Dabei können Dinge, wie etwa der Eigentümer, die Zugriffsrechte, die Dateigröße etc., berücksichtigt bzw. ausgegeben werden. Gewöhnlich verwendet man copy out mit einer Pipe und einer Umlenkung:\n you@host > cd Shellbuch you@host > ls Kap003.txt kap005.txt~ Kap008.txt Kap010.txt~ Kap013.txt Kap001.doc Kap003.txt~ Kap006.txt Kap008.txt~ Kap011.txt Kap013.txt~ Kap001.sxw kap004.txt Kap006.txt~ Kap009.txt Kap011.txt~ Kap014.txt Kap002.doc kap004.txt~ Kap007.txt Kap009.txt~ Kap012.txt Kap014.txt~ Kap002.sxw kap005.txt Kap007.txt~ Kap010.txt Kap012.txt~ Planung_und_Bewerbung chm_pdf you@host > ls *.txt | cpio -o > Shellbuch.cpio 1243 blocks\n Hier wurden z. B. alle Textdateien im Verzeichnis Shellbuch zu einem cpio-Archiv (Shellbuch.cpio) gepackt. Allerdings konnten hier nur bestimmte Dateien erfasst werden. Wollen Sie ganze Verzeichnisbäume archivieren, dann verwenden Sie das Kommando find:\n you@host > find $HOME/Shellbuch -print | cpio -o > Shellbuch.cpio cpio: ~/Shellbuch: truncating inode number cpio: ~/Shellbuch/Planung_und_Bewerbung: truncating inode number cpio: ~/Shellbuch/chm_pdf: truncating inode number 130806 blocks\n Natürlich können Sie hierbei mit find-üblichen Anweisungen nur bestimmte Dateien archivieren. Ebenso lassen sich Dateien auch auf ein anderes Laufwerk archivieren:\n you@host > ls -a | cpio -o > /dev/fd0\n Hier wurden beispielsweise alle Dateien des aktuellen Verzeichnisses auf die Diskette kopiert. Dabei können Sie genauso gut einen Streamer, eine andere Festplatte oder gar einen anderen Rechner verwenden.\n copy in\n Wollen Sie das mit cpio âo erzeugte Archiv wieder entpacken bzw. zurückspielen, so wird cpio mit dem Schalter âi bzw. ââextract verwendet. Damit liest cpio die archivierten Dateien von der Standardeingabe ein. Es ist sogar möglich, hierbei reguläre Ausdrücke zu verwenden. Mit folgender Befehlsausführung entpacken Sie das Archiv wieder:\n you@host > cpio -i < Shellbuch.cpio\n Wollen Sie nicht das komplette Archiv entpacken, sondern nur bestimmte Dateien, können Sie dies mit einem regulären Ausdruck wie folgt angeben:\n you@host > cpio -i \"*.txt\" < Shellbuch.cpio\n Hier entpacken Sie nur Textdateien mit der Endung ».txt«. Natürlich funktioniert das Ganze auch mit den verschiedensten Speichermedien:\n you@host > cpio -i \"*.txt\" < /dev/fd0\n Hier werden alle Textdateien von einer Diskette entpackt. Allerdings werden die Dateien immer ins aktuelle Arbeitsverzeichnis zurückgespielt, sodass Sie den Zielort schon zuvor angeben müssen, zum Beispiel:\n you@host > cd $HOME/Shellbuch/testdir ; \\ > cpio -i < /archive/Shellbuch.cpio\n Hier wechseln Sie zunächst in entsprechendes Verzeichnis, wo Sie anschließend das Archiv entpacken wollen. Wollen Sie außerdem erst wissen, was Sie entpacken, also was sich in einem cpio-Archiv für Dateien befinden, müssen Sie cpio nur mit der Option ât verwenden:\n you@host > cpio -t < Shellbuch.cpio ...\n copy pass\n Mit copy pass werden die Dateien von der Standardeingabe gelesen und in ein entsprechendes Verzeichnis kopiert, ohne dass ein Archiv erzeugt wird. Hierzu wird die Option âp eingesetzt. Voraussetzung ist natürlich, dass ein entsprechendes Verzeichnis existiert. Wenn nicht, können Sie zusätzlich die Option âd verwenden, womit dann ein solches Verzeichnis erzeugt wird.\n you@host > ls *.txt | cpio -pd /archive/testdir2\n Hiermit werden aus dem aktuellen Verzeichnis alle Textdateien in das Verzeichnis testdir2 kopiert. Der Aufruf entspricht demselben wie:\n you@host > cp *.txt /archive/testdir2\n Einen ganzen Verzeichnisbaum des aktuellen Arbeitsverzeichnisses könnten Sie somit mit folgendem Aufruf kopieren:\n you@host > find . -print | cpio -pd /archiv/testdir3\n afio\n afio bietet im Gegensatz zu cpio die Möglichkeit, die einzelnen Dateien zu komprimieren. Somit stellt afio eine interessante tar-Alternative dar (für jeden, der tar mit seinen typischen Optionsparametern nicht mag). afio komprimiert die einzelnen Dateien noch, bevor Sie in ein Archiv zusammengefasst werden. Ein einfaches Beispiel:\n you@host > ls *.txt | afio -o -Z Shellbook.afio\n Sie komprimieren zunächst alle Textdateien im aktuellen Verzeichnis und fassen dies dann in das Archiv Shellbook.afio zusammen. Die Platzeinsparung im Vergleich zu cpio ist beachtlich:\n you@host > ls -l Shellbook* -rw------- 1 tot users 209920 2005â04â24 14:59 Shellbook.afio -rw------- 1 tot users 640512 2005â04â24 15:01 Shellbook.cpio\n Entpacken können Sie das Archiv wieder wie bei cpio mit dem Schalter âi:\n you@host > afio -i -Z Shellbook.afio\n crypt â Dateien verschlüsseln \n Mit dem Kommando crypt wird ein ver-/entschlüsselnder Text von der Standardeingabe gelesen, um diesen wieder ver-/entschlüsselnd auf die Standardausgabe auszugeben.\n crypt 32asdf32 < file.txt > file.txt.crypt\n Hier wird beispielsweise die Datei file.txt eingelesen. Zum Verschlüsseln wurde das Passwort »32asdf32« verwendet. Der verschlüsselte, nicht mehr lesbare Text wird nun unter file.txt.crypt gespeichert. Jetzt sollte die Datei file.txt gelöscht werden.\n Wenn es um wichtige Daten geht, sollte man auch dafür sorgen, dass diese nicht wieder sichtbar gemacht werden können. Zuerst mit Zufallsdaten überschreiben und dann löschen â natürlich ein Fall für awk:\n you@host > dd if=/dev/urandom of=file.txt bs=1 \\ > count=`wc -c file.txt | awk '{ print $1 }'`; rm file.txt\n Die Datei file.txt.crypt können Sie mit\n crypt 32asdf32 < file.txt.crypt > file.txt\n wieder entschlüsseln. Wenn Sie das Passwort vergessen haben, dann werden Sie wohl ein großes Problem haben, die Verschlüsselung zu knacken.\n\n Hinweis   Beachten Sie bitte die Gesetzeslage zur Verschlüsselung in Ihrem Heimatland. Kryptographie ist inzwischen in einigen Ländern verboten. So darf man in Frankreich zum Beispiel kein PGP einsetzen. crypt gilt übrigens nicht wirklich als »starke« Kryptographie, da gibt es »Härteres«. Was nicht heißen soll, dass das so einfach knackbar wäre. Ich wüsste noch nicht einmal, ob es überhaupt knackbar ist.\n\n Hinweis   Da dump ein komplettes Dateisystem sichert, sollten Sie sicher sein, dass sich dieses in einem stabilen Zustand befindet. Denn ist das Dateisystem inkonsistent und Sie führen einen dump aus und wollen diesen dump irgendwann wieder einspielen, so spielen Sie auch sämtliche Instabiltäten mit ein. Daher empfiehlt sich als sicherster Weg der Single-User-Mode zum »Dumpen«.\n\n Eine feine Sache sind auch die Dump-Levels, welche einfache inkrementelle Backups erlauben. Dazu verwendet man ein Backup-Level zwischen 0 bis 9. 0 steht hierbei für ein Full-Backup und alle anderen Zahlen sind inkrementelle Backups. Dabei werden immer nur die Dateien gesichert, die sich seit dem letzten Backup verändert haben â sprich dessen Level kleiner oder gleich dem aktuellen war. Geben Sie bspw. einen Level-2-Backup-Auftrag mit dump an, so werden alle Dateien gesichert, die sich seit dem Level 0, 1, 2 und 3 verändert haben. \n Die Syntax zu dump/usfdump:\n dump -[0â9][u]f Archiv Verzeichnis\n In der Praxis schreiben Sie bspw. Folgendes:\n dump â0uf /dev/rmt/1 /\n Damit führen Sie ein komplettes Backup des Dateisystems durch. Alle Daten werden auf ein Band /dev/rmt/1 gesichert. Dieses Full-Backup müssen Sie zum Glück nur beim ersten Mal vornehmen (können es aber selbstverständlich immer durchführen), was gerade bei umfangreichen Dateisystemen Zeit raubend ist. Wollen Sie beim nächsten Mal jetzt immer die Dateien sichern, die sich seit dem letzten Dump-Level verändert haben, so müssen Sie nur den nächsten Level angeben:\n dump â1uf /dev/rmt/1 /\n Hierbei lassen sich richtige dump-Strategien einrichten, z. B. einmal in der Woche mit einem Shellscript einen Full-Backup-dump mit Level 0. In den darauf folgenden Tagen können Sie bspw. den Dump-Level jeweils um den Wert 1 erhöhen.\n Damit die Dump-Levels auch tadellos funktionieren, wird die Datei /etc/dumpdates benötigt, worin das Datum der letzten Sicherung gespeichert wird. Gewöhnlich müssen Sie diese Datei vor dem ersten inkrementellen Dump mittels »touch /etc/dumdates« anlegen. Damit dies auch mit dem dump-Aufruf klappt, wird die Option âu verwendet. Mit dieser Option wird das aktuelle Datum in der Datei /etc/dumpdates vermerkt. Die Option âu ist also sehr wichtig, wenn ein inkrementelles »Dumpen« funktionieren soll. Außerdem wurde die Option âf dateiname für die Standardausgabe verwendet. Fehlt diese Option, dann wird auf die Umgebungsvariable TAPE und letztlich auf einen einkompilierten »Standard« zurückgegriffen. Zwangsläufig müssen Sie also einen dump nicht auf ein Tape vornehmen (auch wenn dies ein häufiger Einsatz ist), sondern können auch mit der Angabe von âf eine andere Archiv-Datei nutzen:\n dump â0f /pfadzumArchiv/archiv_usr.121105 /usr\n Hier wird bspw. das Verzeichnis /usr in einer Archiv-Datei gesichert.\n Zum Wiederherstellen bzw. Zurücklesen von mit dump/ufsdump gesicherten Daten wird restore verwendet. Die Syntax von restore ähnelt der des Gegenstücks dump â allerdings findet man hier weitere Optionen für den Arbeitsmodus:\n\n Tabelle 14.20  Optionen für das Kommando restore/ufsrestore\n\n i\n Interaktives Rückspielen (interactive)\n\n r\n Wiederherstellen eines Dateisystems (rebuild)\n\n t\n Auflisten des Inhalts (table)\n\n x\n Extrahieren einzelner, als zusätzliche Argumente aufgeführter Dateien (extract). Verzeichnisse werden dabei rekursiv ausgepackt.\n\n So können Sie zum Beispiel das /usr-Dateisystem folgendermaßen mit restore wieder zurücksichern:\n # cd /usr # restore rf /pfadzumArchiv/archiv_usr.121105\n Wichtiges zu dump und restore noch zum Schluss. Da diese Werkzeuge auf einer Dateisystemebene arbeiten, ist die »Portabilität« der Archive recht unzuverlässig. Bedenken Sie, dass Sie unter Linux häufig einen dump auf ext2/ext3-Ebene durchführen und unter Solaris mit ufsdump eben auf UFS-Ebene. Sie können also nicht mal eben einen dump auf einem anderen Rechner vornehmen, bei dem bspw. als Dateisystem ext2 verwendet wurde, und diesen auf einen Rechner mit UFS als Dateisystem einspielen. Zwar klappt dies manchmal, wie bspw. zwischen Linux (ext2) und FreeBSD (UFS), doch leider kann man hierbei keine generelle Aussage treffen. Also sollten Sie sich mit den Dateisystemen schon sehr gut auskennen, um hier mit dump und restore zu experimentieren!\n Des Weiteren benötigt dump zum Erstellen eines kompletten Indexes des Dateisystems eine Menge Arbeitsspeicher. Bei einem kleinen Hauptspeicher sollten Sie den Swap-Bereich erheblich vergrößern.\n gzip/gunzip â (De-)Komprimieren von Dateien \n gzip komprimiert Dateien und fügt am Ende des Dateinamen die Endung ».gz« an. Die Originaldatei wird hierbei durch die komprimierte Datei ersetzt. gzip basiert auf dem deflate-Algorithmus, der eine Kombination aus LZ77 und Huffman-Kodierung ist. Der Zeitstempel einer Datei und auch die Zugriffsrechte bleiben beim Komprimieren und auch beim Entpacken mit gunzip erhalten.\n\n Hinweis   Sofern Sie Software-Entwickler in bspw. C sind und Datenkompression verwenden wollen, sollten Sie sich die Bibliothek zlib ansehen. Diese Bibliothek unterstützt das gzip-Dateiformat.\n\n Komprimieren können Sie eine oder mehrere Datei(en) ganz einfach mit:\n you@host > gzip file1.txt\n Und Dekomprimieren geht entweder mit gzip und der Option âd\n you@host > gzip -d file1.txt.gz\n oder mit gunzip:\n you@host > gunzip file1.txt.gz\n Wobei gunzip hier kein symbolischer Link ist, sondern ein echtes Kommando. gunzip kann neben gzip-Dateien auch Dateien dekomprimieren, die mit zip (eine_Datei), compress oder pack komprimiert wurden.\n Wollen Sie, dass beim (De-)Komprimieren nicht die Originaldatei berührt wird, so müssen Sie die Option âc verwenden:\n you@host > gzip -c file1.txt > file1.txt.gz\n Dies können Sie ebenso mit gunzip anwenden:\n you@host > gunzip -c file1.txt.gz > file1_neu.txt\n Damit lassen Sie die gzip-komprimierte Datei file1.txt.gz unberührt und erzeugen eine neue dekomprimierte Datei file1_neu.txt. Selbiges können Sie auch mit zcat erledigen:\n you@host > zcat file1.txt.gz > file1_neu.txt\n mt â Streamer steuern \n Mit mt können Magnetbänder vor- oder zurückgespult, positioniert und gelöscht werden. mt wird häufig in Shellscripts in Verbindung mit tar, cpio oder afio verwendet, weil jedes der Kommandos zwar auf Magnetbänder schreiben kann, aber diese nicht steuern können. So wird mt wie folgt in der Praxis verwendet:\n mt -f tape befehl [nummer]\n Mit »tape« geben Sie den Pfad zu Ihrem Bandlaufwerk an und mit »nummer«, wie oft »befehl« ausgeführt werden soll. Hierzu die gängigsten Befehle, die dabei eingesetzt werden:\n\n Tabelle 14.21  Befehle für das Kommando mt\n\n eom\n Band bis zum Ende der letzten Datei spulen. Ab hier kann mit tar, cpio und afio (oder gar dump/ufsdump) ein Backup aufgespielt werden.\n\n fsf Anzahl\n Das Band um »Anzahl« Archive (Dateiendemarken) vorspulen. Nicht gleichzusetzen mit der letzten Datei (eom).\n\n nbsf Anzahl\n Das Band um »Anzahl« Archive (Dateiendemarken) zurückspulen\n\n rewind\n Das Band an den Anfang zurückspulen\n\n status\n Statusinformationen vom Magnetlaufwerk ermitteln und ausgeben (bspw. ist ein Band eingelegt oder nicht)\n\n erase\n Das Band löschen und initialisieren\n\n retension\n Das Band einmal ans Ende spulen und wieder zum Anfang zurück, um es neu zu »spannen«\n\n offline\n Band zum Anfang zurückspulen und auswerfen\n\n pack/unpack â (De-)Komprimieren von Dateien \n Diese beiden Programme werden nur noch der Vollständigkeit erwähnt und sind mittlerweile von älteren Semestern. Eine mit pack komprimiert Datei hat die Endung ».z« und kann mit unpack (oder gunzip) wieder entpackt werden.\n tar â Dateien und Verzeichnisse archivieren \n tar (tape archiver) wurde ursprünglich zur Verwaltung von Bandarchiven verwendet. Mittlerweile aber wird tar auch auf Disketten oder normale Dateien oder Verzeichnisse angewendet. Das Kommando wird zur Erstellung von Sicherungen bzw. Archiven sowie zu ihrem Zurückladen genutzt.\n tar funktion [optionen] [datei(en)]\n Mit »funktion« geben Sie an, wie die Erstellung bzw. das Zurückladen von Archiven erfolgen soll. Mit »datei(en)« bestimmen Sie, welche Dateien oder Dateibäume herausgeschrieben oder wieder eingelesen werden sollen. Gibt man hierbei ein Verzeichnis an, so wird der gesamte darin enthaltene Dateibaum verwendet. Gewöhnlich werden Archive mittels tar nicht komprimiert, aber auch hier kann man mit tar die Ein- und Ausgabe durch einen Kompressor leiten. Neuere Versionen unterstützen sowohl compress als auch gzip und bzip2, das inzwischen einen recht hohen Stellenwert hat. Das gilt auch nicht nur für GNU-tar.\n tar (besonders GNU-tar) ist gewaltig, was die Anzahl von Funktionen und Optionen betrifft. Da tar eigentlich zu einem sehr beliebten Archivierungswerkzeug gehört, sollen hierbei auch mehrere Optionen und Funktionen erwähnt werden.\n\n Hinweis   Um mich hier nicht auf einen Glaubenskrieg von tar-Fanatikern einzulassen (die gibt es wirklich), sei erwähnt, dass es viele tar-Versionen gibt (GNU-tar, star, bsdtar, usw.). Gewöhnlich reicht für den Normalanwender GNU-tar aus â aber es gibt auch Anwender, die auf star schwören, was in punkto Funktionsumfang der »Overkill« ist. Ich mache es mir hier jetzt einfach, indem ich darauf hinweise, dass die Funktionen, die gleich folgen werden, nicht von allen tar-Versionen unterstützt werden (wohl aber von GNU-tar).\n\n Tabelle 14.22  Optionen für das Kommando tar\n\n âA\n Hängt ein komplettes Archiv an ein zweites vorhandenes Archiv an (oder fügt es auf dem Band hinten an)\n\n âc\n Erzeugt ein neues Archiv\n\n âd\n Vergleicht die im Archiv abgelegten Dateien mit den angegebenen Dateien\n\n ââdelete Datei(en)\n Löscht die angegebenen »Datei(en)« aus dem Archiv (nicht für Magnetbänder)\n\n âr\n Erwähnte Dateien werden ans Ende von einem bereits existierenden Archiv angehängt (nicht für Magnetbänder)\n\n ât\n Zeigt den Inhalt eines Archivs an\n\n âu\n Benannte Dateien werden nur dann ins Archiv aufgenommen, wenn diese neuer als die bereits archivierten Versionen oder noch überhaupt nicht im Archiv vorhanden sind (nicht für Magnetbänder).\n\n âx\n Bestimmte Dateien sollen aus einem Archiv gelesen werden; werden keine Dateien erwähnt, werden alle Dateien aus dem Archiv extrahiert.\n\n Tabelle 14.23  Zusatzoptionen für das Kommando tar\n\n âf Datei\n Benutzt »Datei« oder das damit verbundenen Gerät als Archiv; die Datei darf auch Teil von einem anderen Rechner sein.\n\n âl\n Geht beim Archivieren nicht über die Dateisystemgrenze hinaus\n\n âv\n tar gibt gewöhnlich keine speziellen Meldungen aus; mit dieser Option wird jede Aktion von tar gemeldet.\n\n âw\n Schaltet tar in einen interaktiven Modus, wo zu jeder Aktion eine Bestätigung erfolgen muss\n\n ây\n Komprimiert oder dekomrimiert die Dateien bei einer tar-Operation mit bzip2\n\n âz\n Komprimiert oder dekomprimiert die Dateien bei einer tar-Operation mit gzip bzw. gunzip\n\n âZ\n Komprimiert oder dekomprimiert die Dateien bei einer tar-Operation mit compress bzw. uncompress\n\n Neben diesen zusätzlichen Optionen bietet tar noch eine Menge Schalter mehr an. Weitere Informationen entnehmen Sie bei Bedarf der man-Seite zu tar. Allerdings dürften Sie mit den hier genannten Optionen recht weit kommen. Daher hierzu einige Beispiele.\n Am häufigsten wird tar wohl in folgender Grundform verwendet:\n tar cf Archiv_Name Verzeichnis\n Damit wird aus dem Verzeichniszweig Verzeichnis ein Archiv mit dem Namen Archiv_Name erstellt. In der Praxis:\n you@host > tar cf Shellbuch_mai05 Shellbuch\n Aus dem kompletten Verzeichniszweig Shellbuch wird das Archiv Shellbuch_mai05 erstellt. Damit Sie beim Zurückspielen der Daten flexibler sind, sollten Sie einen relativen Verzeichnispfad angeben:\n cd Verzeichnis ; tar cf Archiv_Name .\n Im Beispiel:\n you@host > cd Shellbuch ; tar cf Shellbuch_mai05 .\n Hierfür steht Ihnen für das relative Verzeichnis auch die Option âC Verzeichnis zur Verfügung:\n tar cf Archiv_Name -C Verzeichnis .\n Wollen Sie die Dateien und Verzeichnisse des Archivs wiederherstellen, lautet der gängige Befehl hierzu wie folgt:\n tar xf Archiv_Name\n Um auf unser Beispiel zurückzukommen:\n you@host > tar xf Shellbuch_mai05\n Wollen Sie einzelne Dateien aus einem Archiv wiederherstellen, so ist dies auch kein allzu großer Aufwand:\n tar xf Shellbuch_mai05 datei1 datei2 ...\n Beachten Sie allerdings, wie Sie die Datei ins Archiv gesichert haben (relativer oder absoluter Pfad). Wollen Sie bspw. die Datei Shellbook.cpio mit dem relativen Pfad wiederherstellen, so können Sie dies wie folgt tun:\n you@host > tar xf Shellbuch_mai05 ./Shellbook.cpio\n\n Hinweis   Ein häufiger Fehler, wenn etwas mit tar nicht klappt, ist eine falsche Pfadangabe. Man sollte daher immer überlegen, wo liegt das Archiv, wo soll rückgesichert werden und wie wurden die Dateien ins Archiv aufgenommen (absoluter oder relativer Pfad).\n\n Wollen Sie außerdem mitverfolgen, was beim Erstellen oder Auspacken eines Archivs alles passiert, sollten Sie die Option v verwenden. Hierbei können Sie außerdem gleich erkennen, ob Sie die Dateien mit dem absoluten oder relativen Pfad gesichert haben.\n # neues Archiv erzeugen mit Ausgabe aller Aktionen tar cvf Archiv_Name Verzeichnis # Archiv zurückspielen, mit Ausgabe aller Aktionen tar xvf Archiv_Name\n Den Inhalt eines Archivs können Sie mit der Option t ansehen:\n tar tf Archiv_Name\n In unserem Beispiel:\n you@host > tar tf Shellbuch_mai05 ./ ./Planung_und_Bewerbung/ ./Planung_und_Bewerbung/shellprogrammierung.doc ./Planung_und_Bewerbung/shellprogrammierung.sxw ./kap004.txt ./kap005.txt ./testdir2/ ...\n Hier wurde also der relative Pfadname verwendet. Wollen Sie ein ganzes Verzeichnis auf Diskette sichern, erledigen Sie dies folgendermaßen:\n tar cf /dev/fd0 Shellbuch\n Hier kopieren Sie das ganze Verzeichnis auf eine Diskette. Zurückspielen können Sie das Ganze wieder wie folgt:\n tar xvf /dev/fd0 Shellbuch\n Wollen Sie einen kompletten Verzeichnisbaum mit Kompression archivieren (bspw. mit gzip), gehen Sie so vor:\n you@host > tar czvf Shellbuch_mai05.tgz Shellbuch\n Dank der Option z wird jetzt das ganze Archiv auch noch komprimiert. Ansehen können Sie sich das komprimierte Archiv weiterhin mit der Option t:\n you@host > tar tzf Shellbuch_mai05.tgz Shellbuch Shellbuch/ Shellbuch/Planung_und_Bewerbung/ Shellbuch/Planung_und_Bewerbung/shellprogrammierung.doc Shellbuch/Planung_und_Bewerbung/shellprogrammierung.sxw Shellbuch/kap004.txt Shellbuch/kap005.txt Shellbuch/testdir2/ ...\n Hier wurde also der absolute Pfadname verwendet. Entpacken und wieder einspielen können Sie das komprimierte Archiv wieder mit (mit Meldungen):\n you@host > tar xzvf Shellbuch_mai05.tgz Shellbuch\n Wollen Sie allerdings nur Dateien mit der Endung ».txt« aus dem Archiv extrahieren, können Sie dies so vornehmen:\n you@host > tar xzf Shellbuch_mai05.tgz '*.txt'\n zip/unzip â (De-)Komprimieren von Dateien \n Mit zip können Sie einzelne Dateien bis hin zu ganzen Verzeichnissen komprimieren und archivieren. Besonders gern werden zip und unzip allerdings verwendet, weil diese gänzlich mit den Versionen von Windows und DOS kompatibel sind. Wer sich also immer schon geärgert hat, dass sein Mail-Anhang wieder einmal etwas im ZIP-Format enthält, kann hier auf unzip zurückgreifen.\n Ein ZIP-Archiv aus mehreren Dateien können Sie so erstellen:\n you@host > zip files.zip file1.txt file2.txt file3.txt adding: file1.txt (deflated 56 %) adding: file2.txt (deflated 46 %) adding: file3.txt (deflated 24 %)\n Hier packen und komprimieren Sie die Dateien zu einem Archiv namens files.zip. Wollen Sie eine neue Datei zum Archiv hinzufügen, nichts einfacher als das:\n you@host > zip files.zip hallo.c adding: hallo.c (deflated 3 %)\n Möchten Sie alle Dateien des Archivs in das aktuelle Arbeitsverzeichnis entpacken, dann tun Sie dies so:\n you@host > unzip files.zip Archive: files.zip inflating: file1.txt inflating: file2.txt inflating: file3.txt inflating: hallo.c\n Wenn Sie eine ganze Verzeichnishierarchie packen und komprimieren wollen, so müssen Sie die Option âr (rekursive) verwenden:\n you@host > zip -r Shellbuch.zip $HOME/Shellbuch ...\n Entpacken können Sie das Archiv allerdings wieder wie gewohnt mittels unzip.\n Übersicht zu Dateiendungen und den Pack-Programmen \n In der folgenden Tabelle wird eine kurze Übersicht zu den Dateiendungen und den zugehörigen (De-)Komprimierungsprogrammen gegeben.\n\n Tabelle 14.24  Gängige Endungen und deren (De-)Kompremierungs-Kommando\n\n Endung\n gepackt mit\n entpackt mit\n\n *.bz und *.bz2\n bzip2\n bzip2\n\n *.gz\n gzip\n gzip, gunzip oder zcat\n\n *.zip\n InfoâZip, PKZip, zip\n InfoâUnzip, PKUnzip, unzip, gunzip (eineDatei)\n\n *.tar\n tar\n tar\n\n *.tbz\n tar und bzip2\n tar und bzip2\n\n *.tgz; *.tar.gz\n tar und gzip\n tar und g(un)zip\n\n *.Z\n compress\n uncompress; gunzip\n\n *.tar.Z\n tar und compress\n tar und uncompress\n\n *.pak\n pack\n unpack, gunzip\n\n## 14.8 Archivierung und BackupÂ\n\n### bzip2/bunzip2 â (De-)Komprimieren von DateienÂ\n\nbzip2 ist dem Kommando gzip nicht unähnlich, nur dass bzip2 einen besseren Komprimierungsgrad als gzip erreicht. bzip arbeitet mit dem Burrows-Wheeler Block-Sorting-Algorithmus, der den Text zwar nicht komprimiert, aber leichter komprimierbar macht, sowie mit der Huffman-Kodierung. Allerdings ist die Kompression mit bzip2 erheblich besser, aber dafür auch erheblich langsamer, sofern die Geschwindigkeit eine Rolle spielen sollte. Alle Dateien, die mit bzip2 komprimiert werden, bekommen automatisch die Dateiendung ».bz2«. TAR-Dateien, die mit bzip2 komprimiert werden, erhalten üblicherweise die Endung ».tbz«. Die »2« hinter bzip2 bzw. bunzip2 kam dadurch, dass der Vorgänger bzip lautete, der allerdings aus patentrechtlichen Gründen nicht mehr weiterentwickelt wurde. Komprimieren können Sie Dateien mit bzip2 folgendermaßen:\n > you@host > bzip2 file.txt\n\nEntpacken können Sie die komprimierte Datei wieder mit der Option âd und bzip2 oder mit bunzip2.\n > you@host > bzip2 -d file.txt.bz2\n\noder\n > you@host > bunzip2 file.txt.bz2\n\nSie können gern bzip2 mit der Option âd bevorzugen, weil bunzip2 wieder nichts anderes ist als ein Link auf bzip2, wobei allerdings automatisch die Option âd verwendet wird:\n > you@host > which bunzip2 /usr/bin/bunzip2 you@host > ls -l /usr/bin/bunzip2 lrwxrwxrwx 1 root root 5 /usr/bin/bunzip2 -> bzip2\n\nInteressant in diesem Zusammenhang ist auch das Kommando bzcat, womit Sie bzip2-komprimierte Dateien lesen können, ohne diese vorher zu dekomprimieren.\n > you@host > bzcat file.txt.bz2 ...\n\n### compress/uncompress â (De-)Komprimieren von DateienÂ\n\ncompress zum Komprimieren und uncompress zum Dekomprimieren wird heute zwar kaum noch verwendet, aber man sollte beide aus Kompatibilitätsgründen hier doch erwähnen, falls Sie einmal auf ein Uralt-Archiv stoßen, bei dem die Dateien mit einem ».Z« enden. compress beruht auf einer älteren Version des Lempel-Ziv-Algorithmus.\n\n### cpio, afio â Dateien und Verzeichnisse archivierenÂ\n\ncpio (copy in and out) eignet sich hervorragend, um ganze Verzeichnisbäume zu archivieren. Etwas ungewöhnlich auf de ersten Blick ist, dass cpio die zu archivierenden Dateien nicht von der Kommandozeile, sondern von der Standardeingabe liest. Häufig wird daher cpio in Verbindung mit den Kommandos ls oder find und einer Pipe verwendet. Damit ist es möglich, ein spezielles Archiv zu erzeugen, das den Eigentümer, die Zugriffsrechte, die Erzeugungszeit, die Dateigröße usw. berücksichtigt. Gewöhnlich wird cpio in drei verschiedenen Arten aufgerufen.\n\n# copy out\n\nDiese Art wird mit der Option âo bzw. ââcreate verwendet. So werden die Pfadnamen der zu kopierenden Dateien von der Standardeingabe eingelesen und auf die Standardausgabe kopiert. Dabei können Dinge, wie etwa der Eigentümer, die Zugriffsrechte, die Dateigröße etc., berücksichtigt bzw. ausgegeben werden. Gewöhnlich verwendet man copy out mit einer Pipe und einer Umlenkung:\n > you@host > cd Shellbuch you@host > ls Kap003.txt kap005.txt~ Kap008.txt Kap010.txt~ Kap013.txt Kap001.doc Kap003.txt~ Kap006.txt Kap008.txt~ Kap011.txt Kap013.txt~ Kap001.sxw kap004.txt Kap006.txt~ Kap009.txt Kap011.txt~ Kap014.txt Kap002.doc kap004.txt~ Kap007.txt Kap009.txt~ Kap012.txt Kap014.txt~ Kap002.sxw kap005.txt Kap007.txt~ Kap010.txt Kap012.txt~ Planung_und_Bewerbung chm_pdf you@host > ls *.txt | cpio -o > Shellbuch.cpio 1243 blocks\n\nHier wurden z. B. alle Textdateien im Verzeichnis Shellbuch zu einem cpio-Archiv (Shellbuch.cpio) gepackt. Allerdings konnten hier nur bestimmte Dateien erfasst werden. Wollen Sie ganze Verzeichnisbäume archivieren, dann verwenden Sie das Kommando find:\n > you@host > find $HOME/Shellbuch -print | cpio -o > Shellbuch.cpio cpio: ~/Shellbuch: truncating inode number cpio: ~/Shellbuch/Planung_und_Bewerbung: truncating inode number cpio: ~/Shellbuch/chm_pdf: truncating inode number 130806 blocks\n\nNatürlich können Sie hierbei mit find-üblichen Anweisungen nur bestimmte Dateien archivieren. Ebenso lassen sich Dateien auch auf ein anderes Laufwerk archivieren:\n > you@host > ls -a | cpio -o > /dev/fd0\n\nHier wurden beispielsweise alle Dateien des aktuellen Verzeichnisses auf die Diskette kopiert. Dabei können Sie genauso gut einen Streamer, eine andere Festplatte oder gar einen anderen Rechner verwenden.\n\n# copy in\n\nWollen Sie das mit cpio âo erzeugte Archiv wieder entpacken bzw. zurückspielen, so wird cpio mit dem Schalter âi bzw. ââextract verwendet. Damit liest cpio die archivierten Dateien von der Standardeingabe ein. Es ist sogar möglich, hierbei reguläre Ausdrücke zu verwenden. Mit folgender Befehlsausführung entpacken Sie das Archiv wieder:\n > you@host > cpio -i < Shellbuch.cpio\n\nWollen Sie nicht das komplette Archiv entpacken, sondern nur bestimmte Dateien, können Sie dies mit einem regulären Ausdruck wie folgt angeben:\n > you@host > cpio -i \"*.txt\" < Shellbuch.cpio\n\nHier entpacken Sie nur Textdateien mit der Endung ».txt«. Natürlich funktioniert das Ganze auch mit den verschiedensten Speichermedien:\n > you@host > cpio -i \"*.txt\" < /dev/fd0\n\nHier werden alle Textdateien von einer Diskette entpackt. Allerdings werden die Dateien immer ins aktuelle Arbeitsverzeichnis zurückgespielt, sodass Sie den Zielort schon zuvor angeben müssen, zum Beispiel:\n > you@host > cd $HOME/Shellbuch/testdir ; \\ > cpio -i < /archive/Shellbuch.cpio\n\nHier wechseln Sie zunächst in entsprechendes Verzeichnis, wo Sie anschließend das Archiv entpacken wollen. Wollen Sie außerdem erst wissen, was Sie entpacken, also was sich in einem cpio-Archiv für Dateien befinden, müssen Sie cpio nur mit der Option ât verwenden:\n > you@host > cpio -t < Shellbuch.cpio ...\n\n# copy pass\n\nMit copy pass werden die Dateien von der Standardeingabe gelesen und in ein entsprechendes Verzeichnis kopiert, ohne dass ein Archiv erzeugt wird. Hierzu wird die Option âp eingesetzt. Voraussetzung ist natürlich, dass ein entsprechendes Verzeichnis existiert. Wenn nicht, können Sie zusätzlich die Option âd verwenden, womit dann ein solches Verzeichnis erzeugt wird.\n > you@host > ls *.txt | cpio -pd /archive/testdir2\n\nHiermit werden aus dem aktuellen Verzeichnis alle Textdateien in das Verzeichnis testdir2 kopiert. Der Aufruf entspricht demselben wie:\n > you@host > cp *.txt /archive/testdir2\n\nEinen ganzen Verzeichnisbaum des aktuellen Arbeitsverzeichnisses könnten Sie somit mit folgendem Aufruf kopieren:\n > you@host > find . -print | cpio -pd /archiv/testdir3\n\n# afio\n\nafio bietet im Gegensatz zu cpio die Möglichkeit, die einzelnen Dateien zu komprimieren. Somit stellt afio eine interessante tar-Alternative dar (für jeden, der tar mit seinen typischen Optionsparametern nicht mag). afio komprimiert die einzelnen Dateien noch, bevor Sie in ein Archiv zusammengefasst werden. Ein einfaches Beispiel:\n > you@host > ls *.txt | afio -o -Z Shellbook.afio\n\nSie komprimieren zunächst alle Textdateien im aktuellen Verzeichnis und fassen dies dann in das Archiv Shellbook.afio zusammen. Die Platzeinsparung im Vergleich zu cpio ist beachtlich:\n > you@host > ls -l Shellbook* -rw------- 1 tot users 209920 2005â04â24 14:59 Shellbook.afio -rw------- 1 tot users 640512 2005â04â24 15:01 Shellbook.cpio\n\nEntpacken können Sie das Archiv wieder wie bei cpio mit dem Schalter âi:\n > you@host > afio -i -Z Shellbook.afio\n\n### crypt â Dateien verschlüsselnÂ\n\nMit dem Kommando crypt wird ein ver-/entschlüsselnder Text von der Standardeingabe gelesen, um diesen wieder ver-/entschlüsselnd auf die Standardausgabe auszugeben.\n > crypt 32asdf32 < file.txt > file.txt.crypt\n\nHier wird beispielsweise die Datei file.txt eingelesen. Zum Verschlüsseln wurde das Passwort »32asdf32« verwendet. Der verschlüsselte, nicht mehr lesbare Text wird nun unter file.txt.crypt gespeichert. Jetzt sollte die Datei file.txt gelöscht werden.\n\nWenn es um wichtige Daten geht, sollte man auch dafür sorgen, dass diese nicht wieder sichtbar gemacht werden können. Zuerst mit Zufallsdaten überschreiben und dann löschen â natürlich ein Fall für awk:\n > you@host > dd if=/dev/urandom of=file.txt bs=1 \\ > count=`wc -c file.txt | awk '{ print $1 }'`; rm file.txt\n\nDie Datei file.txt.crypt können Sie mit\n > crypt 32asdf32 < file.txt.crypt > file.txt\n\nwieder entschlüsseln. Wenn Sie das Passwort vergessen haben, dann werden Sie wohl ein großes Problem haben, die Verschlüsselung zu knacken.\n\n### dump/restore bzw. ufsdump/ufsrestore â Vollsicherung bzw. Wiederherstellen eines DateisystemsÂ\n\nEine feine Sache sind auch die Dump-Levels, welche einfache inkrementelle Backups erlauben. Dazu verwendet man ein Backup-Level zwischen 0 bis 9. 0 steht hierbei für ein Full-Backup und alle anderen Zahlen sind inkrementelle Backups. Dabei werden immer nur die Dateien gesichert, die sich seit dem letzten Backup verändert haben â sprich dessen Level kleiner oder gleich dem aktuellen war. Geben Sie bspw. einen Level-2-Backup-Auftrag mit dump an, so werden alle Dateien gesichert, die sich seit dem Level 0, 1, 2 und 3 verändert haben.\n\nDie Syntax zu dump/usfdump:\n > dump -[0â9][u]f Archiv Verzeichnis\n\nIn der Praxis schreiben Sie bspw. Folgendes:\n > dump â0uf /dev/rmt/1 /\n\nDamit führen Sie ein komplettes Backup des Dateisystems durch. Alle Daten werden auf ein Band /dev/rmt/1 gesichert. Dieses Full-Backup müssen Sie zum Glück nur beim ersten Mal vornehmen (können es aber selbstverständlich immer durchführen), was gerade bei umfangreichen Dateisystemen Zeit raubend ist. Wollen Sie beim nächsten Mal jetzt immer die Dateien sichern, die sich seit dem letzten Dump-Level verändert haben, so müssen Sie nur den nächsten Level angeben:\n > dump â1uf /dev/rmt/1 /\n\nHierbei lassen sich richtige dump-Strategien einrichten, z. B. einmal in der Woche mit einem Shellscript einen Full-Backup-dump mit Level 0. In den darauf folgenden Tagen können Sie bspw. den Dump-Level jeweils um den Wert 1 erhöhen.\n\nDamit die Dump-Levels auch tadellos funktionieren, wird die Datei /etc/dumpdates benötigt, worin das Datum der letzten Sicherung gespeichert wird. Gewöhnlich müssen Sie diese Datei vor dem ersten inkrementellen Dump mittels »touch /etc/dumdates« anlegen. Damit dies auch mit dem dump-Aufruf klappt, wird die Option âu verwendet. Mit dieser Option wird das aktuelle Datum in der Datei /etc/dumpdates vermerkt. Die Option âu ist also sehr wichtig, wenn ein inkrementelles »Dumpen« funktionieren soll. Außerdem wurde die Option âf dateiname für die Standardausgabe verwendet. Fehlt diese Option, dann wird auf die Umgebungsvariable TAPE und letztlich auf einen einkompilierten »Standard« zurückgegriffen. Zwangsläufig müssen Sie also einen dump nicht auf ein Tape vornehmen (auch wenn dies ein häufiger Einsatz ist), sondern können auch mit der Angabe von âf eine andere Archiv-Datei nutzen:\n > dump â0f /pfadzumArchiv/archiv_usr.121105 /usr\n\nHier wird bspw. das Verzeichnis /usr in einer Archiv-Datei gesichert.\n\nZum Wiederherstellen bzw. Zurücklesen von mit dump/ufsdump gesicherten Daten wird restore verwendet. Die Syntax von restore ähnelt der des Gegenstücks dump â allerdings findet man hier weitere Optionen für den Arbeitsmodus:\n\nOption | Bedeutung |\n | --- | --- |\ni | Interaktives Rückspielen (interactive) |\nr | Wiederherstellen eines Dateisystems (rebuild) |\nt | Auflisten des Inhalts (table) |\nx | Extrahieren einzelner, als zusätzliche Argumente aufgeführter Dateien (extract). Verzeichnisse werden dabei rekursiv ausgepackt. |\n\nSo können Sie zum Beispiel das /usr-Dateisystem folgendermaßen mit restore wieder zurücksichern:\n > # cd /usr # restore rf /pfadzumArchiv/archiv_usr.121105\n\nWichtiges zu dump und restore noch zum Schluss. Da diese Werkzeuge auf einer Dateisystemebene arbeiten, ist die »Portabilität« der Archive recht unzuverlässig. Bedenken Sie, dass Sie unter Linux häufig einen dump auf ext2/ext3-Ebene durchführen und unter Solaris mit ufsdump eben auf UFS-Ebene. Sie können also nicht mal eben einen dump auf einem anderen Rechner vornehmen, bei dem bspw. als Dateisystem ext2 verwendet wurde, und diesen auf einen Rechner mit UFS als Dateisystem einspielen. Zwar klappt dies manchmal, wie bspw. zwischen Linux (ext2) und FreeBSD (UFS), doch leider kann man hierbei keine generelle Aussage treffen. Also sollten Sie sich mit den Dateisystemen schon sehr gut auskennen, um hier mit dump und restore zu experimentieren!\n\nDes Weiteren benötigt dump zum Erstellen eines kompletten Indexes des Dateisystems eine Menge Arbeitsspeicher. Bei einem kleinen Hauptspeicher sollten Sie den Swap-Bereich erheblich vergrößern.\n\n### gzip/gunzip â (De-)Komprimieren von DateienÂ\n\ngzip komprimiert Dateien und fügt am Ende des Dateinamen die Endung ».gz« an. Die Originaldatei wird hierbei durch die komprimierte Datei ersetzt. gzip basiert auf dem deflate-Algorithmus, der eine Kombination aus LZ77 und Huffman-Kodierung ist. Der Zeitstempel einer Datei und auch die Zugriffsrechte bleiben beim Komprimieren und auch beim Entpacken mit gunzip erhalten.\n\nKomprimieren können Sie eine oder mehrere Datei(en) ganz einfach mit:\n > you@host > gzip file1.txt\n\nUnd Dekomprimieren geht entweder mit gzip und der Option âd\n > you@host > gzip -d file1.txt.gz\n\noder mit gunzip:\n > you@host > gunzip file1.txt.gz\n\nWobei gunzip hier kein symbolischer Link ist, sondern ein echtes Kommando. gunzip kann neben gzip-Dateien auch Dateien dekomprimieren, die mit zip (eine_Datei), compress oder pack komprimiert wurden.\n\nWollen Sie, dass beim (De-)Komprimieren nicht die Originaldatei berührt wird, so müssen Sie die Option âc verwenden:\n > you@host > gzip -c file1.txt > file1.txt.gz\n\nDies können Sie ebenso mit gunzip anwenden:\n > you@host > gunzip -c file1.txt.gz > file1_neu.txt\n\nDamit lassen Sie die gzip-komprimierte Datei file1.txt.gz unberührt und erzeugen eine neue dekomprimierte Datei file1_neu.txt. Selbiges können Sie auch mit zcat erledigen:\n > you@host > zcat file1.txt.gz > file1_neu.txt\n\n### mt â Streamer steuernÂ\n\nMit mt können Magnetbänder vor- oder zurückgespult, positioniert und gelöscht werden. mt wird häufig in Shellscripts in Verbindung mit tar, cpio oder afio verwendet, weil jedes der Kommandos zwar auf Magnetbänder schreiben kann, aber diese nicht steuern können. So wird mt wie folgt in der Praxis verwendet:\n > mt -f tape befehl [nummer]\n\nMit »tape« geben Sie den Pfad zu Ihrem Bandlaufwerk an und mit »nummer«, wie oft »befehl« ausgeführt werden soll. Hierzu die gängigsten Befehle, die dabei eingesetzt werden:\n\nBefehl | Bedeutung |\n | --- | --- |\neom | Band bis zum Ende der letzten Datei spulen. Ab hier kann mit tar, cpio und afio (oder gar dump/ufsdump) ein Backup aufgespielt werden. |\nfsf Anzahl | Das Band um »Anzahl« Archive (Dateiendemarken) vorspulen. Nicht gleichzusetzen mit der letzten Datei (eom). |\nnbsf Anzahl | Das Band um »Anzahl« Archive (Dateiendemarken) zurückspulen |\nrewind | Das Band an den Anfang zurückspulen |\nstatus | Statusinformationen vom Magnetlaufwerk ermitteln und ausgeben (bspw. ist ein Band eingelegt oder nicht) |\nerase | Das Band löschen und initialisieren |\nretension | Das Band einmal ans Ende spulen und wieder zum Anfang zurück, um es neu zu »spannen« |\noffline | Band zum Anfang zurückspulen und auswerfen |\n\n### pack/unpack â (De-)Komprimieren von DateienÂ\n\nDiese beiden Programme werden nur noch der Vollständigkeit erwähnt und sind mittlerweile von älteren Semestern. Eine mit pack komprimiert Datei hat die Endung ».z« und kann mit unpack (oder gunzip) wieder entpackt werden.\n\n### tar â Dateien und Verzeichnisse archivierenÂ\n\ntar (tape archiver) wurde ursprünglich zur Verwaltung von Bandarchiven verwendet. Mittlerweile aber wird tar auch auf Disketten oder normale Dateien oder Verzeichnisse angewendet. Das Kommando wird zur Erstellung von Sicherungen bzw. Archiven sowie zu ihrem Zurückladen genutzt.\n > tar funktion [optionen] [datei(en)]\n\nMit »funktion« geben Sie an, wie die Erstellung bzw. das Zurückladen von Archiven erfolgen soll. Mit »datei(en)« bestimmen Sie, welche Dateien oder Dateibäume herausgeschrieben oder wieder eingelesen werden sollen. Gibt man hierbei ein Verzeichnis an, so wird der gesamte darin enthaltene Dateibaum verwendet. Gewöhnlich werden Archive mittels tar nicht komprimiert, aber auch hier kann man mit tar die Ein- und Ausgabe durch einen Kompressor leiten. Neuere Versionen unterstützen sowohl compress als auch gzip und bzip2, das inzwischen einen recht hohen Stellenwert hat. Das gilt auch nicht nur für GNU-tar.\n\ntar (besonders GNU-tar) ist gewaltig, was die Anzahl von Funktionen und Optionen betrifft. Da tar eigentlich zu einem sehr beliebten Archivierungswerkzeug gehört, sollen hierbei auch mehrere Optionen und Funktionen erwähnt werden.\n\nOption | Bedeutung |\n | --- | --- |\nâA | Hängt ein komplettes Archiv an ein zweites vorhandenes Archiv an (oder fügt es auf dem Band hinten an) |\nâc | Erzeugt ein neues Archiv |\nâd | Vergleicht die im Archiv abgelegten Dateien mit den angegebenen Dateien |\nââdelete Datei(en) | Löscht die angegebenen »Datei(en)« aus dem Archiv (nicht für Magnetbänder) |\nâr | Erwähnte Dateien werden ans Ende von einem bereits existierenden Archiv angehängt (nicht für Magnetbänder) |\nât | Zeigt den Inhalt eines Archivs an |\nâu | Benannte Dateien werden nur dann ins Archiv aufgenommen, wenn diese neuer als die bereits archivierten Versionen oder noch überhaupt nicht im Archiv vorhanden sind (nicht für Magnetbänder). |\nâx | Bestimmte Dateien sollen aus einem Archiv gelesen werden; werden keine Dateien erwähnt, werden alle Dateien aus dem Archiv extrahiert. |\n\nOption | Bedeutung |\n | --- | --- |\nâf Datei | Benutzt »Datei« oder das damit verbundenen Gerät als Archiv; die Datei darf auch Teil von einem anderen Rechner sein. |\nâl | Geht beim Archivieren nicht über die Dateisystemgrenze hinaus |\nâv | tar gibt gewöhnlich keine speziellen Meldungen aus; mit dieser Option wird jede Aktion von tar gemeldet. |\nâw | Schaltet tar in einen interaktiven Modus, wo zu jeder Aktion eine Bestätigung erfolgen muss |\nây | Komprimiert oder dekomrimiert die Dateien bei einer tar-Operation mit bzip2 |\nâz | Komprimiert oder dekomprimiert die Dateien bei einer tar-Operation mit gzip bzw. gunzip |\nâZ | Komprimiert oder dekomprimiert die Dateien bei einer tar-Operation mit compress bzw. uncompress |\n\nNeben diesen zusätzlichen Optionen bietet tar noch eine Menge Schalter mehr an. Weitere Informationen entnehmen Sie bei Bedarf der man-Seite zu tar. Allerdings dürften Sie mit den hier genannten Optionen recht weit kommen. Daher hierzu einige Beispiele.\n\nAm häufigsten wird tar wohl in folgender Grundform verwendet:\n > tar cf Archiv_Name Verzeichnis\n\nDamit wird aus dem Verzeichniszweig Verzeichnis ein Archiv mit dem Namen Archiv_Name erstellt. In der Praxis:\n > you@host > tar cf Shellbuch_mai05 Shellbuch\n\nAus dem kompletten Verzeichniszweig Shellbuch wird das Archiv Shellbuch_mai05 erstellt. Damit Sie beim Zurückspielen der Daten flexibler sind, sollten Sie einen relativen Verzeichnispfad angeben:\n > cd Verzeichnis ; tar cf Archiv_Name .\n\nIm Beispiel:\n > you@host > cd Shellbuch ; tar cf Shellbuch_mai05 .\n\nHierfür steht Ihnen für das relative Verzeichnis auch die Option âC Verzeichnis zur Verfügung:\n > tar cf Archiv_Name -C Verzeichnis .\n\nWollen Sie die Dateien und Verzeichnisse des Archivs wiederherstellen, lautet der gängige Befehl hierzu wie folgt:\n > tar xf Archiv_Name\n\nUm auf unser Beispiel zurückzukommen:\n > you@host > tar xf Shellbuch_mai05\n\nWollen Sie einzelne Dateien aus einem Archiv wiederherstellen, so ist dies auch kein allzu großer Aufwand:\n > tar xf Shellbuch_mai05 datei1 datei2 ...\n\nBeachten Sie allerdings, wie Sie die Datei ins Archiv gesichert haben (relativer oder absoluter Pfad). Wollen Sie bspw. die Datei Shellbook.cpio mit dem relativen Pfad wiederherstellen, so können Sie dies wie folgt tun:\n > you@host > tar xf Shellbuch_mai05 ./Shellbook.cpio\n\nWollen Sie außerdem mitverfolgen, was beim Erstellen oder Auspacken eines Archivs alles passiert, sollten Sie die Option v verwenden. Hierbei können Sie außerdem gleich erkennen, ob Sie die Dateien mit dem absoluten oder relativen Pfad gesichert haben.\n > # neues Archiv erzeugen mit Ausgabe aller Aktionen tar cvf Archiv_Name Verzeichnis # Archiv zurückspielen, mit Ausgabe aller Aktionen tar xvf Archiv_Name\n\nDen Inhalt eines Archivs können Sie mit der Option t ansehen:\n > tar tf Archiv_Name\n\nIn unserem Beispiel:\n > you@host > tar tf Shellbuch_mai05 ./ ./Planung_und_Bewerbung/ ./Planung_und_Bewerbung/shellprogrammierung.doc ./Planung_und_Bewerbung/shellprogrammierung.sxw ./kap004.txt ./kap005.txt ./testdir2/ ...\n\nHier wurde also der relative Pfadname verwendet. Wollen Sie ein ganzes Verzeichnis auf Diskette sichern, erledigen Sie dies folgendermaßen:\n > tar cf /dev/fd0 Shellbuch\n\nHier kopieren Sie das ganze Verzeichnis auf eine Diskette. Zurückspielen können Sie das Ganze wieder wie folgt:\n > tar xvf /dev/fd0 Shellbuch\n\nWollen Sie einen kompletten Verzeichnisbaum mit Kompression archivieren (bspw. mit gzip), gehen Sie so vor:\n > you@host > tar czvf Shellbuch_mai05.tgz Shellbuch\n\nDank der Option z wird jetzt das ganze Archiv auch noch komprimiert. Ansehen können Sie sich das komprimierte Archiv weiterhin mit der Option t:\n > you@host > tar tzf Shellbuch_mai05.tgz Shellbuch Shellbuch/ Shellbuch/Planung_und_Bewerbung/ Shellbuch/Planung_und_Bewerbung/shellprogrammierung.doc Shellbuch/Planung_und_Bewerbung/shellprogrammierung.sxw Shellbuch/kap004.txt Shellbuch/kap005.txt Shellbuch/testdir2/ ...\n\nHier wurde also der absolute Pfadname verwendet. Entpacken und wieder einspielen können Sie das komprimierte Archiv wieder mit (mit Meldungen):\n > you@host > tar xzvf Shellbuch_mai05.tgz Shellbuch\n\nWollen Sie allerdings nur Dateien mit der Endung ».txt« aus dem Archiv extrahieren, können Sie dies so vornehmen:\n > you@host > tar xzf Shellbuch_mai05.tgz '*.txt'\n\n### zip/unzip â (De-)Komprimieren von DateienÂ\n\nMit zip können Sie einzelne Dateien bis hin zu ganzen Verzeichnissen komprimieren und archivieren. Besonders gern werden zip und unzip allerdings verwendet, weil diese gänzlich mit den Versionen von Windows und DOS kompatibel sind. Wer sich also immer schon geärgert hat, dass sein Mail-Anhang wieder einmal etwas im ZIP-Format enthält, kann hier auf unzip zurückgreifen.\n\nEin ZIP-Archiv aus mehreren Dateien können Sie so erstellen:\n > you@host > zip files.zip file1.txt file2.txt file3.txt adding: file1.txt (deflated 56 %) adding: file2.txt (deflated 46 %) adding: file3.txt (deflated 24 %)\n\nHier packen und komprimieren Sie die Dateien zu einem Archiv namens files.zip. Wollen Sie eine neue Datei zum Archiv hinzufügen, nichts einfacher als das:\n > you@host > zip files.zip hallo.c adding: hallo.c (deflated 3 %)\n\nMöchten Sie alle Dateien des Archivs in das aktuelle Arbeitsverzeichnis entpacken, dann tun Sie dies so:\n > you@host > unzip files.zip Archive: files.zip inflating: file1.txt inflating: file2.txt inflating: file3.txt inflating: hallo.c\n\nWenn Sie eine ganze Verzeichnishierarchie packen und komprimieren wollen, so müssen Sie die Option âr (rekursive) verwenden:\n > you@host > zip -r Shellbuch.zip $HOME/Shellbuch ...\n\nEntpacken können Sie das Archiv allerdings wieder wie gewohnt mittels unzip.\n\n### Übersicht zu Dateiendungen und den Pack-ProgrammenÂ\n\nIn der folgenden Tabelle wird eine kurze Übersicht zu den Dateiendungen und den zugehörigen (De-)Komprimierungsprogrammen gegeben.\n\nEndung | gepackt mit | entpackt mit |\n | --- | --- | --- |\n*.bz und *.bz2 | bzip2 | bzip2 |\n*.gz | gzip | gzip, gunzip oder zcat |\n*.zip | InfoâZip, PKZip, zip | InfoâUnzip, PKUnzip, unzip, gunzip (eineDatei) |\n*.tar | tar | tar |\n*.tbz | tar und bzip2 | tar und bzip2 |\n*.tgz; *.tar.gz | tar und gzip | tar und g(un)zip |\n*.Z | compress | uncompress; gunzip |\n*.tar.Z | tar und compress | tar und uncompress |\n*.pak | pack | unpack, gunzip |\n\n# 14.9 SysteminformationenÂ\n\nDate: 2010-06-02\nCategories: \nTags: \n\n14.9 Systeminformationen \n cal â zeigt einen Kalender an \n Das Kommando cal zeigt Ihnen einen Kalender wie folgt an:\n you@host > cal April 2005 So Mo Di Mi Do Fr Sa 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30\n Ohne Angaben wird immer der aktuelle Monat aufgeführt. Wünschen Sie einen Kalender zu einem bestimmten Monat und Jahr, müssen Sie nur diese Syntax verwenden:\n cal monat jahr\n Wobei »monat« und »jahr« jeweils numerisch angegeben werden müssen. Den Kalender für April 2023 erhalten Sie so:\n you@host > cal 4 2023 April 2023 So Mo Di Mi Do Fr Sa 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30\n date â Datum und Uhrzeit \n Mit date lesen bzw. setzen Sie die Linux Systemzeit. date wird weniger in der Kommandozeile als vielmehr in Shellscripts eingesetzt, wie Sie in diesem Buch bereits mehrmals gesehen haben. date ist im Grunde »nur« ein Frontend für die C-Bibliotheksfunktion strftime(3). Dabei leitet man durch ein Pluszeichen einen Formatstring ein, welcher durch entsprechende Datumsangaben ergänzt wird. Die Ausgabe erfolgt anschließend auf die Standardausgabe. Ein Beispiel:\n you@host > date +'%Y-%m-%d' 2005â04â26\n Die Formatangaben zu date entsprechen denjenigen von strftime, was auch mit awk verwendet wurde. Zur genaueren Erläuterung können Sie daher zu Abschnitt 13.6.3 (Tabelle 13.9) zurückblättern oder gleich die man-Seiten zu date oder strftime(3) lesen.\n uname â Rechnername, Architektur und OS ausgeben \n Mit uname können Sie das Betriebssystem, den Rechnernamen, OS-Releases, OS-Version, Plattform, Prozessortyp und Hardwareklasse des Rechners anzeigen lassen. Hierzu ruft man gewöhnlich uname mit der Option âa auf:\n you@host > uname -a Linux goliath.myhoster.de 2.6.10â1.770_FC3 #1 Thu Feb 24 14:00:06 EST 2005 i686 i686 i386 GNU/Linux\n oder unter FreeBSD:\n you@host > uname -a FreeBSD juergen.penguin 4.11-RELEASE FreeBSD 4.11-RELEASE #5: Mon Jan 31 14:06:17 CET 2005 root@server.penguin:/usr/obj/usr/src/sys/SEMA i386\n uptime â Laufzeit des Rechners \n Das Kommando uptime zeigt die Zeit an, wie lange der Rechner bereits läuft.\n you@host > uptime 09:27:25 up 15 days, 15:44, 1 user, load average: 0.37,0.30,0.30\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 14.9 SysteminformationenÂ\n\n### cal â zeigt einen Kalender anÂ\n\nDas Kommando cal zeigt Ihnen einen Kalender wie folgt an:\n > you@host > cal April 2005 So Mo Di Mi Do Fr Sa 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30\n\nOhne Angaben wird immer der aktuelle Monat aufgeführt. Wünschen Sie einen Kalender zu einem bestimmten Monat und Jahr, müssen Sie nur diese Syntax verwenden:\n > cal monat jahr\n\nWobei »monat« und »jahr« jeweils numerisch angegeben werden müssen. Den Kalender für April 2023 erhalten Sie so:\n > you@host > cal 4 2023 April 2023 So Mo Di Mi Do Fr Sa 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30\n\n### date â Datum und UhrzeitÂ\n\nMit date lesen bzw. setzen Sie die Linux Systemzeit. date wird weniger in der Kommandozeile als vielmehr in Shellscripts eingesetzt, wie Sie in diesem Buch bereits mehrmals gesehen haben. date ist im Grunde »nur« ein Frontend für die C-Bibliotheksfunktion strftime(3). Dabei leitet man durch ein Pluszeichen einen Formatstring ein, welcher durch entsprechende Datumsangaben ergänzt wird. Die Ausgabe erfolgt anschließend auf die Standardausgabe. Ein Beispiel:\n > you@host > date +'%Y-%m-%d' 2005â04â26\n\nDie Formatangaben zu date entsprechen denjenigen von strftime, was auch mit awk verwendet wurde. Zur genaueren Erläuterung können Sie daher zu Abschnitt 13.6.3 (Tabelle 13.9) zurückblättern oder gleich die man-Seiten zu date oder strftime(3) lesen.\n\n### uname â Rechnername, Architektur und OS ausgebenÂ\n\nMit uname können Sie das Betriebssystem, den Rechnernamen, OS-Releases, OS-Version, Plattform, Prozessortyp und Hardwareklasse des Rechners anzeigen lassen. Hierzu ruft man gewöhnlich uname mit der Option âa auf:\n > you@host > uname -a Linux goliath.myhoster.de 2.6.10â1.770_FC3 #1 Thu Feb 24 14:00:06 EST 2005 i686 i686 i386 GNU/Linux\n\noder unter FreeBSD:\n > you@host > uname -a FreeBSD juergen.penguin 4.11-RELEASE FreeBSD 4.11-RELEASE #5: Mon Jan 31 14:06:17 CET 2005 root@server.penguin:/usr/obj/usr/src/sys/SEMA i386\n\n### uptime â Laufzeit des RechnersÂ\n\nDas Kommando uptime zeigt die Zeit an, wie lange der Rechner bereits läuft.\n > you@host > uptime 09:27:25 up 15 days, 15:44, 1 user, load average: 0.37,0.30,0.30\n\n# 14.10 System-KommandosÂ\n\n14.10 System-Kommandos \n dmesg â letzte Boot-Meldung des Kernels anzeigen \n Wollen Sie sich die Kernel-Meldung des letzten Bootvorgangs ansehen, können Sie sich dies mit dem Kommando dmesg anzeigen lassen. Dabei können Sie feststellen, welche Hardware beim Booten erkannt und initialisiert wurde. dmesg wird gern zur Diagnose verwendet, ob eine interne bzw. externe Hardware auch vom Betriebssystem korrekt erkannt wurde. Natürlich setzt dies auch entsprechende Kenntnisse zur Hardware auf dem Computer und ihrer Bezeichnungen voraus.\n halt â alle laufenden Prozesse beenden \n Mit dem Kommando halt beenden Sie alle laufenden Prozesse. Damit wird das System komplett angehalten und reagiert auf keine Eingabe mehr. Selbstverständlich ist solch ein Befehl nur vom root ausführbar. Meistens ist halt ein Verweis auf shutdown.\n reboot â alle laufenden Prozesse beenden und System neu starten \n Mit reboot werden alle noch laufenden Prozess auf dem System unverzüglich beendet und das System neu gestartet. Bei einem System im Runlevel 1 bis 5 wird hierzu ein shutdown aufgerufen. Selbstverständlich bleibt auch dieses Kommando dem root vorbehalten.\n\n Hinweis   Runlevel 1 bis 5 trifft nicht auf alle Systeme zu. Die Debian-Distributionen haben z. B. meist als »default runlevel« 2. Auf sie trifft das Geschriebene aber ebenso zu. System-V-init würde es besser treffen, aber wäre auch unpräzise. BSD-style-init ruft auch einen shutdown auf. Bei vielen Desktop-Distributionen ist das »shutdown binary« auch mit dem »suid-bit« versehen, damit auch normale User den Rechner ausschalten dürfen.\n\n shutdown â System herunterfahren \n Mit shutdown können Sie (root-Rechte vorausgesetzt) das System herunterfahren. Mit den Optionen âr und âh kann man dabei zwischen einem »Halt« des Systems und einem »Reboot« auswählen. Damit das System auch ordentlich gestoppt wird, wird jedem Prozess zunächst das Signal SIGTERM gesendet, womit sich ein Prozess noch ordentlich beenden kann. Nach einer bestimmten Zeit (Standard ist zwei Sekunden oder einstellbar mit ât ) wird das Signal SIGKILL an die Prozesse gesendet. Natürlich werden auch die Dateisysteme ordentlich abgehängt (umount), sync ausgeführt und in einen anderen Runlevel gewechselt (bei System-V-init). Die Syntax zu shutdown lautet:\n shutdown [Optionen] Zeitpunkt [Nachricht]\n Den Zeitpunkt zum Ausführen des shutdown-Kommandos können Sie entweder im Format hh:mm als Uhrzeit übergeben (bspw. 23:30) oder alternativ können Sie auch eine Angabe wie +m vornehmen, womit Sie die noch verbleibenden Minuten angeben (bspw. mit +5 wird in 5 Minuten der shutdown-Befehl ausgeführt). Ein sofortiger shutdown kann auch mit now bewirkt werden. Das Kommando shutdown benachrichtigt außerdem alle Benutzer, dass das System bald heruntergefahren wird, und lässt somit auch keine Neuanmeldungen zu. Hier können Sie gegebenenfalls auch eine eigene Nachricht an die Benutzer senden.\n Folgende Optionen stehen Ihnen bei shutdown unter Linux zur Verfügung:\n\n Tabelle 14.25  Optionen für das Kommando shutdown\n\n ât Sekunden\n Zeit in »Sekunden«, die zwischen den SIGTERM- und SIGKILL-Signalen zum Beenden von Prozessen gewartet wird\n\n âk\n Hier wird kein Shutdown ausgeführt, sondern es werden nur Meldungen an alle anderen Benutzer gesendet.\n\n âr\n (reboot) Neustart nach dem Herunterfahren\n\n âh\n System anhalten nach dem Herunterfahren\n\n âf\n Beim nächsten Systemstart keinen Dateisystem-Check ausführen\n\n âF\n Beim nächsten Systemstart einen Dateisystem-Check ausführen\n\n âc\n Wenn möglich, wird der laufende Shutdown abgebrochen.\n\n Hinweis   Die Optionen sind betriebssystemabhängig. Ein -h unter BSD fährt zwar den Rechner herunter, schaltet ihn aber nicht ab. Hier wird dann -p (power down) verwendet. Keine Angabe bringt den Rechner hier in den »Singleuser-Mode«.\n\n## 14.10 System-KommandosÂ\n\n### dmesg â letzte Boot-Meldung des Kernels anzeigenÂ\n\nWollen Sie sich die Kernel-Meldung des letzten Bootvorgangs ansehen, können Sie sich dies mit dem Kommando dmesg anzeigen lassen. Dabei können Sie feststellen, welche Hardware beim Booten erkannt und initialisiert wurde. dmesg wird gern zur Diagnose verwendet, ob eine interne bzw. externe Hardware auch vom Betriebssystem korrekt erkannt wurde. Natürlich setzt dies auch entsprechende Kenntnisse zur Hardware auf dem Computer und ihrer Bezeichnungen voraus.\n\n### halt â alle laufenden Prozesse beendenÂ\n\nMit dem Kommando halt beenden Sie alle laufenden Prozesse. Damit wird das System komplett angehalten und reagiert auf keine Eingabe mehr. Selbstverständlich ist solch ein Befehl nur vom root ausführbar. Meistens ist halt ein Verweis auf shutdown.\n\n### reboot â alle laufenden Prozesse beenden und System neu startenÂ\n\nMit reboot werden alle noch laufenden Prozess auf dem System unverzüglich beendet und das System neu gestartet. Bei einem System im Runlevel 1 bis 5 wird hierzu ein shutdown aufgerufen. Selbstverständlich bleibt auch dieses Kommando dem root vorbehalten.\n\n### shutdown â System herunterfahrenÂ\n\nMit shutdown können Sie (root-Rechte vorausgesetzt) das System herunterfahren. Mit den Optionen âr und âh kann man dabei zwischen einem »Halt« des Systems und einem »Reboot« auswählen. Damit das System auch ordentlich gestoppt wird, wird jedem Prozess zunächst das Signal SIGTERM gesendet, womit sich ein Prozess noch ordentlich beenden kann. Nach einer bestimmten Zeit (Standard ist zwei Sekunden oder einstellbar mit ât ) wird das Signal SIGKILL an die Prozesse gesendet. Natürlich werden auch die Dateisysteme ordentlich abgehängt (umount), sync ausgeführt und in einen anderen Runlevel gewechselt (bei System-V-init). Die Syntax zu shutdown lautet:\n > shutdown [Optionen] Zeitpunkt [Nachricht]\n\nDen Zeitpunkt zum Ausführen des shutdown-Kommandos können Sie entweder im Format hh:mm als Uhrzeit übergeben (bspw. 23:30) oder alternativ können Sie auch eine Angabe wie +m vornehmen, womit Sie die noch verbleibenden Minuten angeben (bspw. mit +5 wird in 5 Minuten der shutdown-Befehl ausgeführt). Ein sofortiger shutdown kann auch mit now bewirkt werden. Das Kommando shutdown benachrichtigt außerdem alle Benutzer, dass das System bald heruntergefahren wird, und lässt somit auch keine Neuanmeldungen zu. Hier können Sie gegebenenfalls auch eine eigene Nachricht an die Benutzer senden.\n\nFolgende Optionen stehen Ihnen bei shutdown unter Linux zur Verfügung:\n\nOption | Bedeutung |\n | --- | --- |\nât Sekunden | Zeit in »Sekunden«, die zwischen den SIGTERM- und SIGKILL-Signalen zum Beenden von Prozessen gewartet wird |\nâk | Hier wird kein Shutdown ausgeführt, sondern es werden nur Meldungen an alle anderen Benutzer gesendet. |\nâr | (reboot) Neustart nach dem Herunterfahren |\nâh | System anhalten nach dem Herunterfahren |\nâf | Beim nächsten Systemstart keinen Dateisystem-Check ausführen |\nâF | Beim nächsten Systemstart einen Dateisystem-Check ausführen |\nâc | Wenn möglich, wird der laufende Shutdown abgebrochen. |\n\n# 14.12 NetzwerkbefehleÂ\n\n14.12 Netzwerkbefehle \n Netzwerkbefehle erfordern ein tieferes Verständnis. Wenn Sie als Administrator mit Begriffen wie IP-Adresse, MAC-Adresse, DNS, FTP, SSH usw. nichts anfangen können, wäre eine fortführende Lektüre mehr als vonnöten. Leider kann ich aufgrund des eingeschränkten Umfangs nicht auf die Fachbegriffe der Netzwerktechnik eingehen. Nebenbei erwähnt, sind diese Themen zum Teil schon ein ganzes Buch wert, weshalb die Beschreibung hier wohl für die meisten eher enttäuschend ausfallen dürfte.\n arp â Ausgeben von MAC-Adressen \n Wenn Sie die Tabelle mit den MAC-Adressen der kontaktierten Rechner benötigen, können Sie das Kommandos arp verwenden. Ein Beispiel:\n you@host > arp -a ... juergen.penguin (192.168.0.xxx) at 00:30:84:7a:9e:0e on rl0 permanent [ethernet] ...\n Die MAC-Adresse ist hierbei die sechsstellige Hexadezimalzahl »00:30:84:7a:9e:0e«. Benötigen Sie hingegen die MAC-Nummer Ihrer eigenen Netzwerkkarte, so können Sie diese mit ifconfig ermitteln:\n # ifconfig -a eth0 Protokoll:Ethernet Hardware Adresse 00:00:39:2D:01:A1 ...\n In der Zeile »eth0« (unter Linux) finden Sie hierbei die entsprechende MAC-Adresse unter »Hardware Adresse«. Hier sind wieder systemspezifische Kenntnisse von Vorteil.\n ftp â Dateien zu einem anderen Rechner übertragen \n Mit Hilfe von ftp (File Transfer Protocol) können Sie Dateien innerhalb eines Netzwerks (bspw. Internet) zwischen verschiedenen Rechnern transportieren. Da ftp über eine Menge Features und Funktionen verfügt, soll hier nur auf den Hausgebrauch eingegangen werden, und zwar wie man Daten von einem entfernten Rechner abholt und hinbringt.\n Zunächst müssen Sie sich auf dem Server einloggen. Dies geschieht üblicherweise mit\n ftp Server_Name\n In meinem Beispiel lautet der Servername (und auch mein Webhoster) myhoster.de:\n you@host > ftp myhoster.de Connected to myhoster.de (194.150.178.34). 220 194.150.178.34 FTP server ready Name (myhoster.de:you): us10129 331 Password required for us10129. Password:******** 230 User us10129 logged in. Remote system type is UNIX. Using binary mode to transfer files. ftp>\n Nachdem ftp eine Verbindung mit dem Server aufgenommen hat, werden Sie aufgefordert, Ihren Benutzernamen (hier »us10129«) und anschließend das Passwort einzugeben. Wenn alles korrekt war, befindet sich vor dem Prompt ftp> und wartet auf weitere Anweisungen. Jetzt können Sie im Eingabeprompt Folgendes machen:\n\n  \n Gewünschtes Verzeichnis durchsuchen: cd, dir, lcd (lokales Verzeichnis)\n\n  \n FTP-Parameter einstellen: type binary, hash, prompt\n\n  \n Datei(en) abholen: get, mget\n\n  \n Datei(en) hinbringen: put, mput\n\n Natürlich bietet ftp weitaus mehr Befehle als diese an, aber alles andere würde hier über den Rahmen des Buchs hinausgehen.\n Zunächst werden Sie sich wohl das Inhaltverzeichnis ansehen wollen. Hierzu können Sie den Befehl dir (welcher auf *nix Systemen meistens dem Aufruf von ls âl entspricht) zum Auflisten verwenden:\n ftp> dir 200 PORT command successful 150 Opening ASCII mode data connection for file list drwxrwx--x 9 4096 Apr 8 20:31 . drwxrwx--x 9 4096 Apr 8 20:31 .. -rw------- 1 26680 Apr 26 09:00 .bash_history ... lrwxrwxrwx 1 18 Aug 10 2004 logs -> /home/logs/us10129 drwxrwxr-x 2 4096 Mar 28 16:03 mysqldump drwxr-xr-x 20 4096 Apr 3 08:13 www.pronix.de 226 Transfer complete.\n Wollen Sie nun in ein Verzeichnis wechseln, können Sie auch hier das schon bekannte Kommando cd verwenden. Ebenso sieht es aus, wenn Sie das aktuelle Arbeitsverzeichnis wissen wollen, in dem Sie sich gerade befinden. Hier leistet das bekannte pwd seine Dienste.\n Das aktuelle Verzeichnis auf dem lokalen Rechner können Sie mit dem Kommando lcd wechseln. Sie können übrigens auch die Befehle auf Ihrem lokalen Rechner verwenden, wenn Sie ein !-Zeichen davor setzen. Hierzu ein Beispiel, welches die Befehle nochmals demonstriert.\n ftp> pwd 257 \"/\" is current directory. ftp> cd backups/Shellbuch 250 CWD command successful ftp> pwd 257 \"/backups/Shellbuch\" is current directory. ftp> dir 200 PORT command successful 150 Opening ASCII mode data connection for file list drwxrwxr-x 2 us10129 us10129 4096 Apr 26 09:07 . drwx------ 3 us10129 us10129 4096 Jan 15 14:15 .. ... -rw-r--r-- 1 us10129 us10129 126445 Mar 13 11:40 kap005.txt -rw------- 1 us10129 us10129 3231 Apr 20 05:26 whoami.txt 226 Transfer complete. ftp>\n Hier befinde ich mich auf dem Rechner myhoster.de in meinem Heimverzeichnis in ~/backups/Shellbuch. Ich möchte mir jetzt die Datei whoami.txt auf meinen lokalen Rechner kopieren. Ich hole sie mit dem Kommando get. Zuvor will ich aber noch auf meinem lokalen Rechner in ein Verzeichnis namens mydir wechseln.\n ftp> lcd mydir Local directory now /home/you/mydir ftp> !pwd /home/you/mydir ftp> !ls file1.txt file2.txt file3.txt files.zip hallo.c ftp> get whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 150 Opening BINARY mode data connection whoami.txt (3231 bytes) 226 Transfer complete. 3231 bytes received in 0.0608 secs (52 Kbytes/sec) ftp> !ls file1.txt file2.txt file3.txt files.zip hallo.c whoami.txt ftp>\n Und schon habe ich die Datei whoami.txt auf meinem lokalen Rechner ins Verzeichnis mydir kopiert. Wollen Sie mehrere Dateien oder gar ganze Verzeichnisse holen, müssen Sie mget verwenden. Hierbei stehen Ihnen auch die Wildcard-Zeichen * und ? zur Verfügung. Da mget Sie nicht jedes Mal bei mehreren Dateien fragt, ob Sie diese wirklich holen wollen, können Sie den interaktiven Modus mit prompt abstellen.\n Haben Sie jetzt die Datei whoami.txt bearbeitet und wollen diese wieder hochladen, verwenden Sie put (oder bei mehreren Dateien mput).\n ftp> put whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 150 Opening BINARY mode data connection for whoami.txt 226 Transfer complete. 3231 bytes sent in 0.000106 secs (3e+04 Kbytes/sec) ftp>\n Sie sehen außerdem, dass hierbei die Datenübertragung binär (BINARY) stattgefunden hat. Wollen Sie hier auf ASCII umstellen, müssen Sie nur type verwenden:\n ftp> type ascii 200 Type set to A ftp> put whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 150 Opening ASCII mode data connection for whoami.txt 226 Transfer complete. 3238 bytes sent in 0.000487 secs (6.5e+03 Kbytes/sec) ftp>\n Zurücksetzen können Sie das wieder mit type binary. Und wie schon erwähnt, beim Übertragen mehrerer Dateien mit mget und mput werden Sie immer gefragt, ob Sie die Datei transferieren wollen. Diese Abfrage können Sie mit prompt abstellen. Je nachdem, ob Sie eine Fortschrittsanzeige wünschen, können Sie dies mit einem Aufruf von hash ab- oder anschalten. Gerade bei umfangreicheren Dateien ist dies sinnvoll. Dabei wird während der Übertragung alle 1024 Zeichen ein »#« ausgegeben.\n Den Script-Betrieb können Sie verwenden, wenn sich eine Datei namens .netrc im Heimverzeichnis des FTP-Servers befindet. Dabei können Sie sich z. B. beim Einloggen die Abfrage von Usernamen und Passwort ersparen. Natürlich kann man solch eine Datei auch im heimischen Heimverzeichnis anlegen. Allerdings darf diese Datei nur vom Eigentümer gelesen werden, also »chmod 0600« für ~/.netrc.\n So sieht zum Beispiel der Vorgang, die Datei whoami.txt wie eben demonstriert vom Server zu holen, mit .netrc folgendermaßen aus:\n machine myhoster.de login us10129 password asdf1234 macdef init cd $HOME/backups/Shellbuch get whoami.txt bye\n Rufen Sie jetzt noch ftp wie folgt auf:\n you@host > ftp myhoster.de Connected to myhoster.de (194.150.178.34). 220 194.150.178.34 FTP server ready 331 Password required for us10129. 230 User us10129 logged in. cd $HOME/backups/Shellbuch 550 $HOME/backups/Shellbuch: No such file or directory get whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 550 whoami.txt: No such file or directory Remote system type is UNIX. Using binary mode to transfer files. bye 221 Goodbye.\n Und alles geschieht vollautomatisch. Ebenso sieht dies mit dem Hochladen von whoami.txt aus. Wenn die Datei editiert wurde, können Sie diese wieder wie folgt im Script-Modus hochladen. Hier die Datei .netrc:\n machine myhoster.de login us10129 password asdf1234 macdef init lcd mydir cd $HOME/backups/Shellbuch put whoami.txt bye\n Jetzt nur noch ftp aufrufen:\n you@host > ftp myhoster.de Connected to myhoster.de (194.150.178.34). 220 194.150.178.34 FTP server ready 331 Password required for us10129. 230 User us10129 logged in. lcd mydir Local directory now /home/tot/mydir cd $HOME/backups/Shellbuch 550 $HOME/backups/Shellbuch: No such file or directory put whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 150 Opening ASCII mode data connection for whoami.txt 226 Transfer complete. 3238 bytes sent in 0.000557 secs (5.7e+03 Kbytes/sec) bye 221 Goodbye.\n Noch mehr Hinweise für den Script-Modus und die Datei netrc entnehmen Sie bitte aus man-Seite von netrc (man netrc).\n\n Hinweis   Bitte bedenken Sie, dass ftp nicht ganz sicher ist, da Sie bei der Authentifizierung das Passwort unverschlüsselt übertragen.\n\n hostname â Rechnername ermitteln \n Das Kommando hostname können Sie verwenden, um den Namen des lokalen Rechners anzuzeigen bzw. zu setzen oder zu verändern. So ein Name hat eigentlich erst im Netzwerkbetrieb seine echte Bedeutung. Im Netz besteht ein vollständiger Rechnername (Fully Qualified Domain Name) aus einem Eigennamen und einem Domainnamen. Der (DNS-)Domainname bezeichnet das lokale Netz, an dem der Rechner hängt.\n you@host > hostname goliath.myhoster.de you@host > hostname -s goliath you@host > hostname -d myhoster.de\n Ohne Angabe einer Option wird der vollständige Rechnername ausgegeben. Mit der Option âs geben Sie nur den Eigennamen des Rechners aus und mit âd nur den (DNS-)Domainnamen des lokalen Netzes.\n ifconfig â Netzwerkzugang konfigurieren \n Mit dem Kommando ifconfig kann man die Einstellungen einer Netzwerk-Schnittstelle abfragen oder setzen. Alle Einstellungen können Sie sich mit der Option âa anzeigen lassen. Die Syntax zu ifconfig:\n ifconfig schnittstelle [addresse [parameter]]\n Dabei geben Sie den Namen der zu konfigurierenden Schnittstelle an. Befindet sich bspw. auf Ihrem Rechner eine Netzwerkkarte, so lautet unter Linux die Schnittstelle hierzu »eth0«, die zweite Netzwerkkarte im Rechner (sofern eine vorhanden ist) wird mit »eth1« angesprochen. Auf anderen Systemen lautet der Name der Schnittstelle zur Netzwerkkarte wiederum anders. Daher sollte man ja auch ifconfig mit der Option âa aufrufen, um mehr in Erfahrung darüber zu bringen. Die »adresse« ist die IP-Adresse, die der Schnittstelle zugewiesen werden soll. Hierbei kann man die Dezimalnotation (xxx.xxx.xxx.xxx) verwenden oder einen Namen, den ifconfig in /etc/host nachschlägt.\n Verwenden Sie ifconfig ohne die Option âa, um sich einen Überblick zu verschaffen, dann werden die inaktiven Schnittstellen nicht mit angezeigt.\n Der Aufruf für die Schnittstelle zu Ethernetkarte »eth0« sieht beispielsweise wie folgt aus (Debian Sarge):\n # ifconfig eth0 Link encap:Ethernet HWaddr 00:02:2A:D4:2C:EB inet addr:192.168.1.1 Bcast:192.168.1.255 Mask:255.255.255.0 UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:80 errors:0 dropped:0 overruns:0 frame:0 TX packets:59 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:100 RX bytes:8656 (8.4 KiB) TX bytes:8409 (8.2 KiB) Interrupt:11 Base address:0xa000 lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 UP LOOPBACK RUNNING MTU:16436 Metric:1 RX packets:8 errors:0 dropped:0 overruns:0 frame:0 TX packets:8 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:560 (560.0 b) TX bytes:560 (560.0 b)\n Wenn IPv6 konfiguriert ist, kommt noch die IPv6-Adresse dazu.\n Aus der Ausgabe kann man entnehmen, dass auf dieser Netzwerkkarte 59 Pakete gesendet (TX) und 80 empfangen (RX) wurden. Die maximale Größe einzelner Pakete beträgt 1500 bytes (MTU). Die MAC-Adresse (Hardware-Adresse), welche unsere Netzwerkkarte eindeutig identifiziert (außer diese wird manipuliert) lautet »00:02:2A:D4:2C:EB«.\n Wollen Sie eine Schnittstelle ein- bzw. ausschalten, können Sie dies mit den zusätzlichen Parametern up (für Einschalten) und down (für Abschalten) vornehmen. Als Beispiel wieder die Netzwerkkarte mit dem Namen »eth0« als Schnittstelle:\n ifconfig eth0 down\n Hier haben Sie die Netzwerkkarte »eth0« abgeschaltet. Einschalten können Sie diese folgendermaßen:\n ifconfig eth0 up\n Eine IP-Adresse stellen Sie ein oder verändern Sie ebenfalls mit ifconfig:\n ifconfig eth0 192.18.19.91\n Wollen Sie bei der Schnittstelle die Netzmaske und Broadcast verändern, so ist dies mit ifconfig wenig Arbeit (unterlassen Sie es, wenn Sie nicht genau wissen, was die Netzmaske und Broadcast ist):\n ifconfig eth0 10.25.38.41 netmask \\ 255.255.255.0 broadcast 10.25.38.255\n Damit weisen Sie der Netzwerkkarte die IP-Adresse 10.25.38.41 aus dem Netz 10.25.38.xxx zu. Mit »netmask« geben Sie an, wie groß das Netz ist (hier ein Netzwerk der Klasse C).\n mail/mailx â E-Mails schreiben und empfangen (und auswerten) \n Mit dem Kommando mail können Sie aus einem Shellscript heraus E-Mails versenden. Mithilfe der Option âs können Sie eine einfache Textmail mit Betreff (âs = Subject) an eine Adresse schicken, beispielsweise:\n you@host > echo \"Hallo\" | mail -s \"Betreff\" \n Da nicht alle mail-Kommandos die Option âs für einen Betreff haben, können Sie gegebenenfalls auch auf mailx oder Mail (mit großen »M« ) zurückgreifen, die auf einigen Systemen vorhanden sind. Mit cat können Sie natürlich auch den Inhalt einer ganzen Datei an die Mailadresse senden:\n you@host > cat whoami.txt | mail -s \"Ein Textdatei\" \\ > \n Dabei kann man allerlei Ausgaben eines Kommandos per mail an eine Adresse versenden:\n you@host > ps -ef | mail -s \"Prozesse 12Uhr\" \n Sinnvoll kann dies z. B. sein, wenn auf einem System ein bestimmtes Limit überschritten wurde. Dann können Sie sich (oder einem anderen Benutzer) eine Nachricht zukommen lassen. Ebenso kann überprüft werden, ob ein Server dauerhaft verfügbar ist. Testen Sie etwa stündlich (bspw. mit cron) mittels nmap (hier kann man nicht nur nachsehen, ob die Netzwerkkarte das UDP-Paket zurückschickt, sondern kann direkt nachschauen, ob der Port des betreffenden Dienstes noch offen ist), ob der Server erreichbar ist, und ist er es einmal nicht, können Sie sich hierbei eine Nachricht zukommen lassen.\n Zusätzliche Optionen, die Sie mit mail bzw. mailx verwenden können, sind:\n\n Tabelle 14.27  Optionen für das Kommando mail/mailx\n\n âs Betreff\n Hier können Sie den Betreff (Subject) der E-Mail angeben.\n\n âc adresse\n Diese Adresse bekommt eine Kopie der Mail.\n\n âb adresse\n Diese Adresse bekommt eine blind carbon copy der Mail.\n\n uuencode/uudecode â Text- bzw. Binärdateien codieren \n Mit den Kommandos uuencode/uudecode können Sie Textdateien in Binärdateien und wieder zurück umwandeln. Solche Umwandlungen werden zum Beispiel beim Datenaustausch über das Internet notwendig, weil sonst hierbei die Sonderzeichen (bspw. Umlaute bzw. alle ASCII-Zeichen über 127) auf manchen Rechnern nicht richtig dargestellt werden können. Was bei einer Textdatei nicht so wild ist, weil eben nicht darstellbare Zeichen »verhunzt« werden. Doch bei einer binären Datei bedeutet dies, dass diese schlicht nicht mehr funktioniert. Die meisten modernen E-Mail-Programme unterstützen MIME und erkennen solche codierten Dateien als Anhang automatisch, daher erfolgt hierbei die Umwandlung von selbst, ohne dass Sie als Benutzer etwas davon mitbekommen.\n uuencode macht im Prinzip nichts anderes, als dass es jeweils drei 8-Bit-Zeichen zu vier 6-Bit-Zeichen umwandelt und für jedes Zeichen 32 addiert. Damit werden alle Zeichen in einen Satz von Standardzeichen umgewandelt, die relativ verlässlich übertragen werden.\n Gewöhnlich werden Sie wohl uuencode verwenden, um Anhänge zu Ihren E-Mails mit dem Programm mail, Mail oder mailx hinzuzufügen. Wollen Sie einfach eine Datei namens archiv.tgz per Anhang mit mail versenden, gehen Sie wie folgt vor:\n you@host > uuencode archiv.tgz archiv.tgz | \\ > mail -s 'Anhang: archiv.tgz' user@host\n Das hierbei zweimal archiv.tgz verwendet wurde, ist übrigens kein Fehler, sondern wird von uuencode erwartet.\n netstat â Statusinformationen über das Netzwerk \n Für die Anwendung von netstat gibt es viele Möglichkeiten. Mit einem einfachen Aufruf von netstat zeigen Sie den Zustand einer bestehenden Netzwerkverbindung an. Neben der Überprüfung von Netzwerkverbindungen können Sie mit netstat Routentabellen, Statistiken zu Schnittstellen, maskierte Verbindungen und noch vieles mehr anzeigen lassen. In der Praxis lässt sich somit ohne Problem die IP oder der Port eines ICQ-Users (Opfer) ermitteln oder ob ein Rechner mit einen Trojaner infiziert ist. Hier einige Beispiele:\n you@host > netstat -nr\n Hiermit lassen Sie die Routingtabelle (âr) des Kernels ausgeben.\n you@host > netstat -i\n Mit der Option âi erhalten Sie die Schnittstellenstatistik.\n you@host > netstat -ta\n Mit âta erhalten Sie die Anzeige aller Verbindungen. Die Option ât steht dabei für TCP. Mit âu, âw bzw. âx zeigen Sie die UDP-, RAW bzw. UNIX-Sockets an. Mit âa werden dabei auch die Sockets angezeigt, die noch auf eine Verbindung warten.\n nslookup (host/dig) â DNS-Server abfragen \n Mit nslookup können Sie aus dem Domainnamen eine IP-Adresse bzw. die IP-Adresse zu einem Domainnamen ermitteln. Zur Auflösung des Namens wird gewöhnlich der DNS-Server verwendet.\n\n Hinweis   Bei der Verwendung von nslookup werden Sie lesen, dass nslookup künftig von den Kommandos host oder dig abgelöst wird.\n\n Hier nslookup und host bei der Ausführung:\n you@host > nslookup pronix.de Server: 217.237.150.141 Address: 217.237.150.141#53 Non-authoritative answer: Name: pronix.de Address: 194.150.178.34 you@host > host pronix.de pronix.de has address 194.150.178.34 you@host > host 194.150.178.34 34.178.150.194.in-addr.arpa domain name pointer goliath.myhoster.de.\n ping â Verbindung zu anderem Rechner testen \n Wollen Sie die Netzwerkverbindung zu einem anderen Rechner testen oder einfach nur den lokalen TCP/IP-Stack überprüfen, können Sie das Kommando ping (Paket Internet Groper) verwenden.\n ping host\n ping überprüft dabei, ob »host« (IP-Adresse oder Domainname) antwortet. ping bietet noch eine Menge Optionen an, die noch mehr Infos liefern, die allerdings hier nicht genauer erläutert werden. Zur Überprüfung sendet ping ein ICMP-Paket vom Type ICMP Echo Request an die Netzwerkstation. Hat die Netzwerkstation das Paket empfangen, sendet es ebenfalls ein ICMP-Paket, allerdings vom Typ ICMP Echo Reply zurück.\n you@host > ping -c5 www.pronix.de PING www.pronix.de (194.150.178.34) 56(84) bytes of data. 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=1 ttl=56 time=79.0 ms 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=2 ttl=56 time=76.8 ms 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=3 ttl=56 time=78.2 ms 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=4 ttl=56 time=76.8 ms 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=5 ttl=56 time=79.2 ms --- www.pronix.de ping statistics --- 5 packets transmitted, 5 received, 0 % packet loss, time 4001ms rtt min/avg/max/mdev = 76.855/78.058/79.228/1.061 ms\n Hier wurden z. B. 5 Pakete (mit der Option âc kann die Anzahl der Pakete angegeben werden) an www.pronix.de gesendet und wieder erfolgreich empfangen, wie aus der Zusammenfassung am Ende zu entnehmen ist. Rufen Sie ping hingegen ohne eine Option auf\n ping www.pronix.de\n so müssen Sie selbst für eine Beendigung des Datenaustausches zwischen den Rechnern sorgen. Ein einfaches (Strg)+(C) tut da seinen Dienst und man erhält ebenfalls wieder eine Zusammenfassung. Neben der Möglichkeit, auf die Verfügbarkeit eines Rechners und des lokalen TCP/IP-Stacks zu prüfen (ping localhost), können Sie außerdem auch die Laufzeit von Paketen vom Sender zum Empfänger ermitteln. Hierzu wird die Zeit halbiert, bis das »Reply« eintrifft.\n Die r-Kommandos von Berkeley (rcp, rlogin, rsh, rwho) \n Aus Sicherheitsgründen sei empfohlen, diese Tools nicht mehr einzusetzen und stattdessen auf die mittlerweile sichereren Alternativen ssh und scp zu setzen. Es fängt schon damit an, dass hier das Passwort beim Einloggen im Klartext, ohne jede Verschlüsselung übertragen wird. Bedenken Sie, dass ein unverschlüsseltes Passwort, das zwischen zwei Rechnern im Internet übertragen wird, jederzeit (bspw. mit einem »Sniffer«) abgefangen und mitgelesen werden kann. Für Passwörter gilt im Allgemeinen, dass man diese niemals im Netz unverschlüsselt übertragen sollte. Da es mittlerweile zur Passwortübertragung mit Secure Shell (ssh), SecureRPC von SUN und Kerberos vom MIT sehr gute Lösungen gibt, haben die r-Kommandos eigentlich keine Berechtigung mehr.\n Schlimmer noch, für die Befehle rsh und rcp war auf den Zielrechnern nicht einmal ein Passwort nötig. Eine Authentifizierung erfolgte hierbei über die Datei /etc/hosts.equiv und ~/.rhosts. Darin wurden einzelne Rechner eingetragen, die als vertrauenswürdig empfunden wurden und so die Passwort-Authentifizierung umgehen konnten.\n ssh â sichere Shell auf anderem Rechner starten \n ssh (Sercure Shell) zählt mittlerweile zu einem der wichtigsten Dienste überhaupt. Mit diesem Dienst ist es möglich, eine verschlüsselte Verbindung zwischen zwei Rechnern aufzubauen. ssh wurde aus der Motivation heraus entwickelt, sichere Alternativen zu telnet und den r-Kommandos von Berkeley zu schaffen.\n Wenn Sie zum ersten Mal eine Verbindung zu einem anderen Rechner herstellen, bekommen Sie gewöhnlich eine Warnung, in der ssh nachfragt, ob Sie dem anderen Rechner vertrauen wollen. Wenn Sie mit »yes« antworten, speichert ssh den Namen und den RSA-Fingerprint (ein Code zur eindeutigen Identifizierung des anderen Rechners) in der Datei ~/.ssh/know_hosts. Beim nächsten Starten von ssh erfolgt diese Abfrage dann nicht mehr.\n Im nächsten Schritt erfolgt die Passwortabfrage, welche verschlüsselt übertragen wird. Bei korrekter Eingabe des Passworts beginnt die Sitzung am anderen Rechner (als würde man diesen Rechner vor sich haben). Die Syntax:\n ssh -l loginname rechnername\n In meinem Fall lautet der »loginname« bspw. »us10129« und der »rechnername« (mein Webhoster, auf dem sich pronix.de befindet) myhoster.de. Das Einloggen mit ssh verläuft hierbei wie folgt:\n you@host > hostname linux.home you@host > ssh -l us10129 myhoster.de us10129@myhoster.de's password:******** Last login: Sat Apr 30 12:52:05 2005 from p549b6d72.dip.t-dialin.net [us10129@goliath ~]$ hostname goliath.myhoster.de [us10129@goliath ~]$ exit Connection to myhoster.de closed. you@host >\n Oder ein weiteres Beispiel â ein Login zu meinem Fachgutachter auf einer FreeBSD-Jail:\n you@host > ssh -l juergen123 192.135.147.2 Password:******** Last login: Wed Apr 27 15:26:24 2005 from ftpmirror.speed Copyright (c) 1980, 1983, 1986, 1988, 1990, 1991, 1993, 1994 FreeBSD 4.11-RELEASE (SEMA) #5: Mon Jan 31 14:06:17 CET 2005 juergen@juergen$ hostname juergen123.penguin juergen123@juergen$\n Noch ein paar Zeilen für die ganz Ängstlichen. Für jede Verbindung über ssh wird zwischen den Rechnern immer ein neuer Sitzungsschlüssel ausgehandelt. Will man einen solchen Schlüssel knacken, benötigt der Angreifer unglaublich viel Zeit. Sobald Sie sich ausloggen, müsste der Angreifer erneut versuchen, den Schlüssel zu knacken. Dies natürlich nur rein theoretisch, denn hierbei handelt es sich immerhin um Schlüssel wie RSA, BLOWFISH, IDEA und TRIPLEDES, zwischen denen man hier wählen kann. Alle diese Schlüssel gelten als sehr sicher.\n scp â Dateien kopieren zwischen unterschiedlichen Rechnern \n Das Kommando scp ist Teil einer ssh-Installation, womit man Dateien sicher zwischen unterschiedlichen Rechnern kopieren kann. scp funktioniert genauso wie das lokale cp. Der einzige Unterschied ist natürlich die Angabe der Pfade auf den entfernten Rechnern. Dabei sieht die Verwendung des Rechnernamens wie folgt aus:\n benutzer@rechner:/verzeichnis/zum/ziel\n Um auf meinen Account zurückzukommen, mein Benutzername lautet »us10129« und der Rechner myhoster.de:\n you@host > scp whoami.txt :~ 's password:******** whoami.txt 100 % 3231 3.2KB/s 00:00 you@host > scp :~/grafik/baum.gif $HOME 's password:******** baum.gif 100 % 8583 8.4KB/s 00:00 you@host >\n Zuerst wurde die Datei whoami.txt aus dem aktuellen lokalen Verzeichnis ins Heimverzeichnis von pronix.de kopiert (/home/us10129). Anschließend habe ich mir aus dem Verzeichnis /home/us10129/grafik die GIF-Datei baum.gif auf meinen lokalen Rechner kopiert. scp ist in der Tat eine interessante Lösung, um Dateien auf mehreren Rechnern mit einem Script zu kopieren.\n Was allerdings bei der Scriptausführung stören dürfte (besonders wenn es automatisch geschehen sollte), ist die Passwortabfrage (hierbei würde der Prozess angehalten). Hierzu bietet es sich an, sich mithilfe eines asymmetrischen Verschlüsselungsverfahrens ein Login ohne Passwort zu verschaffen. Dazu stellt man am besten auf dem Clientrechner mit dem Programm sshâkeygen ein entsprechendes Schlüsselpaar (hier mit einem RSA-Schlüssel) bereit:\n you@host > ssh-keygen -t rsa Generating public/private rsa key pair. Enter file in which to save the key (/home/you/.ssh/id_rsa):(ENTER) Enter passphrase (empty for no passphrase):(ENTER) Enter same passphrase again:(ENTER) Your identification has been saved in /home/you/.ssh/id_rsa. Your public key has been saved in /home/you/.ssh/id_rsa.pub. The key fingerprint is: bb:d9:6b:b6:61:0e:46:e2:6a:8d:75:f5:b3:41:99:f9 you@linux\n Hier wurden zwei RSA-Schlüssel ohne Passphrase erstellt. Jetzt haben Sie zwei Schlüssel, eine privaten (id_rsa.) und einen öffentlichen (id_rsa.pub). Damit Sie jetzt alle ssh-Aktionen ohne Passwort durchführen können, müssen Sie den öffentlichen Schlüssel nur noch auf den Benutzeraccount des Servers hochladen.\n you@host > scp .ssh/id_rsa.pub :~/.ssh/ 's password:******** id_rsa.pub 100 % 219 0.2KB/s 00:00 you@host >\n Jetzt nochmals einloggen und die Datei id_rsa.pub an die Datei ~/.ssh/ authorized_keys hängen:\n you@host > ssh 's password:******** Last login: Sat Apr 30 13:25:22 2005 from p549b6d72.dip.t-dialin.net [us10129@goliath ~]$ cd ~/.ssh [us10129@goliath .ssh]$ ls id_rsa.pub known_hosts [us10129@goliath .ssh]$ cat id_rsa.pub >> authorized_keys\n Nach erneutem Einloggen über ssh oder dem Kopieren mit scp sollte die Passwortabfrage der Vergangenheit angehören.\n rsync â Replizieren von Dateien und Verzeichnissen \n rsync wird verwendet, um Dateien bzw. ganze Verzeichnis(bäume) zu synchronisieren. Hierbei kann sowohl eine lokale als auch eine entfernte Synchronisation vorgenommen werden. Der Ausdruck »synchronisieren« ist eigentlich rein syntaktisch nicht richtig. Man kann zwar bei einem Verzeichnisbaum »X« Daten hinzufügen, dass dieser exakt denselben Inhalt erhält wie der Verzeichnisbaum »Y«. Dies funktioniert allerdings umgekehrt gleichzeitig nicht. Man spricht hierbei vom Replizieren. Wollen Sie echtes bidirektionales Synchronisieren realisieren (bspw. Daten zwischen zwei PCs), müssen Sie auf unision zurückgreifen.\n Die Syntax zu rsync lautet:\n rsync [optionen] ziel quelle\n Einige Beispiele:\n rsync -avzb -e ssh pronix.de:/ /home/you/backups/\n Damit wird meine Webseite im Internet pronix.de mit dem lokalen Verzeichnis /home/you/backups synchronisiert. Mit a verwenden Sie den archive-Modus, mit b werden Backups erstellt und mit v (für verbose) wird rsync etwas gesprächiger. Durch die Option z werden die Daten komprimiert übertragen. Außerdem wird mit der Option âe und ssh eine verschlüsselte Datenübertragung verwendet.\n Geben Sie bei der Quelle als letztes Zeichen einen Slash (/) an, wird dieses Verzeichnis nicht mitkopiert, sondern nur der darin enthaltene Inhalt, beispielsweise:\n rsync -av /home/you/Shellbuch/ /home/you/backups\n Hier wird der Inhalt von /home/you/Shellbuch nach /home/you/backups kopiert. Würden Sie hingegen Folgendes schreiben\n rsync -av /home/you/Shellbuch /home/you/backups\n so würde in /home/you/backups das Verzeichnis Shellbuch angelegt (/home/ you/backups/Shellbuch/) und alles dorthin kopiert. Das hat schon vielen einige Nerven gekostet.\n Es folgt nun ein Überblick zu einigen Optionen von rsync.\n\n Tabelle 14.28  Gängige Optionen von rsync\n\n âa\n (archive mode): Kopiert alle Unterverzeichnisse, mitsamt Attributen (Symlinks, Rechte, Dateidatum, Gruppe, Devices) und (wenn man root ist) den Eigentümer der Datei(en)\n\n âv\n (verbose): Gibt während der Übertragung eine Liste der übertragenen Dateien aus\n\n ân\n (dry-run): Nichts schreiben, sondern den Vorgang nur simulieren â ideal zum Testen\n\n âe Programm\n Wenn in der Quelle oder dem Ziel ein Doppelpunkt enthalten ist, interpretiert rsync den Teil vor dem Doppelpunkt als Hostnamen und kommuniziert über das mit âe spezifizierte Programm. Gewöhnlich wird hierbei als Programm ssh verwendet. Weitere Parameter können Sie diesem Programm in Anführungszeichen gesetzt übergeben.\n\n âz\n Der Parameter âz bewirkt, daß rsync die Daten komprimiert überträgt.\n\n ââdelete ââforce ââdeleteâexcluded\n Damit werden alle Einträge im Zielverzeichnis gelöscht, die im Quellverzeichnis nicht (mehr) vorhanden sind.\n\n ââpartial\n Wurde die Verbindung zwischen zwei Rechnern getrennt, wird die nicht vollständig empfangene Datei nicht gelöscht. So kann bei einem erneuten rsync die Datenübertragung fortgesetzt werden.\n\n ââexclude=Pattern\n Hier kann man Dateien (mit Pattern) angeben, die man ignorieren möchte. Selbstverständlich sind hierbei reguläre Ausdrücke möglich.\n\n âx\n Damit werden alle Dateien auf einem Filesystem ausgeschlossen, die in ein Quellverzeichnis hineingemountet sind.\n\n Noch mehr zu rsync finden Sie auf der entsprechenden Webseite von rsync (http://rsync.samba.org/) oder wie üblich auf der Manual-Seite.\n traceroute â Route zu einem Rechner verfolgen \n traceroute ist ein TCP/IP-Tool, mit dem Informationen darüber ermittelt werden können, welche Computer ein Datenpaket über ein Netzwerk passiert, bis es bei einem bestimmten Host ankommt. Beispielsweise:\n you@host > traceroute www.microsoft.com traceroute to www.microsoft.com.nsatc.net (207.46.199.30), 30 hops max, 38 byte packets 1 164â138â193.gateway.dus1.myhoster.de (193.138.164.1) 0.350 ms 0.218 ms 0.198 ms 2 ddf-b1-geth3â2â11.telia.net (213.248.68.129) 0.431 ms 0.185 ms 0.145 ms 3 hbg-bb2-pos1â2â0.telia.net (213.248.65.109) 5.775 ms 5.785 ms 5.786 ms 4 adm-bb2-pos7â0â0.telia.net (213.248.65.161) 11.949 ms 11.879 ms 11.874 ms 5 ldn-bb2-pos7â2â0.telia.net (213.248.65.157) 19.611 ms 19.598 ms 19.585 ms ...\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 14.12 NetzwerkbefehleÂ\n\nNetzwerkbefehle erfordern ein tieferes Verständnis. Wenn Sie als Administrator mit Begriffen wie IP-Adresse, MAC-Adresse, DNS, FTP, SSH usw. nichts anfangen können, wäre eine fortführende Lektüre mehr als vonnöten. Leider kann ich aufgrund des eingeschränkten Umfangs nicht auf die Fachbegriffe der Netzwerktechnik eingehen. Nebenbei erwähnt, sind diese Themen zum Teil schon ein ganzes Buch wert, weshalb die Beschreibung hier wohl für die meisten eher enttäuschend ausfallen dürfte.\n\n### arp â Ausgeben von MAC-AdressenÂ\n\nWenn Sie die Tabelle mit den MAC-Adressen der kontaktierten Rechner benötigen, können Sie das Kommandos arp verwenden. Ein Beispiel:\n > you@host > arp -a ... juergen.penguin (192.168.0.xxx) at 00:30:84:7a:9e:0e on rl0 permanent [ethernet] ...\n\nDie MAC-Adresse ist hierbei die sechsstellige Hexadezimalzahl »00:30:84:7a:9e:0e«. Benötigen Sie hingegen die MAC-Nummer Ihrer eigenen Netzwerkkarte, so können Sie diese mit ifconfig ermitteln:\n > # ifconfig -a eth0 Protokoll:Ethernet Hardware Adresse 00:00:39:2D:01:A1 ...\n\nIn der Zeile »eth0« (unter Linux) finden Sie hierbei die entsprechende MAC-Adresse unter »Hardware Adresse«. Hier sind wieder systemspezifische Kenntnisse von Vorteil.\n\n### ftp â Dateien zu einem anderen Rechner übertragenÂ\n\nMit Hilfe von ftp (File Transfer Protocol) können Sie Dateien innerhalb eines Netzwerks (bspw. Internet) zwischen verschiedenen Rechnern transportieren. Da ftp über eine Menge Features und Funktionen verfügt, soll hier nur auf den Hausgebrauch eingegangen werden, und zwar wie man Daten von einem entfernten Rechner abholt und hinbringt.\n\nZunächst müssen Sie sich auf dem Server einloggen. Dies geschieht üblicherweise mit\n > ftp Server_Name\n\nIn meinem Beispiel lautet der Servername (und auch mein Webhoster) myhoster.de:\n > you@host > ftp myhoster.de Connected to myhoster.de (194.150.178.34). 220 194.150.178.34 FTP server ready Name (myhoster.de:you): us10129 331 Password required for us10129. Password:******** 230 User us10129 logged in. Remote system type is UNIX. Using binary mode to transfer files. ftpNachdem ftp eine Verbindung mit dem Server aufgenommen hat, werden Sie aufgefordert, Ihren Benutzernamen (hier »us10129«) und anschließend das Passwort einzugeben. Wenn alles korrekt war, befindet sich vor dem Prompt ftp> und wartet auf weitere Anweisungen. Jetzt können Sie im Eingabeprompt Folgendes machen:\n\n | Gewünschtes Verzeichnis durchsuchen: cd, dir, lcd (lokales Verzeichnis) |\n | --- | --- |\n\n | FTP-Parameter einstellen: type binary, hash, prompt |\n | --- | --- |\n\n | Datei(en) abholen: get, mget |\n | --- | --- |\n\n | Datei(en) hinbringen: put, mput |\n | --- | --- |\n\nNatürlich bietet ftp weitaus mehr Befehle als diese an, aber alles andere würde hier über den Rahmen des Buchs hinausgehen.\n\nZunächst werden Sie sich wohl das Inhaltverzeichnis ansehen wollen. Hierzu können Sie den Befehl dir (welcher auf *nix Systemen meistens dem Aufruf von ls âl entspricht) zum Auflisten verwenden:\n > ftp> dir 200 PORT command successful 150 Opening ASCII mode data connection for file list drwxrwx--x 9 4096 Apr 8 20:31 . drwxrwx--x 9 4096 Apr 8 20:31 .. -rw------- 1 26680 Apr 26 09:00 .bash_history ... lrwxrwxrwx 1 18 Aug 10 2004 logs -> /home/logs/us10129 drwxrwxr-x 2 4096 Mar 28 16:03 mysqldump drwxr-xr-x 20 4096 Apr 3 08:13 www.pronix.de 226 Transfer complete.\n\nWollen Sie nun in ein Verzeichnis wechseln, können Sie auch hier das schon bekannte Kommando cd verwenden. Ebenso sieht es aus, wenn Sie das aktuelle Arbeitsverzeichnis wissen wollen, in dem Sie sich gerade befinden. Hier leistet das bekannte pwd seine Dienste.\n\nDas aktuelle Verzeichnis auf dem lokalen Rechner können Sie mit dem Kommando lcd wechseln. Sie können übrigens auch die Befehle auf Ihrem lokalen Rechner verwenden, wenn Sie ein !-Zeichen davor setzen. Hierzu ein Beispiel, welches die Befehle nochmals demonstriert.\n > ftp> pwd 257 \"/\" is current directory. ftp> cd backups/Shellbuch 250 CWD command successful ftp> pwd 257 \"/backups/Shellbuch\" is current directory. ftp> dir 200 PORT command successful 150 Opening ASCII mode data connection for file list drwxrwxr-x 2 us10129 us10129 4096 Apr 26 09:07 . drwx------ 3 us10129 us10129 4096 Jan 15 14:15 .. ... -rw-r--r-- 1 us10129 us10129 126445 Mar 13 11:40 kap005.txt -rw------- 1 us10129 us10129 3231 Apr 20 05:26 whoami.txt 226 Transfer complete. ftpHier befinde ich mich auf dem Rechner myhoster.de in meinem Heimverzeichnis in ~/backups/Shellbuch. Ich möchte mir jetzt die Datei whoami.txt auf meinen lokalen Rechner kopieren. Ich hole sie mit dem Kommando get. Zuvor will ich aber noch auf meinem lokalen Rechner in ein Verzeichnis namens mydir wechseln.\n > ftp> lcd mydir Local directory now /home/you/mydir ftp> !pwd /home/you/mydir ftp> !ls file1.txt file2.txt file3.txt files.zip hallo.c ftp> get whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 150 Opening BINARY mode data connection whoami.txt (3231 bytes) 226 Transfer complete. 3231 bytes received in 0.0608 secs (52 Kbytes/sec) ftp> !ls file1.txt file2.txt file3.txt files.zip hallo.c whoami.txt ftpUnd schon habe ich die Datei whoami.txt auf meinem lokalen Rechner ins Verzeichnis mydir kopiert. Wollen Sie mehrere Dateien oder gar ganze Verzeichnisse holen, müssen Sie mget verwenden. Hierbei stehen Ihnen auch die Wildcard-Zeichen * und ? zur Verfügung. Da mget Sie nicht jedes Mal bei mehreren Dateien fragt, ob Sie diese wirklich holen wollen, können Sie den interaktiven Modus mit prompt abstellen.\n\nHaben Sie jetzt die Datei whoami.txt bearbeitet und wollen diese wieder hochladen, verwenden Sie put (oder bei mehreren Dateien mput).\n > ftp> put whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 150 Opening BINARY mode data connection for whoami.txt 226 Transfer complete. 3231 bytes sent in 0.000106 secs (3e+04 Kbytes/sec) ftpSie sehen außerdem, dass hierbei die Datenübertragung binär (BINARY) stattgefunden hat. Wollen Sie hier auf ASCII umstellen, müssen Sie nur type verwenden:\n > ftp> type ascii 200 Type set to A ftp> put whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 150 Opening ASCII mode data connection for whoami.txt 226 Transfer complete. 3238 bytes sent in 0.000487 secs (6.5e+03 Kbytes/sec) ftpZurücksetzen können Sie das wieder mit type binary. Und wie schon erwähnt, beim Übertragen mehrerer Dateien mit mget und mput werden Sie immer gefragt, ob Sie die Datei transferieren wollen. Diese Abfrage können Sie mit prompt abstellen. Je nachdem, ob Sie eine Fortschrittsanzeige wünschen, können Sie dies mit einem Aufruf von hash ab- oder anschalten. Gerade bei umfangreicheren Dateien ist dies sinnvoll. Dabei wird während der Übertragung alle 1024 Zeichen ein »#« ausgegeben.\n\nDen Script-Betrieb können Sie verwenden, wenn sich eine Datei namens .netrc im Heimverzeichnis des FTP-Servers befindet. Dabei können Sie sich z. B. beim Einloggen die Abfrage von Usernamen und Passwort ersparen. Natürlich kann man solch eine Datei auch im heimischen Heimverzeichnis anlegen. Allerdings darf diese Datei nur vom Eigentümer gelesen werden, also »chmod 0600« für ~/.netrc.\n\nSo sieht zum Beispiel der Vorgang, die Datei whoami.txt wie eben demonstriert vom Server zu holen, mit .netrc folgendermaßen aus:\n > machine myhoster.de login us10129 password asdf1234 macdef init cd $HOME/backups/Shellbuch get whoami.txt bye\n\nRufen Sie jetzt noch ftp wie folgt auf:\n > you@host > ftp myhoster.de Connected to myhoster.de (194.150.178.34). 220 194.150.178.34 FTP server ready 331 Password required for us10129. 230 User us10129 logged in. cd $HOME/backups/Shellbuch 550 $HOME/backups/Shellbuch: No such file or directory get whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 550 whoami.txt: No such file or directory Remote system type is UNIX. Using binary mode to transfer files. bye 221 Goodbye.\n\nUnd alles geschieht vollautomatisch. Ebenso sieht dies mit dem Hochladen von whoami.txt aus. Wenn die Datei editiert wurde, können Sie diese wieder wie folgt im Script-Modus hochladen. Hier die Datei .netrc:\n > machine myhoster.de login us10129 password asdf1234 macdef init lcd mydir cd $HOME/backups/Shellbuch put whoami.txt bye\n\nJetzt nur noch ftp aufrufen:\n > you@host > ftp myhoster.de Connected to myhoster.de (194.150.178.34). 220 194.150.178.34 FTP server ready 331 Password required for us10129. 230 User us10129 logged in. lcd mydir Local directory now /home/tot/mydir cd $HOME/backups/Shellbuch 550 $HOME/backups/Shellbuch: No such file or directory put whoami.txt local: whoami.txt remote: whoami.txt 200 PORT command successful 150 Opening ASCII mode data connection for whoami.txt 226 Transfer complete. 3238 bytes sent in 0.000557 secs (5.7e+03 Kbytes/sec) bye 221 Goodbye.\n\nNoch mehr Hinweise für den Script-Modus und die Datei netrc entnehmen Sie bitte aus man-Seite von netrc (man netrc).\n\n### hostname â Rechnername ermittelnÂ\n\nDas Kommando hostname können Sie verwenden, um den Namen des lokalen Rechners anzuzeigen bzw. zu setzen oder zu verändern. So ein Name hat eigentlich erst im Netzwerkbetrieb seine echte Bedeutung. Im Netz besteht ein vollständiger Rechnername (Fully Qualified Domain Name) aus einem Eigennamen und einem Domainnamen. Der (DNS-)Domainname bezeichnet das lokale Netz, an dem der Rechner hängt.\n > you@host > hostname goliath.myhoster.de you@host > hostname -s goliath you@host > hostname -d myhoster.de\n\nOhne Angabe einer Option wird der vollständige Rechnername ausgegeben. Mit der Option âs geben Sie nur den Eigennamen des Rechners aus und mit âd nur den (DNS-)Domainnamen des lokalen Netzes.\n\n### ifconfig â Netzwerkzugang konfigurierenÂ\n\nMit dem Kommando ifconfig kann man die Einstellungen einer Netzwerk-Schnittstelle abfragen oder setzen. Alle Einstellungen können Sie sich mit der Option âa anzeigen lassen. Die Syntax zu ifconfig:\n > ifconfig schnittstelle [addresse [parameter]]\n\nDabei geben Sie den Namen der zu konfigurierenden Schnittstelle an. Befindet sich bspw. auf Ihrem Rechner eine Netzwerkkarte, so lautet unter Linux die Schnittstelle hierzu »eth0«, die zweite Netzwerkkarte im Rechner (sofern eine vorhanden ist) wird mit »eth1« angesprochen. Auf anderen Systemen lautet der Name der Schnittstelle zur Netzwerkkarte wiederum anders. Daher sollte man ja auch ifconfig mit der Option âa aufrufen, um mehr in Erfahrung darüber zu bringen. Die »adresse« ist die IP-Adresse, die der Schnittstelle zugewiesen werden soll. Hierbei kann man die Dezimalnotation (xxx.xxx.xxx.xxx) verwenden oder einen Namen, den ifconfig in /etc/host nachschlägt.\n\nVerwenden Sie ifconfig ohne die Option âa, um sich einen Überblick zu verschaffen, dann werden die inaktiven Schnittstellen nicht mit angezeigt.\n\nDer Aufruf für die Schnittstelle zu Ethernetkarte »eth0« sieht beispielsweise wie folgt aus (Debian Sarge):\n > # ifconfig eth0 Link encap:Ethernet HWaddr 00:02:2A:D4:2C:EB inet addr:192.168.1.1 Bcast:192.168.1.255 Mask:255.255.255.0 UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:80 errors:0 dropped:0 overruns:0 frame:0 TX packets:59 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:100 RX bytes:8656 (8.4 KiB) TX bytes:8409 (8.2 KiB) Interrupt:11 Base address:0xa000 lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 UP LOOPBACK RUNNING MTU:16436 Metric:1 RX packets:8 errors:0 dropped:0 overruns:0 frame:0 TX packets:8 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:560 (560.0 b) TX bytes:560 (560.0 b)\n\nWenn IPv6 konfiguriert ist, kommt noch die IPv6-Adresse dazu.\n\nAus der Ausgabe kann man entnehmen, dass auf dieser Netzwerkkarte 59 Pakete gesendet (TX) und 80 empfangen (RX) wurden. Die maximale Größe einzelner Pakete beträgt 1500 bytes (MTU). Die MAC-Adresse (Hardware-Adresse), welche unsere Netzwerkkarte eindeutig identifiziert (außer diese wird manipuliert) lautet »00:02:2A:D4:2C:EB«.\n\nWollen Sie eine Schnittstelle ein- bzw. ausschalten, können Sie dies mit den zusätzlichen Parametern up (für Einschalten) und down (für Abschalten) vornehmen. Als Beispiel wieder die Netzwerkkarte mit dem Namen »eth0« als Schnittstelle:\n > ifconfig eth0 down\n\nHier haben Sie die Netzwerkkarte »eth0« abgeschaltet. Einschalten können Sie diese folgendermaßen:\n > ifconfig eth0 up\n\nEine IP-Adresse stellen Sie ein oder verändern Sie ebenfalls mit ifconfig:\n > ifconfig eth0 192.18.19.91\n\nWollen Sie bei der Schnittstelle die Netzmaske und Broadcast verändern, so ist dies mit ifconfig wenig Arbeit (unterlassen Sie es, wenn Sie nicht genau wissen, was die Netzmaske und Broadcast ist):\n > ifconfig eth0 10.25.38.41 netmask \\ 255.255.255.0 broadcast 10.25.38.255\n\nDamit weisen Sie der Netzwerkkarte die IP-Adresse 10.25.38.41 aus dem Netz 10.25.38.xxx zu. Mit »netmask« geben Sie an, wie groß das Netz ist (hier ein Netzwerk der Klasse C).\n\n### mail/mailx â E-Mails schreiben und empfangen (und auswerten)Â\n\nMit dem Kommando mail können Sie aus einem Shellscript heraus E-Mails versenden. Mithilfe der Option âs können Sie eine einfache Textmail mit Betreff (âs = Subject) an eine Adresse schicken, beispielsweise:\n > you@host > echo \"Hallo\" | mail -s \"Betreff\" \n\nDa nicht alle mail-Kommandos die Option âs für einen Betreff haben, können Sie gegebenenfalls auch auf mailx oder Mail (mit großen »M« ) zurückgreifen, die auf einigen Systemen vorhanden sind. Mit cat können Sie natürlich auch den Inhalt einer ganzen Datei an die Mailadresse senden:\n > you@host > cat whoami.txt | mail -s \"Ein Textdatei\" \\ > \n\nDabei kann man allerlei Ausgaben eines Kommandos per mail an eine Adresse versenden:\n > you@host > ps -ef | mail -s \"Prozesse 12Uhr\" \n\nSinnvoll kann dies z. B. sein, wenn auf einem System ein bestimmtes Limit überschritten wurde. Dann können Sie sich (oder einem anderen Benutzer) eine Nachricht zukommen lassen. Ebenso kann überprüft werden, ob ein Server dauerhaft verfügbar ist. Testen Sie etwa stündlich (bspw. mit cron) mittels nmap (hier kann man nicht nur nachsehen, ob die Netzwerkkarte das UDP-Paket zurückschickt, sondern kann direkt nachschauen, ob der Port des betreffenden Dienstes noch offen ist), ob der Server erreichbar ist, und ist er es einmal nicht, können Sie sich hierbei eine Nachricht zukommen lassen.\n\nZusätzliche Optionen, die Sie mit mail bzw. mailx verwenden können, sind:\n\nOption | Bedeutung |\n | --- | --- |\nâs Betreff | Hier können Sie den Betreff (Subject) der E-Mail angeben. |\nâc adresse | Diese Adresse bekommt eine Kopie der Mail. |\nâb adresse | Diese Adresse bekommt eine blind carbon copy der Mail. |\n\n### uuencode/uudecode â Text- bzw. Binärdateien codierenÂ\n\nMit den Kommandos uuencode/uudecode können Sie Textdateien in Binärdateien und wieder zurück umwandeln. Solche Umwandlungen werden zum Beispiel beim Datenaustausch über das Internet notwendig, weil sonst hierbei die Sonderzeichen (bspw. Umlaute bzw. alle ASCII-Zeichen über 127) auf manchen Rechnern nicht richtig dargestellt werden können. Was bei einer Textdatei nicht so wild ist, weil eben nicht darstellbare Zeichen »verhunzt« werden. Doch bei einer binären Datei bedeutet dies, dass diese schlicht nicht mehr funktioniert. Die meisten modernen E-Mail-Programme unterstützen MIME und erkennen solche codierten Dateien als Anhang automatisch, daher erfolgt hierbei die Umwandlung von selbst, ohne dass Sie als Benutzer etwas davon mitbekommen.\n\nuuencode macht im Prinzip nichts anderes, als dass es jeweils drei 8-Bit-Zeichen zu vier 6-Bit-Zeichen umwandelt und für jedes Zeichen 32 addiert. Damit werden alle Zeichen in einen Satz von Standardzeichen umgewandelt, die relativ verlässlich übertragen werden.\n\nGewöhnlich werden Sie wohl uuencode verwenden, um Anhänge zu Ihren E-Mails mit dem Programm mail, Mail oder mailx hinzuzufügen. Wollen Sie einfach eine Datei namens archiv.tgz per Anhang mit mail versenden, gehen Sie wie folgt vor:\n > you@host > uuencode archiv.tgz archiv.tgz | \\ > mail -s 'Anhang: archiv.tgz' user@host\n\nDas hierbei zweimal archiv.tgz verwendet wurde, ist übrigens kein Fehler, sondern wird von uuencode erwartet.\n\n### netstat â Statusinformationen über das NetzwerkÂ\n\nFür die Anwendung von netstat gibt es viele Möglichkeiten. Mit einem einfachen Aufruf von netstat zeigen Sie den Zustand einer bestehenden Netzwerkverbindung an. Neben der Überprüfung von Netzwerkverbindungen können Sie mit netstat Routentabellen, Statistiken zu Schnittstellen, maskierte Verbindungen und noch vieles mehr anzeigen lassen. In der Praxis lässt sich somit ohne Problem die IP oder der Port eines ICQ-Users (Opfer) ermitteln oder ob ein Rechner mit einen Trojaner infiziert ist. Hier einige Beispiele:\n > you@host > netstat -nr\n\nHiermit lassen Sie die Routingtabelle (âr) des Kernels ausgeben.\n > you@host > netstat -i\n\nMit der Option âi erhalten Sie die Schnittstellenstatistik.\n > you@host > netstat -ta\n\nMit âta erhalten Sie die Anzeige aller Verbindungen. Die Option ât steht dabei für TCP. Mit âu, âw bzw. âx zeigen Sie die UDP-, RAW bzw. UNIX-Sockets an. Mit âa werden dabei auch die Sockets angezeigt, die noch auf eine Verbindung warten.\n\n### nslookup (host/dig) â DNS-Server abfragenÂ\n\nMit nslookup können Sie aus dem Domainnamen eine IP-Adresse bzw. die IP-Adresse zu einem Domainnamen ermitteln. Zur Auflösung des Namens wird gewöhnlich der DNS-Server verwendet.\n\nHier nslookup und host bei der Ausführung:\n > you@host > nslookup pronix.de Server: 217.237.150.141 Address: 217.237.150.141#53 Non-authoritative answer: Name: pronix.de Address: 194.150.178.34 you@host > host pronix.de pronix.de has address 194.150.178.34 you@host > host 194.150.178.34 34.178.150.194.in-addr.arpa domain name pointer goliath.myhoster.de.\n\n### ping â Verbindung zu anderem Rechner testenÂ\n\nWollen Sie die Netzwerkverbindung zu einem anderen Rechner testen oder einfach nur den lokalen TCP/IP-Stack überprüfen, können Sie das Kommando ping (Paket Internet Groper) verwenden.\n > ping host\n\nping überprüft dabei, ob »host« (IP-Adresse oder Domainname) antwortet. ping bietet noch eine Menge Optionen an, die noch mehr Infos liefern, die allerdings hier nicht genauer erläutert werden. Zur Überprüfung sendet ping ein ICMP-Paket vom Type ICMP Echo Request an die Netzwerkstation. Hat die Netzwerkstation das Paket empfangen, sendet es ebenfalls ein ICMP-Paket, allerdings vom Typ ICMP Echo Reply zurück.\n > you@host > ping -c5 www.pronix.de PING www.pronix.de (194.150.178.34) 56(84) bytes of data. 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=1 ttl=56 time=79.0 ms 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=2 ttl=56 time=76.8 ms 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=3 ttl=56 time=78.2 ms 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=4 ttl=56 time=76.8 ms 64 bytes from goliath.myhoster.de (194.150.178.34): icmp_seq=5 ttl=56 time=79.2 ms --- www.pronix.de ping statistics --- 5 packets transmitted, 5 received, 0 % packet loss, time 4001ms rtt min/avg/max/mdev = 76.855/78.058/79.228/1.061 ms\n\nHier wurden z. B. 5 Pakete (mit der Option âc kann die Anzahl der Pakete angegeben werden) an www.pronix.de gesendet und wieder erfolgreich empfangen, wie aus der Zusammenfassung am Ende zu entnehmen ist. Rufen Sie ping hingegen ohne eine Option auf\n > ping www.pronix.de\n\nso müssen Sie selbst für eine Beendigung des Datenaustausches zwischen den Rechnern sorgen. Ein einfaches (Strg)+(C) tut da seinen Dienst und man erhält ebenfalls wieder eine Zusammenfassung. Neben der Möglichkeit, auf die Verfügbarkeit eines Rechners und des lokalen TCP/IP-Stacks zu prüfen (ping localhost), können Sie außerdem auch die Laufzeit von Paketen vom Sender zum Empfänger ermitteln. Hierzu wird die Zeit halbiert, bis das »Reply« eintrifft.\n\n### Die r-Kommandos von Berkeley (rcp, rlogin, rsh, rwho)Â\n\nAus Sicherheitsgründen sei empfohlen, diese Tools nicht mehr einzusetzen und stattdessen auf die mittlerweile sichereren Alternativen ssh und scp zu setzen. Es fängt schon damit an, dass hier das Passwort beim Einloggen im Klartext, ohne jede Verschlüsselung übertragen wird. Bedenken Sie, dass ein unverschlüsseltes Passwort, das zwischen zwei Rechnern im Internet übertragen wird, jederzeit (bspw. mit einem »Sniffer«) abgefangen und mitgelesen werden kann. Für Passwörter gilt im Allgemeinen, dass man diese niemals im Netz unverschlüsselt übertragen sollte. Da es mittlerweile zur Passwortübertragung mit Secure Shell (ssh), SecureRPC von SUN und Kerberos vom MIT sehr gute Lösungen gibt, haben die r-Kommandos eigentlich keine Berechtigung mehr.\n\nSchlimmer noch, für die Befehle rsh und rcp war auf den Zielrechnern nicht einmal ein Passwort nötig. Eine Authentifizierung erfolgte hierbei über die Datei /etc/hosts.equiv und ~/.rhosts. Darin wurden einzelne Rechner eingetragen, die als vertrauenswürdig empfunden wurden und so die Passwort-Authentifizierung umgehen konnten.\n\n### ssh â sichere Shell auf anderem Rechner startenÂ\n\nssh (Sercure Shell) zählt mittlerweile zu einem der wichtigsten Dienste überhaupt. Mit diesem Dienst ist es möglich, eine verschlüsselte Verbindung zwischen zwei Rechnern aufzubauen. ssh wurde aus der Motivation heraus entwickelt, sichere Alternativen zu telnet und den r-Kommandos von Berkeley zu schaffen.\n\nWenn Sie zum ersten Mal eine Verbindung zu einem anderen Rechner herstellen, bekommen Sie gewöhnlich eine Warnung, in der ssh nachfragt, ob Sie dem anderen Rechner vertrauen wollen. Wenn Sie mit »yes« antworten, speichert ssh den Namen und den RSA-Fingerprint (ein Code zur eindeutigen Identifizierung des anderen Rechners) in der Datei ~/.ssh/know_hosts. Beim nächsten Starten von ssh erfolgt diese Abfrage dann nicht mehr.\n\nIm nächsten Schritt erfolgt die Passwortabfrage, welche verschlüsselt übertragen wird. Bei korrekter Eingabe des Passworts beginnt die Sitzung am anderen Rechner (als würde man diesen Rechner vor sich haben). Die Syntax:\n > ssh -l loginname rechnername\n\nIn meinem Fall lautet der »loginname« bspw. »us10129« und der »rechnername« (mein Webhoster, auf dem sich pronix.de befindet) myhoster.de. Das Einloggen mit ssh verläuft hierbei wie folgt:\n > you@host > hostname linux.home you@host > ssh -l us10129 myhoster.de us10129@myhoster.de's password:******** Last login: Sat Apr 30 12:52:05 2005 from p549b6d72.dip.t-dialin.net [us10129@goliath ~]$ hostname goliath.myhoster.de [us10129@goliath ~]$ exit Connection to myhoster.de closed. you@host Oder ein weiteres Beispiel â ein Login zu meinem Fachgutachter auf einer FreeBSD-Jail:\n > you@host > ssh -l juergen123 192.135.147.2 Password:******** Last login: Wed Apr 27 15:26:24 2005 from ftpmirror.speed Copyright (c) 1980, 1983, 1986, 1988, 1990, 1991, 1993, 1994 FreeBSD 4.11-RELEASE (SEMA) #5: Mon Jan 31 14:06:17 CET 2005 juergen@juergen$ hostname juergen123.penguin juergen123@juergen$\n\nNoch ein paar Zeilen für die ganz Ängstlichen. Für jede Verbindung über ssh wird zwischen den Rechnern immer ein neuer Sitzungsschlüssel ausgehandelt. Will man einen solchen Schlüssel knacken, benötigt der Angreifer unglaublich viel Zeit. Sobald Sie sich ausloggen, müsste der Angreifer erneut versuchen, den Schlüssel zu knacken. Dies natürlich nur rein theoretisch, denn hierbei handelt es sich immerhin um Schlüssel wie RSA, BLOWFISH, IDEA und TRIPLEDES, zwischen denen man hier wählen kann. Alle diese Schlüssel gelten als sehr sicher.\n\n### scp â Dateien kopieren zwischen unterschiedlichen RechnernÂ\n\nDas Kommando scp ist Teil einer ssh-Installation, womit man Dateien sicher zwischen unterschiedlichen Rechnern kopieren kann. scp funktioniert genauso wie das lokale cp. Der einzige Unterschied ist natürlich die Angabe der Pfade auf den entfernten Rechnern. Dabei sieht die Verwendung des Rechnernamens wie folgt aus:\n > benutzer@rechner:/verzeichnis/zum/ziel\n\nUm auf meinen Account zurückzukommen, mein Benutzername lautet »us10129« und der Rechner myhoster.de:\n > you@host > scp whoami.txt :~ 's password:******** whoami.txt 100 % 3231 3.2KB/s 00:00 you@host > scp :~/grafik/baum.gif $HOME 's password:******** baum.gif 100 % 8583 8.4KB/s 00:00 you@host Zuerst wurde die Datei whoami.txt aus dem aktuellen lokalen Verzeichnis ins Heimverzeichnis von pronix.de kopiert (/home/us10129). Anschließend habe ich mir aus dem Verzeichnis /home/us10129/grafik die GIF-Datei baum.gif auf meinen lokalen Rechner kopiert. scp ist in der Tat eine interessante Lösung, um Dateien auf mehreren Rechnern mit einem Script zu kopieren.\n\nWas allerdings bei der Scriptausführung stören dürfte (besonders wenn es automatisch geschehen sollte), ist die Passwortabfrage (hierbei würde der Prozess angehalten). Hierzu bietet es sich an, sich mithilfe eines asymmetrischen Verschlüsselungsverfahrens ein Login ohne Passwort zu verschaffen. Dazu stellt man am besten auf dem Clientrechner mit dem Programm sshâkeygen ein entsprechendes Schlüsselpaar (hier mit einem RSA-Schlüssel) bereit:\n > you@host > ssh-keygen -t rsa Generating public/private rsa key pair. Enter file in which to save the key (/home/you/.ssh/id_rsa):(ENTER) Enter passphrase (empty for no passphrase):(ENTER) Enter same passphrase again:(ENTER) Your identification has been saved in /home/you/.ssh/id_rsa. Your public key has been saved in /home/you/.ssh/id_rsa.pub. The key fingerprint is: bb:d9:6b:b6:61:0e:46:e2:6a:8d:75:f5:b3:41:99:f9 you@linux\n\nHier wurden zwei RSA-Schlüssel ohne Passphrase erstellt. Jetzt haben Sie zwei Schlüssel, eine privaten (id_rsa.) und einen öffentlichen (id_rsa.pub). Damit Sie jetzt alle ssh-Aktionen ohne Passwort durchführen können, müssen Sie den öffentlichen Schlüssel nur noch auf den Benutzeraccount des Servers hochladen.\n > you@host > scp .ssh/id_rsa.pub :~/.ssh/ 's password:******** id_rsa.pub 100 % 219 0.2KB/s 00:00 you@host Jetzt nochmals einloggen und die Datei id_rsa.pub an die Datei ~/.ssh/ authorized_keys hängen:\n > you@host > ssh 's password:******** Last login: Sat Apr 30 13:25:22 2005 from p549b6d72.dip.t-dialin.net [us10129@goliath ~]$ cd ~/.ssh [us10129@goliath .ssh]$ ls id_rsa.pub known_hosts [us10129@goliath .ssh]$ cat id_rsa.pub >> authorized_keys\n\nNach erneutem Einloggen über ssh oder dem Kopieren mit scp sollte die Passwortabfrage der Vergangenheit angehören.\n\n### rsync â Replizieren von Dateien und VerzeichnissenÂ\n\nrsync wird verwendet, um Dateien bzw. ganze Verzeichnis(bäume) zu synchronisieren. Hierbei kann sowohl eine lokale als auch eine entfernte Synchronisation vorgenommen werden. Der Ausdruck »synchronisieren« ist eigentlich rein syntaktisch nicht richtig. Man kann zwar bei einem Verzeichnisbaum »X« Daten hinzufügen, dass dieser exakt denselben Inhalt erhält wie der Verzeichnisbaum »Y«. Dies funktioniert allerdings umgekehrt gleichzeitig nicht. Man spricht hierbei vom Replizieren. Wollen Sie echtes bidirektionales Synchronisieren realisieren (bspw. Daten zwischen zwei PCs), müssen Sie auf unision zurückgreifen.\n\nDie Syntax zu rsync lautet:\n > rsync [optionen] ziel quelle\n\nEinige Beispiele:\n > rsync -avzb -e ssh pronix.de:/ /home/you/backups/\n\nDamit wird meine Webseite im Internet pronix.de mit dem lokalen Verzeichnis /home/you/backups synchronisiert. Mit a verwenden Sie den archive-Modus, mit b werden Backups erstellt und mit v (für verbose) wird rsync etwas gesprächiger. Durch die Option z werden die Daten komprimiert übertragen. Außerdem wird mit der Option âe und ssh eine verschlüsselte Datenübertragung verwendet.\n\nGeben Sie bei der Quelle als letztes Zeichen einen Slash (/) an, wird dieses Verzeichnis nicht mitkopiert, sondern nur der darin enthaltene Inhalt, beispielsweise:\n > rsync -av /home/you/Shellbuch/ /home/you/backups\n\nHier wird der Inhalt von /home/you/Shellbuch nach /home/you/backups kopiert. Würden Sie hingegen Folgendes schreiben\n > rsync -av /home/you/Shellbuch /home/you/backups\n\nso würde in /home/you/backups das Verzeichnis Shellbuch angelegt (/home/ you/backups/Shellbuch/) und alles dorthin kopiert. Das hat schon vielen einige Nerven gekostet.\n\nEs folgt nun ein Überblick zu einigen Optionen von rsync.\n\nOption | Bedeutung |\n | --- | --- |\nâa | (archive mode): Kopiert alle Unterverzeichnisse, mitsamt Attributen (Symlinks, Rechte, Dateidatum, Gruppe, Devices) und (wenn man root ist) den Eigentümer der Datei(en) |\nâv | (verbose): Gibt während der Übertragung eine Liste der übertragenen Dateien aus |\nân | (dry-run): Nichts schreiben, sondern den Vorgang nur simulieren â ideal zum Testen |\nâe Programm | Wenn in der Quelle oder dem Ziel ein Doppelpunkt enthalten ist, interpretiert rsync den Teil vor dem Doppelpunkt als Hostnamen und kommuniziert über das mit âe spezifizierte Programm. Gewöhnlich wird hierbei als Programm ssh verwendet. Weitere Parameter können Sie diesem Programm in Anführungszeichen gesetzt übergeben. |\nâz | Der Parameter âz bewirkt, daß rsync die Daten komprimiert überträgt. |\nââdelete ââforce ââdeleteâexcluded | Damit werden alle Einträge im Zielverzeichnis gelöscht, die im Quellverzeichnis nicht (mehr) vorhanden sind. |\nââpartial | Wurde die Verbindung zwischen zwei Rechnern getrennt, wird die nicht vollständig empfangene Datei nicht gelöscht. So kann bei einem erneuten rsync die Datenübertragung fortgesetzt werden. |\nââexclude=Pattern | Hier kann man Dateien (mit Pattern) angeben, die man ignorieren möchte. Selbstverständlich sind hierbei reguläre Ausdrücke möglich. |\nâx | Damit werden alle Dateien auf einem Filesystem ausgeschlossen, die in ein Quellverzeichnis hineingemountet sind. |\n\nNoch mehr zu rsync finden Sie auf der entsprechenden Webseite von rsync (http://rsync.samba.org/) oder wie üblich auf der Manual-Seite.\n\n### traceroute â Route zu einem Rechner verfolgenÂ\n\ntraceroute ist ein TCP/IP-Tool, mit dem Informationen darüber ermittelt werden können, welche Computer ein Datenpaket über ein Netzwerk passiert, bis es bei einem bestimmten Host ankommt. Beispielsweise:\n > you@host > traceroute www.microsoft.com traceroute to www.microsoft.com.nsatc.net (207.46.199.30), 30 hops max, 38 byte packets 1 164â138â193.gateway.dus1.myhoster.de (193.138.164.1) 0.350 ms 0.218 ms 0.198 ms 2 ddf-b1-geth3â2â11.telia.net (213.248.68.129) 0.431 ms 0.185 ms 0.145 ms 3 hbg-bb2-pos1â2â0.telia.net (213.248.65.109) 5.775 ms 5.785 ms 5.786 ms 4 adm-bb2-pos7â0â0.telia.net (213.248.65.161) 11.949 ms 11.879 ms 11.874 ms 5 ldn-bb2-pos7â2â0.telia.net (213.248.65.157) 19.611 ms 19.598 ms 19.585 ms ...\n\n# 14.13 BenutzerkommunikationÂ\n\n14.13 Benutzerkommunikation \n wall â Nachrichten an alle Benutzer verschicken \n Mit dem Kommando wall senden Sie eine Nachricht an alle aktiven Benutzer auf dem Rechner. Damit ein Benutzer auch Nachrichten empfangen kann, muss dieser mit mesg yes diese Option einschalten. Natürlich kann ein Benutzer das Empfangen von Nachrichten auch mit mesg no abschalten. Nachrichten werden nach einem Aufruf von wall von der Standardeingabe eingelesen und mit der Tastenkombination (Strg)+(D) abgeschlossen und versendet. Gewöhnlich wird wall vom Systemadministrator verwendet, um den Benutzer auf bestimmte Ereignisse, wie etwa das Neustarten des Systems hinzuweisen.\n write â Nachrichten an andere Benutzer verschicken \n Ähnlich wie mit wall können Sie mit write eine Nachricht versenden, allerdings an einen bestimmten oder mehrere Benutzer.\n wall Benutzer1 ...\n Ansonsten gilt bei der Verwendung von write das Gleiche wie für wall. Auch hier wird die von der Standardeingabe eingelesene Nachricht mit (Strg)+(D) beendet und auf der Gegenstelle muss auch hier mesg yes gelten, damit der Benutzer die Nachricht empfangen kann. Natürlich ist es dem Benutzer root gestattet, jedem Benutzer eine Nachricht zu senden, auch wenn dieser das Empfangen von Nachrichten mit mesg no« abgeschaltet hat.\n mesg â Nachrichten auf die Dialogstation zulassen oder unterbinden \n Mit dem Kommando mesg können Sie einem anderen Benutzer erlauben, auf das Terminal (bspw. mittels write oder wall) zu schreiben oder eben dies zu sperren. Rufen Sie mesg ohne Optionen auf, wird so ausgegeben, wie die Zugriffsrechte gesetzt sind â y (für yes) und n (für no). Wollen Sie dem Benutzer erlauben, dass er auf Ihre Dialogstation schreiben darf, können Sie dies mit mesg folgendermaßen erreichen:\n mesg yes\n oder\n mesg -y\n Wollen Sie hingegeben unterbinden, dass jemand Nachrichten auf Ihre Dialogstation ausgibt, wird mesg so verwendet:\n mesg no\n oder\n mesg -n\n Beispielsweise:\n you@host > mesg is n you@host > mesg yes you@host > mesg ist y\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 14.13 BenutzerkommunikationÂ\n\n### wall â Nachrichten an alle Benutzer verschickenÂ\n\nMit dem Kommando wall senden Sie eine Nachricht an alle aktiven Benutzer auf dem Rechner. Damit ein Benutzer auch Nachrichten empfangen kann, muss dieser mit mesg yes diese Option einschalten. Natürlich kann ein Benutzer das Empfangen von Nachrichten auch mit mesg no abschalten. Nachrichten werden nach einem Aufruf von wall von der Standardeingabe eingelesen und mit der Tastenkombination (Strg)+(D) abgeschlossen und versendet. Gewöhnlich wird wall vom Systemadministrator verwendet, um den Benutzer auf bestimmte Ereignisse, wie etwa das Neustarten des Systems hinzuweisen.\n\n### write â Nachrichten an andere Benutzer verschickenÂ\n\nÄhnlich wie mit wall können Sie mit write eine Nachricht versenden, allerdings an einen bestimmten oder mehrere Benutzer.\n > wall Benutzer1 ...\n\nAnsonsten gilt bei der Verwendung von write das Gleiche wie für wall. Auch hier wird die von der Standardeingabe eingelesene Nachricht mit (Strg)+(D) beendet und auf der Gegenstelle muss auch hier mesg yes gelten, damit der Benutzer die Nachricht empfangen kann. Natürlich ist es dem Benutzer root gestattet, jedem Benutzer eine Nachricht zu senden, auch wenn dieser das Empfangen von Nachrichten mit mesg no« abgeschaltet hat.\n\n### mesg â Nachrichten auf die Dialogstation zulassen oder unterbindenÂ\n\nMit dem Kommando mesg können Sie einem anderen Benutzer erlauben, auf das Terminal (bspw. mittels write oder wall) zu schreiben oder eben dies zu sperren. Rufen Sie mesg ohne Optionen auf, wird so ausgegeben, wie die Zugriffsrechte gesetzt sind â y (für yes) und n (für no). Wollen Sie dem Benutzer erlauben, dass er auf Ihre Dialogstation schreiben darf, können Sie dies mit mesg folgendermaßen erreichen:\n > mesg yes\n\noder\n > mesg -y\n\nWollen Sie hingegeben unterbinden, dass jemand Nachrichten auf Ihre Dialogstation ausgibt, wird mesg so verwendet:\n > mesg no\n\noder\n > mesg -n\n\nBeispielsweise:\n > you@host > mesg is n you@host > mesg yes you@host > mesg ist y\n\n14.14 Bildschirm- und Terminalkommandos \n clear â Löschen des Bildschirms \n Mit dem Kommando clear löschen Sie den Bildschirm, sofern dies möglich ist. Das Kommando sucht in der Umgebung nach dem Terminaltyp und dann in der terminfo-Datenbank, um herauszufinden, wie der Bildschirm für das entsprechende Terminal gelöscht wird.\n reset â Zeichensatz für ein Terminal wiederherstellen \n Mit dem Kommando reset können Sie jedes virtuelle Terminal wieder in einen definierten Zustand (zurück) setzen. Gibt es kein Kommando mit diesem Namen, können Sie Selbiges auch mit setterm âreset erreichen.\n setterm â Terminal-Einstellung verändern \n Mit setterm können die Terminal-Einstellungen wie bspw. die Hintergrund- bzw. Vordergrundfarbe verändert werden. Ruft man setterm ohne Optionen auf, erhält man einen Überblick zu allen möglichen Optionen von setterm. Sie können setterm entweder interaktiv verwenden\n you@host > setterm -bold on\n (hier schalten Sie bspw. die Fettschrift an) oder aber Sie sichern die Einstellungen dauerhaft in der Datei ~/.profile. Einige wichtige Einstellungen von setterm sind:\n\n Tabelle 14.29  Einige häufig benötigte Optionen für setterm\n\n setterm âclear\n Löscht den Bildschirm\n\n setterm âreset\n Terminal wieder in einen defnierten Zustand zurückbringen\n\n setterm âblank n\n Bildschirm nach n Minuten Untätigkeit abschalten\n\n stty â Terminal-Einstellung abfragen oder setzen \n Mit stty können Sie die Terminal-Einstellung abfragen oder verändern. Rufen Sie stty ohne Argumente auf, wird die Leitungsgeschwindigkeit des aktuellen Terminals ausgegeben. Wenn Sie stty mit der Option âa aufrufen, erhalten Sie die aktuelle Terminal-Einstellung.\n you@host > stty -a speed 38400 baud; rows 23; columns 72; line = 0; intr=^C; quit=^\\; erase=^?; kill=^U; eof=^D; eol=; eol2 = ; start = ^Q; stop = ^S; susp = ^Z; rprnt = ^R; werase = ^W; lnext = ^V; flush = ^O; min = 1; time = 0; -parenb -parodd cs8 -hupcl -cstopb cread -clocal -crtscts -ignbrk brkint ignpar -parmrk -inpck -istrip -inlcr -igncr icrnl ixon -ixoff -iuclc -ixany imaxbel -iutf8 opost -olcuc -ocrnl onlcr -onocr -onlret -ofill -ofdel nl0 cr0 tab0 bs0 vt0 ff0 isig icanon iexten echo echoe echok -echonl -noflsh -xcase âtostop -echoprt echoctl echoke\n Die Einstellungen lassen sich häufig schwer beschreiben. Hierzu bedarf es schon einer intensiveren Befassung mit der Funktionsweise zeichenorientierter Gerätetreiber im Kernel und der seriellen Schnittstelle â was hier allerdings nicht zur Diskussion steht.\n Alle Flags, die sich mit stty verändern lassen, können Sie sich mit stty ââhelp auflisten lassen. Viele dieser Flags lassen Sie mit einem vorangestellten Minus abschalten und ohne ein Minus (wieder) aktivieren. Wenn Sie beim Probieren der verschiedenen Flags das Terminal nicht mehr vernünftig steuern können, hilft Ihnen das Kommando reset oder setterm âreset, um das Terminal wiederherzustellen. Über\n you@host > stty -echo\n beispielsweise schalten Sie die Ausgabe des Terminals ab und mit\n you@host > stty echo\n stellen Sie die Ausgabe auf dem Bildschirm wieder her. Allerdings müssen Sie hier recht sicher im Umgang mit der Tastatur sein, weil Sie ja zuvor die Ausgabe deaktiviert haben.\n tty â Terminal-Name erfragen \n Mit tty können Sie den Terminal-Namen inklusive Pfad erfragen, der die Standardeingabe entgegennimmt.\n you@host > tty /dev/pts/36\n Verwenden Sie die Option âs, erfolgt keine Ausgabe, vielmehr wird nur der Status gesetzt. Dabei haben diese Wert folgende Bedeutung:\n\n Tabelle 14.30  Rückgabestatus von tty mit der Option -s\n\n Status\n Bedeutung\n\n 0\n Standardeingabe ist ein Terminal\n\n 1\n Standardeingabe ist kein Terminal\n\n 2\n Unbekannter Fehler ist aufgetreten\n\n Ein Beispiel: you@host > tty -s you@host > echo $? 0\n Diese Abfrage wird bspw. gern in Scripts verwendet, um zu ermitteln, ob für die Standardeingabe ein Terminal zur Verfügung steht. Einem Hintergrundprozess zum Beispiel steht keine Standardeingabe zur Verfügung.\n tput â Terminal- und Cursorsteuerung \n Das Kommando tput wurde umfangreich in Abschnitt 5.2.4 behandelt.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n### clear â Löschen des BildschirmsÂ\n\nMit dem Kommando clear löschen Sie den Bildschirm, sofern dies möglich ist. Das Kommando sucht in der Umgebung nach dem Terminaltyp und dann in der terminfo-Datenbank, um herauszufinden, wie der Bildschirm für das entsprechende Terminal gelöscht wird.\n\n### reset â Zeichensatz für ein Terminal wiederherstellenÂ\n\nMit dem Kommando reset können Sie jedes virtuelle Terminal wieder in einen definierten Zustand (zurück) setzen. Gibt es kein Kommando mit diesem Namen, können Sie Selbiges auch mit setterm âreset erreichen.\n\n### setterm â Terminal-Einstellung verändernÂ\n\nMit setterm können die Terminal-Einstellungen wie bspw. die Hintergrund- bzw. Vordergrundfarbe verändert werden. Ruft man setterm ohne Optionen auf, erhält man einen Überblick zu allen möglichen Optionen von setterm. Sie können setterm entweder interaktiv verwenden\n > you@host > setterm -bold on\n\n(hier schalten Sie bspw. die Fettschrift an) oder aber Sie sichern die Einstellungen dauerhaft in der Datei ~/.profile. Einige wichtige Einstellungen von setterm sind:\n\nVerwendung | Bedeutung |\n | --- | --- |\nsetterm âclear | Löscht den Bildschirm |\nsetterm âreset | Terminal wieder in einen defnierten Zustand zurückbringen |\nsetterm âblank n | Bildschirm nach n Minuten Untätigkeit abschalten |\n\n### stty â Terminal-Einstellung abfragen oder setzenÂ\n\nMit stty können Sie die Terminal-Einstellung abfragen oder verändern. Rufen Sie stty ohne Argumente auf, wird die Leitungsgeschwindigkeit des aktuellen Terminals ausgegeben. Wenn Sie stty mit der Option âa aufrufen, erhalten Sie die aktuelle Terminal-Einstellung.\n > you@host > stty -a speed 38400 baud; rows 23; columns 72; line = 0; intr=^C; quit=^\\; erase=^?; kill=^U; eof=^D; eol=; eol2 = ; start = ^Q; stop = ^S; susp = ^Z; rprnt = ^R; werase = ^W; lnext = ^V; flush = ^O; min = 1; time = 0; -parenb -parodd cs8 -hupcl -cstopb cread -clocal -crtscts -ignbrk brkint ignpar -parmrk -inpck -istrip -inlcr -igncr icrnl ixon -ixoff -iuclc -ixany imaxbel -iutf8 opost -olcuc -ocrnl onlcr -onocr -onlret -ofill -ofdel nl0 cr0 tab0 bs0 vt0 ff0 isig icanon iexten echo echoe echok -echonl -noflsh -xcase âtostop -echoprt echoctl echoke\n\nDie Einstellungen lassen sich häufig schwer beschreiben. Hierzu bedarf es schon einer intensiveren Befassung mit der Funktionsweise zeichenorientierter Gerätetreiber im Kernel und der seriellen Schnittstelle â was hier allerdings nicht zur Diskussion steht.\n\nAlle Flags, die sich mit stty verändern lassen, können Sie sich mit stty ââhelp auflisten lassen. Viele dieser Flags lassen Sie mit einem vorangestellten Minus abschalten und ohne ein Minus (wieder) aktivieren. Wenn Sie beim Probieren der verschiedenen Flags das Terminal nicht mehr vernünftig steuern können, hilft Ihnen das Kommando reset oder setterm âreset, um das Terminal wiederherzustellen. Über\n > you@host > stty -echo\n\nbeispielsweise schalten Sie die Ausgabe des Terminals ab und mit\n > you@host > stty echo\n\nstellen Sie die Ausgabe auf dem Bildschirm wieder her. Allerdings müssen Sie hier recht sicher im Umgang mit der Tastatur sein, weil Sie ja zuvor die Ausgabe deaktiviert haben.\n\n### tty â Terminal-Name erfragenÂ\n\nMit tty können Sie den Terminal-Namen inklusive Pfad erfragen, der die Standardeingabe entgegennimmt.\n > you@host > tty /dev/pts/36\n\nVerwenden Sie die Option âs, erfolgt keine Ausgabe, vielmehr wird nur der Status gesetzt. Dabei haben diese Wert folgende Bedeutung:\n\nStatus | Bedeutung |\n | --- | --- |\n0 | Standardeingabe ist ein Terminal |\n1 | Standardeingabe ist kein Terminal |\n2 | Unbekannter Fehler ist aufgetreten |\n\n > Ein Beispiel: you@host > tty -s you@host > echo $? 0\n\nDiese Abfrage wird bspw. gern in Scripts verwendet, um zu ermitteln, ob für die Standardeingabe ein Terminal zur Verfügung steht. Einem Hintergrundprozess zum Beispiel steht keine Standardeingabe zur Verfügung.\n\n### tput â Terminal- und CursorsteuerungÂ\n\nDas Kommando tput wurde umfangreich in Abschnitt 5.2.4 behandelt.\n\n# 14.15 Online-HilfenÂ\n\n14.15 Online-Hilfen apropos â nach Schlüsselwörtern in man-Seiten suchen Die Syntax:apropos keywordMit apropos werden alle man-Seiten aufgelistet, in denen sich das Wort »keyword« befindet. Selbiges kann auch mit dem Kommando man und der Option âk erreicht werden.info â GNU-Online-Manual info ist das Hilfe-System für die bei Linux mitgelieferte GNU-Software.info [kommando]Die wichtigsten Tasten zum Verwenden der Info-Seiten sind:Tabelle 14.31  Gängige Tasten zur Steuerung von info-SeitenTasteBedeutung(SPACE)Eine Seite nach unten blättern(BACKSPACE)Eine Seite nach oben blättern(B)Anfang des info-Textes(E)Ende des info-Textes(Ë_)Zum nächsten Querverweis springen(ENTER)Querverweis folgen(H)Anleitung zur Bedienung von info(?)Kommandoübersicht von info(Q)info beendenman â die traditionelle Online-Hilfe Mit man geben Sie die Manual-Seiten zu einem entsprechenden Namen aus:man NameDie Anzeige der man-Seite erfolgt über einen Pager, was meistens less oder eventuell auch more ist. Zur Steuerung dieser Pager blättern Sie bitte zur gegebenen Seite zurück. Den Pager können Sie aber auch mit der Option âP oder der Umgebungsvariablen PAGER selbst bestimmen. Aufgeteilt werden die man-Seiten in verschiedene Kategorien:1. Benutzerkommandos      2. Systemaufrufe      3. C-Bibliotheksfunktionen      4. Beschreibungen der Gerätedateien      5. Dateiformate      7. Makropakete für die Textformatierer      8. Kommandos für die Systemverwalterin      9. KernelroutinenDie Reihenfolge, in der die Sektionen nach einer bestimmten Manual-Page durchsucht werden, ist in der Konfigurationsdatei /etc/man.config festgelegt. In der MANSEC-Umgebungsvariablen kann jeder User für sich eine andere Reihenfolge bestimmen.Ebenso sind die Verzeichnisse, in denen nach den man-Seiten gesucht werden soll, in /etc/man.config festgeschrieben. Da die Datei /etc/man.config nur von root bearbeitet werden darf, besteht auch hierbei die Möglichkeit, dass der Benutzer mit der Umgebungsvariablen MANPATH ein anderes Verzeichnis angeben kann.Das Kommando man hat eine Reihe von Optionen, hier die wichtigsten: -a â häufig gibt es gleichnamige man-Seiten in verschiedenen Kategorien. Geben Sie bspw. man sleep ein, bekommen Sie die erste gefundene Sektion (abhängig von der Reihenfolge, die in /etc/man.config oder MANSEC angegeben wurde) mit entsprechenden Namen ausgegeben. Wollen Sie alle man-Seiten zu einem bestimmten Namen bzw. Kommando lesen, so müssen Sie nur die Option -a verwenden. Mit man -a sleep erhalten Sie jetzt alle man-Seiten mit sleep (in meinen Fall waren es drei man-Seiten zu sleep). -k keyword â entspricht apropos keyword; damit werden alle man-Seiten ausgegeben, die das Wort keyword enthalten. -f keyword â entspricht whatis keyword; damit wird eine einzeilige Bedeutung von keyword ausgegeben.whatis â Kurzbeschreibung zu einem Kommando Die Syntax:whatis keywordMit dem Kommando whatis wird die Bedeutung von »keyword« als ein einzeiliger Text ausgegeben. whatis entspricht einem Aufruf von man âf keyword.Ihre MeinungWie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 14.15 Online-HilfenÂ\n\n### apropos â nach Schlüsselwörtern in man-Seiten suchenÂ\n\nDie Syntax:\n > apropos keyword\n\nMit apropos werden alle man-Seiten aufgelistet, in denen sich das Wort »keyword« befindet. Selbiges kann auch mit dem Kommando man und der Option âk erreicht werden.\n\n### info â GNU-Online-ManualÂ\n\ninfo ist das Hilfe-System für die bei Linux mitgelieferte GNU-Software.\n > info [kommando]\n\nDie wichtigsten Tasten zum Verwenden der Info-Seiten sind:\n\nTaste | Bedeutung |\n | --- | --- |\n(SPACE) | Eine Seite nach unten blättern |\n(BACKSPACE) | Eine Seite nach oben blättern |\n(B) | Anfang des info-Textes |\n(E) | Ende des info-Textes |\n(Ë_) | Zum nächsten Querverweis springen |\n(ENTER) | Querverweis folgen |\n(H) | Anleitung zur Bedienung von info |\n(?) | Kommandoübersicht von info |\n(Q) | info beenden |\n\n### man â die traditionelle Online-HilfeÂ\n\nMit man geben Sie die Manual-Seiten zu einem entsprechenden Namen aus:\n > man Name\n\nDie Anzeige der man-Seite erfolgt über einen Pager, was meistens less oder eventuell auch more ist. Zur Steuerung dieser Pager blättern Sie bitte zur gegebenen Seite zurück. Den Pager können Sie aber auch mit der Option âP oder der Umgebungsvariablen PAGER selbst bestimmen. Aufgeteilt werden die man-Seiten in verschiedene Kategorien:\n\n1. | Benutzerkommandos |\n | --- | --- |\n   |    |\n\n2. | Systemaufrufe |\n | --- | --- |\n   |    |\n\n3. | C-Bibliotheksfunktionen |\n | --- | --- |\n   |    |\n\n4. | Beschreibungen der Gerätedateien |\n | --- | --- |\n   |    |\n\n5. | Dateiformate |\n | --- | --- |\n   |    |\n\n7. | Makropakete für die Textformatierer |\n | --- | --- |\n   |    |\n\n8. | Kommandos für die Systemverwalterin |\n | --- | --- |\n   |    |\n\n9. Kernelroutinen \nDie Reihenfolge, in der die Sektionen nach einer bestimmten Manual-Page durchsucht werden, ist in der Konfigurationsdatei /etc/man.config festgelegt. In der MANSEC-Umgebungsvariablen kann jeder User für sich eine andere Reihenfolge bestimmen.\n\nEbenso sind die Verzeichnisse, in denen nach den man-Seiten gesucht werden soll, in /etc/man.config festgeschrieben. Da die Datei /etc/man.config nur von root bearbeitet werden darf, besteht auch hierbei die Möglichkeit, dass der Benutzer mit der Umgebungsvariablen MANPATH ein anderes Verzeichnis angeben kann.\n\nDas Kommando man hat eine Reihe von Optionen, hier die wichtigsten:\n\n | -a â häufig gibt es gleichnamige man-Seiten in verschiedenen Kategorien. Geben Sie bspw. man sleep ein, bekommen Sie die erste gefundene Sektion (abhängig von der Reihenfolge, die in /etc/man.config oder MANSEC angegeben wurde) mit entsprechenden Namen ausgegeben. Wollen Sie alle man-Seiten zu einem bestimmten Namen bzw. Kommando lesen, so müssen Sie nur die Option -a verwenden. Mit man -a sleep erhalten Sie jetzt alle man-Seiten mit sleep (in meinen Fall waren es drei man-Seiten zu sleep). |\n | --- | --- |\n\n | -k keyword â entspricht apropos keyword; damit werden alle man-Seiten ausgegeben, die das Wort keyword enthalten. |\n | --- | --- |\n\n | -f keyword â entspricht whatis keyword; damit wird eine einzeilige Bedeutung von keyword ausgegeben. |\n | --- | --- |\n\n### whatis â Kurzbeschreibung zu einem KommandoÂ\n\nDie Syntax:\n > whatis keyword\n\nMit dem Kommando whatis wird die Bedeutung von »keyword« als ein einzeiliger Text ausgegeben. whatis entspricht einem Aufruf von man âf keyword.\n\n# 14.17 Gemischte KommandosÂ\n\n14.17 Gemischte Kommandos \n alias/unalias â Kurznamen für Kommandos vergeben bzw. löschen \n Mit alias können Sie für einfache Kommandos benutzerdefinierte Namen anlegen. Löschen können Sie dieses Synonym wieder mit unalias. alias/ unalias wurde bereits in Abschnitt 6.6 beschrieben.\n bc â Taschenrechner \n bc ist ein arithmetischer, sehr umfangreicher Taschenrechner für die Konsole mit vielen ausgereiften Funktionen. Dieser Taschenrechner wurde bereits in Abschnitt 2.2.3 kurz behandelt.\n printenv bzw. env â Umgebungsvariablen anzeigen \n Mit printenv können Sie Umgebungsvariablen für einen Prozess anzeigen lassen. Geben Sie kein Argument an, werden alle Variablen ausgegeben, ansonsten der entsprechende Wert der Umgebungsvariablen.\n you@host > printenv PAGER less you@host > printenv MANPATH /usr/local/man:/usr/share/man:/usr/X11R6/man:/opt/gnome/share/man\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 14.17 Gemischte KommandosÂ\n\n### alias/unalias â Kurznamen für Kommandos vergeben bzw. löschenÂ\n\nMit alias können Sie für einfache Kommandos benutzerdefinierte Namen anlegen. Löschen können Sie dieses Synonym wieder mit unalias. alias/ unalias wurde bereits in Abschnitt 6.6 beschrieben.\n\n### bc â TaschenrechnerÂ\n\nbc ist ein arithmetischer, sehr umfangreicher Taschenrechner für die Konsole mit vielen ausgereiften Funktionen. Dieser Taschenrechner wurde bereits in Abschnitt 2.2.3 kurz behandelt.\n\n### printenv bzw. env â Umgebungsvariablen anzeigenÂ\n\nMit printenv können Sie Umgebungsvariablen für einen Prozess anzeigen lassen. Geben Sie kein Argument an, werden alle Variablen ausgegeben, ansonsten der entsprechende Wert der Umgebungsvariablen.\n > you@host > printenv PAGER less you@host > printenv MANPATH /usr/local/man:/usr/share/man:/usr/X11R6/man:/opt/gnome/share/man\n\n# 15.2 Datei-UtilitiesÂ\n\n15.2 Datei-Utilities \n 15.2.1 Leerzeichen im Dateinamen ersetzen \n Befinden sich auf Ihrem Rechner mal wieder eine Menge Dateien oder Verzeichnisse mit einem Leerzeichen zwischen dem Dateinamen, wie dies häufig bei MS-Windows- oder MP3-Dateien verwendet wird, dann können Sie entweder jede Datei von Hand oder aber gleich alle auf einmal mit einem Shellscript ersetzen. Das folgende Shellscript übernimmt diese Arbeit für Sie. Es werden alle Dateien und Verzeichnisse im aktuellen Verzeichnis mit einem oder mehreren Leerzeichen ersetzt. Statt eines Leerzeichens wird hierbei das Unterstrichzeichen verwendet â natürlich können Sie selbst das Zeichen wählen.\n #! /bin/sh # Name: replaceSpace # Ersetzt Leerzeichen in Datei- bzw. Verzeichnisnamen durch '_' space=' ' replace='_' # Ersetzungszeichen # Ersetzt alle Datei- und Verzeichnisnamen im # aktuellen Verzeichnis for source in * do case \"$source\" in # Ist ein Leerzeichen im Namen vorhanden ... *\"$space\"*) # Erst mal den Namen in dest speichern ... dest=`echo \"$source\" | sed \"s/$space/$replace/g\"` # ... überprüfen, ob bereits eine Datei bzw. # ein Verzeichnis mit gleichem Namen existiert if test -f \"$dest\" then echo \"Achtung: \"$dest\" existiert bereits ... \\ (Überspringen)\" 1>&2 continue fi # Vorgang auf der Standardausgabe mitschreiben echo mv \"$source\" \"$dest\" # Jetzt ersetzen ... mv \"$source\" \"$dest\" ;; esac done\n Das Script bei der Ausführung:\n you@host > ./replaceSpace mv 01 I Believe I can fly.mp3 01_I_Believe_I_can_fly.mp3 mv Default User Default_User mv Meine Webseiten Meine_Webseiten mv Dokumente und Einstellungen Dokumente_und_Einstellungen mv Eigene Dateien Eigene_Dateien\n Natürlich lässt sich das Script erheblich erweitern. So könnten Sie in der Kommandozeile beispielsweise selbst angeben, was als Ersetzungszeichen verwendet werden soll.\n 15.2.2 Dateiendungen verändern \n Manchmal will man z. B. aus Backup-Zwecken die Endung von Dateien verändern. Bei einer Datei ist dies kein Problem, aber wenn hierbei ein paar Dutzend Dateien umbenannt werden sollen, wird einem mit einem Shell-Script geholfen. Das folgende Script ändert alle Dateiendungen eines bestimmten Verzeichnisses.\n #!/bin/sh # renExtension â Alle Dateiendungen eines speziellen # Verzeichnisses ändern # Verwendung : renExtension directory ext1 ext2 # Beispiel: renExt mydir .abc .xyz â \"ändert '.abc' nach '.xyz' renExtension() { if [ $# -lt 3 ] then echo \"usage: $0 Verzeichnis ext1 ext2\" echo \"ex: $0 mydir .abc .xyz (ändert .abc zu .xyz)\" return 1 fi # Erstes Argument muss ein Verzeichnis sein if [ -d \"$1\" ] then : else echo \"Argument $1 ist kein Verzeichnis!\" return 1 fi # Nach allen Dateien mit der Endung $2 in $1 suchen for i in `find . $1 -name \"*$2\"` do # Suffix $2 vom Dateinamen entfernen base=`basename $i $2` echo \"Verändert: $1/$i Nach: $1/${base}$3\" # Umbenennen mit Suffix $3 mv $i $1/${base}$3 done return 0 } # Zum Testen # renExtension $1 $2 $3\n Das Script bei der Ausführung:\n you@host > ls mydir file1.c file2.c file3.c you@host > ./renExtension mydir .c .cpp Verändert: mydir/mydir/file1.c Nach: mydir/file1.cpp Verändert: mydir/mydir/file2.c Nach: mydir/file2.cpp Verändert: mydir/mydir/file3.c Nach: mydir/file3.cpp you@host > ls mydir file1.cpp file2.cpp file3.cpp\n\n Tipp   Wollen Sie hierbei lieber eine Kopie erstellen, statt eine Umbenennung des Namens vorzunehmen, so müssen Sie hier nur das Kommando mv durch cp ersetzen.\n\n 15.2.3 Nach veränderten Dateien in zwei Verzeichnissen vergleichen \n Gern kopiert man ein Verzeichnis, um eine Sicherungskopie in der Hinterhand zu haben. Wenn Sie nun nach längerer Zeit wieder an den Dateien in dem Verzeichnis gearbeitet haben oder eventuell mehrere Personen einer Gruppe mit diesen Dateien arbeiten, möchte man doch wissen, welche und wie viele Dateien sich seitdem geändert haben. Sicherlich gibt es hierzu bessere Werkzeuge wie CVS oder SUBVERSION, aber manchmal erscheint mir dies doch ein wenig überdimensioniert zu sein. Hierzu ein einfaches Shellscript, womit Sie sich einen schnellen Überblick verschaffen können.\n #!/bin/sh # diffDir() vergleicht zwei Verzeichnisse mit einfachen # Dateien miteinander diffDir() { if [ -d \"$1\" -a -d \"$2\" ] then : else echo \"usage: $0 dir1 dir2\" return 1 fi count1=0; count2=0 echo echo \"Unterschiedliche Dateien : \" for i in $1/* do count1=`expr $count1 + 1` base=`basename $i` diff -b $1/$base $2/$base > /dev/null if [ \"$?\" -gt 0 ] then echo \" $1/$base $2/$base\" count2=`expr $count2 + 1` fi done echo \"-------------------------------\" echo \"$count2 von $count1 Dateien sind unterschiedlich \\ in $1 und $2\" return 0 } # Zum Testen ... diffDir $1 $2\n Das Script bei der Ausführung:\n you@host > ./diffDir Shellbuch_backup Shellbuch_aktuell Unterschiedliche Dateien : ------------------------------- 0 von 14 Dateien sind unterschiedlich in Shellbuch_backup und Shellbuch_aktuell you@host > cd Shellbuch_aktuell you@host > echo Hallo >> Kap003.txt you@host > echo Hallo >> Kap004.txt you@host > echo Hallo >> Kap005.txt you@host > ./diffDir Shellbuch_backup Shellbuch_aktuell Unterschiedliche Dateien : Shellbuch_backup/Kap003.txt Shellbuch_aktuell/Kap003.txt Shellbuch_backup/kap004.txt Shellbuch_aktuell/kap004.txt Shellbuch_backup/kap005.txt Shellbuch_aktuell/kap005.txt ------------------------------- 3 von 14 Dateien waren unterschiedlich in Shellbuch_backup und Shellbuch_aktuell\n Wem das ganze Beispiel zu umfangreich ist, dem kann ich auch noch einen Einzeiler mit rsync anbieten, der ebenfalls nach veränderten Daten zwischen zwei Verzeichnissen vergleicht:\n rsync -avnx --numeric-ids --delete $1/ $2\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 15.2 Datei-UtilitiesÂ\n\n### 15.2.1 Leerzeichen im Dateinamen ersetzenÂ\n\nBefinden sich auf Ihrem Rechner mal wieder eine Menge Dateien oder Verzeichnisse mit einem Leerzeichen zwischen dem Dateinamen, wie dies häufig bei MS-Windows- oder MP3-Dateien verwendet wird, dann können Sie entweder jede Datei von Hand oder aber gleich alle auf einmal mit einem Shellscript ersetzen. Das folgende Shellscript übernimmt diese Arbeit für Sie. Es werden alle Dateien und Verzeichnisse im aktuellen Verzeichnis mit einem oder mehreren Leerzeichen ersetzt. Statt eines Leerzeichens wird hierbei das Unterstrichzeichen verwendet â natürlich können Sie selbst das Zeichen wählen.\n > #! /bin/sh # Name: replaceSpace # Ersetzt Leerzeichen in Datei- bzw. Verzeichnisnamen durch '_' space=' ' replace='_' # Ersetzungszeichen # Ersetzt alle Datei- und Verzeichnisnamen im # aktuellen Verzeichnis for source in * do case \"$source\" in # Ist ein Leerzeichen im Namen vorhanden ... *\"$space\"*) # Erst mal den Namen in dest speichern ... dest=`echo \"$source\" | sed \"s/$space/$replace/g\"` # ... überprüfen, ob bereits eine Datei bzw. # ein Verzeichnis mit gleichem Namen existiert if test -f \"$dest\" then echo \"Achtung: \"$dest\" existiert bereits ... \\ (Überspringen)\" 1>&2 continue fi # Vorgang auf der Standardausgabe mitschreiben echo mv \"$source\" \"$dest\" # Jetzt ersetzen ... mv \"$source\" \"$dest\" ;; esac done\n\nDas Script bei der Ausführung:\n > you@host > ./replaceSpace mv 01 I Believe I can fly.mp3 01_I_Believe_I_can_fly.mp3 mv Default User Default_User mv Meine Webseiten Meine_Webseiten mv Dokumente und Einstellungen Dokumente_und_Einstellungen mv Eigene Dateien Eigene_Dateien\n\nNatürlich lässt sich das Script erheblich erweitern. So könnten Sie in der Kommandozeile beispielsweise selbst angeben, was als Ersetzungszeichen verwendet werden soll.\n\n### 15.2.2 Dateiendungen verändernÂ\n\nManchmal will man z. B. aus Backup-Zwecken die Endung von Dateien verändern. Bei einer Datei ist dies kein Problem, aber wenn hierbei ein paar Dutzend Dateien umbenannt werden sollen, wird einem mit einem Shell-Script geholfen. Das folgende Script ändert alle Dateiendungen eines bestimmten Verzeichnisses.\n > #!/bin/sh # renExtension â Alle Dateiendungen eines speziellen # Verzeichnisses ändern # Verwendung : renExtension directory ext1 ext2 # Beispiel: renExt mydir .abc .xyz â \"ändert '.abc' nach '.xyz' renExtension() { if [ $# -lt 3 ] then echo \"usage: $0 Verzeichnis ext1 ext2\" echo \"ex: $0 mydir .abc .xyz (ändert .abc zu .xyz)\" return 1 fi # Erstes Argument muss ein Verzeichnis sein if [ -d \"$1\" ] then : else echo \"Argument $1 ist kein Verzeichnis!\" return 1 fi # Nach allen Dateien mit der Endung $2 in $1 suchen for i in `find . $1 -name \"*$2\"` do # Suffix $2 vom Dateinamen entfernen base=`basename $i $2` echo \"Verändert: $1/$i Nach: $1/${base}$3\" # Umbenennen mit Suffix $3 mv $i $1/${base}$3 done return 0 } # Zum Testen # renExtension $1 $2 $3\n\nDas Script bei der Ausführung:\n > you@host > ls mydir file1.c file2.c file3.c you@host > ./renExtension mydir .c .cpp Verändert: mydir/mydir/file1.c Nach: mydir/file1.cpp Verändert: mydir/mydir/file2.c Nach: mydir/file2.cpp Verändert: mydir/mydir/file3.c Nach: mydir/file3.cpp you@host > ls mydir file1.cpp file2.cpp file3.cpp\n\n### 15.2.3 Nach veränderten Dateien in zwei Verzeichnissen vergleichenÂ\n\nGern kopiert man ein Verzeichnis, um eine Sicherungskopie in der Hinterhand zu haben. Wenn Sie nun nach längerer Zeit wieder an den Dateien in dem Verzeichnis gearbeitet haben oder eventuell mehrere Personen einer Gruppe mit diesen Dateien arbeiten, möchte man doch wissen, welche und wie viele Dateien sich seitdem geändert haben. Sicherlich gibt es hierzu bessere Werkzeuge wie CVS oder SUBVERSION, aber manchmal erscheint mir dies doch ein wenig überdimensioniert zu sein. Hierzu ein einfaches Shellscript, womit Sie sich einen schnellen Überblick verschaffen können.\n > #!/bin/sh # diffDir() vergleicht zwei Verzeichnisse mit einfachen # Dateien miteinander diffDir() { if [ -d \"$1\" -a -d \"$2\" ] then : else echo \"usage: $0 dir1 dir2\" return 1 fi count1=0; count2=0 echo echo \"Unterschiedliche Dateien : \" for i in $1/* do count1=`expr $count1 + 1` base=`basename $i` diff -b $1/$base $2/$base > /dev/null if [ \"$?\" -gt 0 ] then echo \" $1/$base $2/$base\" count2=`expr $count2 + 1` fi done echo \"-------------------------------\" echo \"$count2 von $count1 Dateien sind unterschiedlich \\ in $1 und $2\" return 0 } # Zum Testen ... diffDir $1 $2\n\nDas Script bei der Ausführung:\n > you@host > ./diffDir Shellbuch_backup Shellbuch_aktuell Unterschiedliche Dateien : ------------------------------- 0 von 14 Dateien sind unterschiedlich in Shellbuch_backup und Shellbuch_aktuell you@host > cd Shellbuch_aktuell you@host > echo Hallo >> Kap003.txt you@host > echo Hallo >> Kap004.txt you@host > echo Hallo >> Kap005.txt you@host > ./diffDir Shellbuch_backup Shellbuch_aktuell Unterschiedliche Dateien : Shellbuch_backup/Kap003.txt Shellbuch_aktuell/Kap003.txt Shellbuch_backup/kap004.txt Shellbuch_aktuell/kap004.txt Shellbuch_backup/kap005.txt Shellbuch_aktuell/kap005.txt ------------------------------- 3 von 14 Dateien waren unterschiedlich in Shellbuch_backup und Shellbuch_aktuell\n\nWem das ganze Beispiel zu umfangreich ist, dem kann ich auch noch einen Einzeiler mit rsync anbieten, der ebenfalls nach veränderten Daten zwischen zwei Verzeichnissen vergleicht:\n > rsync -avnx --numeric-ids --delete $1/ $2\n\n# 15.3 SystemadministrationÂ\n\nDate: 2010-12-14\nCategories: \nTags: \n\n15.3 Systemadministration \n Die Systemadministration dürfte wohl eines der Hauptgründe sein, weshalb Sie sich entschieden haben, die Shellscript-Programmierung zu erlernen. Zur Systemadministration gehören u. a. zentrale Themen wie die Benutzer- und Prozessverwaltung, Systemüberwachung, Backup-Strategien und das Auswerten bzw. Analysieren von Log-Dateien. Zu jedem dieser Themen werden Sie ein Beispiel für die Praxis kennen lernen und, falls das Thema recht speziell ist, auch eine Einführung.\n 15.3.1 Benutzerverwaltung \n Plattenplatzbenutzung einzelner Benutzer auf dem Rechner\n Wenn Sie einen Rechner mit vielen Benutzern verwalten müssen, so sollte man dem einzelnen Benutzer auch eine gewisse Grenze setzen, was den Plattenverbrauch betrifft. Die einfachste Möglichkeit ist es, die Heimverzeichnisse der einzelnen User zu überprüfen. Natürlich schließt dies nicht nur das /home-Verzeichnis ein (auch wenn es im Beispiel so verwendet wird). Am einfachsten sucht man in entsprechenden Verzeichnissen nach Dateien, die einen bestimmten Benutzer als Eigentümer haben, und addiert die Größe einer jeden gefundenen Datei.\n Damit auch alle Benutzer erfasst werden, deren User-ID größer als 99 ist, werden sie einfach alle aus /etc/passwd extrahiert. Die Werte zwischen 1 und 99 sind gewöhnlich den System-Daemons bzw. dem root vorbehalten. Ein guter Grund übrigens, dass Sie, wenn Sie einen neuen User anlegen, die UID immer über 100 wählen.\n\n Hinweis   Die meisten Systeme nutzen inzwischen auch UIDs für die User, die größer als 1000 sind. Diese Angabe kann von System zu System variieren. Viele Systeme verwenden als »uid_start« auch den Wert 1000. Es könnte also sein, dass der Wert 100 â wie hier verwendet â zu niedrig ist. Allerdings sollte es für Sie wohl kein Problem darstellen, diesen Wert im Script zu ändern.\n\n Hinweis   An dieser Stelle sollte auch auf das Quota-System hingewiesen werden. Das Quota-System wird verwendet, wenn Benutzer/Gruppen, die an einem System arbeiten und dort ein eigenes Verzeichnis besitzen, zu viele Daten in diesem Verzeichnis speichern/sammeln. \n\n Mit Quota können Sie als Systemadministrator den verfügbaren Plattenplatz für jede/n Benutzer/Gruppe einschränken. Hierbei existieren zwei Grenzen, das Softlimit und das Hardlimit. Beim Softlimit darf der Benutzer die Grenze für eine kurze Zeit überschreiten. Dieser Zeitraum wird durch die »Grace Period« festgelegt. Beim Hardlimit darf der Benutzer (oder die Gruppe) diese Grenze keinesfalls überschreiten. Es gibt also keine Möglichkeit, dieses Limit zu umgehen. Das Quota-System liegt gewöhnlich jeder Distribution bei. Mehr dazu finden Sie auch in einem Mini-Howto in deutscher Sprache.\n\n Hinweis   Bitte beachten Sie, wenn Sie weitere Verzeichnisse angeben, in denen nach Dateien eines bestimmten Benutzers gesucht werden soll (oder gar das Wurzelverzeichnis), dass dies sehr viel Zeit in Anspruch nehmen kann.\n\n Prozesse nach User sortiert mit Instanzen ausgeben\n Einen weiteren Komfort, den man als Systemadministrator gern nutzen würde, wäre eine Ausgabe der Prozessüberwachung einzelner Benutzer, sortiert nach diesen. Das folgende, gut kommentierte Script sortiert die Prozesse nach Benutzern und gar nach deren einzelnen Instanzen, wenn der Benutzer von einer Instanz mehrere ausführt. Führt der Benutzer z. B. dreimal bash als Shell aus, finden Sie in der Zusammenfassung 3 Instanz(en) von /bin/bash, statt jede Instanz einzeln aufzulisten.\n #!/bin/sh # Name: psusers # Voraussetzung, dass dieses Script funktioniert, ist, dass die # Ausgabe von ps -ef auf Ihrem Rechner folgendes Format hat: # # you@host > ps -ef # UID PID PPID C STIME TTY TIME CMD # root 1 0 0 00:38 ? 00:00:04 init [5] # root 2 1 0 00:38 ? 00:00:00 [ksoftirqd/0] # # Wenn die Ausgabe bei Ihnen etwas anders aussieht, müssen Sie # das Script entsprechend anpassen (erste Zuweisung von USERNAME # und PROGNAME) # Variablen deklarieren # COUNTER=0; CHECKER=0; UCOUNT=1 PSPROG='/bin/ps -ef' SORTPROG='/bin/sort +0 â1 +7 â8' TMPFILE=/tmp/proclist_$$ # Beim ordentlichen Beenden TMPFILE wieder löschen trap \"/bin/rm -f $TMPFILE\" EXIT # Die aktuelle Prozessliste in TMPFILE speichern # $PSPROG | $SORTPROG > $TMPFILE # Daten in TMPFILE verarbeiten # grep -v 'UID[ ]*PID' $TMPFILE | while read LINE do # Zeilen in einzelne Felder aufbrechen set -- $LINE # Einzelne Felder der Ausgabe von ps -ef lauten: # UID PID PPID C STIME TTY TIME CMD # Anzahl der Parameter einer Zeile größer als 0 ... if [ $# -gt 0 ] then # Erstes Feld (UID) einer Zeile der Variablen # USERNAME zuordnen USERNAME=$1 # Die ersten sieben Felder einer Zeile entfernen shift 7 # Kommandonamen (CMD) der Variablen PROGNAME zuordnen PROGNAME=$* fi # Testet die Kopfzeile # if [ \"$USERNAME\" = \"UID\" ] then continue # nächsten Wert in der Schleife holen ... fi # Überprüfen, ob es sich um die erste Zeile von Daten handelt # if [ \"$CHECKER\" = \"0\" ] then CHECKER=1 UCOUNT=0 LASTUSERNAME=\"$USERNAME\" # Programmname für die Ausgabe formatieren # auf 40 Zeichen beschränken .... # LASTPROGNAME=`echo $PROGNAME | \\ awk '{print substr($0, 0, 40)}'` COUNTER=1; LASTCOUNT=1 echo \"\" echo \"$USERNAME führt aus:.....\" continue # nächsten Wert von USERNAME holen fi # Logische Überprüfung durchführen # if [ $CHECKER -gt 0 -a \"$USERNAME\" = \"$LASTUSERNAME\" ] then if [ \"$PROGNAME\" = \"$LASTPROGNAME\" ] then COUNTER=`expr $COUNTER + 1` else # Ausgabe auf dem Bildschirm ... if [ $LASTCOUNT -gt 1 ] then echo \" $LASTCOUNT Instanz(en) von ->\"\\ \" $LASTPROGNAME\" else echo \" $LASTCOUNT Instanz(en) von ->\"\\ \" $LASTPROGNAME\" fi COUNTER=1 fi # Programmname für die Ausgabe formatieren # auf 40 Zeichen beschränken .... # LASTPROGNAME=`echo $PROGNAME | \\ awk '{print substr($0, 0, 40)}'` LASTCOUNT=$COUNTER elif [ $CHECKER -gt 0 -a \"$USERNAME\" != \"$LASTUSERNAME\" ] then if [ $LASTCOUNT -gt 1 ] then echo \" $LASTCOUNT Instanz(en) von >> $LASTPROGNAME\" else echo \" $LASTCOUNT Instanz(en) von >>\"\\ \" $LASTPROGNAME\" fi echo echo \"$USERNAME führt aus:.....\" LASTUSERNAME=\"$USERNAME\" # Programmname für die Ausgabe formatieren # auf 40 Zeichen beschränken .... # LASTPROGNAME=`echo $PROGNAME | \\ awk '{print substr($0, 0, 40)}'` COUNTER=1 LASTCOUNT=$COUNTER fi done # DISPLAY THE FINAL USER INSTANCE DETAILS # if [ $COUNTER -eq 1 -a $LASTCOUNT -ge 1 ] then if [ $LASTCOUNT -gt 1 ] then echo \" $LASTCOUNT Instanz(en) von >> $LASTPROGNAME\" else echo \" $LASTCOUNT Instanz(en) von >> $LASTPROGNAME\" fi fi echo \"------\" echo \"Fertig\" echo \"------\"\n Das Script bei der Ausführung:\n you@host > ./psusers bin führt aus:..... 1 Instanz(en) von >> /sbin/portmap lp führt aus:..... 1 Instanz(en) von >> /usr/sbin/cupsd postfix führt aus:..... 1 Instanz(en) von -> pickup -l -t fifo -u 1 Instanz(en) von >> qmgr -l -t fifo -u root führt aus:..... 1 Instanz(en) von -> -:0 1 Instanz(en) von -> [aio/0] 1 Instanz(en) von -> /bin/bash /sbin/hotplug pci 1 Instanz(en) von -> /bin/bash /etc/hotplug/pci.agent ... you führt aus:..... 3 Instanz(en) von -> /bin/bash 1 Instanz(en) von -> /bin/ps -ef 1 Instanz(en) von -> /bin/sh /opt/kde3/bin/startkde 1 Instanz(en) von -> /bin/sh ./testscript 1 Instanz(en) von -> gpg-agent --daemon --no-detach 1 Instanz(en) von -> kaffeine -session 117f000002000111 1 Instanz(en) von -> kamix 1 Instanz(en) von -> kdeinit: Running... ...\n Prozesse bestimmter Benutzer beenden\n Häufig kommt es vor, dass bei einem Benutzer einige Prozesse »Amok« laufen bzw. man einen Prozess einfach beenden will (warum auch immer). Mit dem folgenden Script können Sie (als root) die Prozesse eines Benutzers mithilfe einer interaktiven Abfrage beenden. Nach der Eingabe des Benutzers werden alle laufenden Prozesse in einem Array gespeichert. Anschließend wird das komplette Array durchlaufen und nachgefragt, ob Sie den Prozess beenden wollen oder nicht. Zuerst wird immer versucht, den Prozess normal mit SIGTERM zu beenden. Gelingt dies nicht mehr, muss SIGKILL herhalten.\n\n Hinweis   Da dieses Script Arrays verwendet, ist es nur in der bash bzw. Korn-Shell ausführbar. Muss das Script unbedingt auch in einer Bourne-Shell laufen, so könnte man die einzelnen Prozesse statt in ein Array auch in eine Datei (zeilenweise) schreiben und aus dieser zeilenweise wieder lesen.\n\n #!/bin/ksh # Name: killuser # Wegen der Benutzung von Arrays \"nur\" für bash und Korn-Shell # nicht aber für Bourne-Shell (sh) geeignet while true do # Bildschirm löschen clear echo \"Diese Script erlaubt Ihnen bestimmte Benutzer Prozesse\" echo \"zu beenden.\" echo echo \"Name des Benutzers eingeben (mit q beenden) : \" | \\ tr -d '\\n' read unam # Wurde kein Benutzer angegeben unam=${unam:-null_value} export unam case $unam in null_value) echo \"Bitte einen Namen eingeben!\" ;; [Qq]) exit 0 ;; root) echo \"Benutzer 'root' ist nicht erlaubt!\" ;; *) echo \"Überprüfe $unam ...\" typeset -i x=0 typeset -i n=0 if $(ps -ef | grep \"^[ ]*$unam\" > /dev/null) then for a in $(ps -ef | awk -v unam=\"$unam\" '$1 ~ unam { print $2, $8}'| \\ sort -nr +1 â2 ) do if [ $n -eq 0 ] then x=`expr $x + 1` var[$x]=$a n=1 elif [ $n -eq 1 ] then var2[$x]=$a n=0 fi done if [ $x -eq 0 ] then echo \"Hier gibt es keine Prozesse zum Beenden!\" else typeset -i y=1 clear while [ $y -le $x ] do echo \"Prozess beenden PID: ${var[$y]} -> CMD: \"\\ \" ${var2[$y]} (J/N) : \" | tr -d '\\n' read resp case \"$resp\" in [Jj]*) echo \"Prozess wird beendet ...\" # Zuerst versuchen, \"normal\" zu beenden echo \"Versuche, normal zu beenden \" \\ \" (15=SIGTERM)\" kill â15 ${var[$y]} 2>/dev/null # Überprüfen, ob es geklappt hat # -> ansonsten # mit dem Hammmer killen if ps -p ${var[$y]} >/dev/null 2>&1 then echo \"Versuche, 'brutal' zu beenden\"\\ \" (9=SIGKILL)\" kill â9 ${var[$y]} 2>/dev/null fi ;; *) echo \"Prozess wird weiter ausgeführt\"\\ \" ( ${var2[y]} )\" ;; esac y=`expr $y + 1` echo done fi fi ;; esac sleep 2 done\n Das Script bei der Ausführung:\n # ./killuser Dieses Script erlaubt Ihnen, bestimmte Benutzer-Prozesse zu beenden. Name des Benutzers eingeben (mit q beenden) : john Prozess beenden PID: 4388 -> CMD: sleep (J/N) : J Prozess wird beendet ... Versuche, normal zu beenden (15=SIGTERM) Prozess beenden PID: 4259 -> CMD: holdonrunning (J/N) : N Prozess wird weiter ausgeführt ( holdonrunning ) Prozess beenden PID: 4203 -> CMD: -csh (J/N) : ...\n Überwachung, wer sich im System einloggt\n Einen Überblick, wer sich alles im System einloggt und eingeloggt hat, können Sie sich wie bekannt mit dem Kommando last ermitteln lassen. Gern würde man sich den Aufruf von last ersparen, um so immer aktuell neu eingeloggte Benutzer im System zu ermitteln. Dies kann man dann z. B. verwenden, um dem Benutzer eine Nachricht zukommen zu lassen, oder eben zu Überwachungszwecken.\n Das Überwachen, ob sich ein neuer Benutzer im System eingeloggt hat, lässt sich auch in einem Shellscript mit last relativ leicht ermitteln. Hierzu müssen Sie eigentlich nur die Anzahl von Zeilen von last zählen und in einer bestimmten Zeit wieder miteinander vergleichen, ob eine neue Zeile hinzugekommen ist. Die Differenz beider Werte lässt sich dann mit last und einer Pipe nach head ausgeben. Dabei werden immer nur die neu hinzugekommenen letzten Zeilen mit head ausgegeben. Im Beispiel wird die Differenz beider last-Aufrufe alle 30 Sekunden ermittelt. Dieser Wert lässt sich natürlich beliebig hoch- bzw. runtersetzen. Außerdem wird im Beispiel nur eine Ausgabe auf das aktuelle Terminal (/dev/tty) vorgenommen. Hierzu würde sich beispielsweise das Kommando write oder wall sehr gut eignen. Als root könnten Sie somit jederzeit einem User eine Nachricht zukommen lassen, wenn dieser sich einloggt.\n #! /bin/sh # Name: loguser # Das Script überprüft, ob sich jemand im System eingeloggt hat # Pseudonym für das aktuelle Terminal outdev=/dev/tty fcount=0; newcount=0; timer=30; displaylines=0 # Die Anzahl Zeilend des last-Kommandos zählen fcount=`last | wc -l` while true do # Erneut die Anzahl Zeilen des last-Kommandos zählen ... newcount=`last | wc -l` # ... und vergleichen, ob neue hinzugekommen sind if [ $newcount -gt $fcount ] then # Wie viele neue Zeilen sind hinzugekommen ... displaylines=`expr $newcount â $fcount` # Entsprechend neue Zeilen ausgeben auf outdev # Hier würde sich auch eine Datei oder das Kommando # write sehr gut eignen, damit die Kommandozeile # nicht blockiert wird ... last | head -$displaylines > $outdev # neuen Wert an fcount zuweisen fcount=$newcount # timer Sekunden warten, bis zur nächsten Überprüfung sleep $timer fi done\n Das Script bei der Ausführung:\n you@host > ./loguser john tty2 Wed May 4 23:46 still logged in root tty4 Wed May 4 23:46 still logged in tot tty2 Wed May 4 23:47 still logged in you tty5 Wed May 4 23:49 still logged in\n Benutzer komfortabel anlegen, löschen, sperren und wieder aufheben\n Eine ziemlich wichtige und regelmäßige Aufgabe, die Ihnen als Systemadministrator zufällt, dürfte das Anlegen und Löschen neuer Benutzerkonten sein.\n\n Hinweis   Ich habe mir lange überlegt, diesen Part der User-Verwaltung wieder zu streichen. Zum einen zeigt das Script hervorragend, wie man sich eine eigene Userverwaltung bauen kann und was dabei alles so zu beachten ist. Allerdings bietet mittlerweile jede Distribution mindestens eine solche Userverwaltung (und das meistens erheblich komfortabler) an. Das Script sollte eigentlich nur unter Linux ordentlich laufen, aber selbst hier könnten Sie noch Probleme mit der Portabilität bekommen, weil auch die einzelnen Distributionen hier ihr eigenes Süppchen kochen, mal heißt es hier useradd dann wieder adduser, die Optionen von passwd bspw. sind teilweise auch unterschiedlich.\n\n Um einen neuen Benutzer-Account anzulegen, wird ein neuer Eintrag in der Datei /etc/passwd angelegt. Dieser Eintrag beinhaltet gewöhnlich einen Benutzernamen aus acht Zeichen, eine User-ID (UID), eine Gruppen-ID (GID), ein Heimverzeichnis (/home) und eine Login-Shell. Die meisten Linux-/UNIX-Systeme speichern dann noch ein verschlüsseltes Password in /etc/shadow â was natürlich bedeutet, dass Sie auch hier einen Eintrag (mit passwd) vornehmen müssen. Beim Anlegen eines neuen Benutzers können Sie entweder zum Teil vorgegebene Standardwerte verwenden oder eben eigene Einträge anlegen. Es ist außerdem möglich, die Dauer der Gültigkeit des Accounts festzulegen.\n Im Beispiel ist es nicht möglich, auch noch eine neue Gruppe anzulegen, sprich, Sie können nur einen neuen Benutzer anlegen und diesem eine bereits vorhandene Gruppe (setzt einen vorhandenen Eintrag in /etc/group voraus) zuweisen. Auf das Anlegen einer neuen Gruppe wurde aus Übersichtlichkeitsgründen verzichtet, da sich das Script sonst unnötig in die Länge ziehen würde. Allerdings sollte es Ihnen mit der Vorlage dieses Scripts nicht schwer fallen, ein recht ähnliches Script für das Anlegen einer Gruppe zu schreiben.\n Nebenbei ist es auch realisierbar, einen Benutzer mit passwd zu sperren und die Sperre wieder aufzuheben. Beim Löschen eines Benutzers werden zuvor noch all seine Daten gesucht und gelöscht, bevor der eigentliche Benutzer-Account aus /etc/passwd gelöscht werden kann. Im Beispiel wird die Suche wieder nur auf das /home-Verzeichnis beschränkt, was Sie allerdings in der Praxis wieder den Gegebenheiten anpassen sollten.\n #! /bin/sh # Name: account # Mit diesem Script können Sie einen Benutzer # * Anlegen # * Löschen # * Sperren # * Sperre wieder aufheben # Pfade, die beim Löschen eines Accounts benötigt werden, # ggf. erweitern und ergänzen um bspw. /var /tmp ... # überall eben, wo sich Dateien vom Benutzer befinden können searchpath=\"/home\" usage() { echo \"Usage: $0 Benutzer (Neuen Benutzer anlegen)\" echo \"Usage: $0 -d Benutzer (Benutzer löschen)\" echo \"Usage: $0 -l Benutzer (Benutzer sperren)\" echo \"Usage: $0 -u Benutzer (Gesperrten Benutzer wieder freigeben)\" } # Nur root darf dieses Script ausführen ... # if [ `id -u` != 0 ] then echo \"Es werden root-Rechte für dieses Script benötigt!\" exit 1 fi # Ist das Kommando useradd auf dem System vorhanden ... # which useradd > /dev/null 2>1& if [ $? -ne 0 ] then echo \"Das Kommando 'useradd' konnte auf dem System nicht \"\\ \" gefunden werden!\" exit 1 fi if [ $# -eq 0 ] then usage exit 0 fi if [ $# -eq 2 ] then case $1 in -d) # Existiert ein entsprechender Benutzer if [ \"`grep $2 /etc/passwd | \\ awk -F : '{print $1}'`\" = \"$2\" ] then echo \"Dateien und Verzeichnisse von '$2' \"\\ \"werden gelöscht\" # Alle Dateien und Verz. des Benutzers löschen find $searchpath -user $2 -print | sort -r | while read file do if [ -d $file ] then rmdir $file else rm $file fi done else echo \"Ein Benutzer '$2' existiert nicht in \"\\ \"/etc/passwd!\" exit 1 fi # Benutzer aus /etc/passwd und /etc/shadow löschen userdel -r $2 2>/dev/null echo \"Benutzer '$2' erfolgreich gelöscht!\" exit 0 ;; -l) # Existiert ein entsprechender Benutzer if [ \"`grep $2 /etc/passwd | \\ awk -F : '{print $1}'`\" = \"$2\" ] then passwd -l $2 fi echo \"Benutzer '$2' wurde gesperrt\" exit 0 ;; -u) # Existiert ein entsprechender Benutzer if [ \"`grep $2 /etc/passwd | \\ awk -F : '{print $1}'`\" = \"$2\" ] then passwd -u $2 fi echo \"Benutzer '$2': Sperre aufgehoben\" exit 0 ;; -h) usage exit 1 ;; -*) usage exit 1 ;; *) usage exit 1 ;; esac fi if [ $# -gt 2 ] then usage exit 1 fi ##################################################### # Einen neuen Benutzer anlegen # # Existiert bereits ein entsprechender Benutzer # if [ \"`grep $1 /etc/passwd | awk -F : '{print $1}'`\" = \"$1\" ] then echo \"Ein Benutzer '$1' existiert bereits in /etc/passwd ...!\" exit 1 fi # Bildschirm löschen clear # Zuerst wird die erste freie verwendbare User-ID gesucht, # vorgeschlagen und bei Bestätigung verwendet, oder es wird eine # eingegebene User-ID verwendet, die allerdings ebenfalls # überprüft wird, ob sie bereits in /etc/passwd existiert. # userid=`tail â1 /etc/passwd |awk -F : '{print $3 + 1}'` echo \"Eingabe der UID [default: $userid] \" | tr -d '\\n' read _UIDOK # ... wurde nur ENTER betätigt if [ \"$_UIDOK\" = \"\" ] then _UIDOK=$userid # ... es wurde eine UID eingegeben -> # Überprüfen ob bereits vorhanden ... elif [ `grep $_UIDOK /etc/passwd | awk -F : '{print $3}'` = \"\" ] then _UIDOK=$userid else echo \"UID existiert bereits! ENTER=Neustart / STRG+C=Ende\" read $0 $1 fi # Selbiges mit Gruppen-ID # groupid=`grep users /etc/group |awk -F : '{print $3}'` echo \"Eingabe der GID: [default: $groupid] \" | tr -d '\\n' read _GIDOK if [ \"$_GIDOK\" = \"\" ] then _GIDOK=$groupid elif [ \"`grep $_GIDOK /etc/group`\" = \"\" ] then echo \"Dies Gruppe existiert nicht in /etc/group! \"\\ \"ENTER=Neustart / STRG+C=Ende\" read $0 $1 fi # Das Benutzer-Heimverzeichnis /home abfragen # echo \"Eingabe des Heimverzeichnisses: [default: /home/$1] \" | \\ tr -d '\\n' read _HOME # Wurde nur ENTER gedrückt, default verwenden ... if [ \"$_HOME\" = \"\" ] then _HOME=\"/home/$1\" fi # Die Standard-Shell für den Benutzer festlegen # echo \"Eingabe der Shell: [default: /bin/bash] \" | tr -d '\\n' read _SHELL # Wurde nur ENTER gedrückt, default verwenden ... if [ \"$_SHELL\" = \"\" ] then _SHELL=/bin/bash # Gibt es überhaupt eine solche Shell in /etc/shells ... elif [ \"`grep $_SHELL /etc/shells`\" = \"\" ] then echo \"'$_SHELL' gibt es nicht in /etc/shells! \"\\ \" ENTER=Neustart / STRG+C=Ende\" read $0 $1 fi # Kommentar oder Namen eingeben echo \"Eingabe eines Namens: [beliebig] \" | tr -d '\\n' read _REALNAME # Expire date echo \"Ablaufdatum des Accounts: [MM/DD/YY] \" | tr -d '\\n' read _EXPIRE clear echo echo \"Folgende Eingaben wurden erfasst:\" echo \"---------------------------------\" echo \"User-ID : [$_UIDOK]\" echo \"Gruppen-ID : [$_GIDOK]\" echo \"Heimverzeichnis : [$_HOME]\" echo \"Login-Shell : [$_SHELL]\" echo \"Name/Komentar : [$_REALNAME]\" echo \"Account läuft aus : [$_EXPIRE]\" echo echo \"Account erstellen? (j/n) \" read _verify case $_verify in [nN]*) echo \"Account wurde nicht erstellt!\" | tr -d '\\n' exit 0 ;; [jJ]*) useradd -u $_UIDOK -g $_GIDOK -d $_HOME -s $_SHELL \\ -c \"$_REALNAME\" -e \"$_EXPIRE\" $1 cp -r /etc/skel $_HOME chown -R $_UIDOK:$_GIDOK $_HOME passwd $1 echo \"Benutzer $1 [$_REALNAME] hinzugefügt \"\\ \"am `date`\" >> /var/adm/newuser.log finger -m $1 |head â2 sleep 2 echo \"Benutzer $1 erfolgreich hinzugefügt!\" ;; *) exit 1;; esac\n Das Script bei der Ausführung:\n linux:/home/you # ./account jack Eingabe der UID [default: 1003](ENTER) Eingabe der GID: [default: 100](ENTER) Eingabe des Heimverzeichnisses: [default: /home/jack](ENTER) Eingabe der Shell: [default: /bin/bash](ENTER) Eingabe eines Namens: [beliebig] J.Wolf Ablaufdatum des Accounts : [MM/DD/YY](ENTER) ... Folgende Eingaben wurden erfasst: --------------------------------- User-ID : [1003] Gruppen-ID : [100] Heimverzeichnis : [/home/jack] Login-Shell : [/bin/bash] Name/Komentar : [J.Wolf] Account läuft aus : [] Account erstellen? (j/n) j Changing password for jack. New password:******** Re-enter new password:******** Password changed Login: jack Name: J.Wolf Directory: /home/jack Shell: /bin/bash Benutzer jack erfolgreich hinzugefügt! linux:/home/you # ./account -l jack Passwort geändert. Benutzer 'jack' wurde gesperrt linux:/home/you # ./account -u jack Passwort geändert. Benutzer 'jack': Sperre aufgehoben linux:/home/you # ./account -d jack Dateien und Verzeichnisse von 'jack' werden gelöscht Benutzer 'jack' erfolgreich gelöscht!\n 15.3.2 Systemüberwachung \n Warnung, dass der Plattenplatz des Dateisystems an seine Grenzen stößt\n Gerade, wenn man mehrere Dateisysteme oder gar Server betreuen muss, fällt es oft schwer, sich auch noch über den Plattenplatz Gedanken zu machen. Hierzu eignet sich ein Script, mit dem Sie den fünften Wert von »df âk« auswerten und daraufhin überprüfen, ob eine bestimmte von Ihnen festgelegte Grenze erreicht wurde. Ist die Warnschwelle erreicht, können Sie eine Mail an eine bestimmte Adresse verschicken oder eventuell ein weiteres Script starten lassen, welches diverse Aufräum- oder Komprimierarbeiten durchführt. Natürlich macht dieses Script vor allem dann Sinn, wenn es im Intervall mit einem cron-Job gestartet wird.\n\n Hinweis   Auch hier sei nochmals auf das schon beschriebene Quota-System vor dem Script »DiskQuota« hingewiesen.\n\n #!/bin/sh # Name: chcklimit # Dieses Script verschickt eine Mail, wenn der Plattenverbrauch # eines Filesystems an ein bestimmtes Limit stösst. # Ab wie viel Prozent soll ein Warnung verschickt werden WARN_CAPACITY=80 # Wohin soll eine Mail verschickt werden TOUSER=user@host.de call_mail_fn() { servername=`hostname` msg_subject=\"$servername â Dateisystem(${FILESYSTEM}) \"\\ \"verwendet ${FN_VAR1}% â festgestellt am: `date`\" echo $msg_subject | mail -s \"${servername}:Warnung\" $TOUSER } if [ $# -lt 1 ] then echo \"usage: $0 FILESYSTEM\" echo \"Bpsw.: $0 /dev/hda6\" fi # Format von df -k: # Dateisystem 1K-Blöcke Benutzt Verfügbar Ben% Eingehängt auf # /dev/hda4 15528224 2610376 12917848 17 % / # Den fünften Wert wollen wir haben: 'Ben%' # VAR1=`df -k ${1} | /usr/bin/tail â1 | \\ /usr/bin/awk '{print $5}' ` # Prozentzeichen herausschneiden VAR2=`echo $VAR1 | \\ /usr/bin/awk '{ print substr($1,1,length($1)-1) }' ` # Wurde die Warnschwelle erreicht ... ? if [ $VAR2 -ge ${WARN_CAPACITY} ] then FN_VAR1=$VAR2 call_mail_fn fi\n Das Script bei der Ausführung:\n you@host > ./chcklimit /dev/hda6 ... you@host > mail >N 1 Mon May 2 16:18 18/602 linux:Warnung ? 1 Message 1: From: (J.Wolf) linux â Dateisystem() verwendet 88 % â festgestellt am: Mo Mai 2 16:17:59 CEST 2005\n Kommandos bzw. Scripts auf einem entfernten Rechner ausführen\n Das Ausführen von Kommandos oder gar von Scripts auf mehreren Rechnern, gestartet vom lokalen Rechner, hört sich komplizierter an als es ist. Und vor allem es ist auch sicherer, als manch einer jetzt vielleicht denken mag. Dank guter Verschlüsselungstechnik und hoher Präsenz bietet sich hierzu ssh an (die r-Tools fallen wegen der Sicherheitslücken flach â siehe Abschnitt 14.12.10). Die Syntax, um mit ssh Kommandos oder Scripts auf einem anderen Rechner auszuführen, sieht wie folgt aus:\n ssh username@hostname \"kommando1 ; kommando2 ; script\"\n Mit diesem Wissen fällt es nicht schwer, sich ein entsprechendes Script zusammenzubasteln. Damit es ein wenig flexibler ist, soll es auch möglich sein, Shellscripts, die noch nicht auf dem entfernten Rechner liegen, zuvor noch mit scp in ein bestimmtes Verzeichnis hochzuladen, um es anschließend auszuführen. Ebenso soll es möglich sein, in ein bestimmtes Verzeichnis zu wechseln, um dann entsprechende Kommandos oder Scripts auszuführen. Natürlich setzt dies voraus, dass auf den Rechnern auch ein entsprechendes Verzeichnis existiert. Die Rechner, auf denen Kommandos oder Scripts ausgeführt werden sollen, tragen Sie in die Datei namens hostlist.txt ein. Bei mir sieht diese Datei wie folgt aus:\n you@host > cat hostlist.txt jwolf@192.135.147.2\n Im Beispiel finden Sie also zwei entfernte Rechner, bei denen das gleich folgende Script dafür sorgt, dass Sie von Ihrem lokalen Rechner aus schnell beliebige Kommandos bzw. Scripts ausführen können.\n\n Hinweis   Damit Sie nicht andauernd ein Passwort eingeben müssen, empfiehlt es sich auch hier, SSH-Schlüssel zu verwenden (siehe Abschnitt 14.12.12).\n\n #!/bin/sh # Name: sshell # Kommandos bzw. Scripts auf entfernten Rechnern ausführen # ggf. den Pfad zur Datei anpassen HOSTS=\"hostlist.txt\" usage() { echo \"usage: progname [-option] [Verzeichnis] \"\\ \" Kommando_oder_Script\" echo echo \"Option:\" echo \"-d :in ein bestimmtes Verzeichnis auf dem Host wechseln\" echo \"-s :Script in ein bestimmtes Verzeichnis hochladen und\"\\ \" Ausführen\" echo echo \"Syntax der Host-Liste: \" echo \"Username@hostname1\" echo \"Username@hostname2\" echo \"...\" exit 1 } if [ $# -eq 0 ] then usage fi # Datei 'hostlist.txt' überprüfen if [ -e $HOSTS ] then : else echo \"Datei $HOSTS existiert nicht ...\" touch hostlist.txt if [ $? -ne 0 ] then echo \"Konnte $HOSTS nicht anlegen ...!\" exit 1 else echo \"Datei $HOSTS erzeugt, aber noch leer ...!\" usage exit 1 fi fi # Optionen überprüfen ... case $1 in -d) if [ $# -lt 3 ] then usage fi DIR=$2 shift; shift ;; -s) if [ $# -lt 3 ] then usage fi DIR=$2 SCRIPT=\"yes\" shift; shift ;; -*) usage ;; esac # Die einzelnen Hosts durchlaufen ... for host in `cat $HOSTS` do echo \"$host : \" CMD=$* if [ \"$SCRIPT\" = \"yes\" ] then scp $CMD ${host}:${DIR} fi ret=`ssh $host \"cd $DIR; $CMD\"` echo \"$ret\" done\n Das Script bei der Ausführung:\n Inhalt des Heimverzeichnisses ausgeben:\n you@host > ./sshell ls -l : total 44 drwx------ 4 us10129 us10129 4096 May 14 13:45 backups drwxr-xr-x 8 us10129 us10129 4096 May 9 10:13 beta.pronix.de -rw-rw-r-- 1 us10129 us10129 66 Dec 2 02:13 db_cms.bak drwxrwxr-x 2 us10129 us10129 4096 Mar 11 07:49 dump -rw------- 1 us10129 us10129 952 May 14 14:00 mbox drwxrwxr-x 2 us10129 us10129 4096 Mar 28 18:03 mysqldump drwxr-xr-x 20 us10129 us10129 4096 May 19 19:56 www.pronix.de jwolf@192.135.147.2 : total 24 drwxr-xr-x 2 jwolf jwolf 512 May 8 14:03 backups drwxr-xr-x 3 jwolf jwolf 21504 Sep 2 2004 dev\n Inhalt des Verzeichnisses $HOME/backups ausgeben:\n you@host > ./sshell -d backups ls -l : total 8 drwxrwxr-x 3 us10129 us10129 4096 May 18 18:38 Shellbuch drwxrwxr-x 3 us10129 us10129 4096 May 14 13:46 Shellbuch_bak -rw-rw-r-- 1 us10129 us10129 0 May 20 12:45 file1 -rw-rw-r-- 1 us10129 us10129 0 May 20 12:45 file2 -rw-rw-r-- 1 us10129 us10129 0 May 20 12:45 file3 jwolf@192.135.147.2 : total 6 -rw-r--r-- 1 jwolf jwolf 0 May 8 13:38 file1 -rw-r--r-- 1 jwolf jwolf 0 May 8 13:38 file2 -rw-r--r-- 1 jwolf jwolf 0 May 8 13:38 file3 -rwx------ 1 jwolf jwolf 29 May 8 13:58 hallo.sh -rwx------ 1 jwolf jwolf 29 May 8 13:48 mhallo -rwx------ 1 jwolf jwolf 29 May 8 14:03 nhallo\n Dateien beginnend mit »file*« im Verzeichnis $HOME/backups löschen:\n you@host > ./sshell -d backups rm file* : jwolf@192.135.147.2 :\n Inhalt des Verzeichnisses $HOME/backups erneut ausgeben:\n you@host > ./sshell -d backups ls -l : total 5 drwxrwxr-x 3 us10129 us10129 4096 May 18 18:38 Shellbuch drwxrwxr-x 3 us10129 us10129 4096 May 14 13:46 Shellbuch_bak jwolf@192.135.147.2 : total 3 -rwx------ 1 jwolf jwolf 29 May 8 13:58 hallo.sh -rwx------ 1 jwolf jwolf 29 May 8 13:48 mhallo -rwx------ 1 jwolf jwolf 29 May 8 14:03 nhallo\n Neues Verzeichnis testdir anlegen:\n you@host > ./sshell mkdir testdir : jwolf@192.135.147.2 :\n Script hallo.sh ins neue Verzeichnis (testscript) schieben und ausführen:\n you@host > ./sshell -s testdir ./hallo.sh : hallo.sh 100 % 67 0.1KB/s 00:00 Ich bin das Hallo Welt-Script! jwolf@192.135.147.2 : hallo.sh 100 % 67 0.1KB/s 00:00 Ich bin das Hallo Welt-Script!\n Verzeichnis testdir wieder löschen:\n tot@linux:~> ./sshell rm -r testdir : jwolf@192.135.147.2 :\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 15.3 SystemadministrationÂ\n\nDie Systemadministration dürfte wohl eines der Hauptgründe sein, weshalb Sie sich entschieden haben, die Shellscript-Programmierung zu erlernen. Zur Systemadministration gehören u. a. zentrale Themen wie die Benutzer- und Prozessverwaltung, Systemüberwachung, Backup-Strategien und das Auswerten bzw. Analysieren von Log-Dateien. Zu jedem dieser Themen werden Sie ein Beispiel für die Praxis kennen lernen und, falls das Thema recht speziell ist, auch eine Einführung.\n\n### 15.3.1 BenutzerverwaltungÂ\n\n# Plattenplatzbenutzung einzelner Benutzer auf dem Rechner\n\nWenn Sie einen Rechner mit vielen Benutzern verwalten müssen, so sollte man dem einzelnen Benutzer auch eine gewisse Grenze setzen, was den Plattenverbrauch betrifft. Die einfachste Möglichkeit ist es, die Heimverzeichnisse der einzelnen User zu überprüfen. Natürlich schließt dies nicht nur das /home-Verzeichnis ein (auch wenn es im Beispiel so verwendet wird). Am einfachsten sucht man in entsprechenden Verzeichnissen nach Dateien, die einen bestimmten Benutzer als Eigentümer haben, und addiert die Größe einer jeden gefundenen Datei.\n\nDamit auch alle Benutzer erfasst werden, deren User-ID größer als 99 ist, werden sie einfach alle aus /etc/passwd extrahiert. Die Werte zwischen 1 und 99 sind gewöhnlich den System-Daemons bzw. dem root vorbehalten. Ein guter Grund übrigens, dass Sie, wenn Sie einen neuen User anlegen, die UID immer über 100 wählen.\n\nDas Script bei der Ausführung:\n > # ./DiskQuota User tot hat den Account überzogen (Ist:543,72MB Soll:100MB) ---- Inzwischen beim User tot ---- tot@host > mail ... ... ... N 14 Mon May 2 15:14 22/786 Limit überzogen ... ... ... ? 14 Message 14: From: (J.Wolf) Hallo tot, Soeben 2005-Mai-02 15:14:47 wurde festgestellt, dass Sie Ihr Limit von 100MB überzogen haben. Derzeit beträgt Ihr verwendeter Speicher 543,72MB. Bitte beheben Sie den Umstand sobald wie möglich. Vielen Dank für das Verständnis.\n\n# Prozesse nach User sortiert mit Instanzen ausgeben\n\nEinen weiteren Komfort, den man als Systemadministrator gern nutzen würde, wäre eine Ausgabe der Prozessüberwachung einzelner Benutzer, sortiert nach diesen. Das folgende, gut kommentierte Script sortiert die Prozesse nach Benutzern und gar nach deren einzelnen Instanzen, wenn der Benutzer von einer Instanz mehrere ausführt. Führt der Benutzer z. B. dreimal bash als Shell aus, finden Sie in der Zusammenfassung 3 Instanz(en) von /bin/bash, statt jede Instanz einzeln aufzulisten.\n > #!/bin/sh # Name: psusers # Voraussetzung, dass dieses Script funktioniert, ist, dass die # Ausgabe von ps -ef auf Ihrem Rechner folgendes Format hat: # # you@host > ps -ef # UID PID PPID C STIME TTY TIME CMD # root 1 0 0 00:38 ? 00:00:04 init [5] # root 2 1 0 00:38 ? 00:00:00 [ksoftirqd/0] # # Wenn die Ausgabe bei Ihnen etwas anders aussieht, müssen Sie # das Script entsprechend anpassen (erste Zuweisung von USERNAME # und PROGNAME) # Variablen deklarieren # COUNTER=0; CHECKER=0; UCOUNT=1 PSPROG='/bin/ps -ef' SORTPROG='/bin/sort +0 â1 +7 â8' TMPFILE=/tmp/proclist_$$ # Beim ordentlichen Beenden TMPFILE wieder löschen trap \"/bin/rm -f $TMPFILE\" EXIT # Die aktuelle Prozessliste in TMPFILE speichern # $PSPROG | $SORTPROG > $TMPFILE # Daten in TMPFILE verarbeiten # grep -v 'UID[ ]*PID' $TMPFILE | while read LINE do # Zeilen in einzelne Felder aufbrechen set -- $LINE # Einzelne Felder der Ausgabe von ps -ef lauten: # UID PID PPID C STIME TTY TIME CMD # Anzahl der Parameter einer Zeile größer als 0 ... if [ $# -gt 0 ] then # Erstes Feld (UID) einer Zeile der Variablen # USERNAME zuordnen USERNAME=$1 # Die ersten sieben Felder einer Zeile entfernen shift 7 # Kommandonamen (CMD) der Variablen PROGNAME zuordnen PROGNAME=$* fi # Testet die Kopfzeile # if [ \"$USERNAME\" = \"UID\" ] then continue # nächsten Wert in der Schleife holen ... fi # Überprüfen, ob es sich um die erste Zeile von Daten handelt # if [ \"$CHECKER\" = \"0\" ] then CHECKER=1 UCOUNT=0 LASTUSERNAME=\"$USERNAME\" # Programmname für die Ausgabe formatieren # auf 40 Zeichen beschränken .... # LASTPROGNAME=`echo $PROGNAME | \\ awk '{print substr($0, 0, 40)}'` COUNTER=1; LASTCOUNT=1 echo \"\" echo \"$USERNAME führt aus:.....\" continue # nächsten Wert von USERNAME holen fi # Logische Überprüfung durchführen # if [ $CHECKER -gt 0 -a \"$USERNAME\" = \"$LASTUSERNAME\" ] then if [ \"$PROGNAME\" = \"$LASTPROGNAME\" ] then COUNTER=`expr $COUNTER + 1` else # Ausgabe auf dem Bildschirm ... if [ $LASTCOUNT -gt 1 ] then echo \" $LASTCOUNT Instanz(en) von ->\"\\ \" $LASTPROGNAME\" else echo \" $LASTCOUNT Instanz(en) von ->\"\\ \" $LASTPROGNAME\" fi COUNTER=1 fi # Programmname für die Ausgabe formatieren # auf 40 Zeichen beschränken .... # LASTPROGNAME=`echo $PROGNAME | \\ awk '{print substr($0, 0, 40)}'` LASTCOUNT=$COUNTER elif [ $CHECKER -gt 0 -a \"$USERNAME\" != \"$LASTUSERNAME\" ] then if [ $LASTCOUNT -gt 1 ] then echo \" $LASTCOUNT Instanz(en) von >> $LASTPROGNAME\" else echo \" $LASTCOUNT Instanz(en) von >>\"\\ \" $LASTPROGNAME\" fi echo echo \"$USERNAME führt aus:.....\" LASTUSERNAME=\"$USERNAME\" # Programmname für die Ausgabe formatieren # auf 40 Zeichen beschränken .... # LASTPROGNAME=`echo $PROGNAME | \\ awk '{print substr($0, 0, 40)}'` COUNTER=1 LASTCOUNT=$COUNTER fi done # DISPLAY THE FINAL USER INSTANCE DETAILS # if [ $COUNTER -eq 1 -a $LASTCOUNT -ge 1 ] then if [ $LASTCOUNT -gt 1 ] then echo \" $LASTCOUNT Instanz(en) von >> $LASTPROGNAME\" else echo \" $LASTCOUNT Instanz(en) von >> $LASTPROGNAME\" fi fi echo \"------\" echo \"Fertig\" echo \"------\"\n\nDas Script bei der Ausführung:\n > you@host > ./psusers bin führt aus:..... 1 Instanz(en) von >> /sbin/portmap lp führt aus:..... 1 Instanz(en) von >> /usr/sbin/cupsd postfix führt aus:..... 1 Instanz(en) von -> pickup -l -t fifo -u 1 Instanz(en) von >> qmgr -l -t fifo -u root führt aus:..... 1 Instanz(en) von -> -:0 1 Instanz(en) von -> [aio/0] 1 Instanz(en) von -> /bin/bash /sbin/hotplug pci 1 Instanz(en) von -> /bin/bash /etc/hotplug/pci.agent ... you führt aus:..... 3 Instanz(en) von -> /bin/bash 1 Instanz(en) von -> /bin/ps -ef 1 Instanz(en) von -> /bin/sh /opt/kde3/bin/startkde 1 Instanz(en) von -> /bin/sh ./testscript 1 Instanz(en) von -> gpg-agent --daemon --no-detach 1 Instanz(en) von -> kaffeine -session 117f000002000111 1 Instanz(en) von -> kamix 1 Instanz(en) von -> kdeinit: Running... ...\n\n# Prozesse bestimmter Benutzer beenden\n\nHäufig kommt es vor, dass bei einem Benutzer einige Prozesse »Amok« laufen bzw. man einen Prozess einfach beenden will (warum auch immer). Mit dem folgenden Script können Sie (als root) die Prozesse eines Benutzers mithilfe einer interaktiven Abfrage beenden. Nach der Eingabe des Benutzers werden alle laufenden Prozesse in einem Array gespeichert. Anschließend wird das komplette Array durchlaufen und nachgefragt, ob Sie den Prozess beenden wollen oder nicht. Zuerst wird immer versucht, den Prozess normal mit SIGTERM zu beenden. Gelingt dies nicht mehr, muss SIGKILL herhalten.\n\n > #!/bin/ksh # Name: killuser # Wegen der Benutzung von Arrays \"nur\" für bash und Korn-Shell # nicht aber für Bourne-Shell (sh) geeignet while true do # Bildschirm löschen clear echo \"Diese Script erlaubt Ihnen bestimmte Benutzer Prozesse\" echo \"zu beenden.\" echo echo \"Name des Benutzers eingeben (mit q beenden) : \" | \\ tr -d '\\n' read unam # Wurde kein Benutzer angegeben unam=${unam:-null_value} export unam case $unam in null_value) echo \"Bitte einen Namen eingeben!\" ;; [Qq]) exit 0 ;; root) echo \"Benutzer 'root' ist nicht erlaubt!\" ;; *) echo \"Überprüfe $unam ...\" typeset -i x=0 typeset -i n=0 if $(ps -ef | grep \"^[ ]*$unam\" > /dev/null) then for a in $(ps -ef | awk -v unam=\"$unam\" '$1 ~ unam { print $2, $8}'| \\ sort -nr +1 â2 ) do if [ $n -eq 0 ] then x=`expr $x + 1` var[$x]=$a n=1 elif [ $n -eq 1 ] then var2[$x]=$a n=0 fi done if [ $x -eq 0 ] then echo \"Hier gibt es keine Prozesse zum Beenden!\" else typeset -i y=1 clear while [ $y -le $x ] do echo \"Prozess beenden PID: ${var[$y]} -> CMD: \"\\ \" ${var2[$y]} (J/N) : \" | tr -d '\\n' read resp case \"$resp\" in [Jj]*) echo \"Prozess wird beendet ...\" # Zuerst versuchen, \"normal\" zu beenden echo \"Versuche, normal zu beenden \" \\ \" (15=SIGTERM)\" kill â15 ${var[$y]} 2>/dev/null # Überprüfen, ob es geklappt hat # -> ansonsten # mit dem Hammmer killen if ps -p ${var[$y]} >/dev/null 2>&1 then echo \"Versuche, 'brutal' zu beenden\"\\ \" (9=SIGKILL)\" kill â9 ${var[$y]} 2>/dev/null fi ;; *) echo \"Prozess wird weiter ausgeführt\"\\ \" ( ${var2[y]} )\" ;; esac y=`expr $y + 1` echo done fi fi ;; esac sleep 2 done\n\nDas Script bei der Ausführung:\n > # ./killuser Dieses Script erlaubt Ihnen, bestimmte Benutzer-Prozesse zu beenden. Name des Benutzers eingeben (mit q beenden) : john Prozess beenden PID: 4388 -> CMD: sleep (J/N) : J Prozess wird beendet ... Versuche, normal zu beenden (15=SIGTERM) Prozess beenden PID: 4259 -> CMD: holdonrunning (J/N) : N Prozess wird weiter ausgeführt ( holdonrunning ) Prozess beenden PID: 4203 -> CMD: -csh (J/N) : ...\n\n# Überwachung, wer sich im System einloggt\n\nEinen Überblick, wer sich alles im System einloggt und eingeloggt hat, können Sie sich wie bekannt mit dem Kommando last ermitteln lassen. Gern würde man sich den Aufruf von last ersparen, um so immer aktuell neu eingeloggte Benutzer im System zu ermitteln. Dies kann man dann z. B. verwenden, um dem Benutzer eine Nachricht zukommen zu lassen, oder eben zu Überwachungszwecken.\n\nDas Überwachen, ob sich ein neuer Benutzer im System eingeloggt hat, lässt sich auch in einem Shellscript mit last relativ leicht ermitteln. Hierzu müssen Sie eigentlich nur die Anzahl von Zeilen von last zählen und in einer bestimmten Zeit wieder miteinander vergleichen, ob eine neue Zeile hinzugekommen ist. Die Differenz beider Werte lässt sich dann mit last und einer Pipe nach head ausgeben. Dabei werden immer nur die neu hinzugekommenen letzten Zeilen mit head ausgegeben. Im Beispiel wird die Differenz beider last-Aufrufe alle 30 Sekunden ermittelt. Dieser Wert lässt sich natürlich beliebig hoch- bzw. runtersetzen. Außerdem wird im Beispiel nur eine Ausgabe auf das aktuelle Terminal (/dev/tty) vorgenommen. Hierzu würde sich beispielsweise das Kommando write oder wall sehr gut eignen. Als root könnten Sie somit jederzeit einem User eine Nachricht zukommen lassen, wenn dieser sich einloggt.\n > #! /bin/sh # Name: loguser # Das Script überprüft, ob sich jemand im System eingeloggt hat # Pseudonym für das aktuelle Terminal outdev=/dev/tty fcount=0; newcount=0; timer=30; displaylines=0 # Die Anzahl Zeilend des last-Kommandos zählen fcount=`last | wc -l` while true do # Erneut die Anzahl Zeilen des last-Kommandos zählen ... newcount=`last | wc -l` # ... und vergleichen, ob neue hinzugekommen sind if [ $newcount -gt $fcount ] then # Wie viele neue Zeilen sind hinzugekommen ... displaylines=`expr $newcount â $fcount` # Entsprechend neue Zeilen ausgeben auf outdev # Hier würde sich auch eine Datei oder das Kommando # write sehr gut eignen, damit die Kommandozeile # nicht blockiert wird ... last | head -$displaylines > $outdev # neuen Wert an fcount zuweisen fcount=$newcount # timer Sekunden warten, bis zur nächsten Überprüfung sleep $timer fi done\n\nDas Script bei der Ausführung:\n > you@host > ./loguser john tty2 Wed May 4 23:46 still logged in root tty4 Wed May 4 23:46 still logged in tot tty2 Wed May 4 23:47 still logged in you tty5 Wed May 4 23:49 still logged in\n\n# Benutzer komfortabel anlegen, löschen, sperren und wieder aufheben\n\nEine ziemlich wichtige und regelmäßige Aufgabe, die Ihnen als Systemadministrator zufällt, dürfte das Anlegen und Löschen neuer Benutzerkonten sein.\n\nUm einen neuen Benutzer-Account anzulegen, wird ein neuer Eintrag in der Datei /etc/passwd angelegt. Dieser Eintrag beinhaltet gewöhnlich einen Benutzernamen aus acht Zeichen, eine User-ID (UID), eine Gruppen-ID (GID), ein Heimverzeichnis (/home) und eine Login-Shell. Die meisten Linux-/UNIX-Systeme speichern dann noch ein verschlüsseltes Password in /etc/shadow â was natürlich bedeutet, dass Sie auch hier einen Eintrag (mit passwd) vornehmen müssen. Beim Anlegen eines neuen Benutzers können Sie entweder zum Teil vorgegebene Standardwerte verwenden oder eben eigene Einträge anlegen. Es ist außerdem möglich, die Dauer der Gültigkeit des Accounts festzulegen.\n\nIm Beispiel ist es nicht möglich, auch noch eine neue Gruppe anzulegen, sprich, Sie können nur einen neuen Benutzer anlegen und diesem eine bereits vorhandene Gruppe (setzt einen vorhandenen Eintrag in /etc/group voraus) zuweisen. Auf das Anlegen einer neuen Gruppe wurde aus Übersichtlichkeitsgründen verzichtet, da sich das Script sonst unnötig in die Länge ziehen würde. Allerdings sollte es Ihnen mit der Vorlage dieses Scripts nicht schwer fallen, ein recht ähnliches Script für das Anlegen einer Gruppe zu schreiben.\n\nNebenbei ist es auch realisierbar, einen Benutzer mit passwd zu sperren und die Sperre wieder aufzuheben. Beim Löschen eines Benutzers werden zuvor noch all seine Daten gesucht und gelöscht, bevor der eigentliche Benutzer-Account aus /etc/passwd gelöscht werden kann. Im Beispiel wird die Suche wieder nur auf das /home-Verzeichnis beschränkt, was Sie allerdings in der Praxis wieder den Gegebenheiten anpassen sollten.\n > #! /bin/sh # Name: account # Mit diesem Script können Sie einen Benutzer # * Anlegen # * Löschen # * Sperren # * Sperre wieder aufheben # Pfade, die beim Löschen eines Accounts benötigt werden, # ggf. erweitern und ergänzen um bspw. /var /tmp ... # überall eben, wo sich Dateien vom Benutzer befinden können searchpath=\"/home\" usage() { echo \"Usage: $0 Benutzer (Neuen Benutzer anlegen)\" echo \"Usage: $0 -d Benutzer (Benutzer löschen)\" echo \"Usage: $0 -l Benutzer (Benutzer sperren)\" echo \"Usage: $0 -u Benutzer (Gesperrten Benutzer wieder freigeben)\" } # Nur root darf dieses Script ausführen ... # if [ `id -u` != 0 ] then echo \"Es werden root-Rechte für dieses Script benötigt!\" exit 1 fi # Ist das Kommando useradd auf dem System vorhanden ... # which useradd > /dev/null 2>1& if [ $? -ne 0 ] then echo \"Das Kommando 'useradd' konnte auf dem System nicht \"\\ \" gefunden werden!\" exit 1 fi if [ $# -eq 0 ] then usage exit 0 fi if [ $# -eq 2 ] then case $1 in -d) # Existiert ein entsprechender Benutzer if [ \"`grep $2 /etc/passwd | \\ awk -F : '{print $1}'`\" = \"$2\" ] then echo \"Dateien und Verzeichnisse von '$2' \"\\ \"werden gelöscht\" # Alle Dateien und Verz. des Benutzers löschen find $searchpath -user $2 -print | sort -r | while read file do if [ -d $file ] then rmdir $file else rm $file fi done else echo \"Ein Benutzer '$2' existiert nicht in \"\\ \"/etc/passwd!\" exit 1 fi # Benutzer aus /etc/passwd und /etc/shadow löschen userdel -r $2 2>/dev/null echo \"Benutzer '$2' erfolgreich gelöscht!\" exit 0 ;; -l) # Existiert ein entsprechender Benutzer if [ \"`grep $2 /etc/passwd | \\ awk -F : '{print $1}'`\" = \"$2\" ] then passwd -l $2 fi echo \"Benutzer '$2' wurde gesperrt\" exit 0 ;; -u) # Existiert ein entsprechender Benutzer if [ \"`grep $2 /etc/passwd | \\ awk -F : '{print $1}'`\" = \"$2\" ] then passwd -u $2 fi echo \"Benutzer '$2': Sperre aufgehoben\" exit 0 ;; -h) usage exit 1 ;; -*) usage exit 1 ;; *) usage exit 1 ;; esac fi if [ $# -gt 2 ] then usage exit 1 fi ##################################################### # Einen neuen Benutzer anlegen # # Existiert bereits ein entsprechender Benutzer # if [ \"`grep $1 /etc/passwd | awk -F : '{print $1}'`\" = \"$1\" ] then echo \"Ein Benutzer '$1' existiert bereits in /etc/passwd ...!\" exit 1 fi # Bildschirm löschen clear # Zuerst wird die erste freie verwendbare User-ID gesucht, # vorgeschlagen und bei Bestätigung verwendet, oder es wird eine # eingegebene User-ID verwendet, die allerdings ebenfalls # überprüft wird, ob sie bereits in /etc/passwd existiert. # userid=`tail â1 /etc/passwd |awk -F : '{print $3 + 1}'` echo \"Eingabe der UID [default: $userid] \" | tr -d '\\n' read _UIDOK # ... wurde nur ENTER betätigt if [ \"$_UIDOK\" = \"\" ] then _UIDOK=$userid # ... es wurde eine UID eingegeben -> # Überprüfen ob bereits vorhanden ... elif [ `grep $_UIDOK /etc/passwd | awk -F : '{print $3}'` = \"\" ] then _UIDOK=$userid else echo \"UID existiert bereits! ENTER=Neustart / STRG+C=Ende\" read $0 $1 fi # Selbiges mit Gruppen-ID # groupid=`grep users /etc/group |awk -F : '{print $3}'` echo \"Eingabe der GID: [default: $groupid] \" | tr -d '\\n' read _GIDOK if [ \"$_GIDOK\" = \"\" ] then _GIDOK=$groupid elif [ \"`grep $_GIDOK /etc/group`\" = \"\" ] then echo \"Dies Gruppe existiert nicht in /etc/group! \"\\ \"ENTER=Neustart / STRG+C=Ende\" read $0 $1 fi # Das Benutzer-Heimverzeichnis /home abfragen # echo \"Eingabe des Heimverzeichnisses: [default: /home/$1] \" | \\ tr -d '\\n' read _HOME # Wurde nur ENTER gedrückt, default verwenden ... if [ \"$_HOME\" = \"\" ] then _HOME=\"/home/$1\" fi # Die Standard-Shell für den Benutzer festlegen # echo \"Eingabe der Shell: [default: /bin/bash] \" | tr -d '\\n' read _SHELL # Wurde nur ENTER gedrückt, default verwenden ... if [ \"$_SHELL\" = \"\" ] then _SHELL=/bin/bash # Gibt es überhaupt eine solche Shell in /etc/shells ... elif [ \"`grep $_SHELL /etc/shells`\" = \"\" ] then echo \"'$_SHELL' gibt es nicht in /etc/shells! \"\\ \" ENTER=Neustart / STRG+C=Ende\" read $0 $1 fi # Kommentar oder Namen eingeben echo \"Eingabe eines Namens: [beliebig] \" | tr -d '\\n' read _REALNAME # Expire date echo \"Ablaufdatum des Accounts: [MM/DD/YY] \" | tr -d '\\n' read _EXPIRE clear echo echo \"Folgende Eingaben wurden erfasst:\" echo \"---------------------------------\" echo \"User-ID : [$_UIDOK]\" echo \"Gruppen-ID : [$_GIDOK]\" echo \"Heimverzeichnis : [$_HOME]\" echo \"Login-Shell : [$_SHELL]\" echo \"Name/Komentar : [$_REALNAME]\" echo \"Account läuft aus : [$_EXPIRE]\" echo echo \"Account erstellen? (j/n) \" read _verify case $_verify in [nN]*) echo \"Account wurde nicht erstellt!\" | tr -d '\\n' exit 0 ;; [jJ]*) useradd -u $_UIDOK -g $_GIDOK -d $_HOME -s $_SHELL \\ -c \"$_REALNAME\" -e \"$_EXPIRE\" $1 cp -r /etc/skel $_HOME chown -R $_UIDOK:$_GIDOK $_HOME passwd $1 echo \"Benutzer $1 [$_REALNAME] hinzugefügt \"\\ \"am `date`\" >> /var/adm/newuser.log finger -m $1 |head â2 sleep 2 echo \"Benutzer $1 erfolgreich hinzugefügt!\" ;; *) exit 1;; esac\n\nDas Script bei der Ausführung:\n > linux:/home/you # ./account jack Eingabe der UID [default: 1003](ENTER) Eingabe der GID: [default: 100](ENTER) Eingabe des Heimverzeichnisses: [default: /home/jack](ENTER) Eingabe der Shell: [default: /bin/bash](ENTER) Eingabe eines Namens: [beliebig] J.Wolf Ablaufdatum des Accounts : [MM/DD/YY](ENTER) ... Folgende Eingaben wurden erfasst: --------------------------------- User-ID : [1003] Gruppen-ID : [100] Heimverzeichnis : [/home/jack] Login-Shell : [/bin/bash] Name/Komentar : [J.Wolf] Account läuft aus : [] Account erstellen? (j/n) j Changing password for jack. New password:******** Re-enter new password:******** Password changed Login: jack Name: J.Wolf Directory: /home/jack Shell: /bin/bash Benutzer jack erfolgreich hinzugefügt! linux:/home/you # ./account -l jack Passwort geändert. Benutzer 'jack' wurde gesperrt linux:/home/you # ./account -u jack Passwort geändert. Benutzer 'jack': Sperre aufgehoben linux:/home/you # ./account -d jack Dateien und Verzeichnisse von 'jack' werden gelöscht Benutzer 'jack' erfolgreich gelöscht!\n\n### 15.3.2 SystemüberwachungÂ\n\n# Warnung, dass der Plattenplatz des Dateisystems an seine Grenzen stößt\n\nGerade, wenn man mehrere Dateisysteme oder gar Server betreuen muss, fällt es oft schwer, sich auch noch über den Plattenplatz Gedanken zu machen. Hierzu eignet sich ein Script, mit dem Sie den fünften Wert von »df âk« auswerten und daraufhin überprüfen, ob eine bestimmte von Ihnen festgelegte Grenze erreicht wurde. Ist die Warnschwelle erreicht, können Sie eine Mail an eine bestimmte Adresse verschicken oder eventuell ein weiteres Script starten lassen, welches diverse Aufräum- oder Komprimierarbeiten durchführt. Natürlich macht dieses Script vor allem dann Sinn, wenn es im Intervall mit einem cron-Job gestartet wird.\n\n > #!/bin/sh # Name: chcklimit # Dieses Script verschickt eine Mail, wenn der Plattenverbrauch # eines Filesystems an ein bestimmtes Limit stösst. # Ab wie viel Prozent soll ein Warnung verschickt werden WARN_CAPACITY=80 # Wohin soll eine Mail verschickt werden TOUSER=user@host.de call_mail_fn() { servername=`hostname` msg_subject=\"$servername â Dateisystem(${FILESYSTEM}) \"\\ \"verwendet ${FN_VAR1}% â festgestellt am: `date`\" echo $msg_subject | mail -s \"${servername}:Warnung\" $TOUSER } if [ $# -lt 1 ] then echo \"usage: $0 FILESYSTEM\" echo \"Bpsw.: $0 /dev/hda6\" fi # Format von df -k: # Dateisystem 1K-Blöcke Benutzt Verfügbar Ben% Eingehängt auf # /dev/hda4 15528224 2610376 12917848 17 % / # Den fünften Wert wollen wir haben: 'Ben%' # VAR1=`df -k ${1} | /usr/bin/tail â1 | \\ /usr/bin/awk '{print $5}' ` # Prozentzeichen herausschneiden VAR2=`echo $VAR1 | \\ /usr/bin/awk '{ print substr($1,1,length($1)-1) }' ` # Wurde die Warnschwelle erreicht ... ? if [ $VAR2 -ge ${WARN_CAPACITY} ] then FN_VAR1=$VAR2 call_mail_fn fi\n\nDas Script bei der Ausführung:\n > you@host > ./chcklimit /dev/hda6 ... you@host > mail >N 1 Mon May 2 16:18 18/602 linux:Warnung ? 1 Message 1: From: (J.Wolf) linux â Dateisystem() verwendet 88 % â festgestellt am: Mo Mai 2 16:17:59 CEST 2005\n\n# Kommandos bzw. Scripts auf einem entfernten Rechner ausführen\n\nDas Ausführen von Kommandos oder gar von Scripts auf mehreren Rechnern, gestartet vom lokalen Rechner, hört sich komplizierter an als es ist. Und vor allem es ist auch sicherer, als manch einer jetzt vielleicht denken mag. Dank guter Verschlüsselungstechnik und hoher Präsenz bietet sich hierzu ssh an (die r-Tools fallen wegen der Sicherheitslücken flach â siehe Abschnitt 14.12.10). Die Syntax, um mit ssh Kommandos oder Scripts auf einem anderen Rechner auszuführen, sieht wie folgt aus:\n > ssh username@hostname \"kommando1 ; kommando2 ; script\"\n\nMit diesem Wissen fällt es nicht schwer, sich ein entsprechendes Script zusammenzubasteln. Damit es ein wenig flexibler ist, soll es auch möglich sein, Shellscripts, die noch nicht auf dem entfernten Rechner liegen, zuvor noch mit scp in ein bestimmtes Verzeichnis hochzuladen, um es anschließend auszuführen. Ebenso soll es möglich sein, in ein bestimmtes Verzeichnis zu wechseln, um dann entsprechende Kommandos oder Scripts auszuführen. Natürlich setzt dies voraus, dass auf den Rechnern auch ein entsprechendes Verzeichnis existiert. Die Rechner, auf denen Kommandos oder Scripts ausgeführt werden sollen, tragen Sie in die Datei namens hostlist.txt ein. Bei mir sieht diese Datei wie folgt aus:\n > you@host > cat hostlist.txt us10129@myhoster.de jwolf@192.135.147.2\n\nIm Beispiel finden Sie also zwei entfernte Rechner, bei denen das gleich folgende Script dafür sorgt, dass Sie von Ihrem lokalen Rechner aus schnell beliebige Kommandos bzw. Scripts ausführen können.\n\n > #!/bin/sh # Name: sshell # Kommandos bzw. Scripts auf entfernten Rechnern ausführen # ggf. den Pfad zur Datei anpassen HOSTS=\"hostlist.txt\" usage() { echo \"usage: progname [-option] [Verzeichnis] \"\\ \" Kommando_oder_Script\" echo echo \"Option:\" echo \"-d :in ein bestimmtes Verzeichnis auf dem Host wechseln\" echo \"-s :Script in ein bestimmtes Verzeichnis hochladen und\"\\ \" Ausführen\" echo echo \"Syntax der Host-Liste: \" echo \"Username@hostname1\" echo \"Username@hostname2\" echo \"...\" exit 1 } if [ $# -eq 0 ] then usage fi # Datei 'hostlist.txt' überprüfen if [ -e $HOSTS ] then : else echo \"Datei $HOSTS existiert nicht ...\" touch hostlist.txt if [ $? -ne 0 ] then echo \"Konnte $HOSTS nicht anlegen ...!\" exit 1 else echo \"Datei $HOSTS erzeugt, aber noch leer ...!\" usage exit 1 fi fi # Optionen überprüfen ... case $1 in -d) if [ $# -lt 3 ] then usage fi DIR=$2 shift; shift ;; -s) if [ $# -lt 3 ] then usage fi DIR=$2 SCRIPT=\"yes\" shift; shift ;; -*) usage ;; esac # Die einzelnen Hosts durchlaufen ... for host in `cat $HOSTS` do echo \"$host : \" CMD=$* if [ \"$SCRIPT\" = \"yes\" ] then scp $CMD ${host}:${DIR} fi ret=`ssh $host \"cd $DIR; $CMD\"` echo \"$ret\" done\n\nInhalt des Heimverzeichnisses ausgeben:\n > you@host > ./sshell ls -l us10129@myhoster.de : total 44 drwx------ 4 us10129 us10129 4096 May 14 13:45 backups drwxr-xr-x 8 us10129 us10129 4096 May 9 10:13 beta.pronix.de -rw-rw-r-- 1 us10129 us10129 66 Dec 2 02:13 db_cms.bak drwxrwxr-x 2 us10129 us10129 4096 Mar 11 07:49 dump -rw------- 1 us10129 us10129 952 May 14 14:00 mbox drwxrwxr-x 2 us10129 us10129 4096 Mar 28 18:03 mysqldump drwxr-xr-x 20 us10129 us10129 4096 May 19 19:56 www.pronix.de jwolf@192.135.147.2 : total 24 drwxr-xr-x 2 jwolf jwolf 512 May 8 14:03 backups drwxr-xr-x 3 jwolf jwolf 21504 Sep 2 2004 dev\n\nInhalt des Verzeichnisses $HOME/backups ausgeben:\n > you@host > ./sshell -d backups ls -l : total 8 drwxrwxr-x 3 us10129 us10129 4096 May 18 18:38 Shellbuch drwxrwxr-x 3 us10129 us10129 4096 May 14 13:46 Shellbuch_bak -rw-rw-r-- 1 us10129 us10129 0 May 20 12:45 file1 -rw-rw-r-- 1 us10129 us10129 0 May 20 12:45 file2 -rw-rw-r-- 1 us10129 us10129 0 May 20 12:45 file3 jwolf@192.135.147.2 : total 6 -rw-r--r-- 1 jwolf jwolf 0 May 8 13:38 file1 -rw-r--r-- 1 jwolf jwolf 0 May 8 13:38 file2 -rw-r--r-- 1 jwolf jwolf 0 May 8 13:38 file3 -rwx------ 1 jwolf jwolf 29 May 8 13:58 hallo.sh -rwx------ 1 jwolf jwolf 29 May 8 13:48 mhallo -rwx------ 1 jwolf jwolf 29 May 8 14:03 nhallo\n\nDateien beginnend mit »file*« im Verzeichnis $HOME/backups löschen:\n > you@host > ./sshell -d backups rm file* : jwolf@192.135.147.2 :\n\nInhalt des Verzeichnisses $HOME/backups erneut ausgeben:\n > you@host > ./sshell -d backups ls -l : total 5 drwxrwxr-x 3 us10129 us10129 4096 May 18 18:38 Shellbuch drwxrwxr-x 3 us10129 us10129 4096 May 14 13:46 Shellbuch_bak jwolf@192.135.147.2 : total 3 -rwx------ 1 jwolf jwolf 29 May 8 13:58 hallo.sh -rwx------ 1 jwolf jwolf 29 May 8 13:48 mhallo -rwx------ 1 jwolf jwolf 29 May 8 14:03 nhallo\n\nNeues Verzeichnis testdir anlegen:\n > you@host > ./sshell mkdir testdir : jwolf@192.135.147.2 :\n\nScript hallo.sh ins neue Verzeichnis (testscript) schieben und ausführen:\n > you@host > ./sshell -s testdir ./hallo.sh : hallo.sh 100 % 67 0.1KB/s 00:00 Ich bin das Hallo Welt-Script! jwolf@192.135.147.2 : hallo.sh 100 % 67 0.1KB/s 00:00 Ich bin das Hallo Welt-Script!\n\nVerzeichnis testdir wieder löschen:\n > tot@linux:~> ./sshell rm -r testdir : jwolf@192.135.147.2 :\n\n# 15.4 Backup-StrategienÂ\n\nDate: 2012-12-14\nCategories: \nTags: \n\n15.4 Backup-Strategien Beim Thema Backup handelt es sich um ein sehr spezielles und vor allem enorm wichtiges Thema, weshalb hier eine umfassendere Einführung unumgänglich ist. Anhand dieser kurzen Einführung werden Sie schnell feststellen, wie viele Aspekte es gibt, die man bei der richtigen Backup-Lösung beachten muss. Zwar finden Sie anschließend auch einige Scripts in der Praxis dazu, doch handelt es sich bei diesem Thema schon eher um einen sehr speziellen Fall, bei dem man einiges Wissen benötigt und auch so manches berücksichtigen muss, sodass sich keine ultimative Lösung erstellen lässt.15.4.1 Warum ein Backup? Es gibt drei verschiedene Fälle von Datenverlusten: Eine einzelne Datei (oder wenige Dateien) wird aus Versehen gelöscht oder falsch modifiziert (bspw. von einem Virus infiziert). In solch einem Fall ist das Wiederherstellen einer Datei häufig nicht allzu kompliziert. Bei solchen Daten ist eine tar-, cpio- oder afio-Sicherung recht schnell wieder zurückgeladen. Natürlich ist dies immer abhängig vom Speichermedium. Wenn Sie dieses Backup auf einem Band linear suchen müssen, ist das Wiederherstellen nicht unbedingt vorteilhaft. Hierzu ist es häufig sinnvoll, immer wieder ein Backup in einem anderen (entfernten) Verzeichnis zu abzuspeichern. Eine Festplatte ist defekt. Häufig denkt man, ist bei mir noch nie vorgekommen, aber wenn es dann mal crasht, ist guter Rat oft teuer. Hier gibt es eine recht elegante Lösung, wenn man RAID-Systeme im Level 1 oder 5 verwendet. Dabei werden ja die Daten redundant auf mehreren Platten gespeichert. Das bedeutet, dass Sie beim Ausfall einer Festplatte die Informationen jederzeit von der Kopie wieder holen können. Sobald Sie die defekte Platte gegen eine neue austauschen, synchronisiert das RAID-System die Platten wieder, sodass alle Daten nach einer gewissen Zeit wieder redundant auf den Platten vorhanden sind. Zur Verwendung von RAID gibt es eine Software- und eine Hardwarelösung mit einem RAID-Controller. Zwar ist die Hardwarelösung erheblich schneller, aber auch teurer.   Auf der anderen Seite sollte man bei der Verwendung von RAID bedenken, dass jeder Fehler, der z. B. einem Benutzer oder gar dem Administrator selbst unterläuft, wie bspw. Software-Fehler, Viren, instabiles System, versehentliches Löschen von Daten usw., sofort auf das RAID-System bzw. auf alle Speichermedien im System repliziert wird.       Datenverlust durch Hardware- oder Softwarefehler oder Elementarschäden (wie Feuer, Wasser oder Überspannung). Hier wird eine Komplettsicherung der Datenbestände nötig, was bei den Giga- bis Terrabytes an Daten, die häufig vorliegen, kein allzu leichtes Unterfangen darstellt. Gewöhnlich geht man hierbei zwei Wege:Man schiebt die Daten auf einen entfernten Rechner (bspw. mit cp oder scp), am besten gleich in komprimierter Form (mittels gzip oder bzip2). Die wohl gängigste Methode dürfte das Archivieren auf wechselbaren Datenträgern wie Magnetband, CD oder DVD sein (abhängig vom Datenumfang). Meistens werden hierzu die klassischen Tools wie cp, dd, scp oder rsync verwendet. Auch sollte man unter Umständen eine Komprimierung mit gzip oder bzip2 vorziehen. Für Bänder und Streamer kommen häufig die klassischen Tools wie tar, afio, cpio oder taper zum Einsatz.15.4.2 Sicherungsmedien Über das Speichermedium macht man sich wohl zunächst keine allzu großen Gedanken. Meistens greift man auf eine billigere Lösung zurück. Ohne auf die einzelnen Speichermedien genauer einzugehen, gibt es hierbei einige Punkte, die es zu überdenken gilt: Maximales Speichervolumen â will man mal eben schnell sein lokales Verzeichnis sichern, wird man wohl mit einer CD bzw. DVD als Speichermedium auskommen. Doch bevor Sie vorschnell urteilen, lesen Sie am besten noch die weiteren Punkte. Zugriffsgeschwindigkeit â wenn Sie wichtige Datenbestände im Umfang von mehreren Gigabytes schnell wiederherstellen müssen, werden Sie wohl kaum ein Speichermedium wählen, welches nur 1 MB in der Sekunde übertragen kann. Hier gilt es also, die Transferrate in MB pro Sekunde im Auge zu behalten. Zuverlässigkeit â wie lange ist die Haltbarkeit von Daten auf einer CD oder DVD oder gar auf einem Magnetband. Darüber werden Sie sich wohl bisher recht selten Gedanken gemacht haben â doch es gibt in der Tat eine durchschnittliche Haltbarkeit von Daten auf Speichermedien. Zulässigkeit â in manchen Branchen, z. B. in der Buchhaltung, ist es gesetzlich vorgeschrieben, nur einmal beschreibbare optische Datenträger zu verwenden. Bei der Verwendung von mehrfach beschreibbaren Medien sollte man immer die Risiken bedenken, dass diese wieder beschrieben werden können (sei es nun mit Absicht oder aus Versehen).15.4.3 Varianten der Sicherungen Generell kann man von zwei Varianten einer Sicherung sprechen: Vollsicherung â dabei werden alle zu sichernden Daten vollständig gesichert. Der Vorteil ist, dass man jederzeit ohne größeren Aufwand die gesicherten Daten wieder zurückladen kann. Man sollte allerdings bedenken, ob man bestimmte Daten bei einer Vollsicherung ausgrenzen sollte â besonders die sicherheitsrelevanten. Der Nachteil daran ist ganz klar: Eine Vollsicherung kann eine ganz schöne Menge an Platz (und auch Zeit) auf einem Speichermedium verbrauchen. Inkrementelle Sicherung â hierbei wird nur einmal eine Vollsicherung vorgenommen. Anschließend werden immer nur diejenigen Daten gesichert, die sich seit der letzten Sicherung verändert haben. Hierbei wird weniger Platz auf einem Speichermedium (und auch Zeit) benötigt.15.4.4 Bestimmte Bereiche sichern Hierzu einige kurze Vorschläge, wie man bestimmte Bereiche sinnvoll sichert. Einzelne Dateien â einzelne Dateien kann man mal schnell mit cp oder scp auf eine andere Festplatte, Diskette oder ein anderes Verzeichnis übertragen. Natürlich steht Ihnen hierzu auch die Möglichkeit mittels tar, afio oder cpio zur Verfügung, um die Daten auf externe Datenträger zu sichern. Gewöhnlich werden diese Archive auch noch mittels gzip oder bzip2 komprimiert. Gern werden hierzu auch Datenträger wie CD oder DVD verwendet. Dateibäume â ganze Dateibäume beinhalten häufig eine Menge Daten. Hier verwendet man als Speichermedium häufig Streamer, Magnetbänder oder optische Datenträger (CD, DVD), je nach Umfang. Als Werkzeuge werden gewöhnlich tar, afio und cpio eingesetzt. Aber auch Programme zur Datensynchronisation wie rsync oder unison werden oft genutzt. Zum Sichern auf optische Speichermedien wie CD oder DVD werden gewöhnlich die Tools mkisofs, (oder mit GUI) xcdroast, K3b oder gtoaster verwendet. Ganze Festplatte â zum Sichern ganzer Festplatten verwendet man unter Linux häufig das Programmpaket amanda (Advanced Maryland Automatic Network Disk Archiver), das ein komplettes Backup-System zur Verfügung stellt. Da es nach dem Client-Server-Prinzip arbeitet, ist somit auch eine Datensicherung über das Netzwerk möglich. Der Funktionsumfang von amanda ist gewaltig, weshalb ich hier auf die Webseite http://www.amanda.org. Dateisysteme â mithilfe des Kommandos dd lässt sich ein komplettes Dateisystem auf eine andere Platte oder auf ein Band sichern. Beachten Sie allerdings, dass beim Duplizieren beide Partitionen die gleiche Größe haben müssen (falls Sie Festplatten duplizieren wollen) und bestenfalls beide Platten nicht gemountet sind (zumindest nicht die Zielplatte). Da dd selbst physikalisch Block für Block kopiert, kann das Tool nicht auf defekte Blöcke überprüfen. Daher sollte man hierbei auch gleich noch mit dem Kommando badblocks nach defekten Blöcken suchen. Natürlich müssen Sie auch beim Zurückspielen darauf achten, dass die Zielpartition nicht kleiner als die Quellpartition ist. Ein anderes Tool, das auch auf Low-Level-Ebene und fehlertolerant arbeitet, ist dd_rescue.   Ein weiteres hervorragendes Tool zum Sichern und Wiederherstellen ganzer Partitionen ist partimage, welches auch wie dd und dd_rescue in der Lage ist, unterschiedliche Dateisysteme zu sichern (ext2/ext3; reiserfs, xfs, UFS (Unix), HFS (MAC), NTFS/FAT16/FAT32 (Win32)), da es wie die beiden anderen genannten Tools auf Low-Level-Ebene arbeitet. Mehr zu partimage entnehmen Sie bitte http://www.partimage.org. Natürlich bietet sich Ihnen auch die Möglichkeit, Dateisysteme zu synchronisieren. Hierbei stehen Ihnen Werkzeuge wie rsync, unision, WebDAV usw. zur Verfügung.      15.4.5 Backup über ssh mit tar Das Sichern von Dateien zwischen Servern ist eigentlich mit dem Kommando scp recht einfach:scp some-archive.tgz user@host:/home/backupsNachteile von scp beim Durchlaufen ganzer Verzeichnisbäume (mit der Option âr) sind die vielen Kommandoaufrufe (alles wird einzeln kopiert) und die unflexiblen Kompressionsmöglichkeiten.Hierzu wird in der Praxis oft tar verwendet. Verknüpfen wir nun tar mit ssh, haben wir exakt das, was wir wollen. Wenn Sie nämlich ssh ohne eine interaktive Login-Sitzung starten, erwartet ssh Daten von der Standardeingabe und gibt das Ergebnis auf die Standardausgabe aus. Das hört sich stark nach der Verwendung einer Pipe an. Wollen Sie beispielsweise alle Daten aus Ihrem Heimverzeichnis auf einem entfernten Rechner archivieren, können Sie wie folgt vorgehen:tar zcvf â /home | ssh user@host \"cat > homes.tgz\"Natürlich ist es möglich, das komprimierte Archiv auch auf ein Magnetband des entfernten Rechners zu schreiben (entsprechendes Medium und Rechte vorausgesetzt):tar zcvf â /home | ssh user@host \"cat > /dev/tape\"Wollen Sie stattdessen eine Kopie einer Verzeichnisstruktur auf Ihrer lokalen Maschine direkt auf das Filesystem einer anderen Maschine kopieren, so können Sie dies so erreichen (Sie synchronisieren das entfernte Verzeichnis mit dem lokalen):cd /home/us10129/www.pronix.de ; tar zcf â html/ \\ | ssh user@host \\ \"cd /home/us10129/www.pronix.de; mv html html.bak; tar zpxvf -\"Hier sichern Sie u. a. auch das Verzeichnis html auf host, indem Sie es umbenennen (html.bak) â für den Fall der Fälle. Dann erstellen Sie eine exakte Kopie von /home/us10129/www.pronix.de/html â Ihrem lokalen Verzeichnis â mit sämtlichen identischen Zugriffsrechten und der Verzeichnisstruktur auf dem entfernten Rechner. Da hierbei tar mit der Option z verwendet wird, werden die Daten vor dem »Hochladen« komprimiert, was natürlich bedeutet, dass eine geringere Datenmenge transferiert werden muss und der Vorgang erheblich schneller vonstatten gehen kann. Natürlich ist dies abhängig von der Geschwindigkeit beider Rechner, also wie schnell bei diesen die (De-)Kompression durchgeführt werden kann.Müssen Sie auf dem entfernten Rechner etwas wiederherstellen und verfügen über ein Backup auf der lokalen Maschine, ist dies mit folgender Kommandoverkettung kein allzu großes Unterfangen mehr:ssh user@host \"cd /home/us10129/www.pronix.de; tar zpvxf -\" \\ < big-archive.tgzSo stellen Sie das komplette Verzeichnis /home/us10129/www.pronix.de/ mit dem Archiv big-archive.tgz wieder her. Gleiches können Sie natürlich auch jederzeit in die andere Richtung vornehmen:ssh user@host \"cat big-archive.tgz\" | tar zpvxf -Damit Sie nicht andauernd ein Passwort eingeben müssen, empfiehlt es sich auch hier, SSH-Schlüssel zu verwenden (siehe Abschnitt 14.12.12). Das folgende Script demonstriert Ihnen die Möglichkeit, ssh und tar in einem Backup-Script zu verwenden.#!/bin/sh # Name: ssh_tar # Backups mit tar über ssh # Konfiguration, entsprechend anpassen # SSH_OPT=\"-l\" SSH_HOST=\"192.135.147.2\" SSH_USER=\"jwolf\" # Default-Angaben # LOCAL_DIR=\"/home/tot/backups\" REMOTE_DIR=\"/home/jwolf/backups\" stamp=`date +%d_%m_%Y` BACKUP_FILE=\"backup_${stamp}.tgz\" usage() { echo \"usage: star [-ph] [-pl] [-sh] [-sl] [-r] [-l] ...\" echo echo \"Optionen : \" echo \" âph : (lokales) Verzeichnis packen und hochladen \" \\ \" (remote) in 'REMOTE_DIR'\" echo \" Beispiel: star -ph lokalesVerzeichnis \" echo \" -pl = (remote) Verzeichnis packen und runterladen\"\\ \" (lokal) in 'LOCAL_DIR'\" echo \" Beispiel: star -pl remoteVerzeichnis \" echo \" -sh = Synchronisiert ein Host-Verzeichnis mit einem \"\\ \"lokalen Verzeichnis\" echo \" Beispiel: star -sh lokalesVerzeichnis \"\\ \"remoteVerzeichnis syncVerzeichnis \" echo \" -sl = Synchronisiert ein lokales Verzeichnis mit \"\\ \"einem Host-Verzeichnis\" echo \" Beispiel: star -sl remoteVerzeichnis \"\\ \"lokalesVerzeichnis syncVerzeichnis \" echo \" -r = (remote) Wiederherstellen eines\"\\ \" Host-Verzeichnisses\" echo \" Beispiel: star -r remoteVerzeichnis \"\\ \"lokalTarArchiv.tgz\" echo \" -l = (lokal) Wiederherstellen eines lokalen \"\\ \"Verzeichnisses\" echo \" Beispiel: star -l lokalesVerzeichnis \"\\ \"remoteTarArchiv.tgz\" # ... exit 1 } case \"$1\" in -ph) if [ $# -ne 2 ] then usage else cd $2; tar zcvf â \".\" | \\ ssh $SSH_OPT $SSH_USER $SSH_HOST \\ \"cat > ${REMOTE_DIR}/${BACKUP_FILE}\" echo \"Verzeichnis '$2' nach \"\\ \"${SSH_HOST}:${REMOTE_DIR}/${BACKUP_FILE} \"\\ \"gesichert\" fi ;; -pl) if [ $# -ne 2 ] then usage else ssh $SSH_OPT $SSH_USER $SSH_HOST \\ \"cd $2; tar zcvf â .\" | \\ cat > ${LOCAL_DIR}/${BACKUP_FILE} echo \"Verzeichnis ${SSH_HOST}:${2} nach \"\\ \"${LOCAL_DIR}/${BACKUP_FILE} gesichert\" fi ;; -sh) if [ $# -ne 4 ] then usage else cd $2 tar zcf â $4/ | ssh $SSH_OPT $SSH_USER $SSH_HOST \\ \"cd $3; mv $4 ${4}.bak; tar zpxvf -\" echo \"Verzeichnis ${2}/${4} mit\"\\ \" ${SSH_HOST}:${3}/${4} synchronisiert\" fi ;; -sl) if [ $# -ne 4 ] then usage else cd $3; mv $4 ${4}.bak ssh $SSH_OPT $SSH_USER $SSH_HOST \"cd ${2}; tar zcvf â ${4}\"\\ | tar zpvxf - echo \"Verzeichnis ${SSH_HOST}:${2}/${4} mit\"\\ \" ${3}/${4} synchronisiert\" fi ;; -r) if [ $# -ne 3 ] then usage else ssh $SSH_OPT $SSH_USER $SSH_HOST \\ \"cd ${2}; tar zpvxf -\" < $3 echo \"${SSH_HOST}:$2 mit dem Archiv $3 \"\\ \"Wiederhergestellt\" fi ;; -l) if [ $# -ne 3 ] then usage else cd $2 ssh $SSH_OPT $SSH_USER $SSH_HOST \"cat $3\" | \\ tar zpvxf - echo \"$2 mit dem Archiv ${SSH_HOST}:${3} \"\\ \"Wiederhergestellt\" fi ;; -*) usage;; *) usage;; esacDas Script bei der Ausführung:you@host > ./ssh_tar -ph Shellbuch_aktuell/ ./ ./kap004.txt ./kap005.txt ... ... ./Kap013.txt ./Kap014.txt Verzeichnis 'Shellbuch_aktuell/' nach 192.135.147.2:/home/jwolf/backups/backup_20_05_2005.tgz gesichertEin Blick zum Rechner »192.135.147.2«:jwolf@jwolf$ ls backups/ backup_20_05_2005.tgz you@host > ./ssh_tar -pl backups/ ./ ./backup_20_05_2005.tgz ./kap004.txt ./kap005.txt ... ... ./Kap012.txt ./Kap013.txt ./Kap014.txt Verzeichnis 192.135.147.2:backups/ nach /home/you/backups/ backup_20_05_2005.tgz gesichert you@host > ls backups/ backup_07_05_2005.tgz backup_20_05_2005.tgz ShellbuchErstellt im Remoteverzeichnis backups ein Ebenbild des Verzeichnisses Shellbuch_aktuell aus dem Heimverzeichnis des lokalen Rechners:you@host > ./ssh_tar -sh $HOME backups Shellbuch_aktuell Shellbuch_aktuell/ Shellbuch_aktuell/kap004.txt Shellbuch_aktuell/kap005.txt ... Shellbuch_aktuell/Kap013.txt Shellbuch_aktuell/Kap014.txt Verzeichnis /home/you/Shellbuch_aktuell mit 192.135.147.2:backups/Shellbuch_aktuell synchronisiertErstellt im lokalen Heimverzeichnis $HOME/backup eine exakte Kopie des entfernten Remote-Verzeichnisses backups/Shellbuch:you@host > ./ssh_tar -sl backups $HOME/backups Shellbuch_aktuell Shellbuch_aktuell/ Shellbuch_aktuell/kap004.txt Shellbuch_aktuell/kap005.txt ... ... Shellbuch_aktuell/Kap013.txt Shellbuch_aktuell/Kap014.txt Verzeichnis 192.135.147.2:backups/Shellbuch_aktuell mit /home/tot/backups/Shellbuch_aktuell synchronisiert you@host > ls backups/ backup_07_05_2005.tgz backup_20_05_2005.tgz Shellbuch_aktuell Shellbuch_aktuell.bak you@host > ls backups/Shellbuch_aktuell Kap003.txt kap005.txt Kap007.txt Kap010.txt Kap013.txt ...Wiederherstellen eines entfernten Verzeichnisses mit einem lokalen Archiv. Im Beispiel wird das entfernte Verzeichnis backups/Shellbuch_aktuell mit dem lokalen Archiv backup_20_05_2005.tgz wiederhergestellt:you@host > ls backups/ backup_07_05_2005.tgz backup_20_05_2005.tgz Shellbuch_aktuell Shellbuch_aktuell.bak you@host > ./ssh_tar -r backups/Shellbuch_aktuell > backups/backup_20_05_2005.tgz ./ ./kap004.txt ./kap005.txt ... ... ./Kap013.txt ./Kap014.txt 192.135.147.2:backups/Shellbuch_aktuell mit dem Archiv backups/backup_20_05_2005.tgz wiederhergestelltDasselbe Beispiel in anderer Richtung. Hier wird das lokale Verzeichnis backups/Shellbuch_aktuell mit dem Archiv backup_20_05_2005.tgz, welches sich auf dem entfernten Rechner im Verzeichnis backups befindet, wiederhergestellt:you@host > ./ssh_tar -l backups/Shellbuch_aktuell > backups/backup_20_05_2005.tgz ./ ./kap004.txt ./kap005.txt ... ... ./Kap013.txt ./Kap014.txt backups/Shellbuch_aktuell mit dem Archiv 192.135.147.2:backups/backup_20_05_2005.tgz wiederhergestelltHinweis   Natürlich funktioniert dieses Script wie hier demonstriert nur mit einem Key-Login (siehe Abschnitt 14.12.12). Da Backup-Scripts aber ohnehin chronolgoisch laufen sollten, ist ein ssh-key immer sinnvoll, da man das Passwort nicht in einer Textdatei speichern muss.15.4.6 Daten mit rsync synchronisieren Was sich mit ssh und tar realisieren lässt, gelingt natürlich auch mit rsync. Das folgende einfache Script synchronisiert entweder ein lokales Verzeichnis mit einem entfernten Verzeichnis oder umgekehrt. Um hierbei auch die Vertraulichkeit zu gewährleisten, »tunnelt« man das Ganze durch ssh. Das folgende Script demonstriert Ihnen, wie Sie rsync zum komfortablen Synchronisieren zweier entfernter Verzeichnisse verwenden können.#!/bin/sh # ssyncron # Script zum Synchronisieren von Daten usage() { echo \"usage: prgname [-option] [Verzeichnis]\" echo echo \"-u : Ein Verzeichnis auf dem Server mit einem\"\\ \" lokalen synchronisieren\" echo \"-d : Ein lokales Verzeichnis mit einem Verzeichnis\"\\ \" auf dem Server synchronisieren\" exit 1 } # Konfigurationsdaten # # Pfad zu den Daten (Lokal) local_path=\"$HOME/\" # Pfad zu den Dateien (Server) remote_path=\"/home/us10129\" # Loginname username=\"\" # Optionen zum Download '-d' D_OPTIONS=\"-e ssh -av --exclude '*.xvpics' --exclude 'cache' --exclude 'bestellen'\" # Optionen zum Hochladen '-u' U_OPTIONS=\"-e ssh -av\" # rsync vorhanden ... if [ `which rsync` = \"\" ] then echo \"Das Script benötigt 'rsync' zur Ausführung ...!\" exit 1 fi # Pfad zu rsync RSYNC=`which rsync` site=$2 case \"$1\" in # Webseite herunterladen â Synchronisieren Lokal mit Server -d) [ -z $2 ] && usage # Verzeichnis fehlt ... $RSYNC $D_OPTIONS \\ $username:${remote_path}/${site}/ ${local_path}${site}/ ;; # Webseite updaten â Synchronisieren Server mit Lokal -u) $RSYNC $U_OPTIONS \\ ${local_path}${site}/ $username:${remote_path}/${site}/ ;; -*) usage ;; *) usage ;; esacDas Script bei der Ausführung:Entferntes Verzeichnis mit dem lokalen Verzeichnis synchronisieren:you@host > ./ssyncron -d backups/Shellbuch receiving file list ... done ./ Martin/ Kap001.doc Kap001.sxw Kap002.sxw Kap003.txt Kap007.txt ... ... Martin/Kap001.doc Martin/Kap002.sxw Martin/Kap003.sxw Martin/Kap004.sxw Martin/Kap005.sxw kap004.txt kap005.txt newfile.txt whoami.txt wrote 516 bytes read 1522877 bytes 38566.91 bytes/sec total size is 1521182 speedup is 1.00Eine neue lokale Datei atestfile.txt erzeugen und in das entfernte Verzeichnis synchronisieren:you@host > touch backups/Shellbuch/atestfile.txt you@host > ./ssyncron -u backups/Shellbuch building file list ... done Shellbuch/ Shellbuch/atestfile.txt wrote 607 bytes read 40 bytes 86.27 bytes/sec total size is 1521182 speedup is 2351.13Einige Dateien im lokalen Verzeichnis Shellbuch löschen (Datenverlust simulieren) und anschließend mit dem entfernten Verzeichnis Shellbuch wiederherstellen (synchronisieren):you@host > rm backups/Shellbuch/Kap00[1â9]* you@host > ./ssyncron -d backups/Shellbuch receiving file list ... done ./ Kap001.doc Kap001.sxw Kap002.sxw Kap003.txt Kap007.txt Kap008.txt Kap009.txt wrote 196 bytes read 501179 bytes 28650.00 bytes/sec total size is 3042364 speedup is 6.07Wenn in beiden Richtungen nichts mehr zu tun ist, dann ist alles synchronisiert:you@host > ./ssyncron -u backups/Shellbuch building file list ... done wrote 551 bytes read 20 bytes 87.85 bytes/sec total size is 1521182 speedup is 2664.07 you@host > ./ssyncron -d backups/Shellbuch receiving file list ... done wrote 56 bytes read 570 bytes 96.31 bytes/sec total size is 1521182 speedup is 2430.00Hinweis   In der Praxis würde es sich außerdem anbieten, rsync mit den Optionen -b für Backup zu verwenden, womit Backup-Kopien alter Dateiversionen angelegt werden, sodass man gegebenenfalls auf mehrere Versionen zurückgreifen kann, und die Option -z zu nutzen, mit der Kompression möglich ist.Hinweis   Hier gilt dasselbe wie schon beim Script zuvor. Hier sollten Sie ebenfalls einen ssh-key für ein Key-Login verwenden (siehe Abschnitt 14.12.12).15.4.7 Dateien und Verzeichnisse per E-Mail versenden Sie wollen sich ein Backup mit cpio erstellen und es sich automatisch zukommen lassen. Als einfachster Weg würde sich hier der Transfer per E-Mail als Anhang eignen. Dank megabyteschwerer Postfächer sollte dies heutzutage kein Problem mehr sein. Allerdings lässt sich ein Anhang nicht einfach so hinzufügen. Hierzu benötigen Sie uuencode (siehe Abschnitt 14.12.6). Zuerst müssen Sie also cpio-typisch ein komplettes Verzeichnis durchlaufen und die Ausgabe gefundener Dateien (mit find) durch eine Pipe an cpio übergeben. Damit daraus eine einzige Datei als Anhang wird, schickt cpio wiederum die Ausgabe durch die Pipe an gzip, um das vollständige Verzeichnis zu komprimieren. Diesen »gzipten« Anhang müssen Sie nun mit uuencode enkodieren, um ihn daraufhin mit mail oder mailx (oder ggf. mit sendmail) an den gewünschten Absender zu schicken. Alle diese Aktionen werden durch eine Pipe an das andere Kommando geschickt: find \"$Dir\" -type f -print | cpio -o${option} | gzip | uuencode \"$Archive\" | $Mail -s \"$Archive\" \"$User\" || exit 1Hierzu das komplette Script:#!/bin/sh # Name: mailcpio # Archiviert Dateien und Verzeichnisse per cpio, komprimiert mit # gzip und verschickt das Archiv an eine bestimmte E-Mail-Adresse PROGN=\"$0\" # Benötigte Programme: mail oder mailx... if [ \"`which mailx`\" != \"\" ] then Mail=\"mailx\" if [ \"`which mail`\" != \"\" ] then Mail=\"mail\" fi else echo \"Das Script benötigt 'mail' bzw. 'mailx' zur Ausführung!\" exit 1 fi # Benötigt 'uuencode' für den Anhang if [ \"`which uuencode`\" = \"\" ] then echo \"Das Script benötigt 'uuencode' zur Ausführung!\" exit 1 fi # Benötigt 'cpio' if [ \"`which cpio`\" = \"\" ] then echo \"Das Script benötigt 'cpio' zur Ausführung!\" exit 1 fi Usage () { echo \"$PROGN â Versendet ganze Verzeichnisse per E-Mail\" echo \"usage: $PROGN [option] e-mail-adresse\"\\ \" {datei|Verzeichnis} [datei|Verzeichnis] ...\" echo echo \"Hierbei werden alle angegebenen Dateien und \"\\ \"Verzeichnisse (inskl. Unterverzeichnisse)\" echo \"an eine angegebene Mail-Adresse gesendet. Das\"\\ \" Archiv wird mittels gzip komprimiert.\" echo \"Option:\" echo \"-s : Keine Ausgabe von cpio\" echo \"-v : Macht cpio gesprächig\" exit 1 } while [ $# -gt 0 ] do case \"$1\" in -v) option=Bv ;; -s) Silent=yes ;; --) shift; break ;; -*) Usage ;; *) break ;; esac shift done if [ $# -lt 2 ] then Usage fi User=\"$1\"; shift for Dir do Archive=\"${Dir}.cpio.gz\" # Verzeichnis nicht lesbar ... if [ ! -r \"$Dir\" ] then echo \"Kann $Dir nicht lesen â (wird ignoriert)\" continue fi [ \"$Silent\" = \"\" ] && echo \"$Archive -> \" find \"$Dir\" -type f -print | cpio -o${option} | gzip | uuencode \"$Archive\" | $Mail -s \"$Archive\" \"$User\" || exit 1 doneDas Script bei der Ausführung:you@host > ./mailcpio-s logfiles 3 blocks you@host > ./mailcpio -v logfiles logfiles.cpio.gz -> logfiles/testscript.log.mail logfiles/testscript.log 1 block15.4.8 Startup-Scripts Wenn der Kernel gestartet wurde, kann dieser vorerst nur im Lese-Modus auf die Root-Partition zugreifen. Als ersten Prozess startet der Kernel init (/sbin/init) mit der PID 1. Dieser Prozess gilt ja als Elternteil aller weiteren Prozesse, die noch gestartet werden. Der Prozess init kümmert sich zunächst um die Konfiguration des Systems und den Start von zahlreichen Daemon-Prozessen.Hinweis   Es muss gleich darauf hingewiesen werden, dass sich über init keine hundertprozentigen Aussagen treffen lassen. Hier kochen die jeweiligen Distributionen häufig Ihr eigenes Süppchen. Die Unterschiede beziehen sich wieder insbesondere auf diejenigen Verzeichnisse, in denen sich die Init-Dateien befinden, und auf die hierbei berücksichtigten Konfigurationsdateien. Natürlich heißt dies auch, dass die Init-Pakete verschiedener Distributionen gewöhnlich gänzlich inkompatibel sind und nicht untereinander ausgetauscht werden können. Daher folgt hier zunächst ein allgemeiner Überblick über den Init-Prozess (genauer System-V-init).Bevor hier ein wenig ins Detail gegangen wird, zunächst ein kurzer Init-Überblick über einen normalen Systemstart: Nach dem Systemstart, wenn der Kernel geladen wurde, startet dieser das Programm (besser den Prozess) /sbin/init mit der PID 1. init wertet zunächst die Konfigurationsdatei /etc/inittab aus. Jetzt führt init ein Script zur Systeminitialisierung aus. Name und Pfad des Scripts sind stark distributionsabhängig. Als Nächstes führt init das Script rc aus, welches sich auch an unterscheidlichen Orten (und eventuell unter verschiedenen Namen) auf den Distributionen befindet. rc startet nun einzelne Scripts, die sich in einem Verzeichnis namens rc[n].d befinden. n ist hierbei der Runlevel. Diese Scriptdateien in den Verzeichnissen rc[n].d starten nun die Systemdienste (Daemonen), auch Startup-Scripts genannt. Der Speicherort dieser Verzeichnisse ist distributionsabhängig. Für gewöhnlich finden Sie die Verzeichnisse unter /etc oder unter /etc/init.d.init und der RunlevelNormalerweise verwendet init sieben Runlevel, die jeweils eine Gruppe von Diensten enthalten, die das System beim Starten (oder Beenden) ausführen soll. Sicherlich haben Sie schon davon gehört, dass Linux/UNIX ein Multi-User-Betriebssystem ist, also im Multi-User-Modus läuft. Es ist aber auch möglich, dass Sie Linux/UNIX im Single-User-Modus starten. Dass dies überhaupt realisiert werden kann, ist den verschiedenen Runlevel zu verdanken.In der Datei /etc/inittab wird unter Linux der »default runlevel« festgelegt, es ist stark distributionsabhängig. Welcher Runlevel welche Dienste startet, ist von »Symlinks« in den einzelnen Verzeichnissen rc[n].d abhängig. Diese »Symlinks« zeigen meist auf die Startscripts der Dienste, die im Allgemeinen unter /etc/init.d abgelegt sind.Zunächst ein kurzer Überblick zu den unterschiedlichen Runleveln und ihren Bedeutungen bei den gängigsten Distributionen:Tabelle 15.1  Runlevel und ihre BedeutungRunlevelBedeutung0Dieser Runlevel hält das System komplett an (Shutdown mit Halt).1 oder SSingle-User-Modus (Einzelbenutzer-Modus)2 oder MMulti-User-Modus (Mehrbenutzer-Modus) ohne Netzwerk3Multi-User-Modus (Mehrbenutzer-Modus) mit einem Netzwerk, aber ohne XâStart4Dieser Runlevel wird gewöhnlich nicht verwendet und steht somit zur freien Verfügung.5Multi-User-Modus (Mehrbenutzer-Modus) mit einem Netzwerk und einem grafischen Login (X-Start). Nach dem Login wird gewöhnlich die grafische Oberfläche gestartet.6Dieser Runlevel startet das System neu (Shutdown mit Reboot).Wie Sie sehen konnten, handelt es sich bei den Runleveln 0 und 6 um spezielle Fälle, in denen sich das System nicht lange halten kann. Hierbei wird das System heruntergefahren (Runlevel 0) oder eben neu gestartet (Runlevel 1). Zumeist werden die Runlevel 2 und 3 und die Mehrbenutzer-Level l und 5 verwendet, womit eine X-Anmeldeprozedur (wie xdm, kdm, gdm etc.) gestartet wird. Runlevel 1 (bzw. S) ist für die meisten Systeme unterschiedlich definiert und Runlevel 4 wird fast nie benutzt.Hinweis   Linux unterstützt übrigens 10 Runlevel, wobei die Runlevel 7 bis 9 nicht definiert sind.Runlevel 1 bzw. SIm Runlevel 1, dem Einzelbenutzer-Modus, werden meist alle Mehrbenutzer- und Anmeldeprozesse beendet. Somit ist sicher, dass das System mit geringem Aufwand ausgeführt wird. Natürlich bietet Runlevel 1 vollen root-Zugriff auf das System. Damit ein System in Runlevel 1 auch nach einem root-Passwort abfragt, wurde der Runlevel S entwickelt. Unter System-V-init existiert kein echter Runlevel S und er dient daher nur dazu, das root-Passwort abzufragen. Dieser Runlevel ist gewöhnlich dazu gedacht, dass Administratoren diverse Patches einspielen können./etc/inittabIn der Datei /etc/inittab steht, was init auf den verschiedenen Runleveln zu tun hat. Wenn der Rechner gestartet wird, durchläuft init Runlevel 0 bis hin zum Runlevel, der in /etc/inittab als Standard (default runlevel) festgelegt wurde. Damit der Übergang von einem Level zum nächsten reibungslos läuft, führt init die in /etc/inittab angegebenen Aktionen aus. Dasselbe geschieht natürlich auch im umgekehrten Fall beim Herunterfahren bzw. Neustarten des Systems.Die Verwendung von inittab ist allerdings nicht unbedingt das Gelbe vom Ei, weshalb noch zusätzliche Schichten in Form eines Scripts für das Wechseln der Runlevel eingebaut wurden. Dieses Script (rc â zu finden meist unter /etc/init.d/rc oder /etc/rc.d/rc) wird gewöhnlich aus inittab aufgerufen. Es (rc) führt wiederum weitere Scripts in einem vom Runlevel abhängigen Verzeichnis aus, um das System in seinen neuen (Runlevel-)Zustand zu versetzen.In vielen Büchern wird jetzt hier die Datei /etc/inittab etwas genauer zerlegt und beschrieben (bspw. inittab-Schlüsselwörter), was natürlich sehr lehrreich ist, doch in der Praxis müssen Sie sich als Systemadministrator eigentlich nicht damit befassen, da die eben erwähnte Schnittstelle für jede Anwendung geeignet ist.Startup-Scripts erstellen und ausführenDie Terminologie von Startup-Scripts ist häufig nicht einfach zu durchschauen, weshalb hier ein Beispiel gegeben werden soll. Gewöhnlich finden Sie die Hauptkopien der Startup-Scripts im Verzeichnis /etc/inid.d.you@host > ls -l /etc/init.d/ insgesamt 308 -rwxr-xr-x 1 root root 2570 2005â03â02 18:45 acpid -rwxr-xr-x 1 root root 1098 2005â02â24 10:29 acpi-support -rwxr-xr-x 1 root root 11038 2005â03â25 23:08 alsa -rwxr-xr-x 1 root root 1015 2004â11â26 12:36 anacron -rwxr-xr-x 1 root root 1388 2005â03â01 04:11 apmd -rwxr-xr-x 1 root root 1080 2005â02â18 11:37 atd -rw-r--r-- 1 root root 2805 2005â01â07 19:35 bootclean.sh -rwxr-xr-x 1 root root 1468 2005â01â07 19:36 bootlogd -rwxr-xr-x 1 root root 1371 2005â01â07 19:35 bootmisc.sh -rwxr-xr-x 1 root root 1316 2005â01â07 19:35 checkfs.sh -rwxr-xr-x 1 root root 7718 2005â01â07 19:35 checkroot.sh -rwxr-xr-x 1 root root 5449 2004â12â26 14:12 console-screen.sh -rwxr-xr-x 1 root root 1168 2004â10â29 18:05 cron ...Jedes dieser Scripts ist für einen Daemon oder einen anderen Aspekt des Systems verantwortlich. Und jedes dieser Scripts verarbeitet die Argumente »start« und »stop«, womit Sie den entsprechenden Dienst initialisieren oder beenden können, zum Beispiel:# /etc/init.d/cron * Usage: /etc/init.d/cron start|stop|restart|reload|force-reloadHier haben Sie versucht, das Script »cron«, welches für die Ausführung und Beendung des cron-Daemons verantwortlich, ist aufzurufen. Sie bekommen hierbei die möglichen Argumente mitgegeben, wie Sie das Script aufrufen können. Neben »start« und »stop« finden Sie häufig auch noch »restart«, was im Prinzip dasselbe bewirkt, wie ein »stop« mit anschließendem »start«. Des Weiteren findet man gewöhnlich auch eine Option »reload«, die den Dienst nicht beendet, sondern ihn auffordert, seine Konfiguration neu einzulesen (meist per Signal SIGHUP).Im folgenden Beispiel soll das Script »sleep_daemon« beim Systemstart automatisch gestartet und beim Beenden wieder automatisch beendet werden. Hier das Script:#!/bin/sh # Name : sleep_daemon sleep 1000 &Das Script macht nichts anderes, als einen »schlafenden Dämon« zu erzeugen. Neben einfachen Shellscripts können Sie in der Praxis natürlich jedes andere Programm â sei es nun ein Binary oder ein Script â in beliebiger Sprache ausführen lassen. Tatsächlich können Sie alle Shellscripts in diesem Buch dazu verwenden (ob sinnvoll oder nicht). Dieses Script »sleep_daemon« habe ich nun in das Verzeichnis /usr/sbin verschoben und natürlich entsprechende Ausführrechte (für alle) gesetzt. Für diesen Vorgang werden Sie wohl root-Rechte benötigen. Alternativ können Sie auch das Verzeichnis /usr/local/sbin verwenden.Folgendermaßen sieht nun das Startup-Script aus, womit Sie »sleep_daemon« starten, beenden und neu starten können.#!/bin/sh # Name : sleep_daemon DAEMON=\"/usr/sbin/sleep_daemon\" test -f $DAEMON || exit 0 case \"$1\" in start) echo -n \"Starte sleep_daemon\" $DAEMON echo \".\" ;; stop) echo -n \"Stoppe sleep_daemon\" killall sleep echo \".\" ;; restart) echo -n \"Stoppe sleep_daemon\" killall sleep echo \".\" echo -n \"Starte sleep_daemon\" $DAEMON echo \".\" ;; # Hierzu wird auch gern folgende Sntax eingesetzt: # $0 stop # $0 start;; *) echo \"Usage: $0 {start|stop|restart}\" exit 1 ;; esacIch habe hier denselben Namen verwendet, was Sie in der Praxis nicht tun müssen. Dieses Startup-Script können Sie nun in das Verzeichnis /etc/init.d verschieben und müssen es auch wieder ausführbar machen. Theoretisch können Sie jetzt schon den Dienst von Hand starten bzw. beenden:# /etc/init.d/sleep_daemon start Starte sleep_daemon. # /etc/init.d/sleep_daemon restart Stoppe sleep_daemon. Starte sleep_daemon. # /etc/init.d/sleep_daemon stop Stoppe sleep_daemon.Damit unser Dienst auch automatisch beim Eintreten bzw. Austreten eines bestimmten Runlevels gestartet bzw. beendet wird, benötigt das von init gestartete Master-Controll-Script (rc) zusätzliche Informationen, welche Scripts ausgeführt werden sollen. Denn anstatt im Verzeichnis /etc/init.d nachzublättern, wann bei welchem Runlevel ein Script gestartet werden muss, sieht das Master-Controll-Script in einem Verzeichnis namens rc[n].d (bspw. rc1.d; rc2.d; ... rc6.d) nach. n steht für den Runlevel, in den es gelangen will. Zum Beispiel hier unter »Ubuntu Linux« im Verzeichnis rc2.d:# ls -l /etc/rc2.d/ lrwxrwxrwx 1 root root 17 K11anacron -> ../init.d/anacron lrwxrwxrwx 1 root root 17 S05vbesave -> ../init.d/vbesave lrwxrwxrwx 1 root root 18 S10sysklogd -> ../init.d/sysklogd lrwxrwxrwx 1 root root 15 S11klogd -> ../init.d/klogd lrwxrwxrwx 1 root root 14 S12alsa -> ../init.d/alsa lrwxrwxrwx 1 root root 13 S14ppp -> ../init.d/ppp lrwxrwxrwx 1 root root 16 S19cupsys -> ../init.d/cupsys lrwxrwxrwx 1 root root 15 S20acpid -> ../init.d/acpid lrwxrwxrwx 1 root root 14 S20apmd -> ../init.d/apmd ...Sie können gleich erkennen, dass diese Einträge in rc[n].d gewöhnlich symbolische Links sind, die auf die Startup-Scripts im init.d-Verzeichnis verweisen. Wenn Sie die anderen Runlevel-Verzeichnisse ebenfalls ansehen, werden Sie feststellen, dass hierbei alle Namen der symbolischen Links entweder mit einem »S« oder einen »K«, gefolgt von einer Nummer und dem eigentlichen Dienst beginnen (bspw. S14alsa). Auch dies ist recht schnell erklärt. Steigt init von einem Runlevel in den nächst höheren Level auf, werden alle Scripts mit »S« beginnend ausgeführt. Diese Scripts werden also mit dem Argument »start« ausgeführt. Wenn init hingegen von einem höheren Runlevel in einen niedrigeren wechselt, werden alle Scripts mit »K« (kill) beginnend ausgeführt. Hierbei wird gewöhnlich das Script mit dem Argument »stop« ausgeführt. Die Nummern haben eine Art Prioritätsbedeutung. Die Scripts im Runlevel-Verzeichnis werden bei der Option »start« in alphabetischer und bei »stop« in umgekehrter Reihenfolge ausgeführt. Somit bedient man sich einer Nummerierung, um die Reihenfolge der Ausführung zu beeinflussen.Jetzt wollen Sie natürlich auch Ihr Startup-Script hinzufügen. Um also dem System mitzuteilen, dass Sie einen Daemon starten wollen, müssen Sie ebenfalls einen symbolischen Link in das entsprechende Verzeichnis setzen. Die meisten Dienste starten Ihre Dämonen im Runlevel 2, weshalb hier ebenfalls ein Eintrag vorgenommen wird. Um den Daemon auch ordentlich wieder zu beenden, müssen Sie natürlich auch einen Link im Runlevel 0 eintragen. Da es bei einigen Systemen Unterschiede zwischen Shutdown und Reboot gibt, sollten Sie auch einen Eintrag im Runlevel 6 erstellen, um auf Nummer sicher zu gehen, dass sich der Daemon beim Neustart korrekt beendet hat.# ln -s /etc/init.d/sleep_daemon /etc/rc2.d/S23sleep_daemon # ln -s /etc/init.d/sleep_daemon /etc/rc0.d/K23sleep_daemon # ln -s /etc/init.d/sleep_daemon /etc/rc6.d/K23sleep_daemonMit der ersten Zeile weisen Sie das System nun an, das Startup-Script /etc/init.d/sleep_daemon mit dem Argument »start« auszuführen, wenn es im Runlevel 2 angelangt ist. Mit der zweiten Zeile legen Sie fest, dass /etc/init.d/sleep_daemon beim Herunterfahren des Systems mit dem Argument »stop« beendet wird, wenn es im Runlevel 0 angekommen. ist. Gleiches nehmen Sie auch mit der dritten Zeile vor, nur eben für den Neustart des Systems in Runlevel 6.Wenn Sie jetzt das System beenden und wieder hochfahren, können Sie in der Startup-Sitzung (sofern diese sichtbar ist) Ihren Dienst beim Starten beobachten. Hier werden Sie irgendwann ein Zeile wieStarte sleep_daemon.finden. Beim Beenden bzw. Neustarten des Systems entsteht diese Meldung, nur dass eben der »sleep_daemon« beendet wurde.Ihre MeinungWie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 15.4 Backup-StrategienÂ\n\nBeim Thema Backup handelt es sich um ein sehr spezielles und vor allem enorm wichtiges Thema, weshalb hier eine umfassendere Einführung unumgänglich ist. Anhand dieser kurzen Einführung werden Sie schnell feststellen, wie viele Aspekte es gibt, die man bei der richtigen Backup-Lösung beachten muss. Zwar finden Sie anschließend auch einige Scripts in der Praxis dazu, doch handelt es sich bei diesem Thema schon eher um einen sehr speziellen Fall, bei dem man einiges Wissen benötigt und auch so manches berücksichtigen muss, sodass sich keine ultimative Lösung erstellen lässt.\n\n### 15.4.1 Warum ein Backup?Â\n\nEs gibt drei verschiedene Fälle von Datenverlusten:\n\n | Eine einzelne Datei (oder wenige Dateien) wird aus Versehen gelöscht oder falsch modifiziert (bspw. von einem Virus infiziert). In solch einem Fall ist das Wiederherstellen einer Datei häufig nicht allzu kompliziert. Bei solchen Daten ist eine tar-, cpio- oder afio-Sicherung recht schnell wieder zurückgeladen. Natürlich ist dies immer abhängig vom Speichermedium. Wenn Sie dieses Backup auf einem Band linear suchen müssen, ist das Wiederherstellen nicht unbedingt vorteilhaft. Hierzu ist es häufig sinnvoll, immer wieder ein Backup in einem anderen (entfernten) Verzeichnis zu abzuspeichern. |\n | --- | --- |\n\n | Eine Festplatte ist defekt. Häufig denkt man, ist bei mir noch nie vorgekommen, aber wenn es dann mal crasht, ist guter Rat oft teuer. Hier gibt es eine recht elegante Lösung, wenn man RAID-Systeme im Level 1 oder 5 verwendet. Dabei werden ja die Daten redundant auf mehreren Platten gespeichert. Das bedeutet, dass Sie beim Ausfall einer Festplatte die Informationen jederzeit von der Kopie wieder holen können. Sobald Sie die defekte Platte gegen eine neue austauschen, synchronisiert das RAID-System die Platten wieder, sodass alle Daten nach einer gewissen Zeit wieder redundant auf den Platten vorhanden sind. Zur Verwendung von RAID gibt es eine Software- und eine Hardwarelösung mit einem RAID-Controller. Zwar ist die Hardwarelösung erheblich schneller, aber auch teurer. |\n | --- | --- |\n\n   | Auf der anderen Seite sollte man bei der Verwendung von RAID bedenken, dass jeder Fehler, der z. B. einem Benutzer oder gar dem Administrator selbst unterläuft, wie bspw. Software-Fehler, Viren, instabiles System, versehentliches Löschen von Daten usw., sofort auf das RAID-System bzw. auf alle Speichermedien im System repliziert wird. |\n | --- | --- |\n   |    |\n\n | Datenverlust durch Hardware- oder Softwarefehler oder Elementarschäden (wie Feuer, Wasser oder Überspannung). Hier wird eine Komplettsicherung der Datenbestände nötig, was bei den Giga- bis Terrabytes an Daten, die häufig vorliegen, kein allzu leichtes Unterfangen darstellt. Gewöhnlich geht man hierbei zwei Wege: |\n | --- | --- |\n\nMan schiebt die Daten auf einen entfernten Rechner (bspw. mit cp oder scp), am besten gleich in komprimierter Form (mittels gzip oder bzip2). Die wohl gängigste Methode dürfte das Archivieren auf wechselbaren Datenträgern wie Magnetband, CD oder DVD sein (abhängig vom Datenumfang). Meistens werden hierzu die klassischen Tools wie cp, dd, scp oder rsync verwendet. Auch sollte man unter Umständen eine Komprimierung mit gzip oder bzip2 vorziehen. Für Bänder und Streamer kommen häufig die klassischen Tools wie tar, afio, cpio oder taper zum Einsatz. \n\n### 15.4.2 SicherungsmedienÂ\n\nÜber das Speichermedium macht man sich wohl zunächst keine allzu großen Gedanken. Meistens greift man auf eine billigere Lösung zurück. Ohne auf die einzelnen Speichermedien genauer einzugehen, gibt es hierbei einige Punkte, die es zu überdenken gilt:\n\n | Maximales Speichervolumen â will man mal eben schnell sein lokales Verzeichnis sichern, wird man wohl mit einer CD bzw. DVD als Speichermedium auskommen. Doch bevor Sie vorschnell urteilen, lesen Sie am besten noch die weiteren Punkte. |\n | --- | --- |\n\n | Zugriffsgeschwindigkeit â wenn Sie wichtige Datenbestände im Umfang von mehreren Gigabytes schnell wiederherstellen müssen, werden Sie wohl kaum ein Speichermedium wählen, welches nur 1 MB in der Sekunde übertragen kann. Hier gilt es also, die Transferrate in MB pro Sekunde im Auge zu behalten. |\n | --- | --- |\n\n | Zuverlässigkeit â wie lange ist die Haltbarkeit von Daten auf einer CD oder DVD oder gar auf einem Magnetband. Darüber werden Sie sich wohl bisher recht selten Gedanken gemacht haben â doch es gibt in der Tat eine durchschnittliche Haltbarkeit von Daten auf Speichermedien. |\n | --- | --- |\n\n | Zulässigkeit â in manchen Branchen, z. B. in der Buchhaltung, ist es gesetzlich vorgeschrieben, nur einmal beschreibbare optische Datenträger zu verwenden. Bei der Verwendung von mehrfach beschreibbaren Medien sollte man immer die Risiken bedenken, dass diese wieder beschrieben werden können (sei es nun mit Absicht oder aus Versehen). |\n | --- | --- |\n\n### 15.4.3 Varianten der SicherungenÂ\n\nGenerell kann man von zwei Varianten einer Sicherung sprechen:\n\n | Vollsicherung â dabei werden alle zu sichernden Daten vollständig gesichert. Der Vorteil ist, dass man jederzeit ohne größeren Aufwand die gesicherten Daten wieder zurückladen kann. Man sollte allerdings bedenken, ob man bestimmte Daten bei einer Vollsicherung ausgrenzen sollte â besonders die sicherheitsrelevanten. Der Nachteil daran ist ganz klar: Eine Vollsicherung kann eine ganz schöne Menge an Platz (und auch Zeit) auf einem Speichermedium verbrauchen. |\n | --- | --- |\n\n | Inkrementelle Sicherung â hierbei wird nur einmal eine Vollsicherung vorgenommen. Anschließend werden immer nur diejenigen Daten gesichert, die sich seit der letzten Sicherung verändert haben. Hierbei wird weniger Platz auf einem Speichermedium (und auch Zeit) benötigt. |\n | --- | --- |\n\n### 15.4.4 Bestimmte Bereiche sichernÂ\n\nHierzu einige kurze Vorschläge, wie man bestimmte Bereiche sinnvoll sichert.\n\n | Einzelne Dateien â einzelne Dateien kann man mal schnell mit cp oder scp auf eine andere Festplatte, Diskette oder ein anderes Verzeichnis übertragen. Natürlich steht Ihnen hierzu auch die Möglichkeit mittels tar, afio oder cpio zur Verfügung, um die Daten auf externe Datenträger zu sichern. Gewöhnlich werden diese Archive auch noch mittels gzip oder bzip2 komprimiert. Gern werden hierzu auch Datenträger wie CD oder DVD verwendet. |\n | --- | --- |\n\n | Dateibäume â ganze Dateibäume beinhalten häufig eine Menge Daten. Hier verwendet man als Speichermedium häufig Streamer, Magnetbänder oder optische Datenträger (CD, DVD), je nach Umfang. Als Werkzeuge werden gewöhnlich tar, afio und cpio eingesetzt. Aber auch Programme zur Datensynchronisation wie rsync oder unison werden oft genutzt. Zum Sichern auf optische Speichermedien wie CD oder DVD werden gewöhnlich die Tools mkisofs, (oder mit GUI) xcdroast, K3b oder gtoaster verwendet. |\n | --- | --- |\n\n | Ganze Festplatte â zum Sichern ganzer Festplatten verwendet man unter Linux häufig das Programmpaket amanda (Advanced Maryland Automatic Network Disk Archiver), das ein komplettes Backup-System zur Verfügung stellt. Da es nach dem Client-Server-Prinzip arbeitet, ist somit auch eine Datensicherung über das Netzwerk möglich. Der Funktionsumfang von amanda ist gewaltig, weshalb ich hier auf die Webseite http://www.amanda.org. |\n | --- | --- |\n\n | Dateisysteme â mithilfe des Kommandos dd lässt sich ein komplettes Dateisystem auf eine andere Platte oder auf ein Band sichern. Beachten Sie allerdings, dass beim Duplizieren beide Partitionen die gleiche Größe haben müssen (falls Sie Festplatten duplizieren wollen) und bestenfalls beide Platten nicht gemountet sind (zumindest nicht die Zielplatte). Da dd selbst physikalisch Block für Block kopiert, kann das Tool nicht auf defekte Blöcke überprüfen. Daher sollte man hierbei auch gleich noch mit dem Kommando badblocks nach defekten Blöcken suchen. Natürlich müssen Sie auch beim Zurückspielen darauf achten, dass die Zielpartition nicht kleiner als die Quellpartition ist. Ein anderes Tool, das auch auf Low-Level-Ebene und fehlertolerant arbeitet, ist dd_rescue. |\n | --- | --- |\n\n   | Ein weiteres hervorragendes Tool zum Sichern und Wiederherstellen ganzer Partitionen ist partimage, welches auch wie dd und dd_rescue in der Lage ist, unterschiedliche Dateisysteme zu sichern (ext2/ext3; reiserfs, xfs, UFS (Unix), HFS (MAC), NTFS/FAT16/FAT32 (Win32)), da es wie die beiden anderen genannten Tools auf Low-Level-Ebene arbeitet. Mehr zu partimage entnehmen Sie bitte http://www.partimage.org. Natürlich bietet sich Ihnen auch die Möglichkeit, Dateisysteme zu synchronisieren. Hierbei stehen Ihnen Werkzeuge wie rsync, unision, WebDAV usw. zur Verfügung. |\n | --- | --- |\n   |    |\n\n### 15.4.5 Backup über ssh mit tarÂ\n\nDas Sichern von Dateien zwischen Servern ist eigentlich mit dem Kommando scp recht einfach:\n > scp some-archive.tgz user@host:/home/backups\n\nNachteile von scp beim Durchlaufen ganzer Verzeichnisbäume (mit der Option âr) sind die vielen Kommandoaufrufe (alles wird einzeln kopiert) und die unflexiblen Kompressionsmöglichkeiten.\n\nHierzu wird in der Praxis oft tar verwendet. Verknüpfen wir nun tar mit ssh, haben wir exakt das, was wir wollen. Wenn Sie nämlich ssh ohne eine interaktive Login-Sitzung starten, erwartet ssh Daten von der Standardeingabe und gibt das Ergebnis auf die Standardausgabe aus. Das hört sich stark nach der Verwendung einer Pipe an. Wollen Sie beispielsweise alle Daten aus Ihrem Heimverzeichnis auf einem entfernten Rechner archivieren, können Sie wie folgt vorgehen:\n > tar zcvf â /home | ssh user@host \"cat > homes.tgz\"\n\nNatürlich ist es möglich, das komprimierte Archiv auch auf ein Magnetband des entfernten Rechners zu schreiben (entsprechendes Medium und Rechte vorausgesetzt):\n > tar zcvf â /home | ssh user@host \"cat > /dev/tape\"\n\nWollen Sie stattdessen eine Kopie einer Verzeichnisstruktur auf Ihrer lokalen Maschine direkt auf das Filesystem einer anderen Maschine kopieren, so können Sie dies so erreichen (Sie synchronisieren das entfernte Verzeichnis mit dem lokalen):\n > cd /home/us10129/www.pronix.de ; tar zcf â html/ \\ | ssh user@host \\ \"cd /home/us10129/www.pronix.de; mv html html.bak; tar zpxvf -\"\n\nHier sichern Sie u. a. auch das Verzeichnis html auf host, indem Sie es umbenennen (html.bak) â für den Fall der Fälle. Dann erstellen Sie eine exakte Kopie von /home/us10129/www.pronix.de/html â Ihrem lokalen Verzeichnis â mit sämtlichen identischen Zugriffsrechten und der Verzeichnisstruktur auf dem entfernten Rechner. Da hierbei tar mit der Option z verwendet wird, werden die Daten vor dem »Hochladen« komprimiert, was natürlich bedeutet, dass eine geringere Datenmenge transferiert werden muss und der Vorgang erheblich schneller vonstatten gehen kann. Natürlich ist dies abhängig von der Geschwindigkeit beider Rechner, also wie schnell bei diesen die (De-)Kompression durchgeführt werden kann.\n\nMüssen Sie auf dem entfernten Rechner etwas wiederherstellen und verfügen über ein Backup auf der lokalen Maschine, ist dies mit folgender Kommandoverkettung kein allzu großes Unterfangen mehr:\n > ssh user@host \"cd /home/us10129/www.pronix.de; tar zpvxf -\" \\ < big-archive.tgz\n\nSo stellen Sie das komplette Verzeichnis /home/us10129/www.pronix.de/ mit dem Archiv big-archive.tgz wieder her. Gleiches können Sie natürlich auch jederzeit in die andere Richtung vornehmen:\n > ssh user@host \"cat big-archive.tgz\" | tar zpvxf -\n\nDamit Sie nicht andauernd ein Passwort eingeben müssen, empfiehlt es sich auch hier, SSH-Schlüssel zu verwenden (siehe Abschnitt 14.12.12). Das folgende Script demonstriert Ihnen die Möglichkeit, ssh und tar in einem Backup-Script zu verwenden.\n > #!/bin/sh # Name: ssh_tar # Backups mit tar über ssh # Konfiguration, entsprechend anpassen # SSH_OPT=\"-l\" SSH_HOST=\"192.135.147.2\" SSH_USER=\"jwolf\" # Default-Angaben # LOCAL_DIR=\"/home/tot/backups\" REMOTE_DIR=\"/home/jwolf/backups\" stamp=`date +%d_%m_%Y` BACKUP_FILE=\"backup_${stamp}.tgz\" usage() { echo \"usage: star [-ph] [-pl] [-sh] [-sl] [-r] [-l] ...\" echo echo \"Optionen : \" echo \" âph : (lokales) Verzeichnis packen und hochladen \" \\ \" (remote) in 'REMOTE_DIR'\" echo \" Beispiel: star -ph lokalesVerzeichnis \" echo \" -pl = (remote) Verzeichnis packen und runterladen\"\\ \" (lokal) in 'LOCAL_DIR'\" echo \" Beispiel: star -pl remoteVerzeichnis \" echo \" -sh = Synchronisiert ein Host-Verzeichnis mit einem \"\\ \"lokalen Verzeichnis\" echo \" Beispiel: star -sh lokalesVerzeichnis \"\\ \"remoteVerzeichnis syncVerzeichnis \" echo \" -sl = Synchronisiert ein lokales Verzeichnis mit \"\\ \"einem Host-Verzeichnis\" echo \" Beispiel: star -sl remoteVerzeichnis \"\\ \"lokalesVerzeichnis syncVerzeichnis \" echo \" -r = (remote) Wiederherstellen eines\"\\ \" Host-Verzeichnisses\" echo \" Beispiel: star -r remoteVerzeichnis \"\\ \"lokalTarArchiv.tgz\" echo \" -l = (lokal) Wiederherstellen eines lokalen \"\\ \"Verzeichnisses\" echo \" Beispiel: star -l lokalesVerzeichnis \"\\ \"remoteTarArchiv.tgz\" # ... exit 1 } case \"$1\" in -ph) if [ $# -ne 2 ] then usage else cd $2; tar zcvf â \".\" | \\ ssh $SSH_OPT $SSH_USER $SSH_HOST \\ \"cat > ${REMOTE_DIR}/${BACKUP_FILE}\" echo \"Verzeichnis '$2' nach \"\\ \"${SSH_HOST}:${REMOTE_DIR}/${BACKUP_FILE} \"\\ \"gesichert\" fi ;; -pl) if [ $# -ne 2 ] then usage else ssh $SSH_OPT $SSH_USER $SSH_HOST \\ \"cd $2; tar zcvf â .\" | \\ cat > ${LOCAL_DIR}/${BACKUP_FILE} echo \"Verzeichnis ${SSH_HOST}:${2} nach \"\\ \"${LOCAL_DIR}/${BACKUP_FILE} gesichert\" fi ;; -sh) if [ $# -ne 4 ] then usage else cd $2 tar zcf â $4/ | ssh $SSH_OPT $SSH_USER $SSH_HOST \\ \"cd $3; mv $4 ${4}.bak; tar zpxvf -\" echo \"Verzeichnis ${2}/${4} mit\"\\ \" ${SSH_HOST}:${3}/${4} synchronisiert\" fi ;; -sl) if [ $# -ne 4 ] then usage else cd $3; mv $4 ${4}.bak ssh $SSH_OPT $SSH_USER $SSH_HOST \"cd ${2}; tar zcvf â ${4}\"\\ | tar zpvxf - echo \"Verzeichnis ${SSH_HOST}:${2}/${4} mit\"\\ \" ${3}/${4} synchronisiert\" fi ;; -r) if [ $# -ne 3 ] then usage else ssh $SSH_OPT $SSH_USER $SSH_HOST \\ \"cd ${2}; tar zpvxf -\" < $3 echo \"${SSH_HOST}:$2 mit dem Archiv $3 \"\\ \"Wiederhergestellt\" fi ;; -l) if [ $# -ne 3 ] then usage else cd $2 ssh $SSH_OPT $SSH_USER $SSH_HOST \"cat $3\" | \\ tar zpvxf - echo \"$2 mit dem Archiv ${SSH_HOST}:${3} \"\\ \"Wiederhergestellt\" fi ;; -*) usage;; *) usage;; esac\n\nDas Script bei der Ausführung:\n > you@host > ./ssh_tar -ph Shellbuch_aktuell/ ./ ./kap004.txt ./kap005.txt ... ... ./Kap013.txt ./Kap014.txt Verzeichnis 'Shellbuch_aktuell/' nach 192.135.147.2:/home/jwolf/backups/backup_20_05_2005.tgz gesichert\n\nEin Blick zum Rechner »192.135.147.2«:\n > jwolf@jwolf$ ls backups/ backup_20_05_2005.tgz you@host > ./ssh_tar -pl backups/ ./ ./backup_20_05_2005.tgz ./kap004.txt ./kap005.txt ... ... ./Kap012.txt ./Kap013.txt ./Kap014.txt Verzeichnis 192.135.147.2:backups/ nach /home/you/backups/ backup_20_05_2005.tgz gesichert you@host > ls backups/ backup_07_05_2005.tgz backup_20_05_2005.tgz Shellbuch\n\nErstellt im Remoteverzeichnis backups ein Ebenbild des Verzeichnisses Shellbuch_aktuell aus dem Heimverzeichnis des lokalen Rechners:\n > you@host > ./ssh_tar -sh $HOME backups Shellbuch_aktuell Shellbuch_aktuell/ Shellbuch_aktuell/kap004.txt Shellbuch_aktuell/kap005.txt ... Shellbuch_aktuell/Kap013.txt Shellbuch_aktuell/Kap014.txt Verzeichnis /home/you/Shellbuch_aktuell mit 192.135.147.2:backups/Shellbuch_aktuell synchronisiert\n\nErstellt im lokalen Heimverzeichnis $HOME/backup eine exakte Kopie des entfernten Remote-Verzeichnisses backups/Shellbuch:\n > you@host > ./ssh_tar -sl backups $HOME/backups Shellbuch_aktuell Shellbuch_aktuell/ Shellbuch_aktuell/kap004.txt Shellbuch_aktuell/kap005.txt ... ... Shellbuch_aktuell/Kap013.txt Shellbuch_aktuell/Kap014.txt Verzeichnis 192.135.147.2:backups/Shellbuch_aktuell mit /home/tot/backups/Shellbuch_aktuell synchronisiert you@host > ls backups/ backup_07_05_2005.tgz backup_20_05_2005.tgz Shellbuch_aktuell Shellbuch_aktuell.bak you@host > ls backups/Shellbuch_aktuell Kap003.txt kap005.txt Kap007.txt Kap010.txt Kap013.txt ...\n\nWiederherstellen eines entfernten Verzeichnisses mit einem lokalen Archiv. Im Beispiel wird das entfernte Verzeichnis backups/Shellbuch_aktuell mit dem lokalen Archiv backup_20_05_2005.tgz wiederhergestellt:\n > you@host > ls backups/ backup_07_05_2005.tgz backup_20_05_2005.tgz Shellbuch_aktuell Shellbuch_aktuell.bak you@host > ./ssh_tar -r backups/Shellbuch_aktuell > backups/backup_20_05_2005.tgz ./ ./kap004.txt ./kap005.txt ... ... ./Kap013.txt ./Kap014.txt 192.135.147.2:backups/Shellbuch_aktuell mit dem Archiv backups/backup_20_05_2005.tgz wiederhergestellt\n\nDasselbe Beispiel in anderer Richtung. Hier wird das lokale Verzeichnis backups/Shellbuch_aktuell mit dem Archiv backup_20_05_2005.tgz, welches sich auf dem entfernten Rechner im Verzeichnis backups befindet, wiederhergestellt:\n > you@host > ./ssh_tar -l backups/Shellbuch_aktuell > backups/backup_20_05_2005.tgz ./ ./kap004.txt ./kap005.txt ... ... ./Kap013.txt ./Kap014.txt backups/Shellbuch_aktuell mit dem Archiv 192.135.147.2:backups/backup_20_05_2005.tgz wiederhergestellt\n\nHinweis   Natürlich funktioniert dieses Script wie hier demonstriert nur mit einem Key-Login (siehe Abschnitt 14.12.12). Da Backup-Scripts aber ohnehin chronolgoisch laufen sollten, ist ein ssh-key immer sinnvoll, da man das Passwort nicht in einer Textdatei speichern muss.\n\n### 15.4.6 Daten mit rsync synchronisierenÂ\n\nWas sich mit ssh und tar realisieren lässt, gelingt natürlich auch mit rsync. Das folgende einfache Script synchronisiert entweder ein lokales Verzeichnis mit einem entfernten Verzeichnis oder umgekehrt. Um hierbei auch die Vertraulichkeit zu gewährleisten, »tunnelt« man das Ganze durch ssh. Das folgende Script demonstriert Ihnen, wie Sie rsync zum komfortablen Synchronisieren zweier entfernter Verzeichnisse verwenden können.\n > #!/bin/sh # ssyncron # Script zum Synchronisieren von Daten usage() { echo \"usage: prgname [-option] [Verzeichnis]\" echo echo \"-u : Ein Verzeichnis auf dem Server mit einem\"\\ \" lokalen synchronisieren\" echo \"-d : Ein lokales Verzeichnis mit einem Verzeichnis\"\\ \" auf dem Server synchronisieren\" exit 1 } # Konfigurationsdaten # # Pfad zu den Daten (Lokal) local_path=\"$HOME/\" # Pfad zu den Dateien (Server) remote_path=\"/home/us10129\" # Loginname username=\"\" # Optionen zum Download '-d' D_OPTIONS=\"-e ssh -av --exclude '*.xvpics' --exclude 'cache' --exclude 'bestellen'\" # Optionen zum Hochladen '-u' U_OPTIONS=\"-e ssh -av\" # rsync vorhanden ... if [ `which rsync` = \"\" ] then echo \"Das Script benötigt 'rsync' zur Ausführung ...!\" exit 1 fi # Pfad zu rsync RSYNC=`which rsync` site=$2 case \"$1\" in # Webseite herunterladen â Synchronisieren Lokal mit Server -d) [ -z $2 ] && usage # Verzeichnis fehlt ... $RSYNC $D_OPTIONS \\ $username:${remote_path}/${site}/ ${local_path}${site}/ ;; # Webseite updaten â Synchronisieren Server mit Lokal -u) $RSYNC $U_OPTIONS \\ ${local_path}${site}/ $username:${remote_path}/${site}/ ;; -*) usage ;; *) usage ;; esac\n\nEntferntes Verzeichnis mit dem lokalen Verzeichnis synchronisieren:\n > you@host > ./ssyncron -d backups/Shellbuch receiving file list ... done ./ Martin/ Kap001.doc Kap001.sxw Kap002.sxw Kap003.txt Kap007.txt ... ... Martin/Kap001.doc Martin/Kap002.sxw Martin/Kap003.sxw Martin/Kap004.sxw Martin/Kap005.sxw kap004.txt kap005.txt newfile.txt whoami.txt wrote 516 bytes read 1522877 bytes 38566.91 bytes/sec total size is 1521182 speedup is 1.00\n\nEine neue lokale Datei atestfile.txt erzeugen und in das entfernte Verzeichnis synchronisieren:\n > you@host > touch backups/Shellbuch/atestfile.txt you@host > ./ssyncron -u backups/Shellbuch building file list ... done Shellbuch/ Shellbuch/atestfile.txt wrote 607 bytes read 40 bytes 86.27 bytes/sec total size is 1521182 speedup is 2351.13\n\nEinige Dateien im lokalen Verzeichnis Shellbuch löschen (Datenverlust simulieren) und anschließend mit dem entfernten Verzeichnis Shellbuch wiederherstellen (synchronisieren):\n > you@host > rm backups/Shellbuch/Kap00[1â9]* you@host > ./ssyncron -d backups/Shellbuch receiving file list ... done ./ Kap001.doc Kap001.sxw Kap002.sxw Kap003.txt Kap007.txt Kap008.txt Kap009.txt wrote 196 bytes read 501179 bytes 28650.00 bytes/sec total size is 3042364 speedup is 6.07\n\nWenn in beiden Richtungen nichts mehr zu tun ist, dann ist alles synchronisiert:\n > you@host > ./ssyncron -u backups/Shellbuch building file list ... done wrote 551 bytes read 20 bytes 87.85 bytes/sec total size is 1521182 speedup is 2664.07 you@host > ./ssyncron -d backups/Shellbuch receiving file list ... done wrote 56 bytes read 570 bytes 96.31 bytes/sec total size is 1521182 speedup is 2430.00\n\nHinweis   In der Praxis würde es sich außerdem anbieten, rsync mit den Optionen -b für Backup zu verwenden, womit Backup-Kopien alter Dateiversionen angelegt werden, sodass man gegebenenfalls auf mehrere Versionen zurückgreifen kann, und die Option -z zu nutzen, mit der Kompression möglich ist.Hinweis   Hier gilt dasselbe wie schon beim Script zuvor. Hier sollten Sie ebenfalls einen ssh-key für ein Key-Login verwenden (siehe Abschnitt 14.12.12).\n\n### 15.4.7 Dateien und Verzeichnisse per E-Mail versendenÂ\n\nSie wollen sich ein Backup mit cpio erstellen und es sich automatisch zukommen lassen. Als einfachster Weg würde sich hier der Transfer per E-Mail als Anhang eignen. Dank megabyteschwerer Postfächer sollte dies heutzutage kein Problem mehr sein. Allerdings lässt sich ein Anhang nicht einfach so hinzufügen. Hierzu benötigen Sie uuencode (siehe Abschnitt 14.12.6). Zuerst müssen Sie also cpio-typisch ein komplettes Verzeichnis durchlaufen und die Ausgabe gefundener Dateien (mit find) durch eine Pipe an cpio übergeben. Damit daraus eine einzige Datei als Anhang wird, schickt cpio wiederum die Ausgabe durch die Pipe an gzip, um das vollständige Verzeichnis zu komprimieren. Diesen »gzipten« Anhang müssen Sie nun mit uuencode enkodieren, um ihn daraufhin mit mail oder mailx (oder ggf. mit sendmail) an den gewünschten Absender zu schicken. Alle diese Aktionen werden durch eine Pipe an das andere Kommando geschickt:\n > find \"$Dir\" -type f -print | cpio -o${option} | gzip | uuencode \"$Archive\" | $Mail -s \"$Archive\" \"$User\" || exit 1\n\nHierzu das komplette Script:\n > #!/bin/sh # Name: mailcpio # Archiviert Dateien und Verzeichnisse per cpio, komprimiert mit # gzip und verschickt das Archiv an eine bestimmte E-Mail-Adresse PROGN=\"$0\" # Benötigte Programme: mail oder mailx... if [ \"`which mailx`\" != \"\" ] then Mail=\"mailx\" if [ \"`which mail`\" != \"\" ] then Mail=\"mail\" fi else echo \"Das Script benötigt 'mail' bzw. 'mailx' zur Ausführung!\" exit 1 fi # Benötigt 'uuencode' für den Anhang if [ \"`which uuencode`\" = \"\" ] then echo \"Das Script benötigt 'uuencode' zur Ausführung!\" exit 1 fi # Benötigt 'cpio' if [ \"`which cpio`\" = \"\" ] then echo \"Das Script benötigt 'cpio' zur Ausführung!\" exit 1 fi Usage () { echo \"$PROGN â Versendet ganze Verzeichnisse per E-Mail\" echo \"usage: $PROGN [option] e-mail-adresse\"\\ \" {datei|Verzeichnis} [datei|Verzeichnis] ...\" echo echo \"Hierbei werden alle angegebenen Dateien und \"\\ \"Verzeichnisse (inskl. Unterverzeichnisse)\" echo \"an eine angegebene Mail-Adresse gesendet. Das\"\\ \" Archiv wird mittels gzip komprimiert.\" echo \"Option:\" echo \"-s : Keine Ausgabe von cpio\" echo \"-v : Macht cpio gesprächig\" exit 1 } while [ $# -gt 0 ] do case \"$1\" in -v) option=Bv ;; -s) Silent=yes ;; --) shift; break ;; -*) Usage ;; *) break ;; esac shift done if [ $# -lt 2 ] then Usage fi User=\"$1\"; shift for Dir do Archive=\"${Dir}.cpio.gz\" # Verzeichnis nicht lesbar ... if [ ! -r \"$Dir\" ] then echo \"Kann $Dir nicht lesen â (wird ignoriert)\" continue fi [ \"$Silent\" = \"\" ] && echo \"$Archive -> \" find \"$Dir\" -type f -print | cpio -o${option} | gzip | uuencode \"$Archive\" | $Mail -s \"$Archive\" \"$User\" || exit 1 done\n\nDas Script bei der Ausführung:\n > you@host > ./mailcpio-s logfiles 3 blocks you@host > ./mailcpio -v .de logfiles logfiles.cpio.gz -> logfiles/testscript.log.mail logfiles/testscript.log 1 block\n\n### 15.4.8 Startup-ScriptsÂ\n\nWenn der Kernel gestartet wurde, kann dieser vorerst nur im Lese-Modus auf die Root-Partition zugreifen. Als ersten Prozess startet der Kernel init (/sbin/init) mit der PID 1. Dieser Prozess gilt ja als Elternteil aller weiteren Prozesse, die noch gestartet werden. Der Prozess init kümmert sich zunächst um die Konfiguration des Systems und den Start von zahlreichen Daemon-Prozessen.\n\nHinweis   Es muss gleich darauf hingewiesen werden, dass sich über init keine hundertprozentigen Aussagen treffen lassen. Hier kochen die jeweiligen Distributionen häufig Ihr eigenes Süppchen. Die Unterschiede beziehen sich wieder insbesondere auf diejenigen Verzeichnisse, in denen sich die Init-Dateien befinden, und auf die hierbei berücksichtigten Konfigurationsdateien. Natürlich heißt dies auch, dass die Init-Pakete verschiedener Distributionen gewöhnlich gänzlich inkompatibel sind und nicht untereinander ausgetauscht werden können. Daher folgt hier zunächst ein allgemeiner Überblick über den Init-Prozess (genauer System-V-init).\n\nBevor hier ein wenig ins Detail gegangen wird, zunächst ein kurzer Init-Überblick über einen normalen Systemstart:\n\n | Nach dem Systemstart, wenn der Kernel geladen wurde, startet dieser das Programm (besser den Prozess) /sbin/init mit der PID 1. |\n | --- | --- |\n\n | init wertet zunächst die Konfigurationsdatei /etc/inittab aus. |\n | --- | --- |\n\n | Jetzt führt init ein Script zur Systeminitialisierung aus. Name und Pfad des Scripts sind stark distributionsabhängig. |\n | --- | --- |\n\n | Als Nächstes führt init das Script rc aus, welches sich auch an unterscheidlichen Orten (und eventuell unter verschiedenen Namen) auf den Distributionen befindet. |\n | --- | --- |\n\n | rc startet nun einzelne Scripts, die sich in einem Verzeichnis namens rc[n].d befinden. n ist hierbei der Runlevel. Diese Scriptdateien in den Verzeichnissen rc[n].d starten nun die Systemdienste (Daemonen), auch Startup-Scripts genannt. Der Speicherort dieser Verzeichnisse ist distributionsabhängig. Für gewöhnlich finden Sie die Verzeichnisse unter /etc oder unter /etc/init.d. |\n | --- | --- |\n\n# init und der Runlevel\n\nNormalerweise verwendet init sieben Runlevel, die jeweils eine Gruppe von Diensten enthalten, die das System beim Starten (oder Beenden) ausführen soll. Sicherlich haben Sie schon davon gehört, dass Linux/UNIX ein Multi-User-Betriebssystem ist, also im Multi-User-Modus läuft. Es ist aber auch möglich, dass Sie Linux/UNIX im Single-User-Modus starten. Dass dies überhaupt realisiert werden kann, ist den verschiedenen Runlevel zu verdanken.\n\nIn der Datei /etc/inittab wird unter Linux der »default runlevel« festgelegt, es ist stark distributionsabhängig. Welcher Runlevel welche Dienste startet, ist von »Symlinks« in den einzelnen Verzeichnissen rc[n].d abhängig. Diese »Symlinks« zeigen meist auf die Startscripts der Dienste, die im Allgemeinen unter /etc/init.d abgelegt sind.\n\nZunächst ein kurzer Überblick zu den unterschiedlichen Runleveln und ihren Bedeutungen bei den gängigsten Distributionen:\n\nRunlevel | Bedeutung |\n | --- | --- |\n0 | Dieser Runlevel hält das System komplett an (Shutdown mit Halt). |\n1 oder S | Single-User-Modus (Einzelbenutzer-Modus) |\n2 oder M | Multi-User-Modus (Mehrbenutzer-Modus) ohne Netzwerk |\n3 | Multi-User-Modus (Mehrbenutzer-Modus) mit einem Netzwerk, aber ohne XâStart |\n4 | Dieser Runlevel wird gewöhnlich nicht verwendet und steht somit zur freien Verfügung. |\n5 | Multi-User-Modus (Mehrbenutzer-Modus) mit einem Netzwerk und einem grafischen Login (X-Start). Nach dem Login wird gewöhnlich die grafische Oberfläche gestartet. |\n6 | Dieser Runlevel startet das System neu (Shutdown mit Reboot). |\n\nWie Sie sehen konnten, handelt es sich bei den Runleveln 0 und 6 um spezielle Fälle, in denen sich das System nicht lange halten kann. Hierbei wird das System heruntergefahren (Runlevel 0) oder eben neu gestartet (Runlevel 1). Zumeist werden die Runlevel 2 und 3 und die Mehrbenutzer-Level l und 5 verwendet, womit eine X-Anmeldeprozedur (wie xdm, kdm, gdm etc.) gestartet wird. Runlevel 1 (bzw. S) ist für die meisten Systeme unterschiedlich definiert und Runlevel 4 wird fast nie benutzt.\n\nHinweis   Linux unterstützt übrigens 10 Runlevel, wobei die Runlevel 7 bis 9 nicht definiert sind.\n\n# Runlevel 1 bzw. S\n\nIm Runlevel 1, dem Einzelbenutzer-Modus, werden meist alle Mehrbenutzer- und Anmeldeprozesse beendet. Somit ist sicher, dass das System mit geringem Aufwand ausgeführt wird. Natürlich bietet Runlevel 1 vollen root-Zugriff auf das System. Damit ein System in Runlevel 1 auch nach einem root-Passwort abfragt, wurde der Runlevel S entwickelt. Unter System-V-init existiert kein echter Runlevel S und er dient daher nur dazu, das root-Passwort abzufragen. Dieser Runlevel ist gewöhnlich dazu gedacht, dass Administratoren diverse Patches einspielen können.\n\n# /etc/inittab\n\nIn der Datei /etc/inittab steht, was init auf den verschiedenen Runleveln zu tun hat. Wenn der Rechner gestartet wird, durchläuft init Runlevel 0 bis hin zum Runlevel, der in /etc/inittab als Standard (default runlevel) festgelegt wurde. Damit der Übergang von einem Level zum nächsten reibungslos läuft, führt init die in /etc/inittab angegebenen Aktionen aus. Dasselbe geschieht natürlich auch im umgekehrten Fall beim Herunterfahren bzw. Neustarten des Systems.\n\nDie Verwendung von inittab ist allerdings nicht unbedingt das Gelbe vom Ei, weshalb noch zusätzliche Schichten in Form eines Scripts für das Wechseln der Runlevel eingebaut wurden. Dieses Script (rc â zu finden meist unter /etc/init.d/rc oder /etc/rc.d/rc) wird gewöhnlich aus inittab aufgerufen. Es (rc) führt wiederum weitere Scripts in einem vom Runlevel abhängigen Verzeichnis aus, um das System in seinen neuen (Runlevel-)Zustand zu versetzen.\n\nIn vielen Büchern wird jetzt hier die Datei /etc/inittab etwas genauer zerlegt und beschrieben (bspw. inittab-Schlüsselwörter), was natürlich sehr lehrreich ist, doch in der Praxis müssen Sie sich als Systemadministrator eigentlich nicht damit befassen, da die eben erwähnte Schnittstelle für jede Anwendung geeignet ist.\n\n# Startup-Scripts erstellen und ausführen\n\nDie Terminologie von Startup-Scripts ist häufig nicht einfach zu durchschauen, weshalb hier ein Beispiel gegeben werden soll. Gewöhnlich finden Sie die Hauptkopien der Startup-Scripts im Verzeichnis /etc/inid.d.\n > you@host > ls -l /etc/init.d/ insgesamt 308 -rwxr-xr-x 1 root root 2570 2005â03â02 18:45 acpid -rwxr-xr-x 1 root root 1098 2005â02â24 10:29 acpi-support -rwxr-xr-x 1 root root 11038 2005â03â25 23:08 alsa -rwxr-xr-x 1 root root 1015 2004â11â26 12:36 anacron -rwxr-xr-x 1 root root 1388 2005â03â01 04:11 apmd -rwxr-xr-x 1 root root 1080 2005â02â18 11:37 atd -rw-r--r-- 1 root root 2805 2005â01â07 19:35 bootclean.sh -rwxr-xr-x 1 root root 1468 2005â01â07 19:36 bootlogd -rwxr-xr-x 1 root root 1371 2005â01â07 19:35 bootmisc.sh -rwxr-xr-x 1 root root 1316 2005â01â07 19:35 checkfs.sh -rwxr-xr-x 1 root root 7718 2005â01â07 19:35 checkroot.sh -rwxr-xr-x 1 root root 5449 2004â12â26 14:12 console-screen.sh -rwxr-xr-x 1 root root 1168 2004â10â29 18:05 cron ...\n\nJedes dieser Scripts ist für einen Daemon oder einen anderen Aspekt des Systems verantwortlich. Und jedes dieser Scripts verarbeitet die Argumente »start« und »stop«, womit Sie den entsprechenden Dienst initialisieren oder beenden können, zum Beispiel:\n > # /etc/init.d/cron * Usage: /etc/init.d/cron start|stop|restart|reload|force-reload\n\nHier haben Sie versucht, das Script »cron«, welches für die Ausführung und Beendung des cron-Daemons verantwortlich, ist aufzurufen. Sie bekommen hierbei die möglichen Argumente mitgegeben, wie Sie das Script aufrufen können. Neben »start« und »stop« finden Sie häufig auch noch »restart«, was im Prinzip dasselbe bewirkt, wie ein »stop« mit anschließendem »start«. Des Weiteren findet man gewöhnlich auch eine Option »reload«, die den Dienst nicht beendet, sondern ihn auffordert, seine Konfiguration neu einzulesen (meist per Signal SIGHUP).\n\nIm folgenden Beispiel soll das Script »sleep_daemon« beim Systemstart automatisch gestartet und beim Beenden wieder automatisch beendet werden. Hier das Script:\n > #!/bin/sh # Name : sleep_daemon sleep 1000 &\n\nDas Script macht nichts anderes, als einen »schlafenden Dämon« zu erzeugen. Neben einfachen Shellscripts können Sie in der Praxis natürlich jedes andere Programm â sei es nun ein Binary oder ein Script â in beliebiger Sprache ausführen lassen. Tatsächlich können Sie alle Shellscripts in diesem Buch dazu verwenden (ob sinnvoll oder nicht). Dieses Script »sleep_daemon« habe ich nun in das Verzeichnis /usr/sbin verschoben und natürlich entsprechende Ausführrechte (für alle) gesetzt. Für diesen Vorgang werden Sie wohl root-Rechte benötigen. Alternativ können Sie auch das Verzeichnis /usr/local/sbin verwenden.\n\nFolgendermaßen sieht nun das Startup-Script aus, womit Sie »sleep_daemon« starten, beenden und neu starten können.\n > #!/bin/sh # Name : sleep_daemon DAEMON=\"/usr/sbin/sleep_daemon\" test -f $DAEMON || exit 0 case \"$1\" in start) echo -n \"Starte sleep_daemon\" $DAEMON echo \".\" ;; stop) echo -n \"Stoppe sleep_daemon\" killall sleep echo \".\" ;; restart) echo -n \"Stoppe sleep_daemon\" killall sleep echo \".\" echo -n \"Starte sleep_daemon\" $DAEMON echo \".\" ;; # Hierzu wird auch gern folgende Sntax eingesetzt: # $0 stop # $0 start;; *) echo \"Usage: $0 {start|stop|restart}\" exit 1 ;; esac\n\nIch habe hier denselben Namen verwendet, was Sie in der Praxis nicht tun müssen. Dieses Startup-Script können Sie nun in das Verzeichnis /etc/init.d verschieben und müssen es auch wieder ausführbar machen. Theoretisch können Sie jetzt schon den Dienst von Hand starten bzw. beenden:\n > # /etc/init.d/sleep_daemon start Starte sleep_daemon. # /etc/init.d/sleep_daemon restart Stoppe sleep_daemon. Starte sleep_daemon. # /etc/init.d/sleep_daemon stop Stoppe sleep_daemon.\n\nDamit unser Dienst auch automatisch beim Eintreten bzw. Austreten eines bestimmten Runlevels gestartet bzw. beendet wird, benötigt das von init gestartete Master-Controll-Script (rc) zusätzliche Informationen, welche Scripts ausgeführt werden sollen. Denn anstatt im Verzeichnis /etc/init.d nachzublättern, wann bei welchem Runlevel ein Script gestartet werden muss, sieht das Master-Controll-Script in einem Verzeichnis namens rc[n].d (bspw. rc1.d; rc2.d; ... rc6.d) nach. n steht für den Runlevel, in den es gelangen will. Zum Beispiel hier unter »Ubuntu Linux« im Verzeichnis rc2.d:\n > # ls -l /etc/rc2.d/ lrwxrwxrwx 1 root root 17 K11anacron -> ../init.d/anacron lrwxrwxrwx 1 root root 17 S05vbesave -> ../init.d/vbesave lrwxrwxrwx 1 root root 18 S10sysklogd -> ../init.d/sysklogd lrwxrwxrwx 1 root root 15 S11klogd -> ../init.d/klogd lrwxrwxrwx 1 root root 14 S12alsa -> ../init.d/alsa lrwxrwxrwx 1 root root 13 S14ppp -> ../init.d/ppp lrwxrwxrwx 1 root root 16 S19cupsys -> ../init.d/cupsys lrwxrwxrwx 1 root root 15 S20acpid -> ../init.d/acpid lrwxrwxrwx 1 root root 14 S20apmd -> ../init.d/apmd ...\n\nSie können gleich erkennen, dass diese Einträge in rc[n].d gewöhnlich symbolische Links sind, die auf die Startup-Scripts im init.d-Verzeichnis verweisen. Wenn Sie die anderen Runlevel-Verzeichnisse ebenfalls ansehen, werden Sie feststellen, dass hierbei alle Namen der symbolischen Links entweder mit einem »S« oder einen »K«, gefolgt von einer Nummer und dem eigentlichen Dienst beginnen (bspw. S14alsa). Auch dies ist recht schnell erklärt. Steigt init von einem Runlevel in den nächst höheren Level auf, werden alle Scripts mit »S« beginnend ausgeführt. Diese Scripts werden also mit dem Argument »start« ausgeführt. Wenn init hingegen von einem höheren Runlevel in einen niedrigeren wechselt, werden alle Scripts mit »K« (kill) beginnend ausgeführt. Hierbei wird gewöhnlich das Script mit dem Argument »stop« ausgeführt. Die Nummern haben eine Art Prioritätsbedeutung. Die Scripts im Runlevel-Verzeichnis werden bei der Option »start« in alphabetischer und bei »stop« in umgekehrter Reihenfolge ausgeführt. Somit bedient man sich einer Nummerierung, um die Reihenfolge der Ausführung zu beeinflussen.\n\nJetzt wollen Sie natürlich auch Ihr Startup-Script hinzufügen. Um also dem System mitzuteilen, dass Sie einen Daemon starten wollen, müssen Sie ebenfalls einen symbolischen Link in das entsprechende Verzeichnis setzen. Die meisten Dienste starten Ihre Dämonen im Runlevel 2, weshalb hier ebenfalls ein Eintrag vorgenommen wird. Um den Daemon auch ordentlich wieder zu beenden, müssen Sie natürlich auch einen Link im Runlevel 0 eintragen. Da es bei einigen Systemen Unterschiede zwischen Shutdown und Reboot gibt, sollten Sie auch einen Eintrag im Runlevel 6 erstellen, um auf Nummer sicher zu gehen, dass sich der Daemon beim Neustart korrekt beendet hat.\n > # ln -s /etc/init.d/sleep_daemon /etc/rc2.d/S23sleep_daemon # ln -s /etc/init.d/sleep_daemon /etc/rc0.d/K23sleep_daemon # ln -s /etc/init.d/sleep_daemon /etc/rc6.d/K23sleep_daemon\n\nMit der ersten Zeile weisen Sie das System nun an, das Startup-Script /etc/init.d/sleep_daemon mit dem Argument »start« auszuführen, wenn es im Runlevel 2 angelangt ist. Mit der zweiten Zeile legen Sie fest, dass /etc/init.d/sleep_daemon beim Herunterfahren des Systems mit dem Argument »stop« beendet wird, wenn es im Runlevel 0 angekommen. ist. Gleiches nehmen Sie auch mit der dritten Zeile vor, nur eben für den Neustart des Systems in Runlevel 6.\n\nWenn Sie jetzt das System beenden und wieder hochfahren, können Sie in der Startup-Sitzung (sofern diese sichtbar ist) Ihren Dienst beim Starten beobachten. Hier werden Sie irgendwann ein Zeile wie\n > Starte sleep_daemon.\n\nfinden. Beim Beenden bzw. Neustarten des Systems entsteht diese Meldung, nur dass eben der »sleep_daemon« beendet wurde.\n\n# 15.5 World Wide Web und HTMLÂ\n\n15.5 World Wide Web und HTML \n Der Umgang mit Logdateien gehört zu einem weiteren wichtigen Bereich eines Systemadministrators. Schließlich stellen die Log(-bücher) so etwas wie das Tagebuch eines Webservers dar. Dort hinein wird immer dann etwas geschrieben, wenn etwas passiert. So kann man mit einem Blick in die Logdateien recht schnell feststellen, ob alles seine Ordnung hat. Allerdings befinden sich in solchen Logdateien häufig unglaublich viele Informationen. Das Problem ist weniger, an diese Informationen zu kommen, sondern vielmehr die wichtigen Informationen daraus zu gewinnen.\n In den folgenden Beispielen sollen nur die Logdateien access_log und error_log des Apache Webserver betrachtet werden, zwei Logfiles, die der Apache standardmäßig als Tagebuch verwendet. Da der Apache wie auch viele andere Webserver das Common Log Format verwendet (einen informellen Standard) sollte es nicht schwer sein, nach diesem Kapitel auch Logdateien anderer Server auszuwerten. Wobei sich wohl die meisten mit den Logfiles des Apache zufrieden geben dürften, da dieser mit gut 60 % Marktanteil (vor allem unter den Webhostern) der verbreitetste ist. Wo (und ggf. auch was) der Apache in diese beiden Logfiles schreibt, wird gewöhnlich in httpd.conf festgelegt.\n Anhand dieser beiden Logfiles werden übrigens die tollen Statistiken erzeugt, die Ihnen Ihr Webhoster anbietet. Darin finden Sie Zugriffszahlen, Transferraten (gesamt, Tagesdurchschnitt ...), den Browser, Fehlercodes (z. B. »Seite nicht vorhanden«) die IP-Adresse oder Domain-Adresse des Clients, Datum, Uhrzeit und eine Menge mehr.\n Als normaler Inhaber einer Domain mit ssh-Zugang werden Sie das eine oder andere Mal diese Logfiles wohl auch mit einem Script auswerten wollen. Als Systemadministrator eines Webservers werden Sie dies allerdings zu einer Ihrer Hauptaufgaben machen und diese Logfiles auch archivieren müssen. Wie dem auch sei, wir begnügen uns mit dem Einfachsten, und zwar dem Auswerten der Logfiles, um den Inhalt in einer vernünftigen Form lesbar darzustellen.\n 15.5.1 Analysieren von access_log (Apache) \n Die access_log-Datei ist eine einfache Textdatei, in der der Webserver bei jedem Besucher, der eine Webseite besucht, einen Eintrag in folgender Form oder ähnlich hinterlässt (eine Zeile):\n 169.229.76.87 â â [13/May/2001:00:00:37 â0800] \"GET /htdocs/inhalt.html HTTP/1.1\" 200 15081 \"http://www.irgendwoher.de/links.html\" \"Mozilla/4.0 (compatible; MSIE 5.0; Windows 98; DigExt)\"\n Was sagt die Zeile:\n\n Die Auswertung von error_log lässt sich etwas einfacher realisieren, da hierbei wesentlich weniger Daten als bei access_log geschrieben werden (sollten).\n #!/bin/sh # Name: readerrorlog # Wertet error_log des Apaches aus # Anzahl der Einträge, die pro Kategorie angezeigt werden sollen MAXERRORS=10 # Sortierte Ausgabe von jeweils MAXERRORS pro Fehler # ggf. sollte man eine Datei zum Zwischenspeichern, # anstatt wie hier die Variable ret, verwenden ... # print_error_log() { ret=`grep \"${2}\" \"$1\" | awk '{print $NF}' |\\ sort | uniq -c | sort -rn | head -$MAXERRORS` if [ \"$ret\" != \"\" ] ; then echo echo \"[$2] Fehler:\" echo \"$ret\" fi } if [ $# -ne 1 ] then echo \"usage $0 error_log\" exit 1 fi # Anzahl der Einträge in error_log echo \"'$1' hat `wc -l < $1` Einträge\" # Erster Eintrag in error_log dateHead=`grep -E '\\[.*:.*:.*\\]' \"$1\" | head â1 | \\ awk '{print $1\" \"$2\" \"$3\" \"$4\" \"$5}'` # Letzter Eintrag in error_log dateTail=`grep -E '\\[.*:.*:.*\\]' \"$1\" | tail â1 | \\ awk '{print $1\" \"$2\" \"$3\" \"$4\" \"$5}'` echo \"Einträge vom : $dateHead \" echo \"bis zum : $dateTail \" echo # Wir geben einige Fehler sortiert nach Fehlern aus # Die Liste kann beliebig nach Fehlern erweitert werden ... # print_error_log \"$1\" \"File does not exist\" print_error_log \"$1\" \"Invalid error redirection directive\" print_error_log \"$1\" \"premature EOF\" print_error_log \"$1\" \"script not found or unable to stat\" print_error_log \"$1\" \"Premature end of script headers\" print_error_log \"$1\" \"Directory index forbidden by rule\"\n Das Script bei der Ausführung:\n you@host > ./readerrorlog logs/www.pronix.de/error_log 'logs/www.pronix.de/error_log' hat 2941 Einträge Einträge vom : [Sun May 8 05:08:42 2005] bis zum : [Fri May 13 07:46:45 2005] [File does not exist] Fehler: 71 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed1.png 69 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed2.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed6.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed5.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed4.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed3.png 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland5.gif 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland4.gif 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland3.gif 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland2.gif [script not found or unable to stat] Fehler: 750 /home/us10129/www.pronix.de/search.php [Directory index forbidden by rule] Fehler: 151 .../www.pronix.de/cmsimages/grafik/ 19 .../www.pronix.de/cmsimages/ 17 .../www.pronix.de/cmsimages/download/ 14 .../www.pronix.de/themes/young_leaves/ 3 .../www.pronix.de/css/ 1 .../www.pronix.de/cmsimages/linux/grafik/ 1 .../www.pronix.de/cmsimages/linux/ ... ...\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n15.5 World Wide Web und HTML \n Der Umgang mit Logdateien gehört zu einem weiteren wichtigen Bereich eines Systemadministrators. Schließlich stellen die Log(-bücher) so etwas wie das Tagebuch eines Webservers dar. Dort hinein wird immer dann etwas geschrieben, wenn etwas passiert. So kann man mit einem Blick in die Logdateien recht schnell feststellen, ob alles seine Ordnung hat. Allerdings befinden sich in solchen Logdateien häufig unglaublich viele Informationen. Das Problem ist weniger, an diese Informationen zu kommen, sondern vielmehr die wichtigen Informationen daraus zu gewinnen.\n In den folgenden Beispielen sollen nur die Logdateien access_log und error_log des Apache Webserver betrachtet werden, zwei Logfiles, die der Apache standardmäßig als Tagebuch verwendet. Da der Apache wie auch viele andere Webserver das Common Log Format verwendet (einen informellen Standard) sollte es nicht schwer sein, nach diesem Kapitel auch Logdateien anderer Server auszuwerten. Wobei sich wohl die meisten mit den Logfiles des Apache zufrieden geben dürften, da dieser mit gut 60 % Marktanteil (vor allem unter den Webhostern) der verbreitetste ist. Wo (und ggf. auch was) der Apache in diese beiden Logfiles schreibt, wird gewöhnlich in httpd.conf festgelegt.\n Anhand dieser beiden Logfiles werden übrigens die tollen Statistiken erzeugt, die Ihnen Ihr Webhoster anbietet. Darin finden Sie Zugriffszahlen, Transferraten (gesamt, Tagesdurchschnitt ...), den Browser, Fehlercodes (z. B. »Seite nicht vorhanden«) die IP-Adresse oder Domain-Adresse des Clients, Datum, Uhrzeit und eine Menge mehr.\n Als normaler Inhaber einer Domain mit ssh-Zugang werden Sie das eine oder andere Mal diese Logfiles wohl auch mit einem Script auswerten wollen. Als Systemadministrator eines Webservers werden Sie dies allerdings zu einer Ihrer Hauptaufgaben machen und diese Logfiles auch archivieren müssen. Wie dem auch sei, wir begnügen uns mit dem Einfachsten, und zwar dem Auswerten der Logfiles, um den Inhalt in einer vernünftigen Form lesbar darzustellen.\n 15.5.1 Analysieren von access_log (Apache) \n Die access_log-Datei ist eine einfache Textdatei, in der der Webserver bei jedem Besucher, der eine Webseite besucht, einen Eintrag in folgender Form oder ähnlich hinterlässt (eine Zeile):\n 169.229.76.87 â â [13/May/2001:00:00:37 â0800] \"GET /htdocs/inhalt.html HTTP/1.1\" 200 15081 \"http://www.irgendwoher.de/links.html\" \"Mozilla/4.0 (compatible; MSIE 5.0; Windows 98; DigExt)\"\n Was sagt die Zeile:\n\n Die Auswertung von error_log lässt sich etwas einfacher realisieren, da hierbei wesentlich weniger Daten als bei access_log geschrieben werden (sollten).\n #!/bin/sh # Name: readerrorlog # Wertet error_log des Apaches aus # Anzahl der Einträge, die pro Kategorie angezeigt werden sollen MAXERRORS=10 # Sortierte Ausgabe von jeweils MAXERRORS pro Fehler # ggf. sollte man eine Datei zum Zwischenspeichern, # anstatt wie hier die Variable ret, verwenden ... # print_error_log() { ret=`grep \"${2}\" \"$1\" | awk '{print $NF}' |\\ sort | uniq -c | sort -rn | head -$MAXERRORS` if [ \"$ret\" != \"\" ] ; then echo echo \"[$2] Fehler:\" echo \"$ret\" fi } if [ $# -ne 1 ] then echo \"usage $0 error_log\" exit 1 fi # Anzahl der Einträge in error_log echo \"'$1' hat `wc -l < $1` Einträge\" # Erster Eintrag in error_log dateHead=`grep -E '\\[.*:.*:.*\\]' \"$1\" | head â1 | \\ awk '{print $1\" \"$2\" \"$3\" \"$4\" \"$5}'` # Letzter Eintrag in error_log dateTail=`grep -E '\\[.*:.*:.*\\]' \"$1\" | tail â1 | \\ awk '{print $1\" \"$2\" \"$3\" \"$4\" \"$5}'` echo \"Einträge vom : $dateHead \" echo \"bis zum : $dateTail \" echo # Wir geben einige Fehler sortiert nach Fehlern aus # Die Liste kann beliebig nach Fehlern erweitert werden ... # print_error_log \"$1\" \"File does not exist\" print_error_log \"$1\" \"Invalid error redirection directive\" print_error_log \"$1\" \"premature EOF\" print_error_log \"$1\" \"script not found or unable to stat\" print_error_log \"$1\" \"Premature end of script headers\" print_error_log \"$1\" \"Directory index forbidden by rule\"\n Das Script bei der Ausführung:\n you@host > ./readerrorlog logs/www.pronix.de/error_log 'logs/www.pronix.de/error_log' hat 2941 Einträge Einträge vom : [Sun May 8 05:08:42 2005] bis zum : [Fri May 13 07:46:45 2005] [File does not exist] Fehler: 71 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed1.png 69 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed2.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed6.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed5.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed4.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed3.png 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland5.gif 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland4.gif 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland3.gif 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland2.gif [script not found or unable to stat] Fehler: 750 /home/us10129/www.pronix.de/search.php [Directory index forbidden by rule] Fehler: 151 .../www.pronix.de/cmsimages/grafik/ 19 .../www.pronix.de/cmsimages/ 17 .../www.pronix.de/cmsimages/download/ 14 .../www.pronix.de/themes/young_leaves/ 3 .../www.pronix.de/css/ 1 .../www.pronix.de/cmsimages/linux/grafik/ 1 .../www.pronix.de/cmsimages/linux/ ... ...\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 15.5 World Wide Web und HTMLÂ\n\nDer Umgang mit Logdateien gehört zu einem weiteren wichtigen Bereich eines Systemadministrators. Schließlich stellen die Log(-bücher) so etwas wie das Tagebuch eines Webservers dar. Dort hinein wird immer dann etwas geschrieben, wenn etwas passiert. So kann man mit einem Blick in die Logdateien recht schnell feststellen, ob alles seine Ordnung hat. Allerdings befinden sich in solchen Logdateien häufig unglaublich viele Informationen. Das Problem ist weniger, an diese Informationen zu kommen, sondern vielmehr die wichtigen Informationen daraus zu gewinnen.\n\nIn den folgenden Beispielen sollen nur die Logdateien access_log und error_log des Apache Webserver betrachtet werden, zwei Logfiles, die der Apache standardmäßig als Tagebuch verwendet. Da der Apache wie auch viele andere Webserver das Common Log Format verwendet (einen informellen Standard) sollte es nicht schwer sein, nach diesem Kapitel auch Logdateien anderer Server auszuwerten. Wobei sich wohl die meisten mit den Logfiles des Apache zufrieden geben dürften, da dieser mit gut 60 % Marktanteil (vor allem unter den Webhostern) der verbreitetste ist. Wo (und ggf. auch was) der Apache in diese beiden Logfiles schreibt, wird gewöhnlich in httpd.conf festgelegt.\n\nAnhand dieser beiden Logfiles werden übrigens die tollen Statistiken erzeugt, die Ihnen Ihr Webhoster anbietet. Darin finden Sie Zugriffszahlen, Transferraten (gesamt, Tagesdurchschnitt ...), den Browser, Fehlercodes (z. B. »Seite nicht vorhanden«) die IP-Adresse oder Domain-Adresse des Clients, Datum, Uhrzeit und eine Menge mehr.\n\nAls normaler Inhaber einer Domain mit ssh-Zugang werden Sie das eine oder andere Mal diese Logfiles wohl auch mit einem Script auswerten wollen. Als Systemadministrator eines Webservers werden Sie dies allerdings zu einer Ihrer Hauptaufgaben machen und diese Logfiles auch archivieren müssen. Wie dem auch sei, wir begnügen uns mit dem Einfachsten, und zwar dem Auswerten der Logfiles, um den Inhalt in einer vernünftigen Form lesbar darzustellen.\n\n### 15.5.1 Analysieren von access_log (Apache)Â\n\nDie access_log-Datei ist eine einfache Textdatei, in der der Webserver bei jedem Besucher, der eine Webseite besucht, einen Eintrag in folgender Form oder ähnlich hinterlässt (eine Zeile):\n > 169.229.76.87 â â [13/May/2001:00:00:37 â0800] \"GET /htdocs/inhalt.html HTTP/1.1\" 200 15081 \"http://www.irgendwoher.de/links.html\" \"Mozilla/4.0 (compatible; MSIE 5.0; Windows 98; DigExt)\"\n\nWas sagt die Zeile:\n\n | - (zweiter Strich) â Login-Name des Benutzers, falls eine Passwort/Benutzername-Authentifizierung erforderlich ist. |\n | --- | --- |\n\n | \"http://www.irgendwoher.de/links.html\" â wenn die URL nicht direkt eingegeben wurde, steht hier, von wo der Client gekommen ist. |\n | --- | --- |\n\nUm access_log nun auszuwerten, gilt es, einfach die einzelnen Werte, die man benötigt, aus den einzelnen Zeilen von access_log zu extrahieren und diese entsprechend auszuwerten. Das folgende Script demonstriert diesen Vorgang:\n > #!/bin/sh # readaccess # Diese Script analysiert die access_log-Datei des # Apache Webservers mit interessanten Informationen # mathematische Funktion (Wrapper für bc) ... calc() { bc -q << EOF scale=2 $* quit EOF } # Damit verhindern Sie, dass bei der Auswertung der # 'Referred Hits' der eigene Domainname berücksichtigt wird. host=\"pronix.de\" # Anzahl der am meisten besuchten Seiten POPULAR=10 # Anzahl der Referrer-Seiten REFERRER=10 if [ $# -eq 0 ] then echo \"Usage: $0 logfile\" exit 1 fi # Logfile lesbar oder vorhanden ... if [ -r \"$1\" ] then : else echo \"Fehler: Kann Log-Datei '$1' nicht finden...!\" exit 1 fi # Erster Eintrag im Logfile ... dateHead=`head â1 \"$1\" | awk '{print $4}' | sed 's/\\[//'` # Letzter Eintrag im Logfile ... dateTail=`tail â1 \"$1\" | awk '{print $4}' | sed 's/\\[//'` echo \"Ergebnis der Log-Datei '$1'\" echo echo \" Start Datum : `echo $dateHead | sed 's/:/ um /'`\" echo \" End Datum : `echo $dateTail | sed 's/:/ um /'`\" # Anzahl Besucher, einfach mit wc zählen hits=`wc -l < \"$1\" | sed 's/[^[:digit:]]//g'` echo \" Hits : $hits (Zugriffe insgesamt)\" # Seitenzugriffe ohne Dateien .txt; .gif; .jpg und .png pages=`grep -ivE '(.txt|.gif|.jpg|.png)' \"$1\" | wc -l | \\ sed 's/[^[:digit:]]//g'` echo \"Seitenzugriffe: $pages (Zugriffe ohne Grafiken\"\\ \" (jpg, gif, png und txt)\" # Datentransfer â Traffic totalbytes=`awk '{sum+=$10} END {print sum}' \"$1\"` echo -n \" Übertragen : $totalbytes Bytes \" # Anzahl Bytes in einem GB = 1073741824 # Anzahl Bytes in einem MB = 1048576 if [ $totalbytes -gt 1073741824 ] ; then ret=`calc \"$totalbytes / 1073741824\"` echo \"($ret GB)\" elif [ $totalbytes -gt 1048576 ] ; then ret=`calc \"$totalbytes / 1048576\"` echo \"($ret MB)\" else echo fi # Interessante Statistiken echo echo \"Die $POPULAR beliebtesten Seiten sind \" \\ \" (ohne gif, jpg, png, css, ico und js):\" awk '{print $7}' \"$1\" | \\ grep -ivE '(.gif|.jpg|.png|.css|.ico|.js)' | \\ sed 's/\\/$//g' | sort | \\ uniq -c | sort -rn | head -$POPULAR echo echo \"Woher kamen die Besucher ($REFERRER besten URLs'):\" awk '{print $11}' \"$1\" | \\ grep -vE \"(^\\\"-\\\"$|/www.$host|/$host)\" | \\ sort | uniq -c | sort -rn | head -$REFERRER\n\nDas Script bei der Ausführung:\n > you@host > ./readaccess logs/www.pronix.de/access_log Ergebnis der Log-Datei 'logs/www.pronix.de/access_log' Start Datum : 08/May/2005 um 04:47:45 End Datum : 13/May/2005 um 07:13:27 Hits : 168334 (Zugriffe insgesamt) Seitenzugriffe: 127803 (Zugriffe o. Grafiken (jpg, gif, png, txt) Übertragen : 1126397222 Bytes (1.04 GB) Die 10 beliebtesten Seiten sind (ohne gif,jpg,png,css,ico,js): 3498 /pronix-4.html 1974 /pronix-6.html 1677 /modules/newbb 1154 /userinfo.php?uid=1 1138 /userinfo.php?uid=102 1137 /userinfo.php?uid=109 991 /userinfo.php?uid=15 924 /modules/news 875 /userinfo.php?uid=643 Woher kamen die Besucher (10 besten URLs'): 96 \"http://homepages.rtlnet.de/algeyer001937/587.html\" 65 \"http://www.computer-literatur.de/buecher/... \" 47 \"http://www.linuxi.de/ebooksprogramm.html\" 37 \"http://www.programmier-hilfe.de/index.php/C___C__/46/0/\" 35 \"http://216.239.59.104/search?q=cache:kFL_ot8c2s0J:www... 30 \"http://www.tutorials.de/tutorials184964.html\" 27 \"http://64.233.183.104/search?q=cache:EqX_ZN... 25 \"http://216.239.59.104/search?q=cache:KkL81cub2C... 24 \"http://216.239.59.104/search?q=cache:R0gWKuwrF...\n\n### 15.5.2 Analysieren von error_log (Apache)Â\n\nIn der Logdatei error_log finden Sie alle Fehler, die beim Aufrufen einer Seite oder eines Dokuments Ihrer URL aufgetreten sind. Die Zeile eines solchen Eintrags hat beim Apache folgende Form:\n > [Fri May 13 02:48:13 2005] [error] [client 66.185.100.10] File does not exist: /home/us10129/www.pronix.de/modules/ mylinks/modlink.php\n\nDie Bedeutungen der einzelnen Einträge lassen sich schnell erklären:\n\n | [Fri May 13 02:48:13 2005] â wann trat dieser Fehler auf? |\n | --- | --- |\n\n | /home/us10129/www.pronix.de/modules/mylinks/modlink.php â die Datei, welche den Fehler ausgelöst hat. |\n | --- | --- |\n\nDie Auswertung von error_log lässt sich etwas einfacher realisieren, da hierbei wesentlich weniger Daten als bei access_log geschrieben werden (sollten).\n > #!/bin/sh # Name: readerrorlog # Wertet error_log des Apaches aus # Anzahl der Einträge, die pro Kategorie angezeigt werden sollen MAXERRORS=10 # Sortierte Ausgabe von jeweils MAXERRORS pro Fehler # ggf. sollte man eine Datei zum Zwischenspeichern, # anstatt wie hier die Variable ret, verwenden ... # print_error_log() { ret=`grep \"${2}\" \"$1\" | awk '{print $NF}' |\\ sort | uniq -c | sort -rn | head -$MAXERRORS` if [ \"$ret\" != \"\" ] ; then echo echo \"[$2] Fehler:\" echo \"$ret\" fi } if [ $# -ne 1 ] then echo \"usage $0 error_log\" exit 1 fi # Anzahl der Einträge in error_log echo \"'$1' hat `wc -l < $1` Einträge\" # Erster Eintrag in error_log dateHead=`grep -E '\\[.*:.*:.*\\]' \"$1\" | head â1 | \\ awk '{print $1\" \"$2\" \"$3\" \"$4\" \"$5}'` # Letzter Eintrag in error_log dateTail=`grep -E '\\[.*:.*:.*\\]' \"$1\" | tail â1 | \\ awk '{print $1\" \"$2\" \"$3\" \"$4\" \"$5}'` echo \"Einträge vom : $dateHead \" echo \"bis zum : $dateTail \" echo # Wir geben einige Fehler sortiert nach Fehlern aus # Die Liste kann beliebig nach Fehlern erweitert werden ... # print_error_log \"$1\" \"File does not exist\" print_error_log \"$1\" \"Invalid error redirection directive\" print_error_log \"$1\" \"premature EOF\" print_error_log \"$1\" \"script not found or unable to stat\" print_error_log \"$1\" \"Premature end of script headers\" print_error_log \"$1\" \"Directory index forbidden by rule\"\n\nDas Script bei der Ausführung:\n > you@host > ./readerrorlog logs/www.pronix.de/error_log 'logs/www.pronix.de/error_log' hat 2941 Einträge Einträge vom : [Sun May 8 05:08:42 2005] bis zum : [Fri May 13 07:46:45 2005] [File does not exist] Fehler: 71 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed1.png 69 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed2.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed6.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed5.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed4.png 68 .../www.pronix.de/cmsimages/grafik/Grafik/bloodshed3.png 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland5.gif 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland4.gif 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland3.gif 53 .../www.pronix.de/cmsimages/grafik/Grafik/borland2.gif [script not found or unable to stat] Fehler: 750 /home/us10129/www.pronix.de/search.php [Directory index forbidden by rule] Fehler: 151 .../www.pronix.de/cmsimages/grafik/ 19 .../www.pronix.de/cmsimages/ 17 .../www.pronix.de/cmsimages/download/ 14 .../www.pronix.de/themes/young_leaves/ 3 .../www.pronix.de/css/ 1 .../www.pronix.de/cmsimages/linux/grafik/ 1 .../www.pronix.de/cmsimages/linux/ ... ...\n\n# 15.6 CGI (Common Gateway Interface)Â\n\n15.6 CGI (Common Gateway Interface) \n CGI ist eine Schnittstelle, mit der Sie z. B. Anwendungen für das Internet schreiben können. Diese CGI-Anwendungen laufen dabei auf einem (Web-)Server (wie beispielsweise dem Apache) und werden meistens von einer HTML-Webseite mithilfe eines Webbrowsers aufgerufen.\n Das Verfahren der CGI-Schnittstelle ist ziemlich einfach. Die Daten werden ganz normal von der Standardeingabe (stdin) oder von den Umgebungsvariablen empfangen und wenn nötig über die Standardausgabe (stdout) ausgegeben. Im Allgemeinen handelt es sich dabei um ein dynamisch erzeugtes HTML-Dokument, das Sie in Ihrem Browser betrachten können. Sind diese Voraussetzungen gegeben, können CGI-Anwendungen praktisch mit jeder Programmiersprache erstellt werden. Das CGI-Programm selbst, welches Sie erstellen, ist ein ausführbares Programm auf dem Webserver, das nicht von einem normalen User gestartet wird, sondern vom Webserver als ein neuer Prozess.\n Normalerweise setzt man für CGI-Scripts die Programmiersprachen Perl, PHP, Java, Python, Ruby oder C ein, aber im Grunde ist die Sprache absolut zweitrangig. Die Hauptsache ist, dass sie eine Standardein- und eine Standardausgabe besitzt und selbstverständlich auf dem Rechner, auf dem diese ausgeführt wird, auch verstanden wird. Für kleinere Auf- bzw. Ausgaben können Sie selbstverständlich auch ein Shellscript verwenden. Damit können Sie beinahe alle Shellscripts, die Sie in diesem Buch geschrieben haben, auch über den Browser aufrufen und ausführen lassen.\n\n Hinweis   Wer denkt, CGI in C ist etwas »Unmögliches«, der darf gern auf meine Webseite kommen. Das komplette Content Management System (kurz CMS) wurde von meinem Fachgutachter in C geschrieben.\n\n Auch wenn es sich recht aufregend anhört, CGI-Scripts in Shell zu erstellen, finden Sie hier nur einen kurzen Anriss zu diesem Thema. Vorwiegend geht es mir darum, dass Sie mithilfe der Shellscripts eine Art Schnittstelle für Ihre geschrieben Shellscripts schreiben können, beispielsweise um die Auswertung von access_log auf dem Browser vorzunehmen.\n 15.6.1 CGI-Scripts ausführen \n Um CGI-Scripts auf einem Server auszuführen, ist leider mehr als nur ein Browser erforderlich. Sofern Sie den ganzen Vorgang lokal testen wollen, benötigen Sie einen laufenden Webserver (im Beispiel ist immer vom Apache Webserver die Rede). Das Ganze ist gerade für Anfänger nicht ganz so einfach nachzuvollziehen. Einfach haben Sie es natürlich, wenn Sie Ihre Scripts auf einem bereits konfigurierten Webserver ausführen können â wie dies etwa bei einem Webhoster der Fall ist.\n Zuerst müssen Sie herausfinden, wo Sie die Shellscripts auf Ihrem Webserver ausführen können, gewöhnlich ist dies im /cgi-bin-Verzeichnis. Allerdings kann man einen Webserver auch so konfigurieren (httpd.conf), dass man aus jedem Unterverzeichnis ein Script ausführen kann. In der Regel verwendet man als Dateiendung ».cgi«. Wenn es nicht möglich ist, ein CGI-Script auszuführen, kann es sein, dass Sie die Option ExecCGI in der Konfigurationsdatei httpd.conf anpassen oder die Schnittstelle mit der Datei .htaccess aktivieren müssen. Außerdem muss beachtet werden, dass dieses Script für jedermann lesbar und ausführbar ist, weil die meisten Webserver eine Webanfrage als User nobody oder similar ausführen. Leider kann ich hier nicht im Detail darauf eingehen, daher hierzu nochmals kurz die nötigen (möglichen) Schritte, um ein CGI-Script auf einem Webserver auszuführen (entsprechende Rechte vorausgesetzt):\n\n  \n Setzen Sie die Zugriffsrechte für das entsprechende Script (chmod go+rx script.cgi).\n\n  \n Starten Sie den Webserver, falls dies nicht schon geschehen ist.\n\n  \n HTTP-Anfrage-Header des Webbrowsers\n\n Das Script bei der Ausführung sehen Sie in Abbildung 15.1.\n Einen Hinweis noch zu:\n echo \"Content-type: text/html\"\n Damit teilen Sie dem Webserver mit, dass Ihre CGI-Anwendung ein bestimmtes Dokument ausgibt (Content-Type-Dokument). Im Beispiel handelt es sich um ein HTML-Dokument. Außerdem ist es von Bedeutung, dass hinter dieser Angabe zwei Newline-Zeichen stehen (hier durch die beiden echo-Aufrufe). Damit signalisieren Sie dem Webserver, dass es sich um die letzte »Headerzeile« handelt.\n 15.6.3 Einfache Ausgabe als Text \n Ähnlich einfach wie die Ausgabe der Umgebungsvariablen lässt sich jede andere Ausgabe auf dem Browser realisieren. Wollen Sie zum Beispiel ein Shellscript über einen Link starten, so müssen Sie sich nur ein HTML-Dokument wie folgt zusammenbasteln:\n TestCGIs Ein Link \n Das folgende Script areader.cgi macht wiederum nichts anderes, als die Textdatei kap003.txt mittels cat auf dem Browser auszugeben. Als Query-String geben Sie hinter dem Fragezeichen an, welche Datei hier gelesen werden soll. Für das Shellscript stellt dies wiederum den ersten Positionsparameter $1 dar. Der Link\n /cgi-bin/areader.cgi?/srv/www/htdocs/docs/kap003.txt\n besteht also aus zwei Werten, dem Pfad zum Shellscript\n /cgi-bin/areader.cgi\n und dem ersten Positionsparameter (Query-String)\n /srv/www/htdocs/docs/kap003.txt\n Ein solcher Query-String kann natürlich ganz andere Formen annehmen, dazu aber später mehr. Hierzu nun das Shellscript areader.cgi:\n #!/bin/sh # Name: areader.cgi echo \"Content-type: text/plain\" echo cat $1 exit 0\n Die Ausführung ist in Abbildung 15.3 zu sehen.\n Sicherheitsbedenken\n Natürlich dienen diese Beispiele nur als Mittel zum Zweck, um Ihnen zu demonstrieren, wie Sie Shellscripts auch als CGI-Scripts verwenden können, ohne allerdings den Sicherheitsaspekt zu berücksichtigen. Denn im Grunde ist die Zeile\n /cgi-bin/areader.cgi?/srv/www/htdocs/docs/kap003.txt\n ein ganz böses Foul, das Hackern Tür und Tor öffnet. Manipuliert man diese Zeile um in\n /cgi-bin/areader.cgi?/etc/passwd /cgi-bin/areader.cgi?/etc/shadow\n kann der Angreifer in aller Ruhe zu Hause per »Brute Force« das Passwort knacken (sofern dies nicht allzu stark ist â was leider meistens der Fall ist). Zumindest kann der Angreifer auf jeden Fall Systeminformationen sammeln, um eventuelle Schwachstellen des Rechners aufzuspüren.\n Ein sicherere Alternative wäre es beispielsweise, die Usereingabe auf [a-z] zu prüfen. Wenn andere Zeichen vorkommen, dann abbrechen, und ansonsten den Pfad und die Endung vom Script ergänzen lassen.\n if echo $1 | grep -q '[^a-z]' then echo Schlingel exit 0 fi file=\"/pfad/nach/irgendwo/$1.txt\" if [ -e $file ] then echo Nueschte exit 0 fi\n Des Weiteren sollten Sie bei CGI-Programmen immer 0 zurückgeben, wenn alles glatt verlaufen ist, damit überhaupt etwas auf dem Bildschirm ausgegeben wird. Bei vielen Installationen entsteht nämlich bei Rückgabe ungleich 0 der 500er-Fehler.\n 15.6.4 Ausgabe als HTML formatieren \n In der Praxis werden Sie wohl kaum immer nur reinen Text ausgeben, sondern die Ausgabe mit vielen HTML- oder CSS-Elementen verschönern wollen. Im Gegensatz zum Beispiel zuvor ist hierfür nicht allzu viel nötig (geringe HTML-Kenntnisse vorausgesetzt). Zuerst wieder das HTML-Dokument (unverändert):\n TestCGIs Ein Link \n Als Nächstes das Shellscript areader.cgi, allerdings ein wenig umgeschrieben (und umbenannt) mit einigen HTML-Konstrukten, um den Text browsergerecht zu servieren:\n #!/bin/sh # a_html_reader.cgi echo \"Content-type: text/html\" echo \"\" cat << HEADER Ausgabe der Datei: $1

Ausgabe der Datei: $1


 HEADER cat $1 cat << FOOTER 


Ende Ausgabe der Datei: $1


FOOTER exit 0\n Das Script bei der Ausführung zeigt Abbildung 15.4.\n Soweit haben Sie nun eine HTML-formatierte Ausgabe. Allerdings ist es noch praktischer, den HTML-Teil wiederum in eine extra Datei auszulagern. Dies erhält zum einen die Übersicht des Shellscripts, und zum anderen kann man jederzeit das »Layout« gegen ein anderes austauschen. Ich teile z. B. die beiden Bereiche um den eigentlichen Arbeitsteil des Shellscripts in einen Kopfteil (header.txt) und einen Fußteil (footer.txt) auf. Zuerst die Datei header.txt:\n Ein Titel

Ausgabe Anfang:


\n      Und jetzt noch die Datei footer.txt:\n      


Ende der Ausgabe


\n Beide Dateien können Sie nun auch wieder im Shellscript einfach mit cat ausgeben lassen. Somit sieht das eigentliche Shellscript gegenüber der Version a_html_reader.cgi wie folgt aus:\n #!/bin/sh echo \"Content-type: text/html\" echo \"\" cat /srv/www/htdocs/docs/header.txt cat $1 cat /srv/www/htdocs/docs/footer.txt exit 0\n 15.6.5 Systeminformationen ausgeben \n Wie Sie im Beispiel eben den Befehl cat verwendet haben, so können Sie auch alle anderen Kommandos (je nach Rechten) bzw. ganze Shellscripts ausführen. Das folgende Script gibt z. B. Auskunft über alle aktuell laufenden Prozesse:\n #!/bin/sh # Name: html_ps.cgi echo \"Content-type: text/html\" echo cat /srv/www/htdocs/docs/header.txt ps -ef cat /srv/www/htdocs/docs/footer.txt exit 0\n Das Script bei der Ausführung zeigt Abbildung 15.5.\n Ebenso einfach können Sie hierbei auch andere Shellscripts ausführen lassen. Sinnvoll erscheint mir hierbei die Ausgabe von access_log und error_log. Das folgende Beispiel verwendet das Script readaccess aus Abschnitt 15.5.1:\n #!/bin/sh # Name: html_access_log.cgi # Apaches access_log analysieren und ausgeben echo \"Content-type: text/html\" echo cat /srv/www/htdocs/docs/header.txt ./readaccess /pfad/zum/logfile/access_log cat /srv/www/htdocs/docs/footer.txt exit 0\n Abbildung 15.6 zeigt das Script bei der Ausführung.\n Sie sehen, CGI-Scripts können mit der Shell beinahe unbegrenzt verwendet werden.\n 15.6.6 Kontaktformular \n Ein Kontaktformular erfordert eine Eingabe vom Benutzer. Dies auszuwerten, ist wiederum nicht ganz so einfach. Zunächst muss man festlegen, mit welcher Methode diese Daten empfangen werden. Hierbei gibt es die Möglichkeit GET, bei der der Browser die Zeichenkette(n) der Eingaben am Ende der URL anhängt. Bei einem Textfeld »name« mit der Benutzereingabe »Wolf« sieht die URL wie folgt aus:\n http://www.pronix.de/cgi-bin/script.cgi?name=wolf\n Befindet sich jetzt hier auch noch ein weiteres Textfeld namens »vorname« und die Benutzereingabe lautet »John«, so sieht die URL wie folgt aus:\n http://www.pronix.de/cgi-bin/script.cgi?name=wolf&vorname=john\n Das Ampersandzeichen & dient hier als Trenner zwischen den einzelnen Variablen/Werte-Paaren. Der Webserver entfernt gewöhnlich diese Zeichenkette und übergibt dies der Variablen QUERY_STRING. Den QUERY_STRING auszuwerten ist die Aufgabe des Programmierers.\n Die zweite Möglichkeit ist die Übergabe der Werte mit der POST-Methode. Bei ihr werden die Daten nicht in einer der Umgebungsvariablen abgelegt, sondern in die Standardeingabe (stdin). Sie können somit die CGI-Anwendung so schreiben, als würde die Eingabe von der Tastatur vorgenommen.\n Damit Sie sich schon ein Bild vom folgenden Beispiel machen können, soll hier das HTML-Formular bereits erstellt werden, in das anschließend die Eingabe des Benutzers vorgenommen werden kann:\n Kontakt

Kontakt-Formular

 Name : 
Email:
Ihre Nachricht:

\n Das Formular zeigt Abbildung 15.7.\n In der Zeile\n
\" echo \"Vielen Dank fuer Ihre Anfrage!\" echo \"\" exit 0\n Das Script bei der Ausführung:\n Wenn Sie jetzt einen Blick in Ihr Mail-Postfach werfen, werden Sie eine entsprechende E-Mail finden, die zeigt, was im Kontakt-Formular eingegeben wurde.\n 15.6.7 Noch ein Tipp \n Natürlich ist anzumerken, dass Sie nur einen ersten Einblick zum Thema CGI erhalten haben. Wie bereits erwähnt, können Sie sich hierzu auf meiner Homepage http://www.pronix.de (allerdings in der Programmiersprache C) einen etwas umfangreicheren Überblick verschaffen, falls, Sie mehr Informationen dazu benötigen.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## 15.6 CGI (Common Gateway Interface)Â\n\nCGI ist eine Schnittstelle, mit der Sie z. B. Anwendungen für das Internet schreiben können. Diese CGI-Anwendungen laufen dabei auf einem (Web-)Server (wie beispielsweise dem Apache) und werden meistens von einer HTML-Webseite mithilfe eines Webbrowsers aufgerufen.\n\nDas Verfahren der CGI-Schnittstelle ist ziemlich einfach. Die Daten werden ganz normal von der Standardeingabe (stdin) oder von den Umgebungsvariablen empfangen und wenn nötig über die Standardausgabe (stdout) ausgegeben. Im Allgemeinen handelt es sich dabei um ein dynamisch erzeugtes HTML-Dokument, das Sie in Ihrem Browser betrachten können. Sind diese Voraussetzungen gegeben, können CGI-Anwendungen praktisch mit jeder Programmiersprache erstellt werden. Das CGI-Programm selbst, welches Sie erstellen, ist ein ausführbares Programm auf dem Webserver, das nicht von einem normalen User gestartet wird, sondern vom Webserver als ein neuer Prozess.\n\nNormalerweise setzt man für CGI-Scripts die Programmiersprachen Perl, PHP, Java, Python, Ruby oder C ein, aber im Grunde ist die Sprache absolut zweitrangig. Die Hauptsache ist, dass sie eine Standardein- und eine Standardausgabe besitzt und selbstverständlich auf dem Rechner, auf dem diese ausgeführt wird, auch verstanden wird. Für kleinere Auf- bzw. Ausgaben können Sie selbstverständlich auch ein Shellscript verwenden. Damit können Sie beinahe alle Shellscripts, die Sie in diesem Buch geschrieben haben, auch über den Browser aufrufen und ausführen lassen.\n\nAuch wenn es sich recht aufregend anhört, CGI-Scripts in Shell zu erstellen, finden Sie hier nur einen kurzen Anriss zu diesem Thema. Vorwiegend geht es mir darum, dass Sie mithilfe der Shellscripts eine Art Schnittstelle für Ihre geschrieben Shellscripts schreiben können, beispielsweise um die Auswertung von access_log auf dem Browser vorzunehmen.\n\n### 15.6.1 CGI-Scripts ausführenÂ\n\nUm CGI-Scripts auf einem Server auszuführen, ist leider mehr als nur ein Browser erforderlich. Sofern Sie den ganzen Vorgang lokal testen wollen, benötigen Sie einen laufenden Webserver (im Beispiel ist immer vom Apache Webserver die Rede). Das Ganze ist gerade für Anfänger nicht ganz so einfach nachzuvollziehen. Einfach haben Sie es natürlich, wenn Sie Ihre Scripts auf einem bereits konfigurierten Webserver ausführen können â wie dies etwa bei einem Webhoster der Fall ist.\n\nZuerst müssen Sie herausfinden, wo Sie die Shellscripts auf Ihrem Webserver ausführen können, gewöhnlich ist dies im /cgi-bin-Verzeichnis. Allerdings kann man einen Webserver auch so konfigurieren (httpd.conf), dass man aus jedem Unterverzeichnis ein Script ausführen kann. In der Regel verwendet man als Dateiendung ».cgi«. Wenn es nicht möglich ist, ein CGI-Script auszuführen, kann es sein, dass Sie die Option ExecCGI in der Konfigurationsdatei httpd.conf anpassen oder die Schnittstelle mit der Datei .htaccess aktivieren müssen. Außerdem muss beachtet werden, dass dieses Script für jedermann lesbar und ausführbar ist, weil die meisten Webserver eine Webanfrage als User nobody oder similar ausführen. Leider kann ich hier nicht im Detail darauf eingehen, daher hierzu nochmals kurz die nötigen (möglichen) Schritte, um ein CGI-Script auf einem Webserver auszuführen (entsprechende Rechte vorausgesetzt):\n\n | Setzen Sie die Zugriffsrechte für das entsprechende Script (chmod go+rx script.cgi). |\n | --- | --- |\n\n | Starten Sie den Webserver, falls dies nicht schon geschehen ist. |\n | --- | --- |\n\n### 15.6.2 CGI-Environment ausgebenÂ\n\n | HTTP-Anfrage-Header des Webbrowsers |\n | --- | --- |\n\nDas Script bei der Ausführung sehen Sie in Abbildung 15.1.\n\nEinen Hinweis noch zu:\n > echo \"Content-type: text/html\"\n\nDamit teilen Sie dem Webserver mit, dass Ihre CGI-Anwendung ein bestimmtes Dokument ausgibt (Content-Type-Dokument). Im Beispiel handelt es sich um ein HTML-Dokument. Außerdem ist es von Bedeutung, dass hinter dieser Angabe zwei Newline-Zeichen stehen (hier durch die beiden echo-Aufrufe). Damit signalisieren Sie dem Webserver, dass es sich um die letzte »Headerzeile« handelt.\n\n### 15.6.3 Einfache Ausgabe als TextÂ\n\nÄhnlich einfach wie die Ausgabe der Umgebungsvariablen lässt sich jede andere Ausgabe auf dem Browser realisieren. Wollen Sie zum Beispiel ein Shellscript über einen Link starten, so müssen Sie sich nur ein HTML-Dokument wie folgt zusammenbasteln:\n > TestCGIs Ein Link /cgi-bin/areader.cgi?/srv/www/htdocs/docs/kap003.txt\n\nbesteht also aus zwei Werten, dem Pfad zum Shellscript\n > /cgi-bin/areader.cgi\n\nund dem ersten Positionsparameter (Query-String)\n > /srv/www/htdocs/docs/kap003.txt\n\nEin solcher Query-String kann natürlich ganz andere Formen annehmen, dazu aber später mehr. Hierzu nun das Shellscript areader.cgi:\n > #!/bin/sh # Name: areader.cgi echo \"Content-type: text/plain\" echo cat $1 exit 0\n\nDie Ausführung ist in Abbildung 15.3 zu sehen.\n\n# Sicherheitsbedenken\n\nNatürlich dienen diese Beispiele nur als Mittel zum Zweck, um Ihnen zu demonstrieren, wie Sie Shellscripts auch als CGI-Scripts verwenden können, ohne allerdings den Sicherheitsaspekt zu berücksichtigen. Denn im Grunde ist die Zeile\n > /cgi-bin/areader.cgi?/srv/www/htdocs/docs/kap003.txt\n\nein ganz böses Foul, das Hackern Tür und Tor öffnet. Manipuliert man diese Zeile um in\n > /cgi-bin/areader.cgi?/etc/passwd /cgi-bin/areader.cgi?/etc/shadow\n\nkann der Angreifer in aller Ruhe zu Hause per »Brute Force« das Passwort knacken (sofern dies nicht allzu stark ist â was leider meistens der Fall ist). Zumindest kann der Angreifer auf jeden Fall Systeminformationen sammeln, um eventuelle Schwachstellen des Rechners aufzuspüren.\n\nEin sicherere Alternative wäre es beispielsweise, die Usereingabe auf [a-z] zu prüfen. Wenn andere Zeichen vorkommen, dann abbrechen, und ansonsten den Pfad und die Endung vom Script ergänzen lassen.\n > if echo $1 | grep -q '[^a-z]' then echo Schlingel exit 0 fi file=\"/pfad/nach/irgendwo/$1.txt\" if [ -e $file ] then echo Nueschte exit 0 fi\n\nDes Weiteren sollten Sie bei CGI-Programmen immer 0 zurückgeben, wenn alles glatt verlaufen ist, damit überhaupt etwas auf dem Bildschirm ausgegeben wird. Bei vielen Installationen entsteht nämlich bei Rückgabe ungleich 0 der 500er-Fehler.\n\n### 15.6.4 Ausgabe als HTML formatierenÂ\n\nIn der Praxis werden Sie wohl kaum immer nur reinen Text ausgeben, sondern die Ausgabe mit vielen HTML- oder CSS-Elementen verschönern wollen. Im Gegensatz zum Beispiel zuvor ist hierfür nicht allzu viel nötig (geringe HTML-Kenntnisse vorausgesetzt). Zuerst wieder das HTML-Dokument (unverändert):\n > TestCGIs Ein Link #!/bin/sh # a_html_reader.cgi echo \"Content-type: text/html\" echo \"\" cat << HEADER Ausgabe der Datei: $1

Ausgabe der Datei: $1


 HEADER cat $1 cat << FOOTER 


Ende Ausgabe der Datei: $1


FOOTER exit 0\n\nDas Script bei der Ausführung zeigt Abbildung 15.4.\n\nSoweit haben Sie nun eine HTML-formatierte Ausgabe. Allerdings ist es noch praktischer, den HTML-Teil wiederum in eine extra Datei auszulagern. Dies erhält zum einen die Übersicht des Shellscripts, und zum anderen kann man jederzeit das »Layout« gegen ein anderes austauschen. Ich teile z. B. die beiden Bereiche um den eigentlichen Arbeitsteil des Shellscripts in einen Kopfteil (header.txt) und einen Fußteil (footer.txt) auf. Zuerst die Datei header.txt:\n > Ein Titel

Ausgabe Anfang:



Ende der Ausgabe


#!/bin/sh echo \"Content-type: text/html\" echo \"\" cat /srv/www/htdocs/docs/header.txt cat $1 cat /srv/www/htdocs/docs/footer.txt exit 0\n\n### 15.6.5 Systeminformationen ausgebenÂ\n\nWie Sie im Beispiel eben den Befehl cat verwendet haben, so können Sie auch alle anderen Kommandos (je nach Rechten) bzw. ganze Shellscripts ausführen. Das folgende Script gibt z. B. Auskunft über alle aktuell laufenden Prozesse:\n > #!/bin/sh # Name: html_ps.cgi echo \"Content-type: text/html\" echo cat /srv/www/htdocs/docs/header.txt ps -ef cat /srv/www/htdocs/docs/footer.txt exit 0\n\nDas Script bei der Ausführung zeigt Abbildung 15.5.\n\nEbenso einfach können Sie hierbei auch andere Shellscripts ausführen lassen. Sinnvoll erscheint mir hierbei die Ausgabe von access_log und error_log. Das folgende Beispiel verwendet das Script readaccess aus Abschnitt 15.5.1:\n > #!/bin/sh # Name: html_access_log.cgi # Apaches access_log analysieren und ausgeben echo \"Content-type: text/html\" echo cat /srv/www/htdocs/docs/header.txt ./readaccess /pfad/zum/logfile/access_log cat /srv/www/htdocs/docs/footer.txt exit 0\n\nAbbildung 15.6 zeigt das Script bei der Ausführung.\n\nSie sehen, CGI-Scripts können mit der Shell beinahe unbegrenzt verwendet werden.\n\n### 15.6.6 KontaktformularÂ\n\nEin Kontaktformular erfordert eine Eingabe vom Benutzer. Dies auszuwerten, ist wiederum nicht ganz so einfach. Zunächst muss man festlegen, mit welcher Methode diese Daten empfangen werden. Hierbei gibt es die Möglichkeit GET, bei der der Browser die Zeichenkette(n) der Eingaben am Ende der URL anhängt. Bei einem Textfeld »name« mit der Benutzereingabe »Wolf« sieht die URL wie folgt aus:\n > http://www.pronix.de/cgi-bin/script.cgi?name=wolf\n\nBefindet sich jetzt hier auch noch ein weiteres Textfeld namens »vorname« und die Benutzereingabe lautet »John«, so sieht die URL wie folgt aus:\n > http://www.pronix.de/cgi-bin/script.cgi?name=wolf&vorname=john\n\nDas Ampersandzeichen & dient hier als Trenner zwischen den einzelnen Variablen/Werte-Paaren. Der Webserver entfernt gewöhnlich diese Zeichenkette und übergibt dies der Variablen QUERY_STRING. Den QUERY_STRING auszuwerten ist die Aufgabe des Programmierers.\n\nDie zweite Möglichkeit ist die Übergabe der Werte mit der POST-Methode. Bei ihr werden die Daten nicht in einer der Umgebungsvariablen abgelegt, sondern in die Standardeingabe (stdin). Sie können somit die CGI-Anwendung so schreiben, als würde die Eingabe von der Tastatur vorgenommen.\n\nDamit Sie sich schon ein Bild vom folgenden Beispiel machen können, soll hier das HTML-Formular bereits erstellt werden, in das anschließend die Eingabe des Benutzers vorgenommen werden kann:\n > Kontakt

Kontakt-Formular

 Name : 
Email:
Ihre Nachricht:

name=Juergen+Wolf&email=pronix%40t-online.de&comments= Eine+Tolle+%22Seite%22+hast+Du+da%21\n\nAlso noch lange nicht das gewünschte Ergebnis. Um hieraus die Ergebnisse zu extrahieren, müssen Sie die Standardeingabe parsen, sprich lesefreundlich dekodieren. Ein Überblick über die Zeichen, die hier von besonderer Bedeutung sind:\n\n > name=Juergen+Wolf email=pronix%40t-online.de comments= Eine+Tolle+%22Seite%22+hast+Du+da%21\n\n | + â damit werden die Leerzeichen der eingegebenen Daten getrennt. |\n | --- | --- |\n\nDie ersten drei Punkte können Sie bspw. folgendermaßen dekodieren:\n > tr '&+=' '\\n \\t'\n\nHiermit ersetzen Sie das Zeichen »&« durch ein Newline-Zeichen, das »+«-Zeichen durch ein Leerzeichen und das »=«-Zeichen durch ein Tabulatorzeichen.\n\nDie hexadezimale Ziffer dekodieren Sie mit einer einzelnen sed-Zeile:\n > echo -e `sed 's/%\\(..\\)/\\\\\\x\\1/g'`\n\nMehr ist nicht erforderlich, um den Eingabestring von einem HTML-Formular zu parsen. Das folgende Script wertet den Inhalt eines solchen Kontaktformulars aus und sendet diesen mit sendmail an die Adresse »empfaenger«. Am Ende wird noch eine HTML-Seite als Bestätigung auf dem Browser erzeugt.\n > #!/bin/sh # Name: contact.cgi # Auswerten der Formmail empfaenger=\"you@host\" ( cat << MAIL From: www@`hostname` To: $empfaenger Subject: Kontakt-Anfrage Ihrer Webseite Inhalt der Eingabe lautet: MAIL # Eingabestring dekodieren cat â | tr '&+=' '\\n \\t' | echo -e `sed 's/%\\(..\\)/\\\\\\x\\1/g'` echo \"\" echo \"Abgeschickt am `date`\" ) | sendmail -t echo \"Content-type: text/html\" echo \"\" echo \"\" echo \"Vielen Dank fuer Ihre Anfrage!\" echo \"\" exit 0\n\nWenn Sie jetzt einen Blick in Ihr Mail-Postfach werfen, werden Sie eine entsprechende E-Mail finden, die zeigt, was im Kontakt-Formular eingegeben wurde.\n\n### 15.6.7 Noch ein TippÂ\n\nNatürlich ist anzumerken, dass Sie nur einen ersten Einblick zum Thema CGI erhalten haben. Wie bereits erwähnt, können Sie sich hierzu auf meiner Homepage http://www.pronix.de (allerdings in der Programmiersprache C) einen etwas umfangreicheren Überblick verschaffen, falls, Sie mehr Informationen dazu benötigen.\n\n# A.3 Shell-OptionenÂ\n\nA.3 Shell-Optionen \n Mit den Shell-Optionen können Sie das Verhalten der Shell steuern. Die einzelnen Optionen werden mit dem Kommando set gesetzt oder abgeschaltet. Mit einem + schalten Sie eine Option ab und mit einem â ein.\n # Eine Option einschalten set -opt # Eine Option abschalten set +opt\n Hier folgt nun eine Tabelle zu den gängigsten Optionen der verschiedenen Shells:\n\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\nA.3 Shell-Optionen \n Mit den Shell-Optionen können Sie das Verhalten der Shell steuern. Die einzelnen Optionen werden mit dem Kommando set gesetzt oder abgeschaltet. Mit einem + schalten Sie eine Option ab und mit einem â ein.\n # Eine Option einschalten set -opt # Eine Option abschalten set +opt\n Hier folgt nun eine Tabelle zu den gängigsten Optionen der verschiedenen Shells:\n\n## A.3 Shell-OptionenÂ\n\nMit den Shell-Optionen können Sie das Verhalten der Shell steuern. Die einzelnen Optionen werden mit dem Kommando set gesetzt oder abgeschaltet. Mit einem + schalten Sie eine Option ab und mit einem â ein.\n > # Eine Option einschalten set -opt # Eine Option abschalten set +opt\n\nHier folgt nun eine Tabelle zu den gängigsten Optionen der verschiedenen Shells:\n\nOption | Shell | Bedeutung |\n | --- | --- | --- |\nâa | sh, ksh, bash | Alle neu angelegten oder veränderten Variablen werden automatisch exportiert. |\nâA array wert1 ... | ksh | Belegt ein Array mit Werten |\nâb | ksh, bash | Informiert den User über beendete Hintergrundjobs |\nâc argument | sh, ksh, bash | Die als argument angegeben Kommandoliste wird verwendet und ausgeführt. |\nâC | ksh, bash | Verhindert das Überschreiben einer Datei via Umleitung (kommando > datei) |\nâe | sh, ksh, bash | Beendet die Shell, wenn ein Kommando nicht ordnungsmäßig ausgeführt wurde |\nâf | sh, ksh, bash | Schaltet die Dateinamen-Expansion ab |\nâh | sh, ksh, bash | Damit merkt sich die Shell die Lage der Kommandos, die innerhalb von Funktionen auftauchen, schon beim Lesen der Funktion â nicht, wie gewöhnlich, bei deren Ausführung. |\nâi | sh, ksh, bash | Startet eine interaktive Subshell |\nân | sh, ksh, bash | Liest und testet ein Script auf syntaktische Korrektheit; führt das Script nicht aus |\nâr | sh, ksh, bash | Shell wird als »restricted« Shell ausgeführt |\nâs arg(s) | sh | Startet wie âi eine interaktive Subshell, nur werden die eventuell angegebenen Argumente als Positionsparameter mit übergeben |\nâs | ksh, bash | Sortiert die Positionsparameter alphabetisch |\nât | sh, ksh, bash | Die Shell nach dem ersten Befehl verlassen (ausführen und nichts wie weg) |\nâu | sh, ksh, bash | Werden undefinierte Variablen verwendet, wird eine Fehlermeldung ausgegeben. |\nâv | sh, ksh, bash | Jede Zeile wird vor ihrer Ausführung unverändert angezeigt. |\nâx | sh, ksh, bash | Jede Zeile wird vor ihrer Ausführung nach allen Ersetzungen angezeigt. |\n\n# A.5 Kommandozeile editierenÂ\n\nA.5 Kommandozeile editieren \n Da Sie als Programmierer mit der interaktiven Shell zu tun haben, sollten Sie auch wissen, wie Sie effektiver mit der Kommandozeile arbeiten können. Abgesehen von der Bourne-Shell bieten Ihnen hierzu die bash und ksh unzählige Tastenkommandos an, weshalb ich mich hier nur auf das Nötigste und Gängigste beschränke.\n Zunächst muss angemerkt werden, dass die reine, »echte« Bourne-Shell überhaupt keine Möglichkeit hat, die Kommandozeile zu editieren bzw. gibt es hierbei auch keinerlei Kommando-History. Dies war übrigens u. a. auch ein Grund, weshalb weitere Shell-Varianten entwickelt wurden. Dies sollte erwähnt werden, nur für den Fall, dass Sie auf einmal vor einer Shell sitzen und geliebte Tasten- bzw. Tastenkombinationen nicht mehr funktionieren und stattdessen irgendwelche kryptischen Zeichen ausgegeben werden.\n Die folgende Tabelle listet jeweils die wichtigsten Tasten- bzw. Tastenkombinationen des Emacs-Modus (bspw. (Strg)+(P) für »History nach oben durchlaufen«) und die Pfeil- und Metatasten auf. Den Emacs-Modus muss man mit\n set -o emacs\n aktivieren. Wenn Sie in der Korn-Shell die Pfeiltasten wie in der Bash nutzen wollen, müssen Sie einen Eintrag in der Startdatei .kshrc im Heimverzeichnis des Benutzers vornehmen. Mehr dazu im Anschluss dieser Tabelle. Neben dem Emacs-Modus gibt es auch den vi-Modus, worauf allerdings in diesem Buch nicht eingegangen wird.\n\n Tabelle A.8  Tastenkombinationen zum Editieren der Kommandozeile\n\n Tastendruck\n Bedeutung\n\n (?) (Strg)+(P)\n Die Befehls-History nach oben durchlaufen\n\n (?) (Strg)+(N)\n Die Befehls-History nach unten durchlaufen\n\n (?) (Strg)+(B)\n Ein Zeichen nach links in der Kommandozeile\n\n (?) (Strg)+(F)\n Ein Zeichen nach rechts in der Kommandozeile\n\n (Pos1) (Strg)+(A)\n Cursor an den Anfang der Kommandozeile setzen\n\n (Ende) (Strg)+(E)\n Cursor an das Ende der Kommandozeile setzen\n\n (Del) (Strg)+(D)\n Zeichen rechts vom Cursor löschen\n\n (Backspace) (Strg)+(H)\n Zeichen links vom Cursor löschen\n\n (Strg)+(K)\n Alles bis zum Zeilenende löschen\n\n (Strg)+(R)\n Sucht rückwärts in der History nach einem Befehl\n\n (Strg)+(S)\n Sucht vorwärts in der History nach einem Befehl\n\n (\\)+(ENTER)\n Kommando in der nächsten Zeile fortsetzen\n\n (Strg)+(T)\n Zwei letzte Zeichen vertauschen\n\n (Strg)+(L)\n Bildschirm löschen\n\n (Strg)+(_)\n Letzte Änderung(en) aufheben (rückgängig machen)\n\n Nun zu den Einträgen in .kshrc, damit Ihnen auch hier die Pfeiltasten zur Verfügung stehen:\n alias __A=Strg+P alias __B=Strg+N alias __C=Strg+F alias __D=Strg+B alias __H=Strg+A alias __Y=Strg+E set -o emacs\n Zusätzlich bieten Ihnen die Bash und die Korn-Shell im Emacs-Modus eine Autovervollständigung an. Geben Sie z. B. in der Bash Folgendes an\n you@host > cd(Ë_) cd cd.. cddaslave cdinfo cdparanoia cdrdao cdrecord\n werden Ihnen sämtliche Befehle aufgelistet, die mit »cd« beginnen. Machen Sie hierbei weiter\n you@host > cdi(Ë_)\n wird daraus automatisch:\n you@host > cdinfo\n Dies funktioniert natürlich auch mit Dateinamen:\n you@host > cp thr(Ë_)\n Daraus wird hier:\n you@host > cp thread1.c\n Gleiches funktioniert natürlich auch bei der Korn-Shell. Allerdings muss hier anstatt der Taste (Ë_) zweimal (ESC) gedrückt werden, damit ein Kommando, eine Datei oder Verzeichnis vervollständigt wird. Voraussetzung ist hier natürlich auch, dass der Emacs-Modus aktiv ist.\n Ihre Meinung\n Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an .\n\n## A.5 Kommandozeile editierenÂ\n\nDa Sie als Programmierer mit der interaktiven Shell zu tun haben, sollten Sie auch wissen, wie Sie effektiver mit der Kommandozeile arbeiten können. Abgesehen von der Bourne-Shell bieten Ihnen hierzu die bash und ksh unzählige Tastenkommandos an, weshalb ich mich hier nur auf das Nötigste und Gängigste beschränke.\n\nZunächst muss angemerkt werden, dass die reine, »echte« Bourne-Shell überhaupt keine Möglichkeit hat, die Kommandozeile zu editieren bzw. gibt es hierbei auch keinerlei Kommando-History. Dies war übrigens u. a. auch ein Grund, weshalb weitere Shell-Varianten entwickelt wurden. Dies sollte erwähnt werden, nur für den Fall, dass Sie auf einmal vor einer Shell sitzen und geliebte Tasten- bzw. Tastenkombinationen nicht mehr funktionieren und stattdessen irgendwelche kryptischen Zeichen ausgegeben werden.\n\nDie folgende Tabelle listet jeweils die wichtigsten Tasten- bzw. Tastenkombinationen des Emacs-Modus (bspw. (Strg)+(P) für »History nach oben durchlaufen«) und die Pfeil- und Metatasten auf. Den Emacs-Modus muss man mit\n > set -o emacs\n\naktivieren. Wenn Sie in der Korn-Shell die Pfeiltasten wie in der Bash nutzen wollen, müssen Sie einen Eintrag in der Startdatei .kshrc im Heimverzeichnis des Benutzers vornehmen. Mehr dazu im Anschluss dieser Tabelle. Neben dem Emacs-Modus gibt es auch den vi-Modus, worauf allerdings in diesem Buch nicht eingegangen wird.\n\nTastendruck | Bedeutung |\n | --- | --- |\n(?) (Strg)+(P) | Die Befehls-History nach oben durchlaufen |\n(?) (Strg)+(N) | Die Befehls-History nach unten durchlaufen |\n(?) (Strg)+(B) | Ein Zeichen nach links in der Kommandozeile |\n(?) (Strg)+(F) | Ein Zeichen nach rechts in der Kommandozeile |\n(Pos1) (Strg)+(A) | Cursor an den Anfang der Kommandozeile setzen |\n(Ende) (Strg)+(E) | Cursor an das Ende der Kommandozeile setzen |\n(Del) (Strg)+(D) | Zeichen rechts vom Cursor löschen |\n(Backspace) (Strg)+(H) | Zeichen links vom Cursor löschen |\n(Strg)+(K) | Alles bis zum Zeilenende löschen |\n(Strg)+(R) | Sucht rückwärts in der History nach einem Befehl |\n(Strg)+(S) | Sucht vorwärts in der History nach einem Befehl |\n(\\)+(ENTER) | Kommando in der nächsten Zeile fortsetzen |\n(Strg)+(T) | Zwei letzte Zeichen vertauschen |\n(Strg)+(L) | Bildschirm löschen |\n(Strg)+(_) | Letzte Änderung(en) aufheben (rückgängig machen) |\n\nNun zu den Einträgen in .kshrc, damit Ihnen auch hier die Pfeiltasten zur Verfügung stehen:\n > alias __A=Strg+P alias __B=Strg+N alias __C=Strg+F alias __D=Strg+B alias __H=Strg+A alias __Y=Strg+E set -o emacs\n\nZusätzlich bieten Ihnen die Bash und die Korn-Shell im Emacs-Modus eine Autovervollständigung an. Geben Sie z. B. in der Bash Folgendes an\n > you@host > cd(Ë_) cd cd.. cddaslave cdinfo cdparanoia cdrdao cdrecord\n\nwerden Ihnen sämtliche Befehle aufgelistet, die mit »cd« beginnen. Machen Sie hierbei weiter\n > you@host > cdi(Ë_)\n\nwird daraus automatisch:\n > you@host > cdinfo\n\nDies funktioniert natürlich auch mit Dateinamen:\n > you@host > cp thr(Ë_)\n\nDaraus wird hier:\n > you@host > cp thread1.c\n\nGleiches funktioniert natürlich auch bei der Korn-Shell. Allerdings muss hier anstatt der Taste (Ë_) zweimal (ESC) gedrückt werden, damit ein Kommando, eine Datei oder Verzeichnis vervollständigt wird. Voraussetzung ist hier natürlich auch, dass der Emacs-Modus aktiv ist.\n\n# A.6 Wichtige Tastenkürzel (Kontrolltasten)Â\n\n# A.7 Initialisierungsdateien der ShellsÂ\n\n# A.8 SignaleÂ\n\nA.8 Signale \n\n Versandkostenfrei bestellen in Deutschland, Ãsterreich und der SchweizInfo\nA.8 Signale \n\n# A.9 Sonderzeichen und ZeichenklassenÂ"}}},{"rowIdx":161,"cells":{"project":{"kind":"string","value":"plotmo"},"source":{"kind":"string","value":"cran"},"language":{"kind":"string","value":"R"},"content":{"kind":"string","value":"Package ‘plotmo’\n October 14, 2022\nVersion 3.6.2\nTitle Plot a Model's Residuals, Response, and Partial Dependence Plots\nAuthor \nMaintainer <>\nDepends R (>= 3.4.0), Formula (>= 1.2-3), plotrix, TeachingDemos\nDescription Plot model surfaces for a wide variety of models\n using partial dependence plots and other techniques.\n Also plot model residuals and other information on the model.\nSuggests C50 (>= 0.1.0-24), earth (>= 5.1.2), gbm (>= 2.1.1), glmnet\n (>= 2.0.5), glmnetUtils (>= 1.0.3), MASS (>= 7.3-51), mlr (>=\n 2.12.1), neuralnet (>= 1.33), partykit (>= 1.2-2), pre (>=\n 0.5.0), rpart (>= 4.1-15), rpart.plot (>= 3.0.8)\nLicense GPL-3\nURL http://www.milbo.users.sonic.net\nNeedsCompilation no\nRepository CRAN\nDate/Publication 2022-05-21 19:30:02 UTC\nR topics documented:\nplotm... 2\nplotmo.mis... 8\nplotre... 10\nplot_gb... 15\nplot_glmne... 17\n plotmo Plot a model’s response over a range of predictor values (the model\n surface)\nDescription\n Plot model surfaces for a wide variety of models.\n This function plots the model’s response when varying one or two predictors while holding the other\n predictors constant (a poor man’s partial-dependence plot).\n It can also generate partial-dependence plots (by specifying pmethod=\"partdep\").\n Please see the plotmo vignette (also available here).\nUsage\n plotmo(object=stop(\"no 'object' argument\"),\n type=NULL, nresponse=NA, pmethod=\"plotmo\",\n pt.col=0, jitter=.5, smooth.col=0, level=0,\n func=NULL, inverse.func=NULL, nrug=0, grid.col=0,\n type2=\"persp\",\n degree1=TRUE, all1=FALSE, degree2=TRUE, all2=FALSE,\n do.par=TRUE, clip=TRUE, ylim=NULL, caption=NULL, trace=0,\n grid.func=NULL, grid.levels=NULL, extend=0,\n ngrid1=50, ngrid2=20, ndiscrete=5, npoints=3000,\n center=FALSE, xflip=FALSE, yflip=FALSE, swapxy=FALSE, int.only.ok=TRUE,\n ...)\nArguments\n object The model object.\n type Type parameter passed to predict. For allowed values see the predict method\n for your object (such as predict.earth). By default, plotmo tries to automat-\n ically select a suitable value for the model in question (usually \"response\") but\n this will not always be correct. Use trace=1 to see the type argument passed\n to predict.\n nresponse Which column to use when predict returns multiple columns. This can be a\n column index, or a column name if the predict method for the model returns\n column names. The column name may be abbreviated, partial matching is used.\n pmethod Plotting method. One of:\n \"plotmo\" (default) Classic plotmo plots i.e. the background variables are fixed\n at their medians (or first level for factors).\n \"partdep\" Partial dependence plots, i.e. at each point the effect of the back-\n ground variables is averaged.\n \"apartdep\" Approximate partial dependence plots. Faster than \"partdep\" es-\n pecially for big datasets. Like \"partdep\" but the background variables are av-\n eraged over a subset of ngrid1 cases (default 50), rather than all cases in the\n training data. The subset is created by selecting rows at equally spaced inter-\n vals from the training data after sorting the data on the response values (ties are\n randomly broken).\n The same background subset of ngrid1 cases is used for both degree1 and de-\n gree2 plots.\n pt.col The color of response points (or response sites in degree2 plots). This refers to\n the response y in the data used to build the model. Note that the displayed points\n are jittered by default (see the jitter argument).\n Default is 0, display no response points.\n This can be a vector, like all such arguments – for example pt.col = as.numeric(survived)+2\n to color points by their survival class.\n You can modify the plotted points with pt.pch, pt.cex, etc. (these get passed\n via plotmo’s “...” argument). For example, pt.cex = weights to size points\n by their weight. To label the points, set pt.pch to a character vector.\n jitter Applies only if pt.col is specified.\n The default is jitter=.5, automatically apply some jitter to the points. Points\n are jittered horizontally and vertically.\n Use jitter=0 to disable this automatic jittering. Otherwise something like\n jitter=1, but the optimum value is data dependent.\n smooth.col Color of smooth line through the response points. (The points themselves will\n not be plotted unless pt.col is specified.) Default is 0, no smooth line.\n Example:\n mod <- lm(Volume~Height, data=trees)\n plotmo(mod, pt.color=1, smooth.col=2)\n You can adjust the amount of smoothing with smooth.f. This gets passed as f\n to lowess. The default is .5. Lower values make the line more wiggly.\n level Draw estimated confidence or prediction interval bands at the given level, if\n the predict method for the model supports them.\n Default is 0, bands not plotted. Else a fraction, for example level=.95. See\n “Prediction intervals” in the plotmo vignette. Example:\n mod <- lm(log(Volume)~log(Girth), data=trees)\n plotmo(mod, level=.95)\n You can modify the color of the bands with level.shade and level.shade2.\n func Superimpose func(x) on the plot. Example:\n mod <- lm(Volume~Girth, data=trees)\n estimated.volume <- function(x) .17 * x$Girth^2\n plotmo(mod, pt.col=2, func=estimated.volume)\n The func is called for each plot with a single argument which is a dataframe\n with columns in the same order as the predictors in the formula or x used to\n build the model. Use trace=2 to see the column names and first few rows of\n this dataframe.\n inverse.func A function applied to the response before plotting. Useful to transform a trans-\n formed response back to the original scale. Example:\n mod <- lm(log(Volume)~., data=trees)\n plotmo(mod, inverse.func=exp) # exp() is inverse of log()\n nrug Number of ticks in the rug along the bottom of the plot\n Default is 0, no rug.\n Use nrug=TRUE for all the points.\n Else specify the number of quantiles e.g. use nrug=10 for ticks at the 0, 10, 20,\n ..., 100 percentiles.\n Modify the rug ticks with rug.col, rug.lwd, etc.\n The special value nrug=\"density\" means plot the density of the points along\n the bottom. Modify the density plot with density.adjust (default is .5),\n density.col, density.lty, etc.\n grid.col Default is 0, no grid. Else add a background grid of the specified color to the\n degree1 plots. The special value grid.col=TRUE is treated as \"lightgray\".\n type2 Degree2 plot type. One of \"persp\" (default), \"image\", or \"contour\". You\n can pass arguments to these functions if necessary by using persp., image., or\n contour. as a prefix. Examples:\n plotmo(mod, persp.ticktype=\"detailed\", persp.nticks=3)\n plotmo(mod, type2=\"image\")\n plotmo(mod, type2=\"image\", image.col=heat.colors(12))\n plotmo(mod, type2=\"contour\", contour.col=2, contour.labcex=.4)\n degree1 An index vector specifying which subset of degree1 (main effect) plots to in-\n clude (after selecting the relevant predictors as described in “Which variables\n are plotted?” in the plotmo vignette).\n Default is TRUE, meaning all (the TRUE gets recycled). To plot only the third plot\n use degree1=3. For no degree1 plots use degree1=0.\n Note that degree1 indexes plots on the page, not columns of x. Probably the\n easiest way to use this argument (and degree2) is to first use the default (and\n possibly all1=TRUE) to plot all figures. This shows how the figures are num-\n bered. Then replot using degree1 to select the figures you want, for example\n degree1=c(1,3,4).\n Can also be a character vector specifying which variables to plot. Examples:\n degree1=\"wind\"\n degree1=c(\"wind\", \"vis\").\n Variables names are matched with grep. Thus \"wind\" will match all variables\n with \"wind\" anywhere in their name. Use \"^wind$\" to match only the variable\n named \"wind\".\n all1 Default is FALSE. Use TRUE to plot all predictors, not just those usually selected\n by plotmo.\n The all1 argument increases the number of plots; the degree1 argument re-\n duces the number of plots.\n degree2 An index vector specifying which subset of degree2 (interaction) plots to in-\n clude.\n Default is TRUE meaning all (after selecting the relevant interaction terms as de-\n scribed in “Which variables are plotted?” in the plotmo vignette).\n Can also be a character vector specifying which variables to plot (grep is used\n for matching). Examples:\n degree2=\"wind\" plots all degree2 plots for the wind variable.\n degree2=c(\"wind\", \"vis\") plots just the wind:vis plot.\n all2 Default is FALSE. Use TRUE to plot all pairs of predictors, not just those usually\n selected by plotmo.\n do.par One of NULL, FALSE, TRUE, or 2, as follows:\n do.par=NULL. Same as do.par=FALSE if the number of plots is one; else the\n same as TRUE.\n do.par=FALSE. Use the current par settings. You can pass additional graphics\n parameters in the “...” argument.\n do.par=TRUE (default). Start a new page and call par as appropriate to display\n multiple plots on the same page. This automatically sets parameters like mfrow\n and mar. You can pass additional graphics parameters in the “...” argument.\n do.par=2. Like do.par=TRUE but don’t restore the par settings to their original\n state when plotmo exits, so you can add something to the plot.\n clip The default is clip=TRUE, meaning ignore very outlying predictions when deter-\n mining the automatic ylim. This keeps ylim fairly compact while still covering\n all or nearly all the data, even if there are a few crazy predicted values. See “The\n ylim and clip arguments” in the plotmo vignette.\n Use clip=FALSE for no clipping.\n ylim Three possibilities:\n ylim=NULL (default). Automatically determine a ylim to use across all graphs.\n ylim=NA. Each graph has its own ylim.\n ylim=c(ymin,ymax). Use the specified limits across all graphs.\n caption Overall caption. By default create the caption automatically. Use caption=\"\"\n for no caption. (Use main to set the title of individual plots, can be a vector.)\n trace Default is 0.\n trace=1 (or TRUE) for a summary trace (shows how predict is invoked for the\n current object).\n trace=2 for detailed tracing.\n trace=-1 inhibits the messages usually issued by plotmo, like the plotmo grid:,\n calculating partdep, and nothing to plot messages. Error and warning\n messages will be printed as usual.\n grid.func Function applied to columns of the x matrix to pin the values of variables not on\n the axis of the current plot (the “background” variables).\n The default is a function which for numeric variables returns the median and\n for logical and factors variables returns the value occurring most often in the\n training data.\n Examples:\n plotmo(mod, grid.func=mean)\n grid.func <- function(x, ...) quantile(x)[2] # 25% quantile\n plotmo(mod, grid.func=grid.func)\n This argument is not related to the grid.col argument.\n This argument can be overridden for specific variables—see grid.levels be-\n low.\n grid.levels Default is NULL. Else a list of variables and their fixed value to be used when\n the variable is not on the axis. Supersedes grid.func for variables in the list.\n Names and values can be abbreviated, partial matching is used. Example:\n plotmo(mod, grid.levels=list(sex=\"m\", age=21))\n extend Amount to extend the horizontal axis in each plot. The default is 0, do not\n extend (i.e. use the range of the variable in the training data). Else something\n like extend=.5, which will extend both the lower and upper xlim of each plot\n by 50%.\n This argument is useful if you want to see how the model performs on data that is\n beyond the training data; for example, you want to see how a time-series model\n performs on future data.\n This argument is currently implemented only for degree1 plots. Factors and\n discrete variables (see the ndiscrete argument) are not extended.\n ngrid1 Number of equally spaced x values in each degree1 plot. Default is 50. Also\n used as the number of background cases for pmethod=\"apartdep\".\n ngrid2 Grid size for degree2 plots (ngrid2 x ngrid2 points are plotted). Default is 20.\n The default will sometimes be too small for contour and image plots.\n With large ngrid2 values, persp plots look better with persp.border=NA.\n npoints Number of response points to be plotted (a sample of npoints points is plotted).\n Applies only if pt.col is specified.\n The default is 3000 (not all, to avoid overplotting on large models). Use npoints=TRUE\n or -1 for all points.\n ndiscrete Default 5 (a somewhat arbitrary value). Variables with no more than ndiscrete\n unique values are plotted as quantized in plots (a staircase rather than a curve).\n Factors are always considered discrete. Variables with non-integer values are\n always considered non-discrete.\n Use ndiscrete=0 if you want to plot the response for a variable with just a few\n integer values as a line or a curve, rather than a staircase.\n int.only.ok Plot the model even if it is an intercept-only model (no predictors are used in the\n model). Do this by plotting a single degree1 plot for the first predictor.\n The default is TRUE. Use int.only.ok=FALSE to instead issue an error message\n for intercept-only models.\n center Center the plotted response. Default is FALSE.\n xflip Default FALSE. Use TRUE to flip the direction of the x axis. This argument (and\n yflip and swapxy) is useful when comparing to a plot from another source and\n you want the axes to be the same. (Note that xflip and yflip cannot be used\n on the persp plots, a limitation of the persp function.)\n yflip Default FALSE. Use TRUE to flip the direction of the y axis of the degree2 graphs.\n swapxy Default FALSE. Use TRUE to swap the x and y axes on the degree2 graphs.\n ... Dot arguments are passed to the predict and plot functions. Dot argument names,\n whether prefixed or not, should be specified in full and not abbreviated.\n “Prefixed” arguments are passed directly to the associated function. For exam-\n ple the prefixed argument persp.col=\"pink\" passes col=\"pink\" to persp(),\n overriding the global col setting. To send an argument to predict whose name\n may alias with plotmo’s arguments, use predict. as a prefix. Example:\n plotmo(mod, s=1) # error: arg matches multiple formal args\n plotmo(mod, predict.s=1) # ok now: s=1 will be passed to predict()\n The prefixes recognized by plotmo are:\n predict. passed to the predict method for the model\n degree1. modifies degree1 plots e.g. degree1.col=3, degree1.lwd=2\n persp. arguments passed to persp\n contour. arguments passed to contour\n image. arguments passed to image\n pt. see the pt.col argument (arguments passed to points and text)\n smooth. see the smooth.col argument (arguments passed to lines and lowess)\n level. see the level argument (level.shade, level.shade2, and arguments for polygon)\n func. see the func argument (arguments passed to lines)\n rug. see the nrug argument (rug.jitter, and arguments passed to rug)\n density. see the nrug argument (density.adjust, and arguments passed to lines)\n grid. see the grid.col argument (arguments passed to grid)\n caption. see the caption argument (arguments passed to mtext)\n par. arguments passed to par (only necessary if a par argument name clashes with a plotmo argument)\n prednames. Use prednames.abbreviate=FALSE for full predictor names in graph axes.\n The cex argument is relative, so specifying cex=1 is the same as not specifying\n cex.\n For backwards compatibility, some dot arguments are supported but not explic-\n itly documented. For example, the old argument col.response is no longer\n in plotmo’s formal argument list, but is still accepted and treated like the new\n argument pt.col.\nNote\n In general this function won’t work on models that don’t save the call and data with the model in a\n standard way. For further discussion please see “Accessing the model data” in the plotmo vignette.\n Package authors may want to look at Guidelines for S3 Regression Models (also available here).\n By default, plotmo tries to use sensible model-dependent defaults when calling predict. Use\n trace=1 to see the arguments passed to predict. You can change the defaults by using plotmo’s\n type argument, and by using dot arguments prefixed with predict. (see the description of “...”\n above).\nSee Also\n Please see the plotmo vignette (also available here).\nExamples\n if (require(rpart)) {\n data(kyphosis)\n rpart.model <- rpart(Kyphosis~., data=kyphosis)\n # pass type=\"prob\" to plotmo's internal calls to predict.rpart, and\n # select the column named \"present\" from the matrix returned by predict.rpart\n plotmo(rpart.model, type=\"prob\", nresponse=\"present\")\n }\n if (require(earth)) {\n data(ozone1)\n earth.model <- earth(O3 ~ ., data=ozone1, degree=2)\n plotmo(earth.model)\n # plotmo(earth.model, pmethod=\"partdep\") # partial dependence plots\n }\n plotmo.misc Ignore\nDescription\n Miscellaneous functions exported for internal use by earth and other packages. You can ignore\n these.\nUsage\n # for earth\n plotmo_fitted(object, trace, nresponse, type, ...)\n plotmo_cum(rinfo, info, nfigs=1, add=FALSE,\n cum.col1, grid.col, jitter=0, cum.grid=\"percentages\", ...)\n plotmo_nresponse(y, object, nresponse, trace, fname, type=\"response\")\n plotmo_rinfo(object, type=NULL, residtype=type, nresponse=1,\n standardize=FALSE, delever=FALSE, trace=0,\n leverage.msg=\"returned as NA\", expected.levs=NULL, labels.id=NULL, ...)\n plotmo_predict(object, newdata, nresponse,\n type, expected.levs, trace, inverse.func=NULL, ...)\n plotmo_prolog(object, object.name, trace, ...)\n plotmo_resplevs(object, plotmo_fitted, yfull, trace)\n plotmo_rsq(object, newdata, trace=0, nresponse=NA, type=NULL, ...)\n plotmo_standardizescale(object)\n plotmo_type(object, trace, fname=\"plotmo\", type, ...)\n plotmo_y(object, nresponse=NULL, trace=0, expected.len=NULL,\n resp.levs=NULL, convert.glm.response=!is.null(nresponse))\n ## Default S3 method:\n plotmo.pairs(object, x, nresponse, trace, all2, ...)\n ## Default S3 method:\n plotmo.singles(object, x, nresponse, trace, all1, ...)\n ## Default S3 method:\n plotmo.y(object, trace, naked, expected.len, ...)\n # plotmo methods\n plotmo.convert.na.nresponse(object, nresponse, yhat, type=\"response\", ...)\n plotmo.pairs(object, x, nresponse, trace, all2, ...)\n plotmo.pint(object, newdata, type, level, trace, ...)\n plotmo.predict(object, newdata, type, ..., TRACE)\n plotmo.prolog(object, object.name, trace, ...)\n plotmo.residtype(object, ..., TRACE)\n plotmo.singles(object, x, nresponse, trace, all1, ...)\n plotmo.type(object, ..., TRACE)\n plotmo.x(object, trace, ...)\n plotmo.y(object, trace, naked, expected.len, nresponse=1, ...)\nArguments\n ... -\n add -\n all1 -\n all2 -\n convert.glm.response\n -\n cum.col1 -\n cum.grid -\n delever -\n expected.len -\n expected.levs -\n fname -\n grid.col -\n info -\n inverse.func -\n jitter -\n labels.id -\n level -\n leverage.msg -\n naked -\n newdata -\n nfigs -\n nresponse -\n object.name -\n object -\n plotmo_fitted -\n residtype -\n resp.levs -\n rinfo -\n standardize -\n TRACE -\n trace -\n type -\n x -\n yfull -\n yhat -\n y -\n plotres Plot the residuals of a regression model\nDescription\n Plot the residuals of a regression model.\n Please see the plotres vignette (also available here).\nUsage\n plotres(object = stop(\"no 'object' argument\"),\n which = 1:4, info = FALSE, versus = 1,\n standardize = FALSE, delever = FALSE, level = 0,\n id.n = 3, labels.id = NULL, smooth.col = 2,\n grid.col = 0, jitter = 0,\n do.par = NULL, caption = NULL, trace = 0,\n npoints = 3000, center = TRUE,\n type = NULL, nresponse = NA,\n object.name = quote.deparse(substitute(object)), ...)\nArguments\n object The model object.\n which Which plots do draw. Default is 1:4.\n 1 Model plot. What gets plotted here depends on the model class. For example,\n for earth models this is a model selection plot. Nothing will be displayed for\n some models. For details, please see the plotres vignette.\n 2 Cumulative distribution of abs residuals\n 3 Residuals vs fitted\n 4 QQ plot\n 5 Abs residuals vs fitted\n 6 Sqrt abs residuals vs fitted\n 7 Abs residuals vs log fitted\n 8 Cube root of the squared residuals vs log fitted\n 9 Log abs residuals vs log fitted\n info Default is FALSE. Use TRUE to print extra information as follows:\n i) Display the distribution of the residuals along the bottom of the plot.\n ii) Display the training R-Squared.\n iii) Display the Spearman Rank Correlation of the absolute residuals with the\n fitted values. Actually, correlation is measured against the absolute values of\n whatever is on the horizontal axis — by default this is the fitted response, but\n may be something else if the versus argument is used.\n iv) In the Cumulative Distribution plot (which=2), display additional informa-\n tion on the quantiles.\n v) Only for which=5 or 9. Regress the absolute residuals against the fitted values\n and display the regression slope. Robust linear regression is used via rlm in the\n MASS package.\n vi) Add various annotations to the other plots.\n versus What do we plot the residuals against? One of:\n 1 Default. Plot the residuals versus the fitted values (or the log values when\n which=7 to 9).\n 2 Residuals versus observation number, after observations have been sorted on\n the fitted value. Same as versus=1, except that the residuals are spaced uni-\n formly along the horizontal axis.\n 3 Residuals versus the response.\n 4 Residuals versus the hat leverages.\n \"b:\" Residuals versus the basis functions. Currently only supported for earth,\n mda::mars, and gam::gam models. A optional regex can follow the \"b:\"\n to specify a subset of the terms, e.g. versus=\"b:wind\" will plot terms with\n \"wind\" in their name.\n Else a character vector specifying which predictors to plot against.\n Example 1: versus=\"\" plots against all predictors (since the regex versus=\"\"\n matches anything).\n Example 2: versus=c(\"wind\", \"vis\") plots predictors with wind or vis in\n their name.\n Example 3: versus=c(\"wind|vis\") equivalent to the above.\n Note: These are regexs. Thus versus=\"wind\" will match all variables that\n have \"wind\" in their names. Use \"^wind$\" to match only the variable named\n \"wind\".\n standardize Default is FALSE. Use TRUE to standardize the residuals. Only supported for\n some models, an error message will be issued otherwise.\n Each residual is divided by by se_i * sqrt(1 - h_ii), where se_i is the stan-\n dard error of prediction and h_ii is the leverage (the diagonal entry of the hat\n matrix). When the variance model holds, the standardized residuals are ho-\n moscedastic with unity variance.\n The leverages are obtained using hatvalues. (For earth models the leverages\n are for the linear regression of the response on the basis matrix bx.) A standard-\n ized residual with a leverage of 1 is plotted as a star on the axis.\n This argument applies to all plots where the residuals are used (including the\n cumulative distribution and QQ plots, and to annotations displayed by the info\n argument).\n delever Default is FALSE. Use TRUE to “de-lever” the residuals. Only supported for some\n models, an error message will be issued otherwise.\n Each residual is divided by sqrt(1 - h_ii). See the standardize argument\n for details.\n level Draw estimated confidence or prediction interval bands at the given level, if\n the model supports them.\n Default is 0, bands not plotted. Else a fraction, for example level=0.90. Ex-\n ample:\n mod <- lm(log(Volume)~log(Girth), data=trees)\n plotres(mod, level=.90)\n You can modify the color of the bands with level.shade and level.shade2.\n See also “Prediction intervals” in the plotmo vignette (but note that plotmo\n needs prediction intervals on new data, whereas plotres requires only that the\n model supports prediction intervals on the training data).\n id.n The largest id.n residuals will be labeled in the plot. Default is 3. Special val-\n ues TRUE and -1 or mean all.\n If id.n is negative (but not -1) the id.n most positive and most negative resid-\n uals will be labeled in the plot.\n A current implementation restriction is that id.n is ignored when there are more\n than ten thousand cases.\n labels.id Residual labels. Only used if id.n > 0. Default is the case names, or the case\n numbers if the cases are unnamed.\n smooth.col Color of the smooth line through the residual points. Default is 2, red. Use\n smooth.col=0 for no smooth line.\n You can adjust the amount of smoothing with smooth.f. This gets passed as f\n to lowess. The default is 2/3. Lower values make the line more wiggly.\n grid.col Default is 0, no grid. Else add a background grid of the specified color to the\n degree1 plots. The special value grid.col=TRUE is treated as \"lightgray\".\n jitter Default is 0, no jitter. Passed as factor to jitter to jitter the plotted points\n horizontally and vertically. Useful for discrete variables and responses, where\n the residual points tend to be overlaid.\n do.par One of NULL, FALSE, TRUE, or 2, as follows:\n do.par=NULL (default). Same as do.par=FALSE if the number of plots is one;\n else the same as TRUE.\n do.par=FALSE. Use the current par settings. You can pass additional graphics\n parameters in the “...” argument.\n do.par=TRUE. Start a new page and call par as appropriate to display multiple\n plots on the same page. This automatically sets parameters like mfrow and mar.\n You can pass additional graphics parameters in the “...” argument.\n do.par=2. Like do.par=TRUE but don’t restore the par settings to their original\n state when plotres exits, so you can add something to the plot.\n caption Overall caption. By default create the caption automatically. Use caption=\"\"\n for no caption. (Use main to set the title of an individual plot.)\n trace Default is 0.\n trace=1 (or TRUE) for a summary trace (shows how predict and friends are\n invoked for the model).\n trace=2 for detailed tracing.\n npoints Number of points to be plotted. A sample of npoints is taken; the sample in-\n cludes the biggest twenty or so residuals.\n The default is 3000 (not all, to avoid overplotting on large models). Use npoints=TRUE\n or -1 for all points.\n center Default is TRUE, meaning center the horizontal axis in the residuals plot, so\n asymmetry in the residual distribution is more obvious.\n type Type parameter passed first to residuals and if that fails to predict. For al-\n lowed values see the residuals and predict methods for your object (such as\n residuals.rpart or predict.earth). By default, plotres tries to automati-\n cally select a suitable value for the model in question (usually \"response\"), but\n this will not always be correct. Use trace=1 to see the type argument passed\n to residuals and predict.\n nresponse Which column to use when residuals or predict returns multiple columns.\n This can be a column index or column name (which may be abbreviated, partial\n matching is used).\n object.name The name of the object for error and trace messages. Used internally by\n plot.earth.\n ... Dot arguments are passed to the plot functions. Dot argument names, whether\n prefixed or not, should be specified in full and not abbreviated.\n “Prefixed” arguments are passed directly to the associated function. For ex-\n ample the prefixed argument pt.col=\"pink\" passes col=\"pink\" to points(),\n overriding the global col setting. The prefixes recognized by plotres are:\n residuals. passed to residuals\n predict. passed to predict (predict is called if the call to residuals fails)\n w1. sent to the model-dependent plot for which=1 e.g. w1.col=2\n pt. modify the displayed points e.g. pt.col=as.numeric(survived)+2 or pt.cex=.8.\n smooth. modify the smooth line e.g. smooth.col=0 or smooth.f=.5.\n level. modify the interval bands, e.g. level.shade=\"gray\" or level.shade2=\"lightblue\"\n legend. modify the displayed legend e.g. legend.cex=.9\n cum. modify the Cumulative Distribution plot (arguments for plot.stepfun)\n qq. modify the QQ plot, e.g. qq.pch=1\n qqline modify the qqline in the QQ plot, e.g. qqline.col=0\n label. modify the point labels, e.g. label.cex=.9 or label.font=2\n cook. modify the Cook’s Distance annotations. This affects only the leverage plot (versus=3) for lm models with sta\n caption. modify the overall caption (see the caption argument) e.g. caption.col=2.\n par. arguments for par (only necessary if a par argument name clashes with a plotres argument)\n The cex argument is relative, so specifying cex=1 is the same as not specifying\n cex.\n For backwards compatibility, some dot arguments are supported but not explic-\n itly documented.\nValue\n If the which=1 plot was plotted, the return value of that plot (model dependent).\n Else if the which=3 plot was plotted, return list(x,y) where x and y are the coordinates of the\n points in that plot (but without jittering even if the jitter argument was used).\n Else return NULL.\nNote\n This function is designed primarily for displaying standard response - fitted residuals for models\n with a single continuous response, although it will work for a few other models.\n In general this function won’t work on models that don’t save the call and data with the model\n in a standard way. It uses the same underlying mechanism to access the model data as plotmo.\n For further discussion please see “Accessing the model data” in the plotmo vignette (also available\n here). Package authors may want to look at Guidelines for S3 Regression Models (also available\n here).\nSee Also\n Please see the plotres vignette (also available here).\n plot.lm\n plot.earth\nExamples\n # we use lm in this example, but plotres is more useful for models\n # that don't have a function like plot.lm for plotting residuals\n lm.model <- lm(Volume~., data=trees)\n plotres(lm.model)\n plot_gbm Plot a gbm model\nDescription\n Plot a gbm model showing the training and other error curves.\nUsage\n plot_gbm(object=stop(\"no 'object' argument\"),\n smooth = c(0, 0, 0, 1),\n col = c(1, 2, 3, 4), ylim = \"auto\",\n legend.x = NULL, legend.y = NULL, legend.cex = .8,\n grid.col = NA,\n n.trees = NA, col.n.trees =\"darkgray\",\n ...)\nArguments\n object The gbm model.\n smooth Four-element vector specifying if smoothing should be applied to the train, test,\n CV, and OOB curves respectively. When smoothing is specified, a smoothed\n curve is plotted and the minimum is calculated from the smoothed curve.\n The default is c(0, 0, 0, 1) meaning apply smoothing only to the OOB curve\n (same as gbm.perf).\n Note that smooth=1 (which gets recyled to c(1,1,1,1)) will smooth all the\n curves.\n col Four-element vector specifying the colors for the train, test, CV, and OOB curves\n respectively.\n The default is c(1, 2, 3, 4).\n Use a color of 0 to remove the corresponding curve, e.g. col=c(1,2,3,0) to\n not display the OOB curve.\n If col=0 (which gets recycled to c(0,0,0,0)) nothing will be plotted, but plot_gbm\n will return the number-of-trees at the minima as usual (as described in the Value\n section below).\n ylim The default ylim=\"auto\" shows more detail around the minima.\n Use ylim=NULL for the full vertical range of the curves.\n Else specify ylim as usual.\n legend.x The x position of the legend. The default positions the legend automatically.\n Use legend.x=NA for no legend.\n See the x and y arguments of xy.coords for other options, for example legend.x=\"topright\".\n legend.y The y position of the legend.\n legend.cex The legend cex (the default is 0.8).\n grid.col Default NA. Color of the optional grid, for example grid.col=1.\n n.trees For use by plotres.\n The x position of the gray vertical line indicating the n.trees passed by plotres\n to predict.gbm to calculate the residuals. Plotres defaults to all trees.\n col.n.trees For use by plotres.\n Color of the vertical line showing the n.trees argument. Default is \"darkgray\".\n ... Dot arguments are passed internally to plot.default.\nValue\n This function returns a four-element vector specifying the number of trees at the train, test, CV, and\n OOB minima respectively.\n The minima are calculated after smoothing as specified by this function’s smooth argument. By\n default, only the OOB curve is smoothed. The smoothing algorithm for the OOB curve differs\n slightly from gbm.perf, so can give a slightly different number of trees.\nNote\n The OOB curve\n The OOB curve is artificially rescaled to force it into the plot. See Chapter 7 in the plotres vignette.\n Interaction with plotres\n When invoking this function via plotres, prefix any argument of plotres with w1. to tell plotres\n to pass the argument to this function. For example give w1.ylim=c(0,10) to plotres (plain\n ylim=c(0,10) in this context gets passed to the residual plots).\n Acknowledgments\n This function is derived from code in the gbm package authored by and others.\nSee Also\n Chapter 7 in plotres vignette discusses this function.\nExamples\n if (require(gbm)) {\n n <- 100 # toy model for quick demo\n x1 <- 3 * runif(n)\n x2 <- 3 * runif(n)\n x3 <- sample(1:4, n, replace=TRUE)\n y <- x1 + x2 + x3 + rnorm(n, 0, .3)\n data <- data.frame(y=y, x1=x1, x2=x2, x3=x3)\n mod <- gbm(y~., data=data, distribution=\"gaussian\",\n n.trees=300, shrinkage=.1, interaction.depth=3,\n train.fraction=.8, verbose=FALSE)\n plot_gbm(mod)\n # plotres(mod) # plot residuals\n # plotmo(mod) # plot regression surfaces\n }\n plot_glmnet Plot a glmnet model\nDescription\n Plot the coefficient paths of a glmnet model.\n An enhanced version of plot.glmnet.\nUsage\n plot_glmnet(x = stop(\"no 'x' argument\"),\n xvar = c(\"rlambda\", \"lambda\", \"norm\", \"dev\"),\n label = 10, nresponse = NA, grid.col = NA, s = NA, ...)\nArguments\n x The glmnet model.\n xvar What gets plotted along the x axis. One of:\n \"rlambda\" (default) decreasing log lambda (lambda is the glmnet penalty)\n \"lambda\" log lambda\n \"norm\" L1-norm of the coefficients\n \"dev\" percent deviance explained\n The default xvar differs from plot.glmnet to allow s to be plotted when this\n function is invoked by plotres.\n label Default 10. Number of variable names displayed on the right of the plot. One\n of:\n FALSE display no variables\n TRUE display all variables\n integer (default) number of variables to display (default is 10)\n nresponse Which response to plot for multiple response models.\n grid.col Default NA. Color of the optional grid, for example grid.col=\"lightgray\".\n s For use by plotres. The x position of the gray vertical line indicating the\n lambda s passed by plotres to predict.glmnet to calculate the residuals.\n Plotres defaults to s=0.\n ... Dot arguments are passed internally to matplot.\n Use col to change the color of curves; for example col=1:4. The six default\n colors are intended to be distinguishable yet harmonious (to my eye at least),\n with adjacent colors as different as easily possible.\nNote\n Limitations\n For multiple response models use the nresponse argument to specify which response should be\n plotted. (Currently each response must be plotted one by one.)\n The type.coef argument of plot.glmnet is currently not supported.\n Currently xvar=\"norm\" is not supported for multiple response models (you will get an error mes-\n sage).\n Interaction with plotres\n When invoking this function via plotres, prefix any argument of plotres with w1. to tell plotres\n to pass the argument to this function. For example give w1.col=1:4 to plotres (plain col=1:4 in\n this context gets passed to the residual plots).\n Acknowledgments\n This function is based on plot.glmnet in the glmnet package authored by ,\n , and .\nSee Also\n Chapter 6 in plotres vignette discusses this function.\nExamples\n if (require(glmnet)) {\n x <- matrix(rnorm(100 * 10), 100, 10) # n=100 p=10\n y <- x[,1] + x[,2] + 2 * rnorm(100) # y depends only on x[,1] and x[,2]\n mod <- glmnet(x, y)\n plot_glmnet(mod)\n # plotres(mod) # plot the residuals\n }"}}},{"rowIdx":162,"cells":{"project":{"kind":"string","value":"ferenda"},"source":{"kind":"string","value":"readthedoc"},"language":{"kind":"string","value":"Python"},"content":{"kind":"string","value":"Ferenda 0.3.0 documentation\n\n[Ferenda](index.html#document-index)\n\n---\n\nFerenda[¶](#ferenda)\n===\n\nFerenda is a python library and framework for transforming unstructured document collections into structured\n[Linked Data](http://en.wikipedia.org/wiki/Linked_data). It helps with downloading documents, parsing them to add explicit semantic structure and RDF-based metadata, finding relationships between documents, and republishing the results.\n\nIntroduction to Ferenda[¶](#introduction-to-ferenda)\n---\n\nFerenda is a python library and framework for transforming unstructured document collections into structured\n[Linked Data](http://en.wikipedia.org/wiki/Linked_data). It helps with downloading documents, parsing them to add explicit semantic structure and RDF-based metadata, finding relationships between documents, and republishing the results.\n\nIt uses the XHTML and RDFa standards for representing semantic structure, and republishes content using Linked Data principles and a REST-based API.\n\nFerenda works best for large document collections that have some degree of internal standardization, such as the laws of a particular country, technical standards, or reports published in a series. It is particularly useful for collections that contains explicit references between documents, within or across collections.\n\nIt is designed to make it easy to get started with basic downloading,\nparsing and republishing of documents, and then to improve each step incrementally.\n\n### Example[¶](#example)\n\nFerenda can be used either as a library or as a command-line tool. This code uses the Ferenda API to create a website containing all(*) RFCs and W3C recommended standards.\n```\nfrom ferenda.sources.tech import RFC, W3Standards from ferenda.manager import makeresources, frontpage, runserver, setup_logger from ferenda.errors import DocumentRemovedError, ParseError, FSMStateError\n\nconfig = {'datadir':'netstandards/exampledata', \n 'loglevel':'DEBUG',\n 'force':False,\n 'storetype':'SQLITE',\n 'storelocation':'netstandards/exampledata/netstandards.sqlite',\n 'storerepository':'netstandards',\n 'downloadmax': 50 # remove this to download everything\n}\nsetup_logger(level='DEBUG')\n\n# Set up two document repositories docrepos = (RFC(**config), W3Standards(**config))\n\nfor docrepo in docrepos:\n # Download a bunch of documents\n docrepo.download()\n \n # Parse all downloaded documents\n for basefile in docrepo.store.list_basefiles_for(\"parse\"):\n try:\n docrepo.parse(basefile)\n except ParseError as e:\n pass # or handle this in an appropriate way\n\n # Index the text content and metadata of all parsed documents\n for basefile in docrepo.store.list_basefiles_for(\"relate\"):\n docrepo.relate(basefile, docrepos)\n\n# Prepare various assets for web site navigation makeresources(docrepos,\n resourcedir=\"netstandards/exampledata/rsrc\",\n sitename=\"Netstandards\",\n sitedescription=\"A repository of internet standard documents\")\n\n# Relate for all repos must run before generate for any repo for docrepo in docrepos:\n # Generate static HTML files from the parsed documents, \n # with back- and forward links between them, etc.\n for basefile in docrepo.store.list_basefiles_for(\"generate\"):\n docrepo.generate(basefile)\n \n # Generate a table of contents of all available documents\n docrepo.toc()\n # Generate feeds of new and updated documents, in HTML and Atom flavors\n docrepo.news()\n\n# Create a frontpage for the entire site frontpage(docrepos,path=\"netstandards/exampledata/index.html\")\n\n# Start WSGI app at http://localhost:8000/ with navigation,\n# document viewing, search and API\n# runserver(docrepos, port=8000, documentroot=\"netstandards/exampledata\")\n```\nAlternately, using the command line tools and the project framework:\n```\n$ ferenda-setup netstandards\n$ cd netstandards\n$ ./ferenda-build.py ferenda.sources.tech.RFC enable\n$ ./ferenda-build.py ferenda.sources.tech.W3Standards enable\n$ ./ferenda-build.py all all --downloadmax=50\n# $ ./ferenda-build.py all runserver &\n# $ open http://localhost:8000/\n```\nNote\n\n(*) actually, it only downloads the 50 most recent of each. Downloading, parsing, indexing and re-generating close to 7000 RFC documents takes several hours. In order to process all documents, remove the `downloadmax` configuration parameter/command line option, and be prepared to wait. You should also set up an external triple store (see [Triple stores](index.html#external-triplestore)) and an external fulltext search engine (see [Fulltext search engines](index.html#external-fulltext)).\n\n### Prerequisites[¶](#prerequisites)\n\nOperating system Ferenda is tested and works on Unix, Mac OS and Windows.\nPython Version 2.6 or newer required, 3.4 recommended. The code base is primarily developed with python 3, and is heavily dependent on all forward compatibility features introduced in Python 2.6. Python 3.0 and 3.1 is not supported.\nThird-party libraries\n`beautifulsoup4`, `rdflib`, `html5lib`,\n`lxml`, `requests`, `whoosh`, `pyparsing`, `jsmin`,\n`six` and their respective requirements. If you install ferenda using `easy_install` or `pip` they should be installed automatically. If you’re working with a clone of the source repository you can install them with a simple `pip install -r requirements.py3.txt` (substitute with\n`requirements.py2.txt` if you’re not yet using python 3).\nCommand-line tools For some functionality, certain executables must be present and in your `$PATH`:\n\n* [`PDFReader`](index.html#ferenda.PDFReader) requires `pdftotext` and\n`pdftohtml` (from [poppler](http://poppler.freedesktop.org/), version 0.21 or newer).\n\t+ The [`crop()`](index.html#ferenda.pdfreader.Page.crop) method requires\n\t`convert` (from [ImageMagick](http://www.imagemagick.org/)).\n\t+ The `convert_to_pdf` parameter to\n\t`read()` requires the `soffice`\n\tbinary from either OpenOffice or LibreOffice\n\t+ The `ocr_lang` parameter to\n\t`read()` requires `tesseract` (from\n\t[tesseract-ocr](https://code.google.com/p/tesseract-ocr/)),\n\t`convert` (see above) and `tiffcp` (from [libtiff](http://www.libtiff.org/))\n* [`WordReader`](index.html#ferenda.WordReader) requires [antiword](http://www.winfield.demon.nl/) to handle old `.doc` files.\n* [`TripleStore`](index.html#ferenda.TripleStore) can perform some operations\n(bulk up- and download) much faster if [curl](http://curl.haxx.se/) is installed.\n\nOnce you have a large number of documents and metadata about those documents, you’ll need a RDF triple store, either [Sesame](http://www.openrdf.org/) (at least version 2.7) or [Fuseki](http://jena.apache.org/documentation/serving_data/index.html) (at least version 1.0). For document collections small enough to keep all metadata in memory you can get by with only rdflib, using either a Sqlite or a Berkely DB (aka Sleepycat/bsddb) backend. For further information, see [Triple stores](index.html#external-triplestore).\n\nSimilarly, once you have a large collection of text (either many short documents, or fewer long documents), you’ll need an fulltext search engine to use the search feature (enabled by default). For small document collections the embedded [whoosh](https://bitbucket.org/mchaput/whoosh/wiki/Home) library is used. Right now, [ElasticSearch](http://www.elasticsearch.org/) is the only supported external fulltext search engine.\n\nAs a rule of thumb, if your document collection contains over 100 000 RDF triples or 100 000 words, you should start thinking about setting up an external triple store or a fulltext search engine. See\n[Fulltext search engines](index.html#external-fulltext).\n\n### Installing[¶](#installing)\n\nFerenda should preferably be installed with [pip](http://www.pip-installer.org/en/latest/installing.html) (in fact,\nit’s the only method tested):\n```\npip install ferenda\n```\nYou should definitely consider installing ferenda in a [virtualenv](http://www.virtualenv.org/en/latest/).\n\nNote\n\nIf you want to use the Sleepycat/bsddb backend for storing RDF data together with python 3, you need to install the `bsddb3`\nmodule. Even if you’re using python 2 on Mac OS X, you might need to install this module, as the built-in `bsddb` module often has problems on this platform. It’s not automatically installed by\n`easy_install`/`pip` as it has requirements of its own and is not essential.\n\nOn Windows, we recommend using a binary distribution of\n`lxml`. Unfortunately, at the time of writing, no such official distribution is for Python 3.3 or later. However, the inofficial distributions available at\n has been tested with ferenda on python 3.3 and later, and seems to work great.\n\nThe binary distributions installs lxml into the system python library path. To make lxml available for your virtualenv, use the\n`--system-site-packages` command line switch when creating the virtualenv.\n\n### Features[¶](#features)\n\n* Handles downloading, structural parsing and regeneration of large document collections.\n* Contains libraries to make reading of plain text, MS Word and PDF documents (including scanned text) as easy as HTML.\n* Uses established information standards like XHTML, XSLT, XML namespaces, RDF and SPARQL as much as possible.\n* Leverages your favourite python libraries: [requests](http://docs.python-requests.org/en/latest/), [beautifulsoup](http://www.crummy.com/software/BeautifulSoup/), [rdflib](https://rdflib.readthedocs.org/en/latest/), [lxml](http://lxml.de/), [pyparsing](http://pyparsing.wikispaces.com/)\nand [whoosh](https://bitbucket.org/mchaput/whoosh/wiki/Home).\n* Handle errors in upstream sources by creating one-off patch files for individiual documents.\n* Easy to write reference/citation parsers and run them on document text.\n* Documents in the same and other collections are automatically cross-referenced.\n* Uses caches and dependency management to avoid performing the same work over and over.\n* Once documents are downloaded and structured, you get a usable web site with REST API, Atom feeds and search for free.\n* Web site generation can create a set of static HTML pages for offline use.\n\n### Next step[¶](#next-step)\n\nSee [First steps](index.html#document-firststeps) to set up a project and create your own simple document repository.\n\nFirst steps[¶](#first-steps)\n---\n\nFerenda can be used in a project-like manner with a command-line tool\n(similar to how projects based on [Django](https://www.djangoproject.com/), [Sphinx](http://sphinx-doc.org/)\nand [Scrapy](http://scrapy.org) are used), or it can be used programatically through a simple API. In this guide, we’ll primarily be using the command-line tool, and then show how to achieve the same thing using the API.\n\nThe first step is to create a project. Lets make a simple website that contains published standards from W3C and IETF, called\n“netstandards”. Ferenda installs a system-wide command-line tool called `ferenda-setup` whose sole purpose is to create projects:\n```\n$ ferenda-setup netstandards Prerequisites ok Selected SQLITE as triplestore Selected WHOOSH as search engine Project created in netstandards\n$ cd netstandards\n$ ls ferenda-build.py ferenda.ini wsgi.py\n```\nThe three files created by `ferenda-setup` is another command line tool (`ferenda-build.py`) used for management of the newly created project, a WSGI application (`wsgi.py`, see [The WSGI app](index.html#document-wsgi)) and a configuration file (`ferenda.ini`). The default configuration file specifies most, but not all, of the available configuration parameters. See [Configuration](index.html#configuration) for a full list of the standard configuration parameters.\n\nNote\n\nWhen using the API, you don’t create a project or deal with configuration files in the same way. Instead, your client code is responsible for keeping track of which docrepos to use, and providing configuration when calling their methods.\n\n### Creating a Document repository class[¶](#creating-a-document-repository-class)\n\nAny document collection is handled by a\n[DocumentRepository](index.html#keyconcept-documentrepository) class (or *docrepo* for short), so our first task is to create a docrepo for W3C standards.\n\nA docrepo class is responsible for downloading documents in a specific document collection. These classes can inherit from\n[`DocumentRepository`](index.html#ferenda.DocumentRepository), which amongst others provides the method [`download()`](index.html#ferenda.DocumentRepository.download) for this. Since the details of how documents are made available on the web differ greatly from collection to collection, you’ll often have to override the default implementation, but in this particular case, it suffices. The default implementation assumes that all documents are available from a single index page, and that the URLs of the documents follow a set pattern.\n\nThe W3C standards are set up just like that: All standards are available at `http://www.w3.org/TR/tr-status-all`. There are a lot of links to documents on that page, and not all of them are links to recommended standards. A simple way to find only the recommended standards is to see if the link follows the pattern\n`http://www.w3.org/TR//REC--`.\n\nCreating a docrepo that is able to download all web standards is then as simple as creating a subclass and setting three class properties. Create this class in the current directory (or anywhere else on your python path) and save it as `w3cstandards.py`\n```\nfrom ferenda import DocumentRepository\n\nclass W3CStandards(DocumentRepository):\n alias = \"w3c\"\n start_url = \"http://www.w3.org/TR/tr-status-all\"\n document_url_regex = \"http://www.w3.org/TR/(?P\\d{4})/REC-(?P.*)-(?P\\d+)\"\n```\nThe first property, [`alias`](index.html#ferenda.DocumentRepository.alias), is required for all docrepos and controls the alias used by the command line tool for that docrepo, as well as the path where files are stored, amongst other things. If your project has a large collection of docrepos, it’s important that they all have unique aliases.\n\nThe other two properties are parameters which the default implementation of [`download()`](index.html#ferenda.DocumentRepository.download) uses in order to find out which documents to download. [`start_url`](index.html#ferenda.DocumentRepository.start_url) is just a simple regular URL, while\n[`document_url_regex`](index.html#ferenda.DocumentRepository.document_url_regex) is a standard\n[`re`](https://docs.python.org/3/library/re.html#module-re) regex with named groups. The group named `basefile` has special meaning, and will be used as a base for stored files and elsewhere as a short identifier for the document. For example, the web standard found at URL\n will have the basefile `rdf-plain-literal`.\n\n### Using ferenda-build.py and registering docrepo classes[¶](#using-ferenda-build-py-and-registering-docrepo-classes)\n\nNext step is to enable our class. Like most tasks, this is done using the command line tool present in your project directory. To register the class (together with a short alias) in your `ferenda.ini`\nconfiguration file, run the following:\n```\n$ ./ferenda-build.py w3cstandards.W3CStandards enable 22:16:26 root INFO Enabled class w3cstandards.W3CStandards (alias 'w3c')\n```\nThis creates a new section in ferenda.ini that just looks like the following:\n```\n[w3c]\nclass = w3cstandards.W3CStandards\n```\nFrom this point on, you can use the class name or the alias “w3c”\ninterchangably:\n```\n$ ./ferenda-build.py w3cstandards.W3CStandards status # verbose 22:16:27 root INFO w3cstandards.W3CStandards status finished in 0.010 sec Status for document repository 'w3c' (w3cstandards.W3CStandards)\n download: None.\n parse: None.\n generated: None.\n\n$ ./ferenda-build.py w3c status # terse, exactly the same result\n```\nNote\n\nWhen using the API, there is no need (nor possibility) to register docrepo classes. Your client code directly instantiates the class(es) it uses and calls methods on them.\n\n### Downloading[¶](#downloading)\n\nTo test the downloading capabilities of our class, you can run the download method directly from the command line using the command line tool:\n```\n$ ./ferenda-build.py w3c download \n22:16:31 w3c INFO Downloading max 3 documents 22:16:32 w3c INFO emotionml: downloaded from http://www.w3.org/TR/2014/REC-emotionml-20140522/\n22:16:33 w3c INFO MathML3: downloaded from http://www.w3.org/TR/2014/REC-MathML3-20140410/\n22:16:33 w3c INFO xml-entity-names: downloaded from http://www.w3.org/TR/2014/REC-xml-entity-names-20140410/\n# and so on...\n```\nAfter a few minutes of downloading, the result is a bunch of files in\n`data/w3c/downloaded`:\n```\n$ ls -1 data/w3c/downloaded MathML3.html MathML3.html.etag emotionml.html emotionml.html.etag xml-entity-names.html xml-entity-names.html.etag\n```\nNote\n\nThe `.etag` files are created in order to support [Conditional GET](http://en.wikipedia.org/wiki/HTTP_ETag), so that we don’t waste our time or remote server bandwith by re-downloading documents that hasn’t changed. They can be ignored and might go away in future versions of Ferenda.\n\nWe can get a overview of the status of our docrepo using the\n`status` command:\n```\n$ ./ferenda-build.py w3cstandards.W3CStandards status # verbose 22:16:27 root INFO w3cstandards.W3CStandards status finished in 0.010 sec Status for document repository 'w3c' (w3cstandards.W3CStandards)\n download: None.\n parse: None.\n generated: None.\n\n$ ./ferenda-build.py w3c status # terse, exactly the same result\n```\nNote\n\nTo do the same using the API:\n```\nfrom w3cstandards import W3CStandards repo = W3CStandards()\nrepo.download() \nrepo.status()\n# or use repo.get_status() to get all status information in a nested dict\n```\nFinally, if the logging information scrolls by too quickly and you want to read it again, take a look in the `data/logs` directory.\nEach invocation of `ferenda-build.py` creates a new log file containing the same information that is written to stdout.\n\n### Parsing[¶](#parsing)\n\nLet’s try the next step in the workflow, to parse one of the documents we’ve downloaded.\n```\n$ ./ferenda-build.py w3c parse rdfa-core 22:16:45 w3c INFO rdfa-core: parse OK (4.863 sec)\n22:16:45 root INFO w3c parse finished in 4.935 sec\n```\nBy now, you might have realized that our command line tool generally is called in the following manner:\n```\n$ ./ferenda-build.py [argument(s)]\n```\nThe parse command resulted in one new file being created in\n`data/w3c/parsed`.\n```\n$ ls -1 data/w3c/parsed rdfa-core.xhtml\n```\nAnd we can again use the `status` command to get a comprehensive overview of our document repository.\n```\n$ ./ferenda-build.py w3c status 22:16:47 root INFO w3c status finished in 0.032 sec Status for document repository 'w3c' (w3cstandards.W3CStandards)\n download: xml-entity-names, rdfa-core, emotionml... (1 more)\n parse: rdfa-core. Todo: xml-entity-names, emotionml, MathML3.\n generated: None. Todo: rdfa-core.\n```\nNote that by default, subsequent invocations of parse won’t actually parse documents that don’t need parsing.\n```\n$ ./ferenda-build.py w3c parse rdfa-core 22:16:50 root INFO w3c parse finished in 0.019 sec\n```\nBut during development, when you change the parsing code frequently,\nyou’ll need to override this through the `--force` flag (or set the\n`force` parameter in `ferenda.ini`).\n```\n$ ./ferenda-build.py w3c parse rdfa-core --force 22:16:56 w3c INFO rdfa-core: parse OK (5.123 sec)\n22:16:56 root INFO w3c parse finished in 5.166 sec\n```\nNote\n\nTo do the same using the API:\n```\nfrom w3cstandards import W3CStandards repo = W3CStandards(force=True)\nrepo.parse(\"rdfa-core\")\n```\nNote also that you can parse all downloaded documents through the\n`--all` flag, and control logging verbosity by the `--loglevel`\nflag.\n```\n$ ./ferenda-build.py w3c parse --all --loglevel=DEBUG 22:16:59 w3c DEBUG xml-entity-names: Starting 22:16:59 w3c DEBUG xml-entity-names: Created data/w3c/parsed/xml-entity-names.xhtml 22:17:00 w3c DEBUG xml-entity-names: 6 triples extracted to data/w3c/distilled/xml-entity-names.rdf 22:17:00 w3c INFO xml-entity-names: parse OK (0.717 sec)\n22:17:00 w3c DEBUG emotionml: Starting 22:17:00 w3c DEBUG emotionml: Created data/w3c/parsed/emotionml.xhtml 22:17:01 w3c DEBUG emotionml: 11 triples extracted to data/w3c/distilled/emotionml.rdf 22:17:01 w3c INFO emotionml: parse OK (1.174 sec)\n22:17:01 w3c DEBUG MathML3: Starting 22:17:01 w3c DEBUG MathML3: Created data/w3c/parsed/MathML3.xhtml 22:17:01 w3c DEBUG MathML3: 8 triples extracted to data/w3c/distilled/MathML3.rdf 22:17:01 w3c INFO MathML3: parse OK (0.332 sec)\n22:17:01 root INFO w3c parse finished in 2.247 sec\n```\nNote\n\nTo do the same using the API:\n```\nimport logging from w3cstandards import W3CStandards\n# client code is responsible for setting the effective log level -- ferenda \n# just emits log messages, and depends on the caller to setup the logging \n# subsystem in an appropriate way logging.getLogger().setLevel(logging.INFO)\nrepo = W3CStandards()\nfor basefile in repo.store.list_basefiles_for(\"parse\"):\n # You you might want to try/catch the exception\n # ferenda.errors.ParseError or any of it's children here\n repo.parse(basefile)\n```\nNote that the API makes you explicitly list and iterate over any available files. This is so that client code has the opportunity to parallelize this work in an appropriate way.\n\nIf we take a look at the files created in `data/w3c/distilled`, we see some metadata for each document. This metadata has been automatically extracted from RDFa statements in the XHTML documents,\nbut is so far very spartan.\n\nNow take a look at the files created in `data/w3c/parsed`. The default implementation of `parse()` processes the DOM of the main body of the document, but some tags and attribute that are used only for formatting are stripped, such as `