Wstęp

W pierwszych latach działania systemów z rodziny UNIX były to systemy nienadające się dla zwykłego użytkownika zwłaszcza ze względu na ich cenę. Dostęp do UNIXa był bardzo ograniczony, właściwie tylko w ośrodkach akademickich można było go używać i pracować na nim.

Na szczęście powstał system operacyjny Linux, oparty najądrze UNIXa, ale darmowy i dostępny dla każdego. Odkąd pojawił się na rynku, wielu użytkowników mogło docenić niezawodność jądra UNIXa na przykładzie systemu przeznaczonego dla normalnych użytkowników. Popularność tego systemu wciąż rośnie, zwłaszcza dzięki temu, że system jest darmowy i udoskonalany przez rzesze programistów z całego świata.

Dziś wiele serwerów różnych usług internetowych korzysta z systemów opartych na UNIXie. Mowa tu nie tylko o serwerach IRC, ale także o wysoce zaawansowanych serwerach badawczych i kosmologicznych. Wiele odkryć nie ujrzałoby światła dziennego gdyby nie systemy UNIX i bardzo wydajne, nowoczesne superkomputery, na których te systemy pracują. Większość sprzętu, który musi być niezawodny w awaryjnych sytuacjach działa właśnie na systemach z rodziny UNIX właśnie ze względu na stabilność pracy tego typu narzędzi.

Pierwsze próby napisania systemu UNIX pojawiły się w latach siedemdziesiątych. Pierwszymi twórcami pionierskiej wersji byli niejacy Dennis Ritchie i Ken Thompson. UNIX pisany był w języku C, który wkrótce stał się standardem dla pisania systemów operacyjnych (również Linux jest napisany w tym właśnie języku - język ten jest zwięzły i co najważniejsze wydajny - nie zmniejsza wydajności maszyny). Pierwsze wersje systemu były rozpowszechniane nie jako programy skompilowane, ale jako darmowe kody źródłowe. Dzięki temu wiele środowisk programistycznych mogło przyjrzeć się systemowi z bliska, a także dostosować go do własnych potrzeb dzięki zmianom w samym kodzie źródłowym. Jednak już począwszy od wersji siódmej systemu firma zajmująca się nim przestała rozpowszechniać darmowy kod systemu, natomiast zaczęła pobierać za niego opłaty.

Wydarzenie to sprowokowało wiele firm do tego, by bazując na darmowych wersjach UNIXa stworzyć własne systemy operacyjne. Zatem na podwalinach UNIXa zaczął działać na przykład system Berkeley Software Distribution, SunOs, Xenix (firmy Microsoft) czy też DEC. Historia pokazała, że nie było to zbyt dobre dla rynku programów komputerowych. Mnogość różnych rozwiązań spowodowała, że poszczególne wersje nie były ze sobą zgodne. Jedne programy działały na jednych platformach, inne na innych. Wkradł się spory chaos. Dlatego właśnie pojawiły się głosy, aby spróbować usystematyzować wszystkie wersje i wprowadzić jakieś standardy, które spowodowałyby kompatybilność różnych systemów opartych na UNIXie. Praca nad standardem przypadła w udziale Instytutowi Inżynierów Elektryków i Elektroników (Institute of Electrical and Electronics Engineers - IEEE). Standard nazwano Posix. Cały system został tam opisany tak, by wyeliminować ewentualne niezgodności pomiędzy poszczególnymi wersjami systemu.

Niestety, nadal nie rozwiązywało to problemy pieniężnego. Systemy oparte na UNIXie potrzebowały do działania bardzo potężnych jak na owe czasy komputerów, niemożliwych do kupienia i używania przez statystycznego człowieka. Dlatego bardzo długo nie było możliwości pracy na systemie UNIX, chyba, że w specjalistycznych instytutach badawczych i naukowych. Właściwie tylko rząd, wojsko i uniwersytety były w stanie pozwolić sobie na utrzymywanie takiego drogiego sprzętu i oprogramowania.

Stan taki trwał do momentu wprowadzenia na rynek pierwszych komputerów osobistych. Niestety, nadal brakowało systemu operacyjnego, który byłby tani i w swej niezawodności podobny do UNIXa. Konkurencyjny system DOS, czy potem Windows firmy Microsoft oczywiście nie spełniał żadnej z tych dwóch wytycznych.

Linux

Wraz z pojawieniem się na rynku komputerów osobistych procesorów wielozadaniowych pojawiło się także zapotrzebowanie na wielozadaniowy system operacyjny. Jednowątkowy DOS przestał wystarczać użytkownikom. Microsoft rozpoczął prace nad systemem wielozadaniowym i wypuścił bardzo innowacyjny i ciekawy system Windows, gdzie wszystkie polecenia wydawało się myszką. Niestety, Windows do dziś cierpi na chroniczny niedowład. Kto nie widział sypiącego się Windowsa prawdopodobnie nie ma za wiele wspólnego z komputerami.

Lekarstwem na komputerową żądzę posiadania systemu wielozadaniowego dość niespodziewanie stał się system operacyjny, którego początki sięgają aż do Finlandii. Tam właśnie studiował informatykę niejaki Linus Torvalds. Był bardzo zdolnym studentem, a jego przedmiotem badań była głównie wielozadaniowość nowoczesnych procesorów. Długi czas pisywał wielowątkowe programy dla systemu Minix (system edukacyjny, nieużywany komercyjnie).

W końcu młody Fin stwierdził, że Minix wymaga dużej ilości zmian i ulepszeń. Wiele elementów nowego systemu Torvalds wziął właśnie z Minixa, jednak właściwie od podstaw napisał niemal całe jądro systemu, moduł wielozadaniowości oraz sterowniki klawiatury. Powstał system operacyjny bez nazwy.

Niestety, pierwsza wersja systemu nie spotkała się wcale z gorącym przyjęciem. Był to system profesjonalny, przeznaczony niemal wyłącznie dla informatyków, którzy znają się na rzeczy. Jego instalacja była bardzo trudna, konfiguracja jądra przypominała senny koszmar. Również obsługa wcale nie była intuicyjna i dla zwykłego użytkownika był to tylko wybryk natury, a nie poważny system operacyjny, z którego rzeczywiście można korzystać.

Torvalds rozpoczął zatem doskonalenie systemu. Dodał do niego kompilator języka C, a także zmienił nieco listę rozkazów i poleceń tak, by przypominały znane powszechnie polecenia UNIXowe. Niestety, system wymagał dużo większej liczby zmian.

Torvalds postanowił spróbować dostosować swój system do standardu, opublikowanego wcześniej przez IEEE. Przerobił jądro systemu tak, by przypominało UNIXa. Dzięki temu jego nowy system operacyjny stał się kompatybilny z innymi, komercyjnymi systemami z rodziny UNIX. Dzięki temu system został łagodniejszym okiem oceniony przez środowisko programistów. Przede wszystkim jednak Torvalds. zrobił jedną bardzo ważną rzecz dla rozwoju swojego systemu - tak jak to było w pierwszych wersjach UNIXa udostępnił kod źródłowy systemu bezpłatnie w Internecie na kilku serwerach FTP. System lotem błyskawicy obiegł cały świat. Każdy mógł skompilować sobie system i wypróbować go. Dzięki temu skrzynki emailowe Torvaldsa szybko zapełniły się sugestiami i spostrzeżeniami wielu setek użytkowników. Oczywiście wszystkie takie sugestie mogły przyczynić się do szybszego rozwoju systemu.

Umieszczenie nowego systemu w Internecie na tak zwanej licencji GPL (General Public License) było najlepszą rzeczą, jaką można było zrobić dla rozwoju systemu. Licencja GPL pozwala na dowolne wykorzystywanie kodu źródłowego, jego zmianę i dopisywanie nowych rzeczy. Każdy mógł, zatem stać się programistą nowego systemu operacyjnego.

Po opublikowaniu w Internecie system otrzymał od swoich sympatyków nazwę Linux - jest to zlepek słów Linus (imię twórcy) oraz UNIX.

Linux stał się ucieleśnieniem idei "wolnego oprogramowania". Rozpowszechnianiem tej idei zajmuje się do dziś fundacja założona przez Richarda Stallmana - FSF (Free Software Foundation). Jej głównym celem jest właśnie promowanie programów opartych na ich licencji GPL. Zasady tej licencji mówią wyraźnie, że każdy program z tą licencją powinien być rozpowszechniany wraz z kodami źródłowymi, z możliwością ich modyfikacji. Jeśli natomiast na bazie takiej aplikacji ma powstać inny program (na przykład aplikacja jest środowiskiem programistycznym), to także ten program musi być rozpowszechniany na licencji GPL. Rozpowszechnianie tak wielkiego przedsięwzięcia, jakim jest system operacyjny na licencji GPL sprawia, że każdy z używających go programistów komputerowych jest w stanie sprawdzić kod programu i usunąć usterki, a następnie dodać własne funkcjonalności do samego systemu. Jest to zatem wspaniała droga do tego, by system był niezawodny i funkcjonalny. Każdy człowiek, który napisze część systemu Linux, a także, który na jego podstawie stworzy aplikację, może uważać się za współtwórcę systemu, a także za propagatora wolnego oprogramowania.

Tymczasem prace nad systemem Linux stały się coraz większe i zakrojone na bardzo szeroką skalę. System rozrósł się niewyobrażalnie, a Torvalds przestał panować nad całością systemu, który zaczął żyć własnym życiem. Dlatego Fin pozostał przy doskonaleniu samego jądra systemu, natomiast pieczę nad innymi elementami systemu pozostawił innym.

Rozwój systemu jest ogromny. Dziś jego funkcjonalność porównuje się z UNIXem, a także, dzięki zastosowaniu interfejsu graficznego, z Windowsem. Wielu użytkowników do dziś ceni sobie jego niepowtarzalną wydajność i niezawodność.

Aby móc zainstalować system operacyjny Linux, wystarczy ściągnąć wersję z kodami źródłowymi. Zajmuje ona mniej miejsca i jest możliwe dokonywanie zmian. Kody źródłowe kompiluje dowolny kompilator języka C, dostosowując program do konfiguracji sprzętowej. Jest to bardzo ważne i wygodne, ponieważ nie trzeba ręcznie sprawdzać czy system współdziała z danym komputerem. Oczywiście, często warto jest posiadać także wersję instalacyjną Linuxa. Wiele różnych firm tworzących swoje wersje systemu Linux (zwane dystrybucjami) udostępnia system normalnie, na płytach CD. Oprócz systemu często jest tam pakiet oprogramowania potrzebny do konkretnych zastosowań systemu. Płyty z Linuxem są najczęściej rozprowadzane bezpłatnie lub za cenę potrzebną do wyprodukowania krążka.

Istnieje wiele różnych dystrybucji Linuxa. Są one zwykle przeznaczone do nieco innych zadań. Często Linuxów używa się jako systemów operacyjnych dla różnego typu urządzeń, na przykład do serwerów internetowych, serwerów poczty elektronicznej, urządzeń pozwalających na transfer plików i wielu innych.

Obecnie mogą nieco zadziwiać minimalne wymagania sprzętowe dotyczące Linuxa. W podstawowej, tekstowej wersji wymaga komputera klasy PC, z procesorem rzędu Intel 80386, chociaż lepiej żeby był to Intel 80486. Jeśli chodzi o pamięć, należy posiadać minimum 8 MB pamięci Ram, natomiast lepiej, jeśli będzie to 16 lub 32 MB RAM. Te wyższe wymagania dotyczą wersji okienkowej Linuxa.

Oczywiście dziś takie wymagania sprzętowe mogą tylko śmieszyć, dlatego koszty postawienia serwera na Linuxie są dziś bardzo małe, możliwe do uzyskania nawet w małych sieciach lokalnych.

Systemem okienkowym w Linuxie jest tak zwany XWindow. Jest to standardowa biblioteka graficzna używana do tworzenia interfejsu użytkownika. Dzięki zaimplementowaniu takiej biblioteki możliwe jest odejście od konsolowego, tekstowego wydawania poleceń, a przejście na myszkę i klikanie.

Warto pamiętać, że już we wczesnym stadium rozwoju Linuxa Torvalds zastosował w nim elementy pozwalające na uzyskanie zgodności ze standardem UNIX. Dlatego Linux, oparty o tę właśnie technologię, jest jak najbardziej kompatybilny z większością systemów wykonanych jako następcy UNIXa. Chodzi oczywiście o to, żeby każdy program UNIXowy działał na Linuxie i odwrotnie. Rzeczywiście, dzięki staraniom Torvaldsa tak właśnie jest. Jednak to właśnie Linux jest obecnie bardziej popularny od UNIXa, to należy pamiętać, że pierwszy był właśnie UNIX i to jemu zawdzięczamy niezawodne jądro Linuxa.

Można się zastanawiać, czy przypadkiem Linux nie ma tej znaczącej wady, że po wyprodukowaniu nowego sprzętu nie posiada sterowników do niego. Nic bardziej błędnego. Pasjonaci z całego świata przy każdym nowopowstałym kawałku sprzętu niemal natychmiast wypuszczają na rynek przetestowane, dobrze działające sterowniki do tego sprzętu. Niemal zawsze można w Internecie znaleźć większość sterowników z bardzo świeżą datą.

Jednak największym plusem Linuxa jest przede wszystkim fakt, że jest on wyposażony w wiele różnego rodzaju narzędzi oraz programów, udostępnianych na licencji GPL, a więc wraz z kodami źródłowymi. Okazuje się, że bardzo wiele programów znanych z komercyjnych systemów operacyjnych posiada swoje odpowiedniki w Linuxie. I tak, możemy znaleźć edytor tekstu, ba, cały pakiet biurowy udostępniany darmowo na różnych serwerach. Równie łatwo można ściągnąć do naszego Linuxa programy do obsługi bazy danych, programy graficzne, często bardzo rozbudowane, a nawet gry komputerowe. Ponieważ programy te pisane są w większości przez znanych fachowców, którym nieobca jest idea wolnego oprogramowania, można być pewnym, co do jakości tego typu produktów. Często takie programy są nawet lepsze od komercyjnych, ponieważ zawsze pracują nad nimi rzesze ludzi, którzy ściągną wersję programu i zawsze dodają coś od siebie, poprawiają błędy i konserwują program. Wiele programów, które pisane są dla Linuxa mają swoje odpowiedniki na przykład w Windowsie. Przykładem może być Open Office, który może być używany zarówno w Windowsie jak i w Linuxie.

Linux ma jeszcze jedną zasadniczą zaletę. Przede wszystkim bez problemu współpracuje z plikami zapisanymi na partycjach używanych przez inne systemy operacyjne. Dzięki poleceniu montującemu partycję systemową innego system (mount) możliwe jest przeglądanie dyskietek czy partycji DOSa bez potrzeby instalowania i uruchamiania systemu DOS. Niestety, system Windows nie wykazuje się taką zmyślnością, dlatego często mogą występować problemy z odczytem dysków Linuxa pod Windowsem. W Windowsie nie ma polecenia mount, dlatego czasem warto przemyśleć, czy nie lepiej pracować z Linuxem i montować potrzebne partycje w miarę potrzeby, czy pozostać przy starym Windowsie i mieć problemy z partycjami używanymi przez inne systemy operacyjne. Całe szczęście w rodzinie Windowsów NT (do której zalicza się też Windows XP) istnieje narzędzie importu plików Linuxowych do Windowsa. Programiści z Redmond widać przyznali, że takie narzędzie jest potrzebne.

Powłoki systemowe

Powłoką systemową nazywamy specjalny program komputerowy, który pośredniczy pomiędzy użytkownikiem (klawiaturą) a systemem operacyjnym. Często można się także potkać z określeniem "wiersz poleceń", zwłaszcza w Windowsie. Dzięki powłoce uruchamiane są konkretne procedury, które mogą wywołać wykonanie rozkazu wpisanego z klawiatury. Często jednak zapomina się o tym, że "Wiersz poleceń" Windowsów jest integralną częścią systemu operacyjnego, a powłoka jest osobnym programem, dodawanym do systemu, ale niebędącym jego częścią integralną.

Ciężko jest napisać dobrą powłokę systemową. Przede wszystkim, trzeba napisać niełatwą część współpracy powłoki z systemem operacyjnym, dlatego trzeba znać od podszewki cały system i działające w nim elementy. Oprócz tego powłoka musi umieć reagować na konkretne polecenia użytkownika, dlatego naprawdę tylko prawdziwi specjaliści są w stanie ją napisać. Często w systemie Linux można używać wielu zainstalowanych powłok. Powstało ich naprawdę wiele, ponieważ wielu programistów postanowiło poprawić coś w jakiejś powłoce - tak powstała jej wersja, a z czasem ewoluowała w zupełnie nową powłokę. Najczęściej używa się powłoki systemowej łącząc się z komputerem za pomocą programu typu Telnet (czyli zdalnie - z innego komputera). Postaram się wymienić niektóre z najczęściej spotykanych i używanych powłok Linuxa/UNIXa:

  1. SH - Shell albo Bourne Shell, jest jedną z najczęściej spotykanych powłok systemowych, zaimplementowana w większości Linuxów. Stworzył ją Stephen Bourne, programista z Laboratorium Bella. Jest to jedna z pierwszych powłok - wyprodukowano ją już w latach siedemdziesiątych dla pierwszych UNIXów. Niestety, chociaż rewolucyjna, powłoka ta nie ma zbyt wielu funkcji; szybko stała się niewygodna i postanowiono udoskonalić ją. 
  2. RSH - Restricted Shell albo Restricted Bourne Shell (Ograniczona Powłoka Bourne'a) jest łatwiejszą w obsłudze, okrojoną wersją powłoki Bourne'a. Najczęściej używana była w pracach biurowych, gdzie ludzie nie mają zbyt wielkiej wiedzy na temat systemu operacyjnego, a także jego możliwości. Aby ograniczyć możliwości "szperania" po systemie, stworzono powłokę ograniczoną dla niewprawionych użytkowników.
  3. KSH - Korn Shell (Powłoka Korna) długo była jedną z popularniejszych powłok systemowych systemów z rodziny UNIX. Jeej twórcą był również programista Laboratoium Bella, niejaki David Korn. Korn zwiększył możliwości powłoki Bourne'a czyniąc ją bardziej przyjazną dla użytkowników. Powstała w połowie lat osiemdziesiątych.
  4. RKSH - Restricted Korn Shell spełniała podobną funkcję, co Ograniczona Powłoka Bourne'a, oczywiście w odniesieniu do powłoki Korna.
  5. BASH jest powłoką często używaną do tej pory. Powstała również jako rozszerzenie powłoki Bourne'a, z którą jest w pełni kompatybilna. Jeśli warto poznawać jakąś powłokę systemową, warto zastanowić się nad nauką BASHa. Często to właśnie BASH jest powłoką domyślnie używaną w Linuxach, warto też zauważyć, że jest rozprowadzana dokładnie tak jak Linux - na zasadzie licencji GPL.
  6. CSH - "C" Shell (Powłoka "C") została stworzona przez Billa Joy'a na uniwersytecie w Kalifornii, Berkeley. Jej nazwa mówi, że raczej jest to powłoka dla programistów, którzy znają język C. Tak jest rzeczywiście. Powłoka ta oferuje wiele różnych elementów niepotrzebnych dla zwykłego użytkownika, ale za to niezbędnych dla programistów UNIXa.

Bezpieczeństwo systemów z rodziny UNIX oraz tworzenie haseł dostępu

Niestety, zawsze, także w systemie operacyjnym UNIX, należy pamiętać, że przyłączenie działającego na tym systemie komputera do sieci, niesie za sobą ryzyko. Samotny komputer działający z systemem UNIX jest w miarę bezpieczny, ponieważ nie jest narażony na zbyt wiele ataków. Jednak w sieci należy zwracać baczniejszą uwagę na wiele aspektów bezpieczeństwa. UNIX jest jednym z najlepszych systemów sieciowych i wspomagających pracę różnego rodzaju serwerów w sieci - czy to serwerów pocztowych, WWW, bazy danych czy FTP. Jednak jego różnorodność działa też w pewnym sensie na jego niekorzyść - otwartość na wiele usług i możliwości jest także otwarciem na wiele zagrożeń, z których każde musi być rozpoznane. Zapobieganie tak różnym typom zagrożeń jest zadaniem bardzo trudnym.

Całe szczęście, nad systemami z rodziny UNIX pracuje i pracowało w przeszłości tylu wybitnych specjalistów, że kwestie bezpieczeństwa są w nim rozwiązane niemal bezbłędnie. Przede wszystkim wprowadzono do systemu kodowanie haseł. Żadne hasło w systemie nie jest przechowywane w swojej własnej postaci. Oprócz tego każdy z użytkowników może mieć przyznany odpowiedni poziom bezpieczeństwa, który określa, co wolno a czego nie wolno użytkownikowi. Każdy katalog i każdy plik może mieć osobno określone prawa dostępowe dla konkretnych grup użytkowników, a nawet dla poszczególnych osób. Również, aby zalogować się do systemu jest stworzony restrykcyjny system haseł i logowania.

System UNIX jest przede wszystkim wyposażony w wiele narzędzi do utrzymywania określonego poziomu bezpieczeństwa. Narzędzia te pozwalają na wykrywanie furtek i luk w zabezpieczeniach i szybko reagują na wszelkie próby złamania systemu bezpieczeństwa. Programy tego typu są bardzo skomplikowane, ponieważ diagnostyka systemu jest zadaniem niezmiernie żmudnym i czasochłonnym. Program sam musi zdecydować, jakie działania systemu są wynikiem luk w zabezpieczeniach, a jakie są normalne przy zastosowaniu danego poziomu bezpieczeństwa.

Bardzo ważną rzeczą nie tylko w UNIXie, ale w całej komputeryzacji jest wymyślenie dobrego, niełatwego do złamania hasła. Istnieją procedury mogące złamać dowolne hasło, jednak nasza w tym głowa, by nie było to zbyt łatwe i szybkie. A więc przede wszystkim nie wolno w hasłach używać informacji o nas. Imiona, nazwiska, daty urodzenia, imiona zwierzaków, słowem - wszystkie informacje, które jeśli nie są ogólnie wiadome, to są łatwe do sprawdzenia, są złymi hasłami. Również hasło składające się z pojedynczego, istniejącego wyrazu nie jest dobre, ponieważ systemy łamiące hasła w pierwszej kolejności sprawdzają właśnie zawartość słowników. Najlepiej jest stworzyć hasło jako zlepek teoretycznie przypadkowych liter, dużych i małych, cyfr oraz innych znaków. Dobrym przyzwyczajeniem jest też zmiana hasła, co jakiś czas - minimum raz w miesiącu. Daje to gwarancję większego zabezpieczenia danych, jeśli okazało się, że ktoś złamał już nasze hasło. Należy poćwiczyć wpisywanie hasła tak, by osoba patrząca na ruch dłoni po klawiaturze nie była w stanie odgadnąć, jakie litery zostały wciśnięte.

Największe spustoszenie w systemie włamywacz może zrobić, jeśli zdobędzie lub złamie hasło dla Administratora. W systemie UNIX takiego Administratora nazywa się ROOT (korzeń), albo superużytkownik. Uprawnienia administratorskie są daleko większe niż uprawnienia zwyczajnych, pospolitych użytkowników. Przede wszystkim, to właśnie administrator nadaje i odbiera uprawnienia innym użytkownikom. Uprawnienia te mogą na przykład dotyczyć konkretnych plików i dawać do nich dostęp lub nie - dostęp do odczytu lub do zapisu. Do uprawnień Administratora należy także dodawanie i usuwanie nowych użytkowników, a także dostęp do plików systemowych i jądra systemu.

Podstawowe polecenia administratorskie UNIXa

Jak już wiemy, administrator UNIXa może dodawać nowych użytkowników do grupy już istniejących. Do tego celu służy polecenie adduser. Jego składnia wygląda następująco:

ADDUSER nazwa-konta-użytkownika

Poleceniem odwrotnym do tego polecenia jest userdel, które pozwala na usuwanie kont użytkowników z systemu.

Kolejnym poleceniem dotyczącym użytkowników systemu jest chfn. Polecenie to jest w stanie zmienić dane użytkowników, począwszy od imienia i nazwiska, poprzez adresy i numery telefonów.

Polecenie chmod umożliwia ustawienie domyślnych uprawnień do różnych plików dla użytkowników.

Zwykle w każdym systemie z rodziny UNIX istnieje jedna powłoka, która jest powłoką domyślną. Dzięki poleceniu chsh (change shell) administrator systemu może zmienić domyślną powłokę na inną.

Istnieje polecenie, które w zależności od uprawnień użytkownika zalogowanego (czy jest administratorem czy nie) umożliwia różne rzeczy. Jest to polecenie date wyświetlające aktualny czas. Administrator oprócz tego, że może zobaczyć, jaki jest aktualny czas, może także zmienić czas systemowy na inny.

Dzięki poleceniu groupadd administrator może w systemie UNIX dodawać różnego rodzaju grupy użytkowników.

Inne polecenia systemu UNIX

Każdy normalny użytkownik z domyślnymi prawami dostępowymi przynajmniej w obrębie swojej przestrzeni dyskowej ma możliwość zarządzania własnymi plikami i katalogami oraz hasłem. Niektóre z poleceń systemowych postaram się wymienić.

Polecenie cd zmienia katalog, w którym aktualnie się znajdujemy. Można podać ścieżkę całościową do katalogu, lub też, jeśli chcemy otworzyć katalog znajdujący się w katalogu gdzie aktualnie jesteśmy, podajemy tylko ścieżkę względną.

Polecenie clear jest podobne do znanego cls i powoduje wyczyszczenie ekranu.

Istnieje wiele poleceń pozwalających na wyszukanie plików w systemie. Najprostszym z nich jest polecenie find, które szuka w podanym katalogu plików, których nazwa pasuje do podanego wyrażenia regularnego. Innym poleceniem szukającym jest locate, które szybko przeszukuje dyski w poszukiwaniu konkretnego pliku. Ciekawym poleceniem do szukania jest grep, dzięki któremu możliwe jest wyszukanie pliku tekstowego, w którego wnętrzu znajduje się podany jako parametr ciąg znaków.

Kiedy już znajdziemy plik tekstowy, można formatować tekst znajdujący się wewnątrz. Służy do tego polecenie fmt. Możliwe jest także przejrzenie początku pliku dzięki poleceniu head.

Jeśli chodzi o zarządzanie katalogami, to ważnym poleceniem jest mkdir, które tworzy nowy katalog wewnątrz tego, gdzie jesteśmy lub jako zewnętrzny przy podaniu ścieżki bezwzględnej. Aby przenieść katalog, należy użyć polecenia mv. Katalogi można też usuwać, ale tylko wtedy, gdy są puste. Służy do tego polecenie rmdir. Aby natomiast usunąć pliki, należy użyć polecenia rm. Często jest też potrzebne określenie, w jakim obecnie katalogu się znajdujemy - można tego dokonać poleceniem pwd. Aby wyświetlić listę plików znajdujących się w katalogu, używa się polecenia ls.

Aby stworzyć nowy plik należy użyć polecenia touch.

Inne polecenia to na przykład passwd do zmieniania hasła użytkownika, a także host, dzięki któremu możemy uzyskać nazwę i informacje o komputerze o znanym nam adresie IP.