Betriebstechnik | Biographien | Biologie | Chemie | Deutsch | Digitaltechnik |
Electronica | Epochen | Fertigungstechnik | Gemeinschaftskunde | Geographie | Geschichte |
Informatik | Kultur | Kunst | Literatur | Management | Mathematik |
Medizin | Nachrichtentechnik | Philosophie | Physik | Politik | Projekt |
Psychologie | Recht | Sonstige | Sport | Technik | Wirtschaftskunde |
Ähnliche Berichte:
|
Projekte:
|
Papers in anderen sprachen:
|
informatik referate |
Ich habe das Thema Computer gewählt, weil ich mich sehr häufig damit beschäftige. Sei es bloss, um irgendein Foto digital zu verbessern oder um einen einfachen Text zu schreiben, oder um sich die Zeit etwas zu vertreiben. Aus dem letzten Grund entstand auch unser Netzwerk mit zwei Computern, welches demnächst noch ausgebaut werden soll, aus diesem Grund fingen auch mein Bruder und ich damit an, unsere Pcs selber zusammenzustellen und zusammenzusetzen. Ich bin eindeutig interessiert, an den kleinen surrenden Kästchen, das sieht man daran, dass ich vor habe, einmal Informatik zu studieren.
Das Thema Computer ist auch für den Lehrerberuf nicht ohne Bedeutung,
so hat die Primarschule Murten doch schon einen eigenen Computerraum
mit etwa zwanzig Computern. Selbst im Klassenzimmer unserer
'Ubungsschulklasse stehen hinten zwei Computer. Und die
Arbeitsblätter und Prüfungen werden auch immer häufiger und einfacher
mit Computern hergestellt.
Um also mal einen Einblick in die Geschichte der Rechner zu erhalten,
wird im ersten Kapitel die Geschichte von ganz vorne aufgerollt und erläutert,
bis ins Jahr 1924.
Das zweite Kapitel handelt davon, wie die Elektronik die Mechanik
Schritt für Schritt ablöst.
Im dritten Kapitel wird der Zusammenhang zwischen der
Computerentwicklung und dem Militär erläutert. Es wird hauptsächlich
ein ganz grosses Projekt der Vereinigten Staaten nach dem Zweiten
Weltkrieg erklärt. Auch gehe ich kurz auf das Thema Raumfahrt ein.
Das vierte Kapitel ist der Gegenwart gewidmet. Es geht um das
Internet, wie es entstanden ist, was es für Dienste anbietet und
welche Auswirkungen es auf unser Geschäfts- und Alltagsleben hat.
Kapitel fünf stellt die Betriebssysteme vor, die heute am bekanntesten
und verbreitesten sind.
Der letzte Teil der Facharbeit geht um das heimtückische Einschleichen
der Rechner in unser ganz alltägliches Leben.
section
Wenn man sich verdeutlicht, dass ein Computer nur rechnet, so kann man
sagen, dass der erste Computer bereits 1617 aufgetaucht ist. Es ist
eine hölzerne Additionsmaschine, die vom Schotten John Napier
erfunden wurde. Später entwickelte Napier eine Rechenhilfe zum
Multiplizieren, Dividieren und Wurzelziehen.
Zu dieser Zeit gab es den Begriff Computer bereits, allerdings
meinte man damit nicht einen grauen Kasten, der surrt und ab und zu
blinkt, sondern einen Menschen, der seinen Lebensunterhalt damit
verbrachte, zu rechnen. Das erste Mal als eine solche Computermannschaft
aufgestellt wurde, war im Jahre 1766. Ihr Auftrag war es, die
Navigationstabellen des britischen Königreichs zu erstellen.
1822 schlägt Charles Babbage der britischen Königsgesellschaft vor,
dass eine Maschine die Arbeit der menschlichen Computer übernehmen
soll. Die britische Regierung erklärt sich bereit, Babbage's Pläne zu
unterstützen. Charles Babbage reist während zehn Jahren durch Europas
Werkstätten und sucht die präzisesten Zahnräder und die feinste
Mechanik. Nachdem er die Regierung 17'470 Pfund gekostet hat (etwa 20
Dampflokomotiven), stellt er einen lauffähigen Prototypen her. Als
Babbage jedoch versucht, die Regierung von seiner neuen Idee zu
überzeugen, nämlich eine Maschine, die jede ihr gestellte
mathematische Aufgabe löst, erkennt die Regierung, dass Babbage den
Bezug zur Realität verloren hat. Von der Regierung erhält er nie
wieder auch nur einen Penny. Den Rest seines Lebens verbringt er
jedoch damit, seine Idee umzusetzen. Bis 1871 füllt er tausende von
Seiten in seinen Notizbüchern über seine ``Analytical Engine'': eine
vollautomatische Maschine mit Speicher, Lochkartensteuerung und
Druckwerk. Charles Babbage war seiner Zeit etwa um hundert Jahre
voraus.
begin[ht]
begin
includegraphics[width=5cm]
caption
end
end
Die Lochkarte wird erst um 1890 eingeführt. Das amerikanische Amt für
Volkszählungen schrieb nämlich einen Wettbewerb aus, um die Erhebung
der Daten neu zu organisieren (1880 brauchten 1500 Angestellte sieben
Jahre um alle Daten auszuwerten und zusammenzuzählen). Die durch
Hermann Hollerith präsentierte Lochkarte gewinnt diesen Wettbewerb und kommt
eben im Jahre 1890 erstmals bei statistischen Aufgaben zum Zug. Sie
diente allerdings bereits zu Beginn des 19. Jahrhunderts als Träger
von Steuerungsprogrammen für Webstühle.
Hollerith erkrankt 1911 und verkauft seine Lochkartenfirma
(Lochkarten, Leseapparate ldots). Die Firma die sie mit zwei anderen
Geräteherstellern bildet wird 1924 umbenannt und erhält den Namen
``IBM'', International Business Machines Corporation. Thomas Watson, der
Chef dieses Unternehmens, wird in den dreissiger Jahren einer der
bestbezahltesten Manager der USA. Es gelingt ihm, die Macht der grössten
Firma der Büromaschinenwelt, auf den Computermarkt zu übertragen.
section
subsection
subsubsection
1936 entwirft Alan Turing einen imaginären Rechenapparat, der nur auf
Papier existiert. Seine Maschine liest und schreibt auf einem
unendlichen Band Symbole. Sie geht dabei nach einem Algorithmus vor, das
heisst, sie verfährt nach einem festgelegten Ablauf. Dass der
24-jährige ein mathematisches Genie war, wurde erkannt,
dass er den Grundstein für die Computer der Zukunft geliefert hatte,
jedoch nicht.
subsubsection
Mit geringem Aufwand an Personal und Material gelingt es dem Berliner
Bauingenieur Konrad Zuse 1941 als erstem, einen funktionsfähigen,
programmierbaren Relaisrechner (Z3) fertigzustellen. Die
Vorgängermodelle Z1 (1938) und Z2 werden ohne staatliche Unterstützung
in der elterlichen Wohnung gefertigt. Das Ziel von Zuses Arbeiten
besteht darin, schematisch ablaufende Berechnungen, die im Bereich der
Baustatik häufig auftreten, zu automatisieren. Zuse, der seine ersten
beiden Maschinen noch mit der Unterstützung von Freunden und den
Geldmitteln eines Spezialrechenmaschinen-Fabrikanten entwickelte, ist
nach Kriegsbeginn auf die Unterstützung von militärischer Seite
angewiesen. Sowohl die Deutsche Versuchsanstalt für Luftfahrt, die die
Z3 teilfinanziert, als auch die Henschel Flugzeugwerke, die ihm
Artbeitskräfte für sein während des Krieges gegründetes Ingenieurbüro
zur Verfügung stellen, sind mit der Entwicklung der ferngesteuerten
Bomben V1 und V2 beschäftigt. Zuse wird vom Fronteinsatz freigestellt
und entwickelt bei Henschel einen Spezialrechner für die
Flügelvermessung dieser Bomben. Allerdings ist dieses Spezialgerät das
einzige, das direkt zur Stärkung des deutschen Militärpotentials
beiträgt. Die Anforderungen an die Maschinen Z1 bis Z4 sind in erster
Linie durch Probleme aus dem Bereich der Baustatik bestimmt. Für
Zuse war die entgültige Maschinenstruktur noch nicht gefunden. Diese
hatte sich den Aufgaben anzupassen. Also musste der Weiterentwicklung
der Maschinen die Entwicklung eines Plankalküls vorausgehen, der es
erlaubte, die einschlägigen Probleme zu beschreiben. Für die Probleme,
die Zuse zum Massstab nahm, war zu dieser Zeit für eine Bearbeitung
auf den Maschinen kein großes Interesse vorhanden.
Der Zusammenbruch des Hitler-Faschismus setzt der deutschen
Rechnerentwicklung vorerst ein Ende. Im Rahmen der nationalen und
internationalen Entwicklung der Informatik sind Zuses Arbeiten
lediglich von historischem Wert. Zwanzig Jahre nach Beendigung des
Zweiten Weltkrieges gibt es die von Zuse gegründete Firma nicht
mehr. Sie ist von dem größten deutschen Rechnerhersteller, der Siemens
AG, aufgekauft worden. Doch auch bei Siemens ist der dominierende
Einfluss der amerikanischen Entwicklung sichtbar geworden.
subsubsection
Ebenfalls im Jahre 1936 beschliesst der Physikstudent Howard Aiken,
eine Maschine zu bauen, die Differentialgleichungen lösen kann. Die
Frma IBM bietet ihm finanzielle Unterstützung an. Nach sechs Jahren
wird sein Rechenapparat fertig gestellt. Die Maschine namens
textsc wiegt fünf Tonnen und ist fünfzehn Meter lang. Sie
schafft drei Additionen pro Sekunde, um einen Logarithmus auszurechnen
braucht sie über eine Minute. Die von Hermann Hollerith
bekanntgemachte Lochkarte findet auch hier wieder Verwendung, nämlich
als Programmspeicher. Man kann allerdings nicht mehr von Lochkarten
sprechen, die Programmkarten für textsc sind acht Zentimeter
breite, mehrfach gefaltete Bänder, in die die Rechenprogramme
eingelocht sind.
subsubsection
Die durch die trägen, elektromechanischen Schaltungen sehr langsamen
Apparate von Konrad Zuse und Howard Aiken wurden bereits im nächsten
Jahr, 1937 von der Idee des Mathematikers John Atanasoff überholt. Er
plant ein binäres Rechengerät, welches mit Elektronenröhren
funktioniert. Da keine Mechanik betätigt werden muss, schalten sie
viel schneller, als die bisherigen Relais. Sie waren also für den
Computerbau ideal. John Atanasoff stoppt jedoch seine
Computerforschung als er von einem Forschungslabor der
amerikanischen Marine angeworben wird.
subsubsection
Die Entwicklung des Computers wird nicht nur von neuen Technlogien
(Röhren, Lochkarteldots) oder vom Erfindergeist mancher klugen Leute
vorangetrieben, sondern auch vom Bedürfnis der Computer zu
militärischen Zwecken.
Alan Turing wird vom britischen Geheimdienst geholt, um ein Gerät
namens Colossus zu bauen. Dieses Gerät ermöglicht es den Alliierten,
die Funkcodes der deutschen Chiffriermaschine Enigma zu
entschlüsseln. Colossus ist zu einem grossen Teil auch ein Faktor,
weshalb die Alliierten über das dritte Reich siegen.
subsubsection
Eine andere Anwendung der Computer im Militär ist die Berechnung von
Schussbahntabellen. Eine typische Feuertabelle enthält ca. 3000
Flugbahnen. Der von Bush entwickelte Differential Analyzer ist zwar
etwas schneller als die bis dahin entwickelten Relaisrechner, auch
50mal schneller als ein Mensch mit einem mechanischen Tischrechner,
jedoch hätte die Berechnung einer einzigen Feuertafel noch 30 Tage
gedauert.
Aufgrund eines Vorschlages von John W, Mauchly, in dem er empfiehlt,
Röhren zum Bau von Rechnern zu verwenden, schreiben er und Prosper
Eckert 1943 einen Report über einen ``Electronic Diff. Analyzer'', der
mindestens 10mal so schnell sein sollte wie die bisher benutzten
Maschinen. Sie senden ihn im Namen der Moore School an das Ballistic
Research Laboratory in Aberdeen. Nach einem kurzen Treffen in Aberdeen
werden die Mittel zur Realisierung dieses Vorschlages vom Militär
bewilligt. Mauchlys Konzept basiert auf den Anregungen von J. v.
Atanasoff, der ihm bereits 1941 seine Vorstellungen einer digitalen
elektronischen Version des Differential Analyzers unterbreitet hatte.
Atanasoff ist aufgrund fehlender finanzieller, personeller und
technischer Mittel nicht in der Lage, seine Vorstellungen selbst zu
verwirklichen.
Das Ergebnis, der Electronical Numerical Integrator and Computer
(ENIAC) erfüllt die militärischen Anforderungen an die
Rechengeschwindigkeit besser als erwartet; er ist etwa 1000mal
schneller als die Relaisrechner (wie textsc) und der Differential
Analyzer. Er ist etwa vierundzwanzig Meter lang und zwei Meter
hoch. Sein Inneres besteht aus über 18'000 Elektronenröhren.
Die bis zu diesem Zeitpunkt verbreiteten Analogmaschinen verlieren
ihre Bedeutung. Die mechanischen Geräte haben gegenüber den
Digitalrechnern den Nachteil, daß sie mit wachsender
Rechengeschwindigkeit ungenauer werden. Von Neumann begründete seine
Erwartung, daß Digitalrechner effektiver sind, mit dem Argument, dass
bei digitalen Maschinen mit doppelten Kosten eine doppelte
Geschwindigkeit erzielt werden kann, dieser Faktor jedoch bei analogen
Geräten erheblich ungünstiger wäre.
Obwohl auch heute noch für spezielle militärische Anwendungen
leistungsfähige Analogrechner eingesetzt werden, haben sie auf die
weitere Rechnerentwicklung keinen Einfluß. Sie können ebenso wie die
elektromechanischen Rechner die durch militärische Erfordernisse
forcierten Anforderungen an Rechengeschwindigkeiten,
Verarbeitungskapazität und Zuverlässigkeit nicht erfüllen.
subsubsection
Wiederum gefördert von den Ballistic Research Laboratories, entwickelt
das ENIAC-Team den Electronic Discrete Variable Arithmetic Computer
(EDVAC). Im EDVAC-Entwurf wird zum ersten Mal das Konzept eines
Universalrechners mit interner Programmspeicherung (von
Neumann-Rechner) entwickelt, das auch heute noch das Grundprinzip des
Computers ist. Durch die Verbreitung dieser Entwürfe und die
Vorlesungen von Neumanns an der Moore School (1946) werden die
Arbeiten der ENIAC-Gruppe international bekannt. Der ENIAC wird als
Wurzel der Computerentwicklung betrachtet. Die enormen finanziellen
Mittel, die das amerikanische Verteidigungsministerium zur Förderung
der Rechnerentwicklung weiterhin aufwendet, verschaffen den
Amerikanern eine weltweite Vormachtsstellung auf dem Gebiet der
Rechnerentwicklung.
subsection
William Shokley, John Bardeen und Walter Brattain erfinden 1947 den
Transistor. Er wird zunächst nur als Verstärker gebraucht, man erkennt
seine Eigenschaften als schneller Schalter jedoch bald. Anfangs der
50-er Jahre wird er dann in Massen produziert, Hauptabnehmer ist das
Militär. 1956 erhalten Shokley, Bardeen und Brattain den Nobelpreis
für die Erfindung des Transistors. Shokley gründete kurz davor eine
Firma namens textsc. 1957 verlassen
ihn allerdings seine acht Ingenieure und gründen eine eigene Firma:
textsc. Die erste Firma die nichts anderes
als Siliziumhalbleiter produziert. Die Gründer der Firma sind Robert
Noyce und Gordon Moore. Andere Halbleiterfirmen schiessen wie Pilze
aus dem Boden. Die Wurzeln dieser Firmen führen fast alle zu Shokley
oder Fairchild zurück. Zwei Beispiele sind textsc und textsc
(AMD). 1968 verlässt Robert Noyce Fairchild und gründet die heute
bekannteste Prozessorherstellerfirma textsc (Integrated
Technology). Die meisten Halbleiterhersteller Nordamerikas (ausser
textsc und textsc) befinden sich im
kalifornischen Silicon Valley.
subsubsection
Der Transistor wird laufend verkleinert, bis er schliesslich 1962 die
Grösse eines Salzkorns hat. 1968, sechs Jahre später, setzt sich der
Mikrochip, eine Vielzahl von Transistoren auf einem kleinen Schnipsel
Kristall, durch. 1971 bringt Intel den Chip textsc
heraus. Ein Chip mit 2300 Transistoren. Diese Technik wird bis heute
verfolgt. Das heisst, seit 1971 hat sich nur noch die Architektur der
Chips verändert, die grundlegende Technik zur Chipherstellung ist
immer noch dieselbe geblieben.
begin[ht]
begin
includegraphics[width=4cm]
caption
end
end
Zur Chipherstellung wird eine Kristallscheibe fotochemisch
beschichtet, darauf ein Schaltplan projiziert, anschliessend ätzt
Säure die so festgeschriebenen Strukturen aus dem Material. Dies wird
so oft wiederholt, bis alle Transistoren, Verbindungsleitungen und
sonstigen Bauelemente komplett sind. Mit dieser Technik kann man etwa
noch bis ins Jahr 2003 arbeiten, danach stösst die optische Belichtung
an ihre Grenzen. Zur Zeit rüsten die Chiphersteller ihre Fabriken mit
Lasern aus, um die einzelnen Schaltungen noch kleiner werden zu
lassen.
section
Wie man anhand der Computerentwicklung sehen kann, ist das Militär
sehr stark am Computer interessiert. Eine weitere mögliche Nutzung
der Rechner wird bald erkannt:
subsection
``Noch 1942 wird von Vannevar Bush und seinen Mitarbeitern am MIT
(Massachusetts Institute of Technology) eine
verbesserte Version des Differential Analyzers entwickelt, bei der
mechanische Teile durch elektronische Konstruktionen ersetzt
werden. 1944 beginnt eine andere Gruppe am MIT unter der Leitung von
Jay W. Forrester, einen Analogrechner zur Flugsimulation (WHIRLWIND)
zu entwickeln. Nach einigen Gesprächen im November 1944 mit Offizieren
und Wissenschaftlern, die an der Entwicklung des ENIAC betelligt
waren, wird diese Entscheidung revidiert: ``Wir werden nicht mehr
einen Analog-Computer bauen; wir bauen einen Digitalcomputer''.
Doch die Förderung für dieses Projekt wird ab 1948 reduziert und
schliesslich ganz eingestellt. Das Interesse des Office of Naval
Research (ONR), das bisher ca. 1 Million Dollar pro Jahr für das
Projekt ausgegeben hatte, besteht primär in mathematischen
Berechnungen, wie Feuerkontrolle, Flugbahnberechnungen usw.; an der
Echtzeitverarbeitung, dem Schwerpunkt des WHIRLWIND-Projektes, besteht
kein Interesse.
Der ``Kalte Krieg'' führt dazu, dass Frühwarnsysteme (air defense
systems) eine hohe Priorität in der Forschung erhalten. Nachdem es den
Russen gelungen ist, die Atombombe zu bauen, geht es darum, die mit
dieser Waffe ausgerüsteten Interkontinentalbomber frühzeitig erkennen
zu können. Die Arbeiten am MIT auf dem Gebiet der Radartechnologie
zeigen, dass WHIRLWIND auch für den neuen Zweck optimal geeignet ist;
die Förderung wird jetzt (1950) von der Luftwaffe übernommen.
Die über Telefonleitungen ankommenden Daten der Radarstationen werden
vom Rechner aufbereitet und im Kontrollraum auf Bildschirmen
angezeigt, an denen die Flugüberwachungsoffiziere die angezeigten
Objekte identifizieren und die Position erfassen.
Die militärischen Anforderungen nach Steigerung der
Rechengeschwindigkeit, Vergrösserung der Leistungsfähigkeit, Erhöhung
der Zuverlässigkeit und nach zunehmender Miniaturisierung werden von
WHIRLWIND erfüllt. Als Kernstück des ``Cape Cod System'' ist dieser
Rechner der Prototyp für das Semiautomatic Ground Environment (SAGE)
Air Defense System. Es ist der erste Rechner mit Echtzeitverarbeitung,
doch ohne ``interrupt handling'', so dass für die ankommenden
Radardaten als externer Zwischenspeicher eine Magnettrommel benötigt
wird. Eine weitere Trommel benötigt man für die Speicherung des 20'000
Instruktionen umfassenden Cape Cod Systems. Mit seinem 16
bit-Prozessor kann WHIRLWIND trotz seiner Größe als erster
Mini-Computer bezeichnet werden.cite'' Neuartig sind:
begin
item die Verwendung einer zentralen Datenleitung im Rechner (main bus),
item die Entwicklung von Prüfzeichen (parity bit) und Fehler
erkennenden Codes zur Fehlerananlyse bei der Datenübertragung,
item der Einbau eines Magnetkernspeichers, durch den die
Rechengeschwindigkeit verdoppelt werden kann,
item der Anschluss von Telefonleitungen zur Übermittlung der
Radardaten (Datenfernübertragung),
item die Verwendung von Bildschirmgeräten (Radargeräten mit Schriftanzeige),
item die Benutzung eines Lichtgriffels (light gun) für die
Positionseingabe durch den Flugüberwachungsoffizier.
end
begin[ht]
begin
includegraphics[width=4cm]
caption
end
end
Neben der Anpassung von WHIRLWIND an die durch die Air Force
gestellten Aufgaben entwirft das Projektteam den neuen Computer für
SAGE. Zehn Jahre nach der Fertigstellung wird der Betrieb von
WHIRLWIND 1959 eingestellt. Das wichtigste Argument dafür sind neben
den Betriebskosten von 300'000 Dollar die hohen Wartungskosten für die
Software. Ein weiterer Grund ist, weil SAGE nicht sehr zuverlässig
war: wenn sich die Flugbahn von zwei Flugzeugen kreuzten, konnte SAGE
nicht mehr zwischen feindlichem und freundlichem Flugzeug
unterscheiden, glücklicherweise traf dieser Fall nie ein. Das
WHIRLWIND-Projekt ist der Anfang einer langen Entwicklung hin zum
``vollautomatisierten Schlachtfeld'', wobei dem Rechner die zentrale
strategische und technologische Funktion zufällt. Mit der Abkehr von
einem passiven Luftüberwachungssystem hin zu einem System, dem später
die Zielauswahl für die Interkontinentalraketen übertragen wird, das
wichtige Entscheidungs- und Auswertungsfunktionen übernimmt und das
für die Verknüpfung aller Teilsysteme sorgt, ist WHIRLWIND bzw. SAGE
der Prototyp für die mit C3I (command, control, communications and
intelligence) bezeichneten Frühwarn- und Entscheidungssysteme (FWES).
subsection
Natürlich werden auch in der Raumfahrt Computer eingesetzt. Allerdings
sind es nicht ganz gewöhnliche Computer wie sie überall auf der Erde
laufen, sondern speziell für den Weltraum entwickelte Systeme.'' Dies
aus dem Grund, weil im Weltraum ganz andere Bedingungen herrschen als
auf der Erde:
begin
item Selbst in Satelliten schwanken die Temperaturen stark, da keine
Atmosphäre für einen schnellen Temperaturausgleich sorgt. Ein Satellit
ist auf der Sonnenseite Temperaturen von +120 Grad und auf der
Schattenseite Temperaturen von -190 Grad ausgesetzt. Auf der
Nachtseite kühlt der ganze Satellit relativ schnell aus.
item Das zweite Hindernis ist das Vakuum. Für die Elektronik selber
bedeutet dies keine Einschränkung, jedoch für den
Massenspeicher. Festplattenlaufwerke können im Vakuum nicht betrieben
werden. Früher wurden daher Bandlaufwerke zur Speicherung der Daten
eingesetzt. Diese verfügten schon früh über relativ große Kapazitäten,
der Zugriff und die Aufzeichnungs- und Wiedergabegeschwindigkeit waren
jedoch gering.
item Als drittes Hindernis ist die Bedingung der fehlenden
Gravitation. Auch dies wirkt sich vor allem auf mechanische Bauteile
aus. Im allgemeinen ist es jedoch kein grosses Problem.
item Das letzte Problem ist dafür schwerer zu lösen. Es sind die
kosmischen Strahlen der Sonne und des Weltraums. Diese schädigen die
Elektronik. Für den Weltraumeinsatz wird daher eine spezielle
strahlungsresistente Elektronik gefordert. Dies macht oft besondere
Techniken bei der Herstellung nötig, und die Gefahr der
Empfindlichkeit steigt von Chip- zu Chip-Generation. Daher erscheinen
heute die eingesetzten Prozessoren relativ veraltet, da die
Entwicklung in den letzten Jahren nur langsam fortschritt. Noch
bedeutsamer ist dieses Problem bei planetaren Missionen, vor allem bei
Missionen zum Jupiter, bei dem der Strahlungsgürtel ungleich mächtiger
als auf der Erde ist.
item Die Stromversorgung: Strom ist in Raumfahrzeugen
limitiert. Besonders Planetenmissionen verfügen nur über relativ wenig
Strom, wenn die Mission zu den äußeren Planeten geht. Heute sind
Prozessoren wahre Stromfresser. Ein Athlon Prozessor verbraucht bei
600 MHz fast 40 Watt an Strom. Dabei entsteht Abwärme die auch
abgeführt werden muß. Dies verbraucht weiteren Strom, da Lüfter
mangels Atmosphäre wirkungslos sind. Daher werden oft spezielle
Varianten für den Weltraumeinsatz gefertigt, die weniger Strom
verbrauchen, oder geringerer getaktet sind.
item Zuverlässigkeit: Hardware an Bord eines Satelliten sollte heute
eine Lebensdauer von 12-15 Jahren haben, denn so lange kann ein
Satellit betrieben werden. Trotzdem ist dies heute weniger ein Problem
als in den sechziger und siebziger Jahren, als die geforderte
Zuverlässigkeit oft nur durch überzählige Bauteile erreicht werden
konnte.cite''
end
begin[ht]
begin
includegraphics[width=3.5cm]
caption
end
end
Aus all diesen Gründen müssen die Computer für den Einsatz im Weltraum
entweder umgerüstet werden oder es müssen völlige Neuentwicklungen
gemacht werden. Als Beispiel für eine Anpassung der ``Erdcomputer'' an
den Weltraum soll uns die Raumsonde textsc dienen.
subsubsection
Die Raumsonde Mars Pathfinder besteht
eigentlich aus zwei Teilen : Der eigentlichen ca 330 kg schweren
Raumsonde und einem nachtischgrossen ca 20 kg schweren Rover.
``Die Raumsonde selbst verfügte über einen Bordcomputer auf Basis eines
IBM Power PC Chips, den IBM auch in seiner RS/6000 Reihe einsetzt und
der auch in Apples zu finden ist. Eine weltraumtaugliche Version
(modifiziert von Lockheed Martin) wird im Mars Pathfinder
eingesetzt. Die Taktgeschwindigkeit wurde von 200 auf 20 Mhz gesenkt,
um den Stromverbrauch zu senken. Der Prozessor leistete bei dieser
Geschwindigkeit immer noch 22 Millionen Instruktionen pro Sekunde und
verbrauchte 10 Watt. Die Software selbst besteht aus einem 6 MB EEPROM
und einem 128 MB RAM, das auch zur Datenspeicherung dient. Derselbe
Rechner sollte auch dem Mars Polar Lander als Hauptrechner dienen,
leider meldete sich die Sonde nach der Landung nicht mehr.
Anders sah es bei dem kleinen Rover aus. Er verwendete einen 80C85,
einer Millitary CMOS Version des Nachfolgers des legendären
8080. Mithin war der Prozessor beim Start so ca 20 Jahre alt. Immerhin
verarbeitete der Computer die Daten von 70 Kanälen, darunter die
Bewegung der Motoren, Kameras und die Daten der Experimente. Die Daten
wurden über ein UHF Modem mit 2.4 KBaud an den Pathfinder
geschickt. Obgleich die Hardware damals nicht die neueste war erfüllte
Sie ihren Zweck, denn der ganze Sojourner hatte nur 16 Watt Strom zur
Verfügung, wofür selbst für das Fahren nur 10 Watt verbraucht
wurden. Zum Vergleich : Ein PC verbraucht je nach Ausbaustufe ohne
Monitor 80-150 Watt.cite''
section
subsection
Das amerikanische Verteidigungsministerium konstruiert 1969 ein
Computernetz mit dem Namen textsc (Advanced Research
Projects Agency-NET). Es besteht aus vier miteinander verbundenen
Computern. 1972 wird es der 'Offentlichkeit präsentiert und zur
Verfügung gestellt. Es schliessen sich bald viele Universitäten und
Forschungseinrichtungen an. Die TCP/IP-Protokolle werden bis 1982
entwickelt, dabei wird grosser Wert darauf gelegt, dass diese
Protokolle von allen Rechnertypen verstanden werden.
``Heute beteiligen sich über 12,8 Millionen Computer am Internet. Die
meisten Rechner befinden sich allerdings in den USA und Europa. Etwa
66 Prozent der Grossrechner stehen in den Vereinigten Staaten von
Amerika. Der Rest des Internet findet man zu 22 Prozent in West- und
Mitteleuropa, ein Prozent in Osteuropa, 0,3 Prozent§ im mittleren Osten,
0,5 Prozent in Lateinamerika, vier Prozent in Australien, 3,5 Prozent
in Asien (davon 2,5 Prozent in Japan) 0,6 Prozent in Afrika (ohne
Südafrika 0,001 Prozent). Die wirtschaftlich unterentwickelten Länder
haben kaum Zugang zum Internet, sie können es sich finaziell kaum
leisten. Dazu kommt, dass es in den technologisch und ökonomisch
rückständigen Ländern kaum Daten gibt, die im Internet veröffentlicht
werden. Wenn sich also doch jemand den Zugang zum ``Weltmedium''
verschaffen kann, erhält die meisten Informationen aus den USA und
Europa, wird also fremdbestimmt. In der Schweiz gab es zu Beginn des
Jahres 1999 bereits über 500'000 Internetanschlüsse, eine Zahl, die
täglich grösser wird.cite
subsection
``Die Benutzung des Internet kann aufgeklärt, nach Regeln des Anstands,
geltender Ethik und nach Massgabe der Menschenrechte geschehen -- oder
aber unvernünftig, ideologisch, destruktiv, kriminell und
menschenverachtend. Beispiele für Letzteres sind die Verbreitung von
rassistischer Propaganda und Pornographie über das Netz. Wegen der
technisch gegebenen Offenheit des Internet und auf Grund seiner
globalen Konstruktion sind die einzelnen Nationalstaaten nicht in der
Lage, den vernünftigen Gebrauch des Internet mittels entsprechender
Gesetze durchzusetzen. Es braucht hierzu wohl eine Ethik der Benutzer,
die eigene Regeln des Umgangs mit dem Internet entwickeln müssten.cite
subsection
subsubsection
Eine der ersten Anwendungen, die, als das Internet Anfangs der 70er
Jahre bekannt wurde, sehr grossen Anklang fand, ist die elektronische
Post, auch E-Mail [i:mel] genannt. Dieser Dienst
erlaubt es den Internetbenutzern, Briefe, die nur als Datei
existieren, anderen Internetbenutzern zu senden. Heute wird die E-Post
für allerlei Zwecke benutzt: Geschäftsbriefe, private Briefe,
Werbungldots auch Kettenbriefe geistern bereits im Internet herum.
subsubsection
Es wurde erst 1993 am Cern-Institut in der Schweiz entwickelt. Der
Grundstein ist das HTTP (Hypertext Transfer Protocoll). Drei Jahre
nach der Einführung des HTTP zählt das WWW zu den erfolgreichsten und
bekanntesten Diensten des Internet. Dies, weil es für den Benutzer
sehr einfach zu bedienen ist. Das WWW bietet massenweise Informationen
verteilt auf vielen Servern in der Welt. Man kann das WWW benutzen, um
Text-, Bilder-, Ton- oder gar Videodateien zu veröffentlichen oder zu
suchen, auch um sich eine Theaterkarte reservieren zu lassen oder eine
Pizza zu bestellen. Um sich im World Wide Web orientieren zu können, gibt es
sogenannte Suchmaschinen. Man gibt diesen Computern an, was man im
Internet sucht und diese geben einem dann verschiedene URLs an, wo
sich die gesuchte Information oder der gesuchte Dienst befindet.
subsubsection
Telnet bedeutet Terminalemulation. Das heisst, man kann mit einem
entsprechenden Programm seinem Computer den Befehl geben, sich wie ein
Terminal zu verhalten. Dazu braucht es aber noch einen zweiten
Computer, der die Servertätigkeit übernehmen muss. Der erste Computer
logt sich mit einem Benutzernamen und einem Passwort beim zweiten
Computer ein und benutzt dessen Rechnerleistung. Die Ergebnisse
erscheinen dann auf dem Bildschirm des ersten Computers. Man kann so
also an Bibliotheken, die über elektronische Verwaltung führen,
Anfragen stellen oder statistische Analysen am Grossrechner von seinem
Heimcomputer aus durchführen.
subsubsection
Kurz FTP. 'Ahnlich wie bei Telnet muss man sich bei FTP bei einem
anderen Rechner einloggen. Das FTP wurde entwickelt, um grössere
Dateien auf den eigenen Computer zu laden. Um jedoch der
'Offentlichkeit diesen Dienst anbieten zu können, gibt es Server, die
den Benutzernamen ``Anonymus'' akzeptieren, als Passwort gibt man dann
die E-Mail-Adresse ein. Für den Server bedeutet dies, dass man nicht
registriert ist, man also nicht alle Dateien auf dem Server benutzen
kann.
subsubsection
Wenn man im Internet ist und eine Seite kann nicht gefunden werden, so
erscheint häufig: ``The requested URL could not be retrieved!''. Das
bedeutet, dass die Internet-Adresse (eben der URL) nicht
existiert. Der URL, Uniform Resource Locator, ist wie folgt
zusammengesetzt:
begin
item um welche Art von Informationen es sich handelt.
item auf welchem Rechner die Informationen zu finden sind und
item wo auf diesem Rechner die Information gespeichert ist.
end
Am Besten kann man die Funktionsweise eines URLs an einem Beispiel
erläutern:
begin
texttt
end
Der erste Teil des URLs bedeutet die Art des
'Ubertragungsprotokolls. In unserem Fall also HTTP, das Protokoll für
das World Wide Web. Dieser Teil endet mit einem
Doppelpunkt. Der zweite Teil, texttt, beginnt mit zwei
Schrägstrichen. Er gibt den Servernamen des gewünschten Computers an. Der
dritte Teil, texttt,
beschreibt den Pfad der Datei auf dem angesprochenen Server. Er
beginnt mit einem Schrägstrich.
subsubsection
Die Newsgroups sind als Diskussionsforen zu bezeichnen, bei welchen
die Internetbenutzer per E-Post einander Fragen stellen können. So kann zum
Beispiel Person A, welche Probleme mit seiner Kaninchenzucht hat, das
speziell für die Kaninchenzucht gebildete Diskussionsforum anfragen,
welchen Fehler sie macht. Wenn die Person A Glück hat, so antworten ihr
etwa fünf Personen. Wenn sie Pech hat antwortet ihr niemand oder
hunderte. Die Frage, die gestellt wurde, ist natürlich für alle
Personen ersichtlich, so dass man die Probleme und Lösungen der
anderen Personen sieht., bevor man selber eine Frage stellt.
subsection
``Amerikas Unternehmen stehen in den meisten Schlüsselindustrien der
modernen Informationsgesellschaft an der Spitze und haben sich voll
darauf eingestellt, dass das Internet die Geschäftswelt
revolutionieren wird. Die bisherige Führungsposition der US-Konzerne
ist vor allem günstigen wirtschaftlichen Rahmenbedingungen zu
verdanken.
``Amerika ist der Ofen, in dem die Zukunft geschmiedet wird.'' Das hat
Leo Trotzki vor nunmehr über 70 Jahren in seiner Autobiographie ``Mein
Leben'' vermutet. Natürlich entwickelte sich die Geschichte anders, als
sie sich der Kommunist vorstellte. Nicht Marx, sondern der Markt
feierte Triumphe. Auch an der Schwelle zum 21. Jahrhundert scheint
Amerika jedenfalls in wirtschaftlicher Hinsicht die Schmiede der
Zukunft zu sein. Die USA stehen in den meisten Schlüsselindustrien der
modernen Informationsgesellschaft an der Spitze. Amerikanische
Pionierunternehmen, die vielfach erst gerade während der letzten
zwanzig Jahre entstanden sind, führen insbesondere bei der Entwicklung
von Computer-Hardware und -Software sowie beim Aufbau des
Internets. Hinzu kommen bedeutende Vorsprünge vielversprechender
Sparten der Fernmeldetechnik und der Biotechnologie; und diese
Fortschritte wiederum wären ohne die mächtige Computertechnik kaum
erreichbar gewesen.
Praktisch alle amerikanischen
Topmanager sind davon überzeugt, dass die Informatik und
``Killerapplikation'' Internet zu mächtigen Umwälzungen in der Wirtschaft
und zu einer weiteren Beschleunigung der Globalisierung führen
werden. Die Erneuerung sei derart integral, dass gut und gerne von
einer ``New Economy'' gesprochen werden könne. Die Behauptung von
Microsoft-Chef Bill Gates, dass sich die Geschäftswelt in den
nächsten 10 Jahren stärker verändern wird als in den letzten 50
Jahren, wird selten als Übertreibung empfunden. Amerikanische
Unternehmen haben sich bereits während der letzten Jahre ernsthaft,
das heisst auf der obersten Führungsebene, mit den Möglichkeiten des
Internets auseinandergesetzt und stark in Richtung Cyberspace
investiert. Die neue Herausforderung führte bereits zu ersten
Grossfusionen, man denke nur an den geplanten Zusammenschluss von
America Online und Time Warner oder an die Kombinationen im
Fernmeldesektor.
Die amerikanische Ausrüstungsinvestitionen nahmen in der zweiten
Hälfte der neunziger Jahre massiv zu. Dabei stiegen die realen
Auslagen für Computeranlagen jährlich um über 40%. Sehr rapide werden
auch die Übertragungskapazitäten in der Fernmeldeindustrie ausgebaut,
um den Internet-Verkehr problemlos bewältigen zu können. Gegenwärtig
wächst das amerikanische Glasfasernetz um rund 6000 ``Strang''-Kilometer
pro Tag, und Experten gehen davon aus, dass sich die
Übertragungsbandbreite in den nächsten Jahren jährlich verdreifachen
wird. Annähernd 50% der US-Haushalte verfügen bereits über einen
Internet-Anschluss, und auf sie entfallen mehr als zwei Drittel der
Kaufkraft. In Europa hat die Internet-Penetration während der letzten
Jahre ebenfalls stark zugenommen, liegt doch der Anteil der
Online-Haushalte bei rund 15%.cite''
subsubsection
``Während der letzten Jahre sind in den USA nicht nur Tausende neuer
Online-Firmen aus dem Boden geschossen, die Pionieruntermehmen wie
Amazon, Yahoo!, E-Trade oder E-bay nachzueifern versuchen. Auch die
meisten Konzerne der ``Old Economy'' haben die neue Herausforderung
längstens angenommen. Der Pharmakonzern Merck führt schon jetzt die
grösste Online-Apotheke, der Computerkonzern Dell verkauft bereits die
Hälfte seiner Apparate via Internet, und höchste Priorität haben auch
etwa Industriekonzerne wie Honeywell oder General Electric dem neuen
Medium zugemessen. General-Electric-Chef Jacke Welch erklärte im
neusten Geschäftsbericht, dass das Internet die ``Erbsubstanz von
General Electric für immer verändert, das Unternehmen mit neuer
Energie versehen und in jeder Beziebung revitalisiert'' habe. Ford
Motor errichtet mit den Rivalen General Motors und Daimler-Chrysler
einen Online-MarktpIatz für den günstigeren Einkauf von Komponenten;
solche Online-Märkte für den Einkauf sind auch in den meisten anderen
Branchen im Aufbau. Experten gehen davon aus, dass in den nächsten
Jahren vor allem der Internet-Handel zwischen Firmen explosionsartig
zunehmen werde; die Marktforschungsfirma Forrester Research rechnet
damit, dass der Offline-Grosshandel im Jahr 2003 allein in den USA ein
Volumen von 1300 Mrd. $ erreichen und damit über 90 % des E-Commerce
bestreiten werde. Gemäss einer Erhebung von Andersen Consulting
scheinen in Europa viele Unternehmer dem Internet immer noch mit
erheblicher Skepsis zu begegnen. Erst 64% der befragten Manager (im
Vorjahr 51%) erblicken einen Wettbewerbsvorteil im
Internet. Symptomatisch für diese Haltung war unlängst vielleicht auch
die Antwort eines deutschen Top-Bankiers auf die Frage, was er vom
Electronic banking halte. Er sagte: ``In Deutschland hat das für uns
noch keine, Priorität, unsere Kunden lieben den Bankschalter; wir
haben das mit Umfragen genau untersucht'' Solche Meinungsumfragen sind
jedoch tückenreich. Im Wettbewerb setzt sich letztlich jener
Unternehmer durch, welcher die Kundschaft davon überzeugen kann, dass
die neuen Produkte oder Dienste praktischer und günstiger sind.cite''
subsection
``Mit dem Internet können die Menschen auf eine neue Art miteinander
kommunizieren, Beziehungen eingehen und pflegen (per E-Post, in
Gesprächsrunden, sogenannten Chats, in
Videokonferenzenldots). Soziale Interaktion wird auf diese Art bequem
und deshalb vielleicht häufiger. Aber man bleibt auf eine bestimmte
Art vor dem Computer immer einsam. Das Gespräch auf dem Internet
bringt natürlich niemals die Atmosphäre einer wirklichen Begegnung
zwischen Menschen hervor.
Bestimmte Arbeitsplätze können dort eingerichtet werden, wo ein
Computer steht und auf das Netz gegangen werden kann. Menschen, die
weit voneinander entfernt leben, können zusammenarbeiten. Zugleich
besteht auch die Gefahr der Isolation der Arbeitnehmer, wenn oft nur
noch sachlich über den Computer miteinander kommuniziert wird oder man
sich in virtuellen Unternehmen aufhält, ohne soziale oder
gewerkschaftliche Traditionen.
Mit dem Internet wird auch ein neuer Umgang mit Wissen möglich. Der
Austausch von Informationen und Wissen zu verschiedensten Zwecken
wird leichtgemacht und kann über weite Entfernungen geschehen. Das
Internet stellt frei zugängliche, riesige Informations- und
Wissensarchive zur Verfügung, Hypertexte zu den verschiedensten
Themen, deren Inhalte sich dauernd ändern. Im Internet wird nicht
linear wie in einem Buch gelesen. Zu einem Thema liest man vielmehr
isolierte kleine Stücke, die man aus dem grossen Gesamttext, eben dem
Hypertext, entnimmt, indem man verschiedene Adressen mit Dokumenten,
elektronische Magazinen, Websites usw. aufsucht, um das Gefundene
dann für sich selber zu vernetzen. Wissen wird durch das Internet
demokratisiert, jeder und jede kann sich über alles informieren und
Informationen auch weitergeben. Eine freie Urteilsbildung ist
möglich. Dabei ist die Aufnahme von Informationen und Wissen aus dem
Internet aber nicht leicht: Wegen der grossen Menge an Daten und
Informationen muss man gut auswählen können. Um zu verhindern, dass
man sich nur Halbwissen aneignet oder gar elektronisch manipulierten,
falschen Informationen aufsitzt, benötigt man eine hohe
Auswahlfähigkeit, die eine gute Vorbildung einschliesst.cite''
subsection
Das Internet hat sich in den letzten Jahren rasant entwickelt, nicht
nur bezüglich der Anzahl der angeschlossenen Rechner oder der
übertragenen Datenmenge, sondern auch in der Leistungsfähigkeit der
Dienste. Da inzwischen nicht nur akademische, computerorientierte
Experten Zugang zum Internet besitzen, sondern auch Wissenschaftler
und Studenten aus anderen Disziplinen und private Anwender zu den
Nutzern der Dienste zählen, wird wesentlich mehr Wert auf den
Benutzungskomfort gelegt. Durch das World Wide Web mit seinen
komfortablen Browsern (das sind Programme, die einem durch das
Internet ``führen'') und der Integration vieler verschiedener Dienste
unter einer Oberfläche ist es für Anfänger nicht mehr notwendig,
Betriebssystembefehle oder Steuerkommandos zu lernen.
Leistungsfähige
Suchmaschinen machen das ganze Netz und nicht nur einzelne Server zu
einer einzigen Informationsquelle, so dass es nicht mehr notwendig ist
zu wissen, wer welche Informationen anbietet. Eine Weiterentwicklung
dieser Suchhilfen und eine Verbesserung der Informationsstrukturen ist
allerdings in Zukunft notwendig, um die Informationsflut beherrschen
zu können. Eine unschätzbare Möglichkeit bieten dabei die NetNews, mit
denen auf ein globales Wissen und die Erfahrung vieler Experten
zugegriffen werden kann und so ebenfalls der gezielte Zugang zu
Informationen erleichtert wird.
section
Welche Betriebssysteme gibt es: Zu Beginn muss gesagt werden, dass es
sehr viele unterschiedliche Betriebssysteme gibt. Die, die am
bekanntesten sind, werden jetzt vorgestellt.
subsection
Windows 95/98 stammt von Microsoft. Die Firma wurde 1978 von Bill
Gates gegründet und wurde berühmt mit seinem Betriebssystem
MS-DOS. Später wurde eine grafische Oberfläche (die Art, mit dem
Computer über Fenster, Symbole und Mauszeiger zu kommunizieren)
entwickelt und verkauft. Dieses programm hiess Windows, welches immer
weiterentwickelt wurde bis zu der Version 3.11.
begin[ht]
begin
includegraphics[width=9cm]
caption
end
end
``Windows95 ist eine Weiterentwicklung zu Windows 3.11, wobei allerdings
gesagt werden muss, dass es viele Verbesserungen wie beispielsweise die
32bit Architektur mit sich bringt. Ausserdem ist nun nicht mehr MS-DOS
das Betriebssystem, sondern Windows selbst. Eine wichtige Neuerung ist
auch die Datei Msdos.sys, die sich im Root des Startlaufwerks
befindet. Seit Windows 95 ist diese Datei lesbar und dadurch
veränderbar. Hierdurch können Anpassungen vorgenommen werden (Bsp.:
Nicht-Starten der graphischen Oberfläche als Standard
einstellen). Allerdings wird bei Windows95 noch ein 16bit Dateisystem
verwendet. Windows 98 hat ein 32bit Dateisystem und bringt damit noch
mehr Performance mit sich. Außss§rdem verschmilzt der Internet Explorer
mit der Oberfläche. Damit sind dann auch interaktive Inhalte auf dem
Desktop möglich.cite''
Windows von Microsoft ist das Betriebssystem, welches
auf den meisten Heim-PCs läuft. In der Industrie wird neben UNIX
häufig auch Windows NT benutzt. Ein Betriebssystem aus dem Hause
Microsoft, welches allerdings nicht von Microsoft entwickelt und
geschrieben wurde. Der Vorteil von Windows ist, dass man alle
Anwndungen bekommen kann: Spiele, Büroprogramme (Textverarbeitung,
Tabellenkalkulation, Zeichenprogramm,ldots), Fahrpläne,
Telefonbücher,ldots Der Nachteil ist, dass es sehr instabil ist. Dies
kann ich aus eigener Erfahrung bezeugen. Ich arbeite manchmal auf Windows
95, welches mir regelmässig abstürzt, (Ein- bis Zweimal pro Sitzung,
ohne zu übertreiben) ich benutze es dabei, um grosse Bildateien zu
bearbeiten (hauptsächlich scannen).
Dazu kommt, dass durch die Verbreitung von Windows, die meisten
Computerviren Windows-Rechner angreifen. So auch der im Moment
bekannte Virus ``I Love You''. Dieser Virus löscht alle jpg-Dateien
(Bilder), versteckt alle mp3-Dateien und benennt sie um. Er schickt
alle Passwörter, die auf dem Computer gespeichert sind an eine
E-Post-Adresse und schickt sich selber an alle Personen, die im
Adressbuch des Computerbenutzers mit einer E-Post-Adresse gespeichert
sind. Dieser Virus konnte nur durch das Intenet so schnell, so
intensiv verbreitet werden.
subsection
``UNIX ist ein Mehrbenutzer- und damit auch Multitasking-fähiges
Betriebssystem, das heute eines der am weitesten verbreiteten
Betriebssysteme ist. Geschichte: Die Geschichte des Betriebssystems
UNIX geht bis in das Jahr 1969 zurück. Zu diesem Zeitpunkt arbeitete
Ken Thompsen bei den Bell Labarotories, einer Forschungseinrichtung,
die von der Fa. AT&T und der Fa. Western Electric unterhalten
wurde. Ken Thompsen beteiligte sich an einem großen Programmierprojekt
zur Entwicklung des Betriebssystems MULTICS, mit dem sich die Bell
Laboratories in Zusammenarbeit mit der Fa. General Electric und dem
Massachusetts Institute for Technology (MIT) beschäftigten. Im März
1969 zogen sich die Bell Laboratories von diesem Programmierprojekt
zurück. Thompsen plante die Entwicklung eines eigenen Betriebssystems,
das sich stark von den bisherigen Betriebssytemen unterscheiden
sollte. Die dann erste, kommerziell verfügbare Version von UNIX, war
UNIX Version 7. Der Betriebssystemkern enthielt ca. 10'000 Zeilen
Code, von denen aber noch ca. 1'000 Zeilen in Assembler und damit
maschinenabhängig geschrieben waren. Die Umsetzung des
Betriebssystemkerns auf die Programmiersprache C brachte dann aber
eine deutliche Vereinfachung in Fragen der Portierbarkeit. Diese
flexible und portable Konzeption war das Erfolgsrezept von
UNIX.cite''
subsection
``Linux ist ein relativ junges Betriebssystem. Es entstand aus einer
Idee von Linus Torvalds (Helsinki/Finnland), der Unix als perfektes
Betriebssystem ansah, aber erkannte, daß Unix praktisch
unerschwinglich für den Normalverbraucher ist. Er kam auf die Idee,
dass man ein Derivat entwickeln müsste, welches für Jedermann frei
verfügbar ist. Die allerersten Kernel-Teile wurden von Linus
Torvalds alleine entwickelt und im September 1991 über das Internet
verbreitet. In sehr kurzer Zeit fanden weltweit Programmierer
Interesse an dieser Idee und entwickelten die ersten Erweiterungen. So
entstanden ein verbessertes System zur Dateiverwaltung, Treiber für
diverse Hardware, zahlreiche Zusatzprogramme und vieles mehr. Diese
Komponenten wurden ebenfalls kostenlos zur Verfügung gestellt. Das
Gesamtsystem wächst seitdem in rasanter Geschwindigkeit, wobei das
Internet dies natürlich erst möglich macht. Ein wichtiger Faktor ist
die Tatsache, daß Linux frei von Rechten ist und zu diesem Zeitpunkt
bereits frei verfügbare Software vorhanden war. GNU-Programme sind wie
Linux frei kopierbar und werden zudem mit allen Quellcodes
weitergegeben. Das ermöglicht es allen Anwendern, die Programme bei
Problemen oder Fehlern selbst zu erweitern oder zu korrigieren. Daraus
resultieren immer bessere und ausgereiftere Versionen. Der GNU
C-Compiler ist Standard in der Unix-Welt und sogar für DOS / Windows
erhältlich. Linux selbst wird mit dem GNU C-Compiler
weiterentwickelt. Durch viele weitere Komponenten wird zusammen aus
dem Linux-Kernel, zahlreichen GNU-Komponenten, der Netzwerk Software
von BSD und dem ebenfalls freien X-Window-System (grafische
Oberfläche) des MIT ein komplettes System.cite''
subsection
``Das Betriebssystem von Silicon Graphics ist IRIX, das auf UNIX System
V Release 4 basiert. Damit ist eine weitgehende Kompatibilität zu
anderen Derivaten mit diesem leistungsstarken Grundstock gegeben. Bei
aller Leistungsfähigkeit sind die UNIX Befehle allerdings nicht
intuitiv und verlangen vom Benutzer eine lange Einarbeitung. Um
trotzdem eine intuitive Bedienung zu ermöglichen, ist in IRIX mit
Indigo Magic eine Benutzerumgebung vorhanden, die die einfache
Bedienung von PCs mit der Stabilität und Leistungsfähigkeit von UNIX
Plattformen verbinden soll, was zum Teil auch gelingt. Icons
repräsentieren nicht allein Dateien und Applikationen, sondern auch
Peripheriegeräte wie Drucker und CD-Player, andere Computer innerhalb
des Netzwerkes oder sogar Mitarbeiter. Icons sind intelligent, sie
wechseln ihr Aussehen, um eine Statusänderung anzuzeigen, etwa dass
sich im Drucker kein Papier mehr befindet oder im CD-Player eine
Musik-CD liegt. Indigo Magic unterstützt auch ``drag & drop''. So kann
eine Applikation gestartet werden, indem man das entsprechende Icon
oder indem man ein Icon einer Datei auf die Applikation
zieht. Weiterhin können Icons, die oft benötigt werden, direkt auf dem
Desktop abgelegt weerden. Der Dateimanager bietet eine einfache,
graphische Art, durch das Dateisystem zu navigieren. Verschiedene
Ansichtsarten sind gegeben, unter anderem auch eine Darstellung von
Bilddateien durch kleine Kontrollbilder statt einem Icon, was gerade
bei grossen Verzeichnissen voller Bilder sehr nützlich ist.cite''
subsection
``Die Entwicklung des Operating Systems/2 begann bereits 1984. Der Grund
der Entwicklung war die Einführung einer neuen Rechnergeneration durch
IBM. Diese neue Generation sollte mit dem Mikrokanal, einem neuen
Bus-System, ausgestattet werden. 1987 kam diese Technik unter dem
Namen PS/2 auf den Markt. Nach erfolglosem Anlauf von OS/2, der
bedingt war durch die grosse Fehlerbehaftung, stieg Microsoft, nach der
Einführung von Windows, aus der Gemeinschaftsproduktion mit IBM
aus. Der Erfolg von OS/2 blieb auch weiterhin aus. Dies änderte sich
mit der Einführung von Version 2.0, das mit preemptiven Multitasking
und 32-Bit aufwarten konnte. Ein grosses Problem dieser Version war
aber noch die enorme Hardwarevoraussetzung, weshalb es auch nicht zum
grossen Durchbruch von OS/2 kam. IBM arbeitete trotzdem weiterhin an
OS/2 und präsentierte im Oktober 1994 die gründlich modifizierte
Version OS/2 Warp 3, die eine Reihe von Verbesserungen aufwies.
Hardwarevoraussetzungen: 4 MB RAM (besser: 8MB), 386SX (32bit
Prozessor), 35MB Speicherplatz und VGA fähig.cite''
section
Wir sind von den Computern eindeutig abhängig geworden, ähnlich wie
von der Elektrizität:
begin
item In jedem neuen Auto steckt mindestens ein Computer. Die A-Klasse
von Mercedes würde ohne das elektronische Stabilisierungssystem in
einer Elchtest-ähnlichen Situation umkippen. Dank demselben System,
gelingt es dem Audi TT auch in einer Kurve mit einer Geschwindigkeit
von über 180 km/h keinen Unfall zu verursachen., wenn man vom
Gaspedal geht
item Die Automaten in Banken um Geld abzuheben oder die
Billettautomnaten an den Bahnhöfen funktionieren kaum ohne Computer.
item Alle Züge, die schneller als 160 km/h fahren, werden über einen
Linienleiter geführt. Dieser Linienleiter ersetzt das Auge des
Lokführers indem er der Lokomotive die Signale der noch
abzufahrenden Strecke anzeigt. Ab 160 km/h vermag das menschliche
Auge die Signale nicht mehr wahrzunehmen.
item Die modernen Fernseher mit Bild-in-Bild-Funktion und 200 Seiten
Teletext-Seitenspeicher kommen auch nicht ohne Computer aus.
end
Die grossen Entwicklungen, die in den letzten zehn Jahren gemacht
wurden waren eigentlich nur die alte Technologie mit einem Prozessor
zu verbinden.
subsection
Es ist unglaublich, wieviele Kleinrechner sich in einem Haushalt
finden lassen:
begin
item in der Kaffeemaschine
item in einem Ladegerät für Akkus und leere Alkaline-Batterien
item im Kochherd (Baujahr 1999) und Backofen (1999)
item in den Stereoanlagen (Kassettengerät, Receiver und Tuner,
CD-Player ldots einzig im Plattenspieler findet sich keiner, aber
auch hier gibt es Modelle mit Computer)
item im Faxgerät
item Im Videorecorder und in der Videokamera
item in den Funkweckern (diese Wecker werden von einer Mutteruhr in
Frankfurt am Main, DCF77, gesteuert)
end
begin[ht]
begin
includegraphics[width=12cm]
caption
end
end
Dies sind die Geräte, die mir in zehn Minuten in den Sinn kommen. Alle
Apparate befinden sich in unserem Haus. Natürlich kommt noch ein Auto
dazu mit zwei Chips, für das Anti-Blockiersystem und für das automatische
Sperrdifferenzial. Dazu kommen noch zwei PCs, die beide rege benutzt
werden, für Schularbeiten, Bildbearbeitung (es ist ganz interessant,
Fotos elektronsisch zu manipulieren), um Musikdateien zu bearbeiten
(äusserst praktisch für eine Rockband), aber auch um ganz simple
Geschäftsbriefe und Arbeiten zu schreiben.
section
Die Materialbeschaffung für dieses Thema war relativ schwer. Man findet
kaum Bücher, welche aktuell genug sind um für diese Arbeit dienlich zu
sein. Deshalb wählte ich als hauptsächliche Quelle das Internet. Aber
wie ich bereits im Kapitel Internet erwähnt habe, ist es nicht gerade
leicht, sich durch diesen Dschungel von Informationen
durchzukämpfen. Durch glückliche Zufälle entdeckte ich bei einem
Kollegen, eine Ausgabe des GEO, in welcher sehr viele wertvolle
Informationen steckten. Auch durch einen glücklichen Zufall las ich
einen Bericht in der NZZ. Die Quellensuche war nicht gerade sehr
einfach, dies half mir aber, zu lernen, wie man im Medium der Zeit zu
sinnvollem Material kommt.
Da ich sehr viel mit Computern arbeite, probiere ich immer wieder
etwas Neues aus. Ebenso dieses Programm. Es ist kein gewöhnliches
Textverarbeitungsprogramm wie Word, welches ein
textsc-Programm (what you see, is what you get) ist. Das
Programm heisst LaTeX und läuft auf allen Computern. Es ist kein
Schreibprogramm, sondern ein Programm, mit welchem man die Zeichen
setzt. Um eine kleine Idee zu vermitteln, wie man mit LaTeX arbeitet,
lege ich eine Seite hinzu, wie man schreibt. Da ich erst ein paar
Berichte damit und noch keine Arbeiten damit schrieb, entstanden zwei
kleine Probleme, welche ich nur mit Hilfe beheben konnte. Ich bin
jedoch davon überzeugt, dass ich mit einem textsc-Programm
eindeutig mehr Probleme gehabt hätte und mehr Zeit hätte investieren
müssen als mit LaTeX.
Ich lernte bei dieser Arbeit insgesamt viel:
Referate über:
|
Datenschutz |
Copyright ©
2024 - Alle Rechte vorbehalten AZreferate.com |
Verwenden sie diese referate ihre eigene arbeit zu schaffen. Kopieren oder herunterladen nicht einfach diese # Hauptseite # Kontact / Impressum |