Was ist EDV ???
Eine Projektrecherche eines EDV-Grundkurses
 

Die Elektronische Datenverarbeitung (kurz EDV oder DV genannt) ist der Sammelbegriff für die Erfassung und Bearbeitung von Daten durch elektronische Maschinen. Elektronische Maschinen waren früher elektromechanische Maschinen, welche mit Lochkarten arbeiteten, heute sind es in der Regel Computer.

Der Begriff Datentechnik umfasst neben der Datenverarbeitung alle technischen Einrichtungen zum Verarbeiten von Daten.

Abzugrenzen ist die Datentechnik von der reinen Datenverarbeitung, da bei letzterer (im engeren Sinne) auch das Arbeiten ohne technische Hilfsmittel eingeschlossen ist. Die elektronische Datenverarbeitung ist ein Teil der Datentechnik.

       
Inhaltsverzeichnis    
       
       

EDV – So ging es los

 

Hollerith wurde in Buffalo im US-Bundesstaat New York als Kind deutscher Einwanderer aus der Pfalz geboren. Er studierte an der Columbia University Ingenieurwissenschaften. Als studierter Bergwerksingenieur hatte er Patente für eine automatische Eisenbahn-Druckluftbremse und für die maschinelle Herstellung von Wellblechplatten angemeldet.

 
Da er zunächst als Statistiker für die US-amerikanische Regierung arbeitete, beschäftigte er sich mit der Erfassung und Speicherung von Daten mittels Lochkarten. Dabei griff er auf die Konstruktionsideen des französischen Mechanikers Falcon zurück, der seinen Webstuhl mittels eines Holzbrettchens mit Lochkombinationen steuerte und der Weiterentwicklung dieses Verfahrens durch Jacquard, der das Holzbrettchen durch Lochkarten aus Pappschablonen ersetzte, übertrug Hollerith das Steuerungsverfahren mittels gelochter Karten auf organisatorische Problemstellungen. Als Vorbild verwandte er ein zur damaligen Zeit im Eisenbahnbereich gebräuchliches System, das mittels mehrerer Löcher in den Fahrkarten die Fahrgäste nach Geschlecht und Alter klassifizierte. Er entwickelte ein System zur Erfassung von Daten auf Lochkarten. Am 9. Dezember 1888 installierte er die Erfindung im US-Kriegsministerium. Am 8. Januar 1889 meldete er sein System zum Patent an.

 

Sein System wurde bei der Volkszählung 1890/1891 verwendet. Es trug zu einer enormen Beschleunigung der Auszählung bei. Es wurde möglich, diese in nur 4 Wochen mit 43 Maschinen und 500 Leuten als Bedienungspersonal auszuwerten, zuvor hätte dieselbe Anzahl an Leuten ganze 7 Jahre gebraucht. Von zentraler Bedeutung war auch, dass die Maschinen nicht verkauft, sondern nur vermietet wurden. Holleriths erster größerer Auftrag außerhalb der Vereinigten Staaten kam aus Russland, wo erstmals eine Volkszählung durchgeführt wurde.

 

Nach weiteren Verbesserungen des Systems gründete er schließlich 1896 die Tabulating Machine Company, um seine Erfindung kommerziell zu verwerten. Allerdings verlor er 1905 aufgrund überzogener Preise seinen besten Kunden, das US-amerikanische Census Bureau, welches alle zehn Jahre Volkszählungen durchführte. Er verklagte 1910 erfolglos die Bundesbüro zur Durchführung von Volkszählungen wegen angeblicher Patentverletzung und versuchte so die Volkszählung zu verhindern. 1911 verkaufte Hollerith schließlich seine Gesellschaft für rund 1,21 Millionen Dollar plus einen über zehn Jahre laufenden Beratervertrag, der mit 20.000 Dollar jährlich dotiert war. Tabulating Machine Company fusionierte mit der Computing Scale Corporation und der International Time Recording Company zur Computing Tabulating Recording Corporation (CTR). 1924 wurde CTR schließlich in International Business Machines Corporation (IBM) umbenannt.


Lochkarten und lochkartenähnliche Systeme werden ab etwa der Mitte des 18. Jahrhunderts im Bereich der Automatisierung und der Datenverarbeitung verwendet. Sie wurden meist eingesetzt, um wiederkehrende Abläufe rationell zu wiederholen. Es wurden unter anderem lochkartengesteuerte Webstühle gebaut, wobei die ersten Lochkarten hier hölzerne Plättchen waren. Drehorgeln werden oftmals noch heute mit lochkartenähnlichen Speichermedien (sogenannte Faltkartonnoten oder Lochbandrollen) gesteuert, aber auch andere automatische und teilautomatische Musikinstrumente bedienen sich dieses Verfahrens. Charles Babbage sah für seine Analytical Engine eine Lochkartensteuerung vor. Frühe Datenverarbeitungs- und -registrieranlagen sind ohne Lochkarten nicht zu denken.

 

Die Ursprünge der Lochkarte gehen auf die Funktionsweise von Spieldosen und anderen Automaten zurück, in denen eine sich drehende Walze oder Scheibe mit darauf angebrachten Stiften oder Löchern die automatisierte Wiedergabe von Musikstücken und die Steuerung mechanischer Abläufe ermöglichte.

 

Das Grundprinzip der Datenspeicherung einer Lochkarte ist, dass die für eine spezielle Funktion eines Automaten relevanten Daten in geeigneter Form codiert werden. Beispielsweise werden in ein aus dünnem Karton bestehenden Speichermedium Löcher gestanzt, deren Position vom jeweiligen Code vorgegeben wird. Um die Funktion dann zu einem beliebigen Zeitpunkt auszuführen, werden die Löcher des Speichermediums durch eine Leseeinheit abgelesen und durch eine geeignete Vorrichtung passend decodiert, so dass sie der Funktion zugeordnet werden können. Die Abtastung der Steuerbefehle kann auf mechanischem, pneumatischem, opto-elektrischem oder auch elektromechanischem Wege geschehen.

 

Mechanische und auch elektromechanische Speichersysteme, die Daten durch Löcher in einem externen Medium aus Papier, Karton oder ähnlichem speichern, boten vor der Entwicklung der elektronischen Datenverarbeitung, im Gegensatz zu Systemen wie etwa der Stiftwalze, die wirtschaftlichste Möglichkeit, codierte Daten schnell zu vervielfältigen und mit einfachen Mitteln einen neuen Code zu schreiben.

 

Bis in die 1990er Jahre gab es so genannte Randlochkarten, die manuell bearbeitet wurden. Verschiedene Suchkriterien (zum Beispiel im Bibliothekswesen) wurden mit Löchern oder Schlitzen an allen 4 Rändern der Karte codiert. Man konnte mit einer langen Nadel in die Position eines Suchkriteriums stechen und den Stapel hochheben, wodurch die ausgewählten Karten aus dem Stapel herausfielen. Für kompliziertere Suchkriterien konnte man auch mehrere Nadeln verwenden.

[Zurück zum Anfang]

 

 

 

       
       

Biografie des Computer - Erfinders Konrad Zuse

 

Konrad Zuse (* 22. Juni 1910 in Berlin; † 18. Dezember 1995 in Hünfeld bei Fulda) war ein deutscher Bauingenieur, Erfinder und Unternehmer (Zuse KG). Mit seiner Entwicklung des Z3 im Jahre 1941 gilt er als der Erfinder des Computers

 

Konrad Zuse wurde am 22.Juni 1910 in Berlin geboren. Seine Eltern waren Maria und Emil Zuse. Als er zwei Jahre alt war, zog die Familie in das ostpreußische Braunsberg, wo der Vater als Postbeamter arbeitete. In Braunsberg besuchte er das humanistische Gymnasium Hosianum. Schon früh entdeckte er seine Vorliebe für Technik und Kunst und begann, erste Erfindungen zu machen. Sehr oft musste er aber feststellen, dass vieles einfach schon erfunden war. Als er in der 9. Klasse war, zog die Familie Zuse nach Hoyerswerda, wo er das Reform-Realgymnasium, das heutige Lessing-Gymnasium, besuchte. Dort legte Konrad Zuse 1928 sein Abitur ab.

Er studierte dann an der Technischen Hochschule Berlin-Charlottenburg (heute Technische Universität Berlin) zuerst Maschinenbau, wechselte schnell zu Architektur und schließlich zu Bauingenieurwesen. Dies erschien ihm die ideale Kombination aus Ingenieur und Künstler.

 

1935 schloss er sein Ingenieurstudium mit einem Diplom ab. Danach arbeitete er als Statiker bei den Henschel-Flugzeugwerken in Berlin-Schönefeld. Nur ein Jahr später begann er selbstständig am Bau eines programmierbaren Rechners zu arbeiten. Vorüberlegungen gingen bis 1934 zurück. Da die Berechnungen in der Flugstatik sehr monoton und mühselig waren, kam ihm die Idee, diese zu automatisieren. Das Resultat war der 1938 fertiggestellte, elektrisch angetriebene mechanische Rechner Z1 mit begrenzten Programmiermöglichkeiten, der die Befehle von Lochstreifen ablas. Die Z1 arbeitete aufgrund von Problemen mit der mechanischen Präzision nie zuverlässig. Zuse erfuhr erst nach dem Zweiten Weltkrieg durch das Patentamt von den Arbeiten von Charles Babbage. Auch die Ideen von Alan Turing oder Howard Aiken waren ihm während der gesamten Zeit der Entwicklung seiner Rechenmaschinen völlig unbekannt.

 

Während des Zweiten Weltkrieges wurde Konrad Zuse zweimal einberufen, konnte aber mit Hilfe seiner Freunde und Förderer aus der Studienzeit und bei den Flugzeugwerken erreichen, dass er „unabkömmlich“ gestellt und wieder bei den Henschel-Werken beschäftigt wurde. Dort entwickelte er die Apparate S1 und S2, bei denen es sich um Spezialrechner für aerodynamische Profile handelte. Während die S1 tatsächlich eingesetzt wurde, um Flügelprofile für Fliegerbomben zu optimieren, kam die S2 vor Kriegsende nicht mehr zum Einsatz.

1940 erhielt er von der Aerodynamischen Versuchsanstalt Unterstützung. Er baute die Z2, eine verbesserte Version mit Telefonrelais. Im gleichen Jahr gründete er seine eigene Firma „Zuse Apparatebau“, um programmierbare Rechner herzustellen.

1941 baute er in einer kleinen Wohnung in der Kreuzberger Methfesselstraße den Z3. Es war ein vollautomatischer in binärer Gleitkommarechnung arbeitender Rechner mit Speicher und einer Zentralrecheneinheit aus Telefonrelais. Berechnungen konnten programmiert werden, jedoch waren keine bedingten Sprünge und Programmschleifen möglich. Die Z3 gilt heute als erster funktionstüchtiger Computer der Welt.

Der Zweite Weltkrieg machte es ihm unmöglich, mit Rechnerspezialisten in Großbritannien und den USA in Kontakt zu treten. Die Z3 war an der Grenze, den theoretischen Anforderungen der Turingmaschine zu genügen. Der Beweis wurde erst viel später (1998) durchgeführt.

Zuses Berliner Unternehmen wurde 1945 durch einen Bombenvolltreffer zusammen mit der Z3 zerstört. Die teilweise fertiggestellte Z4 war vorher in Sicherheit gebracht worden. Zuse entwickelte in der Zeit von 1941-1945 auch den Plankalkül, der als die erste universelle Programmiersprache der Welt gilt. Allerdings konnte sie auf den damaligen Computern noch nicht implementiert werden; das gelang erst im Jahr 2000.

Ebenfalls 1945 heiratete er Gisela Brandes in Berlin, mit der er fünf Kinder bekam.

Nach dem Krieg gründete Zuse 1949 in Neukirchen im damaligen Kreis Hünfeld die Zuse KG. Die Z4 wurde fertiggestellt und an der ETH Zürich installiert. Zu jener Zeit war das der einzige funktionierende Computer in Europa und der erste kommerzielle Computer weltweit. Die Z4 wurde einige Monate früher als die UNIVAC installiert.

 

Weitere Computer wurden gebaut, die Typenbezeichnung war immer ein Z und eine fortlaufende Nummer. Herausragend war die Z11, die der optischen Industrie und Universitäten verkauft wurde, und die Z22, der erste Computer mit Magnetspeicher.

1957 wurde der Firmensitz von Neukirchen nach Bad Hersfeld verlegt. Bis 1967 baute die Firma insgesamt 251 Computer. Ab 1964 stieg Zuse als aktiver Teilhaber aus der Firma aus, sie wurde später von Siemens übernommen. Zuse erhielt für seine Arbeit mehrfach Auszeichnungen. 1981 wurde ihm die Ehrendoktorwürde der Technischen Universität Dresden verliehen. Nach seiner Pensionierung widmete er sich seinem Hobby, der Malerei. Unter dem Pseudonym „Kuno See“ schuf er abstrakte Bilder und Portraits berühmter Zeitgenossen. Auf der CeBIT in Hannover 1994 überreichte er Bill Gates ein selbstgemaltes Portrait von ihm.

1969 schrieb Zuse das Buch Rechnender Raum (Details siehe unter Werke). Darin entwickelte er eine Theorie der Zellulären Automaten und wendete sie, ähnlich wie später Stephen Wolfram, auch auf die Kosmologie an.

 

Zuse hat die Methode der computergerechten Gleitkommazahlen auf Basis der Komponenten von Mantisse und Exponent theoretisch entwickelt und praktisch realisiert. Mit diesem Verfahren berechnet heute jeder gängige Computer Gleitkommazahlen, vom Taschenrechner bis zum Cluster. Auch die weithin verwendete IEEE-754-Normierung, d. h. die Festlegung auf ein bestimmtes Gleitkommazahlenformat, ist eine Folge von Zuses Grundlagenarbeit.

 

Durch seine Spezifizierung der Programmiersprache Plankalkül entwarf er die erste universelle Programmiersprache der Welt.

 

Mit der Entwicklung, Konstruktion und Errichtung seiner ersten Computer (Z1–Z4), die jeweils auf den neuesten Schaltertechnologien aufbauten, schrieb er Forschungsgeschichte. Durch seine spätere Tätigkeit als Computerhersteller war er auch in großem Maße an der Einführung des Computers in Unternehmen der Wirtschaft beteiligt.

[Zurück zum Anfang]

 

       
       

Personal Computer

 

Ein Personal Computer, kurz PC, ist ein „Einzelplatzrechner“ (Mikrocomputer), der im Gegensatz zu einem Großrechner von einer einzelnen Person bedient, genutzt und gesteuert werden kann.

  

Entwicklung 

Seit Beginn der 1970er-Jahre waren Computerbauteile so preisgünstig, dass Unternehmen mit der Entwicklung von Computern für private Zwecke begannen.

 

Xerox Alto

Der erste Computer, der diese Anforderungen erfüllte, war der Xerox Alto von der Firma Xerox PARC aus dem Jahr 1973. Der Xerox Alto hatte eine grafische Benutzeroberfläche (engl. graphical user interface, kurz GUI), einen vertikalen Bildschirm (höher als breit), eine 3 Tasten-Maus, eine schreibmaschinenähnliche Tastatur und ein zusätzliches kleines 5-Tasten-Eingabegerät für besondere Befehle. Der Xerox Alto war ein Prototyp und wurde nur in der Forschung eingesetzt.

 

Der erste für Heimanwender ausgerichtete Computer, der kommerziellen Erfolg hatte, war der noch als Bausatz vertriebene Altair 8800 aus dem Jahr 1974.

 

Apple II

Der erste industriell hergestellte PC war der Apple II der Firma Apple. Er wurde am 5. Juni 1977 in den USA vorgestellt. Bei seiner Markteinführung hatte er acht freie Steckplätze (engl. Slots) des 8-Bit Apple-Bus-Systems, mit denen er durch Einsetzen der entsprechenden Erweiterungskarte für unterschiedliche Anwendungen (z.B. Textverarbeitung, Spiele, Steuerungstechnik) genutzt werden konnte. Ein Computer, der durch Steckplätze individuell an die Wünsche des Konsumenten angepasst werden kann, gilt heute als PC, es ist ein offenes System. Außerdem konnten mit diesem Computer bereits Farben dargestellt und Töne wiedergegeben werden.

 

Heimcomputer (Commodore PET, Tandy TRS)

Etwa zur gleichen Zeit, 1977, wurden auch die ersten Heimcomputer, der Commodore PET 2001 und der Tandy TRS 80 Model 1, vorgestellt. Von den Leistungsdaten her waren diese Rechner dem Apple II ähnlich, hatten aber keine Steckplätze für Erweiterungskarten, keine Farbdarstellung und keine Tonausgabe.

 

IBM-PC (IBM 5150)

 dem Verkaufserfolg des Apple II in den späten 1970er-Jahren begann auch IBM, der damalige Marktführer für Datenverarbeitungsanlagen, mit der Entwicklung eigener Personal Computer.

 

Am 12. August 1981 wurde der erste IBM-PC vorgestellt. Dieser Computer war dem Apple II sehr ähnlich. Er verfügte über ein 8-Bit ISA-Bussystem, konnte Töne produzieren und Farbe darstellen. Um den Rechner von den billigeren Heimcomputern abgrenzen zu können, wurde der Begriff des „Personal Computers“ von der Werbeabteilung von IBM für die Öffentlichkeit so aufbereitet, dass er bis in die heutige Zeit mit der Marke IBM in Verbindung gebracht wird.

 

IBM hatte seinen ersten IBM-PC mit dem Intel-8088-Prozessor ausgestattet. Auch die folgenden Modelle wurden mit Prozessoren der Firma Intel ausgerüstet. Der bereits ein Jahr vor dem 8088-Prozessor (4.77–9.5 Mhz Kern-Takt; CPU-Bus 16-Bit; System-Bus 8-Bit) von Intel vorgestellte 8086-Prozessor (6–12 Mhz Kern-Takt; CPU-Bus 16-Bit; System-Bus 16-Bit) sorgte dafür, dass sich für die Serie die Abkürzung „x86-Architektur“ etablierte. Der IBM-PC wurde von 1985 bis 1995 ausschließlich mit dem Betriebssystem von IBM, PC-DOS, vertrieben, das von Microsoft an IBM vermittelt worden war. Die 1981 begonnene Zusammenarbeit der Firmen endete 1985. Beide Unternehmen entwickelten danach ihre Betriebssysteme getrennt weiter. Das Betriebssystem MS-DOS von Microsoft befindet sich seitdem nur auf Computern, die in der Bauweise jenen von IBM entsprechen, den IBM-PC kompatiblen Computern.

 

Heimcomputer und IBM-kompatible PCs

Erweitert um einen TV-Ausgang und Tonausgabe, kamen ab den 1980er-Jahren weitere Geräte als sogenannte Heimcomputer auf den Markt. Die meistverkauften Modelle waren der Commodore C64 und die Geräte der Amiga-Reihe, wie auch verschiedene Ausführungen des Atari ST.

 

Der IBM-PC wurde ursprünglich zu recht hohen Preisen verkauft. Da IBM kein Monopol auf die verwendeten Komponenten hatte (mit Ausnahme des BIOS), konnte Compaq 1983 den ersten zum IBM-PC kompatiblen Computer auf den Markt bringen. Vor allem auch in Ostasien schufen Unternehmen eine Reihe von Nachbauten. Der sich so entwickelnde Markt führte durch den Konkurrenzkampf zu sinkenden Preisen und verstärkter Innovation.

 

Auch Apple-Computer wurden teils nachgebaut, aber das Unternehmen konnte sich, mit deutlich geschrumpftem Marktanteil, behaupten. Die Apple II-Linie wurde Anfang der 1990er-Jahre eingestellt. Heute wird nur noch die Macintosh-Reihe hergestellt. Apple und Sun (Unix) sind die beiden einzigen Hersteller, die Hardware und Software (Betriebssystem und Anwenderprogramme) selbst entwickeln und auch zusammen vermarkten.

 

Die meisten anderen Hersteller, wie etwa Commodore, verschwanden Anfang der 1990er-Jahre weitgehend vom Markt oder wandten sich wieder anderen Geschäftsfeldern zu (Atari, Schneider). Die aktuelleren PC-Modelle von IBM, wie der PC 300GL, blieben weitgehend unbekannt und gingen auf dem Markt neben den Produkten anderer Hersteller unter. Ähnlich erging es dem Versuch von IBM, den Markt mit der Personal System/2-Reihe und dem Betriebssystem OS/2 zurückzuerobern.

 

Im Privatbereich wurden Heimcomputer und PC zunächst zum Experimentieren, Lernen und Spielen benutzt. Zunehmend wurden sie auch in Bereichen wie Textverarbeitung, Datenbanken und Tabellenkalkulation eingesetzt und fanden so Eingang in den betrieblichen Alltag.

 

Moderne Personal Computer

Moderner PC-Nachbau (Midi-Tower)

Moderner PC-Nachbau (Barebone)Die Leistungsmerkmale von Personal Computern nehmen seit ihrer Entstehung stetig zu. Neben den Aufgaben der Textverarbeitung und Tabellenkalkulation wurde der Multimedia-Bereich zu einem der Hauptanwendungsgebiete. Zumeist kommen dabei IBM-kompatible Computer auf x86-Basis zum Einsatz. Von den anderen Computerarchitekturen für Einzelplatzrechner ist im Jahr 2006 lediglich jene von Apple noch in größerem Umfang auf dem Markt vertreten.

 

Heute werden neben dem Betriebssystem des Marktführers Windows von Microsoft noch andere Systeme auf den Klonen eingesetzt. Diese Betriebssysteme kommen meist aus dem Unix- bzw. Linux-Umfeld. Auch das Apple-Betriebssystem ist seit der Version Mac OS X im Kern eine Unix-Variante. (siehe auch Liste der Betriebssysteme).

 

Verbreitung

Gemäß Eurostat verfügten 2006 in Dänemark 85 % der Haushalte über einen Personal Computer. Unter den EU-Mitgliedsländern folgten dahinter Schweden mit 82 % und die Niederlande mit 80 %. Deutschland lag mit 77 % an vierter Stelle, Österreich mit 67 % an achter Stelle und nahe dem EU-Durchschnitt von 62 % [1]. In den USA ist in etwa 71 % aller Haushalte ein Computer vorhanden [2]. Nach etwas älteren Zahlen (2004) war in der Schweiz in 71 % der Haushalte mindestens ein PC zu finden [3].

 

Deutlich geringer ist die Verbreitung von Personal Computern in Schwellen- und Entwicklungsländern, wo oft deutlich weniger als 10 % der Bevölkerung Zugang zu modernen Technologien und Kommunikationsmitteln haben (siehe dazu Digitale Kluft, 100-Dollar-Laptop).

 

51 Prozent der in der EU Beschäftigten sitzen mindestens einmal pro Woche am Computer.[4]

 

Energieverbrauch 

Einer Studie aus dem Jahr 2004 zufolge [5] braucht man für die Herstellung eines Computers samt 17-Zoll-Röhrenmonitor 240 Liter fossile Brennstoffe. Bei einem Gesamtgewicht des Systems - inklusive Röhrenmonitor von rund 24 Kilo aus, ist das das Zehnfache seines Eigengewichts. Zusätzlich werden rund 22 kg Chemikalien und 1.500 kg Wasser benötigt - in der Summe also rund 1,9 Tonnen Rohstoffe.

 

Literatur

John Markoff: What the dormouse said. How the 60s Counterculture Shaped the Personal Computer Industry, New York, Viking 2005 ISBN 0670033820

Scott Mueller: PC-Hardware Superbibel, mit DVD-ROM. Markt und Technik, April 2005, ISBN 3827267943

Hans Messmer, Klaus Dembowski: PC Hardwarebuch. Aufbau, Funktionsweise, Programmierung. Addison-Wesley, 15. Juni 2003, ISBN 3827320143

Andreas Stiller: Fröhliche Oldies. Der PC feiert seinen 20sten Geburtstag. In: c't. 18. Juni 2001. Heise Zeitschriften Verlag, S. 172 – 177, ISSN 0724-8679

 

Weblinks 

Frank Patalong (spiegel.de): 25 Jahre IBM-PC - Als die Dose unser Leben veränderte, 9. August 2006


Quellen 

BITKOM: PC-Ausstattung in Deutschland knackt erstmals 75-Prozent-Marke, 3. Januar 2007

↑ Internet Finding Few Newcomers in 2006, 23. Februar 2006

↑ Indikatoren: IKT-Ausstattung, Bundesamt für Statistik der Schweizerischen Eidgenossenschaft, 4. Januar 2007

↑ heise.de: Jeder Zweite arbeitet am PC

↑ Studie "Computers and the environment" von Rüdiger Kühr 2004

Von „http://de.wikipedia.org/wiki/Personal_Computer“

Kategorie: Mikrocomputer

[Zurück zum Anfang]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

       
       

Die ersten Home-PC's

 

Der C64 im „Brotkasten“-Gehäuse

 

Der Commodore 64 (kurz: C64, umgangssprachlich auch 64er) ist ein 8-Bit-Heimcomputer mit 64 KB Arbeitsspeicher.

Äußerst populär war der von Commodore gebaute C64 Mitte bis Ende der 80er Jahre sowohl als Spielkonsole als auch zur Softwareentwicklung. Er gilt mit über 17 Mio. verkauften Geräten als der meistverkaufte Heimcomputer weltweit und erfreut sich auch heute noch großer Beliebtheit. Der C64 ermöglichte mit seiner umfangreichen Hardwareausstattung zu einem erschwinglichen Preis einer ganzen Generation von Jugendlichen in den 1980er Jahren erstmals einen Zugang zu einem für diese Zeit leistungsstarken Computer.

Im Gegensatz zu modernen PCs verfügte der C64 über keine internen Massenspeichergeräte. Alle Programme mussten von einem Steckmodul (Cartridge) oder externen Laufwerken, wie dem Kassettenlaufwerk Datasette oder dem 5¼“-Diskettenlaufwerk VC1541, geladen werden. Lediglich Grundfunktionen wie der Kernel, der BASIC-Interpreter und zwei Bildschirmzeichensätze waren in drei 8, 8 und 4 KB großen ROM-Chips gespeichert.

 

Produzierte Varianten

 

C64 (1982)

Der Ur-C64 kam in einem beigefarbenen „Brotkasten“-Gehäuse mit orangefarbenen oder dunkelbraunen Funktionstasten daher. Urversionen mit den braunen Funktionstasten und dem silbernen Commodore-Typenschild gehören zu den Raritäten.

 

Educator 64 (1982)

Spezielle Version des C64 im PET-Gehäuse, vor allem für Schulen gedacht. Auch als 4064 oder PET 64 bekannt. Wurde sehr billig verkauft, da reparierte Hardware von reklamierten C64 verwendet wurde.

 

SX-64/DX-64 (1984)

Der SX-64/DX-64 ist eine tragbare Version des C64 mit einem (SX-64) oder zwei (DX-64) eingebauten 1541-kompatiblen Diskettenlaufwerken und eingebautem 5-Zoll-Farbmonitor. Der Rechner war nicht 100 % kompatibel, man konnte jedoch C64-ROMs anstelle der leicht geänderten SX-64-ROMs in den Rechner einbauen. Aufgrund niedriger Absatzzahlen wurden jedoch nur wenige Geräte hergestellt. (ca. 9.000 SX-64, DX-64 noch viel weniger.)

 

C64 Gold

Die „Golden-Edition“ besaß ein goldfarbenes Brotkasten-Gehäuse (normales Plastikgehäuse mit Goldfarbe lackiert) und war auf einer Acryl-Platte mit einem Emblem montiert. Anlass war der Einmillionste verkaufte C64 in Deutschland. Produziert wurde er in sehr geringer Stückzahl von ca. 200, andere Quellen sagen auch 1000. Dieses Gerät ist sehr selten und ein begehrtes Sammlerstück.

 

C64C (1986)

C64 in neuem Gehäuse und mit leicht überarbeiteter, kostenreduzierter Hardware (kleinere Hauptplatine). In Deutschland wird der C64C oft als C64-II bezeichnet.

 

C64G (1987)

Wieder die alte Gehäuseform („Brotkasten“), diesmal grau/beige mit heller Tastatur und kostenreduzierter Hauptplatine. Grafikzeichen auf der Oberseite statt auf der Stirnseite der Tasten abgebildet.

 

C64CR (1987)

C64 in neuem Gehäuse und weiter kostenreduzierter Platine - das einzige Modell, in dem die 6582-Variante des SIDs verbaut wurde.

 

Aldi-C64 (1988)

Ähnlich dem C64G, jedoch fehlt die 9 Volt-Wechselspannung am Userport. Vertrieb über die ALDI-Kette, war nur in Deutschland erhältlich.

 

C64GS (1990)

C64 als Spielkonsole (Games System), ein kompletter C64, nur ohne Tastatur. Als Speichermedium dienten ausschließlich Cartridges. Kommerziell war diese Konsole nicht sonderlich erfolgreich, offiziell wurde das C64GS nur in England vertrieben.

Siehe auch: Commodore Produktübersicht, Floppy-Modelle der Commodore VC 15xx-Linie

 

Amiga

 

Der Commodore Amiga (spanisch amiga: Freundin) war ein von Mitte der 1980er bis Anfang/Mitte der 1990er weit verbreiteter Computer, der besonders in seinen Einsteigermodellen (A500 und A1200) als Heimcomputer beliebt war. Für seine Zeit hatte er ausgeprägte Multimediafähigkeiten und ein leistungsfähiges, präemptives Multitasking-Betriebssystem. In der Commodore-Zeit arbeitete er durchgängig mit Prozessoren der Motorola-68000-Familie.

Geschichte

 

Jay Miner gilt als Schöpfer und geistiger Vater des Amiga. Er stieg 1981 bei Atari aus, dort war er u. a. für die Entwicklung der Spielkonsole Atari 2600 und der Heimcomputer Atari 400 und 800 zuständig gewesen. Danach gründete er die Firma Hi Toro, die etwas später zur Amiga Corporation wurde. Anfangs lieferte Amiga Spielmodule und Controller für die Atari-2600-Konsole, etwas später wurde eine eigene Amiga-Spielkonsole geplant. Aus der Spielkonsole wurde in den Köpfen der Entwickler ein Computer. Atari (damals unter Führung von Raymond Kassar, Warner Communications) war per Vereinbarung vom Juli 1983 Geldgeber und wollte den Amiga als Nachfolger der mittlerweile angeschlagenen XL-Computer-Serie auf den Markt bringen. Mit dem Börsenskandal vom Dezember 1982 im Nacken musste Kassar noch im Juli 1983 zurücktreten. Der neue CEO Morgan verfolgte weiter das Ziel, das Projekt „Lorraine“, wie der Amiga intern genannt wurde, als Nachfolger des XL zur Marktreife zu bringen. Am 2. Juli 1984 verkaufte Warner Communications die Konsolen- und Computerabteilung von Atari an Jack Tramiel, den geschassten Gründer von Commodore. Tramiel versuchte, Amiga endgültig zu kaufen, und bot den Aktionären 0,98 $ pro Aktie. Commodore (unter Irving Gould) bot kurz vor Ende der 24-Stunden-Frist zwei US-Dollar pro Aktie und bekam den Zuschlag, wonach Commodore die Entwicklungsrichtung des Amigas immer stärker beeinflusste, nicht immer im Geiste seiner Erfinder oder zu seinem Vorteil. Commodore hätte sich an dieser Übernahme und der folgenden Produkteinführung fast überhoben und geriet in eine ernste Finanzkrise.

 

Das erste Amiga-Modell, das erst später den Namen Amiga 1000 erhielt, wurde am 24. Juli 1985 in New York im Rahmen einer großen Show mit den Gaststars Andy Warhol und Deborah Harry ("Blondie") vorgestellt. Die Entwickler demonstrierten die besonderen Eigenschaften, die den Amiga von den zeitgenössischen Konkurrenten PC, Mac und Atari abhoben (Details zu den Merkmalen siehe unten):

 

Farbige grafische Oberfläche (im Unterschied zum Mac)

präemptives Multitasking im Unterschied zu Windows, Mac und Atari (war außerdem von der Hard- und Softwarestruktur schon 32-bittig angelegt)

4-Kanal-Sample-Sound im Unterschied zu Windows, Mac, Atari

Hardwareunterstützung für Grafik-Animation durch den Blitter

In Deutschland fand eine ähnliche Veranstaltung am 21. Mai 1986 in der Alten Oper in Frankfurt am Main statt, mit Frank Elstner als Moderator.

 

Als ein Argument wurde die potenzielle IBM-PC-Kompatibilität herausgestellt, zunächst in Form einer Software-Emulation namens Transformer, später dann über das Sidecar (entwickelt von der Braunschweiger Commodore-Entwicklungsabteilung), die parallel zum Betrieb des Amiga-Betriebssystems auch die Benutzung von MS-DOS ermöglichte (im Sidecar auf einer eigens dafür verwendeten 8088-CPU).

Die direkten Konkurrenten des Amigas waren damals der Atari ST und (in den USA) der Apple IIgs, ein wenig später auch die farbfähigen Macintosh-Modelle von Apple und noch etwas später Windows-Rechner.

 

Modellentwicklung

 

Amiga 500 und junger Computerspieler mit Turrican 1. Während der A1000 noch eine teure und vom Anwendungsgebiet her unklare (und damit schwer verkäufliche) Mixtur aus professionellem und Heimgerät war, wurden 1987 die Modelle Amiga 500 (als quasi-Nachfolger des legendären C64) und der Amiga 2000 eingeführt, welcher den damals modernen Desktop-PCs glich. Damit wurde eine saubere Trennung in Heim- und Profi-Bereich erreicht. Der Amiga 500 wurde der nach verkauften Einheiten erfolgreichste Amiga und galt in der sich schnell entwickelnden Szene als Kult und Computer für Millionen.

 

Ab A2000 und A500 boten die Amiga-Modelle auch standardmäßige parallele und serielle Schnittstellen an; beim A1000 waren diese noch etwas inkompatibel mit umgekehrten Buchsengeschlechtern und ein paar abweichend belegten Pins.

 

Für professionelle Anwender wurde 1988 auch ein Rechner namens Amiga 2500/UX angeboten, auf dem parallel ein UNIX-Betriebssystem (AMIX) verfügbar war. Technisch gesehen waren die Amiga 2500-Modelle mit dem normalen Amiga 2000 nahezu identisch, aber durch den Einbau eines zusätzlichen Prozessorboards (mit einer 68020- bzw. 68030-CPU) deutlich leistungsfähiger.

 

Als Bindeglied zwischen Amiga und der PC-Welt besaß der Amiga 2000 sowohl die Amiga-eigenen Zorro-2-Slots als auch PC-typische ISA-Steckplätze. Diese konnten mit einer Brückenkarte (dem Nachfolger des Sidecar) aktiviert werden. Damit besaß man dann einen vollwertigen PC im Amiga, auf den man von Amiga-Seite zugreifen konnte.

 

Dem Amiga 2000 folgte 1990 der Amiga 3000 sowie dessen Tower-Variante, die zum ersten Mal ein neues Betriebssystem in einem modernen 3D-Look mit sich brachten. Der A3000 wies zahlreiche Neuerungen und Optimierungen auf, die noch heute in modernen Betriebssystemen wiederzufinden sind (AmigaOS 2.0). Auch der Amiga 3000 wurde, nicht zuletzt dank des fortschrittlichen Betriebssystems, ein Erfolg. Er ist heute vergleichsweise selten und Liebhaber zahlen dafür deutlich höhere Preise als beispielsweise für einen Amiga 4000.

 

Mit dem Amiga 500 Plus und dem Amiga 600 wurden 1991 dem Amiga 500 gleich zwei technisch fast identische Nachfolger geschaffen, die kommerziell erfolglos waren und 1992 durch den technisch stark verbesserten Amiga 1200 abgelöst wurden.

 

Der Amiga 1200 wurde als kostengünstige Variante seines großen Bruders, des Amiga 4000 (sowie Tower-Variante) eingeführt. Dieser seinerseits kam als Nachfolger des Amiga 3000 auf den Markt. Die wesentliche Gemeinsamkeit zwischen Amiga 1200 und Amiga 4000 besteht in der Verwendung der gleichen Kickstart-Version, der gleichen Workbench und des AA-Grafikchipsatzes (s. u.). Ansonsten ist der Amiga 4000 technisch überlegen, weil der Adressbus auf 32 Bit ausgelegt war (im Gegensatz zu den 24 Bit des Amiga 1200), durch die Zorro-Steckplätze erweiterungsfähig war, und in der Regel den leistungsfähigeren Prozessor MC68040, in preiswerteren Versionen immerhin noch einen MC68EC030 verwendete.

 

Commodore versuchte bereits Anfang der 1990er Jahre, mit dem CDTV (einem Amiga im Design eines CD-Spielers mit der vereinigten Funktionalität beider) den Amiga als Multimedia-Plattform zu positionieren und in die Wohnzimmer zu bringen. Zu dieser Zeit entstand auch das Autorensystem AmigaVision. Kurz vor dem Niedergang von Commodore folgte 1993 dann das CD³², dem trotz aufwendiger Fernsehwerbung der große Durchbruch versagt blieb, weil Commodore nicht die georderten Mengen produzieren und ausliefern konnte. Das CD³² basiert auf der Amiga-1200-Hardware, die um ein CD-ROM-Laufwerk sowie einen Customchip (Akiko) erweitert wurde. Tastatur, Floppy und Festplatte ließen sich optional nachrüsten.

 

 

Erweiterungen
Die Modelle Amiga 500/600/1200 waren die kostengünstigen Varianten der großen Amiga-Desktop-Modelle (Amiga 2000/4000). Tastatur, Floppy (Diskettenlaufwerk), Erweiterungsschnittstellen und die Hauptplatine bilden eine Einheit. Beim A600 und A1200 ist unter anderem auch noch Platz für eine 2,5"-ATA-Festplatte. Im A1200 lässt sich mit ein wenig technischem Geschick und einem passenden Adapterkabel auch eine 3,5"-Platte einbauen.

 

Die Modelle Amiga 2000/3000/4000 sind erweiterbare Systeme, in denen zusätzliche Laufwerke und Erweiterungskarten integriert werden können. Die Modelle 3000 und 4000 wurden auch als Tower-Versionen angeboten und waren im oberen Preissegment angesiedelt – vergleichbar mit heutigen High-End-Rechnern. Auch die Tastaturrechner verfügen über einen Expansion-Slot, in den Erweiterungskarten eingesetzt werden können.

 

Der Amiga 3000/4000 wurden mit verschiedenen Prozessoren angeboten. Die Palette reicht vom 68020 bis hin zum 68040. Es gab sogar eine Sonderanfertigung des Amiga 4000 mit einem 68060-Prozessor, die allerdings nicht mehr ausgeliefert werden konnte.

 

Zum Anschluss von Festplatten verfügen die Rechner über eine SCSI- bzw. (beim Amiga 600, 1200 und 4000) eine ATA-Schnittstelle – abgesehen von den Anfangsmodellen, die mit der ST506-Schnittstelle arbeiteten. Der Grund für den Einsatz des teuren SCSI-Standards ist die geringe Belastung des Prozessors bei den Ladevorgängen. Beim Amiga 500/500+ lassen sich SCSI-Platten nachrüsten.

 

Für den Erweiterungsport des Amiga 500/500+ brachte Commodore das externe CD-ROM-Laufwerk A570 heraus. Im Grunde handelte es sich dabei um die zusätzliche Komponente, welche das Commodore CDTV vom Amiga 500 unterschied. So konnte das A570 die speziellen CDTV-Datenträger wiedergeben und bot dieselbe CD-Player-Oberfläche. Mangels einer direkten Anbindung an den Soundprozessor des Amiga 500 besaß das A570 eigene Audioausgänge. Bei dem CD-Laufwerk handelte es sich um ein Single-Speed-Gerät. Zusätzlich bot das A570 den vom CDTV bekannten SCSI-Steckplatz sowie einen Steckplatz für Speichererweiterungen bis 2 MB.

 

Für die ersten Amiga-Modelle mit Original Chip Set (s. u.) wurde speziell der Monitor A2024 herausgebracht, der die professionelle Anwendung der Rechner im Büro ermöglichen sollte. Dazu stellte er mit erheblichem Hardwareaufwand eine wesentlich höhere Bildauflösung zur Verfügung – auf Kosten von Farbanzahl und Darstellungsgeschwindigkeit.

 

Die persönliche Note

Besonders in den frühen Amiga-Produkten verewigten sich die Entwickler mehr oder weniger offen außerhalb des offiziellen Rahmens. Bekannt war die so genannte Guru Meditation. Diese bezeichnet den Zustand eines durch das Amiga-Betriebssystem abgefangenen schweren Programmfehlers. Sie ist vergleichbar mit dem „Blue Screen Of Death“ der auf Windows NT basierenden Systeme, oder mit dem "80-Bomben-Bus-Error" des Atari ST. Zusätzlich zu diesem konnte man aber mittels eines Rechtsklicks der Maus einen internen Debugger aufrufen und den Amiga-Speicher über einen weiteren Computer, der an der seriellen Schnittstelle angeschlossen wurde, durchsehen und so genau feststellen, was den Fehler verursachte. Auch wenn diese Fehlermeldung später durch ein nüchternes „Software Failure“ ersetzt wurde, hielt sich die Bezeichnung umgangssprachlich. Natürlich gibt es auch mittels diverser Aktionen abrufbare Easter Eggs, und nur mit einem Speichermonitor finden sich eine Reihe versteckter Botschaften im Betriebssystem-ROM.

 

Wichtige Bauteile bekamen eigene Namen, Zorro, Big/Fat Agnus, Denise und Paula sind einige davon. Die Innenseite des Amiga-1000-Deckels zieren in den Kunststoff gegossene Unterschriften der Entwickler sowie ein Pfotenabdruck des Hundes Mitchy von Jay Miner. Ebenso findet sich auf der Platine des Amiga 500 mit eingeätzt „B52/ROCK LOBSTER“, was eine Hommage an einen Song der Band „The B-52's“ darstellt.

Gerade diese persönliche Note wurde von vielen Benutzern als Kaufargument gegenüber den sterilen PCs angeführt.

[Zurück zum Anfang]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

       
       

Internet

 

Das Internet (von engl. Interconnected: „miteinander verbunden“ und Networks: „Netzwerke“) ist eine elektronische Verbindung von Rechnernetzwerken, mit dem Ziel, Verbindungen zwischen einzelnen Computern herzustellen und so Daten auszutauschen. Im Prinzip kann dabei jeder Rechner weltweit mit jedem anderen Rechner verbunden werden. Der Datenaustausch zwischen den einzelnen Internet-Rechnern (Servern) erfolgt über die technisch normierten Internetprotokolle. Umgangssprachlich wird „Internet“ häufig synonym zum World Wide Web verwendet, das jedoch nur einer von vielen Diensten des Internets ist.

 

Geschichte des Internets
 

Das Internet ging aus dem 1969 entstandenen ARPANET hervor, einem Projekt der Advanced Research Project Agency (ARPA) des US-Verteidigungsministeriums. Es wurde zur Vernetzung von Universitäten und Forschungseinrichtungen benutzt. Ziel des Projekts war zunächst, die knappen Rechenkapazitäten sinnvoll zu nutzen, erst in den USA, später dann auch weltweit. Die anfängliche Verbreitung des Internets ist eng mit der Entwicklung des Betriebssystems Unix verbunden. Nachdem das ARPANET 1982 TCP/IP adaptierte, begann sich auch der Name Internet durchzusetzen.

 

Nach einer weit verbreiteten Legende bestand das ursprüngliche Ziel des Projektes vor dem Hintergrund des Kalten Krieges in der Schaffung eines verteilten Kommunikationssystems, um im Falle eines Atomkrieges eine störungsfreie Kommunikation zu ermöglichen[1][2]. In Wirklichkeit wurden aber vorwiegend zivile Projekte gefördert, auch wenn die ersten Knoten von der Advanced Research Projects Agency (ARPA) finanziert wurden.

 

Die wichtigste Applikation in den Anfängen war die E-Mail. Bereits 1971 überstieg das Gesamtvolumen des elektronischen Mailverkehrs das Datenvolumen, das über die anderen Protokolle des ARPANET, das Telnet und FTP abgewickelt wurde.

 

Rasanten Auftrieb erhielt das Internet seit 1993 durch das World Wide Web, kurz WWW, als der erste grafikfähige Webbrowser namens Mosaic veröffentlicht und zum kostenlosen Download angeboten wurde. Das WWW wurde 1989 im CERN (bei Genf) von Tim Berners-Lee entwickelt. Schließlich konnten auch Laien auf das Netz zugreifen, was mit der wachsenden Zahl von Nutzern zu vielen kommerziellen Angeboten im Netz führte. Der Webbrowser wird deswegen auch als die „Killerapplikation“ des Internet bezeichnet. Das Internet ist ein wesentlicher Katalysator der Digitalen Revolution.

 

1990 beschloss die NSF, das Internet für kommerzielle Zwecke zu nutzen, wodurch es öffentlich zugänglich wurde.

 

Neue Techniken verändern das Internet und ziehen neue Benutzerkreise an: IP-Telefonie, Groupware wie Wikis, Blogs, Breitbandzugänge (zum Beispiel für Vlogs und Video on Demand), Peer-to-Peer-Vernetzung (vor allem für File Sharing) und Online-Spiele (z. B. Rollenspiele, Egoshooter, ...).

 

Technik

 

Ein kleiner Ausschnitt des World Wide Web, dargestellt durch Hyperlinks.Das Internet besteht unter anderem aus:

 

Firmennetzwerken (Intranet), über welche die Computer einer Firma verbunden sind,

Providernetzwerken, an die die Rechner der Kunden eines Internet-Providers angeschlossen sind und

Universitäts- und Forschungsnetzwerken.

An Internet-Knoten werden die verschiedenen Netzwerke über leistungsstarke Verbindungen (Backbones) miteinander vernetzt. Ein solcher Internet-Knoten kann prinzipiell beliebig viele Netzwerke miteinander verbinden. Am DE-CIX in Frankfurt am Main, dem größten Internet-Knoten Deutschlands, sind es beispielsweise mehr als hundert Netzwerke.

 

Da das ARPANET als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner, keinen zentralen Internet-Knoten sowie keinen Ort geben sollte, an dem alle Verbindungen zusammenlaufen. Diese geplante Dezentralität wurde jedoch auf der administrativen Ebene des Internet nicht durchgängig eingehalten. Die Internet Corporation for Assigned Names and Numbers (ICANN), die zuständige Organisation für die Pflege der Zuordnung von IP-Adressen auf Domain-Namen, untersteht wenigstens indirekt dem Einfluss des US-Wirtschaftsministeriums und koordiniert den Betrieb der DNS Root Nameserver in zahlreichen Ländern. Um den Einfluss der Vereinigten Staaten auf das Domain Name System einzugrenzen, wurde das in erster Linie europäische Open Root Server Network aufgebaut.

 

Die netzartige Struktur sowie die Heterogenität des Internets sorgen für eine sehr hohe Ausfallsicherheit. Für die Kommunikation zwischen zwei Nutzern des Internets existieren meistens mehrere mögliche Kommunikationswege. Erst bei der tatsächlichen Datenübertragung wird entschieden, welcher Weg benutzt wird. Dabei können zwei hintereinander versandte Datenpakete beziehungsweise eine Anfrage und die Antwort je nach Auslastung auch verschiedene Kommunikationswege durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Internet meistens keine schwerwiegenden Auswirkungen, sondern kann durch die Verwendung alternativer Kommunikationswege ausgeglichen werden.

 

Privatpersonen greifen auf das Internet entweder über einen Schmalband- (zum Beispiel per Modem oder ISDN) oder Breitband-Zugang (zum Beispiel DSL oder Kabelmodem) eines Internet-Providers zu, siehe auch Internet by Call. Firmen oder staatliche Einrichtungen sind häufig per Standleitung mit dem Internet verbunden. Die einzelnen Arbeitsplatzrechner erhalten dabei meistens eine private IP-Adresse, die per NAT maskiert wird. Auf diese Rechner kann aus dem Internet nicht direkt zugegriffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch manche Nachteile hat.

 

Im Bereich der Katastrophenforschung werden flächendeckende Missbräuche oder Ausfälle des Internets, sog. (D-Gefahren), sehr ernst genommen. Ein Zusammenbruch des Internets oder einzelner Teile hätte weitreichende Folgen.

 

Das Internetprotokoll

 

Das Internet basiert auf der einheitlichen TCP/IP-Protokollfamilie, welche die Adressierung und den Datenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards reglementiert. Ein großer Vorteil ist, dass die Kommunikation völlig unabhängig von den verwendeten Betriebssystemen und Netzwerktechnologien geschehen kann.

 

Das Domain Name System (DNS) ist ein wichtiger Teil der Internet-Infrastruktur. Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das IP-Protokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der heute üblichen Version IPv4 um 4 Byte (Zahlen im Bereich von 0 bis 255), die durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Man kann sich diese Zahl als eine Art Telefonnummer mit dem DNS als Telefonbuch vorstellen. Das DNS ist eine verteilte Datenbank, die einen Übersetzungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänenname (zum Beispiel „wikipedia.de“) kann in eine IP-Adresse übersetzt werden und umgekehrt. Dies geschieht – vom Nutzer unbemerkt – immer dann, wenn er etwa im Webbrowser auf einen neuen Link klickt oder direkt eine Webadresse eingibt. Der Browser fragt zuerst einen ihm bekannten DNS-Server nach der IP-Adresse und verbindet sich dann mit dieser Adresse, um die Inhalte abzurufen. Basierend auf dieser Technik stellt das Internet den Nutzern verschiedene Dienste zur Verfügung. Erst durch die einzelnen Dienste entsteht dem Anwender ein Nutzen aus dem Internet. Siehe Liste wichtiger Internetdienste.

 

Die Internetstandards und Protokolle des Internets werden in RFCs beschrieben und festgelegt.

 

Die meisten Webseiten benutzen das Http (Hypertext Transfer Protocol), das meist auf dem TCP Port 80 ist. Außerdem gibt es für verschlüsselte Seiten das Https (Hypertext Transfer Protocol Secure), meist basierend auf Port 443.

 

Anonymität im Internet

 

Bei Aktivitäten im Internet fühlen sich viele Benutzer anonym. Diese Anonymität ist jedoch trügerisch. Ohne Schutzmaßnahmen erfährt die Gegenseite bei der Kommunikation die IP-Adresse des Benutzers. Doch auch Cookies, Browserinformationen oder zuletzt besuchte Seiten können ohne Wissen des Anwenders weitergegeben werden.

 

Mit der IP-Adresse eines Benutzers kann der Anbieter von Internetdiensten die tatsächliche Identität des Benutzers in der Regel nicht ermitteln, er kann jedoch Hinweise wie den Provider und oft auch noch Land und Region herausfinden, wenn der Benutzer sich nicht schützt. Die Identität eines Internetbenutzers kann jedoch häufig durch eine Anfrage der Strafverfolgungsbehörden beim jeweiligen Provider festgestellt werden: Die meisten Provider speichern mehrere Tage oder Wochen lang, wer wann welche IP-Adresse hatte, obwohl ihnen genau diese Speicherung vom Gesetz verboten wird (§ 96 TKG).

 

Anonymizer werden benutzt, um die IP-Adresse beim Surfen zu verschleiern. Die häufigste und einfachste Variante sind anonymisierende Proxyserver. Der Proxybetreiber kennt aber immer noch die IP-Adresse des Nutzers und kann diese auf Anfrage herausgeben. Um das zu vermeiden, bauen bestimmte Tools Ketten von Proxys auf, zwischen denen der Verkehr verschlüsselt wird. Diese Variante ist langsam, aber recht sicher, da nun eine fehlende Zwischenstation die Rekonstruktion unmöglich macht. Die bekanntesten Tools dieser Art sind Tor und JAP.

 

Vom Unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein (ULD) werden weitere, zum Teil sogar internationale Projekte vorangetrieben, die Sicherheit und Datenschutz im Internet ermöglichen. P3P kann beispielsweise beim Surfen im Netz helfen, mit Hilfe von Datenschutztechnik zu erkennen, welche personenbezogenen Daten beim Besuch einer Internetseite verarbeitet werden. Darüber hinaus wird auch Forschung zu Anonymität und Pseudonymität betrieben. Das ULD wirkt dabei als unabhängige staatliche Datenschutz-Instanz bei groß angelegten internationalen Projekten zu den wichtigen Zukunftsfragen eines Identitätsmanagements mit.

 

Will man anonym Daten veröffentlichen oder Dateien tauschen, kommen anonyme Peer-to-Peer-Netzwerke zum Zug. Sie funktionieren ähnlich, mit mehreren Zwischenstationen und Verschlüsselung an jedem Pfad. Vertreter dieser Sparte sind Freenet, Mute, ANts P2P und Gnunet.

 

Mit Tor entwickelt das Freehaven-Projekt ein anoymisierendes Overlay-Netzwerk für TCP. Auf TCP basierende Verbindungen, wie Web-Browsing, Instant Messaging, IRC, SSH, E-Mail, P2P, können so mittels Onion Routing anonymisiert werden.

 

Zum Versenden anonymer E-Mail und anonymer Beiträge für Usenet-Foren werden so genannte Remailer verwendet. Diese Server reagieren auf E-Mail ähnlich wie ein Http-Proxy auf die Anforderung von Web-Inhalten: Die Nachricht wird vom Remailer weiterversendet, so dass er selbst als Absender agiert. Verschiedene Technologien wurden entwickelt, um Remailer-Dienste zu realisieren. Die momentan im Internet anzutreffenden Server verwenden entweder das Cypherpunk- oder das Mixmaster-Protokoll. Während ersteres einen reinen Weiterleitungsdienst definiert, der durch Verschlüsselungssysteme zusätzlich abgesichert werden muss, etabliert Mixmaster von Haus aus ein hochsicheres Remailer-Netz. Eine Mischform der beiden Remailer-Typen stellen sog. Hybrid-Remailer dar (siehe dazu: Reliable).

 

Will man anonym Daten im Internet veröffentlichen, herunterladen oder tauschen, bieten anonyme Peer-to-Peer-Netzwerke hierzu eine Möglichkeit. Die Anonymität wird in den meisten anonymen Peer-to-Peer-Netzwerken dadurch erreicht, dass die auszutauschenden Daten verschlüsselt werden und die „tauschenden“ Clients keine direkte IP-Verbindung zueinander unterhalten, sondern die Daten anhand von „IDs“ über Proxys (bspw. andere Clients) an den Empfänger weiterleiten. Anonyme Filesharing Programme sind beispielsweise RShare, Freenet, Mute, ANts P2P oder Gnunet, siehe weitergehend Liste der Filesharing-Dienste.

 

Eine weitere Möglichkeit zum „anonymen“ Veröffentlichen, Herunterladen oder Tauschen von Daten im Internet bieten sogenannte Usenet-Anbieter. Bei vielen dieser Anbieter wird der Zugang zu den Usenet Inhalten über Server abgewickelt, so dass sich der Nutzer nicht direkt zu den entsprechenden Newsgruppen verbindet, sondern den Usenet-Anbieter als „anonymen“ Vermittler zwischenschaltet. Bei diesen Anbietern sollte man jedoch genau darauf achten, ob der Serverbetreiber Log-Files erstellt, welche er auf Aufforderung selbstverständlich an zuständige Stellen herausgeben muss. Eine weiteres Problem bei vielen Usenet-Anbietern ist, dass gezielt damit geworben wird, dass urheberrechtlich geschütztes Material zum Download angeboten wird. Ein solches Verhalten eines Anbieters könnte unter Umständen als Begünstigung von oder gar als Aufforderung zu Urheberrechtsverletzungen gedeutet werden, wodurch selbst eine pauschale Überwachung des Anbieterservers gerechtfertigt sein könnte.

 

Eine letzte Variante zum anonymen Veröffentlichen, Herunterladen oder Tauschen von Daten im Internet bieten sogenannte Anonymizer. Einige dieser Anonymisierungsdienste bieten ebenfalls Unterstützung für die Nutzung von Filesharing-Programmen. Auch in diesem Falle gilt es genau darauf zu achten, ob der Betreiber des Anonymisierungsdienstes Log-Files erstellt, welche er auf Aufforderung selbstverständlich an zuständige Stellen herausgeben muss.

Cookies sind kleine Textblöcke, die der Server an den Browser sendet und später wieder zurück bekommt und benutzen kann. Cookies werden vom Browser entweder dauerhaft oder für einen festgelegten Zeitraum gespeichert. Sie können keine ausführbaren Befehle enthalten und stellen deshalb kein direktes Sicherheitsrisiko dar. Anders ausgedrückt enthalten Cookies keinerlei Informationen, die dem Server nicht vorher schon bekannt gewesen wären – abgesehen von der Besuchshäufigkeit und der zeitlichen Einordnung. Cookies dienen häufig dazu, den Benutzer zu „markieren“ um ihn später wiedererkennen zu können. Mittlerweile sind Cookies die Standardmethode zur Verfolgung von Seitenbesuchern geworden. Beim ersten Besuch bekommt der Benutzer ein Cookie mit einer eindeutigen Kennnummer aufgedrängt und bei jedem weiteren Seitenaufruf kann der Server den Besucher daran wiedererkennen. Das eigentliche Problem ist, dass nicht nur der Server Cookies setzen kann, der die aufgerufene Webseite liefert. Jede von einem Webserver abgerufene Datei kann mit einem Befehl zum Setzen oder Auslesen eines Cookies kombiniert werden. Da die Werbebanner und Counter-Grafiken auf den meisten Webseiten nicht vom eigenen Server, sondern direkt von den Servern der Werbefirmen eingefügt werden, haben diese Firmen die Möglichkeit, mit Hilfe von Cookies Benutzerbewegungen auf allen angeschlossenen Partner-Webseiten zu verfolgen.

 

Internetdienste
 

Das Internet selbst stellt lediglich die Infrastruktur zur Verfügung. Ein Nutzen für die Anwender entsteht erst dadurch, dass basierend auf der Struktur des Internets dem Anwender verschiedene Dienste zur Verfügung stehen. So hat der Dienst des World Wide Webs dem Internet Anfang der 1990er-Jahre erst zum Durchbruch verholfen. Auch heute noch kommen immer neue Dienste hinzu. Die wichtigsten und bekanntesten Dienste sind in der folgenden Tabelle kurz beschrieben. Für ausführlichere Erläuterungen siehe die jeweiligen Artikel.

 

World Wide Web
 

Der Webbrowser Firefox auf der Wikipedia Webseite. Das World Wide Web (kurz Web oder WWW) überträgt Webseiten.

 

Zur Anzeige der Seiten wird ein sogenanntes Browser-Programm (wie beispielsweise Internet Explorer oder Firefox) verwendet.

 

Seit 1990 hat sich das WorldWideWeb ständig weiterentwickelt und bietet neben Bebilderungen, Ton, Animationen und Videos auch interaktive Inhalte aller Art.

 

Eine typische WWW-Adresse (der Einfachheit auch "Internetadresse" genannt) ist beispielsweise http://www.wikipedia.org.
 

Dialer

 

Dialer (deutsch: Einwahlprogramme) sind im engeren Sinne Computerprogramme, mit deren Hilfe über das analoge Telefon- oder das ISDN-Netz eine Verbindung zum Internet oder anderen Computernetzwerken aufgebaut werden kann. So ist bei vielen Betriebssystemen bereits ein Standard-Einwahlprogramm für Verbindungen nach dem Point-to-Point Protocol (PPP) mitgeliefert. Bei Windows nennt es sich „DFÜ-Netzwerk“. Das Einwahlprogramm muss gestartet werden, wenn man eine Internetverbindung aufbauen möchte und so lange laufen bis man diese schließt.

 

Viele Provider bieten Installations-CDs an, die es unerfahrenen Kunden vereinfachen sollen, einen passenden Internetzugang einzurichten. Dies geschieht entweder dadurch, dass ein Eintrag im DFÜ-Netzwerk des Windows-Betriebssystems erstellt wird, oder aber dadurch, dass ein firmenspezifisches Einwahlprogramm (zum Beispiel die AOL-Software) installiert wird. Oft wird dabei im weiteren Sinne nicht nur das Einwahlprogramm selbst, sondern auch dessen Installationsprogramm als „Dialer“ bezeichnet.

 

Schutz vor Dialern

Um sich zu schützen, kann man auch bei seiner Telefongesellschaft eine Sperrung aller 0190-Nummern bzw. 09009-Nummern für den eigenen Anschluss beantragen. Diese Sperrung betrifft dann allerdings auch den Faxabruf von Informationen – die etwa in TV-Sendungen angeboten werden – und gilt auch für Support-Rufnummern. Selbst die eigentlich sicheren Vorwahlen 0191 bis 0195, die für den Internetzugang per Modem reserviert sein sollten, wurden bereits von Dialer-Anbietern missbraucht [1].

 

Benutzer, die sich ausschließlich über DSL mit dem Internet verbinden, sind nicht von Dialern betroffen, sofern die DSL-Verbindung über die Netzwerkkarte zustande kommt und die einzige Verbindung des Computers zur Außenwelt ist. Ein Dialer kann dann zwar heruntergeladen werden, ist jedoch wirkungslos, denn eine Einwahl über DSL ist nicht möglich, da es im DSL-Netz keine herkömmlichen Telefonnummern gibt. Das haben auch die Dialer inzwischen bemerkt und jetzt den Zugang verändert. Es erscheint nun die Dialogbox: „Bitte geben Sie Ihre Handynummer ein. Sie erhalten sofort den Zugangscode per SMS.“

 

Problematische Dialer erkennt man an folgenden Merkmalen:

 

Beim Anklicken einer Webseite öffnet sich ein Download-Pop-up.

Auf der Webseite findet man allenfalls einen versteckten Hinweis auf die entstehenden hohen Kosten.

Fast alle Links einer Webseite verweisen trotz angeblich unterschiedlichen Inhalts immer auf dieselbe Seite.

Der Download findet auch dann statt, wenn man auf „Abbrechen“ geklickt hat.

Der Dialer installiert sich automatisch selbst als Standardverbindung, ohne dass es einen Hinweis darauf gibt.

Der Dialer baut selbstständig unerwünschte Verbindungen auf.

Der Dialer weist vor der Einwahl oder während der Verbindung nicht auf den hohen Preis der Verbindung hin.

Der Dialer lässt sich gar nicht oder erst mit erheblichem Aufwand wieder deinstallieren.

Beim Zugriff auf Webseiten, welche einem die eigene IP-Adresse anzeigen, inklusive des zugehörigen Providers, erscheint ein Provider, mit dem man nichts zu tun hat.

Aktuell hat sich das Dialerproblem mehr auf Auslands- bzw. Satellitenziele verlagert. Der befallene PC weist kaum noch Spuren der Dialersoftware aus, da fast alle Routinen nur temporär installiert werden und beim Ausschalten verschwinden. Die Zielrufnummern werden dabei aktuell aus dem Internet geladen und wechseln i. d. R. häufig. Hier auflaufende Kosten sollten beim rechnungsstellenden Netzbetreiber reklamiert werden, da auch diese Dialereinwahlen ungesetzlich sind und eine nicht vorhandene Zahlungspflicht abgeleitet werden kann.

 

Als zusätzlichen Schutz vor Dialern gibt es im Elektronik-Fachhandel einen sog. "Dialer-Blocker", der zwischen Computer und TAE-Anschlussdose installiert wird. In dieses Gerät können bis zu 12 Rufnummern als Positivliste eingegeben werden. Sobald eine Rufnummer nicht mit den gespeicherten Nummern übereinstimmt, wird der Anwahlversuch sofort unterbunden.

[Zurück zum Anfang]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

       
       
Links zu Videos aus dem Bereich EDV [Zurück zum Anfang]
       
Der legendäre BTX-Hack des Chaos Computer Clubs

DESKWORK in des WDRs Computer club classic

eBay Marktplatz1 – Was mit Skype alles möglich ist

Elektrischer Reporter 11 Peter Glaser

EuroNews - DE - Futuris EU-Softwareprojekte sollen Computer intelligenter

Entstehung des Internets

Frank Elstner präsentiert den Amiga in Deutschland (1986)

Für Özcan

Made in Germany Roya Ulrich - Die IT-Spezialistin

NO COPY - Der Film - Die Geschichte der digitalen Raubkopie

Panorama ARD - Spiel ohne Grenzen - 05.04.07

PCPro Video Highend-PCs

PCPro Video Media Center PCs

Vista Arbeiten mit Programmen

Optische Qualitätsinspektion von Briefmarken - Machine Vision - Computer Vision

Prostatakrebsbehandlung Ablatherm HIFU, die roboterchirurgie der zukunft, nachgewiesen effectiv und sicher!

die geburt des internets

Domains als Marketinginstrument - Webeffekt

WDR Computerclub 1999 - Wie kommt man ins Internet

Welches Notebook für wen Tipps zum Kauf

Suchmaschinen Marketing und Optimierung

Wdr_Computerclub_Classic_15.02.2002_-_Mobile_Computer.avi

25 Jahre Computervirus - metro @ PULSTV

CeBit 1987

ComputerTrend-TV Disc Publisher Systems 2006

ComputerTrend-TV humanoide autonome Roboter

ComputerTrend-TV OLEDS CeBit

       
       
Die EDV in Bildern    

[Zurück zum Anfang]

       
     

[Zurück zum Anfang]