Die Geschichte des Personalcomputers

Alan Kay hatte die Sünde, die wir gemeinsam begehen würden, falsch vorhergesehen: Nicht, dass es uns an Vorstellungskraft mangeln würde, um den Computer für immer als fernes und kaltes Gerät zu sehen – sondern dass die Benutzerillusion so übermächtig werden würde, dass die Tatsache, dass der Computer im Wesentlichen eine Maschine ist, wie eine „absurde“ Idee erscheinen würde.
Juni 7, 2025
image_print

Der Personalcomputer entstand in einer Zeit, in der die Idee davon noch äußerst fern lag – nur weil einige Menschen so leidenschaftlich den Wunsch verspürten, einen eigenen Computer zu besitzen, dass sie diesen Wunsch schließlich in die Realität umsetzten. „Computerpower für das Volk!“ war ihr kämpferischer Slogan.

Wie lief eigentlich der ganze Entwicklungsprozess ab?

Alan: „Wir haben einfach versucht, uns irgendwo festzuhalten! Wenn du nicht weißt, was du tun sollst, probierst du alles aus.“

Alan Kay war einer der frühesten Visionäre des Personalcomputers. Er glaubte daran, dass das Schicksal des Computers – wie bei allen wirklich bedeutenden Technologien – sei, so sehr in unser Leben eingebettet zu sein, dass er unsichtbar wird. So wie Dinge, die wir nicht einmal mehr als Technologie betrachten: Uhren, Papier und Stift, Kleidung oder Bücher. Den Menschen sagte er: „Ich glaube, das Schicksal des Computers ist, eines dieser Dinge zu werden.“

Das ist also die Geschichte des Personalcomputers: seine Geburt, der Gewinn von Macht und Einfluss – und sein jüngster Niedergang. Natürlich existiert der Personalcomputer immer noch, aber in einem entscheidenden Sinn ist seine Ära – das Zeitalter der Amateure, Entdecker, Hacker – zu Ende gegangen.

In den 1970er- und 1980er-Jahren tauchten Personalcomputer in den Wohnungen der Menschen auf – wie eine Mäuseplage, die über eine Kleinstadt hereinbricht. Anfangs war es seltsam, einen Computer im Haus zu sehen. Aber in den 1990er-Jahren war es schon merkwürdig, wenn ein Haushalt keinen Computer hatte. Computer wurden zum Spielen, für Textverarbeitung, einfache Grafikgestaltung – etwa um ein Poster für einen Garagenverkauf in der Nachbarschaft zu entwerfen oder eine Geburtstagskarte zu gestalten – und natürlich zum Rechnen verwendet. Davor besaßen nur Menschen, die in der Informatik arbeiteten, einen Computer; und noch früher waren Computer so groß, dass sie nur an Universitäten untergebracht werden konnten – größer als die Computer selbst. Informatikstudenten mussten sich anstellen, um sie benutzen zu dürfen. Sie luden ihre Programme per Lochkarten auf die Maschinen und warteten manchmal 24 Stunden nur auf eine simple Ausgabe – die häufig lediglich aussagte, dass ein Fehler im Code war.

Die ersten, die Computerprogramme entwickelten, waren Mathematiker und Wissenschaftler, die dachten, die Kommunikation mit der Maschine würde einfach und logisch sein. Als sie dann feststellten, wie schwierig es in Wahrheit war, benutzbare Software zu schreiben, waren sie tief enttäuscht. Computer waren stur: Sie reagierten nicht darauf, was man meinte, sondern nur auf das, was man exakt sagte. Daraus entstand eine neue Art von Handwerkern: die Informatiker – Programmierer. Diese Leute fanden heraus, wie man mit Computern in deren Sprache spricht, sie entwickelten ein Gespür dafür und fanden Gefallen daran.

„Software ist eigentlich eine Kunstform“, sagte Alan Kay einmal einem Reporter des Magazins Scientific American. „Sie ist eine sorgfältig ausgearbeitete Literatur, die komplexe Dialoge zwischen Mensch und Maschine ermöglicht. Software ist tatsächlich eine Form von Literatur, die sowohl Computer als auch Menschen lesen können.“

In gewisser Weise waren Informatiker die Autoren und Künstler jener neuen Welten, die von Computern simuliert werden sollten. Später sollte Jaron Lanier, bekannt geworden als technischer Magier, die drei wichtigsten neuen Kunstformen des 20. Jahrhunderts benennen: „Kino, Jazz und Programmierung.“

Es liegt in der Natur der Sache, dass alles, was über menschliches Maß hinausgeht, früher oder später an religiöse Strukturen erinnert – und so entstand bald eine Art „Priesterschaft der Programmierer“. Manche gewöhnliche Bürger glaubten, die Computer würden die Welt übernehmen: einige begrüßten diesen Gedanken, andere fürchteten ihn.

Die Computerindustrie wiederum wollte nicht, dass Menschen sich mit solchen Fragen beschäftigten: Man kann einem normalen Konsumenten nichts verkaufen, was ihm Angst macht. Selbst einen Gott zu verkaufen ist schwer. Daher begannen kluge Köpfe auf der ganzen Welt zu sagen: „Nein, das mit den Computern könnte etwas sein, das der Menschheit als Partner dient, als ergänzender Gefährte. Dinge, die wir nicht können, könnte der Computer übernehmen – und umgekehrt.“ Aber wie sollte man das zeigen? Untereinander sagten sie: „Wir müssen Wege finden, den Computer auf menschliches Maß zu bringen, sonst werden die Menschen weiterhin Angst vor ihm haben.“

Genau an diesem Punkt kamen Alan Kay und viele seiner Weggefährten ins Spiel. Alan war vielleicht eine eher im Hintergrund agierende Figur in einer Geschichte voller großer Namen – aber genau das bewahrte ihn vor übermäßiger Verklärung und machte ihn dadurch klarer erkennbar. Alan und seine Kollegen entwickelten die Idee des Dynabook. In einem Interview mit Scientific American gab Alan offen zu, dass das Dynabook „eine Art Fantasie war, der heilige Gral, der uns in Bewegung brachte“. Es war eigentlich kein echter Computer – im Gegenteil: Es war ein Modell aus Karton. Und wie Alan mit einem Augenzwinkern sagte, war es „etwas, das verhinderte, dass wir zu viele Meetings darüber abhalten mussten, was wir eigentlich machen wollten.“

Bevor wir zu diesem Modell kommen, sollte man ein paar grundlegende Dinge darüber sagen, was ein Computer eigentlich ist. Die einfachste Art, über einen Computer nachzudenken, besteht darin, ihn in erster Linie als einen Speicher (Gedächtnis) zu begreifen. Dann gibt es ein sehr kleines logisches System, das ein paar grundlegende Befehle ausführen kann.

Viele Menschen ohne mathematische Ausbildung haben wahrscheinlich nie intensiv über den Begriff des Algorithmus nachgedacht. Doch ein Algorithmus ist letztlich nichts anderes als ein Verfahren zum Erzeugen und Bewegen von Symbolen. Ein Computer hat also einige grundlegende Eigenschaften: Speicher, die Fähigkeit, Symbole in diesem Speicher abzulegen, sie wieder herauszuholen und sie zu verändern. Dieses konzeptionelle Gerüst reicht aus, um jeden Computer – ob schon existierend oder erst in der Zukunft entstehend – zu simulieren.

Natürlich gibt es Methoden zur abstrakten Speicherung, zum Abrufen und Verarbeiten von Informationen (Symbolen), seit Anbeginn der Menschheit: Sprache ist eine davon, Kunst und Schrift eine andere. Selbst wenn wir keine Werkzeuge zur Symbolverarbeitung verwenden, gibt es immer eine Art von Vermittler zwischen uns und der Welt. Schließlich können wir die gesamte Welt nicht in unserem Geist unterbringen. Deshalb müssen wir Abstraktionen vornehmen. Die Welt existiert in unserem Kopf nur als ein Modell – in gewissem Sinne leben wir in einer Art wachem Halluzinationszustand. Die Realität, in der wir uns befinden, ist bereits virtuell!

Wir haben das Wort „Computer“ erklärt – aber was ist mit dem Wort „persönlich“? Persönlich bedeutet: Es gehört dem Benutzer, kostet nicht mehr als ein Fernseher und ist tragbar – das heißt, der Benutzer sollte es leicht mit sich führen können, zusammen mit anderen Dingen. An diesem Punkt fragte Alan Kay den Reporter von Scientific American: „Müssen wir vielleicht noch hinzufügen, dass er auch im Wald benutzbar sein sollte?“

Alan und seine Kolleg*innen dachten an drei verschiedene Entwürfe für den Personal Computer – oder Dynabook, wie sie ihn nannten: Einer sah aus wie ein Spiralblock, ein anderer war so klein, dass er in die Tasche passte, und bestand aus einem Brillengestell mit eingebautem Display. Das dritte Modell war eine empfindliche Armbanduhr, die idealerweise zwanzig Jahre später über Netzwerkverbindung verfügen sollte – sie würde sich in jedem beliebigen Raum mit Steckdose verbinden können, und die Benutzeroberfläche würde sich mit der Person von Raum zu Raum bewegen. Dabei war es weniger wichtig, wie das Dynabook am Ende aussehen würde – entscheidend war, was diese Modelle bedeuteten: Es ging um die Idee eines Computers, der eine enge, alltägliche Beziehung zum Menschen haben sollte.

Alan sprach davon, dass man mit so einem Gerät „die höchsten Ebenen der Menschlichkeit“ erreichen sollte. „Aber genauso wie jemand, der mit Stift und Papier schreibt, sich vorstellen darf, einmal auf Shakespeares Niveau zu gelangen – bedeutet das nicht, dass man jedes Mal Shakespeare sein muss, wenn man etwas schreibt.“

Auch alle anderen Erfinder stellten sich dieselbe Frage: Wie machen wir den Computer intimer, freundlicher, zugänglicher? Und wenn Menschen ihn bei sich tragen könnten – was würden sie mit ihm machen wollen? Das Problem, wie Alan feststellte, lag darin, dass die Programmierer jener Zeit „in einer winzigen Welt lebten – voller Ausdrücke, wie wir sie in Mathematikstunden lernen, abgeschlossen, und bevölkert von Menschen, die Freude daran hatten, komplexe Dinge zu verstehen und zu lernen.“ Am schwersten fiel es ihnen zu akzeptieren, dass der durchschnittliche Nutzer eben nicht so war. „Die Regel Nummer eins beim Design von Benutzeroberflächen wurde bald: Der Benutzer ist nicht wie wir.“ Sie suchten nach einem Weg, diese Wahrheit wirklich zu verinnerlichen – und fanden ihn darin, den Prototyp Kindern vorzustellen.

Und genau das taten sie – mit 250 Kindern im Alter zwischen sechs und fünfzehn Jahren. Alan und die anderen Programmierer beobachteten, wie die Kinder mit dem Computer umgingen. Ihre Hoffnung war, dass diese Erfahrung ihre Vorstellung davon erweitern würde, was ein Computer sein könnte.

Alan erinnerte sich an diese Testphase so: „Wir stellten fest, dass sowohl Kinder als auch Erwachsene, die zum ersten Mal auf einen Personal Computer trafen, bereits mit selbst gewählten Beschäftigungen beschäftigt waren. Daher war ihr erster Impuls fast immer, das System so zu nutzen, dass es ihre bereits vorhandenen Aktivitäten unterstützte. Ein Büroangestellter wollte vielleicht Papierkram und Buchhaltung automatisieren. Ein Kind wollte vielleicht zeichnen oder Spiele erfinden. Die Menschen begannen ganz natürlich, persönliche Werkzeuge zu entwickeln. Auch wenn der Mensch schon immer als ein wesen beschrieben wurde, das Werkzeuge herstellt – die Herstellung von Werkzeugen lag traditionell in den Händen von Spezialisten. Doch mit dem Computer sahen wir eine Demokratisierung der Werkzeugherstellung: Sie wurde zu etwas, das jeder tun konnte. Komponistinnen konnten den Computer in ein Instrument verwandeln, das ihre Musik sofort beim Schreiben wiedergab. Geschäftsleute konnten ihn in einen Aktenkoffer verwandeln, der eine funktionierende Simulation ihres Unternehmens enthielt. Pädagoginnen konnten mit ihm sokratische Dialoge führen, unterstützt durch grafische Animationen, die die Schüler*innen vertieften. Hausfrauen konnten ihn nutzen, um Buchführung, Haushaltspläne, Quittungen und Erinnerungen zu speichern und zu organisieren. Und Kinder verwandelten ihn in ein aktives Lernwerkzeug mit Zugang zu einem Informationsspeicher, wie ihn keine häusliche Bibliothek je bieten konnte.“

Das war im Jahr 1967.

„Ich sagte: ‚Also gut, in zwanzig Jahren werden wir einen computerähnlichen Notizblock haben, der sowohl großartige Dinge tun kann als auch alltägliche.‘ Und eine der Fragen, die wir uns damals stellten, war: ‚Was müsste ein Computer können, damit man darauf sowohl große Projekte verwirklichen als auch einen einfachen Einkaufszettel schreiben möchte? Und wie müsste er beschaffen sein, damit es einem nicht unangenehm ist, ihn mit in den Supermarkt zu nehmen und zwischen zwei Einkaufstüten herauszuziehen?‘ Natürlich kann man einen Einkaufszettel auch auf Papier schreiben. Die Frage war nicht, ob man Papier ersetzen kann. Die Frage war: Kann ein neues Medium das alte überdecken – und dabei all die wunderbaren zusätzlichen Dinge ermöglichen, die das alte Medium nie konnte?“

Alan mochte den Vergleich mit dem Buch, „weil das Buch verschiedene Stufen durchläuft: Da ist zunächst die Erfindung der Schrift – was eine gewaltige Idee ist – und der Unterschied zwischen Schrift zu haben oder nicht zu haben ist enorm. Genauso ist der Unterschied enorm zwischen dem Vorhandensein von Computern (sei es Großrechner) und deren Abwesenheit. Die nächste Stufe ist die Gutenberg-Ära. Und wie McLuhan sagte: ‚Wenn ein neues Medium auftaucht, ahmt es zunächst das alte nach.‘ Die Bücher Gutenbergs hatten dieselbe Größe wie die schön verzierten, von Mönchen handgeschriebenen Manuskripte. Sie waren ziemlich groß! Und weil es in einer Bibliothek so wenige Bücher gab, hatte jedes seinen eigenen Tisch. Man ging in die Bibliothek und begab sich zu dem Tisch, dem ein bestimmtes Buch zugewiesen war – denn die Bücher waren an die Tische gekettet. Sie waren so wertvoll – unbezahlbar! Natürlich konnte Gutenberg viele Bücher drucken, aber er wusste nicht, welche Größe sie haben sollten. Das klärte sich erst ein paar Jahrzehnte später, als ein venezianischer Verleger namens Aldus Manutius entschied, dass Bücher in etwa das Format haben sollten, das wir heute kennen. Aldus orientierte sich bei der Größe an den Satteltaschen, die in Venedig im 15. Jahrhundert üblich waren. Seine zentrale Idee war: Bücher dürfen nun verloren gehen – das ist kein Problem mehr, denn sie waren erschwinglich geworden. Und wenn Bücher verloren gehen dürfen, können sie auch mitgenommen werden. Ich glaube, in Bezug auf den Computer befinden wir uns heute noch in der Zeit vor Aldus – im entscheidenden Sinne. Wir haben noch nicht verinnerlicht, dass Computer verloren gehen könnten. Sie wissen schon, wir bewachen unsere Computer. Wir ketten sie an den Tisch!“

Dieses Gespräch fand in den 1970er Jahren statt. „Computer sind immer noch ziemlich teuer. Sie werden erst dann wirklich wertvoll, wenn sie verlierbar sind. Wenn wir bereit sind, sie zu verlieren – dann werden sie überall sein.“

Bevor Alan sich mit Computern beschäftigte, interessierte er sich für Theater – und das beeinflusste seine Denkweise nachhaltig. „Theater ist eigentlich ein ziemlich verrücktes Konzept“, sagte er. „Ein kahlköpfiger Mann in den Vierzigern spielt auf der Bühne einen jungen Prinzen, hält einen Plastikschädel in der Hand, hinter ihm Kulissen aus Sperrholz – das dürfte eigentlich nicht funktionieren. Aber es funktioniert – immer! Der Grund, warum es funktioniert, ist, dass das Theater dem Zuschauer seinen eigenen Verstand widerspiegelt. Jemand hat einmal gesagt: ‚Menschen gehen nicht ins Theater, um zu vergessen – sondern um sich zu erinnern.‘ Das Theater ist ein Erinnerungsapparat. Was wir im Theater tun, ist, etwas so Komplexes wie menschliche Existenz zu nehmen, es in einer archetypischen Figur zu verdichten – damit der Verstand des Publikums es wieder zusammensetzen kann.“

„Ich glaube, es war Picasso, der Kunst einmal als eine Lüge, die die Wahrheit erzählt beschrieben hat“, sagte Alan. „Das galt für das Theater – und ich wurde mir bewusst, dass dies auch für den Computer gelten müsste, wenn er sich wirklich in der Gesellschaft durchsetzen sollte. Computer konnten nicht einfach ‚die Wahrheit, die die Wahrheit erzählt‘ bleiben – diese hässlichen, schweren Kästen mit schwarzem Bildschirm und grünem oder bernsteinfarbenem Text, Maschinen, die in Wirklichkeit wie im Anschein nur von Spezialisten mit einer komplizierten, formellen Sprache bedient werden konnten. Also fing ich an zu überlegen: Was wäre, wenn die Schnittstelle zwischen Mensch und Computer weniger direkt – und mehr eine theatralische Lüge wäre?

„Um unter uns darüber zu sprechen, prägten wir den Begriff user illusion – also ‚Nutzer-Illusion‘. Ich glaube, damals sagten wir noch gar nicht so oft ‚Benutzeroberfläche‘ oder ‚User Interface‘. Aber die Idee war: Was kannst du auf der Bühne dieses Bildschirms aufführen, um genau die richtige Dosis an Magie zu erzeugen, die der Nutzer erleben soll? Denn im Theater geht es ja genau darum: Wie gestaltet man die Bühne so, dass sie beim Publikum die Erwartung hervorruft, etwas Reales zu erleben? Genauso muss eine Benutzeroberfläche die passenden Hinweise geben. Es geht darum, die Wahrnehmung des Nutzers gezielt zu lenken.“

„Mein Freund Jerome sprach oft davon, dass Menschen auf unterschiedliche Arten wahrnehmen: kinästhetisch, visuell oder symbolisch. ‚Deshalb‘, sagte Alan, ‚entwickelten wir die Idee der Maus. Es ging uns nicht nur darum, wie man auf dem Bildschirm Dinge markieren kann. Die größere Frage war: Wie geben wir dem Nutzer einen kinästhetischen Zugang zu dieser neuen Welt – der Welt des Computers? Wir tasten unsere Umgebung ab – das ist eine kinästhetische Form der Weltaneignung. Und wir erfassen sie visuell. Beides sind Wege, die uns intuitiv erscheinen. Visuelle Darstellung ist analog – sie bildet etwas ab. Berührung aber erzeugt ein Gefühl von Verbundenheit: Wenn wir etwas anfassen, fühlen wir uns nicht isoliert. Wir spüren den Boden unter den Füßen. Die Maus gab den Menschen eine winzige Möglichkeit, mit den Objekten im Bildschirmraum körperlich in Kontakt zu treten. Der Bildschirm selbst wurde zu einer Art Theaterkulisse, die eine viel komplexere Realität verbarg: nämlich, dass der Computer in Wirklichkeit eine Maschine war, die zwei Millionen Befehle pro Sekunde ausführte – eine Vorstellung, mit der sich niemand beschäftigen wollte.’“

Nun stellten Alan und seine Kolleg*innen sich eine neue Frage: Was soll das Theater des Bildschirms zeigen? Damals konnte es alles sein. Heute erscheinen uns Symbole, Fenster oder die Metapher des virtuellen Schreibtischs ganz selbstverständlich – aber das hätte auch ganz anders kommen können. Wie Alan sagte: „Wir lesen Bücher, schauen Fernsehen, telefonieren – aber wir haben kaum ein Bewusstsein dafür, wie diese Prozesse eigentlich funktionieren oder wie sie anders funktionieren könnten. Wenn die Anwendungen einer Technologie erst einmal als ‚natürlich‘ erscheinen, ist der Kampf um ihre Gestaltung im Wesentlichen beendet – und historisch zufällige Entwicklungen gelten dann plötzlich als unvermeidlich. Nehmen wir das Fernsehen. Jeder glaubt, zu wissen, was ein Fernseher ist. Aber was Fernsehen sein könnte, ist eine ganz andere Frage. Genauso fragten wir: Was könnte ein Computer sein?

„Damals, in den 1970er-Jahren, fühlten sich die Menschen von Computern entfremdet – und sie waren sich dieser Entfremdung sehr bewusst. Die sperrigen Maschinen jener Zeit erzeugten eine Form von Selbstwahrnehmung, die es unmöglich machte, die Illusion eines ‚natürlichen‘ Gebrauchs aufrechtzuerhalten. Aber für uns als Erfinder war genau das ein Vorteil.“

„Durch die Beobachtung von Erwachsenen und Kindern wussten wir: Menschen wollten an ‚Projekten‘ arbeiten. Ich persönlich mochte es besonders, gleichzeitig an mehreren Projekten zu arbeiten, und die Leute warfen mir oft vor, meinen Schreibtisch zu verlassen. Sie wissen schon, meine Arbeit sammelte sich an einem Tisch, und ich ging einfach zu einem anderen. Wenn ich an mehreren Aufgaben gleichzeitig arbeitete, wollte ich, dass das Chaos eines Projekts an einem Tisch blieb, das eines anderen Projekts an einem anderen, und dass ich zu den verschiedenen Tischen gehen konnte, um genau dort weiterzumachen, wo ich aufgehört hatte. Wir versuchten also, ein Benutzerinterface zu modellieren, das dieses Gefühl vermittelte: Was wäre, wenn man spüren könnte, dass man von einem Projekt zum nächsten wechselt – und man den Bildschirm wie eine Vielzahl von Tischen betrachten könnte, die alle Werkzeuge enthalten, die ein Projekt benötigt?“

„Doch schon bald stießen wir auf ein Problem: In vielen Fällen war der Bildschirm nicht groß genug, um alle Informationen gleichzeitig anzuzeigen, auf die der Benutzer zugreifen wollte. Deshalb entwickelten wir die Idee der ‚Fenster‘ – also simulierte Ansichtsbereiche innerhalb des physischen Bildschirms. Mithilfe der Fenster konnten Dokumente, die aus Text, Bildern, Noten oder dynamischen Animationen bestanden, auf verschiedenen Detailebenen erstellt und angezeigt werden. Sobald Fenster erstellt waren, konnten sie sich wie Papierseiten auf dem Bildschirm überlappen! Wenn man mit der Maus auf ein teilweise verdecktes Fenster klickte, wurde dieses wieder in den Vordergrund gebracht und über die anderen Fenster gelegt. Fenster, die keine sofortige Aufmerksamkeit erforderten, aber dennoch nützliche Informationen enthielten, konnten zu kleinen Rechtecken verkleinert werden, auf denen ein beschreibender Name stand. Ein einziger ‚Klick‘ mit der Maus konnte diese Fenster sofort wieder öffnen und ihren Inhalt sichtbar machen.“

Alan ist vor allem für die Idee des „Fensters“ bekannt, und es überrascht wohl niemanden, dass Microsoft eines seiner ersten Betriebssysteme auf Basis dieser Idee „Windows“ nannte – obwohl sie sie von Alan stahlen. Doch das störte Alan nicht. Das wirklich Spannende war für ihn, eine Idee zu entwickeln – und für jemanden, der sich für Ideen begeistert, ist das Formulieren einer Idee ohnehin der Anfang des nächsten Gedankens.

„Mit diesem Fenster- und Maussystem“, sagte Alan, „fühlten sich die Benutzer, als könnten sie ihre Finger direkt durch das Glas des Bildschirms stecken und die Informationsstrukturen direkt berühren. Sie waren begeistert! Fenster, Menüs, Tabellenkalkulationen und so weiter – all das bot einen Kontext, eine Bühne, auf der die Intelligenz des Benutzers den nächsten richtigen Schritt erkennen konnte. Mit anderen Worten: Sie halfen, einer Geschichte zu folgen. Und diese Geschichte waren die eigenen Projekte der Benutzer.“

Und was ist mit der Hardware? Ein Ingenieur, der in den 1990er Jahren bei Apple arbeitete und an der Entwicklung des Personal Computers beteiligt war, erklärte einige Ideen aus dem Entwicklungsprozess des iMac so: Der iMac war der erste Computer, der völlig anders gestaltet war – auf eine Weise, die sich Informatiker zuvor nur hatten vorstellen können – und er richtete sich direkt an den Verbraucher: Der iMac hatte es endlich geschafft, den Computer von etwas Einschüchterndem zu etwas Freundlichem zu machen.

Der Apple-Ingenieur sagte: „Wir wollten ihn einfach und elegant machen. Anstatt von den Benutzern zu verlangen, ein Computergehäuse mit einem Monitor zu verbinden, gestalteten wir den iMac als ein einziges Gerät – man musste ihn nur an die Wandsteckdose anschließen, und er funktionierte. Unser Ziel war es, alle Hürden zu beseitigen, die Einsteiger davon abhielten, mit Computern zu arbeiten. Darüber sprachen wir die ganze Zeit. Jemand schlug vor, das Gerät in hellen und verspielten Farben anzubieten – das war Lichtjahre entfernt von den langweiligen, einförmigen Designs unserer Konkurrenten. Damals waren die meisten Computer grau oder beige.“ Sie gaben diesen Farben sogar kindlich-süße Namen: Mandarine, Limette, Eisbonbon-Lila, Kirschrot und Heidelbeerblau. „Außerdem machten wir das Gehäuse halbtransparent, sodass die Benutzer ins Innere der Maschine blicken konnten – das nahm ihr diesen einschüchternden, geheimnisvollen Charakter.“

Doch das vielleicht wichtigste, eindrucksvollste und innovativste Detail, das den Computer wirklich persönlich machte und ihn in das Leben der Menschen brachte, war folgendes: Sie fügten oben am Computer einen Griff hinzu.

Ende der 1990er Jahre hielt Alan auf einer Konferenz folgende Rede:
„Ein weit verbreitetes Missverständnis über Computer ist, dass sie als logisch gelten. ‚Ehrlich‘ zu sagen, wäre passender. Auf ihnen kann man nahezu jede Form symbolischer Darstellung umsetzen. Darüber hinaus ermöglicht die Art und Weise, wie Computer Symbole verwenden – ähnlich wie in Sprache und Mathematik –, dass sie weit genug von der realen Welt abstrahieren können, um jede Art von wunderbarem Unsinn zu erzeugen! Zwar ist die Hardware natürlichen Gesetzen unterworfen, aber die Simulationen, die ein Computer durch Software ausführen kann, werden nur durch die Grenzen der menschlichen Vorstellungskraft eingeschränkt. Ein Computer kann zum Beispiel ein Raumschiff simulieren, das schneller als das Licht reist. Er kann fast alles simulieren.“
Auch wenn das jeder wusste, war es dennoch immer wieder aufregend, es zu hören.

„Von der Simulation von Unsinn zu sprechen, mag fast wie eine Sünde erscheinen, aber das gilt nur dann, wenn wir davon ausgehen wollen, dass unser Wissen korrekt und vollständig ist – und die Geschichte war gegenüber Menschen mit dieser Haltung nicht gerade freundlich! Tatsächlich sollte das Potenzial, mit scheinbarem Unsinn zu spielen, als wertvoll für die Entwicklung zukünftiger Geister angesehen werden.“
Das war Alan’s tiefster und grundlegendster Antrieb: Programme, die auf persönlichen Computern laufen, sollten sich in jede von uns gewählte Richtung lenken lassen – aber die eigentliche Sünde wäre es, den Computer dazu zu zwingen, sich wie eine Maschine zu verhalten.

Fünfzehn Jahre später fand sich ein vorsichtigerer und etwas beunruhigter Alan in einer unerwarteten Zukunft wieder. Vor einer Delegation aus der Technologiebranche sagte er:
„Wie bei der Sprache verspüren Computernutzer heute ein starkes Bedürfnis, die Ähnlichkeit zwischen Simulation und Erfahrung hervorzuheben; sie verwechseln diese beiden Dinge zunehmend und ignorieren die große Kluft zwischen Symbolen (oder Modellen) und der realen Welt. Ein wachsendes Gefühl von Macht und eine narzisstische Bewunderung für das eigene Spiegelbild, das der Computer zurückwirft, breiten sich immer mehr aus.“

Die Menschen nutzten Computer nun „für triviale Aufgaben – sie ahmen nur das nach, was Papier, Farbe oder Aktenschränke ohnehin schon tun konnten; sie delegieren dem Computer das Erinnern an Dinge, die sie auch selbst behalten könnten, oder machen ihn zum Sündenbock für menschliche Fehler.“

„Aber was mir am meisten Sorgen macht“, sagte er, „ist die wachsende Tendenz, an diese hardwarebasierte, code-lesende Maschine zu glauben – ihr geradezu eine übernatürliche Macht zuzuschreiben. Wir haben die Benutzerillusion zu sehr überhöht. So sehr, dass die Wahrheit darüber, was ein Computer eigentlich ist, nicht mehr erkannt wird.“

Alan Kay hatte die kollektive Sünde falsch vorhergesehen:
Es würde nicht unsere Einfallslosigkeit sein, die den Computer für immer als distanziert und kalt erscheinen lässt,
sondern dass die Benutzerillusion so groß werden würde, dass die Vorstellung, der Computer sei im Kern eine Maschine, plötzlich wie eine absurde Idee erscheint.

Theater ist überall in der menschlichen Welt.
Unser Geist spielt unser Leben in kleinen Theaterstücken nach.
Unsere Computer sind ebenfalls kleine Theater – solche, deren Magie wir beinahe ununterbrochen erliegen.
Ingenieure hatten über all das nie nachgedacht.
Sie hatten nicht vorhergesehen, dass sich physische Theater zunehmend leeren würden –
weil der Geist des Theaters in jeden persönlichen Computer eindringen und dort zu schlagen beginnen würde.

Quelle: https://www.clunyjournal.com/p/history-of-the-personal-computer-sheila-heti