Mnemotechnik in grafischen Benutzeroberflächen

von Oliver Wrede
April 1996
erschienen in „formdiskurs – Zetschrift für Theorie und Design“, Januar 1997

[ available in English ]

Columbus wurde prophezeit, er würde am Ende des Meeres vom Rand der Erde stürzen. Die ersten Zugreisenden begegneten dem Aberglauben, daß sie ihre Seele hinter sich lassen würden, wenn sie zu schnell führen. Von den Gedächtnisreisenden des 17. Jahrhunderts glaubte man, sie würden Ihre Köpfe mit Bildern überfüllen und heute gibt es Menschen, die die These vertreten, daß Virtuelle Realität Entfremdung der eigenen Vorstellungswelt zur Folge hat, insofern sie die Interaktion mit der Maschine auf das Perzeptive reduziert und dadurch einen Mangel an kreativem Vermögen der Benutzer kompensiert, welche nicht selten im Kleinkindalter auf dem Höhepunkt war.

Dies ist scheint zunächst eine naive These sein, doch entstehen die genannten Bedenken nicht zwangsläufig im Kontext konservativer oder technikfeindlicher Einstellungen. Sie können sich ebenso mit einer progressiven Einschätzung verbinden, die einen selbstreflektorischen und emanzipatorischen Umgang mit neuen Medien vermißt – und zwar nicht nur auf der Ebene der Gestaltung, sondern auch und vor allem auf der Ebene der Nutzung. Darin mag eine Ursache liegen, daß in jüngster Zeit in einer Reihe von Beiträgen die Thematik der Erinnerung und des Gedächtnisses aufgenommen wird; denn in den durch die Digitalisierung und Vernetzung zunehmend von technischen Einschränkungen befreiten Multimedien gilt es, neue Bedingungen für Gebrauchsformen zu erkunden. Die Mnemotechnik (auch Kunst des Erinnerns genannt) als eine besondere Methode des Zugriffs auf das Gedächtnis, spielt in diesem Kontext vor allem deshalb eine besondere Rolle, weil sie nicht prinzipiell von der stetigen Veränderung in der technologischen Entwicklung abhängig ist.

Information und Kommunikation werden durch die fortschreitende Dematerialisierung unmittelbar, omnipräsent, simultan, und nicht mehr stellvertretend für das Authentische und Beständige, sondern potentiell und nur noch in der Wirkung real [1]. Bei den vorhandenen Informations-Pools führt die Elektronisierung zu einem regelrechten Dammbruch, auch wenn der Anteil elektronisch publizierter Informationen noch gering ist. Die von Kritikern der Entwicklung prognostizierte Informationskatastrophe ist schon im Gange. In der öffentlichen Meinung scheint alles genauso informativ wie verklärend. Der tragfähigste Rettungsring in der Informationsflut ist nicht selten eine wasserdichte Strategie der Ignoranz, dicht gefolgt von intelligenten Agenten, die zum Apportieren von Informationen dressiert werden.
Steve Jobs erklärte in einem Interview [2], daß die elektronischen Informationen nicht mehr ausschließlich Sprache repräsentierende Zeichen, sondern Objekte sein werden, die in der Lage sind sich gegenseitig zu beeinflussen. Jim White von General Magic prognostiziert [3], daß Nachrichten zu Programmen werden und dadurch die Matrix zur Universalmaschine mutiert, deren Gesamtleistung sich mit jedem Taschencomputer nutzbar machen läßt. Wie Botenstoffe diffundieren Informationen durch die Netze und werden von entsprechend gestalteten Agenten aufgesammelt, die nur noch eine Zahlungsbestätigung benötigen, um das verschlüsselte wieder rezipierbar zu machen oder eine kodierte Dienstleistung zu erbringen. Dieser Kreislauf schließt etablierte Träger von Informationen (Rundfunk, Verlagswesen, Bibliotheken) nicht aus, sondern kann deren Stabilität integrieren, nutzen und weiterentwickeln.

Für das Interfacedesign sind drei Bereiche entscheidend, deren Entwicklungsgeschwindigkeit wesentlich von ökonomischen Bedingungen bestimmt wird:

  1. Methoden zur Wissensbildung und Lernmedien
  2. Künstliche Intelligenz und Interaktionsparadigmen
  3. Kooperationsformen mit anderen Menschen

Jeder dieser Bereiche unterliegt einem stetigen Wandel und somit verändern sich auch die Bedingungen für die Gestaltung permanent. Deutlich erkennbar ist, daß alle diese Bereiche sich immer stärker überschneiden und irgendwann womöglich ein Gesamtproblem darstellen werden. Im Regelkreis zwischen Mensch und Maschine [4] wird es immer einen maßgeblichen Aspekt geben, dem man sich bestenfalls mit Modellen annähern kann. Solche Modelle werden in den Kognitionswissenschaften diskutiert, die den Computer als eine formbare Materie verstehen, welche ein ideales Terrain darstellt für konstruktivistische Wissensbildung mit direkten Konsequenzen für kommunikatives Handeln.

Der Elan der Informationsmedien könnte für eine Revitalisierung der Ausbildung genutzt werden. Die elektronischen Lernmedien sind dabei zugleich Chance und Sachzwang, denn zunächst versprechen sie ein effizienteres Lernen durch eine individuell angepaßte Didaktik. Deshalb sind Lehrende in den heutigen Ausbildungsinstitutionen gezwungen, mit immer weniger Hilfsmitteln zunehmend dissimilierende Kooperations- und Sozialisationsformen zu rekonstruieren [5]. Ein Ausgleich mangelnder pädagogischer Kompetenz ist daher mit über den Einsatz elektronischer Lernmedien nicht zu erwarten. Es lässt sich eine Verschiebung der Bewertungsmaßstäbe für den Lernerfolg voraussehen. Ein Individuum wird mehr Informationen aufnehmen und beurteilen müssen als bisher, um zu relevanten Erkenntnissen zu gelangen. Die zu bewältigende Informationsdichte ist von unterschiedlicher Qualität. In die Multimedien ist die Schrift, wegen des digitalen Charakters, leicht und in grossem Umfang zu übertragen, während sich gleichzeitig die Manipulations- und Konstruktionsmöglichkeiten für Bilder durch das Aufbrechen in kaum noch wahrnehmbare Pixel erhöhen. Der Konflikt zwischen der Relativität atomisierter alphabetischer Artikulationen und zeichenhafter Bildkonstruktion wird auf den Rezipienten übertragen, der in einer mehrdeutigen Informationsmenge die Orientierung nicht verlieren darf, was bei zunehmenden Möglichkeiten auch schwieriger wird [7]. Die Grenze für die Informationsgestaltung ist aber nicht durch die Wahrnehmbarkeit bestimmt, sondern dadurch, wieviel der Informationen sich in Erkenntnisse transformieren lassen. Zwar hat man gelernt, mit Hilfe technischer Speicher Teile des Gedächtnisses auszulagern, dafür muß dieses nun das Wiederfinden und Erinnern der Informationen leisten und eine größere Menge an Beurteilungen über Beziehungen erstellen oder rekonstruieren.

Die ersten Aufzeichnungen über die Mnemotechnik stammen aus der Antike. Im Kern der Gedächtniskunst als einer Methode steht die Schaffung eines memorialen Systems, in dem Erinnerungen in Form von Gedächtnisbildern an imaginären Orten (loci oder topoi) abgelegt werden. In der antiken Rhetorik (Cicero, De Oratore) wurde die freie Rede durch solche imaginierten Orte – z.B. die Räume eines Hauses – erleichtert, durch die der Redner memorierend wandern konnte, während er die geistigen Bilder abrief, um den Fortgang der Rede zu kontrollieren. Aber auch andere imaginierte Topologien wie Landschaften, Gemälde, Körperteile, Geschichten und dergleichen konnten als memoriale Systeme dienen. Die Mnemotechnik galt lange als eine geheime Kunst, die für Gelehrte in Ermangelung externer Wissensspeicher den Schlüssel zur Weisheit bedeutete. Nach den Vorarbeiten von Autoren des Mittelalters, von denen die in Vergessenheit geratene Gedächtnistechnologie wiederaufgenommen wurde, befaßte sich Johann Heinrich Alsted 1610 mit einer enzyklopädischen Ordnung der Mnemonik in der „Systema Mnemonica“. Alsteds Drang nach Systematisierung stand im Widerspruch zu seiner eigenen Erkenntnis, daß die Bilder der Erinnerung auf die Seele einwirken sollten, und daher eine fundamentale Bedeutung für die Psychologie hatten. In einigen Dissertationen über Ursprünge der Lerntheorie wird Alsteds Student Johann Amos Comenius zitiert, der einen entscheidenden Schritt vollzog, indem er auf die Kritik der Pädagogen der Aufklärung einging, die von einer Angst vor der Macht der Bilder getrieben waren. In seiner „Böhmischen Didaktik“ arbeitete er die Mnemonik zu einer repräsentationistisch-symbolischen Ordnung um. Comenius schlug vor, die Anatomie des Menschen anhand eines Modells in Form einer beschrifteten ledernen Nachbildung zu lehren. Auf diese Weise gelante er zu einer Übereinstimmung zwischen des zu erinnernden Sachverhalts und des dazu verwendeten memorialen Systems, welches durch die Beschriftung wiederum mit Symbolen versehen wurde. Überollt vom Siegeszug der literalen Speicher – ermöglicht durch die Erfindung des Buchdrucks – galt die Mnemotechnik schließlich sogar als unseriös und obskur. Die Wiederentdeckung wurde unter anderem durch die elektrischen Massenmedien gefördert, die den Anteil der nicht-literalen Medien an der Welterfahrung wieder vergrößerten und den Konflikt zwischen der topologisch-sinnlichen Imagination und dem logisch-symbolischen Repräsentationismus wiederbelebten, der seit dem 17. Jahrhundert geruht hatte.

Das Wissen über die Mnemotechnik für das Design künftiger grafischer Benutzeroberflächen [8] spielt vor allem eine Rolle in Bezug auf jene „kognitiven Werkzeuge“, die Ihren Zweck nur unter Einsatz von Wissen und Intelligenz des Benutzers erfüllen. Es geht nicht darum, eine Diskussion über die Informationsgestaltung auf eine instrumentelle Betrachtung einer Mnemotechnik zu reduzieren, aber es ist festzustellen, daß sich ein großer Anteil der Theorien unter Rückgriff auf die Mnemotechnik gebildet haben. Das Konzept von Hypermedien bietet die Möglichkeit, Inhalte topologisch zu organisieren, während die Virtuelle Realität sich zur visuellen Nachbildung der Gedächtnisorte einsetzen läßt.

Aber ganz so weit muß man nicht gehen, wenn man im Computer nach mnemonischen Konstruktionen sucht: Die erste verbreitete VR-Anwendung dieser Art auf einem Computer war eine stark abstrahierte und relativ flächige (aber keineswegs zweidimensionale) Nachbildung eines Büros mit einem Schreibtisch. Es handelt sich dabei nicht um eine reine Metapher, wie es die mittlerweile verbreitete Bezeichnung „Schreibtischmetapher“ vermuten läßt. Der Explitzitätsgrad – geschaffen durch metonymische und ikonographische Elemente – ist einer Metaphorik alleine überlegen, die eher noch dazu tendiert im Bekannten das Unbekannte zu verbergen. Auch wenn die Schreibtischmetapher ihre Funktion heute noch gut erfüllt – ein Großteil der Rechner wird schließlich in einer Bürosituation verwendet – so liegt der primäre Vorteil in der Erleichterung der Bedienbarkeit. Vor allem deshalb, weil die Organisation des Rechners im Interface verbildlicht und zugleich erklärt wird. Diese überschaubare Organisation wird im Grunde durch die amorphe Gesamtmaschine mit mehreren Millionen CPUs ad absurdum geführt, die ihre Topologie gleich in mehreren Schichten (geographisch, chronologisch, dialogisch, etc.) offenbart. Diese Mehrdimensionalität ist nicht primär ein Gestaltungsmangel, sondern geradezu notwendig, wenn konstruktiver Umgang mit der eigenen Gedächtnisleistung möglich sein soll, insofern Wissen mit der Herstellung von Zusammenhängen entsteht und die Erkenntnis mit der Schaffung von Strukturen [9] dokumentiert und veräußert wird.
Mit der Erfindung der programmierbaren Maschine wurde aus der mathematischen Logik die Informatik geboren. Der Konflikt entzuendete sich an der Diskussion über die Möglichkeiten einer Algorithmisierung des Denkens und der Digitalisierung von Wissen. Der Diskurs über das Verhältnis von Mensch und Maschine hält bis heute an. Einerseits sicherlich wegen der immer schnelleren und billigeren Prozessoren, die Undenkbares auf einmal machbar erscheinen lassen, aber wohl auch auf Grund der von vielen KI-Forschern vertretenen These, daß sich psychologische Prozesse und Denkfunktionen prinzipiell auf physiologische Gegebenheiten zurückführen lassen und somit prinzipiell mechanisierbar sind.

Die Externalisierung großer Teile des Gedächtnisses – dessen Existenz eine Voraussetzung für Intelligenz ist – scheint jedenfalls in der Form globaler Informationsspeicher denkbar zu sein, die mit Hilfe der Telematik in einer Art computerisierten kollektiven Erinnerung verwertet werden. Zwischen Erinnerung und Erkenntnis liegt aber unentdecktes Land, auch wenn die radikalen Vertreter der KI-Forschung nichts unversucht lassen, diesem Geheimnis auf die Spur zu kommen und alle Spekulationen, die ein Kausalitätsprinzip und ein rein empirisches Erkenntnisparadigma ausschließen, als sentimentale Überhöhung und Mythologisierung des Menschen brandmarken. Alan Turings Definition von künstlicher Intelligenz als perfekte Imitation, die eine Beurteilung durch den Menschen zwar voraussetzt, aber nicht mehr auf die Definition von Intelligenz als Resultat physischer Funktionen aus ist, sorgte für eine Befreiung von den damaligen Zwängen und Bedenken der Geisteswissenschaften. Auf experimenteller Ebene versucht man daher, hypothetische Regelwerke aufzustellen, die stellvertretend für unbekannte Funktionen der menschlichen Intelligenz stehen, und vergleicht dann, ob die aus den prozessierten Informationen gewonnen Erkenntnisse den menschlichen ähnlich oder gar identisch sind. Durch permanente Korrektur dieser Regelwerke soll eine Angleichung erreicht werden, die über das Algorithmisierbare hinaus reicht. Die im Verarbeitungsprozeß gesammelten Informationen werden zur autonomen Weiterentwicklung desselben verwendet. Im Gegensatz zur Turingschen Definition einer intelligenten Maschine wird bei diesem Ansatz die Lernfähigkeit als Basis von Intelligenz betrachtet.

An diesem Punkt beginnen sich die Informationswissenschaftler für Lerntheorien zu interessieren, oder besser: für Wissensmodelle [10]. Es ist zwar nicht unbedingt das Ziel, einen Computer „menschlich“ zu machen, aber sehr wohl sollen der Maschine Verhaltensweisen ermöglicht werden, die man in der Regel von Sozialpartnern erwartet. Dazu gehört zum Beispiel, daß gelegentliche Übertretung von Regeln ausgeglichen und individuelle Eigenschaften (Gewohnheiten, Vorlieben, Wissensstand, Toleranzgrenzen, etc.) berücksichtigt werden. Die Maschine verwandelt sich von einem rein reaktiven zu einem aktiven System. Große Softwarefirmen finanzieren Projekte, deren Namen „Social Interface“ oder „Knowledge Agent“ darauf hindeuten, daß die Erkenntnisse der Kognitionswissenschaft für Interfaces der nächsten Generation von Bedeutung sind. In seinem Buch „Mentopolis“ versucht Marvin Minsky – im Sinne der Vorgehensweise Alsteds – eine Art „Systema Cognita“ zu erstellen und das Phänomen der Intelligenz als Resultat kombinierter Mechanismen zu beschreiben. Diese Entitäten des Geistes bezeichnet Minsky als Agenten [11], die Erinnerungen benötigen, um Konsistenz zu erlangen und vergangene Aktionen zu wiederholen. An dieser Stelle entsteht ein Brennpunkt, insofern z.B. Soziologen die Existenz von kollektiver Intelligenz nicht ausschließen, wenn durch eine entsprechende Vernetzung und Externalisierung eine Form des kollektiven Gedächtnisses entsteht und gruppenspezifische Agenturen geschaffen werden. Minsky unterscheidet polyneme und isonome Konzepte der Kommunikation verschiedener Agenten. Während Polyneme bei jedem Empfänger eine individuelle Wirkung hervorrufen, werden Isonome verschiedenen Dingen dieselbe Vorstellung aufprägen [12]. Minsky schreibt: „Sowohl Isonome als auch Polyneme haben mit Erinnerungen zu tun – aber Polyneme sind ihrem Wesen nach Erinnerungen selbst, während Isonome die Art der Nutzung der Erinnerungen kontrollieren. […] Also rührt die Macht der Polyneme von der Art her, wie sie lernen, viele verschiedene Prozesse zugleich anzuregen, während die Isonome ihre Macht aus der Ausbeutung jener Fähigkeiten beziehen, die bereits vielen Agenturen gemeinsam sind.“ Wenn unsere Kommunikation auf isonomen Konzepten basiert (Konventionen und Zeichensysteme), so stellt sich die Frage, wie kollektive Polyneme (Erinnerungen) überhaupt transportiert werden, die aus einem Kollektivgedächtnis entstammen sollen. Sofern sich dieses Konzept der Agenturen überhaupt auf diese Art übertragen läßt, müßte die Konstruktion der Polyneme eine Gemeinschaftsleistung sein.

Wegen ihrer Bekanntheit soll die Schreibtischmetapher hier wiederum als Beispiel dienen. Die Elemente bekannter Interfaces sind konventionalisiert, aber zunehmend bieten sie die Möglichkeit, individuelle Anpassungen vorzunehmen und unikale Ordnung (oder Unordnung) zu schaffen, die zum inneren Gedächtnismedium äußere Anhaltspunkte liefern. Jemand, der eine komplexe Informationsstruktur pflegt, wird sich dieser Möglichkeiten bedienen, genauso, wie er es sich nicht nehmen lassen wird, sein Büro oder seinen Arbeitsplatz zu organisieren (oder ein Chaos zu pflegen). Eine solche Anordnung ergibt sich erst durch die Beziehungen der Bestandteile untereinander (strukturale Definition). Es ist immer ein Problem bei der Gestaltung von Interfaces, lediglich funktionale Definitionen [13] vornehmen zu können, weil immer ein Benutzer impliziert werden muß, der nur sehr allgemein bestimmt ist und trotzdem zum Verstehen veranlaßt werden soll. Genauso wie das Erinnern der Beziehung von Informationen untereinander eine strukturerhaltende Leistung ist, müssen die Beziehungen der Objekte in Interfaces untereinander für den Benutzer definierbar sein, wenn sie als mnemonische Systeme eingesetzt werden sollen.

Während die Speicherung im externen Gedächtnis lediglich eine motorische Leistung voraussetzt (z.B. mit einem Meißel eine Kerbe in einen Stein schlagen oder mit einer Computermaus klicken), so wird für Speicherung im biologischen Gedächtnis eine Verstandesleistung benötigt, die gleichzeitig verhindert, daß man sich in der Beziehungslosigkeit verliert [14]. Es besteht nur ein geringer Nutzen in der motorischen Speicherung, solange als sich nicht Speicher und Medium zum Intermedium verschmelzen lassen und gestatten, mit der Information auch die Verstandesleistung „hineinzuschreiben“; nur so wird aus dem Akt der Speicherung eine strukturschaffende Handlung. Benutzer von Informationsmedien, zukünftige Computerliteraten und Informationsproduzenten müssen darauf aus sein, daß diese Strukturen einen kommunikativen Wert erhalten, um als Agenten in der Matrix zu agieren, mit deren Hilfe neue Kooperationsformen etabliert werden und Handlungsfähigkeit aller Teilnehmer verbessert werden kann. Die grafischen Interfaces können dabei hinderlich sein, wenn sie nicht für diesen Zweck ausgelegt sind.

Die Summe der Eigenschaften, die ein Benutzer über ein Objekt (eine gespeicherte Information oder deren Repräsentation) aussagen kann, ist oft sehr klein. Es gibt jedoch Situationen, in denen weit mehr Eigenschaften verfügbar sind als im Interface einem Objekt zugewiesen und sichtbar oder hörbar gemacht werden können. Dies gilt im besonderen für die Beziehungen der Objekte untereinander, in denen sich überhaupt erst ein Form von Kontext darstellen läßt. Das Interaktionsraster [15] ist zumeist derart festgelegt, daß der Benutzer seine Fähigkeit Aussagen über die Objekte zu machen nicht instrumentalisieren kann. Das liegt zum Teil daran, daß die erste Anforderungen der grafischen Benutzeroberflächen ein Ersatz der Kommandozeileneingabe und eine Visualisierung der Dateisysteme war. Aus heutiger Sicht hatten die Kommandozeile mehr mit Mnemotechnik zu tun als die grafischen Benutzeroberflächen, von denen sie abgelöst wurden, denn der Benutzer konnte sich kaum woanders orientieren, als in seinem Gedächtnis, wenn er wissen wollte, was er als nächstes eingeben mußte – eine Erinnerungsfähigkeit war geradezu die Voraussetzung für die Bedienung. Dies steht nur scheinbar im Widerspruch zu der Forderung, differenziertere Formen der Externalisierung zu ermöglichen. Der Unterschied zwischen der Kommandozeile und der grafischen Benutzeroberfläche lag nicht zuerst in einer besseren oder schlechteren Förderung der Mnemotechnik, sondern vielmehr im Lernaufwand für die Bedienung und in den Aufgaben, die mit Ihnen zu lösen waren – ein weiterer Vergleich wäre daher völlig unangebracht. Eine solche Redefinition der Aufgaben, die ein Benutzer mit Hilfe eines Computers lösen soll, findet zur Zeit statt. Der Computer dient nicht nur als Werkzeug für die Produktion von Medien sondern auch als Werkzeug für die Produktion von Information selbst.

Aber die These, daß eine fortschreitende Externalisierung letztlich die Fähigkeit zur Erstellung von Gedächtnisbildern verkümmern läßt, ist nicht unbegründet – wenn man mit Externalisierung meint, daß die Aufgabe der Gedächtnisbilder ersetzt werden kann. Es gilt Formen zu gestatten, die Erinnerungsmomente provozieren und aktivieren. Solche mnemonischen Konstruktionen sind nicht immer transsubjektivierbar [16] und außerhalb des Gebrauchskontextes bestimmbar, was mitunter ein Grund dafür sein mag, daß sich das Interfacedesign dieser Herausforderung bisher nur zögerlich annimmt. Ein Teil der Aufgabe muß an den Benutzer abgeben werden, der am Gestaltungsprozeß partizipiert. Solange die Konzepte von Interfaces auf Funktionsmodellen des Computers basieren statt auf Denkmodellen des Benutzers, wird man sich von einer Definition der Erkenntnis als eine instrumentelle Form des Verstehens nicht lösen können. Das kognitive Potential des Benutzers wird verschwendet an die Aufgabe Mechanismen und Verfahrensweisen zu erlernen, die nur dem Medium zu eigen sein können, wenn die individuellen Eigenschaften und Arbeitsformen als Einflußgröße für die Interfacegestaltung nicht in Frage kommen sollen [17].

Wenn sich das Interfacedesign diesem Problem nicht stellt, und den bisherigen Exklusivanspruch weiter pflegt, wird die steigende audiovisuelle Differenzierungsfähigkeit und Gestaltbarkeit der neuen Medien dazu verwendet, den Benutzer in eine zunehmend passive Rolle zu drängen, dem lediglich eine elegante Form des Zappings ermöglicht wird, statt die Information, die man ihm liefert als Rohmaterial zu verstehen, welches aktiv be- und verarbeitet werden soll. Interfacedesigner werden sich dann selbst der Kritik aussetzen, daß sie nicht den Bedürfnisse der Benutzer gerecht werden, sondern bestenfalls ihren eigenen. Der Einsatz des Computermediums wird zum Selbstzweck und die Legitimation unter Berufung auf die technische Zwangsläufigkeit [18] gerät zur Alibifunktion.

Literatur

Kittler, Friedrich (Hg.), Matejovski Dirk: Literatur im Informationszeitalter, Frankfurt/Main 1996

Kuhlen, Rainer: Hypertext, ein nicht-lineares Medium zwischen Buch und Wissensbank, Berlin 1991

Schulmeister, Rolf: Grundlagen hypermedialer Lernsysteme: Theorie – Didaktik – Design, Bonn 1996

Minsky, Marvin: Mentopolis, Stuttgart 1994, (Originalausgabe: The Society of Mind, New York 1994, CD-ROM)

Weizenbaum, Joseph: Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt/Main 1994, 9. Aufl. (Originalausgabe: Computer Power and Human Reason, 1976)

Artikel

Bartels, Klaus: Die Welt als Erinnerung – Mnemotechnik und virtuelle Räume, in: Spuren, Nr. 41, April 1993, p.31 ff.

Spangenberg, Peter M.: Beobachtungen zu einer Medientheorie der Gedächtnislosigkeit, in: Kunstforum – Konstruktionen des Erinnerns, Bd. 127, Juli-September 1994, p. 120-123

Anmerkungen

[1] Vrgl. dazu Kuhlen, Zur Virtualisierung von Bibliotheken und Büchern, in Kittler/Matejovski 1996, p. 116

[2] Steve Jobs Interview mit Gary Wolf: The next insanely great thing, aus Wired 4.02, Februar 1996, p. 102-107 und p. 158-163

[3] Vrgl. Das Postscript der Telekommunikation, aus MACup, Februar 1994, p. 22 f.

[4] Im Bezug auf die mögliche Kritik der Geisteswissenschaftler an den Informationswissenschaften sei an dieser Stelle angemerkt, daß es zwischen dem Modell der Mensch-Computer-Interaktion und dem der computergestützten Mensch-Mensch-Interaktion nur einen graduellen Unterschied gibt. In vielen Fällen dienen beide Modelle zur Darstellung ähnlicher Sachverhaltes, wenngleich sie unterschiedliche Schwerpunkte setzen. Im Modell der Mensch-Computer-Interaktion ist ein Kommunikationsaustausch zwischen Individuen genauso wenig ausgeschlossen, wie bei der computergestützten Mensch-Mensch-Interaktion die Tatsache, daß es ein Segment geben kann, in dem zur Lösung eines konkreten Gestaltungsproblems nur ein Mensch und eine Maschine eine Rolle spielen. Der Begriff Mensch-Computer-Interaktion ist hier von den Informationswissenschaften übernommen, wobei hinzugefügt wird, daß eine Interaktionsform mit einem Computer über ein instruktionalistisches Eingabe/Ausgabe-Modell hinausgehen kann und der genannte Regelkreis nicht unbedingt eine bekannte Systematik aufweisen muß.

[5] In einigen Schlußberichten von Forschungsprojekten wird man Feststellungen antreffen, die sich auf die Beobachtung von möglichen Veränderungen des Sozialverhaltens der Testperson/-gruppe beziehen. Je nach Versuchsanordnung und Projektträger unterscheiden sich die Beobachtungen radikal. Es gibt keine grundsätzliche Feststellung, ob mit computergestützten Medien negative oder positive Veränderungen im Sozialverhalten eintreten. Die Neuartigkeit der Medien macht plausible Positionen zwischen Technikeuphorie und Kulturpessimismus möglich und diese sind in diesem Zusammenhang nicht untypisch.

[7] Kritiker von Hypertextsystemen sehen in der Belastung des Benutzers durch die Orientierungs- und Navigationstätigkeit eine der größten Schwächen des Konzeptes. Diese Kritik nehmen sich Autoren von Hypertexten zum Anlaß über die Gestaltung der Strukturen und neue Repräsentationsmöglichkeiten nachzudenken, um mehrdeutigen Navigations- und Orientierungsmerkmalen entgegenzuwirken. Der „Serendipity“-Effekt bezeichnet das Phänomen, daß während der Navigation in Hypertexten oft ein neues Suchziel dominater wird als das ursprüngliche und dieses dann aus den Augen verloren wird. In den meisten Fällen stellt sich aber ein unerwünschter Orientierungsverlust ein, obwohl dies in bestimmten Situationen als besonderer Freiheitsgrad aufgefasst werden kann (vrgl. dazu Kuhlen 1991, Kap. 2.3.2, p. 132-136).

[8] Die Mnemotechnik findet sich auch in Diskursen über andere Wahrnehmungsbereiche wieder, die Reduktion grafische Benutzeroberflächen ist exemplarisch, es soll nicht ausgeschlossen werden, daß in auditiven oder taktilen Interfaces (oder in Kombinationen) vergleichbare Gestaltungsaufgaben zu lösen sind, bzw. die Mnemotechnik dort eine Rolle spielt.

[9] Unter Strukturen sind hier mehrere Konzepte von Netzen gemeint: Informationsnetze bezeichnen die Anordnung und Gestaltung von Informationen zur Inhaltserschließung; kommunikative Netze bezeichnen definierte Informationsflüsse zwischen einzelnen Personen; institutionelle Netze bezeichnen definierte Beziehungen zwischen Personengruppen und Körperschaften. Mit dieser Aufstellung sei gleichzeitig auch die These unterstützt, daß sich diese Bereiche gegenseitig definieren.

[10] Hier ist Wissen nicht im Sinne von Weisheit, sondern von Kenntnis gemeint

[11] Es muß hier Minskys Definition von Agenten und Agenturen erläutert werden (siehe Minsky, 1994, p. 328):
Agent:
Jeder Teil oder Prozeß des Geistes, der für sich allein genommen einfach genug ist, um verstanden zu werden – obwohl die Interaktion in Gruppen solcher Agenten Phänomene erzeugen können, die weit schwerer zu verstehen sind.
Agentur:
Jede Ansammlung von Teilen unter dem Aspekt dessen, was sie als Einheit vollbringen kann, ohne Berücksichtung dessen, was jeder ihrer Teile für sich allein bewirkt.

[12] Vergl. Minsky 1994, p. 227

[13] Funktionale Definition:
einen Gegenstand im Hinblick auf seine mögliche Nutzanwendung zu spezifizieren, statt in bezug auf seine Teile und deren Beziehungen untereinander (siehe Minsky 1994, p. 330)

[14] Dieser Sachverhalt wird besonders deutlich, wenn man sich vor Augen führt, daß es fast unmöglich ist eine Sprache zu zitieren, derer man nicht mächtig ist, oder Schriftzeichen aus der Erinnerung zu kopieren, deren Bedeutung zum Zeitpunkt des Lesens unbekannt war. Das Kinderspiel Memory z.B. (Positionen verdeckter Kartenpärchen erinnern) schult die Fähigkeit in einem beziehungslosen Sytem (abstrakte Abbildungen und zufällige Anordnung) eine Orientierung zu konstruieren, indem eine translatorische Strategie entwickelt wird, um aus einer Abbildung auf eine Position rückschließen zu können.

[15] Interaktionsraster: Gemeint ist eine Sammlung von Regeln, die auf der Seite der Softwaregestaltung die Interaktionsform festlegt. Im wesentlichen wird darin bestimmt, welche Schritte ein Benutzer für eine bestimmte Handlung unternehmen muß und welche Alternativen ihm dabei zur Verfügung stehen. Die Existenz eines solchen Interaktionsrasters erlaubt bestimmte Handlungsabläufe auf anderen Situationen analog zu transferieren und somit den Lernaufwand zu reduzieren.

[16] transsubjektiv: außerhalb des Subjektiven (ohne metaphysische Bedeutung das vom Subjekt unterscheidende Objekt bezeichnend)

[17] Kuhlen erläutert das Grundprinzip der Informationswissenschaft (pragmatischer Primat), „durch das der Handlungsrelevanz von Information Rechnung getragen werden soll. Nach diesem Grundverständnis ist Information Wissen in Aktion. Handlungsrelevant kann Information in der Regel nur werden, wenn die Kontextbedingungen der Nutzung, z.B. individuelle Informationsverarbeitungskapazität oder organisationelle Ziele berücksichtigt werden. Zur Einlösung des pragmatischen Primats bei Hypertextsystemen wird das dialogische Prinzip in Ergänzung zu der direkten Manipulation vorgeschlagen. Dafür sind u. a. die im Kontext der Künstlichen Intelligenz entwickelten Benutzermodelle nützlich.“ (siehe Kuhlen, 1991, p. 338).

[18] Nach Weizenbaum entziehen sich Computerwissenschaftler der Anfechtbarkeit, indem sie auf die technische Zwangsläufigkeit der Entwicklungen hinweisen, zu der es keine Alternative gibt, statt ihr Handeln ethisch zu vertreten (vergl. Weizenbaum, 1976)

Weiterführende Informationen im Internet

(unsortierte Auswahl, nachträglich ergänzt)

William H. Calvin and George A. Ojemann
Conversations with Neil’s Brain
The Neural Nature of Thought & Language
http://williamcalvin.com/bk7/bk7ch3.htm

Andreas Dieberger
Navigation in Textual Virtual Environments using a City Metaphor
https://smg.media.mit.edu/library/dieberger1994.html

F. Heylighen
From World-Wide Web to Super-Brain
(from Principia Cybernetica Web)
http://pespmc1.vub.ac.be/SUPBRAIN.html

Mind Tools Ltd.
Memory Techniques and Mnemonics
https://www.mindtools.com/memory.html

Jeff Conklin
Designing Organizational Memory: Preserving Intellectual Assets in a Knowledge Economy
https://www.semanticscholar.org/paper/Designing-Organizational-Memory%3A-Preserving-Assets-Conklin/e8641813e264dc387c8e53a7aba98a37d8a57cc3

Terje Norderhaug
The Effect of the Media User Interface on Interactivity and Content
http://www.ifi.uio.no/~terjen/pub/MediaUI_Interactivity/940420.html

Workshop on Information Theory and the Brain Abstracts
(collected by Peter Hancock)
http://www-psych.stir.ac.uk/~pjh/itw_abstracts.html

Wayne L. Abbott
The power of the human brain
A Computer Hardware and Software Representation
http://150.149.1.11/~wabbott/meet/Papers/HumanBrain/Tech-Paper-1.html

Paul J. Werbos
Optimization methods for brain-like intelligent control
https://ieeexplore.ieee.org/document/478957

Hartmut Winkler
Die Metapher des ‚Netzes‘
http://homepages.uni-paderborn.de/winkler/h-1kap.html

Hermann Rotermund
Von der Keilschrift bis zum Internet
Verschwinden die Subjekte im Speicher?
http://weisses-rauschen.de/hero/96-03-keilschrift.html