Kunde | Über das Selbst und das Leben | E-Book | sack.de
E-Book

E-Book, Deutsch, 192 Seiten

Kunde Über das Selbst und das Leben


2. Auflage 2024
ISBN: 978-3-7583-4415-2
Verlag: BoD - Books on Demand
Format: EPUB
Kopierschutz: 6 - ePub Watermark

E-Book, Deutsch, 192 Seiten

ISBN: 978-3-7583-4415-2
Verlag: BoD - Books on Demand
Format: EPUB
Kopierschutz: 6 - ePub Watermark



Warum gestalten wir? Diese Frage führte den Autor zu einer Analyse des menschlichen Selbst und zur Einsicht, dass dieses Selbst jeden Tag neu und viel größer ist, als gemeinhin angenommen. Es beinhaltet u.a. eine Repräsentation jedes Menschen, den wir kennen. Spürt den Verlust eines geliebten Menschen wie einen Phantomschmerz. Und kann vielleicht auch eine Gummihand enthalten, die sich durch einen Trick in unser Körperbild geschlichen hat. Wie aber konnte dieses Selbst Teil eines Holocaust werden? Die Spur führt zum Leben an sich. Und das ist einigermaßen verstörend.

Geb. 1950, Studium der Mathematik, zwei Kinder, drei Enkelkinder, Interesse für Kosmologie und Neurowissenschaften, Wandern am Meer

Kunde Über das Selbst und das Leben jetzt bestellen!

Autoren/Hrsg.


Weitere Infos & Material


Anlagen
1 Assoziatition, Hierarchie und Unschärfe
Hierarchie ist eine spezielle Form der Assoziation. Wie man unter Nutzung einer bestimmten Definition von Unschärfe in jedem Netz aus assoziierten Knoten eine (partielle) Hierarchie verankern kann, soll in dieser Anlage gezeigt werden. Das Verfahren wird dabei nicht übermäßig formalisiert, um es anschaulich zu halten. Stellen wir uns zunächst ein beliebiges Netz assoziierter, endlich vieler Knoten vor und fokussieren auf ein Teilnetz, von dessen Knoten nach außen (zu Knoten außerhalb des Teilnetzes) nicht mehr als 2 Verbindungen (gestrichelte Linien) weggehen (siehe Bild). Man erkennt, dass das Netz der blauen Knoten die gewünschte Eigenschaft hat. Man erkennt ferner, dass das Netz nicht maximal ist mit dieser Eigenschaft, der Knoten A könnte hinzugefügt werden. Der Knoten B kann indes nicht hinzugefügt werden (ohne weitere mit ihm assoziierte Knoten eventuell mithinzuzufügen). Die Größe 2 im Beispiel nennen wir die Unschärfe (in der Interpretation) des Netzes. Sie kann natürlich jeden Wert aus N0, den natürlichen Zahlen (inkl. 0), annehmen. Ein Teilnetz mit obiger Eigenschaft zu einer Unschärfe n ? N0 nennen wir Objekt, wenn es maximal ist in dem Sinn, dass kein weiterer Knoten außerhalb, der mit Knoten des Teilnetzes verbunden ist, hinzugenommen werden kann, ohne die obige Eigenschaft zu verletzen. Wir nennen ein Teilnetz (wie üblich) zusammenhängend, wenn es zwischen je 2 Knoten des Teilnetzes einen Weg innerhalb des Teilnetzes gibt, der sie verbindet. Beachte: In obigem Beispiel würde zwar B nicht im ersten Schritt hinzugenommen werden können. Das könnte sich aber in Folgeschritten ändern (wenn z.B. A und B verbunden sind, d.h. je eine der gestrichelten Linien von A und B zusammenfallen und eine Verbindung zwischen A und B darstellen). Bemerkung: Es gibt zwar zu jedem Teilnetz ein eindeutig bestimmtes Objekt, das es enthält. Das heißt aber nicht, dass es eine eindeutige Zerlegung des Gesamtnetzes in Objekte gäbe, wie folgendes einfaches Gegenbeispiel für Unschärfe 1 zeigt: Zerlegungen sind: ABCDE (wenn mindestens 2 Elemente von A,B,C,D im Teilnetz sind), DE + A + B + C sonst. Sei {Ti} eine Menge von Teilnetzen. Wenn die Vereinigung ihrer Knoten die Gesamtmenge der Netzknoten ergibt, nennen wir {Ti} eine Überdeckung des Netzes mit Teilnetzen. Sei {Oi}n die zugehörige Überdeckung mit Objekten zur Unschärfe n. Dann gibt es minimale Teilmengen von {Oi}n, die eine Überdeckung zur Unschärfe n sind. Jede solche nennen wir eine minimale Überdeckung des Netzes mit Objekten zur Unschärfe n. Sind O und F zwei Objekte zur Unschärfe n, so sei dn(O,F) die Anzahl der Knoten in O, die mindestens n Verbindungen zu Knoten in F haben. Offenbar gilt i.a. dn(O,F) ? dn(F,O). Nun gibt es offenbar minimale Überdeckungen des Gesamtnetzes mit Objekten zur Unschärfe n. Wir können die Objekte einer solchen minimalen Überdeckung hierarchisch anordnen, indem wir ein Objekt O unter das Objekt F hängen, wenn dn(O,F) < dn(F,O), einen virtuellen Knoten über beide hängen (dieser ergänzt die Menge der Objekte um ein »virtuelles« Objekt, das die Vereinigung der beiden Teilnetze O und F enthält), wenn dn(O,F) = dn(F,O) ? 0 gilt und keine Beziehung erstellen, wenn dn(O,F) = dn(F,O) = 0. Am Ende dieses Verfahrens haben wir k Teilbäume (k>=1). Jetzt fügen wir noch einen obersten Knoten Selbst ein und hängen die k Teilbäume darunter. Auf diese Weise kann jede assoziative Struktur in einen Baum hierarchisch organisierter Objekte überführt werden. Anmerkungen: Es ist klar, dass die Zuordnung einer Hierarchie nicht eindeutig ist. Sie hängt nicht nur von der ursprünglichen Auswahl der Teilnetz-Überdeckung ab, von der Wahl der minimalen Überdeckung mit resultierenden Objekten, sondern auch von der Abfolge der Vergleiche von Objekten miteinander. Man könnte sicher die Zahl möglicher Abfolgen reduzieren, indem man eine Ordnung der Größen dn(O,F) nutzt, um die Reihenfolge einzuschränken. Das soll hier aber nicht weiter interessieren, um das Grundprinzip nicht unübersichtlich zu machen. Vergrößert man die Unschärfe, so wachsen die Objekte bei gleicher Auswahl der Teilnetze. D.h. Überdeckungen können mit geringerer Zahl von Objekten erfolgen. Das bedeutet, dass die Hierarchie der Objekte schrumpft. Die Hierarchie der Objekte stellt dann eine gröbere Sicht auf das Netz dar. Eigentlich müsste man, um die Analogie zu neuronalen Netzen zu halten, mit Gewichten bewertete gerichtete Kanten in den Verbindungen betrachten. Statt Summen von Kanten träten dann Summen reeller Zahlen auf. Die Gerichtetheit der Kanten liefert zusätzliche Komplexität. Der Einfachheit halber wurde darauf verzichtet, die volle Komplexität zu betrachten. 2 Zur Funktitionsweise neuronaler Netze
Zur Erinnerung ein Ausschnitt aus einem neuronalen Netz (modellhaft) Das Neuron funktioniert wie ein Schwellwertaddierer. Übertrifft die Summe der Eingangssignalstärken23 von den Eingangssynapsen den Schwellwert S des Neurons, feuert dieses und an Ausgangssynapsen (Eingangssynapsen für weitere Neuronen) bilden sich Potenziale, die je nach Durchlässigkeit (trainierte Synapsen) wieder Eingangssignalstärken für weitere Neuronen bilden. Neuronale Netze kann man in einer quadratischen nxn-Matrix modellieren, deren Zeilen und Spalten die n Neuronen kennzeichnen und deren Einträge in den Knotenpunkten der Matrix die Gewichte der Synapsen von Verbindungen der Neuronen untereinander sind. Neuronale Netze modellieren unser Gehirn. Dieses besteht aus ca. 100 Milliarden Neuronen und jedes Neuron hat bis zu ca. 10.000 Verbindungen zu anderen Neuronen über Synapsen. Demzufolge ist die Matrix dünn besiedelt – ähnlich der Matrix, die die Webseiten des Internets als Zeilen/Spalten enthält und deren Knoten die Links der Webseiten untereinander zählen. Die Analyse dieser Matrix in Verbindung mit einer Eigenwertermittlung lag der Suchmaschine von Google ursprünglich zugrunde. Wie kann die Funktion der Neuronen als Schwellwertaddierer modelliert werden? Ein Neuron feuert ja nur, wenn die Summe der Eingangsgewichte den Neuron-eigenen Schwellwert überschreiten. Die Eingangsgewichte werden dabei bestimmt durch eine Auslösestruktur. Im Modell ist das ein n-Vektor, nennen wir ihn v0.24 Matrix und Vektor werden multipliziert. Das Ergebnis ist wieder ein n-Vektor v1, dessen Werte jetzt mit dem Neuronen-Schwellwertvektor verglichen werden müssen. Alle Werte, die unterhalb des zugehörigen Schwellwerts sind, werden auf 0 gesetzt, die anderen auf 1. Der resultierende n-Vektor ist jetzt entweder Ergebnisvektor oder Auslöser für eine weitere Multiplikation. Beispiel: 6 Neuronen, Schwellwert-Vektor s := (1,1,1,1,1,1)T, Input = (0,1,1,0,0,0)T und Gewichte-Matrix: a?? ? R beschreibt dabei das Gewicht der Verbindung von Neuron j zu Neuron i. Also: Weitere Schritte führen zu keinen weiteren Knoten. Die Folge der v-Vektoren ist also v0 = (0,1,1,0,0,0)T, v1 = (1,0,0,0,1,0)T. Ob ein Resultatvektor Ergebnis oder Auslöser für weitere Schritte ist, muss durch eine Begrenzung der Multiplikationsschritte festgelegt werden. Die Schrittfolge endet jedoch automatisch, wenn ein Resultatvektor der Nullvektor ist. Sei k die Anzahl der Schritte und v0, v1, …, v? mit j<=k die Folge der Resultatvektoren, die in Auslösern und Ergebnisvektor auftraten. Neuronen in einem Resultatvektor (inkl. Inputvektor) mit Wert 1 heißen aktiv. Die Werte von Verbindungen zwischen aktiven Neuronen von vi und vi+1 werden leicht erhöht (Synapsen-Verstärkung), diejenigen zwischen aktiven Neuronen von vi und inaktiven von vi+1 leicht vermindert. Und zwar so, dass die Summen der Verminderungen gleich der Summe der Verstärkungen sind (Energieerhaltung). Zusätzliche Restriktion ist, dass keine Null-Überschreitungen stattfinden (Typ der Synapse – etwa inhibitorisch – bleibt erhalten; 0-Wert bedeutet Verschwinden der Synapse). Die in der Folge v0, v1, …, v? , mit j<=k, auftretenden aktiven Neuronen werden als Menge mit N(v0,k) bezeichnet. Sie bilden zusammen mit ihren gewichteten Verbindungen ein Teilnetz des Gesamtnetzes, das Netz der Assoziationen zum Input-Vektor v0, zu max. Schrittfolge k. Im Beispiel ist N(v0,k) = {1,2,3,5}. Wiederholt man diesen Vorgang mit dem bestehenden Input-Vektor v0, so können weitere Neuronen zu N(v0,k) hinzukommen, es können keine wegfallen. Es ergibt sich eine Folge Ni(v0,k) mit Ni(v0,k) ? Ni+1(v0,k). Beachte, dass dies nur gilt, solange kein anderer Input dazwischenkommt. D.h. das Netz der Assoziationen wird verstärkt, die Bedeutung wird größer. Stellen wir uns vor, dass ein...



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.