|
![]() |
|||
|
||||
OverviewFull Product DetailsAuthor: Wilfried Röthy , Monika Köhle , Alexander A. ClauerPublisher: Springer Verlag GmbH Imprint: Springer Verlag GmbH Dimensions: Width: 17.00cm , Height: 1.10cm , Length: 24.40cm Weight: 0.430kg ISBN: 9783211822203ISBN 10: 3211822208 Pages: 188 Publication Date: 25 October 1990 Audience: Professional and scholarly , Professional & Vocational Format: Paperback Publisher's Status: Active Availability: Out of stock ![]() The supplier is temporarily out of stock of this item. It will be ordered for you on backorder and shipped when it becomes available. Language: German Table of Contents1 Die Mystik Neuraler Netze.- 1.1 Wissenschaften und Modestroemungen.- 1.2 Ein Neurales Netz .- 1.3 Neurale Rechner - Neural Computing.- 1.4 Erwartungen an Neurale Netze.- 1.5 Einsatz Neuraler Netze.- 1.6 Beispiele.- 1.7 Charakterisierung Neuraler Netze.- 1.8 Praktische Anwendungen fur Neurale Netze.- 1.8.1 Greifen nach einem Objekt, ohne das Gleichgewicht zu verlieren.- 1.8.2 Wahrnehmung von Mustern und deren Vervollstandigung.- 1.8.3 Inhaltsadressierter Speicherzugriff.- 2 Aus den Anfangen Neuraler Netze.- 2.1 Im Anfang war die Kybernetik.- 2.1.1 Fruhe Automaten - kunstliche Wesen .- 2.1.2 Biologie - Neurone.- 2.1.3 Psychologie - Konditionierung.- 2.1.4 Mathematik - Berechenbarkeit.- 2.1.5 Weitere grundlegende Ideen.- 2.2 Seit McCulloch & Pitts, 1943.- 2.3 Fruhe Lernsysteme.- 2.3.1 Perceptrons.- 2.3.2 Adaline (Adaptive Linear Element).- 2.3.3 Lernmatrix.- 3 Neurophysiologische Grundlagen.- 3.1 Aufbau und Funktionsweise von Neuronen.- 3.1.1 Die Grundbausteine: Neurone, Synapsen - Kommunikation.- 3.1.2 Physiologie kleiner Neuronenverbande, Reflexe.- 3.2 Das visuelle System.- 3.2.1 Der Aufbau des Auges.- 3.2.2 Rezeptive Felder.- 3.2.3 Die Sehbahn.- 3.2.4 Die Signalverarbeitung.- 3.2.5 Grundlagen der Gestaltwahrnehmung.- 4 Kunstliche Neurone.- 4.1 Was von der Biologie bleibt.- 4.2 McCulloch&Pitts-Neurone.- 4.3 Aufbau Neuraler Netze.- 4.3.1 Units.- 4.3.2 Aktivierung einer Unit.- 4.3.3 Outputfunktion.- 4.3.4 Ausbreitungsregel.- 4.3.5 Aktivierungsfunktion.- 4.4 Unit-Typen.- 4.4.1 Einfache lineare Units.- 4.4.2 Lineare Schwellwert-Units.- 4.4.3 Brain State in a Box (BSB).- 4.4.4 Thermodynamische Units.- 4.4.5 Grossberg-Units.- 4.4.6 Interactive Activation Units (IAC).- 4.4.7 Feldmann & Ballard-Units.- 4.4.8 Sigma-Pi-Units.- 4.4.9 Sigmoide Units.- 4.4.10 UEbersichtstabelle uber Unit-Typen.- 4.5 Reprasentationsformen und Kodierungen.- 4.5.1 Lokale und verteilte Reprasentation.- 4.5.2 Kodierung.- 4.6 Hierarchie und Synchronitat.- 4.7 Lernen in Neuralen Netzen.- 5 Lernen in Neuralen Netzen.- 5.1 UEbersicht uber die wichtigsten Lernansatze.- 5.2 Hebb-Regel.- 5.3 Delta-Regel.- 5.4 Back Propagation.- 5.4.1 Das Prinzip.- 5.4.2 Die Aufteilung des Fehlers auf Hidden-Units.- 5.4.3 Beispiel zur Berechnung eines Fehlersignals.- 5.4.4 Die verwendete Output-Funktion.- 5.4.5 Anwendungsbeispiele der Back Propagation.- 5.4.6 Wahl der Lernrate k.- 5.4.7 Gewichtsinitialisierungen.- 5.4.8 Momentum-Term.- 5.4.9 Variationen zur Rechenzeitverkiirzung.- 5.5 Competitive Learning.- 5.5.1 Der Competitive Learning-Mechanismus.- 5.5.2 Eine geometrische Interpretation.- 5.5.3 Eigenschaften des Competitive Learning.- 5.6 Boltzmann-Maschinen.- 5.6.1 Prinzipielle Funktionsweise der Boltzmann-Maschine.- 5.6.2 Minimierung der Energie- oder Kostenfunktion.- 5.6.3 Stoerungen zur UEberwindung lokaler Minima.- 5.6.4 Lernalgorithmus der Boltzmann-Maschine.- 5.7 Lernen durch Verstarkung und Belohnung.- 5.7.1 Grundlegende Version des Verstarkungslernens.- 5.7.2 Lernen mit verzoegerter Verstarkung.- 5.7.3 Lernen durch Belohnung.- 5.8 Genetische Algorithmen.- 5.8.1 Grundlegende Version des genetischen Lernens.- 5.8.2 Genetisches Lernen und die Belohnungsregel.- 5.9 Topologie-erhaltende Abbildungen und Lernende Vektorquantifizierung (LVQ).- 5.9.1 Ordnungserhalt.- 5.9.2 Lokale Antworten aufgrund lateraler Interaktion.- 5.9.3 Topologie-erhaltende Abbildungen.- 5.9.4 Der Algorithmus in diskreten Zeitschritten.- 5.9.5 Beispiele einfacher Abbildungen.- 5.9.6 Anordnung der Gewichtsvektoren.- 5.9.7 LVQ - Lernende Vektor-Quantifizierung.- 6 Modelle.- 6.1 NETtalk (Sejnowski & Rosenberg, 1986).- 6.1.1 Aufbau von NETtalk.- 6.1.2 Reprasentation der Buchstaben und Phoneme.- 6.1.3 Lernalgorithmus.- 6.1.4 Ergebnisse.- 6.2 Hopfield-Netze.- 6.2.1 Grundmodell.- 6.2.2 Analoge Implementierung.- 6.2.3 Anwendungsgebiete fur Hopfield-Netze.- 6.3 Fukushimas Neocognitron.- 6.3.1 Biologische Inspiration.- 6.3.2 Struktur des Netzes.- 6.3.3 Lernen im Neocognitron: Selbstorganisation.- 6.3.4 Funktionsweise.- 6.4 Adaptive Resonance Theory (ART).- 6.4.1 Aufbau und Funktion des Grundsystems.- 6.4.2 ART1 mit Aufmerksamkeitssteuerung.- 6.4.3 Lernen in ART1.- 6.4.4 ART1 mit zusatzlicher Kontrolleinheit.- 6.4.5 Entdeckung von Neuem und Kategoriegroessen.- 6.5 Kohonens Spracherkennung.- 6.5.1 Bio-Analogie.- 6.5.2 Automatische Spracherkennung.- 6.5.3 Akustische Vorverarbeitung des Sprachsignals.- 6.5.4 Der Algorithmus zur Spracherkennung.- 6.5.5 Phonem-Abbildungen.- 6.5.6 Transiente Phoneme.- 6.5.7 Kompensation der Koartikulationseffekte.- 6.5.8 Implementierung des Systems.- 7 Simulationen.- 7.1 Hardware.- 7.2 Software.- 7.2.1 Herkoemmliche Programmiersprachen.- 7.2.2 Pakete (Interaktive Simulationssysteme).- 7.2.3 Spracherweiterungen und Sprachen.- 8 Nayantara.- Namen- und Sachverzeichnis.ReviewsAuthor InformationTab Content 6Author Website:Countries AvailableAll regions |