DE2524734A1 - Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden baugruppe - Google Patents

Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden baugruppe

Info

Publication number
DE2524734A1
DE2524734A1 DE19752524734 DE2524734A DE2524734A1 DE 2524734 A1 DE2524734 A1 DE 2524734A1 DE 19752524734 DE19752524734 DE 19752524734 DE 2524734 A DE2524734 A DE 2524734A DE 2524734 A1 DE2524734 A1 DE 2524734A1
Authority
DE
Germany
Prior art keywords
information processing
input
output
signals
stations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19752524734
Other languages
English (en)
Other versions
DE2524734B2 (de
DE2524734C3 (de
Inventor
Leon N Prof Cooper
Charles Prof Elbaum
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nestor Inc
Original Assignee
NESTOR CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NESTOR CORP filed Critical NESTOR CORP
Publication of DE2524734A1 publication Critical patent/DE2524734A1/de
Publication of DE2524734B2 publication Critical patent/DE2524734B2/de
Application granted granted Critical
Publication of DE2524734C3 publication Critical patent/DE2524734C3/de
Expired legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/02Comparing digital values
    • G06F7/023Comparing digital values adaptive, e.g. self learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Description

PATENTANWÄLTE 2 52 A 7
Dipl.-lng. EIDENEIER Dipl.-Chem. Dr. R U F F Dipl.-lng. J. B EIE R
7 STUTTGART 1 Neckaretraße 5O Telefon CO7113 22 7O 51 Telex Ο7-23 412 erub d
28. Mai 1975 R/Ho
A 15 519
Anmelderin: The Nestor Corporation
Suite 6100
405 Lexington Avenue NEW YORK, N.Y. 10017 / USA
Informationsverarbeitungssystem mit mindestens einer informationsverarbeitend en Baugruppe
Die vorliegende Erfindung bezieht sich allgemein auf das Gebiet der anpassungsfähigen Informationsverarbeitungssysteme, auf Systeme also, die auch als Lernmaschinen, Neuronen-Netzwerke, einstellbare Systeme, selbstorganisierte Systeme und/oder anpassungsfähige Speichersysteme oder -einrichtungen bekannt sind.
Anpassungsfähige Informationsverarbeitungssysteme sind in den letzten Jahren in beträchtlichem Umfang untersucht worden. Einige der bemerkenswertesten Systeme sind u.a. das Adeline- und das Madaline-System des Stanford Electronic Laboratory und das Minos I- und Minos II-System des Stanford Research Institute. Einige US-Patente, die sich mit anpassungsfähigen Informationsverarbeitungssystemen befassen, sind das US-Patent Nr. 3 287 649 von Rosenblatt, das US-Patent
509851/0806 - 2 -
A 15 5.19 I -J? -
Nr. 3 408 627 von Kettler et al., das US-Patent Nr. 3 435 von Gerhardt et al., das US-Patent Nr. 3 533 072 von Clapper und das US-Patent Nr. 3 601 811 von Yoshino. Diese Aufzählung von Fundstellen ist aber lediglich beispielhaft und beinhaltet nur einen kleinen Teil des bis heute existierenden, umfangreichen Standes der Technik.
Solche bekannten Informationsverarbeitungsysteme arbeiten im Allgemeinen in der Weise, daß die auf ein gegebenes Eingangssignal ein Antwortsignal erzeugen, das mit einem vorbestimmten Antwortsignal verglichen wird. Diese bekannten Systeme werden, oft in Abhängigkeit vn der Differenz zwischen dem tatsächlichen und dem vorbestimmten Antwortsignal, veranlaßt, sich selbst abzuändern oder zu "lernen11, bis das vorbestimmte Antwortsignal erreicht wird. Der Zweck eines solchen Systems liegt darin, es (mittels eines geeignet en Algorithmus) seinen eigenen Weg zu einer vorbestimmten Relation:
Eingangssignal -> Antwortsignal
finden zu lassen.
Zu beachten ist, daß der Ausdruck "Eingangssignal11 in der vorliegenden Erörterung stets auch die Möglichkeit eines Satzes getrennter Eingangssignale beinhalten soll, die im wesentlichen gleichzeitig an einen entsprechenden Satz von Eingangsstationen eines Informationsverarbeitungssystems angelegt werden. In ähnlicher Weise soll der Ausdruck "Antwortsignal" die gesamte Antwort des Systems auf angegebenes Eingangssignal definieren, auch wenn diese Antwort eine ganze Anzahl einzelner Antwortsignale umfaßt, die im wesentlichen gleichzeitig an einem Satz von Ausgangsstationen des Systems erscheinen.
Ein typisches bekanntes anpassungsfähiges Informationsverarbeitungssystem ist in der Pig. 1 dargestellt. Dieses System
509851/0806 ' _ 3 _
A 15 519
enthält als wesentliche Elemente ein Netzwerk von Eingangsstationen 1, 2, 3» ...» N, die ihrerseits mit einer entsprechenden Anzahl von variablen Gewichtungselementen G1, G , G^, ....Gjj mit veränderbaren Gewichtsfaktoren verbunden sind, welche im Falle gewichtender Verstärker veränderbare Verstärkungsfaktoren oder im Falle variabler Widerstände variable Widerstandswerte sein können. Die Ausgangssignale der Gewichtungselemente G werden einem Summierer S zugeführt, der für das gesamte Netzwerk ein einziges Ausgangssignal erzeugt, das zu der Summe der Ausgangssignale der Gewichtungs elemente in einem bestimmten Verhältnis steht.
Der Gewichtsfaktor eines jeden Gewichtungs elements G.., G«, G-*,....β« wird mit Hilfe eines sogenannten "Ausbildungsalgorithmus'* T gesteuert, der das Netzwerk so einstellt, daß es auf ein bestimmtes Eingangssignal mit einem gewünschten Antwortsignal antwortet.
Im Betrieb des Netzwerkes wird ein spezielles Signal wiederholt an die Eingangsstationen 1, 2, 3, ... N des Netzwerks angelegt. Nach jedem Anlegen des speziellen Eingangssignals wird das Antwortsignal des Netzwerks mit einem vorbestimmten erwünschten Antwortsignal verglichen, beispielsweise mit Hilfe einer Substrahiereinrichtung D, und die Differenz oder der Abweichungsbetrag in dem Ausbildungsalgorithmus dazu benutzt, die Gewichtsfaktoren der einzelnen Gewichtungeelemente G1, G?, G^, .....Gjr näher zu bestimmen.
Jedes Anlegen des speziellen Eingangesignals und die nachfolgende Abänderung der Gewichtungselemente G wird als MAusbildungs-Zyklus" bezeichnet. Im Verlauf aufeinanderfolgender Ausbildungszyklen gleicht sich das Ausgangssignal des Netzwerks immer mehr dem gewünschten Ausgangssignal an, bis das Netzwerk so eingestellt ist, daß es auf das spezielle Eingangssignal, das das gewünschte Ausgangssignal erzeugen soll, eindeutig antwortet.
- 4 50985 1/0806
A 15 519 I -A-
Bei den bekannten Informationsverarbeitungssystemen ist besondere Mühe darauf verwendet worden, einen geeigneten Ausbildungsalgorithmus zu finden, der es einem System ermöglicht, schnell zu "lernen11 oder sich den angelegten Eingangssignalen schnell anzupassen. Es erübrigt sich, zu erwähnen, daß zahlreiche raffinierte Algorithmen erdacht worden sindj in allen Fällen ist jedoch der Ausbildungsalgorithmus in gewisser Weise von dem vorbestimmten Ausgangssignal, das als Antwort auf ein gegebenes Eingangssignal erzeugt werden soll, abhängig gemacht worden.
Demgegenüber liegt der Erfindung die Aufgabe zugrunde, ein anpassungsfähiges Informationsverarbeitungssystem zu schaffen, das die Fähigkeit besitzt, sein eigenes, charakteristisches Antwortsignal aif jedes gegebene Eingangssignal zu erzeugen. Insbesondere ist es ein Ziel der vorliegenden Erfindung, ein System zu schaffen, das die hervorstechende Eigenschaft besitzt, sich selbst dahingehend abändern zu können, daß es in der Lage ist, ein interne Abbildung eines Eingangssignals auf ein Antwortsignal aufzubauen, die in der Art eines Speichers oder einea Programms wirkt, ohne daß irgend ein Eingriff von außen oder eine Auswahl hinsichtlich eines gewünschten Antwortsignals oder der Art des dargebotenen Eingangssignals notwendig wäre.
Die Aufgabe wird erfindungsgemäß durch eine informationsverarbeitende Baugruppe gelöst, die die Kombination der folgenden Merkmale a) bis d) aufweist:
a) eine Anzahl N von Eingangsstationen 1, 2 j,....,N
zum Empfang jeweils eines von N Eingangs Signalen s..,
b) eine Anzahl η von Ausgangsstationen 1, 2,...,i,...,η, die jeweils eines von η Antwortsignalen r.. ,Γρ, ·. · »r. , ....rn abgeben,
- 5 509851/0806
A 15 519 S -# -
c) eine Anshl von Übertragungselementen, deren jedes eine dieser Eingangsstationen (Eingang j) mit einer der Ausgangsstationen (Ausgang i) koppelt und in Abhängigkeit von dem Eingang j auftretenden Eingangssignal s· und der Übertragungsfunktion A- . des (zugeordneten) Übertragungselemente eine Informationsübertragung von dem Eingang j zu dem Ausgang i vermittelt,
d) Einrichtungen, die in einer Lernphase der Übertragungselemente die Übertragungsfunktion A- ■ mindestens eines der Übertragungselemente in Abhängigkeit von dem Produkt mindestens eines der EingangsSignaIe mit einem der Antwortsignale um eine Größe
ö A- · — IvS-I, Sp,...S-, ...S-jj > ^I ' Γρι··«·Γ-»·· *^r\'
X J It J 11 I C X IX
abändern, wobei gemäß einer bevorzugten Ausführungsform der Erfindung, die Abwandlungen T^ A- ., die die Übertragungs-
x J funktion A- · der Übertragungselemente erfährt, von der Form
«i A. - =mS . ; = /μ s . Υ7 A & sit , worin y^ eine Pro port ionaütätBkocBtante baaeichnet, sein können.
Diese Art des Ausbildungs (-oder Lern)-Vorganges oder der Selbstabänderung des anpassungsfähigen Informationsverarbeitungssystems soll im Folgenden als "passives Lernen" oder 'passive Abänderung1* bezeichnet werden.
Die Bedeutung einer solchen Fähigkeit zur passiven Selbstabänderung eines Systems läßt sich durch Betrachtung eines einfachen Beispiels abschätzen. Wenn es z.B. bei einem solchen System nicht notwendig ist, von vornherein ein vorbestimmtes gewünschtes Antwortsignal auf ein gegebenes Eingangssignal zu kennen, ist es möglich, dem System Eingangssignale unbekannten Inhalts zuzuführen und deren Informationsgehalt
- 6 50985 1/0806
A 15 519 C
nach einer Lernperiode durch Betrachtung der Ausgangssignale zu ermitteln. Wenn beispielsweise diese unbekannten EingangesignaIe zufällige Informationssignale (mit einer unbekannten Struktur) sein sollten, die im Rauschen verborgen sind, so wird deren unbekannte Struktur dennoch auf die Antwortsignale abgebildet und durch diese dargestellt werden, da die Struktur der Antwortsignale mit derjenigen der im Rauschen verborgenen Informationssignale isomorph ist.
Auf diese Weise kann der unbekannte Informationsgehalt irgendeines Eingangssignales durch ein solches Informationsverarbeitungssystem entziffert werden.
Bei einer besonders zweckmäßigen Ausführungsform der Erfindung, bei der eine Signal'quelle vorgesehen ist, die selektiv an mindestens eine der Auagangsstationen ein gewünschtes Antwortsignal r- . abgibt, durch das die informationsverarbeitende Baugruppe veranlaßt werden kann, im Verlauf ihrer Arbeitsperiode ein'Scorrektes" Antwortsignal rw zu erzeugen, ist das Informationsverarbeitungssystem wie die bekannten Systeme in der Lage, auf irgend ein gegebenes Eingangssignal ein vorbestimmtes Antwortsignal zu erzeugen. Diese Arbeitsweise, die im Folgenden als "aktives Lernen" oder "aktive Abänderung" bezeichnet werden wird, erfordert seitens ' einer Bedienungsperson Kenntnis des gewünschten Ausgangssignals, das mit jedem einzelnen Eingangssignal verknifft sein soll.
Die Erfindung hat den Vorteil, daß die Lerngeschwindigkeit des Systems,-d.h., von der Zahl der Darbietungen eines Eingangssignals her gesehen, die Geschwindigkeit, mit der das System sich selbst dahingehend trainiert, ein bestimmtes Antwortsignal zu erzeigen, - sehr hoch sein kann. Insbesondere ist es (durch geeignete Wahl des zur Abänderung benutzten Algorithmus und der Parameter des Systems) auch erreichbar,
50985 1/0806
A 15 519 ? --? -
daß das System anstelle einer linear oder in anderer Weise langsamer zuneh-menden eine exponentiell anwachsende Lerngeschwindigkeit aufweist. Ein weiterer Vorteil des erfindungsgemäßen anpassungsfähigen Informationsverarbeitungssystems liegt dain, daß es in der Lage ist, als ein verteilter Speicher, (bei dem Information nicht an einzelnen Speicherplätzen sondern über das System verteilt gespeichert wird), zu arbeiten und e3 in hohem Maße unempfindlich gegenüber einem Pehlverhalten einzelner Bauelemente ist.
Das System besitzt dann die Eigenschaften eines selbstorganisierten Sprechers mit der Fähigkeit, Information allein aufgrund von Erfahrung aufzunehmen. Es kommt hinzu, daß ein solcher verteilter Speicher im allgemeinen dieselbe Kapazität, Zuverlässigkeit und Genauigkeit wie ein konventioneller digitaler Computerspeicher (beispielsweise wie ein Ferritkernspeicher), aufweist, bei dem die Information an einem räumlich festgelegten Ort gespeichert wird.
Ein weiterer Vorteil des erfindungsgemäßen Informationsverarbeitungssystems besteht darin, daß es eine große Speicherdichte ermöglicht. So ist beispielsweise hervorzuheben, daß das Informationsverarbeitungssystem aus integrierten Schaltungen aufgebaut seil kann und keine direkten Speicherelemente wie Ferritkerne benötigt.
Ein besonderer Vorteil der Erfindung ist darin zu sehen, daß sie es auf einfache Weise ermöglicht, ein anpassungsfähiges Informationsverarbeitungssystem zu schaffen, das eine große Arbeitsgeschwindigkeit ermöglicht oder, genauer gesagt, ein System, bei dem in einem einzigen elektronischen Arbeitsgang größenordnungsmäßig 2 Informationsbits abgerufen und/oder verarbeitet werden können (wenn η die Anzahl der Ausgangsstationen des Systems ist).
509851 /0806
A 15 519 & --& -
Schließlich - und hiermit ist möglicherweise der wichtigste Aspekt der Erfindung zu sehen - bietet diese die Möglichkeit, ein anpassungsfähiges Informationsverarbeitungssystem zu schaffen, das jede der folgenden Eigenschaften aufweist.
1.) Erkennungsvermögen: Die Fähigkeit, auf ein Ereignis oder ein Eingangssignal, das von dem System schon zuvor wahrgenommen worden ist, ein starkes Antwortsignal zu erzeugen. Es ist offensichtlich, daß das Informationsverarbeitungssystem auf ein spezielles Eingangssignal anfänglich uncharakteristisch antworten wird. Jedoch wird das System nach mehreren aufeinanderfolgenden Darbietungen dieses Eingangssignals lernen, dasselbe durch Erzeugung eines charakteristischen Antwortsignals zu "erkennen1*.
2.) Erinnerungsvermögen: Die Fähigkeit, auf jedes von mehreren speziellen Eingangssignalen ein eindeutiges Antwortsignal zu erzeugen. Diese Fähigkeit ergibt die Speicherfunktion, da das System wegen dieser Fähigkeit in der Lage ist, ein charakteristisches Antwortsignal an seinen (n) Ausgangsstationen zu erzeugen, (das größenordnungsmäßig 2n oder mehr Informationsbits umfaßt), wenn an seinem Satz von Eingangsstationen ein spezielles Eingangssignal empfangen wird.
3.) Verallgemeinerungsvermögen: Die Fähigkeit aus einer Anzahl unterschiedlicher Ereignisse oder EingangsSignaIe ein gemeinsames Element herauszuziehen. Insbesondere dann, wenn mehrere verschiedene Eingangssignale nacheinander dem Informationsverarbeitungssystem zugeführt werden, wird dieses lernen, ein diesen Eingangssignalen gemeinsames Merkmal zu erkennen. Wenn beispielsweise ein spezielles Informationssignal, das im Rauschen verborgen ist, den Eingangsstationen des Systems wiederholt zugeführt wird,
509851 /0806 ~ 9 ~
A 15 519 9
so wird das System das Informationssignal herausholen, im Gedächtiis behalten und in der Folge erkennen.
4.) V^rKnU^fuitripypym^mn Die Fähigkeit ein erstes Eingangssignal bei Empfang eines zweiten wieder aufzurufen, nachdem die beiden EingangsSignaIe dem System mehr oder weniger gleichzeitig zugeführt worden sind. D.h. wenn zwei EingangssignaIe gleichzeitig angelegt werden, so wird das System diese Eingangsβignale nicht nur "lernend" aufnehmen, sondern wird das eine mit dem anderen "verknüpfen". Daher wird das System zu einem späteren Zeitpunkt in der Lage sein, entweder eines oder beide Eingangssignale abzurufen, wenn nur eines der Eingangssignale angelegt wird. Eine solche Fähigkeit zur Verknüpfung kann beispielsweise bei der Analyse unbekannter Signale zum Tragen kommen. Wenn dem System zwei unbekannte Eingangssignale zugeführt werden, so wird das System in der Lage sein, zu bestimmen, ob das eine zu dem anderen in irgendeiner Weise in Beziehung steht.
5.) Rekonstruktionsfähigkeit aus Teilen von Eingangssignalen; Die Fähigkeit, ein vollständiges Eingangssignal aus einem Teil dieses Eingangssignals wieder aufzufinden. Diese Eigenschaft kann als Fähigkeit zur "Selbst-Verknijfung", d.h. · zur "Verknüpfung" (Assoziation) von Teilen desselben Signals angesehen werden. Wenn ein spezielles Eingangssignal dem System zugeführt wird, bis es "gelernt" ist, dann wird das System jeden Teil dieses Signals mit dem vollständigen Signal verkniffen, derart, daß zu einem späteren Zeitpunkt das Anlegen eines Teil dieses Eingangssignals zu der Erzeugung des vollständigen Signals durch das System führt (gewöhnlich mit einem verminderten Signal/ Rausch-Verhältnis).
- 10 -
509851 /0806
A 15 519 ^ -OjQ-
Die Erfindung wird im folgenden anhand der Zeichnung beschrieben und erläutert. Es zeigt:
Fig. 1 ein Blockschaltbild eines typischen bekannten Informat i onsverarbei tungssys t ems,
Pig. 2 ein Blockschaltbild eines Nouveron-Netzwerks nach der Erfindung,
TM Fig. 3 ein Blockschaltbild einer Nestor -Baugruppe mit zahlreichen Nouveron-Netzwerken gemäß Fig. 2. Der Übersichtlichkeit der Darstellung wegen sind von Summierern der Baugruppe abgehende Rückkopplungsleitungen weggelassen worden,
Fig. 4 ein Blockschaltbild eines eine Nestor-Baugruppe gemäß Fig.3 umfassenden Informationsverarbeitungssystems,
Fig. 5 eine schematische Darstellung der Antwort einer erfindungsgemäßen Nestor-Baugruppe auf ein äußeres Geflecht von Ereignissen,
Fig. 6 eine schematische Darstellung eines speziellen Arbeitsprinzips der erfindungsgemäßen Nestor-Baugruppe,
Fig. 7 eine schematische Darstellung des Signalsverlaufs in einer idealen Nestor-Baugruppe nach der Erfindung,
Fig. 8 eine schematische Darstellung eines optisch-akustischen Systems mit mehreren erfindungsgemäßen Nestor-Baugruppen,
Fig. 9 ein Blockschaltbild einer in Verbindung mit der erfindungsgemäßen Nestor-Baugruppe verwendbaren Einrichtung zur Bestimmung eines Antwortsignals,
Fig. 10 eine schematische Darstellung der Antwort zweier Nestor-Baugruppen auf dasselbe äußere Geflecht von Ereignissen,
— 11 — 509851/0806
A 15 519 44
Pig. 11 ein Blockschaltbild einer Einrichtung, die in Verbindung mit einer erfindungsgeraäßen Nestor-Baugruppe zur Erzeugung einer speziellen Art von Antwortsignalen verwendbar ist,
Pig. 12 ein Blockschaltbild eines Teils eines Nouveron-Netzwerkes das ein mit Ladungsspeicherung arbeitendes Übertragungselement (Mnemonder) gemäß einer bevorzugten Ausführungsform der Erfindung enthält,
Pig. 13 ein Schaltbild einer Summierschaltung, die in dem Nouveron-Netzwerk gemäß Fig. 12 verwendbar ist,
Pig. 14 ein Schaltbild eines in dem Nouveron-Netzwerk gemäß Pig. 12 verwendbaren Übertragungselements (Mnemonders) und
Fig. 15 ein Blockschaltbild einer in dem Nouveron-Netzwerk gemäß Pig. 12 verwendbaren Einrichtung zur Verarbeitung von Netzwerk-Eingangssignalen mit Hilfe von Netzwerk-Ausgangssignalen.
Wie eingangs aufgeführt, bildet den Gegenstand der Erfindung eine informationsverarbeitende Baugruppe mit einer Anzahl von (N) Eingangsstationen 1, 2, ...j,....,N, zum Empfang jeweils eines der Eingangssignale S.. ,Sp,..., S .,.. .S^, und mit einer Anzahl (n) von Ausgangsstationen 1, 2, ...i, n, die jeweils eines von η Antwort Signalen Γι»ΓΓχ» r n»- abgeben, sowie mit einer Anzahl von als Mnemonder bezeichneten Übertragungselementen, die mit jeweils einzelnen, verschiedenen (oder mehreren Ausgangsstationen einzelne, verschiedene (oder mehrere) Eingangsstationen koppeln. Nach der Erfindung vermittelt jedes Übertragungselement eine Informationsübertragung von einer Eingangsstation j zu einer Ausgangsstation i in Abhängigkeit von dem an der Eingangsstation j auftretenden Eingangssignal s. und einer sogenannten "Übertragungsfunktion" A-.
- 12 509851/0806
A 15 519 tZ -
des Übertragungselements. Es sind auch Mittel vorgesehen, die die Matrix der Übertragungsfunktionen der Übertragungselemente (oder Mnemonder) in Abhängigkeit von dem Produkt mindestens eines der EingangsSignaIe und einem der Antwortsignale der Baugruppe abändern.
Der Ausdruck "Übertragungsfunktion11, wie er in der Beschreibung und den Patentansprüchen erscheint, wird in seinem allgemeinen Sinn verwendet, um eine Funktion zu definieren, die in irgendeiner Weise die Übertragung von Information (ein Signal) vom Eingang zum Ausgang des Übertragungselements beeinflußt. Im einfachsten Fall entspricht die Übertragungsfunktion dem Verstärkungsfaktor oder der Verstärkung eines Übertragungselements; es ist jedoch zu beachten, daß ein am Eingang eines Übertragungselements auftretendes Signal auch auf andere Weise abgeändert werden kann, um ein geeignetes Ausgangesignal des Übertragungselements zu erzeugen.
In jedem Fall soll das Ausganges ignal s1. eines Übertragungs-
elements als das Produkt seines Eingangssignals sj mit der Übertragungsfunktion A-· dieses Übertragungselements definiert sein gemäß der Beziehung
Eine Baugruppe der oben beschriebenen Art, die im fo^nden als Nestor -Baugruppe bezeichnet werden soll, ist in Fig. 3 dargestellt. Diese zeigt eine spezielle Baugruppe, bei der jede der N Eingangsstationen mit jeder der η Ausgangsstationen durch ein einzelnes Übertragungselement (©) verbunden ist. Aus Gründen der Übersichtlichkeit sind die von den Summierern S abgehenden Rückkopplungsleitungen weggelassen worden und nur die mit der Eingangsstation j (Übertragungselemente 1j, 2j,....ij,....,nj) und die mit der Ausgangsstation i (übertragungselemente i1, i2,.··.ij,...iN) gekoppelten Übertragungselemente dargestellt. Es versteht sich jedoch, daß in dieser
50 98 5 1/0806 ~ 13 "
A 15 519
Baugruppe eine Anordnung von insgesamt N χ η Übertragungselementen vorgesehen ist, so daß sich die folgende Matrix von Übertragungsfunktionen ergibt:
lAn1
>An2
A1N A2N
>AnN
Die spezielle Nestor-Baugruppe, bei der jede der N Eingangsstationen mit jeder der η Ausgangsstationen durch ein einzelnes Übertragungselement verbunden ist, zeigt das, was als (N,n)-Verknüpfung bezeichnet wird. In einem praktisch vorkommenden Fall können eine oder mehrere der durch die Übertragungselemente vermittelten Verbindungen zwischen den Eingangs- und Ausgangsstationen ohne eine schädliche Beeinträchtigung der Baugruppenfunktion getrennt werden. Die Verbindungen zwischen den Eingangs- und den Ausgangsstationen über die Übertragungselemente können sogar völlig zufallsverteilt sein, vorausgesetzt, daß eine genügende Anzahl von Verbindungen (Übertragungselementen) vorhanden ist, um eine Informationsübertragung vom Eingang zum Ausgang und eine Informationsspeicherung in den Übertragungselementen zu ermöglichen.
Bei einer bevorzugten Ausführungsform der erfindungsgemäßen
- 14 ■«-
609851/0806
A 15 519
Nestor-Baugruppe ist das Antwortsignal r. an jeder Ausgangsstation eine lineare Punktion der an die Baugruppe angelegten Eingangssignale, so daß gilt:
r = Σ A1-S
1 1J J
Diese lineare Relation, die in der Fig. 3 durch die Summierer Σ^, Σο»·····Sj,.....Ση veranschaulicht ist, ist die einfachste Beziehung, die zu den gewünschten Ergebnissen führt. Es versteht sich jedoch, daß die Nestor-Baugruppe nicht auf diese lineare Relation beschränkt ist und daß andere bedeutsame Ergebnisse gewonnen werden können, wenn das Antwortsignal r^ an einer oder mehreren Ausgangsstationen i nach einer anderen Punktion von den an die Baugruppe angelegten Eingangssignalen abhängig gemacht wird.
Beispielsweise kann das Antwortsignal ri zu dem Produkt der Eingangssignale A- · s. über alle j proportional sein.
ij j
Bei der in der Fig. 3 dargestellten Nestor-Baugruppe kann die Anzahl N der Eingangsstationen und die Anzahl η der Ausgangsstationen jeweils beliebige Werte annehmen. Die Anzahl der Eingangsstationen kann diejenige der Ausgangsstationen überschreiten - oder umgekehrt - oder es können beide gleich sein (N = n). Es versteht sich, daß der Umfang der Information, die zu irgendeinem Zeitpunkt an den Ausgangsstationen der Nestor-Baugruppe auftreten kann, in der Größenordnung von 2n Bits oder mehr liegt und daß, je größer der Wert η ist, desto größer auch das Signal/Rausch-Verhältnis der Baugruppe sein wird. Es ist daher wünschenswert, η ziemlich groß zu machen, wobei allerdings die Notwendigkeit einer entsprechenden Zunahme der Zahl der Schaltungselemente zu berücksichtigen ist. Es wird, der Einfachheit halber, in einer späteren Betrachtung angenommen werden, daß η gleich N sein soll.
- 15 509851 /0806
A 15 519 - Vj -
Die Nestor-Baugruppe gemäß Pig. 3 kann durch eine Anzahl (n) von Summierern Σ· dargestellt oder als aus einer Anzahl solcher Summierer bestehend angesehen werden, von denen jeder mit einer Anzahl (N) von Eingangsstationen und Übertragungselementen und einer einzigen Ausgangsstation i verbunden ist. Eine solche, im folgenden als "Nouveron" bezeichnete Untereinheit der Nestor-Baugruppe ist in der Fig. 2 dargestellt. Ein Vergleich der Pig. 2 mit der Pig. 3 zeigt, daß die Nestor-Baugruppe eine Anzahl (n) von Nouverons gemäß Pig. 2 umfaßt.
Wie die Pig. 2 zeigt, erzeugt jedes Nouveron an einer Ausgangsstation i ein einzelnes Antwortsignal r-. Dieses Antwortsignal wird von dem Summierer^ . des Nouverons jeweils in Abhängigkeit von Zwischenausgangssignalen s-' ,Sp1,. .s . ·,.. .Sij1» der N Übertragungselemente i1, i2,...ij,...iN erzeugt.
Wie oben erwähnt, ist es nicht notwendig, daß die Übertragungselemente der Nestor-Baugruppe jede Eingangsstation mit jeder Ausgangsstation der Baugruppe koppeln. Demzufolge kann ein der Fig. 2 entsprechendes Nouveron auch weniger als N Übertragungselemente umfassen, so daß nicht jede einzelne Eingangsstation 1,2,....j,...N mit dem SummiererΣ. gekoppelt sein wird.
Wie ebenfalls oben ausgeführt worden ist, wird in der Lernphase die Übertragungsfunktion von mindestens einem (und vorzugsweise allen) der Übertragungselemente ij der Nestor-Baugruppe in Abhängigkeit von dem Produkt aus mindestens einem der Eingangssignale und mindestens einem der Antwortsignale der Baugruppe näher bestimmt. Dieser Algorithmus für die Abänderungen £A--, denen die Matrix A der Übertragungsfunktionen unterworfen ist (abgesehen von einer zu den Eingangsund den AntwortSignalen nicht in Beziehung stehenden gleichförmigen Abnahme) kann in der folgenden Form geschrieben werden:
- 16 509851/0806
A 15 519 - ϊβ -
wobei es sich versteht, daß die Punktion f auch von nur einem der Eingangssignale S1,S2,...s.,....sN und nur eine der Antwortsignale r.. , Γρ». ·. .r. ,... .r abhängig sein kann
Um jede unnötige Komplikation bei der Leitungsführung in der Nestor-Baugruppe zu vermeiden, wird es vorgezogen, die Abwandlung der Übertragungsfunktion eines Übertragungselements nur von den Eingangs- und Antwortsignalen desjenigen Nouverons abhängig zu machen, dem das Übertragungselement angehört. Daher werden bei einer bevorzugten Ausführungsform der Erfindung die Abänderungen, denen die Übertragungsfunktion A. . unterliegt, von dem jeweils mit dem speziellen Übertragungselement verknüpften Eingangs- und Antwortsignal abhängig gemacht, so daß gilt:
wobei es sich versteht, daß die Punktion f stets von beiden Variablen s. und r- abhängig sein soll.
Die Punktion f (s-, r·) kann mit Hilfe der Taylor'schen
J ^-
Formel für Punktionen mit mehreren Variablen in eine Reihe
entwickelt werden. Dies ergibt dann:
f (b., T1)^a00 +a01 Sj + al0 tv + a^rs^
+a21 ri β. + a31 r3 s. +... +Σατ^
Die ersten drei Terme sind dabei nicht von unmittelbarem Interesse, da gefordert wird, daß die Abänderung der A- ■ von dem Produkt des EingangsSignaIs s. mit dem Antwortsignal r· abhängig sein soll. Es läßt sich beweisen, daß eine Abänderung
- 17 509851 /0806
A 15 519 -H-
der A-, die nur eine Funktion von einem oder mehreren der ersten drei Terme der Taylorentwicklung ist, nicht zu einem Informationsverarbeitungssystem führt, das die von der erfindungsgemäßen Nestor-Baugruppe dargebotenen Intelligenzeigenschaften aufweist.
Der niedrigste Term der Taylorentwicklung, der zu den erwünschten, erfindungsgemäßen Eigenschaften führt, ist der vierte Term, nämlich a.. 1 r- s.. Dieser Term (der im folgenden ausführlich behandelt werden wird, da er einer strengen analytischen Behandlung leicht zuganglich ist,) führt zu einer Abänderung SA- . der Übertragungsfunktion A. . in folgender Form:
wobeiT^eine Proportionalitätskonstante bezeichnet.
Es versteht sich jedoch, daß auch andere, auf den dritten Term der Taylor-Entwicklung folgende Terme zu bedeutsamen Ergebnissen führen können, wenn sie in der Nestor-Baugruppe verarbeitet werden. Terme mit geraden Potenzen der Variablen s. oder r- ermöglichen aber bei den Abänderungen keine Unterscheidung der Polarität. Terme, die ungerade Potenzen dieser Variablen enthalten, wie etwa der sechste Term, a^1 s-, ermöglichen dagegen eine solche Unterscheidung.
Jeder dieser Terme kann der Nestor-Baugruppe interessante Eigenschaften vermitteln. Da die verschiedenen Terme der Taylor-Entwicklung den Abwandlungen der ittrix A unterschied liche Gewichtungen erteilen, können insbesondere diese Gewichtungen mit Vorteil dazu benutzt werden, spezifische erwünschte Eigenschaften zu erzielen.
- 18 509851 /0806
A 15 519 - \% -
Die Pig. 4 zeigt eine Möglichkeit, wie eine erfindungsgemäße Nestor-Baugruppe in einem anpassungsfähigen Informationsverarbeitungssystem geschaltet und benutzt werden kann. Die in dieser Pig. dargestellte Nestor-Baugruppe weist eine (N,N)-Verknüpfungaif, d.h. die Baugruppe umfaßt N Eingangsstationen und N Ausgangsstationen, und jede Eingangsstation ist, wie in der Pig. 3 dargestellt, mit jeder Ausgangsstation über ein Übertragungselement verbunden.
Die der Nestor-Baugruppe zugeführten Eingangs Signa Ie s.., Sp, ...s.,...sN charakterisieren ein Ereignis in der Umgebung, das in der Pig. 4 als "Eingabe" bezeichnet ist. Dieses Ereignis kann ein optisches Ereignis, etwa die Ansicht eines Bildes, ein akustisches Ereignis, etwa das Hören eines Tones, oder irgend ein beliebiges anderes, vorstellbares oder nicht vorstellbares Ereignis sein, beispielsweise der Empfang von Strahlungssignalen aus dem Weltraum. Die einzige Anforderung, die an ein solches Ereignis zu stellen ist, besteht darin, daß es auf irgend eine Weise in eine Anzahl von Eingangssignalen s.,SA|i.Ma. s» übersetzbar ist, die ausreichend
viele Einzelheiten des interessierenden Ereignisses bewahren.
Die EingangsSignaIe s1lso,*.»s. ....sw werden von einem Über-
\ C J , SH
setzer erzeugt, der eine Art von Analyse des Ereignissen durchführt und nach Maßgabe dieser Analyse Signale erzeugt. Wenn die Eingabe beispielsweise ein optisches Ereignis oder ein "Bild" ist, so kann der Übersetzer dieses Bild in eine Anzahl von Rasterelementen unterteilen und Signale s..,3p,.... s.,. ...3« erzeugen, die zu der optischen Dichte eines jeden zugeordneten Rasterelementes im Verhältnis stehen. Wenn die Eingabe in einem akustischen Ereignis besteht, so kann der Übersetzer eine Fourier-Analyse der akustischen Information durchführen und EingangsSignale S1, s9,...3 .,...sN erzeugen, die zu der Schallamplitude jeder der Pourierfrequenzen im Verhältnis stehen. Es versteht sich jedoch, daß der in Verbin-
- 19 509851/0806
A 15 519
dung mit der Nestor-Baugruppe zu benutzende Übersetzer beliebig wählbar ist und daß dem Fachmann zahlreiche Arten geeigneter Übersetzer bekannt sind. Da außerdem der Übersetzer, für sich genommen, nicht Teil dieser Erfindung ist, soll er im folgenden nicht im einzelnen behandelt werden.
Wie bereits erwähnt, erzeugt die Nestor-Baugruppe als Antwort auf einen Satz von Eingangssignalen s.., S2,....3.,....SjJ eine Anzahl von Antwortsignalen r.. ,r2, ·.. .r-,. ·. .r .
Gemäß einer bevorzugten Ausführungsform der Erfindung sind diese Antwortsignale kontinuierliche Variable, d.h.: sie können beliebige Werte zwischen Null und jedem positiven und/oder negativen Maximalswert annehmen, der durch reale Umweltbedingungen bestimmt ist, die durch den Aufbau der Nestor-Baugruppe vorgegeben sind. Um bei Bedarf die Nestor-Baugruppe "zwingen" zu können, ein spezielles Antwortsignal abzugeben (einen Satz einzelner Antwortsignale r1,r2»...r.,...rN), wenn ein spezielles Eingangssignale (ein Satz einzelner Eingangssignale S1 S2, ... .3-ji.. .sN) dargeboten wird, kann das Informationsverarbeitungssystem mit einer geeigneten Einrichtung ausgestattet sein, die einzelnen oder sämtlichen Ausgangsstationen spezifische Antwortsignale (z.B. Spannungen) aufprägt oder zuführt. Auf diese Weise kann die Nestor-Baugruppe in der als "aktives lernen" bezeichneten Betriebsart betrieben und veranlaßt werden, auf jedes gegebene Eingangssignal ein vorbestimmtes, erwünschtes Antwortsignal abzugeben.
Bei Bedarf können die Ausgangsstationen 1, 2,...i,...N der Nestor-Baugruppe auch jeweils mit einer Anzahl von Schwellenwerteinrichtungen T1, T2,....Ti?...Tn wie Schmitt-Trigger oder dergleichen verbunden sein, die ein Ausgangssignal erzeugen,
- 20 -
50985 1/0806
A 15 519 - 20 -
wenn das ihnen zugeführte Antwortsignal jeweils einen einstellbaren Schwellenwert 0.. ,Op,... .0. ,... .0„ überschreitet. Diese Schwellenwerteinrichtungen bewirken, daß das analoge Antwortsignal der Baugruppe in ein digitales Ausgangssignal umgewandelt wird, das auf einfache Art und Weise weiter verarbeitet werden kann. Diese Schwellenwerteinrichtungen über zusätzlich eine Entscheidungsfunktion dahingehend aus, ob und wann ein spezielles Antwortsignal erzeugt worden ist.
Die Schwellenwerteinrichtungen T.,, Tp,· · · *^±* · · · ·■% können auch für eine Betriebsart benutzt werden, die als "Unterdrückungsbetrieb11 bezeichnet werden kann und die den Ausbildungsvorgang der Nestor-Baugruppe fördert. Wie im folgenden ausführlich dargelegt werden wird, erfordert diese Betriebsart, daß das Ausgangssignal einer jeden Schwellenwerteinrichtung auf die Nestor-Baugruppe zurückgekoppelt wird, um alle Summierer mit Ausnahme desjenigen, der das Antwortsignal erzeugt, abzuschalten.
Auf diese Weise werden alle Antwortsignale r.., Γρ,...Γ|τ mit Ausnahme desjenigen Antwortsignals unterdrückt werden, das ab Eingangssignal derjenigen Schwellenwerteinrichtung zugeführt wird, die ein Ausgangssignal erzeugt, Der Vorteil hierbei besteht darin, daß sich die Nestorbaugruppe selbst rasch dahingehend ausbildet, einen Satz von Antwortsignalen r^,Γρ,...r.,....r« (und damit auch AusgangesignaIe der Schwellenwerteinrichtungen T.., Tp,... .T«) zu erzeugen, in dem nur eines dieser Antwortsignale bei Darbietung eines
gegebenen Satzes von Eingangssignalen s.| ,S2, ·.. .s . sN
von Null verschieden ist.
Die Ausgangsstation der Nestor-Baugruppe oder der Ausgänge
- 21 -
509851/0806
A 15 519
der Schwellenwerteinrichtungen, sofern solche vorgesehen sind, können mit jeder Art von Ausgabe- oder Verarbeitungsgerät kombiniert werden, je nachdem was für ein Vorgang in Abhängigkeit von den AntwortSignalen der Baugruppe durchgeführt werden soll. Wenn die Nestor-Baugruppe beispielsweise dazu benutzt wird, sichtbare Bilder zu identifizieren (z.B. Scheckunterschriften) so können die Ausgänge der Schwellenwerteinrichtungen einfach mit einer Alarmanlage verbunden sein, die einer Bedienungsperson Nachricht gibt, wenn ein bestimmtes Bild (z.B. eine echte oder gefälschte Unterschrift) entdeckt oder nicht entdeckt worden ist.
Wenn die Nestor-Baugruppe beispielsweise als reiner verteilter Speicher (Assoziationsspeicher) benutzt wird, so kann sie direkt mit einem konventionellen digitalen Computer verbunden werden (d.h. ohne einen getrennten eingangsseitigen Übersetzer oder ausgangsseitige Schwellenwerteinrichtungen) . Selbstverständlich muß dann an der eingangsseitigen Verbindungsstelle der Baugruppe ein Digital/ Analogkonverter vorgesehen sein, um die digitale Ausgabe des Computers in analoge Eingangssignale S1,Sp»··«s« umzuwandeln, und es muß an der ausgangsseitigen Verbindungsstelle der Baugruppe ein Analog/Digital-Konverter vorgesehen sein, der die analogen Antwort signale r.. , γ?ι . · · .r^ zur Eingabe in den Computer quantisiert.
Offensichtlich kann die Nestor-Baugruppe für praktisch unendlich viele Zwecke eingesetzt werden, wobei die zur Mitanwendung kommende spezielle Ausgabe- oder Verarbeitungseinrichtung durch die speziellen Umstände des Einzelfalles bestimmt sein wird. Da die Ausgabe - oder Verarbeitungseinrichtung für sich allein nicht Teil der Erfindung ist, soll sie hier auch nicht in weiteren Einzelheiten behandelt werden.
- 22 509851 /0806
A 15 519
Die erfindungsgemäße Nestor-Baugruppe kann auch in einem Informationsverarbeitungssystem verwendet werden, bei dem mehrere solcher Baugruppen entweder in Reihen - oder in Parallel- oder in Reihen/Parallelschaltung miteinander verbindunden sind. Beispielsweise können die Ausgangsstationen zweier Nestor-Baugruppen mit den Eingangs-Stationen einer dritten verbunden sein, derart, daß die beiden ersten Baugruppen die aus der Umgebung empfangene Information "vorverarbeiten11 können und diese (vorverarbeitete) Information zur endgültigen Verarbeitung und Speicherung an die dritte Baugruppe abgeben.
Reihen- und Parallelschaltungen von Nestor-Baugruppen können somit die Intelligenz des Informationsverarbeitungssystems vergrößern.
Die erfindungsgemäße Nestor-Baugruppe kann so aufgebaut sein , daß sie mit einer gewünschten Geschwindigkeit "lernt". Im Lernbetriebszustand sollten die an den Übertragungsfunktionen A. der Übertragungselemente vorzu-
nehmenden Änderungen SA. . so definiert sein, wie oben angegeben; bei einer bevorzugten Ausführungsform der Erfindung sind diese Abänderungen von der folgenden Form:
Durch Einstellen des Wertes Tf beispielsweise, ist es möglich, die Abänderungs- oder "Lerngeschwindigkeit" der Nestor-Baugruppe zu steuern.
Wenn I^ = 0 (oCA- . = 0) gesetzt wird, ist es auch möglich, den Lernbetrieb der Baugruppe vollständig "auszuschalten", so daß die Baugruppe als ein reiner - verteilter-Speicher arbeitet. Die Benutzung der Nestor-Baugruppe in diesem speichernden Zustand, in dem die Übertragungsfunktionen vorbestimmt und festgelegt sind, ist eines der wesentlichsten Merkmale der vorliegenden Erfindung.
- 23 509851/0806
A 15 319 ^ -,23 -
Die erfLndungsgemäße Nestor-Baugruppe kann auch so aufgebaut sein, daß sie sowohl mit einer vorbestimmten Geschwindigkeit "vergißt" als auch lernt. Eine solche Arbeitsweise kann dadurch erreicht werden, daß es den Übertragungsfunktionen A- . ermöglicht wird, beispjelsweise mit einer konstanten Zerfallsgeschwindigkeit abzunehmen. Im Lernbetrieb ist ein solcher Verlust gespeicherter Information günstig, da die Nestor-Baugruppe dadurch Einzelheiten ihrer früheren Erfahrung "vergessen" und somit schneller verallgemeinern kann. Dagegen ist es dann, wenn die Ausbildungsphase der Nestor-Baugruppe abgeschlossen ist und diese im Speicherbetrieb arbeitet, erwünscht jede Abnahme der Übertragungsfunktionen möglichst auf "Null11 (d.h. auf den bei den zur Verfügung stehenden Bauteilen niedrigst-möglichsten Wert) zu reduzieren, damit die in der Nestor-Baugruppe gespeicherte Information so lange wie möglich auch ohne Verwendung eines Pufferspeichers festgehalten werden kann.
Wenn mehrere Nestor-Baugruppen, die in Reihe oder parallel geschaltet sind, benutz werden, so können verschiedene Baugruppen in verschiedenen Betriebsarten betrieben werden, um innerhalb eines Informationsverarbeitungssystems unterschiedliche Punktionen auszuführen. Beispielsweise können eine oder mehrere Nestor-Baugruppen in einem informationsverarbeitenden oder lernenden Betriebszustand betrieben werden (in dem z.B. sowohl^ als auch die Zerfallsgeschwindigkeit ziemlich groß sind), während eine oder mehrere Nestor-Baugruppen in einem reinen Speicherbetriebszustand benutzt werden (in dem £A- . und die Zerfallsgeschwindigkeit 0 sind). Die Pig. 8 zeigt ein Beispiel ein-es solchen Systems, das aus drei Nestor-Baugruppen besteht. Aus dieser Figur ist ersichtlich, daß die Zahl der Eingange einer Bank H (Zahl der Eingangsstationen einer Nestor-Baugruppe mit der Bank H) gleich, größer oder
- 24 509851/0806
A 15 519
kleiner sein kann als die Summe der Ausgänge (Ausgangsstationen von Nestor-Baugruppen mit den Ausgangsstationsbanken RQ und R.) von Rq und R., und daß jeder Ausgang von Rq und RA mit einem oder mehreren Eingängen der Bank H in geordneter oder zufälliger Weise verbunden sein kann.
Schließlich ist darauf hinzuweisen, daß sobald der "Ausbildungsvorgang einer Nestor-Baugruppe nach einer Arbeitsperiode im Lernbetriebszustand abgeschlossen ist, die Werte der Übertragungsfunktion A- · gespeichert und zu einer sofortigen Ausbildung einer weiteren Nestor-Baugruppe benützt werden können. Diese "Sofort-Ausbildung" wird in einfacher Weise dadurch erreicht, daß die Werte der Übertragungsfunktionen einer Nestor-Baugruppe auf Anfangswerte A^ \A gesetzt werden, bevor die Baugruppe in Betrieb genommen wird.
Bei einer bevorzugten Ausführungsform der Erfindung ist das Informationsverarbeitungssystem mit einem üblichen (entweder analogen oder digitalen) Pufferspeicher ausgestattet, in den die Werte der Übertragungsfunktionen A. . einer ausgebildeten Nestor-Baugruppe eingegeben werden können und aus dem diese Werte entnommen werden können, wenn die Übertragungsfunktionen derselben oder einer anderen Nestor-Baugruppe auf ihre Anfangswerte A^0^. . gesetzt werden.
Nachdem der grundsätzliche Aufbau einer Nestor-Baugruppe und eines Informationsverarbeitungssystems nach der Erfindung dargelegt und beschrieben worden ist, ist es nunmehr notwendig, deren Beschaffenheit und Arbeitsweise im einzelnen zu untersuchen.
- 25 -
50985 1 /0806
A 15 519
Im folgenden werden zunächst die theoretischen Grundlagen der Erfindung erörtert, im Anschluß daran wird sodann eine spezielle bevorzugte Ausführungsform der Erfindung beschrieben:
I. Theoretische Erläuterungen A. Ereignisraum und Darstellungen
Die Fig. 5 zeigt in schematischer Darstellung eine Nestor-Baugruppe, die einer aus einer Anzahl von "Ereignissen" gebildeten Umgebung ausgesetzt ist. Dauer und Bereich eines Ereignisses werden letztlich selbstkonsistent durch die Wechselwirkung zwischen der Umgebung und einem die Nestor-Baugruppe enthaltenden anpassungsfähigen Informationsverarbeitungssystem definiert. Zum Zweck einer Vereinfachung der Beschreibung soll jedoch zunächst davon ausgegangen werden, daß ein Ereignis ein genau definierter objektiv erfaßbarer Vorgang sei, und
1 2
es soll demgemäß ein mit e , e ,
Ereignisraum E betrachtet werden.
1 2 λ k es soll demgemäß ein mit e , e , e , ....e bezeichneter
Diese Ereignisse werden durch Meß- und Verarbeitungseinrichtungen des anpassungsfähigen Informationsverarbeitungssystems mittels einer äußeren Abbildung P auf eine Signalverteilung in dem mit s , s , s ,....s bezeichneten Eingangssignalraum S der Nestor-Baugruppe abgebildet. Die äußere Abbildung P ist in der Pig. 5 durch einen doppelten Pfeil bezeichnet. Vorläufig sei angenommen, daß diese Abbildung durch keinerlei Erfahrungswerte abgewandelt ist.
Obwohl die Abbildung P nicht in allen Einzelheiten beschrieben werden muß, da die spezielle Art der Umsetzung aus der Umgebung in den EingangssignaIraum S für die vorliegende Erörterung nicht von Bedeutung ist, soll darauf hingewiesen werden, daß diese äußere Abbildung reichhaltig
509851 /0806
- 26 -
A 15 519 - atf -
und detailliert sein sollte, damit ein genügend großer Betrag der interessierenden Information erhalten bleibt. Insbesondere sollte der Satz S von Eingangssignalen den Grad der "Verschiedenheit11 zwischen Ereignissen wiederspiegeln, bzw. den in irgendeiner Hinsicht zwischen zwei oder mehreren Ereignissen vorhandenen Grad der Ähnlichkeit (oder einer anderen Beziehung der Ereignisse zueinander) .
Es soll daher angenommen werden, daß die äußere Abbildung P von E auf S die wesentliche Eigenschaft besitze, gewissermaßen die "Nähe11 oder "Isoliertheit" von Ereignissen zu bewahren.
Es soll nun je ein Satz von Eingangssignalen s, die dem V-ten eintretenden Ereignis e^ und ein weiterer Satz von Eingangs signal en s/**, die dem /u-ten eintretenden Ereignis entsprechen, definiert werden. In dieser Bezeichnung werden zwei Ereignisse ev und e/ auf Sätze s und ar von Eingangssignalen abgebildet, deren Verschiedenheit zu der Verschiedenheit der ursprünglichen Ereignisse in Beziehung steht. In einer Vektordarstellung die in der gesamten folgenden Betrachtung verwendet werden soll, führt dies zu der Vorstellung,; daß zwei Ereignisse, die einander ebenso ähnlich sind wie etwa eine weiße Katze und eine graue Katze, auf zwei Vektoren abgebildet werden, die annähernd parallel sind, während zwei Ereignisse, die so verschieden sind, wie etwa der Klang einer Glocke und das Aussehen von Nahrung, auf Vektoren abgebildet werden, die annähernd orthogonal zueinander sind.
Ist eine Eingangssignalverteilung in den Eingangssignalraum S gegeben, die Folge eines Ereignisses im Ereignisraum E ist, so geht die weitere Vorstellung dahin, daß diese
- 27 509851 /0806
A 15 519 - Vf -
Signalverteilung durch eine in der Pig. 5 mit einem einfachen Pfeil bezeichnete innere Abbildung A intern auf einen Satz R von Antwortsignalen abgebildet wird. Diese zweite Art der Abbildung ist in einer Weise abänderungsfähig, die im folgenden einzeln beschrieben werden soll.
Die tatsächlich zwischen den Eingangsstationen s und den Ausgangsstationen r der Nestor-Baugruppe bestehenden Verbindungen können zufällig angeordnet und weitschweifig sein, zwischen einer bestimmten Eingangsstation und einer bestimmten Ausgangastation können zahlreiche oder auch gar keine Verbindungen bestehen. Zum Zwecke der Erörterung soll jedoch das Netzwerk dahingehend idealisiert sein, daß jede mögliche Vielzahl von Verbindungen zwischen einer Eingangs- und einer Ausgangsstation durch ein einziges als Mnemonder bezeichnetes Übertragungselement, ersetzt wird, das die Auswirkung der gesamten Information, die von der Eingangsstation j in der S-Bank auf die Ausgangsstation i in der R-Bank übertragen wird, logisch zusammenfaßt. Wie die Fig. 6 zeigt, ist jede der N Eingangsstationen mit jeder der N Ausgangsstationen durch jeweils ein Übertragungselement © verbunden. Die Summierer arbeiten in der Weise, daß die Antwort oder das Signal an jeder Ausgangsstation beispielsweise das Signal i des Antwortsignalsatzes R also das Antwortsignal r-, aus den Eingangssignalen s. an allen Eingangsstationen für die
J
Signalverteilung S gemäß der Beziehung
ri ~~ .L. A- . s . gebildet wird,
3-1 1J 3
wobei A.. die Übertragungsfunktion des ij-ten übertragungselements oder Mnemonders ist. Dies ist die grundlegende Beziehung, die den Einfluß der Eingangssignale in (dem EingangsSignalraum) S auf die Antwortsignale
50985 1 /0806
- 28 -
A 15 519 -Οβ-
in (dem Satz von Auagangsantwortsignalen) R beschreibt. Obwohl ein befriedigendes Funktionieren der Nestor-Baugruppe eine derart spezielle Annahme nicht erfordert, (d.h.: r- muß nicht eine lineare Punktion aller N Ein gangssignale sein), erleichtert es die Einfachheit dieser Beziehung, die Ereignisse in einer explizierten analytischen Form anzugeben.
B. Verknüpfende (assoziierende) Abbildung, Speicherwirkung und logisch· Prozesse.
Die Erfalmng und der Gedächtnis inhalt der Nestor-Baugruppe werden in internen Abbildungen der Form A gespeichert. Im Gegensatz einer üblichen Speichereinrichtung, die lokal speichert (ein Ereignis wird an einem speziellen Speicherplatz gespeichert), und nach Speicherplätzen adressierbar ist, (was etwas zu Inhaltsverzeichnissen oder Ordnern Äquivalentes erfordert), ist das Gedächtnis (der Speicher) der Nestor-Baugruppe verteilt und nach Inhalt oder Verknüpfung (Assoziation) adressierbar.
Es soll im folgenden gezeigt werden daß die Abbildung A die Eigenschaften eines Speichers haben kann, der nicht lokal speichert, nach seinem Inhalt adressierbar ist und bei dem "Logik" ein Ergebnis von Verknüpfung und eine Folge der Beschaffenheit des Speichers selbst ist.
Die Abbildung A läßt sich am einfachsten auf der Basis der abgebildeten Vektoren angeben, die das System verarbeitet hat. Nach einem bevorzugten Algorithmus kann A definiert werden durch die Beziehung
A = l·* c/UV r' χ S^
- 29 50985 1 /0806
A 15 519 <J
in der die entsprechenden Sätze von Antwortsignalen auf dae •y-te uni/*-tö Kreigiua äv und ef1 jeweils r^ und r/1* sind und der Parameter c,uV den Koppelungskoeffizienten zwischen denV-ten Eingangssignalen s^ und den yu-ten AntwortSignalen τ/1 bedeutet. Wie aus dem folgenden hervorgehen wird, wächst der Koeffizient c normalerweise mit der Zeit an, wenn aufeinanderfolgende Ereignisse e auf die Ein-gangssignale s abgebildet, werden.
Das ij-te Element der Abbildung A beschreibt die Wirkung des Übertragungselements zwischen dem in der S-Bank auftretenden Eingangssignal s· und dem Antwortsignal r· in der R-Banl
ergibt sich:
in der R-Bank. Wenn nur s. von Null verschieden ist,
ri -
«£-» η λ iv) τ· / a y
wegen Α±^ » ^cyuv Γ±/ s^
ist die Wirkung des ij-ten Übertragungselements aus der gesamten Erfahrung des Systems zusammengesetzt, die sich in dem mit diesem Übertragungselement verknüpften Eingangs- und Ausgangssignalen wiederspiegelt. Jede Erfahrung oder Verknüpfung (yuV) wird jedoch über die gesamte Anordnung der NxN Übertragungselemente verteilt gespeichert.
Hierin liegt die wesentliche Bedeutung eines verteilten Speichers. Jedes Ereignis wird über einen großen Teil des Systems verteilt gespeichet, während an einem bestimmten Ort zahlreiche Ereingnisse überlagert sind.
-30-
509851/0806
A 15 519
30 _2&2_4734
1. Erkennung und Erinnerung
Das grundsätzliche Problem, das sich bei einem verteilten Speicher stellt, die die Adresse und die Genauigkeit des Abrufs der gespeicherten Ereignisse. Es soll zunächst der Diagonalanteil (A) diagonal der Abbildung A betrachtet werden, der folgendermaßen definiert ist:
(A) diagonal =*$? =JLj ολΛ) r χ s
Ein willkürliches, auf die EingangsSignaIe abgebildetes Ereignis e wird in R das Antwortsignal
r = As
erzeugen.
Wenn Erkennung mit der Stärke dieses Antwortsignals r, etwa dem Wert
N
(r, r) ä Σ r?
(des Skalaprodukts des Vektors r mit sich selbst, d.h. des Quadrats der Länge von r) gleichgesetzt wird, dann wird die Abbildung A zwischen solchen Ereignissen, die sie enthält (den sv,ν = 1,2,...,k) und anderen Ereignissen, die von diesen "getrennt" sind, unterscheiden können.
Das in diesem Zusammenhang benutzte Wort "getrennt" erfordert hier eine genauere Definition. Nach einer von J.A. Anderson, Math.Bio-sciences 8, 137 (1970) bei der Analyse eines verteilten Speichers angestellten Betrachtung wird angenommen, daß die Vektoren sv voneinander unabhängig seien und den Forderungen genügen, daß im Mittel
- 31 -
S09851/0806
A 15 519 M
N N19
Σ sV = O und Σ {β*Γ = 1 gelte.
Zwei solcher Vektoren weisen jeweils Komponenten auf, die im Verhältnis zueinander zufällig verteilt sind, so daß ein neuer Vektor s, der der oben definierten ErkennungsoperationH, dargeboten wird, zu einer rauschähnlichen Antwort führt, da im Mittel (s"^, s) klein ist. Die Darbietung eines zuvor wahrgenommenen Eingangs signalvektors, etwa s^ , führt jedoch zu der Antwort
+ Rauschen
Es wird dann gezeigt, daß man zu vernünftigen Signal/ Rausch-Verhältnissen gelangt, wenn die Zahl k der eingeprägten Ereignisse klein im Vergleich zu N ist.
Wenn getrennte Ereignisse als solche definiert werden,
ι ρ die auf orthogonale Vektoren s , s ,....sk abgebildet werden, dann iat zweifelsohne eine aus k orthogonalen
12 k
Vektoren s , s ,....s aufgebaute Erkennungsmatrix
vii C\)V rV x 3^ in der
12 k zwischen den enthaltenen Vektoren s , s ,....s und allen von diesen getrennten (zu diesen senkrecht verlau fenden) Vektoren zu unterscheiden.
Des weiteren ist die Antwort der Erkennungsproportion ?£ auf einen zuvor gespeicherten Vektor eindeutig und völlig exakt gegeben durch
- 32 -
50985 1/0806
A 15 519
In diesem speziellen Pall speichert der verteilte Speicher ebenso genau wie ein Speicher mit örtlich festgelegten Speicherplätzen.
Darüberhinaus kann ein verteilter Speicher, wie von H.C. Longuet-Higgins, Proc.R.Soc.Lond.B., 171,327 (1968) ausgeführt worden ist, die interessante Eigenschaft besitzen, daß ein vollständiger Antwortvektor r^ abgerufen wird, auch wenn nur ein Teil des Eingangssignalvektors s* dargeboten wird. Dies ist auch bei dem hier behandelten verteilten Speicher der Fall. Es sei sÄ = s* + s£
Wenn nur ein Teil von s , etwa S1 dargeboten wird, so erhält man
$s* » c^ (s^, s|)r^ + Rauschen.
Das Ergebnis ist dann, mit einem verminderten Koeffizienten, die vollständige Antwort wie auf den gesamten Vektor s , plus Rauschen.
2. Verknüpfung (Assoziation)
Die Darbietung des Ereignisses e , das den Vektor s erzeugt, führt zu einer Erkennung und Erinnerung, wenn gilt:
■λ \) Ό τ-*
Ms = er + Rauschen.
Dann können die Nicht-Diagonalglieder
nicht-diagonal -Jf- /U f=V" au1*' x s
- 33 -
5098 51/0806
A 15 519
(Das ZeichenJi soll "Assoziation" bedeuten) dahingehend interpretiert werden, daß sie zu einer Verknüpfung anfänglich voneinander getrennter Ereignisse führen.
v>
/1
für welche (s ,s ) = 0 gilt.
Denn wegen solcher Gleider wird die Darbietung des Ereignisses ev nicht nur den Vektor r^ erzeugen (was gleich bedeutend mit der Erkennung des Ereignisses e^ ist) sondern auch (vielleicht schwacher) den Vektor r/u, der bei der Dar bietung des Ereignisses e/u entstehen sollte. Wenn beispielsweise der Antwortsignalvektor r/ eine bestimmte Antwort einleitet(ursprünglich eine Antwort auf das Ereignis e/u), dann wird auch die Darbietung des Ereignisses eV diese Antwort einleiten, wenn c/uv* 0 ist,
Die Verknüpfungs- (Assoziations-)-Matrix kann daher wie folgt angegeben werden:
mit "&= (A) diagonal = J] cvv r^ χ
~ V
(Erkennung)
= (A) nicht-diagonal = Σ c
yuV r/^ χ s (Verknüp-7 fung)
Die Koeffizienten c _ . , dann die "direkten" Erkennungsund Verknüpfungskoeffizienten.
- 34 -
509851/0806
A 15 519 - 34 -
3. Verallgemeinerung
Im praktischen Erfahrungsbereich wären die Ereignisse, denen das System ausgesetzt wurde, im allgemeinen nicht sehr deutlich getrennt oder in einem statistischen Sinne unabhängig voneinander. Es gibt daher keinen Grund, zu erwarten, daß alle Vektoren sv , die der Abbildung A aufgeprägt werden, orthogonal zueinander oder sehr weit voneinander entfernt wären. Vielmehr ist es wahrscheinlich, d£ oft zahlreiche solcher Vektoren nahe beieinander liegen. Unter solchen Umständen kann ein verteilter Speicher, wie er in der Abbildung A enthalten ist, verwirrt werden und Fehler machen. Er wird Ereignisse "erkennen" und "zuordnen", die in Wirklichkeit nie zuvor wahrgenommen oder miteinander veknüpft worden sind.
Zur Veranschaulichung sei angenommen, daß das System einer Klasse von nicht-getrennten Ereignissen (e ...e j : Ie06J ausgesetzt worden ist, die auf den k Vektoren [s ...s j : {s^l abgebildet werden. Die Nahe der abgebildeten Ereignisse kann in einem linearen Raum mit Hilfe des Begriffs der "Gemeinsamkeit" ausgedrückt werden. Die Gemeinsamkeit eines Satzes von Vektoren, wie die der obengenannten Klasse {s0^ soll als die untere Grenze des inneren Produkts (su, s ) zweier beliebiger Vektoren dieses Satzes definiert sein. Speziell ist die Gemeinsamkeit cts01"] eines Satzes von Vektoren gleich dem Wert P , d.h. C[S04J=T, wenn Γ die untere Grenze von (su, s ) für alle su und s ausis ist.
Wenn jede Darbietung eines Ereignisses zu einem Beitrag eines Elementes der Form CyVr χ s zu A (oderfö) führt, dann ist die Antwort auf ein Auftreten des Vektors s aus dieser Klasse, d.h. wenn su £,{3°^ ist,gegeben durch
- 35 509851/0806
A 15 519 -
_ _7 V/ V Uv u
- r -^,c^r \s , s )- cr
mit (sV, su)>P
Wenn Γ groß genug ist, so wird sich deswegen das Antwortsignal auf su nicht deutlich von demjenigen auf einem anderen Vektor s aus der Klasse (s0^unterscheiden.
k+1 Wenn dem System ein neues Ereignis e , das zuvor noch nicht wahrgenommen worden ist, dargeboten wird und dieses Ereignis der Nahe der anderen aus der Klasse <*. liegt, (Beispielsweise sei angenommen, daß das Ereig-
k+1 k+1
nis e auf dem Vektor s abgebildet wird, der ein Element der Gemeinsamkeit [s^ist), dann wird gemäß 1Rs ein Antwortsignal erzeugt, das von demjenigen nicht zu verschieden ist, das für einen der Vektoren su ijiß^
k+1 erzeugt wird. Daher wird das Ereignis e erkannt werden, obwohl es zuvor nicht wahrgenommen worden ist.
Dies stellt natürlich möglicherweise einen gravierenden Irrtum dar. Denn der Assoziativ-Speicher erkennt und ordnet dann Eigenschaften Ereignissen zu, die in dieselbe Klasse wie bereits erkannte Ereignisse fallen. Wenn die Vektoren s der Klasse in Wirklichkeit von der Form
s = s° + η sind,
wobei der Rauschanteil η zufallsverteilt variiert, dann wird der Anteil s gegebenenfalls deutlicher erkannt werden als irgendeiner der tatsächlich dargebotenen speziellen Vektoren sv.
- 36 -
50985 1/0806
A 15 519
Auf diese Weise kann beispielsweise ein wiederholt auftretendes Signal aus dem Rauschen herausgeholt werden. Hier ist explizit etwas verwirklicht, was in freier Ausdrucksweise als "Logik" bezeichnet werden könnte selbstverständlich aber durchaus nicht logisch ist. Vielmehr könnte das, was eintritt, als das Ergebnis einer eingebauten Anweisung zur Verallgemeinerung beschrieben werden. Der verknüpfende (Assoziativ-)-Speicher führt seinem Wesen nach den Schritt
s° + u , s° + u f...,s°+u —»s° aus,
der in Worten als Übergang vom Speziellen (z.B. Katze 1, Katze 2, Katze 3···.) zum Allgemeinen ("Katze") beschrieben werden kann.
Wie schnell dieser Schritt ausgeführt wird, hängt (wie aus dem nächsten Abschnitt ersichtlich sein wird) von den Parametern des Systems ab. Durch Änderung dieser Parameter ist es möglich, Abbildungen zu konstruieren, die sich von solchen, die alle dargebotenen Einzelheiten bewahren, zu solchen umwandeln, die die Einzelheiten verlieren und nur gemeinsame Elemente, die zentralen Vektoren jeder Klasse, beibehalten.
Zusätzlich zu Fehlern bei der Erkennung macht der verknüpfende (Assoziativ-)-Speicher auch Fehler bei der Verknüpfung. Wenn beispielsweise alle (oder mehrere) Vektoren der Klasse {s°^mit einer ziemlich großen Gemeinsamkeit mit einem speziellen Antwortsignalvektor ß verknüpft werden, so daß die Abbildung Ausdrücke der Form
K, Ω V
4.jCflV> r*3 χ s mit cm £ 0 für zahlreiche
V= 1,2 ...k
k+1 enthält, dann wird ein neues Ereignis e , das wie im vori-
k+1 gen Beispiel für den Eingangssignalvektor s abgebildet
509851/0806
- 37 -
A 15 519
wird, nicht nur erkannt werden, weil (IRs + , 3ls + ) groß ist, sondern wird auch in derselben Stärke wie irgendein Vektor aus {s^mit dem Antwortsignalvektor r^ gemäß
A = sk+1 = er/9
verknüpft werden.
Wenn Erkennungsfehler zu dem in Worten als Übergang vom Speziellen zum Allgemeinen bezeichneten Vorgang führen, so könnten Zuordnungsfehler als Übergang von Einzelheiten zu einer universellen Aussage beschrieben
1 2 werden, derart: Katze miaut, Katze miaut,... ·} alle
Katzen mi au en.
Es gibt selbstverständlich keine "Rechtfertigung11 für diesen Vorgang. Er vollzieht sich als eine Folge des Aufbaus des Systems. Welche Wirksamkeit es entfaltet, wird von dem Zustand der Umwelt abhängen, in der sich das System selbst befindet.
Durch eine Folge von Abbildungen der obigen Form (oder durch Rückkopplung des AusgangsSignaIs der Abbildung A auf sich selbst) erhält man ein Geflecht von Ereignissen und Verknüpfungen:
\^£ * USW.
das sowohl reichhaltig als auch suggestiv ist. Man erkennt leicht die Möglichkeit, daß der Verlauf elektrischer Aktivität sowohl durch interne Abbildungen der Form A als auch durch die äußere Signaleingabe beeinflußt wird.
- 38 509851 /0806
A 15 519 ^° - 36 -
Dieser Verlauf wurd nicht nur durch direkte Verknüpfungs-(Assoziations-)-Koeffizienten c , (die, wie im folgenden beschrieben wird, explizit erlernt werden können) bestimmt, sondern auch durch die indirekten Verknüpfungen als Folge einer Überlappung der abgebildeten Ereignisse, wie es in der Fig. 7 angedeutet ist. Zusätzlich ist leicht vastellbar, daß es Situationen geben könnte, in denen der direkte Zugriff zu einem Ereignis oder einer Klasse von Ereignissen verlorengegangen ist ^0TS" = ö in Pig· 7), während das Vorhandensein dieses Ereignisses oder der Klasse von Ereignissen in A trotzdem den Verlauf elektrischer Aktivität beeinflußt.
4. Trennung von Vektoren
Jeder Zustand in einem verteilten Speicher ist im allgemeinen eine Überlagerung verschiedener Vektoren. Es muß daher ein Mittel gefunden werden, mit dessen Hilfe Ereignisse (oder Gebilde, auf die sie abgebildet werden) voneinander unterschieden werden können. Hierzu gibt es verschiedene Möglichkeiten,:
Es ist durchaus nicht schwierig, sich nicht-linear arbeitende oder Schwellenwert-Einrichtungen vorzustellen, die einen Vektor von einem anderen trennen würden. Aber das Auftreten eines Vektors der Klasse {s°iführt in einem verteilten Speicher zu einem Satz von Antworten, die über eine große Zahl von Antwortsignalen r · verteilt sind, deren jedes weit von dem Schwellenwert entfernt ist. Ein grundlegendes Problem besteht daher darin, auf welche Weise der Schwellenwert einer einzigen Antwort mit einem solchen verteilten Signal in Verbindung gebracht werden kann. Wie dies geschehen könnte, wird in einem späteren Abschnitt beschrieben werdgi.
- 39 50985 1/0806
A 15 519
Zusätzlich zu dem Auftreten solcher Schwellenwert-Ausgangssignale läßt sich in gewissem Umfang eine Trennung dem System eingegebener Signale durch eine tatsächliche Bestimmung derjenigen Bereiche erreichen, in denen diese Signale auftreten. Beispielsweise könnten optische und akustische Signale einer umfangreichen Verarbeitung unterzogen werden, bevor sie tatsächlich in einer Nestor-Baugruppe zusammentreffen.
Es ist möglich, die Identifizierung optischer oder akustischer Signale (als optisch oder akustisch) zuvor stattfinden zu lassen; Verknüpfungen zwischen einem optischen und einem akustischen Ereignis könnten dann anschließend in einer zweiten Verarbeitungsstufe, die von der Antwortbank R zu einer zweiten Antwortbank H führt, stattfinden, wie es in der Fig. 8 angeregt ist.
C. Abänderung der Baugruppe, Lernen
Das ij-te Element A-. der verknüpfenden Abbildung A
J- j
1, - Σ c r/u S^ (1) J /uv /uv '' J
ist eine gewichtete Summe über die 3-!Componenten aller abgebildeten Signale (Eingangssignalvektoren) s und die i-Komponenten der Antwortsignalvektoren r/u die für eine Erinnerung und Zuordnung geeignet sind.
Eine solche Abbildung kann beispielsweise dadurch erreicht werden, daß der Gewichtungsfaktor eines jeden Übertragungselements so eingestellt wird, daß sein Wert gleich dem entsprechenden oben angegebenen Element A- · ist. Dies ist die einfachste Art, in der die Neator-Baugruppe betrieben werden kann.
-40-50985 1 /0806
A 15 519 - Λ» -
Eine äußerst wichtige Eigenschaft der Nestor-Baugruppe ist ihre Fähigkeit zur Selbstabänderung. Wenn die Nestor-Baugruppe in einem Lezrbetriebszustand arbeitet, so ändert sie die Gewichtungsfaktoren ihrer Übertragungselemente so ab, daß (abgesehen von einer später noch beschriebenen gleichförmigen Abnahme) gilt:
SA. . ~r,s (2),
J-J -1- J
Diese Änderung 6a. . ist zu dem Produkt aus dem Eingangssignal s. und dem Antwortsignal r. proportional. Abän-
j J-
derungen der Gewichtungsfaktoren, die nur zu dem Eingangssignal s . oder zu einem unmittelbar am Ausgang eines Übertragungselemente auftretenden Zwischensignal s.f pro-
portional sind, sind ebenfalls möglich, jedoch führen solche Abänderungen nicht zu den verschiedenen, hier behandelten Eigenschaften. Das Hinzufügen solcher, durch die obige Proportionalität (2) angegebener Änderungen in A für alle Verknüpfungen r/0' χ s führt ebenfalls zu einer Abbildung mit den im vorhergehenden Abschnitt behandelten Eigenschaften.
Um eine Abänderung der Gewichtungsfaktoren A.. gemäß
6A^r/U χ sV (3)
durch einen Selbstabänderungsvorgang der Nestor-Baugruppe zu erreichen, sollte die Signalverteilung s in der S-Bank und die Signalverteilung s/u in der R-Bank der Nestor-Baugruppe vorhanden sein, wobei die Eingabe der Signalverteilung s^ durch die Eingangsabbildung P des Ereignisses e^ erfolgt.
- 41 -
509851/0806
A 15 519 -JA-
Bei dem als"aktives Lernen" bezeichneten Vorgang kann der Nestor-Baugruppe ein Eingangssignal s^ dargeboten und die Nestor-Baugruppe "gezwungen" werden, ein "konkretes" Antwortsignal, etwa r , abzugeben. Dies kann beispielsweise mit einer Einrichtung der in Pig. 9 dargestellten Art erreicht werden, bei der die erwünschten Antwortsignale r1 A, r2A'* * *riA'*" * *rNA an die AusSangS3'ta'tionen 1, 2,....,j,....,N angelegt werden können, um die Antwortsignale r.., r2, ...r-,....rN dadurch zu zwingen, diese erwünschten Werte anzunehmen. Da die Ausgangssignale in der Nestor-Baugruppe zur Abänderung der Elemente A.· nach der obigen Proportionalität (2) d.h., gemäß <JA· ·= χ. (wo i\ eine Proportionalitätskonstante ist) benutzt werden, baut die Nestor-Baugruppe bei wiederholtem Anlegen der Eingangssignale s* sehr schnell eine detaillierte und genaue Erinnerung des Antwortsignalvektors r an den EingangsSignalvektor s* auf.
Der Begriff "aktives Lernen" beschreibt auch eine Art des Lernens, bei der eine Antwort des Systems auf einen Satz von Eingangssignalen mit einer erwarteten oder erwünschten Antwort verglichen und als korrekt oder inkorrekt beurteilt wird. Wenn in diesem Fall dem System ein Eingangssignal s^ dargeboten wird, kann die hierauf gegebene Antwort r/U des Systems mit der "richtigen Antwort" rü verglichen werden, und es können die Elemente A-· zu einer schrittweisen Änderung in einer Richtung veranlaßt werden, die zu einer näher bei r'J liegenden Antwort führen würde, wenn das Eingangssignal s'*' erneut angelegt werden würde.
Es ist offensichtlich, daß bei einem aktiv lernenden System deaaen Bedienungsperson die richtige Antwort r auf die verschiedenen EingangssignaIe s kennen muß. Die Nestor-Baugruppe ist jedoch noch einer weiteren, als "passives Lernen" bezeichneten Betriebsart fähig, die kein Ein-
- 42 50985 1 /0806
A 15 519 -
greifen einer Bedienungsperson erfordert. Insbesondere ist die Nestor-Baugruppe in der Lage, Merkmale der Umgebung, der sie ausgesetzt ist, zu identifizieren, zu erkennen, abzurufen, zu verallgemeinern oder zu verknüpfen, selbst wenn keine vorhergehende Analyse oder Identifizierung dieser Merkmale der äußeren Umgebung durchgeführt worden ist. Bei dieser Art des Lernens muß die Bedienungsperson nicht einmal Kenntnis von den wesentlichen Merkmalen der Umgebung besitzen, die von der Nestor-Baugruppe ermittelt und verarbeitet werden sollen.
Um einen Algorithmus zu erhalten, der einen passiven Lernprozeß erzeugt, wird ein Unterschied zwischen der Bildung einer internen Darstellung von Ereignissen der Außenwelt einerseits und der Erzeugung einer Antwort auf dieses Ereignis, die mit dem verglichen wird, was in der Außenwelt erwartet oder erwünscht ist, andererseits, benutzt.
Der einfache aber wesentliche Grundgedanke besteht darin, daß die interne elektrische Aktivität, die in einer bestimmten Baugruppe das Vorhandensein eines äußeren Ereignisses anzeigt, nicht notwendig dieselbe elektrische Aktivität ist, die in einer anderen Baugruppe das Vorhandensein desselben Ereignisses anzeigt. Es gibt nichts, was erfordern würde, daß dasselbe äußere Ereignis durch verschiedene Baugruppen auf dieselben Signalverteilungen gebildet werden müsse. Ein Ereignis, das durch die eine Baugruppe auf die Signalverteilungen r und s abgebildet wird, kann in einer anderen Baugruppe auf die Signalverteilungen r1^ und s1^ abgebildet werden. Was gegebenenfalls für eine Übereinstimmung zwischen Baugruppen hinsichtlich ihrer Beschreibung der Außenwelt erforderlich ist, ist nicht, daß die abgebildeten elektrischen Signale identisch sind, sondern
- 43 509851/0806
A 15 519 - -43 -
vielmehr, daß das Verhältnis der Signale zueinander und zu Ereignissen in der Außenwelt dasselbe sein muß. Die Pig. 10 zeigt dieses Prinzip in grafischer Form:
1. Passives Lernen Es sei mit A^ ' die Α-Matrix (d.h. der Satz der A- 's) nach der Darbietung von t Ereignissen (im"Zeitpunkt" t) bezeichnet:
A(t) =yA(t-D +6A(t) mit
In dieser Gleichung bezeichnetη , wie oben erwähnt, eine Proportionalitätskonstante, undy eine dimensionale "Zerfallskonstante", die ein Maß für die gleichförmige Abnahme von Information an jeder Stelle ist, (eine Art Vergessen). Gewöhnlich gilt 0 <,£<. 1 .
Des weiteren wird ein Parameter £als derjenige Wert in »£ eingeführt, den ^ annimmt, wenn die Eingangssignalvektoren s nominiert sind.
Der Parameter 6, der ein Maß für die Geschwindigkeit ist, mit der Veränderungen an den Α-Matrizen vorgenommen werden (also eine Art der Lerngeschwindigkeit), wird in Modellrechnungen für nominierte Eingangssignalvektoren
t ■ c
s benutzt werden. Die Werte der Parameter tf,% und «^ können nach dem Ermessen des Benutzers eingestellt werden, um erwünschte Systemeigenschaften zu erzielen. Beispielsweise könnten während einer Periode der Informationsaufnahme (Lernen oder Programmieren) 7? oder £. etwas größer als 0 (z.B.17 ps£cr ^0) und g* etwas kleiner als 1 sein (z.B.
B0985 1 /0806
A 15 519 -M-
)f ~ 9/io) t so daß das System Information rasch aufnehmen und Einzelheiten vergessen wird. Nach der Aufnahmeperiode kann es zweckmäßig sein, I^ = £. = 0 undy~1 zu setzen,so daß das System nicht langer "lernen" sondern für eine beliebige Zeitspanne alle Information, die es aufgenommen hat, speichern wird.
Bei einer in Betrieb befindlichen Baugruppe ist diese Speicherzeit durch die Zeitkonstantencharakteristik der Schaltkreise bestimmt. Aus Gründen der Wirtschaftlichkeit oder der Zweckmäßigkeit können die Zeitkonstanten so gewählt werden, daß eine Speicherung für Zeitspannen in der Zeit von Minuten bis Stunden möglich ist. Pur eine längere Speicherung könnte man unter solchen Umständen den Inhalt des verteilten Speichers (beispielsweise die Werte der A- .) in einen Pufferspeicher übertragen und bei Bedarf zurückübertragen.
Im allgemeinen vergißt ein System, bei dem £<1 ist, Einzelheiten, hat aber eine größere Fähigkeit zur Verallgemeinerung. Es zeigt sich, daßjf-Werte, die wenig kleiner oder gleich 1 sind, von größtem Interesse sind.
Um zu verhindern, daß das System in einen Sättigungszustand gelangt, ist es auch zweckmäßig, die Abänderungen klein zu machen (η = O zuzulassen), wenn das Ausgangssignal r=As ein bestimmtes Maximum überschreitet, d.h. wenn (r,r)=(As,As^bestimmtes Maximum.
Im folgenden sollen alle Vektoren nominiert sein, d.h. (s, s) = 1, so daß £ nunmehr als konstant dimensionslos angenommen werden soll.
Wenn nun das Antwortsignal durch
r*= JfA^ 's +rR + r* gegeben ist,
5098S1/D806
- 45 -
A 15 519 - 4-5 -
so erkennt man, daß das gesamte Antwortsignal aus
3 Termen zusammengesetzt ist: einem passiven Antwortet— 1) t
teil ifAv 's , einem aktiven aber statistisch variierenden Term rR und einem aktiven Antwortteil r.. Pur rein passives Lernen soll nur der erste Term betrachtet werden, so daß
£A(t) -gr* χ β* =e)TA(t-1)st χ st ist.
Hier sind die Antwortsignale gerade diejenigen, die durch
(t—1)
die existierende Abbildung Av ' erzeugt werden, wenn
der Vektor s in S auf R abgebildet wird, gemäß: Der Algorithmus für passives Lernen lautet dann:
A(t) β A(t-i)(^at x st)
wobei im allgemeinen £ wesentlich kleiner ist als 1. Bevor irgendwelche äußeren Ereignisse dargeboten worden sind, hat A die Form A*° , die zufällig sein kann. Die Auswirkung von A^ ' auf die interne Abbildung wird im folgenden untersucht werden.
Nach diesem Algorithmus hat A nach k Ereignissen die Form:
V= 1
wobei TT ein geordnetes Produkt ist, bei dem die Paktoren mit niedrigeren Indizes links stehen.
TT0 s(V) = s(1) s(2) s(k).
- 46 -
509351 /0806
A 15 519 - 46 -
Dies kann auch in der Form geschrieben werden: A(k) =tfkA(o)[n£| sVx s*+i2Σ s v x
....+tV χ sk1, s2)(s2, s3)(s3, s4)..(sk-1'ak)]
Der Algorithmus für passives Lernen erzeugt auf einen auftretenden Eingangssignalvektor sv, sein eigenes Antwortsignal A^°'sv , das über A^0' von dem ursprünglichen Zustand des Netzwerkes und von dem für das Ereignis e^ eingegebenen Eingangssignalvektor sv abhängt. Wenn beispielsweise sv der einzige dargebotene Vektor ist, so nimmt A gegebenenfalls die Form Arvrvx sv an
mit pv» A(o)sv
2, Spezialfalie von Αϊ Es soll nun die Form von A für vierschiedene Spezialfälle dargelegt werden; in allen diesen Fällen wird £ als konstant und klein vorausgesetzt.
a) Wenn die k Vektoren orthogonal sind, wird A: A(k) ^k (a(o)+£a(o) ^8Vx
Mit A^°^sV= rV nimmt der zweite Term die Form des Diagonalanteils von A an, gemäß
(A) diagonal =&= Σ r^x & ~ V = 1
1 k und wird zur Erkennung der Vektoren s s dienen.
(Zu besaiten ist dabei, daß die zugeordneten Vektoren r nicht von vornherein gegeben sind, sie werden durch das Netzwerk erzeugt).
50 9851/0806
A 15 519
Wenn £. jedoch klein ist, könnte dies ungeeignet für die Erkennung sein, da der Erkennungsterm schwach ausgeprägt wäre. Weiter wird es gewöhnlich zweckmäßiger sein, wenn die Erkennung so eingerichtet ist, daß sie nur dann stattfinden kann, wenn dasselbe Ereignis mehrfach dargeboten worden ist.
b) Das folgende Beispiel zeigt, daß der Algorithmus für passives Lernen bei wiederholt auftretenden Eingangssignalen desselben Ereignisses Erkennungskoeffizienten sogar mit exponentieller Geschwindigkeit aufbaut. Wenn derselbe Vektor s°X-mal dargeboten wird, wird A schließlich
C0 ^ίΑ(ο) (1 + eXiχ s°).
A ^
Wenn £ groß genug ist, daß e »1 ist, so wird der Erkennungsterm schließlich dominieren. Wenn e groß genug ist, kann es wünschenswert sein, den Wert von E so einzustellen, daß kein weiteres Anwachsen eintritt. Das kann dadurch erreicht werden, daß £. zu einer Punktion des Antwortsignals auf einen Eingangssignalvektor gemacht wird, derart, daß jenseits eines gewissen Maximalwerts kein weiteres Anwachsen des Koeffizienten mehr stattfinden kann.
c) Die L,£p,.....£ -malige Darbietung von m orthogonalen Vektoren führt zu einer einfachen Verallgemeinerung des zweiten Ergebnisses. Wenn^der Einfachheit halber gleich 1 gesetzt wird, ergibt sich:
was gerade einer isolierten, zuordnenden Erkennungs- und
- 48 -
5098b 1 /08Ü6
A 15 519
Abrufmatrix ,, ^
m cvv r χ s entspricht,
wenn
e* = cvv» r ist.
d) Ein Teil der Wirkung der Nicht-Orthogonalität kann dadurch dargelegt werden, daß das Ergebnis eines Eingangssignals berechnet wird, das aus/mit Rauschen behafteten Vektoren besteht, die zufällig um einen zentralen Vektor s verteilt gemäß
V ο V
s=s + η
ir bedeute hier einen "stochastischen Vektor" (d.h. einen Vektor, der regellos variiert), dessen Größe verglichen mit derjenigen von s° gering ist.
Dann ergibt sich,
1+e s° χ s ) wenn
η die mittlere Größe von n^ ist. Man erkennt, daß das
(9)
erzeugte AV/W mit dem zusätzlichen, durch das Rauschen bedingten Faktor gerade in der für die Erkennung von s° geeigneten Form ist. Das wiederholte Darbieten eines mit Rauschen behafteten Vektors der obigen Form führt somit zu einer internen Abbildung die den zentralen Vektor s erkennt. Dies wiederum bietet eine Möglichkeit, ein Signal vom Raumschen zu trennen.
3. Struktur des abgebildeten Raumes; Die Gemeinsamkeiten oder getrennten Klassen des äußeren Ereignisraumes E oder des Eingangssignalraumes S werden dieselben sein wie diejenigen des durch die Abbildung erzeugten Antwortsignalraumes R, wenn gilt:
- 49 -
5098b 1 /0806
25^4734
mit r = AN ' s
Dies wird der Pall sein, wenn A ' der Bedingung
(A0') A^0^ = I (I= Identitätsmatrix) (4) genügt oder wenn
VA (ο) Α («Ο -. ■
Z, ij ik ο jk ist mit o^="· für j=k
i=1 =0 für z$k
da dann folgt, daß
(^ Jh _ ^(o)^ A(o) Δ ν _ ,öl j3n
Dies kann leicht eingerichtet werden. Wenn beispielsweise
A^ ' = I gewählt wird, dann ist die Relation (4) erfüllt, und der S-Raum wird auf sich selbst abgebildet:
Es ist interessant, festzustellen, daß auch eine zufällige Matrix A^0' im Mittel die Anforderungen (4) erfüllt. Es sei angenommen, daß A eine zufällige, symmetrische Matrix ist, und die folgenden Bedingungen erfüllt:
N (o)
S A\ ϊϋ für alle j,
Ί
N ,. , N für 3+k während
ür o=k
- 50 -
50985 1 /0806
A 15 519 -
Die Bedingung (4) ist somit erfüllt, daher führt eine wie oben definierte zufällige Matrix A^0' zu einem Antwortsignalraum mit denselben Gemeinsamkeiten und Klassen wie der ursprüngliche Signalraum.
4. Verknüpfung term e
Außer-Diagonalt-erme oder Zuordnungstenne können wie folgt erzeugt werden:
Es sei angenommen, daß die Matrix A die folgende Form erreicht habe:
A =£ A(o) svx sV = I rvx s° V=1 v = 1
Es sollen nun die Ereignisse e0*- und e^ so dargeboten werden, daß sie "verknüpft" (assoziiert) sind, so daß die Eingangssignalvektoren s°* und s^ zusammen auftreten oder abgebildet werden.(Die exakten Bedingungen, die zu einer solchen gleichzeitigen Abbildung von s** und s^ führen, werden vom Aufbau des Systems abhängen. Die einfachste vorstellbare Situation ist die, daß die Abbildung in dem Vektor (s0* + s ß ) besteht, wenn die Ereignisse e0*· und er dem System in einem genügend kleinen zeitlichen Abstand voneinander dargeboten werden). Es kann angenommen werden, daß die Ereignisse e0*" und eP getrennt sind, so daß (s0* , s P ) = ο ist. In der S-Bank liegt dann, wenn der Vektor der Einfachheit halber normiert ist, der Vektor
V 2 vor.
Nach einer solchen Darbietung der Ereignisse e^und e" erhält man dann für die Matrix A, wenn wieder der Einfachheit halber "^ = 1 gesetzt wird:
- 51 -
50985 1 /0806
A 15 519
Der zweite Term ergibt dann die Verknüpfung zwischen oi.und/3 mit den Koeffizienten
der im allgemeinen (abgesehen von den speziellen Umständen) als kleiner Koeffizient am günstigsten ist. Wenn s^und s P nicht wieder miteinander verknüpft auftreten so bleiben die Koeffizienten C01R oder cß^Cobwohl auch sie anwachsen, wenn 3U oder s β getrennt dargeboten werden) klein im Vergleich zu den jeweiligen Erkennungskoeffizienten, cog oder
Wenn jedoch der Vektor =wj\ ( s0*' +sr) mehrfach auftritt, (beispielsweise Jl. - mal erscheint), dann gilt für den Koeffizienten C0^ des Verknüpfungs-Termes
und dieser wird ebenso groß wie der Erkennungskoeffizient.
Mit den vorigen Ergebnissen ist gezeigt, daß der Eingangssignal- und der Antwortsignalraum zusammen mit der Abbildung die sie miteinander verknüpft, eine Struktur beinhalten, die zu der ursprünglichen Struktur der äußeren Umgebung oder des Ereignisraumes E analog ist. Das bedeutet folgendes:
(1) Die Klassen oder Gemeinsamkeiten des Antwortsignalraumes R sind dieselben, wie diejenigen des Ereignisraumes E oder des Eingangssignalraumes S.
(2) Klassen oder Ereignisse, die im Ereignisraum miteinander verknüpft sind (solche die während einer Lernperiode in Verbindung miteinander auftreten) werden auch im Antwortsignalraum miteinander verknüpft, so daß das Auftreten eines
50985 1/0806
- 52 -
A 15 519 - 02 -
einzelnen Repräsentanten, der im Ereignisraum E und damit auch im EingangsSigna!raum S miteinander verknüpfte Klassen oder Ereignisse nach der Lernperiode dazu führt, daß beide Repräsentanten der miteinander verknüpften Klassen oder Ereignisse auf den Antwortsignalraum R abgebildet werden, auch wenn es sich um sehr unterschiedliche Arten von Ereignissen handelt.
5. Trennung von Ereignissen - Schwellenwerteinrichtungen; Im obigen wurden lineare Abbildungen und Räume behandelt. Ein Zustand ist demzufolge im Allgemeinen eine Überlagerung verschiedener Vektoren. Um die Ereignisse- oder die Signale, auf die sie abgebildet werden - voneinander zu unterscheiden, kann eine Schwellenwert- oder eine andere nicht-lineare Einrichtung in das System ein-gefügt werden. Eine Trennung abgebildeter Signale kann mittels einer Bestimmung derjenigen Ereignisbereiche erfolgen, in denen diese Signale auftreten. Beispielsweise können, wie es in der Fig. 8 dargestellt ist, optische und akustische Signale einer Verarbeitung in getrennten Baugruppen unterworfen sein, bevor sie tatsächlich in einer gemeinsamen Baugruppe zusammentreffen. Die Identifizierung optischer und akustischer Signale würde dann zuerst durch die Baugruppe erfolgen, in die sie anfänglich eingegeben werden. Verknüpfungen zwischen einem optischen und akustischen Ereignis würden dann erst in der gemeinsamen Baugruppe zustande kommen.
Ein Ausführungsbeispiel einer Schwellenwerteinrichtung wird im folgenden beschrieben. Da ein Signal in einem verteilten Speicher über eine große Anzahl von Eingangsund Ausgangsstationen verteilt ist, könnte auch ein starkes
- 53 -
50985 1/0806
A 15 519 -
Signal (mit einem großen s0*- , s^J-Wert aus Komponenten s^ zusammengesetzt sein, die jeweils recht klein sind. Ein grundlegendes Problem ist es daher, wie der Schwellenwert einer einzelnen Einrichtung mit einem solchen verteilten Signal zu verknüpfen ist. Dieses Problem kann dadurch gelöst werden, daß zu der Haupt-Baugruppe, wie es in der Pig. 11 dargestellt ist, Schwellenwerteinrichtungen T. Tp, .....T^,...Tn hinzugefügt werden. Beispielsweise gibt die Schwellenwerteinrichtung T. ein
Il ■*■ r| ihres Eingangssignals r. einen vorbestimmten Wert0i, den Signalschwellenwert der Einrichtung, überschreitet, wenn also gilt:
> Qi
Es ist wichtig, festzuhalten, daß das Anfangs-Eingangssignal s0*- entweder ein ursprüngliches Eingangssignal aus dem Ereignisraum E oder auch das Ausgangssignal einer vorgeschalteten Baugruppe sein könnte.
Eine wiaterholte Eingabe des Eingangssignals s^(Eingangssignalvektors) führt zu einem Ausgangssignal r^ (Ausgangssignalvektor) , das nach den obigen Darlegungen exponentiell anwächst. Im Ergebnis wird daher ein willkürliches aber wiederholt auftretendes Eingangssignal 3°^ schließlich eine Schwellenwerteinrichtung aktivieren, die auf dieses Eingangssignal ansprechen wird.
Es ist wichtig festzuhalten, daß
(a) das Eingangssignal nicht von vornherein bekannt sein muß,
(b) das Eingangssignal in statistischem Rauschen verborgen sein kann, und daß
- 54 50985 1/0806
A 15 519 - 54 -
(c) auch nicht von vornherein bekannt sein muß, welche Schwellenwerteinrichtung auf das Signal s06ansprechen wird. (Nach dem angegebenen Algorithmus bestimmt die stärkste Komponente des Antwortsignalvektors r0^, welche Schwellenwerteinrichtung anspricht. Durch eine einfache Abänderung könnte eine bestimmte Schwellenwerteinrichtung auch so ausgestaltet werden, daß sie auf einen bestimmten Signalvektor anspricht.
Mit zusätzlichen Querverbindungen gemäß Pig. 11 läßt sich erreichen, daß die Aktivierung einer einzelnen Schwellenwerteinrichtung als Antwort auf einen Signalvektor s04" ein Antwortsignal der weiteren Schwellenwerteinrichtungen auf diesen Signalvektor s00 unt erdrückt. Wenn der Parameter während der Aufnahmeperiode kleiner als 1 ist, (#<£l) und s^ die Schwellenwerteinrichtung T. zum Ansprechen bringt, dann würde das Antwortsignal auf s^ wegen der kombinierten Wirkung der Abnahme (wegen"^d) und der Unterdrückung weiterer AntwortSignalkomponenten so abgewandelt werden, daß nur die i-te Komponente des AntwortSignalvektors r0* auf den üingangssignalvektor s06wesentlich größer als 0 bleiben würde. In einem Endzustand würde sich dann ergeben:
s* » r, V^ »Ausgangssignal.
Somit könnte eine einzige Schwellenwerteinrichtung (oder so viele, wie erwünscht sind) auf eine bestimmte Signalverteilung ansprechen.
- 55 -
609351/0806
A 15 519
Zusätzlich ist es zweckmäßig, die mit dem i-ten Schwellenwertelement verknüpften Übertragungselemente nicht weiter abzuändern (jedoch eine Abnahme der Übertragungsfunktionen zuzulassen), wenn dieses i-te Schwellenwertelement ein Ausgangssignal erzeugt, das einen bestimmten Maximalwert überschreitet. Dies kann dadurch erreicht werden, daß die Abänderungen der oben erwähnten Übertragungselemente für eine bestimmte Anzahl von Ereignissen beendet werden, so oft das Ausgangssignal des Schwellenwertelements den bestimmten Maximalwert überschreitet.
Wenn einem solchen System während einer Lernperiode getrennte oder orthogonale Signalvektoren dargeboten werden, so werden die Schwellenwerteinrichtungen mit der oben erläuterten exponent!eilen Geschwindigkeit durch die verschiedenen Signalvektoren aktiviert werden. Somit würden beispielsweise N orthogonale, wiederholt auftretende Signale nach einer Lernperiode in N verschiedenen Schwellenwerteinrichtungen ein Antwortsignal erzeugen.
Auf diese Weise könnten die Schwellenwerteinrichtungen lernen, auf wiederholt auftretende Erscheinungen in der Umgebung zu antworten, auch wenn diese dem Benutzer nicht bekannt wären.
Eine Zuordnung dieser Einrichtungen zu Ausgangssignalen einer vorgeschalteten Baugruppe würde zusätzlich die Trennung der oben erwähnten Ereignisse oder Vektoren begünstigen.
Schließlich ist aus der oben gegebenen theoretischen Erläuterung der Erfindung festzuhalten, daß die Nestor-Baugruppe ein äußerst wirkungsvolles Werkzeug für die Informationsverarbeitung darstellt. Insbesondere bietet
509851/0806 -56-
A 15 519 -ν - 96 -
diese Baugruppe Möglichkeiten der Erkennung, Erinnerung, Verallgemeinerung und Verknüpfung im oben definierten Sinn, ohne daß die Notwendigkeit menschlicher Mitwirkung bei irgendeinem Entscheidungs- oder Lernprozess besteht. Im folgenden wird eine bevorzugte Ausführungsform der Nestor-Baugruppe beschrieben, bei der zwar nur gebräuchliche Bauelemente verwendet sind, die sich aber auch für eine Ausführung in bekannter Mikominiatusierungstechnik anbietet.
Aus den im vorigen gegebenen baulichen und theoretischen Erläuterungen der Erfindung #ht hervor, daß die Erfindung auf vielfältige Art und Weise verwirklicht werden kann. Das folgende ist eine Beschreibung einer gegenwärtig bevorzugten Ausführungsform eines Gerätes, bei dem die Erfindung verwirklicht ist, wobei lediglich übliche Bauelemente wie Widerstände, Kondensatoren, Dioden und Transistoren bei diesem Gerät benutzt werden. Es versteht sich jedoch, daß diese bevorzugte Ausführungsform lediglich zum Zwecke der Erläuterung beschrieben wird und keine Beschränkung des Gegenstandes der Erfindung beabsichtigt sein soll.
Es sei daran erinnert, daß das i-te informationsverarbeitende Element oder Nouveron einer Nestor-Baugruppe gemäß Fig. 2 N Eingangsstationen 1, 2,....N umfaßt, die zu N Übertragungselementen oder Mnemondern i1, i2,...iN führen, die ihrerseits mit einem Summierer Ui verbunden sind, der ein Antwortsignal r. erzeugt. Das ij-te Übertragungselement weist die Übertragungsfunktion A. . auf,
J d.h. das Ausgangssignal S.* dieses übertragungselemente
J
ist von der Form s.1 =* A-is., wenn s. das j-te Eingangssignal ist, das der Nestor-Baugruppe zugeführt wird.
- 57 509851/0806
A 15 519 ^ - ¥t -
Bei der zu beschreibenden bevorzugten Ausführungsform der Erfindung sei angenommen, daß die, die Information tragenden Signale s., s-1 und r. in allen Fällen durch Spannungswerte dargestellt sein sollen. Auch wenn es eine Wiederholung bedeuten sollte, sei nochmals darauf hingewiesen, daß die Informationssignale auch durch andersartige Umwandlungen von elektrischen Signalen aus dem realen Ereignisbereich dargestellt werden können. Beispielsweise können die Informationssignale auch durch Frequenzen (Impulsfrequenzen oder Frequenzen von sinusförmigen Schwingungen), Impulsbreiten, Ströme, Magnetfelder, Magnetisierungen oder auch eine Kombination solcher Größen dargestellt werden.
Geht man jedoch davon aus, daß die Informationssignale durch Spannungen dargestellt werden sollen, dann kann die Übertragungsfunktion A.. als eine "Verstärkung" (teils als tatsächliche Verstärkung, teils als Abschwächung, teils auch als Vorzeichenwechsel), insbesondere aber als eine "Verstärkung" angesehen werden, die in Abhängigkeit von dem Eingangssignal s- des Übertragungselements und dem
Ausgangssignal r. des i-ten Nouverons verändert werden soll. Nach einem bevorzugten benutzten Algorithmus wird die Abänderungsfunktion durch die folgende Gleichung beschrieben:
Um einen Verstärker zu schaffen, dessen Verstärkungsgrad durch schrittweise Veränderungen eines zuvor gegebenen Verstärkungsfaktorwertes besteuert wird, ist es notwendig, die Information über diesen Wert des Verstärkungsfaktors zu speichern und eine weitere Einrichtung vorzusehen, die zu oder von diesem gespeicherten Wert Änderungsbeträge
509851/0806 58~
A 15 519
addiert oder subtrahiert. Bei der bevorzugten Ausführungsform der Erfindung wird die Speicherung durch ein Bauelement zur Speicherung einer elektrischen Ladung Q, beispielsweise einen Kondensator, erreicht; die schrittweise Änderung wird daher bei dieser Ausführungsform mittete einer Einrichtung erzielt, die die Ladung Q von O auf +Qo oder -Q , den Grenzwerten des Spe-icherelements, ändert.
Die Fig. 12 zeigt das ij-te Übertragungselement 100 des i-ten Nouverons 102. Von einer Spannungsquelle 104 wird über eine Leitung 106 eine Spannung V.. an einen Verstärker 108 angelegt, um dessen Verstärkungsfaktor A-· zu steuern.
X J
Der Verstärker ändert daher das an einer Eingangsleitung 110 als Spannungssignal auftretende Eingangssignal a. ab
und erzeugt an einer Leitung 112 (ala Spannungssignal) eine Ausgangaspannung s-1 = A. -s·.
j J-Jj
Die Spannung V.., die den Verstärkungsfaktor regelt, wird
J
von einer in dem ij-ten Übertragungselement gespeicherten Ladung
Q. . abgeleitet und ist daher zu dieser Ladung Q. ■ proporij ·*- J
tional. Die gestrichelten Linie 114 und 116 der Pig. 12 sollen jeweils anzeigen, daß diese Ladung in Abhängigkeit von einem an der Eingangsleitung 110 auftretenden Eingangssignal s. und einem an der Ausgangsleitung 118 auftretenden Antwortsignal r. verändert (vergrößert oder vermindert) werden kann. (Die Leitung 116 ist als zu der Spannungsquelle 104 führend eingezeichnet, um dadurch symbolisch den Gedanken an eine Abänderung in Abhängigkeit von dem Antwortsignal r- anzudeuten; bei der vorliegenden Ausführungsform wird das rückgekoppelte Antwortsignal in Wirklichkeit zu einer Einrichtung geleitet, die die Breiten der Eingangsimpulse, deren Impulshöhen s-, Spt···^^ sind, verändert^
- 59 -
509851/0806
A 15 519 OJ -W-
Siehe hierzu Pig. 14 und den dazugehörenden Beschreibungsteil. Um die Ladung Q.. und damit die Spannung V..
und den Verstärkungsfaktor A. . = j in Übereinstimmung
1J §t ι"
mit Gleichung (5) abzuändern ist es notwendig, die gespeicherte Lagung Q.. entsprechend dem Produkt r.s. zu verändern. Dabei ist zu beachten, daß die N Ladungen des i-ten Nouverons (nämlich die Ladungen Qji» Q^ ?» · · · *^ϋ» · · · '^iN ^ im Verhältnis zu den jeweilig empfangenen Eingangssignalen (nämlich s^ S2,....s., sN) und dem gemeinsamen Antwortsignal τ- des Nouverons abgeändert werden müssen. Um diese gewünschte Abänderung zu erreichen wird als Eingangssignal s. die Höhe eines Spannungsimpulses 120
verwendet, während die Breite t. dieses Spannungsimpulses proportional zum Betrag!rA des Antwortsignals gemacht wird. Wenn r<0 ist, so wird der Spannungsimpuls 120 invertiert. Es gilt somit:
Q-j-i^s.t. r. +1 keine Inversion
und —-
*i ^ ri| lril ~ 1 Inversion
Spezielle Schaltkreise im Hinblick auf die in dem Nouveron 102 und dem Übertragungselement 100 stattfindende Summierung sind in den Fig. 13 und 14 dargestellt. Der Summierer 122 des Nouverons 102 ist in der Fig. als klassischer Summierschaltkreis dargestellt, mit einem Operationsverstärker 124, der über eine Anzahl gleichdimensionierter Widerstände 126, 128, 130, 132 jeweils die Zwischensignale s.., Spf...s^,....s« als Eingangssignale empfängt. Der Operationsverstärker 124 ist in bekannter Weise mit einem Widerstand 134 zusammengeschaltet und erzeugt an einer (Ausgangs-)-Leitung 136 ein Antwortsignal r- das der Summe der verschiedenen
- 60 -
509851 /0806
A 15 519 €0
Zwischensignale S1 1, Sp1,....s .',....Sn 1 proportional ist, die die Ausgangesignale der einzelnen Übertragungselemente des Nouverons 102 sind. Das Antwortsignal r. wird über eine Rückkopplungsleitung 138 jedem Übertragungselement des Nouverons wieder zugeführt. Das in der Pig. 14 dargestellte ij-te Übertragungselement empfängt das Eingangssignal an der Eingangsleitung 110 und erzeugt sein Ausgangssignal s.1 an der Leitung 112.
j Das ij-te Eingangssignal hat die Form eines Impulses mit der Amplitude s. (die entweder positiv oder negativ sein kann) und eine Impulsnormalbreite, die durch die Eingabe- oder Puffereinrichtung bestimmt ist, die das Übertragungselement 100 das Nouveron 102 und die Nestor-Baugruppe mit der Außenwelt (Umgebung) verbindet. Wie oben ausgeführt, sind die in Verbindung mit der informationsverarbeitenden Nestor-Baugruppe verwendeten Eingabe- und Ausgabeeinrichtungen nicht Teil der vorliegenden Erfindung und werden daher im folgenden nicht im einzelnen beschrieben. Dabei versteht es sich, daß der Aufbau der Eingabeeinrichtung von der Art der Ereignisse abhängen wird, die in die Nestor-Baugruppe eingegeben werden sollen, während die Ausgabe-Einrichtung im Hinblick auf die endgültige Zweckbestimmung des Systems konstruiert sein wird, d.h. im Hinblick auf den Vorgang also, der als Antwort auf die Ausgangssignale der Nestor-Baugruppe eingeleitet werden soll.
Pur die Zwecke dieser Erörterung möge es genügen zu sagen, daß die Eingabeeinrichtung den Eingangsstationen 1, 2,....j,... .N der Nestor-Baugruppe eine Anzahl von Eingangssignalimpulsen zuführt. Die Eingangssignalimpulse, die für jedes Ereignis gleichzeitig zugeführt werden, weisen alle eine Impuls-Normalbreite von einigen yum auf und Amplituden, die jeweils zu den zu verarbeitenden Variablen S1, S2I ...s., SjT proportional sind. Die Amplituden
509851/0806 - 61 -
A 15 519 - JH -
dieser Impulse können auch negativ sein, um negative Werte der Eingangs signale s.., 3ρ,·..·8., ....s« wiederzugeben.
Gemäß Pig. 14 wird ein solcher Eingangssignalimpuls mit der Amplitude s. einem Impulsbreitenmodulator 140 züge-
führt, der gleichzeitig über die Rückkopplungs-Leitung 138 ein Antwortsignal r- ermpfängt, das vom Ausgang eines in der Pig. 13 dargestellten Summierers Σ abgenommen wird. Das Antwortsignal r. resultiert aus der χ Summation, die von dem SummiererΣ über die von den Übertragungselementen abgegebenen Zwischensignale s. ausgeführt wird.
Der Impulsbreitenwandler sendet über eine Leitung 142 einen Impuls aus, der denselben Absolutwert der Amplitude wie der EingangsSignalimpuls an der Eingangsleitung 110 (jedoch invertiert ist, wenn r. <0) und eine zu der Variablen Jr^ proportionale Impulsbreite t^ aufweist.
Die sn der Leitung 142 auftretenden positiven und negativen Impulse werden verstärkt und mit Hilfe eines Operationsverstärkers 144 und diesem zugeordneten Widerständen 146, 148 und 150 und Dioden 152 und 154 nach ihrer Polarität getrennt. Wenn ein an der Leitung 142 auftretender Impuls positiv ist, so wird er als positiver Impuls zu einer Leitung 156 abgeleitet, ist er negativ, so wird er als negativer Impuls zu einer Leitung 158 gleitet. Gleichgültig ob der Impuls positiv oder negativ ist, so ist jedenfalls die von der Impulsform begrenzte Fläche (entsprechend t der grafischen Darstellung) der absoluten Größe des Produkts s. und r- proportional.
Die positiven Impulse an der Leitung 156 werden einem invertierenden Operationsverstärker 160, dem die Wider-
- 62 5098 5 1 /0806
A 15 519 62 -im162, 164 und 166 zugeordnet sind und schließlich der Basis einen pnp-Transistor 168 zugeleitet. Die an der Basis des Transistors 168 ankommenden Impulse haben dann die geeignete Polarität , um den Transistor zu aktivieren, und einen Kondensator 170 über einen Widerstand 172 zu laden oder zu entladen. Die Ladungsmenge, die infolge eines jeden positiven Impulses von den Kondensatoren aufgenommen oder von diesen abgeführt wird, ist dem Produkt aus der Impulsamplitude, die den wirksamen Leitwert des Transistors 168 bestimmt, und der Impulsbreite, die die Dauer des Auf- oder Entladevorganges bestimmt, proportional.
Die an der Leitung 158 auftretenden negativen Impulse werden einem weiteren invertierenden Operationsverstärker 174 mit diesem zugeordneten Widerständen 176, 178 und 180 zugeführt. In einer zu der bezüglich des pnp-Transistors 168 beschriebenen analogen Weise sind hierdurch ein npn-Transistor 182 durch invertierte negative (d.h. positive), der Basis des npn-Transistors zugeführte Impulse aktiviert, Als Folge davon wird der Kondensator 170 über einen Widerstand 184 entladen oder aufgeladen.
Die Ladungsmenge, die infolge eines jeden negativen Impulses von dem Kondensator 170 abgeführt oder aufgenommen wird, ist dann dem Produkt aus der Impulsamplitude die den wirksamen Leitwert des Transistors 182 bestimmt, und der Impulsbreite, die die Dauer des Auf- oder Entladungsvorganges bestimmt, proportional.
Als Ergebnis des oben beschriebenen Vorganges ist die von dem Kondensator gespeicherte Ladung Q.. und damit auch die Große der Spannung V, · die Folge eines anfänglichen Ladungszustandes, der über eine Leitung 186 erzeugt werden kann, bevor das Übertragungselement in Betrieb gesetzt
- 63 -
509851/0806
A 15 519 €3 - όβ -
wird, sowie der Gesamtsumme aHpr schrittweisen Zu- und Abnahmen, die als Folge des wiederholten Anlegens von Impulsen über die Eingangsleitung 110 eintreten. Zu beachten ist, daß der Kondensator 170 mit beiden Polaritäten geladen werden kann und auch innerhalb der Grenzen der möglichen positiven und negativen Spannungswerte des Versorgungsgerätes die Polarität wechseln kann.
Damit das Übertragungselement in der Lage ist, die gespeicherte Information im Verlaufe einer Zeitspanne zu vergessen, kann der Spannung V.. die Möglichkeit gegeben werden, mit einer geeignete Geschwindigkeit abzunehmen.
Diese Abnahmegeschwindigkeit steht in Beziehung zu der oben bei der theoretischen Erläuterung der Erfindung erörterten Zerfallskonstanten ^, wonach eine unendlich lange Abnahmezeit (offener Stromkreis) dem χ -Wert 1 und eine Abnahmezeit 0 dem Y -Wert 0 äquivalent ist. Wie oben erwähnt sind in der Praxis #" -Werte in der Nahe von 1 von größtem Interesse, so daß die Zeitkonstante für diese Abnahme ziemlich groß gemacht werden sollte. Zu diesem Zweck werden geeignete Werte der Kapazität des Kondensators und des Widerstandes oder der Impedanz aller Bauelemente ausgewählt, die die erwünschten Zeitkonstanten ergeben.
Schließlich wird die an dem Kondensator 170 anstehende Spannung über eine Leitung 192 an den Steuereingang eines Verstärkers 194 mit steuerbarem Verstärkungsgrad angelegt. Palis notwendig, kann zwischen den Kondensator 170 und den Verstärker 194 mit steuerbarem Verstärkungsgrad eine zusätzliche Verstärkerstufe eingefügt werden. Dabei wird wiederum ein geeignet hoher Eingangswiderstand dieses Verstärkers
509851/080$
CU
A 15 519
gewählt, um die gewünschte Zerfallskonstante X zu erhalten. Der Verstärker 194 empfängt auch die über die Eingangsleitung 110 ankommenden Eingangsignalimpulse mit der
Amplitude s. und "verstärkt" (der Begriff Verstärkung soll J
wiederum Verstärkung, Abschwächung und Polaritätswechsel umfassen) diesem Impulse gemäß dem gesteuerten Wert des Verstärkungsgrades, um an der Leitung 112 Ausgangsimpulse der Amplitude S.1 zu erzeugen.
Die Verarbeitung der Eingangssignale s. mit Hilfe der summierten Antwortsignale r., wird nun ausführlicher anhand der Pig. 15 betrachtet. Zuerst sei darauf hingewiesen, daß das Antwortsignal r. positiv, negativ oder Null sein kann und daß, sofern nicht gegenteilige Maßnahmen getroffen sind, das Antwortsignal r^ wie es am Ausgang des Summierers 122 der Pig. 12 erhalten wird, in der Form von Impulsen vorliegt. Während diese Signalform im Hinblick auf Verarbeitungseinrichtungen die an der Ausgangsleitung 136 (ies in der Fig. 13 dargestellten Summierers) angeschlossen werden sollen, zweckmäßig sein mag, vollzieht sich der Rückkopplungsvorgang bei der vorliegenden Ausführungsform der Erfindung günstiger, wenn die Ausgangssignale r- in einer quasikontinuierlichen Form vorliegen. Zu diesem Zweck ist die in den Fig. 13 und 1,4 dargestellte Rückkopplungsleitung 138 gemäß Fig. 15 mit einer Tast- und Halteeinrichtung 196 verbunden. Der Zweck dieser Einrichtung besteht darin, die Dauer eines jeden Impulses eines Antwortsignals r- um eine Zeitspanne zu verlängern, die annähernd gleich dem zeitlichen Abstand zwischen aufeinanderfolgenden Impulsen ist, ohne dabei die Impulsamplitude zu verändern. Wie in der Fig. 15 schematisch dargestellt ist, wird die Tast- und Halteeinrichtung 196 durch die EingangesignaIe (gepulste s.) über einen
Trigger 198 getriggert. (Der Trigger 198 kann, wie dem Fachmann bekannt ist, Einrichtungen zur Signalverstärkung,
- 65 -
509851/0806
A 15 519
-formling, usw. umfassen). Das impulsförmige Antwortsignal r. wird dadurch in ein im wesentlichen kontinuierliches, im folgenden mit r.· bezeichnetes Signal mit sich zeitlich verändernder Amplitude umgewandelt. Dieses Signal r.* wird weiter einem Vollweggleichrichter 200 und sodann einem Spannungs/lmpulsbreitenwandler 202 zugeführt. Somit ist das dem Spannungs/lmpulsbreitenwandler 202 zugeführte quasikontinuierliche Signal an der Verzweigungsstelle 204 positiv (oder Null). Der Spannungs/lmpulsbreitenwandler 202 erzeugt, wenn er, wie in der Fig. 15 angedeutet, durch den Trigger 198 getriggert wird, Impulse von einer Normalhöhe und -breite, die klein ist, verglichen mit der Breite der impulsförmigen Eingangssignale s.. Die Punktion des Signals r.· besteht darin, diese schmalen (von dem Wandler 202 erzeugten) Impulse im Verhältnis zu der Amplitude des Signals r^' zu verbreitern. Die von dem Spannungs/lmpulsbreitenwandler 202 erzeugten Impulse (mit konstanter Amplitude) werden, wie in Pig. dargestellt ist, einer weiteren Tast- und Halte-Einrichtung 206 und einer Torschaltung 208 zugeführt. Die ankommenden Signale s., die anfänglich eine Normalbreite aufweisen,
J
gelangen zuerst in die Tast- und Halte-Einrichtung 206 die diese Impulsbreite auf die zu r·' proportionale Dauer des von dem Spannungs/lmpulsbreitenwandler 202 erzeugten Impulse ausdehnt. Die Eingangssignale gelangen sodann zu der Torschaltung 208, die für dieselbe, ebenfalls durch die Breite der von dem Spannungs/lmpulsbreitenwandler 202 gelieferten Impulse, bestimmte Zeitdauer offengehalten wird. Wenn als Folge einer kleinen r.·-Amplitude die Breite der letztgenannten Impulse bis unter die Impulsnormalbreite der Eingangssignale s. verringert wird, so bleibt die Torschaltung 208 nur für die verminderte Dauer der von dem Spannungs/lmpulsbreitenwandler 202 gelieferten Impulse offen. Diese Öffnungszeit der Torschaltung bestimmt dann
- 66 509851 /0806
A 15 519
die Impulsbreite des Eingangssignals s.. Damit das
algebraische Vorzeichen des Produkts s.r- erhalten bleibt, wie es von der Theorie gefordert wird, wird das Signal r-· von der Verzweigungsstelle 210 aus (wo es immer noch mit beiden Polaritäten auftritt) zu einem Schalter 212 geleitet. Durch diesen Schalter wird das eintreffende Signal s., wenn r.' negativ ist, invertiert und wenn r·1 positiv ist, mit seiner ursprünglichen Polarität durchgelassen. Der Schalter 212 ist lediglich zur Vereinfachung der nachfolgenden Beschreibung in der Fig. 15 der Torschaltung 208 nachgeschaltet eingezeichnet. Eine in technischer Hinsicht vorzuziehende Anordnung für diesen Schalter wäre vor der Tast- und Halte-Einrichtung 206.
Schließlich ist zwischen der Verzweigungsstelle 204 und der Torschaltung 208 eine UND-Schaltung 214 eingefügt, um den Durchgang des eintreffenden Signals (und damit des Produkts s.r.) zu verhindern, wenn das Signal r.' so klein ist, daß es eine Impulsbreite zur Folge haben müßte, die geringer wäre als die Normalbreite der von dem Spannungs/lmpulsbreitenwandler 202 erzeugten Impulse.
Mann erkennt, daß dadurch bei dem Produkt s .r- eine Unstetigkeit zwischen dem durch die engsten von dem Spannungs/lmpulsbreitenwandler 202 abgegebenen Impulse bestimmten Wert und Null auftritt. Eine solche Eigenschaft fällt aber lediglich in den Bereich dessen, was allgemein als Rauschen bezeichnet werden kann, und die Nestor-Baugruppe ist, wie sich aus der Theorie ableiten läßt, besonders unempfindlich gegen Rauschen oder überhaupt gegen ein unvollkommenes Funktionieren einzelner Bauelemente. Darüberhinaus liegt es.auf dem Gebiet der elektronischen Schaltungstechnik im Bereich des fachmännischen Könnens, Verbesserungen des Signal/Rausch-
609851/0806
- 67 -
A 15 519 ^
Verhältnisse im Allgemeinen und eine Verminderung der erwähnten Unstetigkeiten im Besonderen, zustande zu bringen.
Hervorzuheben ist, daß die durch r bestimmten Impulsbreiten und ein gemäß dem Vorzeichen von.w- mögliche Inversion in gleicher Weise für alle gepulsten Eingangssigna e s s , ...3 gelten, die dem Nouveron zugeführt werden, da Abänderungen der Übertragungsfunktion A- eines Übertragungselementes (bzw. Verstärkungsgrades) lediglich von den Eingangssignalen, die dem das Übertragungselement enthaltenden Nouveron zugeführt werden, und von dem Antwortsignal des Nouverons abhängen.
Daher versorgt der größte Teil der in der Fig. 15 dargestellten elektronischen Baugruppen, wie der Fachmann ohne weiteres erkennt, gleichzeitig alle Übertragungselemente eines Nouverons und wird daher für jedes Nouveron nur einmal benötigt.
Damit ist die Beschreibung der speziellen bevorzugten Ausführungsform der Erfindung abgeschlossen. Obwohl diese Ausführungsform mit Bezug auf elektrische Signale und Ladungen als Träger des Informationsgehalts eines Informationsverarbeitungssystems beschrieben worden ist, werden sich dem Fachmann auch zahlreiche andere Möglichkeiten der Signaldarstellung und Informationsspeicherung darbieten. Es versteht sich aus, daß die Erfindung verschieden-e Abänderungs-, Austausch- und Anpass-ungsmöglichkeiten bietet, die innerhalb des Grundgedankens und Gegenstandes der Erfindung liegen. Beispielsweise ist es nicht notwendig, daß der Algorithmus für die Abänderungen
- 68 -
S098 b 1 /0806
A 15 519 σο --68 -
der Übertragungsfunktion A der Übertragungselemente auf den 4. Term der Taylor-Reihe, nämlröi den in Gleichung (5) enthaltenen Term, beschränkt ist, vielmehr können auch andere Terme, wie beispielsweise der 6. Term zu ebenso wichtigen Ergebnissen führen.
6098b1/0Ö06

Claims (2)

  1. A 15 519
    Ansprüche
    IJ Informationsverarbeitende Baugruppe, gekennzeichnet durch die folgenden Merkmale (a) bis (d):
    (a) eine Anzahl (N) von Eingangsstationen 1, 2,....j, ..,.N zum Empfang jeweils eines von N Eingangssjgnalen s.., Sp, ... .3 ■, ... .3-^,
    (b) eine Anzahl (n) von Ausgangsstationen 1, 2,..i,...n, die jeweils eines von η Antwortsignalen r.., r2,...r-, ....r abgeben,
    (c) eine Anzahl von Übertragungselementen (100), deren jedes eine dieser Eingangsstationen (Eingang j) mit einer der Ausgangsstationen (Ausgang i) koppelt und in Abhängigkeit von dem Eingang j auftretenden EingangssignaIs s. und der Übertragungsfunktion A-· des (zugeordneten) Übertragungselemente eine Informationsübertragung von dem Eingang j zu dem Ausgang i vermittelt,
    (d) Einrichtungen (138 bis 194), die in einer Lernphase der Übertragungselemente (100) die Übertragungsfunktion A- . mindestens eines der Übertragungselemente in Abhängigkeit von dem Produkt mindestens eines der EingangssignaIe mit einem der Antwortsignale um eine Größe
    ν ο A^ · = ι (S.J , Sg, · · ·s ·, * ·.Sjjι T^, Tg»· · a^2_* · * "**n abändern.
  2. 2. Informationsverarbeitende Baugruppe nach Anspruch 1, dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen gleich der Anzahl der Eingangsstationen (n=N) ist.
    3. Informationsverarbeitende Baugruppe nach Anspruch 1, dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen kleiner ist als die Anzahl der Eingangsstationen (n<N).
    509851 /0806
    - 70 -
    A 15 519 ty
    4. Informatiaisverarbeitende Baugruppe nach Anspruch 1, dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen größer ist als die Anzahl der Eingangsstationen ( n> N).
    5. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß mindestens eines der Übertragungselemente (100) mit jeder Eingangsstation gekoppelt ist.
    6. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jede Ausgangsstation mit mindestens einem Übertragungselement (100) gekoppelt ist.
    7. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jede Eingangsstation mit mindestens einer Ausgangsstation duroh ein Übertragungselement (100) gekoppelt ist.
    8. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jede Eingangsstation mit jeder Ausgangsstation durch ein Übertragungselement (100) gekoppelt ist.
    9. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Ausgangssignal s·' jedes Übertragungselements gleich
    dem Produkt seiner Übertragungsfunktion A- · mit dem an seinem Eingang angelegten Signal s. ist (s-'=A- -s.).
    10.Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Einrichtungen zur Abänderung der Übertragungsfunktion Einrichtungen zir Abänderung der Übertragungsfunktion eines jeden Übertragungselements umfassen.
    509851/0806 - 71 -
    A 15 519 - 74 -
    11. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Einrichtungen (13S bis 194) zur Abänderung der Übertragungsfunktion Einrichtungen umfassen, die die Übertragungsfunktion A,. mindestens eines Übertragungselementes in Abhängigkeit von dem hieran angelegten Eingangssignal s. und dem Antwortsignal r. an der mit
    ..u i
    dem Übertragungselement gekoppelten Ausgangsstation
    gemäß <5 A■ ■ = f (s ., r, ) abändern. -*· J J-*-
    12. Informationsverarbeitende Baugruppe nach Anspruch 11, dadurch gekennzeichnet, daß Einrichtungen zur Abänderung der Übertragungsfunktion A.. aller Übertragungs-
    -*- J elemente vorgesehen sind.
    13. Informationsverarbeitende Baugruppe nach Anspruch 11 oder 12, dadurch gekennzeichnet, daß die Einrichtungen (138-194) zur Abänderung der Übertragungsfunktion A- . eines Übertragungselementes eine Abänderung in Abhängigkeit von dem Produkt aus dem Eingangssignal s.
    Ausgangsantwortsignal r- gemäß
    SA. · = O^ s.r· vermittelt, wobeiTj eine Proportionalitätskonstante ist.
    14. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß zwischen jede Ausgangsstation und dem mit dieser gekoppelten Übertragungselement (100) logische Schaltungselemente (122) geschaltet sind, die von den Übertragungselement en Ausgangssignale s.1 empfangen und in Abhängig-
    keit von diesen ein Antwortsignal r erzeugen.
    15. Informationsverarbeitende Baugruppe nach Anspruch 14, dadurch gekennzeichnet, daß das Antwortsignal der Summe der an die logischen Schaltungselemente (122) angelegten AusgangssignaIe s1 der Übertragungselemente (100)
    proportional ist, gemäß
    1=1 - 72 -
    ΓΛΛΛΓ·«! < /-, Λ Λ a
    A 15 519 - -
    16. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine Anzahl (n) von Schwellenwerteinrichtungen T.. , Tp, •«..Τ.,.,.Τ vorgesehen ist, deren jede mit einer Ausgangsstation verbunden ist und ein Ausgangssignal erzeugt, wenn das an sie angelegte Antwortsignal r. größer als ein Schwellenwert G- ist (γ^>0. oder )ril>0.).
    17. Informationsverarbeitende Baugruppe nach Anspruch 16, dadurch gekennzeichnet, daß mit den Ausgängen aller Schwellenwerteinrichtungen Signalunterdrückungseinrichtungen verbunden sind, die alle Antwortsignale r1,Tp,.. ..r mit Ausnahme desjenigen unterdrücken, das als Eingangssignal an diejenige Schwellenwerteinrichtung angelegt ist, die ein Ausgangssignal erzeugt.
    18. Informationaverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine Signalquelle vorgesehen ist, die selektiv an mindestens eine der Ausgangsstationen ein gewünschtes Antwortsignal riA a*>gibt, durch das die informationsverarbeitende Baugruppe veranlaßt werden kann, im Verlauf ihrer Arbeitsperiode ein "korrektes" Antwortsignal T^ zu erzeugen.
    19. Informationsverarbeitende Baugruppe nach Anspruch 18, dadurch gekennzeichnet, daß jeder Ausgangsstation ein erwünschtes spezielles Ausgangsantwortsignal r. . zugeführt wird.
    20. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 18, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion A-· eine Einrichtung zur Verminderung des Wertes der Übertragungsfunktion Aij mindestens eines Übertragungselementes mit einer vorbestimmten Geschwindigkeit umfassen.
    - 73 -
    509851/080 6
    A 15 519 ?i - *3 -
    21. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Änderung der Übertragungsfunktion A- . eine Einrichtung zur Verminderung des Wertes der Übertragungsfunktion aller Übertragungselemente (100) mit einer vorbestimmten Geschwindigkeit umfassen.
    22. Informationsverarbeitende Baugruppe nach Anspruch 20 oder 21, dadurch gekennzeichnet, daß der zeitliche Betrag der Abnahme konstant ist, um eine gleichförmige Abnahme zu erzielen.
    23. Informationsverarbeitende Baugruppe nach einem der vorhergenden Ansprüche, dadurch gekennzeichnet, daß die Eingangssignale a-,Sp»··»s.,...s„ und die Antwortsignale r.,rp>·..r-,...r durch Spannungswerte repräsentiert sind,
    24. Informationsverarbeitende Baugruppe nach Anspruch 23» dadurch gekennzeichnet, daß jedes Übertragungselement (100) einen Verstärker (108) mit steuerbarem Verstärkungsgrad enthält, und daß die Übertragungsfunktion eines Übertragungselements durch den Verstäriungsgrad repräsentiert ist.
    25. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß jedes Übertragungselement Mittel zur Speicherung seiner Übertragungsfunktion enthält.
    26. Informationsverarbeitende Baugruppe nach Anspruch 25, dadurch gekennzeichnet, daß die Mittel zur Speicherung eine Einrichtung zur Speicherung elektrischer Ladung umfassen.
    27. Informationsverarbeitende Baugruppe nach Anspruch 26, dadurch gekennzeichnet, daß als Einrichtung zur Spei-
    - 74 509851/0806
    A 15 519 ?ll -Sicherung elektrischer Ladung ein Kondensator (170) vorgesehen ist.
    28. Informationsverarbeitende Baugruppe nach einem der vorhergehenden Ansprüche 25 bis 27, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Änderung der Übertragungsfunktion eine Addiereinrichtung umfassen, die dem gespeicherten Übertragungswert A- s die Anderungsschritte ο A- · hinzufügt.
    -L J
    29· Informationsverarbeitende Baugruppe nach Anspruch 28, dadurch gekennzeichnet, daß in der Speichereinrichtung (170) des ij-ten Übertragungselements eine Ladung Q..
    ..O
    gespeichert und für alle Anderungsschritte die Änderung OA-. der Übertragungsfunktion einer entsprechenden Anderung Q.. der gespeicherten Ladung proportional Q- . ist und daß die Einrichtung, die der gespeicherten Übertragungsfunktion Anderungsschritte A.. hinzufügt, einen ersten Impu^eber (19Ο), der einen ersten Impuls mit einer zu dem Eingangssignal s. proportionalen Amplitude
    und einer in dem absoluten Wert des Antwortsignals r· proportionalen Breite t- erzeugt, und einen zweiten mit dem ersten verbundenen Impulsgeber (202) umfaßt, der der Ladungsspeichereinrichtung (170) einen zweiten Impuls zuführt, dessen Pulshöhe und -breite der Pulshöhe und -breite des ersten Impulses proportional sind und dessen Polarität gleich ^i. ist.
    30. Informationsverarbeitendes Element gekennzeichnet durch die folgenden Merkmale (a) bis (d):
    (a) eine Anzahl von Eingangsstationen 1,2,...j,...N zum Empfang je eines von N Eingangssignalen,
    (b) eine Ausgangsstation i zur Abgabe eines Antwortsignals r- ,
    - 75 -
    S09851 /0806
    A 15 519 ?5 -
    (c) eine Anzahl (N) von Übertragungselementen (100), deren jedes eine der Eingangsstationen (Eingang j) mit einer der Ausgangsstationen (Ausgang i) koppelt und in Abhängigkeit von dem Eingang j auftretenden Eingangssignal s . und von der Übertragungsfunktion A.. des Übertragungselementes (100) eine Informations Übertragung von dem Eingang j zu dem Ausgang i vermittelt,
    (d) Einrichtungen (138 bis 194), die in einer Lernphase der Übertragungselemente (100) die Übertragungsfunktion A-· mindestens eines der Übertragungselemente in Abhängigkeit von dem Produkt mindestens eines der Eingangssignale mit einem der Antwortsignale um eine And e rungs gr ö ß e
    1J = f(S11S2,....S^,...sN; T1,r2,...γ±,...rn)
    abändern.
    31. Informationsverarbeitendes Element nach Anspruch 30, dadurch gekennzeichnet, daß das Ausgangssignal s-' jedes Übertragungselements (100) gleich dem Produkt seiner Übertragungsfunktion A- - mit dem an seinem Eingang angelegten Signal s. ist (s .=A- .s .).
    J d ■■- d U
    32. Informationsverarbeitendes Element nach Anspruch 30
    oder Anspruch 31, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion Einrichtungen zur Abänderung der Übertragungsfunktion eines jeden der Übertragungselemente (100) umfassen.
    33. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 32, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion Einrichtungen umfassen, die die Übertragungsfunktion A-· mindestens eines Übertragungselementes
    - 76 5098b 1 /Ü806
    A 15 519 ?£ - ?6 -
    (100) in Abhängigkeit von dem hieran angelegten Eingangssignal s· und dem Antwortsignal r. an der Ausgangsstation
    gemäß 6 A- · = f (s., r.) abändern.
    Ij J-*-
    34. Informationsverarbeitendes Element nach Anspruch 33» dadurch gekennzeichnet, daß Einrichtungen zur Abänderung der Übertragungsfunktion A- · aller Übertragungselemente
    J- J
    (100) vorgesehen sind.
    35. Informationsverarbeitendes Element nach Anspruch 33 oder 34, dadurch gekennzeichnet, daß die Einrichtungen zur Abänderung der Übertragungsfunktion A- . eines Übertra-
    -*- J gungselementes eine Abänderung in Abhängigkeit von dem
    Produkt aus dem Eingangssignal s. Antwortsignal r- gemäß OA- · = \ s - r. vermittelt, wobeiYJ,eine Proportio-
    ■*· «J Jo
    nalitätskonstante ist.
    36. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 35, dadurch gekennzeichnet, daß zwischen jeder Ausgangsstation und dem mit dieser gekoppelten Übertragungselement (100) logische Schaltungselemente (122) geschaltet sind, die von den Übertragungselementen Au s gangs Signale s.1 empfangen und in Abhängigkeit
    von diesen das Antwortsignal r. erzeugen.
    37. Informationsverarbeitendes Element nach Anspruch 36, dadurch gekennzeichnet, daß das Antwortsignal der Summe der an die logischen Schaltungselemente (122) angelegten AusgangsSignaIe s.* der Übertragungselemente (100)
    proportional ist, gemäß
    - 77 -
    £09851/0806
    A 15 519 7? - ΨΤ -
    3b. Inforraationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 37, dadurch gekennzeichnet, daß mit der Ausgangsstation eine Schwellenwerteinrichtung verbunden ist, die ein Ausgangssignal erzeugt, wenn das an sie angelegte Antwortsignal r. größer ist als ein Schwellenwert Oi(r.>öi oder | rJ > 0^).
    39. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 38, dadurch gekennzeichnet, daß eine Signalquelle vorgesehen ist, die an die Ausgangsstation selektiv ein spezifisches, erwünschtes Antwortsignal r.. anlegt, durch das das informationsverarbeitende Element veranlaßt werden kann, im Verlauf seiner Arbeitsperiode ein "korrektes" Antwortsignal rw zu erzeugen.
    40. Informationsverarbeitendes Element nach einem der Ansprüche 30 bis 39, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion A- - eine Einrichtung zur Verminderung des Wertes der Übertragungsfunktion A-· mindestens eines Übertragungselements (100) mit einer vorbestimmten Geschwindigkeit umfaßt.
    41. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 40, dadurch gekennzeichnet, daß die Einrichtungen (138 bis 194) zur Abänderung der Übertragungsfunktion A- · eine Einrichtung zur Verminderung des Wertes der Übertragungsfunktion A. . aller Übertragungselemente mit einer vorbestimmten Geschwindigkeit umfassen.
    42. Informationsverarbeitendes Element nach Anspruch 40 oder 41, dadurch gekennzeichnet, daß der zeitliche Betrag der Abnahme konstant ist, um eine gleichförmige Abnahme zu erzielen.
    - 78 509851/0806
    A 15 519 7& -
    43. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 42, dadurch gekennzeichnet, daß die Signale S1, s., ... .s .,....s und r, durch Spannungswerte repräsentiert sind.
    44. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 30 bis 43, dadurch gekennzeichnet, daß jedes Übertragungselement (100) einen Verstärker (108) mit steuerbarem Verstäriungsgrad enthält, und daß die Übertragungsfunktion eines Übertragungselementes durch den Verstärk ungsgrad repräsentiert ist.
    45. Informationsverarbeitendes Element nach einem der vorhergehenden Ansprüche 19 bis 31, dadurch gekennzeichnet, daß jedes Übertragungselement Mittel zur Speicherung seiner Übertragungsfunktion A. . enthält.
    46. Informationsverarbeitendes Element nach Anspruch 45, dadurch gekennzeichnet, daß die Mittel zur Speicherung eine Einrichtung zur Speicherung elektrischer Ladung umfassen.
    47· Informationsverarbeitendes Element nach Anspruch 46, dadurch gekennzeichnet, daß als Einrichtung zur Speicherung elektrischer Ladung ein Kondensator (170) vorgesehen ist.
    48. Informationsverarbeitendeß Element nach einem der vorhergehenden Ansprüche 45 bis 47, dadurch gekennzeichnet, daß die Einrichtungen zur Änderung der Übertragungsfunktion eine Addiereinrichtung umfassen, die dem gespeicherten Übertragungsfunktionswert A. . die Änderungs-
    schritte bA. · hinzufügt.
    -*- J
    - 79 -
    509851 /0806
    A 15 519 ?3
    49. Informationsverarbeitendes Element nach Anspruch 48, dadurch gekennzeichnet, daß in der Speichereinrichtung des ij—ten Übertragungselements eine Ladung Q.■ gespeichert und für alle Änderungsschritte die Änderung Sä.. der Übertragungsfunktion einer entsprechenden Änderung Q. . der gespeicherten Ladung proportional Q. . ist und daß die Einrichtung, die der gespeicherten Übertragungsfunktion Änderungsschritte A hinzufügt,
    einen ersten Impulsgeber (140) der einen ersten Impuls mit einer zu dem Eingangssignal s. proportionalen Ampli-
    J tude und einer in dem absuluten Wert des Antwortsignals r proportionalen Breite t erzeugt, und einen zweiten mit dem ersten verbundenen Impulsgeber (202) umfaßt, der der Ladungsspeichereinrichtung einen zweiten Impuls zuführt, dessen Pulshöhe und -breite der Pulshöhe und -breite des ersten Impulses proportional sind und dessen Polarität gleich __i ist.
    50. Informationsverarbeitungssystem mit mindestens einer
    informationsverarbeitenden Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 29» dadurch gekennzeichnet, daß eine Einrichtung zum Einstellen der Übertragungsfunktion A.· eines jeden Übertragungselements der Baugruppe auf einen gewünschten Wert vorgesehen ist, die in einem einzigen Arbeitsgang einen Lernprozess des Systems ermöglicht.
    51. Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 29 oder Anspruch 50, dadurch gekennzeichnet, daß eine Einrichtung zur wahlweisen Unter brechung des Betriebs der Einrichtungen zur Abänderung der Übergangsfunktion vorgesehen ist, so daß die Übertragungsfunktion A - der Übertragungselemente keinen
    5098b1/0806
    A 15 519 80 - %Q -
    Änderungen unterworfen ist und das System als reiner Speicher betreibbar ist.
    52. Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 29» 50 oder 51» dadurch gekennzeichnet, daß ein Pufferspeicher zur Speicherung der Übertragungsfunktion eines jeden Übertragungselements (100) und eine Einrichtung zur wahlweisen Übertragung der Übertragungsfunktion A-· eines jeden Übertragungselements in den Pufferspeicher vorgesehen ist, der die Übertragungsfunktionen für einen späteren Gebrauch nach einer Lern- und Einstellperiode der informationsverarbeitenden Baugruppe speichert.
    53. Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden Baugruppe nach einem der vorhergehenden Ansprüche 1 bis 29» 50 oder 51, dadurch gekennzeichnet, daß ein Pufferspeicher zur Speicherung einer Anzahl von Übertragungsfunktionen A-· und eine Einrichtung zur selektiven Übertragung einer der Übertragungsfunktionen auf mindestens eines der Übertragungselemente der informationsverarbeitenden Baugruppe vorgesehen ist, die dadurch in einem einzigen Arbeitsgang einstellbar ist.
    54. Informationsverarbeitungasystem nach Anspruch 53, dadurch gekennzeichnet, daß die Übertragungseinrichtung für die Übertragungsfunktion Mittel zur selektiven Übertragung der Übertragungsfunktion A. . eines jeden Übertragungselements in den Pufferspeicher umfaßt.
    55· Informationsverarbeitungssystem mit mehreren informationsverarbeitenden Baugruppen nach einem der vorhergehenden Ansprüche 1 bis 29, oder 50 bis 54, dadurch gekennzeichnet, daß Verbindungseinrichtungen vorgesehen sind, die die Ausgangsstation einer ersten Baugruppeinit den Eingangsstationen
    - 81 50 985 1/0806
    252473A
    A 15 519 84 - 9ή -
    einer weiteren Baugruppe zu einer Hintereinanderschaltung der beiden Baugruppen verbinden.
    56. Informationsverarbeitungssystem mit mehreren informationsverarbeitenden Baugruppen nach einem der vorhergehenden Ansprüche 1 bis 29 oder 50 bis 54, dadurch gekennzeichnet, daß Verbindungseinrichtungen vrgesehen sind, die die Ausgangsstationen einer ersten Baugruppe mit den Ausgangsstationen einer weiteren Baugruppe zu einer Parallelschaltung der beiden Baugruppen verbinden.
    57. Informationsverarbeitungssystem mit mehreren informationsverarbeitenden Baugruppen nach einem der vorhergehenden Ansprüche 1 bis 29 oder 50 bis 54, dadurch gekennzeichnet, daß Verbindungseinrichtungen vorgesehen sind, die die Eingangsatationen einer ersten Baugruppe mit den Eingangsstationen einer weiteren Baugruppe zu einer Parallelschaltung der beiden Baugruppen verbinden.
    56. Informationsverarbeitungssystem nach Anspruch 41, dadurch gekennzeichnet, daß die Ausgangsstation einer ersten informationsverarbeitenden Baugruppe mit den Eingangsstationen einer weiteren informationsverarbeitenden Baugruppe nach einer Zufallsverteilung verbunden sind.
    59. Informationsverarbeitungssystem nach Anspruch 41, dadurch gekennzeichnet, daß die Ausgangsstationen einer ersten informationsverarbeitenden Baugruppe mit den Eingangsstationen einer weiteren informationsverarbeitenden Baugruppe in einer bestimmten Ordnung verbunden sind, derart, daß jede Ausgangsstation der ersten Baugruppe mit einer Eingangsstation der zweiten Baugruppe verbunden ist.
    60. Informationsverarbeitungssystem mit mehreren informations-
    - 82 509851/0806
    a 15 519 W
    verarbeitenden Baugruppen nach einem der vorhergehenden Ansprüche 1 bis 29 oder 50 bis 54, dadurch gekennzeichnet, daß Verbindungseinrichtungen vorgesehen sind, die die Aus^angsstationen mindestens einer ersten Baugruppe mit den fiingangsstationen mindestens einer weiteren Baugruppe zu einer Hintereinanderschaltung mindestens zweier Baugruppen verbinden.
    61. Informationsverarbeitungssystem nach Anspruch 60, dadurch gekennzeichnet, daß die Gesamtzahl der Ausgangsstationen der mindestens einen ersten informationsverarbeitenden Baugruppe größer ist als die Gesamtzahl der Eingangsstationen der mindestens einen weiteren informations verarbeitend en Baugruppe.
    62. Informationsverarbeitungssystem nach Anspruch 60, dadurch gekennzeichnet, daß die Gesamtzahl der Ausgangsstationen der mindestens einen ersten informationsverarbeitenden Baugruppe gleich der Gesamtzahl der Eingangsstationen der mindestens einen weiteren informationsverarbeitenden Baugruppe ist.
    63. Informationsverarbeitungssystem nach Anspruch 60, dadurch gekennzeichnet, daß die Gesamtzahl der Ausgangsstationen der mindestens einen ersten informationsverarbeitenden Baugruppe kleiner ist, als die Gesamtzahl der Eingangsstationen der mindestens einen weiteren inforraationsverarbeitenden Baugruppe.
    64. Informationsverarbeitungssystem nach einem der vorhergehenden Ansprüche 60 bis 63, dadurch gekennzeichnet, daß die Verbindungseinrichtungen solche umfassen, die die Ausgangsstationen mindestens zweier informationsverarbeitender Baugruppen mit den Eingangsstationen einer weiteren informationsverarbeitendai Baugruppe derart verbinden, daß mindestens zwei informationsverarbeitende
    - 83 5 09851/0806
    A 15 519 oj - #3 -
    Baugruppen mit einer dritten in Reihe geschaltet sind.
    65. Informationsverarbeitungssystem nach einem der vorhergehenden Ansprüche 60 bis 63, dadurch gekennzeichnet, daß die Verbindungseinrichtungen solche umfassen, die die Ausgangsstationen einer der informationsverarbeitenden Baugruppen mit den Eingangsstationen mindestens zweier weiterer informationsverarbeitender Baugruppen derart verbinden, daß eine informationsverarbeitende Baugruppe mit mindestens zwei weiteren informationsverarbeitenden Baugruppen in Reihe geschaltet ist.
    66. Verwendung einer informationsverarbeitenden Baugruppe mit einer Anzahl (N) von Eingangsstationen 1, 2,...j,...N zum Empfang je eines von N Eingangssignalen s.,,Sp,..s., ...s„, einer Anzahl (n) von Ausgangsstationen 1, 2,...i, ....n zur Abgabe je eines von η AntwortSignalen r..,rp,..r , ...r und mit einer Anzahl von Übertragungselementen, deren jedes eine der Eingangsstationen (Eingang j) mit einer der Ausgangastationen (Ausgang i) koppelt und in Abhängigkeit von dem an dem Eingang j auftretenden Eingangssignal s. und von der Übertragungsfunktion A. ■ des (jeweils die Kopplung vermittelnden) Ubertragungselements Information vom Eingang j zu dem Ausgang i überträgt, als einen verteilten Speicher (Assoziativspeicher), dadurch gekennzeichnet, daß die Übertragungsfunktion jedes Übertragungselementes (100) auf einen speziellen, erwünschten, gespeicherte Information darstellenden Wert eingestellt, mindestens eines der Eingangssignale S1,s2,...s .,...s^ der zugeordneten Eingangsstation zugeführt utL mindestens eines der Antwortsignale r-,Γρ,.··γ·,··..r an der jeweiligen Ausgangsstation empfangen wird.
    67. Verwendung einer informationsverarbeitenden Baugruppe gemäß Anspruch 44 oder 66, dadurch gekennzeichnet, daß die
    - 84 509851 /0808
    A 15 519 Si
    Anzahl der Ausgangsalat ionen gleich der Anzahl der Eingangsstationen (n = N) ist.
    68. Verwendung einer informationsverarbeitenden Baugruppe gemäß Anspruch 44 oder 66, dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen kleiner als die Anzahl der Eingangsstationen (n<N) ist.
    69. Verwendung einer informationsverarbeitenden Baugruppe gemäß Anspruch 66 dadurch gekennzeichnet, daß die Anzahl der Ausgangsstationen größer ist als die Anzahl der Eingangsstationen ( n>N).
    70. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 69» dadurch gekennzeichnet, daß mindestens eines der Übertragungselemente (100) mit jeder Eingangsstation gekoppelt ist.
    71. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 70, dadurch gekennzeichnet, daß jede Ausgangsstation mit mindestens einem der Übertragungselemente (100) gekoppelt ist,
    72. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 71, dadurch gekennzeichnet, daß jede Eingangsstation mit mindestens einer Ausgangsstation durch eines der Üvertragungselemente (100) gekoppelt ist.
    73· Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 72, dadurch gekennzeichnet, daß jede Eingangsstation mit jeder Ausgangsstation durch ein Übertragungselement gekoppelt ist.
    - 85 509851 /0806
    A 15 519 SS -M-
    74. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 73, dadurch gekennzeichnet, daß das Ausgangssignal s.1 jedes Übertragungselements gleich dem Produkt seiner Übertragungsfunktion A- . mit dem an seinem Eingang angelegten
    Signal s.· ist (s,1 = A. .s,).
    J J -*■ J J
    75. Verwendung einer informationsverarbeitenden Baugruppe gemäß einem der vorhergehenden Ansprüche 66 bis 74, dadurch gekennzeichnet, daß zwischen jede Ausgangsstation und dem mit dieser gekoppelten Übertragungselement (100) logische Scha.tungselemente geschaltet sind, die von den Übertragungselementen Aus gangs signale s-1
    empfangen und in Abhängigkeit von diesen ein Antwortsignal r. erzeugen.
    76. Verwendung einer informationsverarbeitenden Baugruppe gemäß Anspruch 75, dadurch gekennzeichnet, daß das Antwortsignal der Summe der an die logischen Schaltungselemente (122) angelegten Ausgangssignale s.1 der Über-
    ti
    tragungselemente (100) proportional ist gemäß
    Ο-'
    77. Informationsverarbeitungsverfahren, gekennzeichnet durch die folgenden Verfahrensschritte (a) bis (d):
    (a) Empfang einer Anzahl von Eingangssignalen s^Sp,
    ...S-, ... Stj,
    O
    (b) Erzeugung einer Anzahl von Zwischensignalen s,,, s' p, ... .s ? ., .. .s ' j,, deren jedes von jeweils einem der EingangsSignaIe s . und einer zugeordneten
    J
    Übertragungsfunktion A . abhängig ist,
    (c) Erzeugung eines Antwortsignals T1, das von mindestens einem der Zwischensignale s? . abhängig ist und
    - 86 509851/0806
    8b
    A 15 519 - Ä6- -
    (d) in einer Lernphase Abänderung mindestens einer der Übertragungsfunktionen in Abhängigkeit von dem Produkt aus mindestens einem der EingangasignaIe
    s. und dem Antwortsignal r-. J ■*-
    78. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß jedes Zwischensignal s? · gleich dem Produkt aus dem jeweiligen Eingangssignal s
    «J und der zugeordneten Übertragungsfunktion A- - ist
    (a·. = A^a3).
    79. Informationsverarbeitungsverfahren nach Anspruch 77, dadurch gekennzeichnet, daß das Antwortsignal r. von allen Zwischensignalen s? . abhängig ist.
    80. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß das Antwortsignal der Summe mehrerer Zwischensignale s!. proportional ist.
    81. Informationsverarbeitungsverfahren nach einem der Ansprüche 77 bis 80, dadurch gekennzeichnet, daß das Antwortsignal der Summe aller Zwischensignale s? ■ propor-
    X. J
    tional ist.
    82. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß alle Übertragungsfunktionen A. . in Abhängigkeit von dem Produkt mindestens eines der EingangssignaIe s. mit dem Antwortsignal r. abgeändert werden.
    83. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß di-e Abänderung mindestens einer der Übertragungsfunktionen A- . in Abhängigkeit von dem Produkt des dieser zugeordneten Eingangssignal3 s. mit dem Antwortsignal r. erfolgt.
    - 87 509851 /0806
    519 &y
    84. Inf ormat ionsverarbeitungsverfahren nach Anspruch 83, dadurch gekennzeichnet, daß die Abänderung aller Übertragungsfunktionen A. . in Abhängigkeit von dem Produkt des diesen zugeordneten Eingangssignals s- mit dem
    Antwortsignal r- erfolgt.
    85. Informationsverarbeitungsverfahren nach Anspruch 77» dadurch gekennzeichnet, daß die Abänderung mindestens einer der Übertragungsfunktionen A- im Verhältnis zu dem Produkt des dieser zugeordneten Eingangssignals s.
    J mit dem Antwortsignal r. erfolgt.
    86. Informationsverarveitungsverfahren nach Anspruch 77, dadurch gekennzeichnet, daß die Abänderung aller Übertragungsfunktionen A . im Verhältnis zu dem Produkt des diesen zugeordneten Eingangssignals s. mit dem
    J Antwortsignal r. erfolgt.
    87· Informationsverarbeitungsverfahren nach Anspruch 77, dadurch gekennzeichnet, daß eine Anzahl von Antwortsignalen r.,r2,...r,.... r erzeugt wird, deren jedes von mindestens einem der Zwischensignale s?., wobei j
    ι J von 1 bis N läuft, abhängig ist.
    88. Informationsverarbeitungsverfahren nach Anspruch 87, dadurch gekennzeichnet, daß ,jedes der Antwortsignale r.. ,rp, .. .r. , .. .r von allen Zwischensignalen s?., wobei j von 1 bis N läuft, abhängig ist.
    89. Informationsverarbeitungsverfahren nach Anspruch 87, dadurch gekennzeichnet, daß jedes Antwortsignal r- zu der Summe einer Anzahl von Zwischensignalen s!. propor—
    -^- J tional ist.
    - 88 -
    5098b 1 /0806
    A 15 519 σο - θβ -
    90. Informationsverarbeitungsverfahren nach Anspruch 89, dadurch gekennzeichnet, daß jedes Antwortsignal r· zu der Summe aller Zwischensignale s? . proportional ist, wobei j von 1 bis N läuft.
    91. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 87 bis 90, dadurch gekennzeichnet, daß Antwort3ignale r rQ,...r mit Ausnahme
    1 ? desjenigen, das einen vorgeschriebenen Schwellenwert überschreitet, unterdrückt werden.
    92. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 87 bis 90, dadurch gekennzeichnet, daß mindestens eines der Antwortsignale reinem speziellen erwünschten Antwortsignal r-. gleichgesetzt wird.
    93. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 87 bis 92, dadurch gekennzeichnet, daß alle Ausgangsantwortsignale r.,r^,...r., ....rN je einem speziellen erwünschten Ausgangsantwortsignal τ.,., Γρ., ... ·γ·., ... ·γ α gleichgesetzt werden.
    94. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 77 bis 93, dadurch gekennzeichnet, daß alle Übertragungsfunktionen A- · in einer Speichereinrichtung gespeichert werden.
    95. Informationsverarbeitungsverfahren nach Anspruch 94,
    dadurch gekennzeichnet, daß mindestens eine der gespeicherten Übertragungsfunktionen A. . in einer weiteren Speichereinrichtung gespeichert werden.
    96. Informationsverarbeitungsverfahren nach Anspruch 94, oder Anspruch 95, dadurch gekennzeichnet, daß alle gespeicherten Übertragungsfunktionen in einer weiteren Speichereinrichtung gespeichert werden.
    - 89 509851/0806
    A 15 519 £3 -33-
    97. Informationsverarbeitungsverfahren nach einem der vorhergehenden Ansprüche 77 bis 96, dadurch gekennzeichnet, daß eine weitere Anzahl von Eingangssignalen
    2 2 2 2
    S1 ,so ,....s. ,....Sn empfangen und eine weitere
    j η 2 2 2 2 Anzahl von Zwischensignalen s ?.. , s!p ,...s!. , ....s?» , erzeugt wird, deren jedes von jeweils einem der weiteren
    2
    Eingangssi gnale s . und von der jeweils einem der ersten Zwischensignale s? . zugeordneten Übertragungsfunktion A-·
    1J 2 <J
    abhängig ist, und daß ein weiteres Antwortsignal r . erzeugt wird, das von mindestens einem der weiteren Zwischen-
    signale s1 . . abhängig ist.
    J. J
    509851/0806
DE2524734A 1974-06-06 1975-06-04 Informationsverarbeitende Vorrichtung zur Erkennung eines durch einen Satz von Eingangssignalen charakterisierbaren Ereignisses Expired DE2524734C3 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US05/477,080 US3950733A (en) 1974-06-06 1974-06-06 Information processing system

Publications (3)

Publication Number Publication Date
DE2524734A1 true DE2524734A1 (de) 1975-12-18
DE2524734B2 DE2524734B2 (de) 1980-03-20
DE2524734C3 DE2524734C3 (de) 1981-01-08

Family

ID=23894450

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2524734A Expired DE2524734C3 (de) 1974-06-06 1975-06-04 Informationsverarbeitende Vorrichtung zur Erkennung eines durch einen Satz von Eingangssignalen charakterisierbaren Ereignisses

Country Status (11)

Country Link
US (1) US3950733A (de)
JP (1) JPS6012671B2 (de)
CA (1) CA1042109A (de)
CH (1) CH620307A5 (de)
DE (1) DE2524734C3 (de)
ES (3) ES436945A1 (de)
FR (1) FR2274088A1 (de)
GB (1) GB1457338A (de)
IT (1) IT1036906B (de)
MX (1) MX143269A (de)
NL (1) NL176313C (de)

Families Citing this family (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5272504A (en) * 1975-12-15 1977-06-17 Fuji Xerox Co Ltd Device for recognizing word audio
US4044243A (en) * 1976-07-23 1977-08-23 Nestor Associates Information processing system
US4218733A (en) * 1978-11-13 1980-08-19 Sybron Corporation Adaptive gain controller
US4308522A (en) * 1979-03-19 1981-12-29 Ncr Corporation Identity verification apparatus and method
US4254474A (en) * 1979-08-02 1981-03-03 Nestor Associates Information processing system using threshold passive modification
US4326259A (en) * 1980-03-27 1982-04-20 Nestor Associates Self organizing general pattern class separator and identifier
JPS5752261A (en) * 1980-09-11 1982-03-27 Canon Inc Character processor
US4450530A (en) * 1981-07-27 1984-05-22 New York University Sensorimotor coordinator
US4479241A (en) * 1981-08-06 1984-10-23 Buckley Bruce S Self-organizing circuits for automatic pattern recognition and the like and systems embodying the same
US5297222A (en) * 1982-05-04 1994-03-22 Hitachi, Ltd. Image processing apparatus
JPH0658665B2 (ja) * 1982-05-21 1994-08-03 株式会社日立製作所 イメージ信号処理装置
US4518866A (en) * 1982-09-28 1985-05-21 Psychologics, Inc. Method of and circuit for simulating neurons
US4593367A (en) * 1984-01-16 1986-06-03 Itt Corporation Probabilistic learning element
US4599692A (en) * 1984-01-16 1986-07-08 Itt Corporation Probabilistic learning element employing context drive searching
US4599693A (en) * 1984-01-16 1986-07-08 Itt Corporation Probabilistic learning system
US4620286A (en) * 1984-01-16 1986-10-28 Itt Corporation Probabilistic learning element
US4648044A (en) * 1984-06-06 1987-03-03 Teknowledge, Inc. Basic expert system tool
US4697242A (en) * 1984-06-11 1987-09-29 Holland John H Adaptive computing system capable of learning and discovery
JPS619729A (ja) * 1984-06-26 1986-01-17 Toshiba Corp 推論システム
US4660166A (en) * 1985-01-22 1987-04-21 Bell Telephone Laboratories, Incorporated Electronic network for collective decision based on large number of connections between signals
US4760604A (en) * 1985-02-15 1988-07-26 Nestor, Inc. Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier
US4670848A (en) * 1985-04-10 1987-06-02 Standard Systems Corporation Artificial intelligence system
US4967340A (en) * 1985-06-12 1990-10-30 E-Systems, Inc. Adaptive processing system having an array of individually configurable processing components
US5060277A (en) * 1985-10-10 1991-10-22 Palantir Corporation Pattern classification means using feature vector regions preconstructed from reference data
US5077807A (en) * 1985-10-10 1991-12-31 Palantir Corp. Preprocessing means for use in a pattern classification system
JPH0634236B2 (ja) * 1985-11-02 1994-05-02 日本放送協会 階層型情報処理方法
EP0247163B1 (de) * 1985-11-27 1992-02-05 Trustees Of Boston University System zur musterkodierung
EP0244483B1 (de) * 1985-11-27 1992-07-15 Trustees Of Boston University Mustererkennungssystem
US4773024A (en) * 1986-06-03 1988-09-20 Synaptics, Inc. Brain emulation circuit with reduced confusion
US4752890A (en) * 1986-07-14 1988-06-21 International Business Machines Corp. Adaptive mechanisms for execution of sequential decisions
GB8619452D0 (en) * 1986-08-08 1986-12-17 Dobson V G Signal generating & processing
US4852018A (en) * 1987-01-07 1989-07-25 Trustees Of Boston University Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning
US5224066A (en) * 1987-03-16 1993-06-29 Jourjine Alexander N Method and apparatus for parallel implementation of neural networks
US5053974A (en) * 1987-03-31 1991-10-01 Texas Instruments Incorporated Closeness code and method
US4881178A (en) * 1987-05-07 1989-11-14 The Regents Of The University Of Michigan Method of controlling a classifier system
US4807168A (en) * 1987-06-10 1989-02-21 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Hybrid analog-digital associative neural network
US5526298A (en) * 1987-06-10 1996-06-11 Hamamatsu Photonics K.K. Optical associative memory
US4858147A (en) * 1987-06-15 1989-08-15 Unisys Corporation Special purpose neurocomputer system for solving optimization problems
WO1988010474A1 (en) * 1987-06-18 1988-12-29 University Of West Virginia State analog neural network and method of implementing same
US4809223A (en) * 1987-06-18 1989-02-28 West Virginia University Apparatus and method for long term storage of analog signals
US4914708A (en) * 1987-06-19 1990-04-03 Boston University System for self-organization of stable category recognition codes for analog input patterns
US5133021A (en) * 1987-06-19 1992-07-21 Boston University System for self-organization of stable category recognition codes for analog input patterns
US5251269A (en) * 1987-07-15 1993-10-05 Research Development Corporation Of Japan Multi-layer neural network modelled after the striate cortex for recognizing visual patterns
US5072452A (en) * 1987-10-30 1991-12-10 International Business Machines Corporation Automatic determination of labels and Markov word models in a speech recognition system
US5285522A (en) * 1987-12-03 1994-02-08 The Trustees Of The University Of Pennsylvania Neural networks for acoustical pattern recognition
EP0327817B1 (de) * 1988-01-11 1996-08-28 Yozan Inc. Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
US4958375A (en) * 1988-02-17 1990-09-18 Nestor, Inc. Parallel, multi-unit, adaptive pattern classification system using inter-unit correlations and an intra-unit class separator methodology
US4931868A (en) * 1988-05-31 1990-06-05 Grumman Aerospace Corporation Method and apparatus for detecting innovations in a scene
US4893255A (en) * 1988-05-31 1990-01-09 Analog Intelligence Corp. Spike transmission for neural networks
US5050095A (en) * 1988-05-31 1991-09-17 Honeywell Inc. Neural network auto-associative memory with two rules for varying the weights
US4926064A (en) * 1988-07-22 1990-05-15 Syntonic Systems Inc. Sleep refreshed memory for neural network
KR940001173B1 (ko) * 1988-08-31 1994-02-16 후지쓰 가부시끼가이샤 뉴로 컴퓨터
US5063601A (en) * 1988-09-02 1991-11-05 John Hayduk Fast-learning neural network system for adaptive pattern recognition apparatus
US4979124A (en) * 1988-10-05 1990-12-18 Cornell Research Foundation Adaptive, neural-based signal processor
US4914604A (en) * 1988-10-07 1990-04-03 Hughes Aircraft Company Processor for analyzing angle-only data
US5003490A (en) * 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US5001631A (en) * 1988-10-07 1991-03-19 Hughes Aircraft Company Cellular network assignment processor using randomly triggered adaptive cell thresholds
US5093781A (en) * 1988-10-07 1992-03-03 Hughes Aircraft Company Cellular network assignment processor using minimum/maximum convergence technique
US4920506A (en) * 1988-10-07 1990-04-24 Hughes Aircraft Company Ultra-high speed two-dimensional coordinate transform processor
US4930099A (en) * 1988-10-07 1990-05-29 Hughes Aircraft Company Wavefront vector correlation processor and method
US4951239A (en) * 1988-10-27 1990-08-21 The United States Of America As Represented By The Secretary Of The Navy Artificial neural network implementation
US4906865A (en) * 1988-12-09 1990-03-06 Intel Corporation Sample and hold circuit for temporal associations in a neural network
US4912649A (en) * 1988-12-14 1990-03-27 Gte Government Systems Corporation Accelerating learning in neural networks
US4914603A (en) * 1988-12-14 1990-04-03 Gte Laboratories Incorporated Training neural networks
US4912653A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Trainable neural network
US4912652A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Fast neural network training
US4912651A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Speeding learning in neural networks
US4912647A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Neural network training tool
US4912654A (en) * 1988-12-14 1990-03-27 Government Systems Corporation Gte Neural networks learning method
US4912655A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Adjusting neural networks
JP2676397B2 (ja) * 1989-01-05 1997-11-12 株式会社エイ・ティ・アール視聴覚機構研究所 動的システムの運動軌道生成方法
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
US4974169A (en) * 1989-01-18 1990-11-27 Grumman Aerospace Corporation Neural network with memory cycling
US5033020A (en) * 1989-02-08 1991-07-16 Grumman Aerospace Corporation Optically controlled information processing system
US5222195A (en) * 1989-05-17 1993-06-22 United States Of America Dynamically stable associative learning neural system with one fixed weight
US5119469A (en) * 1989-05-17 1992-06-02 United States Of America Neural network with weight adjustment based on prior history of input signals
US5041976A (en) * 1989-05-18 1991-08-20 Ford Motor Company Diagnostic system using pattern recognition for electronic automotive control systems
US4939683A (en) * 1989-05-19 1990-07-03 Heerden Pieter J Van Method and apparatus for identifying that one of a set of past or historical events best correlated with a current or recent event
US5479578A (en) * 1989-06-15 1995-12-26 General Electric Company Weighted summation circuitry with digitally controlled capacitive structures
US5146542A (en) * 1989-06-15 1992-09-08 General Electric Company Neural net using capacitive structures connecting output lines and differentially driven input line pairs
US5274745A (en) * 1989-07-28 1993-12-28 Kabushiki Kaisha Toshiba Method of processing information in artificial neural networks
US5319587A (en) * 1989-08-07 1994-06-07 Rockwell International Corporation Computing element for neural networks
US5361328A (en) * 1989-09-28 1994-11-01 Ezel, Inc. Data processing system using a neural network
JP2724374B2 (ja) * 1989-10-11 1998-03-09 株式会社鷹山 データ処理装置
JPH03167655A (ja) * 1989-11-28 1991-07-19 Toshiba Corp ニューラルネットワーク
US5299284A (en) * 1990-04-09 1994-03-29 Arizona Board Of Regents, Acting On Behalf Of Arizona State University Pattern classification using linear programming
JPH0438587A (ja) * 1990-06-04 1992-02-07 Nec Corp 入力領域適応型ニューラルネットワーク文字認識装置
US5247605A (en) * 1990-07-02 1993-09-21 General Electric Company Neural nets supplied synapse signals obtained by digital-to-analog conversion of plural-bit samples
US5151970A (en) * 1990-07-02 1992-09-29 General Electric Company Method of generating, in the analog regime, weighted summations of digital signals
US5251626A (en) * 1990-07-03 1993-10-12 Telectronics Pacing Systems, Inc. Apparatus and method for the detection and treatment of arrhythmias using a neural network
US5181171A (en) * 1990-09-20 1993-01-19 Atlantic Richfield Company Adaptive network for automated first break picking of seismic refraction events and method of operating the same
US5615305A (en) * 1990-11-08 1997-03-25 Hughes Missile Systems Company Neural processor element
JP3088171B2 (ja) * 1991-02-12 2000-09-18 三菱電機株式会社 自己組織型パタ−ン分類システム及び分類方法
US5239594A (en) * 1991-02-12 1993-08-24 Mitsubishi Denki Kabushiki Kaisha Self-organizing pattern classification neural network system
US5204872A (en) * 1991-04-15 1993-04-20 Milltech-Hoh, Inc. Control system for electric arc furnace
US5263122A (en) * 1991-04-22 1993-11-16 Hughes Missile Systems Company Neural network architecture
US5671335A (en) * 1991-05-23 1997-09-23 Allen-Bradley Company, Inc. Process optimization using a neural network
US5170071A (en) * 1991-06-17 1992-12-08 Trw Inc. Stochastic artifical neuron with multilayer training capability
US5963930A (en) * 1991-06-26 1999-10-05 Ricoh Company Ltd. Apparatus and method for enhancing transfer function non-linearities in pulse frequency encoded neurons
US5226092A (en) * 1991-06-28 1993-07-06 Digital Equipment Corporation Method and apparatus for learning in a neural network
US5337371A (en) * 1991-08-09 1994-08-09 Matsushita Electric Industrial Co., Ltd. Pattern classification system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5299285A (en) * 1992-01-31 1994-03-29 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Neural network with dynamically adaptable neurons
DE69329218T2 (de) * 1992-06-19 2001-04-05 United Parcel Service Inc Verfahren und Vorrichtung zur Eingabeklassifizierung mit einem neuronalen Netzwerk
US5438629A (en) * 1992-06-19 1995-08-01 United Parcel Service Of America, Inc. Method and apparatus for input classification using non-spherical neurons
GB9214514D0 (en) * 1992-07-08 1992-08-19 Massachusetts Inst Technology Information processing
US5479574A (en) * 1993-04-01 1995-12-26 Nestor, Inc. Method and apparatus for adaptive classification
US6167390A (en) * 1993-12-08 2000-12-26 3M Innovative Properties Company Facet classification neural network
JPH07239938A (ja) * 1994-02-28 1995-09-12 Matsushita Electric Ind Co Ltd 検査方法
US7469237B2 (en) * 1996-05-02 2008-12-23 Cooper David L Method and apparatus for fractal computation
US6041322A (en) * 1997-04-18 2000-03-21 Industrial Technology Research Institute Method and apparatus for processing data in a neural network
US7096192B1 (en) * 1997-07-28 2006-08-22 Cybersource Corporation Method and system for detecting fraud in a credit card transaction over a computer network
US7403922B1 (en) 1997-07-28 2008-07-22 Cybersource Corporation Method and apparatus for evaluating fraud risk in an electronic commerce transaction
US6052679A (en) * 1997-09-11 2000-04-18 International Business Machines Corporation Artificial neural networks including Boolean-complete compartments
JP4147647B2 (ja) * 1998-11-09 2008-09-10 ソニー株式会社 データ処理装置およびデータ処理方法、並びに記録媒体
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
US8364136B2 (en) 1999-02-01 2013-01-29 Steven M Hoffberg Mobile system, a method of operating mobile system and a non-transitory computer readable medium for a programmable control of a mobile system
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
JP4344964B2 (ja) * 1999-06-01 2009-10-14 ソニー株式会社 画像処理装置および画像処理方法
US7865427B2 (en) 2001-05-30 2011-01-04 Cybersource Corporation Method and apparatus for evaluating fraud risk in an electronic commerce transaction
JP2003010762A (ja) * 2001-06-28 2003-01-14 Konica Corp 塗布装置及び塗布方法
US8712942B2 (en) * 2003-03-24 2014-04-29 AEMEA Inc. Active element machine computation
US7398260B2 (en) * 2003-03-24 2008-07-08 Fiske Software Llc Effector machine computation
US8010467B2 (en) * 2003-03-24 2011-08-30 Fiske Software Llc Active element machine computation
US8019705B2 (en) * 2003-03-24 2011-09-13 Fiske Software, LLC. Register and active element machines: commands, programs, simulators and translators
US20060112056A1 (en) * 2004-09-27 2006-05-25 Accenture Global Services Gmbh Problem solving graphical toolbar
US7904398B1 (en) 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
US9152779B2 (en) 2011-01-16 2015-10-06 Michael Stephen Fiske Protecting codes, keys and user credentials with identity and patterns
US10268843B2 (en) 2011-12-06 2019-04-23 AEMEA Inc. Non-deterministic secure active element machine

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3275986A (en) * 1962-06-14 1966-09-27 Gen Dynamics Corp Pattern recognition systems
US3408627A (en) * 1964-12-28 1968-10-29 Texas Instruments Inc Training adjusted decision system using spatial storage with energy beam scanned read-out

Also Published As

Publication number Publication date
FR2274088B1 (de) 1979-05-25
ES453378A1 (es) 1977-12-16
CA1042109A (en) 1978-11-07
US3950733A (en) 1976-04-13
ES436945A1 (es) 1977-04-01
JPS6012671B2 (ja) 1985-04-02
FR2274088A1 (fr) 1976-01-02
DE2524734B2 (de) 1980-03-20
GB1457338A (en) 1976-12-01
DE2524734C3 (de) 1981-01-08
ES453377A1 (es) 1977-11-16
NL176313C (nl) 1985-03-18
IT1036906B (it) 1979-10-30
NL176313B (nl) 1984-10-16
MX143269A (es) 1981-04-13
NL7506761A (nl) 1975-12-09
JPS5121749A (de) 1976-02-21
CH620307A5 (de) 1980-11-14

Similar Documents

Publication Publication Date Title
DE2524734A1 (de) Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden baugruppe
DE112011101370T5 (de) Neuronales Netz mit kanonischen gepulsten Neuronen für einen raumzeitlichen Assoziativspeicher
DE2844156A1 (de) Verfahren zum verifizieren eines sprechers
DE112020004321T5 (de) Kontextuelle erdung von phrasen in natürlicher sprache in bildern
DE102017218889A1 (de) Unscharf parametriertes KI-Modul sowie Verfahren zum Betreiben
DE102014107028B4 (de) Verbesserte biometrische Passwortsicherheit
DE3938645C1 (de)
DE112020002186T5 (de) Dnn-training mit asymmetrischen rpu-einheiten
EP3843011A1 (de) System und verfahren zur qualitätszusicherung von datenbasierten modellen
DE2133638C3 (de) Verfahren zum Betrieb eines lernfähigen Systems aus in Kaskade geschalteten, zur nicht linearen Datenverarbeitung geeigneten lernfähigen Datenverarbeitungseinheiten
DE967154C (de) Schaltkreis
DE1933195A1 (de) System bzw. Verfahren und Vorrichtung fuer eine Erkennung oder Ablesung von handgeschriebenen und/oder maschinengedruckten Zeichen
EP1519301A2 (de) Vorrichtung zur klassifikation physiologischer Ereignisse
DE2838185C2 (de) Korrelationseinrichtung in einem Radargerät zum Erfassen eines Radarsignals aus dem Rauschen
DE1091783B (de) Verfahren und Einrichtung zur Darstellung von Schriftzeichen auf dem Bildschirm einer Kathodenstrahlroehre
Spoerhase Hypothetischer Intentionalismus. Rekonstruktion und Kritik
DE112017008202T5 (de) Parsen von regulären Ausdrücken mit gepulsten neuralen Netzwerken
EP0646901B1 (de) Verfahren zur Verarbeitung der Signale eines passiven Infrarot-Detektors und Infrarot-Detektor zur Durchführung des Verfahrens
DE1807147A1 (de) Wellenformdetektor
DE4330847A1 (de) Vorrichtung und Verfahren zur Datenverarbeitung
EP1359539A2 (de) Neurodynamisches Modell der Verarbeitung visueller Informationen
Hiller et al. War on Terror revisited?
Friebe et al. Nicht-Kollaps-Interpretationen der Quantentheorie
Reinke Das Wissenschaftsverständnis der Volkswirtschaftslehre in der Kritik: Implikationen für die Vision einer pluralen Ökonomik
DE1474041C3 (de) Anordnung zum Sortieren von in zufälliger Reihenfolge aufgenommener Informationsbit Gruppen

Legal Events

Date Code Title Description
C3 Grant after two publication steps (3rd publication)
8327 Change in the person/name/address of the patent owner

Owner name: NESTOR, INC., NEW YORK, N.Y., US

8328 Change in the person/name/address of the agent

Free format text: RUFF, M., DIPL.-CHEM. DR.RER.NAT. BEIER, J., DIPL.-ING. SCHOENDORF, J., DIPL.-PHYS., PAT.-ANW., 7000 STUTTGART