DE102005014323A1 - Field Programmable synapse Array and method for its programming - Google Patents

Field Programmable synapse Array and method for its programming Download PDF

Info

Publication number
DE102005014323A1
DE102005014323A1 DE102005014323A DE102005014323A DE102005014323A1 DE 102005014323 A1 DE102005014323 A1 DE 102005014323A1 DE 102005014323 A DE102005014323 A DE 102005014323A DE 102005014323 A DE102005014323 A DE 102005014323A DE 102005014323 A1 DE102005014323 A1 DE 102005014323A1
Authority
DE
Germany
Prior art keywords
function
synapses
neurons
network
field programmable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102005014323A
Other languages
German (de)
Inventor
Frank Dr. Stüpmann
Steffen Dipl.-Ing. Rode
Dirk Dipl.-Phys. Diele
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SILICANN TECHNOLOGIES GmbH
Original Assignee
SILICANN TECHNOLOGIES GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SILICANN TECHNOLOGIES GmbH filed Critical SILICANN TECHNOLOGIES GmbH
Priority to DE102005014323A priority Critical patent/DE102005014323A1/en
Priority to PCT/EP2006/060831 priority patent/WO2006100209A2/en
Publication of DE102005014323A1 publication Critical patent/DE102005014323A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Abstract

Die Erfindung ist ein Feld Programmierbares Synapsen Array für die Integration eines neuronalen Netzes und ein Verfahren zur Programmierung des FPSA. DOLLAR A Die Aufgabe der Erfindung ist die Bereitstellung eines modularen analogen neuronalen integrierten Systems, welches sowohl sehr flexible als auch sehr komplexe Blöcke neuronaler Netze für Erkennungs- und Klassifikationsprobleme enthält. Durch ein Verfahren sollen mehrere Netztopologien auf einer integrierten Anordnung vereint werden. Die Anordnung soll von außen kontrolliert und strukturiert werden können und trotzdem nach der Konfiguration ein autark arbeitendes Klassifikationssystem sein, welches selbstständig lernt. DOLLAR A Das FPSA ist durch eine optimierte Anordnung in sich optimierter Verbindungen (Synapsen) topologielos als "sea of synapses" auf einem integrierten System mit modularer Struktur gekennzeichnet, welche ein generisches Netz von Dendriten und Axonen realisiert. DOLLAR A Für das Belehren der Anordnung wird eine lineare Funktion, eine Sigmoid-Funktion, eine quadratische Funktion und eine gaußsche Funktion entweder einzeln oder in Kombination von mehreren verwendet.The invention is a field programmable synapse array for the integration of a neural network and a method for programming the FPSA. DOLLAR A The object of the invention is to provide a modular analog neural integrated system which contains both very flexible and very complex blocks of neural networks for recognition and classification problems. One method is to combine several network topologies in an integrated arrangement. The arrangement should be able to be controlled and structured from the outside and still be an autonomous classification system after the configuration, which learns independently. DOLLAR A The FPSA is topologically characterized by an optimized arrangement of optimized connections (synapses) as "sea of synapses" on an integrated system with a modular structure, which realizes a generic network of dendrites and axons. DOLLAR A For teaching the arrangement, a linear function, a sigmoid function, a quadratic function, and a Gaussian function are used either singly or in combination of several.

Description

Die Erfindung ist ein Feld Programmierbares Synapsen Array (FPSA), ein intelligenter Prozessor und eine Chiplösung für die Integration eines neuronalen Netzes und ein Verfahren zur Programmierung des FPSA.The Invention is a Field Programmable Synapse Array (FPSA) intelligent processor and a chip solution for the integration of a neural Network and a method for programming the FPSA.

Künstliche neuronale Netze sind Modelle der Gehirnfunktion. Sie versuchen in Struktur und Funktionsweise Gehirnzellenkomplexe nachzubilden und dadurch eine tragfähige Simulation komplexer Denkvorgänge zu erzielen. Sie bieten ein Rechenmodell für die Informationsverarbeitung und sind damit eine Alternative zu den Computerrechenmodellen. Diese basieren weitgehend auf der Von-Neumann-Architektur. In der Literatur ist die Art der neuronalen Informationsverarbeitung sehr ausführlich dargestellt u.a. in [Rojas, R.; Neural Networks, Springer Verlag, Berlin u.a. 2002], [Zell, A.; Simulation neuronaler Netze; Oldenbourg-Verlag, Wien, 1994].artificial Neural networks are models of brain function. They try in Structure and functioning of replicating brain cell complexes and thereby a sustainable Simulation of complex thinking processes too achieve. They provide a computational model for information processing and are thus an alternative to the computer computer models. These are based largely on the von Neumann architecture. In the literature is the Type of neural information processing shown in great detail et al in [Rojas, R .; Neural Networks, Springer Verlag, Berlin and others. 2002], [Zell, A .; Simulation of neural networks; Oldenbourg-Verlag, Vienna, 1994].

Lernfähigkeit und Parallelität der Verarbeitung zählen zu den wichtigsten Merkmalen neuronaler Netze. Fehlertoleranz und Generalisierungsfähigkeit werden oft erreicht, hängen allerdings von der Wahl des Netzwerkmodells, der Netzwerkgröße und der Kodierung verarbeitenden Informationen (Ein- und Ausgabemuster) ab.learning ability and parallelism counting the processing to the most important features of neural networks. Fault tolerance and generalization are often reached, hang However, the choice of network model, the network size and the Coding processing information (input and output pattern) from.

Es gibt verschiedene Lernansätze für neuronale Netze: überwacht, unüberwacht und verstärkend.It are different learning approaches for neural Networks: supervised, unsupervised and reinforcing.

Beim überwachten Lernen (supervised learning) wird der Fehler zwischen berechnetem und gewünschtem Output minimiert. Bei der überwachten Lernphase wird einem Eingangsvektor (z.B. Symptome, Messwerte oder Bilder) ein Ausgangsvektor zugeordnet. Beim Einsatz eines neuronalen Netzes als Klassifikator erfolgt das Training ausschließlich mit den zu klassifizierenden Mustern. Nicht gelernte Muster und Störungen werden im späteren Einsatz als unbekannt klassifiziert.When supervised Learning (supervised learning) is the error between calculated and desired Output minimized. In the supervised Learning phase is given to an input vector (e.g., symptoms, readings, or Images) assigned to an output vector. When using a neural Netzes as a classifier, the training is done exclusively with the patterns to be classified. Not learned patterns and glitches later Use classified as unknown.

Unüberwachtes Lernen (unsupervised learning) ist Lernen ohne im Voraus bekannte Zielwerte. Dabei können verschiedene Dinge gelernt werden. Beliebt sind die automatische Klassifikation (Clustering) oder die Komprimierung von Daten zur Dimensionsreduktion. Es ist die Optimierung von Gewichten basierend auf Kriterien, die das Netz selber hat.unsupervised Learning (unsupervised learning) is learning without prior knowledge Target values. It can different things are learned. Popular are the automatic Classification (clustering) or the compression of data for Dimensionality reduction. It is the optimization of weights based on criteria that the network itself has.

Der Lernalgorithmus des bestärkenden Lernens (reinforcement learning) adaptiert Gewichte basierend auf Maximierung einer Belohnung (reward) bzw. Minimierung einer Bestrafung (punishment), die aufgrund des berechneten Outputs ausgesprochen wird.Of the Learning algorithm of the empowering Reinforcement learning adapts weights based on Maximizing a reward or minimizing a punishment (punishment) expressed on the basis of the calculated output becomes.

Ein Problem beim Einsatz neuronaler Netze ist die recht aufwendige Ermittlung der optimalen Netzstruktur und der Parameter, wie Ausgangsfunktionen der Neuronen, Schwelle, Minimum, Maximum, Lernregel, Lernrate und Anzahl der Lernschritte. Deshalb werden bei vielen Aufgaben aufwändige herkömmliche Verfahren (z.B. statistische oder regelbasierte Verfahren) eingesetzt, obwohl der Einsatz neuronaler Netze einfacher, schneller und preiswerter wäre.One Problem with the use of neural networks is the quite complex investigation the optimal network structure and parameters, such as output functions neurons, threshold, minimum, maximum, learning rule, learning rate and Number of learning steps. That is why many tasks are complicated conventional Methods (e.g., statistical or rule-based methods), although the use of neural networks is simpler, faster and cheaper would.

Neben der eigentlichen algorithmischen Aufgabe besteht noch die Anforderung der Implementierung. Wenn für eine gegebene Aufgabe eine bestimmte neuronale Struktur und Topologie gefunden wurde, ist es bei den Anforderungen an eine Embedded-Implementierung wichtig, eine geeignete Zielhardware zu finden. Hier spielen die Hardwareimplementierungen von neuronalen Netzen eine Rolle.Next the actual algorithmic task is still the requirement the implementation. If for a given task has a specific neural structure and topology found, it is in the requirements of an embedded implementation important to find a suitable target hardware. Here are the ones playing Hardware implementations of neural networks play a role.

Bei der Untersuchung von bestehenden Neurohardware-Lösungen wird deutlich, dass die digitalen Realisierungen den Hauptteil der kommerziellen Produkte stellen. Das ist zum einen dadurch begründet, dass digitale Schaltungstechnik einfacher zu beherrschen ist als analoge. Zum anderen sind die Designtools für digitale Schaltungstechnik deutlich komfortabler und weiter automatisiert als vergleichbare Tools für analoge Schaltungsentwicklung. Durch die längeren Enfinricklungszyklen in der Analog- im Vergleich zur Digitaltechnik, sind die Entwicklungskosten entsprechend höher.at The investigation of existing neurohardware solutions will clearly show that the digital realizations the main part of the commercial products put. This is due to the fact that digital circuit technology easier to master than analogue. Second, the design tools for digital Circuitry much more comfortable and further automated as comparable tools for analog circuit development. Due to the longer development cycles in the analogue compared to digital technology, are the development costs correspondingly higher.

Analoge Schaltungstechnik ist besonders für die Implementierung bestimmter Funktionen des neuronalen Netzes deutlich effektiver als ihr digitales Pendant. Dazu zählen Multiplikationen und Aktivierungsfunktionen. Es ist zu erwarten, dass neben den digitalen Implementierungen auch die analogen Ansätze in Zukunft leistungsfähige Realisierungen neuronaler Netze hervorbringen werden.analog Circuitry is special for the implementation of certain Functions of the neural network much more effective than their digital Counterpart. These include Multiplication and activation functions. It is to be expected that in addition to the digital implementations, the analog approaches will also be powerful in the future neuronal networks.

Bisherige Implementierungen haben gezeigt, dass mit der analogen Realisierungsvariante von Multilayerperzeptren mit einem Hidden-Layer Informationsverarbeitungsgeschwindigkeiten in der Reproduktionsphase vom Eingang zum Ausgang des Netzes von unter 5 μs erreicht werden. Der nicht lernfähige Analogchip von INTEL, der ETANN, benötigt für eine Reproduktion 8 μs. Die Gewichtsgenauigkeit liegt bei 6 Bit.Previous Implementations have shown that with the analog implementation variant of multilayer percepts with a hidden layer of information processing speeds in the reproduction phase from the entrance to the exit of the network of below 5 μs be achieved. The non-adaptive Analog chip from INTEL, the ETANN, requires 8 μs for a reproduction. The weight accuracy is 6 bits.

In dem Patent US 6513023 B1 geht es um die Implementierung eines analogen neuronalen Netzwerkes in Form eines MLP. Der Backpropagationalgorithmus wird mit On-Chip-Learning implementiert. Für das Neuron wird eine spezielle Schaltung vorgestellt, mit der die sigmoide Funktion und deren Ableitung abgebildet werden kann. Die Gewichte werden analog als Ladungen in Kapazitäten geladen und müssen regelmäßig aufgefrischt werden. Das Lernen erfolgt unter externer Überwachung.In the patent US 6513023 B1 is about the implementation of an analog neural network in the form of an MLP. The back propagation algorithm is implemented with on-chip learning. For the neuron, a special circuit is presented, with which the sigmoid function and its derivative can be mapped. The weights are charged analogously as charges in capacities and must be refreshed regularly. Learning takes place under external supervision.

Nachteil der Erfindung ist, dass die Implementierung fest ist. Eine Skalierung ist nur über ein Neudesign möglich. Die Implementierung ist auf ein Netzwerk mit Backpropagation begrenzt. Es ist kein anderer Algorithmus verwendbar.disadvantage The invention is that the implementation is fixed. A scaling is only over a new design possible. The implementation is limited to a network with backpropagation. There is no other algorithm usable.

In der Patentanmeldung WO 2003015027 A2 erfolgt das Lernen rein analog, die Gewichtsspeicherung erfolgt während der Lernphase analog kapazitiv in einem Kondensator und in der Arbeitsphase lokal digital in Registern hinter MDACs um nicht refreshen zu müssen. Hinzu kommt die globale Gewichtsspeicherung in einem Speicherblock und Überwachung, welche digital erfolgen. Es ist ein externer Controller notwendig, sodass dies keine reine On-Chip-Learning-/Self-Learnig-Implementierung darstellt. Die Analog-zu-Digital-Wandlung erfolgt durch 16 implementierte ADCs zeilenweise auf dem Chip. Auf dem Chip ist die Struktur des Multilayerperzeptrons frei wählbar. Der BPA mit Lernen ist hart verdrahtet. Es können keine anderen Algorithmen benutzt werden.In In patent application WO 2003015027 A2, learning takes place in a purely analogue manner. Weight storage is analogous during the learning phase Capacitive in a capacitor and in the working phase locally digital in registers behind MDACs in order not to have to refresh. in addition comes the global weight storage in a memory block and monitoring, which are done digitally. It is necessary to have an external controller so this is not a pure on-chip learning / self-learning implementation. The Analog-to-digital conversion is performed by 16 implemented ADCs line by line on the chip. On the chip is the structure of the multilayer perceptron freely selectable. The BPA with learning is hard-wired. There can be no other algorithms to be used.

Aus der Patentveröffentlichung DE 693 30 432 T2 ist ein Universaler neuronaler Netzwerkrechner und Superrechner bekannt. Es geht um die Implementierung eines zellularen neuronalen Netzes (CNN), eine mehrdimensionale Gitteranordnung einer Mehrzahl identischer Zellen. Jede Zelle agiert direkt mit einer vorgegebenen Anzahl von Zellen von r Nachbarschichten. Die r-Nachbarschaft ist das „Empfangsradiusfeld". Die Anwendung bestimmt, ob die Schichten von Nachbarzellen 2- oder 3-dimensional sind. Die Grundeinheit ist die Zelle mit linearen und nichtlinearen Schaltungselementen. Die Verbindung der Zellen wird je nach Anwendung durch eine Klonungsmaske bestimmt. Die vorgeschlagene Lösung ist ein CNN welches programmierbar ist, ohne dass dabei Hardwarekomponenten getauscht werden müssen.From the patent publication DE 693 30 432 T2 is a universal neural network computer and supercomputer known. It is about the implementation of a cellular neural network (CNN), a multi-dimensional grid arrangement of a plurality of identical cells. Each cell acts directly with a given number of cells of r neighboring layers. The r-neighborhood is the "receive radius field." The application determines whether the layers of neighboring cells are 2- or 3-dimensional The basic unit is the cell with linear and nonlinear circuit elements The connection of the cells is determined by a cloning mask, depending on the application The proposed solution is a CNN which is programmable without hardware components having to be swapped.

Nachteil dieser Veröffentlichung ist es, dass es sich um eine 2- oder 3-dimensionale Gitterstruktur handelt, in der die Prozessoren angeordnet sind. Es ist keine Struktur mit frei wählbarer Netztopologie. Die Prozessoren agieren nur in einer finiten Nachbarschaft miteinander. Damit bleibt die Anordnung auf wenige Algorithmen beschränkt.disadvantage this publication it is that it is a 2- or 3-dimensional lattice structure, in which the processors are arranged. It is not a structure with freely selectable Network topology. The processors only work in a finite neighborhood together. Thus, the arrangement is limited to a few algorithms.

In JP 2002358503 A wird allgemein die Steuerung von skalierbaren analogen Blöcken durch digitale Switches und digitale Verbindungsschaltungen beschrieben. Die digitalen Schaltungsblöcke jeder Zelle sind die sogenannten „programmable devices". Die analogen Schaltungsblöcke können durch das Programmieren dieser „devices" konfiguriert, d.h. mit einander verbunden werden. Damit kann ein Netz strukturiert werden. Daneben sind Schaltungen, die jeweils zur Konfiguration des jeweiligen Blockes existieren. Außerdem gibt es jeweils einen Speicherblock, der die Information über den Schaltzustand der Switches und die Konfiguration der jeweiligen Schaltungen enthält.In JP 2002358503 A In general, the control of scalable analog blocks by digital switches and digital connection circuits is described. The digital circuit blocks of each cell are the so-called "programmable devices." The analog circuit blocks can be configured by programming these "devices", ie, interconnected. This can be used to structure a network. In addition, there are circuits that each exist for configuring the respective block. In addition, there is a memory block each containing the information about the switching state of the switches and the configuration of the respective circuits.

Nachteilig ist hier, dass es eine sehr allgemeine Beschaltung von analogen und digitalen Schaltungsblöcken zur Umsetzung von Signalverarbeitungsfunktionen gibt. Für lernende Strukturen, wie sie für ein neuronales Netz benötigt werden, ist ein großer Aufwand vonnöten. Es bestehen keine vorbelegten Aktivierungsfunktionen, die entsprechend der Netztopologie und der verwendeten Neuronentypen ausgewählt werden kann.adversely Here is that there is a very general wiring of analog and digital circuit blocks to implement signal processing functions. For learners Structures as they are for a neural network is needed be, is a big one Required effort. There are no pre-assigned activation functions that correspond accordingly network topology and neuron types used.

Die Nachteile der vorgenannten Lösungen sind, dass

  • – Der Anwendungsingenieur die Chips bis in das kleinste Detail genau kennen muss, damit er die Schaltkreise einsetzen kann.
  • – Ein sehr großer schaltungstechnischer Aufwand betrieben werden muss, um diese Chips in einer Anwendung zu integrieren.
  • – Entweder nur eine Netz-Topologie umgesetzt werden kann oder die Netztopologie von außen nicht programmierbar ist.
  • – Ein sehr großer schaltungstechnischer Aufwand betrieben werden muss, um die nichtlinearen Aktivierungsfunktionen zu integrieren.
The disadvantages of the aforementioned solutions are that
  • - The application engineer must know the chips to the smallest detail so that he can use the circuits.
  • - A very large circuit complexity must be operated to integrate these chips in one application.
  • - Either only one network topology can be implemented or the network topology is not programmable from the outside.
  • - A very large circuitry effort must be made to the nonlinear activity integration functions.

[Aufgabe der Erfindung]OBJECT OF THE INVENTION

Die Aufgabe der Erfindung ist die Bereitstellung eines modularen analogen neuronalen intergrierten Systems, welches sowohl sehr flexible, als auch sehr komplexe Blöcke neuronaler Netze für Erkennungs- und Klassifikationsprobleme enthält. Die neuronale Struktur auf der Anordnung soll schaltungstechnisch so gestaltet werden, dass eine möglichst große Anzahl von Netztopologien implementiert werden kann.The The object of the invention is to provide a modular analog neural integrated system, which is both very flexible, as well as very complex blocks neural networks for Contains recognition and classification problems. The neural structure on the arrangement should be designed circuitically so that one possible size Number of network topologies can be implemented.

Es ist weiterhin die Aufgabe durch ein Verfahren mehrere Netztopologien auf einer intergrierten Anordnung zu vereinen, so dass der Anwender durch Programmierung in der Lage ist, eine neuronale Netzwerk-Topologie zu wählen. Die Anordnung soll von außen kontrolliert und strukturiert werden können und trotzdem nach der Konfiguration ein autark arbeitendendes Klassifikationssystem sein, welches selbstständig lernt.It is still the task by a method multiple network topologies to unite on an integrated arrangement, allowing the user by programming is capable of a neural network topology to choose. The arrangement should be from the outside can be controlled and structured and still after the Configuration be a self-sufficient classification system which independently learns.

Die Lösung der Aufgabe erfolgt durch das erfindungsgemäße Feld-Programmierbare Synapsen Array und ein Verfahren zur Programmierung des FPSA, wie es in den Ansprüchen beschrieben wird.The solution The object is achieved by the field programmable synapse array according to the invention and a Method of programming the FPSA as described in the claims becomes.

Das Feld Programmierbare Synapsen Array ist dadurch gekennzeichnet, dass eine optimierte Anordnung in sich optimierter Verbindungen (Synapsen) topologielos als „sea of synapses" auf einem integrierten System mit modularer Struktur realisiert wird, welche ein generisches Netz von Dendriten und Axonen realisiert, wodurch Prozessoren (Neuronen) derart verschaltet werden, dass sie geschichtet werden und eine Vielzahl von Topologien neuronaler Netze abbilden.The Field Programmable Synapses Array is characterized that an optimized arrangement in optimized connections (Synapses) topologielos as "sea of synapses " an integrated system with a modular structure is realized, which realizes a generic network of dendrites and axons, whereby processors (neurons) are connected in such a way that they be layered and a variety of topologies neural networks depict.

Für das Belehren der Anordnung wird eine lineare Funktion, eine Sigmoid-Funktion, eine quadratische Funktion und eine gaußsche Funktion entweder einzeln oder in Kombination von mehreren verwendet.For teaching The arrangement becomes a linear function, a sigmoid function, a quadratic function and a gaussian Function used either singly or in combination of several.

Vorteileadvantages

Die bestehenden Entwicklungen sind mit der hier dargestellten Erfindung nicht zu vergleichen. Der wesentliche Vorteil dieser Lösung ist es, dass nach Produktion eines Standardchip-Releases festgelegt werden kann, welche konkrete Topologie (=Anwendung) implementiert werden soll.The Existing developments are with the invention presented here Not comparable. The main advantage of this solution is it set that after producing a standard chip release which implements concrete topology (= application) shall be.

Das neuronale Netz auf der integrierten Anordnung ist schaltungstechnisch so gestaltet, dass eine möglichst große Anzahl von Netztopologien implementiert werden kann.The Neural network on the integrated array is circuit technology designed to be as possible size Number of network topologies can be implemented.

Dazu werden die Synapsen so gestaltet, dass sie in einem Feld angeordnet sind und von außen über Programmierung nach Möglichkeit mit jedem Neuron verbunden werden können.To The synapses are designed so that they are arranged in a field are and externally about programming if possible can be connected to any neuron.

Die Anordnung besitzt, im Gegensatz zu anderen herkömmlichen neuronalen Hardwarelösungen, eine modulare Struktur. Damit können sowohl die Anzahl der benötigten Synapsen als auch die Form der Neuronen-Aktivierungsfunktionen variiert werden. In Abhängigkeit vom Lernprozess und der jeweils gewählten Netztopologie sowie den vorgegebenen Mustern lassen sich Toleranz und Trennschärfe direkt trainieren. Diese Eigenschaften führen dazu, dass eine Vielzahl von Embedded-Lösungen für komplexe Klassifikationsaufgaben überhaupt erst möglich wird.The Arrangement has, in contrast to other conventional neural hardware solutions, a modular structure. With that you can both the number of needed Synapses as well as the shape of the neuron activation functions varies become. Dependent on from the learning process and the selected network topology as well as the given patterns allow tolerance and selectivity directly work out. These properties cause a variety of embedded solutions for complex Classification tasks at all only possible becomes.

So wird der Forderung nach sowohl hochgradig flexiblen, als auch immer komplexeren Komponenten für Erkennungs- und Klassifikationsprobleme genügt.So meets the requirement for both highly flexible, and always more complex components for Recognition and classification problems are sufficient.

Die gleichzeitige Integration einer digitalen Standard-Schnittstelle erhöht die Flexibilität und die Handhabbarkeit der Anorgnung. Im Zusammenhang mit der steigenden Akzeptanz neuronaler Lösungen für technische Klassifikationsprobleme öffnen sich dem geplanten Produkt breite Anwendungsmöglichkeiten. Selbst nach Produktion eines Chip-Releases können Netztopologien mit modernen Verfahren (z.B. evolutionäre, genetische und statistische Algorithmen) optimiert werden und in die zuvor produzierte Charge implementiert werden. Während bisher Fehler in einzelnen Blöcken des zu implementierenden neuronalen Netzes zum Verwerten der gesamten Chip-Produktion führen, ist der Erfolg der Chip-Produktion nun nicht mehr abhängig von der Qualität des implementierten Netzes, da defekte Synapsen oder Neuronen abgeschaltet werden können.The simultaneous integration of a standard digital interface elevated the flexibility and the handling of the Anorgnung. In connection with the rising Acceptance of neural solutions for technical Open classification problems the planned product wide application possibilities. Even after production of a chip release can Network topologies with modern methods (e.g., evolutionary, genetic and statistical algorithms) and in the previously produced batch can be implemented. While previously errors in individual blocks of the neural network to be implemented for exploiting the whole Chip production to lead, the success of the chip production is no longer dependent on the quality of the implemented network because defective synapses or neurons are switched off can be.

Mit diesen Eigenschaften kann die Entwicklungsarbeit (von Abhängigkeiten) entflechtet und parallelisiert werden, da

  • • durch das modulare Systemkonzept Modulentwickler parallel arbeiten können und der Abstimmungsaufwand reduziert wird.
  • • die Entwicklung der Netztopologien parallel und unabhängig von der Chip-Entwicklung erfolgen kann.
  • • die Anwendungsentwicklung nicht auf die Fertigstellung bestimmter Chips (ASICs) angewiesen ist, sondern auf standardisierte Produkt-Releases zurückgreifen kann.
With these characteristics, the development work (of dependencies) can be unbundled and paralleled be siert, there
  • • be able to work in parallel with the modular system concept module developers and reduce the coordination effort.
  • • the development of network topologies can be parallel and independent of the chip development.
  • • application development does not rely on the completion of certain chips (ASICs), but can rely on standardized product releases.

Mit einer variablen Anzahl von Verarbeitungseinheiten besitzt die Anordnung eine Struktur, die der Anwender selbst wählen kann.With a variable number of processing units has the arrangement a structure that the user can choose himself.

Mit einer Verarbeitungsgeschwindigkeit im Nanosekundenbereich benötigt der Schaltkreis nur einen Bruchteil der Zeit, die die bislang schnellsten Produkte für die Reproduktion benötigen.With a processing speed in the nanosecond range requires the Circuit only a fraction of the time, which is the fastest so far Products for need the reproduction.

Die Modularität der Netzwerktopologie führt zu einer einfacheren Handhabung durch den Anwendungsingenieur. Dadurch wird die Hemmschwelle zum Umstieg auf eine neuronale Lösung gesenkt.The modularity the network topology leads for easier handling by the application engineer. Thereby the inhibition threshold for switching to a neuronal solution is lowered.

Es sind neuartige Anwendungen in den Bereichen Auswertung von Sensorarrays in der Automotiv-Industrie, in der Druckindustrie sowie in der Luft- und Raumfahrt denkbar.It are novel applications in the field of sensor array evaluation in the automotive industry, in the printing industry and in the air- and space travel conceivable.

Die Erfindung wird anhand von Beispielen näher erläutert. Dabei zeigen die Figuren:The The invention will be explained in more detail by means of examples. The figures show:

1 Synapsenblock mit Register 1 Synapse block with register

2 Neuronenfunktionen 2 neuron functions

3 Hiddenneuroenenblock 3 Hiddenneuroenenblock

4 Input-Hidden-Output-Neuronenblock 4 Input-output neurons Hidden Block

5 Perzeptron-Typ 5 Perceptron type

6 Nearest-Neighbour-Typ 6 Nearest neighbor type

7 Beispiel zum Netzaufbau 7 Example of network setup

8 Einschichtiges Perzeptronnetz und Synapsen mit linearer bzw. nichtlinearer Aktivierungsfunktion, Netz bestehend aus 4 Eingängen, 16 Synapsen und 4 Ausgängen 8th Single-layer perceptron network and synapses with linear or nonlinear activation function, network consisting of 4 inputs, 16 synapses and 4 outputs

9 Perzeptronnetz mit einer versteckten Schicht, Netz bestehend aus 4 Eingängen, 16 versteckten Synapsen, 4 versteckten Neuronen, 16 Ausgangssynapsen und 4 Ausgangsneuronen 9 Perceptive mesh with a hidden layer, network of 4 inputs, 16 hidden synapses, 4 hidden neurons, 16 output synapses and 4 output neurons

10 Perzeptronnetz mit zwei versteckten Schichten, Netz bestehend aus 4 Eingängen, 16 versteckten Synapsen und 4 versteckten Neuronen in der ersten versteckten Schicht, 16 versteckten Synapsen und 4 versteckten Neuronen in der zweiten versteckten Schicht, 16 Ausgangssynapsen und 4 Ausgangsneuronen 10 Perceptual mesh with two hidden layers, network of 4 inputs, 16 hidden synapses and 4 hidden neurons in the first hidden layer, 16 hidden synapses and 4 hidden neurons in the second hidden layer, 16 output synapses and 4 output neurons

11 Perzeptronnetz mit drei versteckten Schichten, Netz bestehend aus 4 Eingängen, 16 versteckten Synapsen und 4 versteckten Neuronen in der ersten versteckten Schicht, 16 versteckten Synapsen und 4 versteckten Neuronen in der zweiten versteckten Schicht, 16 versteckten Synapsen und 4 versteckten Neuronen in der dritten versteckten Schicht, 16 Ausgangssynapsen und 4 Ausgangsneuronen 11 Tasterwire network with three hidden layers, network of 4 inputs, 16 hidden synapses and 4 hidden neurons in the first hidden layer, 16 hidden synapses and 4 hidden neurons in the second hidden layer, 16 hidden synapses and 4 hidden neurons in the third hidden layer , 16 output synapses and 4 output neurons

12 2 parallele Perzeptronnetze mit je 2 Eingängen, je einer versteckten Schicht bestehend aus 4 Synapsen und 2 Neuronen und je einer Ausgangsschicht bestehend aus 4 Synapsen und 2 Ausgängen 12 2 parallel perceptron networks with 2 inputs each, one hidden layer each consisting of 4 synapses and 2 neurons and one output layer each consisting of 4 synapses and 2 outputs

13 Ein erstes Perzeptronnetz mit 2 Eingängen, einer versteckten Schicht bestehend aus 4 Synapsen und 2 Neuronen und einer Ausgangsschicht bestehend aus 4 Synapsen und 2 Ausgängen und ein zweites Perzeptronnetz mit 2 Eingängen, einer ersten versteckten Schicht bestehend aus 4 Synapsen und 2 Neuronen, einer zweiten versteckten Schicht bestehend aus 4 Synapsen und 2 Neuronen und einer Ausgangsschicht bestehend aus 4 Synapsen und 2 Ausgängen 13 A first perceptron network with 2 inputs, a hidden layer consisting of 4 synapses and 2 neurons and an output layer consisting of 4 synapses and 2 outputs and a second perceptron network with 2 inputs, a first hidden layer consisting of 4 synapses and 2 neurons, a second hidden one Layer consisting of 4 synapses and 2 neurons and one output Layer consisting of 4 synapses and 2 outputs

14 Netz zur einfachen Klassifizierung mit 3 Eingängen und 4 Ausgängen 14 Network for easy classification with 3 inputs and 4 outputs

15 RBF-Netz mit 3 Eingängen, einer versteckten Schicht bestehend aus 6 Synapsen und 2 Neuronen und einer Ausgangsschicht bestehend aus 4 Synapsen und 2 Neuronen 15 RBF network with 3 inputs, a hidden layer consisting of 6 synapses and 2 neurons and an output layer consisting of 4 synapses and 2 neurons

16 Winner-Take-All-Netz mit 3 Eingängen, 3 Ausgängen und 15 Synapsen. Bei Nichtausbildung aller Synapsenverbindungen kann dieses Netz auch als Kohonen Feature Maps angesehen werden. 16 Winner take all network with 3 inputs, 3 outputs and 15 synapses. If all synapse connections are not trained, this network can also be considered a Kohonen feature map.

17 Hopfield-Netz bestehend aus 3 Eingängen, 3 Ausgängen und 6 Synapsen 17 Hopfield network consisting of 3 inputs, 3 outputs and 6 synapses

Voraussetzung für die Umsetzung ist ein streng objekt-orientiertes (modulares und hierarchisches) Systemkonzept mit klar definierten Schnittstellen zwischen den Hierarchie- und Modul-Ebenen und den Instanzen einer Modul-Ebene, z.B.

  • – System
  • – Funktionsblöcke
  • – Netz
  • – Topologie (bzw. Parallelprozessor-Anordnung)
  • – Segmente
  • – Neuron (bzw. Prozessor) • Dendrit • Axon
  • – Synapse
Prerequisite for the implementation is a strictly object-oriented (modular and hierarchical) system concept with clearly defined interfaces between the hierarchy and module levels and the instances of a module level, eg
  • - System
  • - Function blocks
  • - Network
  • - topology (or parallel processor arrangement)
  • - Segments
  • - neuron (or processor) • dendrite • axon
  • - Synapse

Dieses Systemkonzept hat den Vorteil, dass die verschiedenen Modul-Ebenen unabhängig voneinander optimiert und standardisiert werden können.This System concept has the advantage that the different module levels independently be optimized and standardized from each other.

Unter dieser Voraussetzung kann auf dem Chip eine optimierte Anordnung in sich optimierter Verbindungen (Synapsen) zunächst topologielos als „sea of synapses" realisiert werden.Under This requirement can be optimized on-chip in optimized connections (synapses), initially topologyless as "sea of synapses "realized become.

Mit dieser Anordnung wird ein generisches Netz von Dendriten und Axonen realisiert, welches Prozessoren (Neuronen) derart verschaltet, dass sie geschichtet werden können und eine Vielzahl von Topologien neuronaler Netze abbilden können.With This arrangement becomes a generic network of dendrites and axons realized which processors (neurons) interconnected in such a way that they can be layered and map a variety of neural network topologies.

Die Anordnung erfolgt so, dass nach der Produktion des Chips eine konkrete anwendungsspezifische Topologie in den Chip „gebrannt" werden kann.The Arrangement takes place so that after the production of the chip a concrete application-specific topology can be "burned" into the chip.

In Analogie zu FPGAs und FPAAs lässt sich diese Anordnung als FPSA (Field-Programmable Synapses-Array) bezeichnen.In Analogy to FPGAs and FPAAs leaves this arrangement is called FPSA (Field Programmable Synapses Array).

Die auf dieser einheitlichen Technologie basierenden FPSA-Schaltkreise lassen sich in unterschiedlichen Skalierungsstufen für verschiedene Anwendungsgebiete produzieren und so ein diversifiziertes Portfolio von Standard-Produkten erzeugen, die für die jeweilige Anwendung maßgeschneidert werden können.The on this single technology based FPSA circuits can be used in different scaling levels for different Application areas produce and so a diversified portfolio of Produce standard products tailored for each application can be.

Für das Belehren des Chips wird ein Verfahren entwickelt, mit dem ein selbstständiges Anpassen des neuronalen Netzes möglich ist. Der Reproduktionspfad kann voll integriert sein. Die Gewichte werden in dieser Variante extern auf einem Rechner gelernt und dann komplett geladen.For teaching The chip is a process developed with a self-adjusting of the neural network possible is. The reproduction path can be fully integrated. The weights are learned externally on a computer in this variant and then completely charged.

Der modulare Chip ist ein neuronaler Klassifikator, der selbstständig lernt. Das Lernen wird beim überwachten Lernen jedoch von einem Trainer überwacht. Beim unüberwachten Lernen werden u.a. Ähnlichkeiten gesucht und entsprechenden Clustern zugeordnet.Of the modular chip is a neural classifier that learns independently. The learning becomes supervised However, learning supervised by a coach. When unsupervised Learning will be i.a. Similarities wanted and corresponding clusters.

Die Abmessungen dieser Einheit ermöglichen erstmals den Einsatz verschiedener Topologien neuronaler Netze in einem sensornahen System für mobile und autonome Anwendungen und Geräte. Diese einfachere und schnellere Realisierung eines neuronalen Netzes auf der Basis eines derartigen Chips soll bisherige Implementierungsvarianten ablösen und künstlichen neuronalen Netzen u.a. für Entscheidungsaufgaben in Verbindung mit Sensoren und Messwertaufnehmern wesentlich vereinfachen.The Allow dimensions of this unit For the first time the use of different topologies of neural networks in a sensor-related system for mobile and autonomous applications and devices. This easier and faster Realization of a neural network based on such Chips should replace previous implementation variants and artificial neural networks, etc. For Decision tasks in connection with sensors and transducers considerably simplify.

Eigenschaften des Netzes:

  • – allgemeine Strukturvariabilität, d. h. variabler Algorithmus und skalierbare Netzgröße (Grenze: Anzahl der Synapsen)
  • – variable Anzahl von versteckten Schichten möglich (max. 4)
  • – mehrere Netze parallel und unabhängig voneinander implementierbar
Properties of the network:
  • General structure variability, ie variable algorithm and scalable network size (limit: number of synapses)
  • - variable number of hidden layers possible (max 4)
  • - Multiple networks can be implemented in parallel and independently of each other

Die Signalübertragung zwischen Neuronen, Synapsen, Ein- und Ausgängen erfolgt durch differenzielle Ströme.The signal transmission between neurons, synapses, inputs and outputs is done by differential Streams.

Synapsensynapses

Alle Synapsen im Synapsenarray sind gleich aufgebaut und realisieren die gleichen Funktionen (1). Dies sind zum einen die Speicherung eines Gewichtswertes in Form einer digitalisierten Spannung durch Speicherung in digitalen Registern oder RAM-Zellen.All synapses in the synapse array have the same structure and implement the same functions ( 1 ). These are, on the one hand, the storage of a weight value in the form of a digitized voltage by storage in digital registers or RAM cells.

Zum anderen wird in der Synapse die Multiplikation des gespeicherten Gewichtswertes mit dem an der Synapse anliegenden Eingangswert durchgeführt (wi·xi).On the other hand, in the synapse the multiplication of the stored weight value is carried out with the input value applied to the synapse (w i * x i ).

Wird der Gewichtswert digital gespeichert, muss in der Synapse ein DAC implementiert sein. Die Umwandlung der analogen Gewichtswerte in digitale Bitmuster erfolgt durch ein Netz aus geschalteten:Becomes The weight value stored digitally must have a DAC in the synapse be implemented. The conversion of the analog weight values in digital bit pattern is done through a network of switched:

  • 1. Kapazitäten,1. capacities,
  • 2. Widerständen oder2. resistances or
  • 3. Stromquellen.3. Power sources.

Die Synapsen sind adressierbar, so dass Gewichtswerte hinein geschrieben oder heraus gelesen werden können.The Synapses are addressable, so weight values are written into it or can be read out.

Die funktionale Sonderform Biassynapse ist genau wie die Synapse aufgebaut und kann auch als solche vewendet werden.The functional special form Biassynapse is built exactly like the synapse and can also be used as such.

Die Synapsen sind in Blöcken zu jeweils vier angeordnet. Zwischen den oberen und unteren sowie zwischen den rechten und linken beiden sind je vier Doppeldrahtleitungen angeordnet. Die Ein- und Ausgänge der Synapsen können durch:

  • 1. variable Programmierung von Transistorgates oder
  • 2. feste Programmierung durch Fuses
auf diese Leitungen beliebig aufgeschaltet werden. Dabei dürfen die zwei differenziellen Ein- und Ausgangsleitungen einer Synapse jedoch nur jeweils auf eine Leitung verdrahtet werden. Dabei können jedoch mehrere differentielle Ein- bzw. Ausgangsleitungen von unterschiedlichen Synapsen auf den gleichen Leitungspaaren verdrahtet sein.The synapses are arranged in blocks of four each. Between the upper and lower as well as between the right and left two four four-wire cables are arranged. The inputs and outputs of the synapses can be:
  • 1. variable programming of transistor gates or
  • 2. Fixed programming by fuses
be switched on any of these lines. However, the two differential input and output lines of a synapse may only be wired to one line at a time. However, several differential input and output lines of different synapses on the same cable pairs can be wired.

Um die Programmierung vornehmen zu können, ist in jedem Synapsenblock ein Register vorgesehen, in dem die Schalterstellung kodiert gespeichert wird.Around programming is possible in every synapse block a register provided in which stores the switch position coded becomes.

Neuronenneurons

Im Netz gibt es unterschiedliche Neuronen-Formen. Allgemein haben sie jedoch die Aufgabe, die Berechnung eines Funktionswertes aus der Summe der an ihrem Eingang anliegenden Signale zu berechnen.in the Net, there are different neuron forms. Generally they have however, the task of calculating a function value from the To calculate the sum of the signals present at its input.

Es werden vier Funktionen (2) für die Neuronen bereitgestellt. Dies sind:

  • 1. die lineare Funktion,
  • 2. die sigmoide Funktion,
  • 3. die quadratische Funktion und
  • 4. die gaußsche Funktion.
There are four functions ( 2 ) for the neurons. These are:
  • 1. the linear function,
  • 2. the sigmoid function,
  • 3. the quadratic function and
  • 4. the gaussian function.

Die Sigmoid-Funktion ist neben der linearen Funktion die Standardaktivierungsfunktion. Beide werden topologisch betrachtet in den Hiddenschichten und der Ausgangsschicht zur Verfügung gestellt. Die Sigmoid Funktion wird insbesondere beim Multilayerperzeptron verwendet.The Sigmoid function is the default activation feature in addition to the linear function. Both are considered topologically in the hidden layers and the Starting layer available posed. The sigmoid function becomes especially with the Multilayerperzeptron used.

Die quadratische Funktion kann nur in den Hiddenschichten eingesetzt werden, während die gaußsche Funktion (Nearest Neighbour) nur in der Ausgangsschicht verwendet werden kann Die Funktionsverläufe können jeweils über verschiedene Parameter eingestellt werden (z.B. Sigmoid-Funktion – Steilheit über Arbeitsstrom veränderbar).The quadratic function can only be used in the hidden layers while the gauss The function curves can each be set via various parameters (eg sigmoid function - slope can be changed via working current).

Von den vier Funktionen kann entweder eine ausgewählt oder eine Kombination von mehreren vorgenommen werden.From The four functions can either select one or a combination of several be made.

Die Hiddenneuronenfunktionen können in besonderen Fällen auch eine synaptische Funktionsaufgabe übernehmen. Soll, wie z.B. beim Nearest-Neighbor-Netz, durch eine Synapse die Funktion zur Berechnung des euklidischen Abstandes (wi – xi)2 ausgeführt werden, kann dies hier mit durch die Summe von (wi 2 – 2·wi·xi + x2) umgesetzt werden. Dabei wird der Wert wi 2 in einer Biassynapse, der Wert –2·wi – xi in einer allgemein verwendbaren Synapse und der Wert xi 2 in einem Hiddenneuron erzeugt und die Ausgänge auf einem Knoten zu (wi – xi)2 addiert.The hidden neuron functions can also assume a synaptic function task in special cases. If, as in the nearest neighbor web, through a synapse, the function for calculating the Euclidean distance (w i - x i), for example, be carried out 2, this may here by the sum of (w i 2 - 2 · w i · x i + x 2 ) are implemented. The value w i 2 is generated in a biassynapse, the value -2 · w i - x i in a generally usable synapse and the value x i 2 in a hidden neuron and the outputs on a node are added to (wi - xi) 2 ,

Die Neuronenfunktionen sind zu Blöcken zusammengefasst. Die Verdrahtung erfolgt wie bei den Synapsen durch Programmierung eines Registers. Für die Hiddenneuronenblöcke (3) ist jeweils ein Block mit der linearen, einer mit der Sigmoid- und einer mit der quadratischen Funktion zusammen mit einer Synapse implementiert. Die Synapse kann dabei z.B. als Bias- oder Rückkopplungssynapse eingesetzt werden, was bei rückgekoppelten Netzen erforderlich ist. Diese Neuronenblöcke sind am linken, rechten und oberem Rand des Netzes platziert.The neuron functions are combined into blocks. The wiring is done as with the synapses by programming a register. For the hidden neuron blocks ( 3 ) one block each is implemented with the linear, one with the sigmoid function and one with the quadratic function together with a synapse. The synapse can be used for example as a bias or feedback synapse, which is required in fed-back networks. These neuron blocks are placed on the left, right and top edges of the mesh.

Am unteren Rand sind Blöcke mit drei Eingängen und je zwei Neuronen angeordnet. Diese Output-Hidden-Neuronenblöcke (4) können wahlweise als Neuronen der Hidden- oder Ausgangsschicht behandelt werden. Dabei enthält das eine Neuron die lineare und die sigmoide Funktion und das andere Neuron die lineare und die gaußsche Funktion. Diese beiden Neuronen enthalten keine Verbindungen zu Bias- oder Rückkopplungssynapsen. Dafür ist in ihnen aber ein zuschaltbarer Treiber implementiert, der es ermöglicht, externe Lasten anzusteuern, ohne dass zusätzlicher schaltungstechnischer Aufwand zwischen Chip und angeschlossenen Aktuatoren benötigt wird. Gleichzeitig wird dadurch der Einfluss zusätzlicher Fehlerquellen auf die Ausgangssignale der Anordnung vermieden, da der Signalfluss zwischen Sensor und Aktuator extrem kurz gehalten wird. Es erfolgt keine Analog/Digital- oder Digital/Analog-Wandlung. Außerdem werden im optimalen Fall keine weiteren Treiber und Wandler benötigt.At the bottom are blocks with three inputs and two neurons each. These output-hidden neuron blocks ( 4 ) can optionally be treated as neurons of the hidden or output layer. One neuron contains the linear and the sigmoid function and the other neuron the linear and Gaussian functions. These two neurons do not contain connections to bias or feedback synapses. But a switchable driver is implemented in them, which makes it possible to control external loads without the need for additional circuitry between the chip and connected actuators. At the same time the influence of additional sources of error on the output signals of the arrangement is avoided because the signal flow between the sensor and the actuator is kept extremely short. There is no analog / digital or digital / analog conversion. In addition, no further drivers and converters are needed in the optimal case.

In 5 wird der Perzeptron-Typ dargestellt. Beim Perzeptron-Typ werden die Eingangssignale gewichtet (mit einem Gewichtswert multipliziert). Anschließend erfolgt eine Summation der gewichteten Eingangssignale. Dies entspricht mathematisch dem Skalarprodukt. Nach der Skalarbildung erfolgt die Übertragung der Summe durch eine spezielle Funktion (linear, sigmoid, sprungförmig).In 5 the perceptron type is displayed. In the perceptron type, the input signals are weighted (multiplied by a weight value). This is followed by a summation of the weighted input signals. This corresponds mathematically to the scalar product. After scalar formation, the sum is transferred by a special function (linear, sigmoid, jump-shaped).

Mit diesem Typ lassen sich alle möglichen Vernetzungstopologien realisieren, die dann z.B. zum sogenannten Multilayerperzeptron werden.With This type can be all possible Realize mesh topologies, which are then e.g. to the so-called Become a multilayer perceptron.

6 zeigt den Nearest-Neighbour-Typ. Beim „Nearest-Neighbour-Typ" wird die Differenz zwischen Eingangssignal und Gewicht gebildet und diese anschließend quadriert. Es wird dann die Summe der Quadrate gebildet. 6 shows the nearest neighbor type. In the nearest neighbor type, the difference between the input signal and the weight is formed and then squared, and the sum of the squares is then formed.

Zieht man noch die Quadratwurzel aus der Summe, entspricht dies der Berechnung des Abstandes (eukliedische Distanz) zwischen anliegendem Signal und gespeichertem Gewichtsvektor (daher der Name „Nächster Nachbar"). Dies ist für die Funktion des Netzes aber nicht entscheidend. Es hätte aber den Vorteil, dass dieser Wert bei 1 bis 3-dimensionalen Vektoren geometrisch interpretierbar ist, wie etwa im 3-dimensionalen Farbraum.attracts if you add the square root of the sum, this corresponds to the calculation the distance (Euclidean distance) between adjacent signal and stored weight vector (hence the name "nearest neighbor"). This is for the function of the network but not crucial. But it would have the advantage that this value can be interpreted geometrically with 1 to 3-dimensional vectors is, as in the 3-dimensional color space.

Mit dem „Nearest-Neighbour-Typ" eröffnen sich (durch einige Zusätze) eine ganze Reihe von Netzvarianten, die bekannt sind als:

  • – Radial Basisfunktionen Netze (RBF)
  • – Generalized Regression Networks (GRNN)
  • – Probabilistic Neural Networks (PNN)
  • – Self-Organizing Maps (SOM) (auch Kohonen Feature Maps)
  • – Learning Vector Quantization Networks (LVQ)
Es muss betont werden, dass sich hinter den verschiedenen Netzvarianten nicht immer eine andere Architektur versteckt, sondern dass vielmehr eine Trainingsmethode oder Nutzungsweise für die Bezeichnung verantwortlich ist.With the "Nearest Neighbor type" (through some additions) opens up a whole series of network variants, which are known as:
  • - Radial Basis Functions Networks (RBF)
  • - Generalized Regression Networks (GRNN)
  • - Probabilistic Neural Networks (PNN)
  • - Self-Organizing Maps (SOM) (also Kohonen Feature Maps)
  • - Learning Vector Quantization Networks (LVQ)
It must be emphasized that behind the different network variants does not always hide a different architecture, but that rather a training method or usage for the designation responsible is.

Perzeptronnetze – eine Schicht und lineare ÜbertragungsfunktionPerceptronnets - one layer and linear transfer function

Dies ist der einfachste Fall eines Perzeptronnetzes. Das Interessante hieran ist, dass die Gewichte analytisch berechnet werden können. Es existiert genau ein globales Minimum. Nutzen kann man diese Netzform z.B. für lineare Farbraumtransformationen etwa zur Sensorkorrektur oder für Umrechnungen zwischen verschiedenen Farbmonitortypen.This is the simplest case of a perceptronnetzes. The interesting thing This is because the weights can be calculated analytically. It Exactly one global minimum exists. You can use this network form e.g. For linear color space transformations such as for sensor correction or for conversions between different color monitor types.

Perzeptronnetze – Eine Schicht und nichtlineare ÜbertragungsfunktionPerceptronnets - one layer and non-linear transfer function

Die Gewichte lassen sich bedingt analytisch berechnen. Mit einem einfachen iterativen Minimierungsverfahren findet man ein globales Minimum.The Weights can be calculated analytically. With a simple one iterative minimization techniques provide a global minimum.

Perzeptronnetze – Mehrere SchichtenPerceptronnets - multiple layers

Die Bestimmung der Gewichte für die zu lösende Aufgabe kann nur noch mit einem statistischen iterativen Minimierungsverfahren erfolgen (Lernen). Es existiert im Allgemeinen eine Vielzahl lokaler Minima. Daher ist der Erfolg der Gewichtsfindung nicht vorhersagbar sondern zufällig. Es ist auch nicht möglich, die geeignete Topologie der Vernetzung für eine bestimmte Aufgabe anzugeben, da keine analytischen Zusammenhänge zwischen Aufgabentyp und Topologieeigenschaften existieren. Der Minimierungsprozess kann evtl. sehr viele Iterationen erfordern und daher (je nach Rechenleistung) viel Zeit erfordern.The Determination of weights for the to be solved Task can only be done with a statistical iterative minimization method done (learning). There are generally a variety of local ones Minima. Therefore, the success of weight determination is unpredictable but by chance. It is also not possible indicate the appropriate topology of networking for a particular task, there are no analytical connections exist between task type and topology properties. Of the Minimization process may require very many iterations and therefore (depending on the computing power) require a lot of time.

Prinzipiell können mit mehrschichtigen Perzeptronnetzen Klassifikations- und Funktionsapproximationsaufgaben gelöst werden. Anzumerken ist allerdings, dass eine wirkliche Klassifikation erst durch eine Zusatzschicht möglich wird, aus der nämlich aus dem Ausgangsvektor des Netzes durch z.B. eine Maximumsbestimmung die Klasse hervorgeht.in principle can with multi-layered perceptron networks classification and function approximation tasks solved become. It should be noted, however, that a real classification only possible with an additional layer becomes, from the fact from the output vector of the network by e.g. a maximum determination the class emerges.

Die Qualität einer Funktionsapproximation ist schwer zu überprüfen, da nicht der gesamte (mehrdimensionale) Signalbereich durchgefahren werden kann. Es ist daher möglich, dass die Reaktion des Netzes auf ein bestimmtes Eingangssignal unvorhersehbar vom gewünschten Verhalten abweicht.The quality a function approximation is difficult to verify because not the whole (multidimensional) Signal range can be driven through. It is therefore possible that the reaction of the network to a specific input signal unpredictable of the desired Behavior deviates.

Nearest-Neighbour-Typ – einfacher KlassifiziererNearest Neighbor type - easier classifier

An dieser Stelle sollen exemplarisch nur zwei einfache Vertreter aufgeführt werden, an denen die wesentlichen Eigenschaften deutlich werden.At By way of example, only two simple representatives will be listed here. where the essential characteristics become clear.

Dieses Netz hat nur eine Schicht und keine spezielle Übertragungsfunktion. Es kann direkt die Summe am Ausgang ausgewertet werden. In den Gewichten werden die sogenannten Prototypen einer Klasse gespeichert. Durch die Berechnung des Netzes entsteht am Ausgang des Netzes ein Vektor, der die (quadratischen) Abstände des Eingangssignals zu den gespeicherten Klassenprototypen repräsentiert. Durch eine Bestimmung des minimalen Ausgangssignals ist die passende Klasse gefunden. Im Idealfall ist das Minimum Null, weil Eingangssignal und Prototyp identisch sind.This Network has only one layer and no special transfer function. It can directly the sum at the output can be evaluated. In the weights The so-called prototypes of a class are stored. By the calculation of the network creates a vector at the output of the network, the (square) distances represents the input signal to the stored class prototypes. By determining the minimum output signal is the appropriate one Class found. Ideally, the minimum is zero because input signal and prototype are identical.

Dieser Netztyp eignet sich sehr gut für Klassifikationsaufgaben, bei denen Klassenprototypen angegeben werden können und wo keine weitere Umdeutung (mapping) der Ausgangssignale notwendig ist. Ein bekanntes Beispiel ist die Klassifizierung von Farben.This Net type is very good for Classification tasks that specify class prototypes can and where no further re-interpretation (mapping) of the output signals necessary is. A well-known example is the classification of colors.

Vorteilhaft ist, dass durch die Topologie (Anzahl der Ein- und Ausgänge) genau feststeht, was der Chip leistet und was nicht. Es kann also schon vorher gesagt werden, ob eine Aufgabe lösbar ist oder nicht.Advantageous is that through the topology (number of inputs and outputs) exactly It is clear what the chip does and what does not. So it can be be told in advance whether a task is solvable or not.

Nearest-Neighbour-Typ-RBF-NetzNearest neighbor type RBF network

Das RBF-Netz hat zwei Schichten. Die erste Schicht ist mit dem Eingang vollverdrahtet, wie beim einfachen Multilayerperzeptron. Allerdings werden die gewichteten Summen in einer speziellen Funktion berechnet, die eine Glockenform hat. Damit liefert die Schicht für Testmuster die außerhalb der Trainingsmuster liegen nur geringe Aktivitäten, da nur Bereiche, die innerhalb der jeweiligen Glocken liegen zu Aktivitäten der Neuronen führen. Die zweite Schicht des RBF-Netzes ist vom Perzeptrontyp mit linearer Ausgangsfunktion. Daher lassen sich die Gewichte dieser Schicht analytisch berechnen, so dass kein statistischer iterativer Minimierungsprozess erforderlich ist.The RBF network has two layers. The first layer is with the entrance fully wired, as with the simple multilayer perceptron. Indeed the weighted sums are calculated in a special function, which has a bell shape. This provides the layer for test patterns the outside The training patterns are only minor activities, as only areas within The respective bells are leading to activities of the neurons. The second layer of the RBF network is of the perceptron type with linear Output function. Therefore, the weights of this layer can be calculate analytically, so that no statistical iterative minimization process is required.

Die zweite Schicht kann verschiedene Aufgaben realisieren (alles, was ein einschichtiges Netz eben kann). Eine Funktion ist das „Mappen". Dabei wird jedem Ausgangsvektor der ersten Schicht ein bestimmter Vektor am Ausgang der zweiten Schicht zugeordnet um z.B. Klassen zu definieren.The second layer can realize different tasks (everything a single-layered network can). One function is the "mapping" First layer output vector a particular vector at the output associated with the second layer by e.g. Define classes.

Weiterhin kann durch die zweite Schicht ermöglicht werden, dass sich das RBF-Netz für allgemeine Funktionsapproximationen verwenden lässt.Farther can be made possible by the second layer that the RBF network for general function approximations can be used.

Vorteilhaft ist hier die Eigenschaft, dass prinzipbedingt keine unvorhersehbaren Reaktionen des Netzes auf unbekannte Eingangssignale entstehen können, da das Netz immer nur zwischen den gespeicherten Stützstellen interpoliert.Advantageous Here is the property that inherently no unpredictable Reactions of the network can arise on unknown input signals, since the network is always interpolated only between the stored nodes.

Die Hiddenneuronenfunktionen können in besonderen Fällen auch eine synaptische Funktionsaufgabe übernehmen. Soll, wie z.B. beim Nearest-Neighbor-Netz, durch eine Synapse die Funktion zur Berechnung des euklidschen Abstandes (wi – xi)2 ausgeführt werden, kann dies hiermit durch die Summe von (wi 2 – 2·wi·xi + x2) umgesetzt werden. Dabei wird der Wert wi 2 in einer Biassynapse, der Wert –2·wi·xi in einer allgemein verwendbaren Synapse und der Wert xi 2 in einem Hiddenneuron erzeugt und die Ausgänge auf einem Knoten zu (wi – xi)2 addiert.The hidden neuron functions can also assume a synaptic function task in special cases. If, as in the nearest neighbor web, through a synapse, the function for calculating the Euclidean distance (w i - x i), for example, be carried out 2, this may be incorporated by the sum of (w i 2 - 2 · w i · x i + x 2 ) are implemented. In this case, the value w i 2 is generated in a biassynapse, the value -2 · w i · x i in a generally usable synapse, and the value x i 2 in a hidden neuron, and the outputs on a node are added to (wi - xi) 2 ,

Das Synapsen-Neuronen-Array ist streng modular aufgebaut um eine nahezu frei wählbare Form und Größe eines neuronalen Netzes zu erzeugen. Ein Vorschlag zum Aufbau des FPSA zeigt 7. Die Struktur ist so gestaltet, dass möglichst viele vorstellbare aber noch realistische Netztopologien in Hardware implementierbar sind.The synapse-neuron-array is strictly modular in order to create an almost arbitrary shape and size of a neural network. A proposal to build the FPSA shows 7 , The structure is designed in such a way that as many conceivable as possible realistic network topologies can be implemented in hardware.

Die Neuronen sind zu Blöcken zusammengefasst. Die Verdrahtung erfolgt wie bei den Synapsen durch Programmierung eines Registers. Für die Hiddenneuronenblöcke sind jeweils ein Block mit der linearen, einer mit der sigmoiden und einer mit der quadratischen Funktion zusammen mit einer Synapse implementiert. Die Synapse kann dabei z.B. als Bias- oder Rückkopplungssynapse eingesetzt werden, was bei rückgekoppelten Netzen erforderlich ist. Diese Neuronenblöcke sind am linken, rechten und oberem Rand des Netzes platziert. Am unteren Rand sind Blöcke mit vier Neuronen, die die Sigmoid-Funktion ausführen, angeordnet. Man kann diese z.B. in jeweils drei Eingangs- und einem Ausgangsneuron aufteilen.The Neurons are in blocks summarized. The wiring is done as synapses through Programming a register. For the hidden neuron blocks are one block each with the linear, one with the sigmoiden and one one implemented with the quadratic function along with a synapse. The Synapse can be e.g. used as a bias or feedback synapse what is fed back at Nets is required. These neuron blocks are on the left, right and the top of the net. At the bottom are blocks with four neurons that perform the sigmoid function, arranged. One can this e.g. each split into three input and one output neuron.

In Fig. 7 bezeichnet

Figure 00180001
In Fig. 7 designates
Figure 00180001

Im Beispiel ist ein Netz mit 64 Synapsen, 12 Biassynapsen, 16 Hiddenneuronen, 12 Inputneuronen, 4 Ausgangsneuronen und 3 Biasneuronen dargestellt.in the Example is a network with 64 synapses, 12 biassynaps, 16 hidden neurons, 12 input neurons, 4 output neurons and 3 bias neurons.

Ein praktisch zu realisierendes Netz könnte 1088 (1024 Synapsen + 64 Biassynapsen) Synapsen und 131 (48 Eingangsneuronen+64 Hiddenneuronen+16 Ausgangsneuronen+3 Biasneuronen) Neuronen enthalten.One A network that could be implemented in practice could be 1088 (1024 synapses + 64 biassynaps) synapses and 131 (48 input neurons + 64 hidden neurons + 16 Output neurons + 3 bias neurons) neurons.

Perzeptron-NetrePerceptron Netre

Bei Perzeptron-Netzen werden die Eingangssignale mit einem Gewichtswert multipliziert. Anschließend erfolgt eine Summation der gewichteten Eingangssignale. Dies entspricht mathematisch dem Skalarprodukt. Nach der Skalarbildung erfolgt die Übertragung der Summe durch eine spezielle Funktion (linear, sigmoid, sprungförmig).at Perceptron networks are the input signals with a weight value multiplied. Subsequently there is a summation of the weighted input signals. This matches with mathematically the scalar product. After the scalar formation, the transmission takes place the sum by a special function (linear, sigmoid, jump).

Mit diesem Typ lassen sich alle möglichen Vernetzungstopologien realisieren, die dann z.B. zum sogenannten Multilayerperzeptron werden.With This type can be all possible Realize mesh topologies, which are then e.g. to the so-called Become a multilayer perceptron.

Im Nachfolgenden sollen beispielhaft einfache Vertreter von Perzeptron-Netzen aufgeführt werden.in the Below are examples of simple representatives of perceptron networks listed become.

Perzeptron-Netz mit einer Gewichtsschicht und linearer ÜbertragungsfunktionPerceptron network with one Weight layer and linear transfer function

Dies ist der einfachste Fall eines Perzeptronnetzes. Das Interessante hieran ist, dass die Gewichte analytisch berechnet werden können. Es existiert genau ein globales Minimum. Genutzt werden kann diese Netzform z.B. für lineare Farbraumtransformationen etwa zur Sensorkorrektur oder für Umrechnungen zwischen verschiedenen Farbmonitortypen.This is the simplest case of a perceptronnetzes. The interesting thing This is because the weights can be calculated analytically. It Exactly one global minimum exists. This network form can be used e.g. For linear color space transformations such as for sensor correction or for conversions between different color monitor types.

Ein praktisch zu realisierendes Perzeptron-Netz mit einer Gewichtsschicht und linearer Übertragungsfunktion für das angeführte FPSA-Beispiel ist in 8 dargestellt. Das Netz besitzt 4 Eingänge (INA1, INA2, INA3, INA4), eine Gewichtsschicht bestehend aus 16 Synapsen (SA1...4,1...4) und 4 Ausgänge (OHNA1, OHNA2, OHNA3, OHNA4). Das Netz kann wahlweise mit oder ohne Biasneuronen und – synapsen betrieben werden. Die Biasneuronen können auch als zusätzliche Eingangsneuronen verwendet werden. In den Neuronenblöcken HNR1, HNR2, HNR3 und HNR4 wird die lineare Aktivierung durchgeführt. Die Synapsen SD1,1, SD2,2, SD3,3 und SD4,4 dienen nur zur Signalumlenkung. In ihnen wird keine Gewichtung vorgenommen.A practical perceptron network with a weight layer and linear transfer function for the cited FPSA example is in 8th shown. The network has 4 inputs (INA1, INA2, INA3, INA4), a weight layer consisting of 16 synapses (SA1 ... 4,1 ... 4) and 4 outputs (OHNA1, OHNA2, OHNA3, OHNA4). The network can be operated with or without bias neurons and synapses. The bias neurons can also be used as additional input neurons. In the neuron blocks HNR1, HNR2, HNR3 and HNR4, the linear activation is performed. The synapses SD1,1, SD2,2, SD3,3 and SD4,4 are for signal redirection only. There is no weighting in them.

Einschichtiges Perzeptron-Netz mit nichtlinearer ÜbertragungsfunktionSingle-layer perceptron network with non-linear transfer function

Die Gewichte lassen sich bedingt analytisch berechnen. Mit einem einfachen iterativen Minimierungsverfahren findet man ein globales Minimum.The Weights can be calculated analytically. With a simple one iterative minimization techniques provide a global minimum.

Ein praktisch zu realisierendes Perzeptron-Netz mit einer Ausgangsschicht und nichtlinearer Übertragungsfunktion für das angeführte FPSA-Beispiel ist in 8 dargestellt. Das Netz besitzt 4 Eingänge (INA1, INA2, INA3, INA4), eine Gewichtsschicht bestehend aus 16 Synapsen (SA1...4,1...4) und 4 Ausgänge (OHNA1, OHNA2, OHNA3, OHNA4). Das Netz kann wahlweise mit oder ohne Biasneuronen und – synapsen betrieben werden. Die Biasneuronen können auch als zusätzliche Eingangsneuronen verwendet werden. In den Neuronenblöcken HNR1, HNR2, HNR3 und HNR4 wird die nichtlineare Aktivierung durchgeführt. Die Synapsen SD1,1, SD2,2, SD3,3 und SD4,4 dienen nur zur Signalumlenkung. In ihnen wird keine Gewichtung vorgenommen.A practical perceptron network with an output layer and non-linear transfer function for the cited FPSA example is shown in FIG 8th shown. The network has 4 inputs (INA1, INA2, INA3, INA4), a weight layer consisting of 16 synapses (SA1 ... 4,1 ... 4) and 4 outputs (OHNA1, OHNA2, OHNA3, OHNA4). The network can be operated with or without bias neurons and synapses. The bias neurons can also be used as additional input neurons. In the neuron blocks HNR1, HNR2, HNR3 and HNR4, nonlinear activation is performed. The synapses SD1,1, SD2,2, SD3,3 and SD4,4 are for signal redirection only. There is no weighting in them.

Perzeptron-Netze mit mehreren Hiddenschichten und linearer bzw. nichtlinearer ÜbertragungsfunktionPerceptron networks with several Hidden layers and linear or nonlinear transfer function

Die Bestimmung der Gewichte für die zu lösende Aufgabe kann nur noch mit einem statistischen iterativen Minimierungsverfahren erfolgen (Lernen). Es existiert im Allgemeinen eine Vielzahl lokaler Minima. Daher ist der Erfolg der Gewichtsfindung nicht vorhersagbar sondern zufällig. Es ist auch nicht möglich, die geeignete Topologie der Vernetzung für eine bestimmte Aufgabe anzugeben, da keine analytischen Zusammenhänge zwischen Aufgabentyp und Topologieeigenschaften existieren. Der Minimierungsprozess kann evtl. sehr viele Iterationen erfordern und daher (je nach Rechenleistung) viel Zeit erfordern.The Determination of weights for the to be solved Task can only be done with a statistical iterative minimization method done (learning). There are generally a variety of local ones Minima. Therefore, the success of weight determination is unpredictable but by chance. It is also not possible indicate the appropriate topology of networking for a particular task, there are no analytical connections exist between task type and topology properties. Of the Minimization process may require very many iterations and therefore (depending on the computing power) require a lot of time.

Prinzipiell können mit mehrschichtigen Perzeptronnetzen Klassifikations- und Funktionsapproximationsaufgaben gelöst werden.in principle can with multi-layered perceptron networks classification and function approximation tasks solved become.

Ein Perzeptron-Netz für das angeführte FPSA-Beispiel mit einer, zwei, oder sogar drei versteckten Schichten und mit auch in den einzelnen Schichten wahlweise einsetzbaren linearen oder nichtlinearen Übertragungsfunktion ist somit realisierbar. Die Netze können, je nach Anforderung an die Topologie, mit oder ohne Biasneuronen und – synapsen betrieben werden. Die Biasneuronen können dabei auch als zusätzliche Eingangsneuronen verwendet werden.One Perceptron network for the cited FPSA example with one, two, or even three hidden layers and with also in the individual layers optionally usable linear or non-linear transfer function is thus feasible. The networks can, depending on the requirement the topology, with or without bias neurons and synapses. The bias neurons can also as additional Input neurons are used.

Ein Netz mit 4 Eingängen (INA1, INA2, INA3, INA4), einer versteckten Schicht bestehend aus 16 Synapsen (SA1...4,1...4) und 4 Neuronen (HNR1, HNR2, HNR3, HNR4) und einer Ausgangsschicht bestehend aus 16 Synapsen (SB1...4,1...4) und 4 Ausgängen (OHNA1, OHNA2, OHNA3, OHNA4) ist in 9 dargestellt.A network with 4 inputs (INA1, INA2, INA3, INA4), a hidden layer consisting of 16 synapses (SA1 ... 4,1 ... 4) and 4 neurons (HNR1, HNR2, HNR3, HNR4) and an output layer consisting of 16 synapses (SB1 ... 4,1 ... 4) and 4 outlets (OHNA1, OHNA2, OHNA3, OHNA4) is in 9 shown.

4 Eingänge (INA1, INA2, INA3, INA4), eine erste versteckte Schicht bestehend aus 16 Synapsen (SA1...4,1...4) und 4 Neuronen (HNR1, HNR2, HNR3, HNR4), eine zweite versteckte Schicht bestehend aus 16 Synapsen (SB1...4,1...4) und 4 Neuronen (HNO1, HNO2, HNO3, HNO4) und eine Ausgangsschicht bestehend aus 16 Synapsen (SC1...4,1...4) und 4 Ausgängen (OHNA1, OHNA2, OHNA3, OHNA4) besitzt das Netz, welches 10 zeigt. In den Neuronenblöcken HNL1, HNL2, HNL3 und HNL4 wird die Aktivierung durchgeführt. Die Synapsen SD1,1, SD2,2, SD3,3 und SD4,4 dienen nur zur Signalumlenkung. In ihnen wird keine Gewichtung vorgenommen.4 inputs (INA1, INA2, INA3, INA4), a first hidden layer consisting of 16 synapses (SA1 ... 4,1 ... 4) and 4 neurons (HNR1, HNR2, HNR3, HNR4), a second hidden layer consisting of 16 synapses (SB1 ... 4,1 ... 4) and 4 neurons (HNO1, HNO2, HNO3, HNO4) and an output layer consisting of 16 synapses (SC1 ... 4,1 ... 4) and 4 outputs (OHNA1, OHNA2, OHNA3, OHNA4) has the network, which 10 shows. The activation is carried out in the neuron blocks HNL1, HNL2, HNL3 and HNL4. The synapses SD1,1, SD2,2, SD3,3 and SD4,4 are for signal redirection only. There is no weighting in them.

Ein Beispiel für ein Netz mit 4 Eingängen (INA1, INA2, INA3, INA4), einer ersten versteckten Schicht bestehend aus 16 Synapsen (SA1...4,1...4) und 4 Neuronen (HNR1, HNR2, HNR3, HNR4), einer zweiten versteckten Schicht bestehend aus 16 Synapsen (SB1...4,1...4) und 4 Neuronen (HNO1, HNO2, HNO3, HNO4), einer dritten versteckten Schicht bestehend aus 16 Synapsen (SC1...4,1...4) und 4 Neuronen (HNL1, HNL2, HNL3, HNL4) und einer Ausgangsschicht bestehend aus 16 Synapsen (SD1...4,1...4) und 4 Ausgängen (OHNA1, OHNA2, OHNA3, OHNA4) gibt 11 wieder.An example of a 4-input network (INA1, INA2, INA3, INA4), a first hidden layer consisting of 16 synapses (SA1 ... 4,1 ... 4) and 4 neurons (HNR1, HNR2, HNR3, HNR4 ), a second hidden layer consisting of 16 synapses (SB1 ... 4,1 ... 4) and 4 neurons (HNO1, HNO2, HNO3, HNO4), a third hidden layer consisting of 16 synapses (SC1 ... 4 , 1 ... 4) and 4 neurons (HNL1, HNL2, HNL3, HNL4) and an output layer consisting of 16 synapses (SD1 ... 4,1 ... 4) and 4 outputs (OHNA1, OHNA2, OHNA3, OHNA4 ) gives 11 again.

Die drei Beispiele zeigen bereits, wie groß die Variationsmöglichkeiten allein für Perzeptron-Netze sind, die mit dem angeführten FPSA-Beispiel möglich sind.The three examples already show how big the possibilities of variation alone for Are perceptron networks that are possible with the cited FPSA example.

Parallele Anordnung von mehreren Perzeptron-Netzen mit einer oder mehreren Gewichtsschichten und linearer bzw. nichtlinearer ÜbertragungsfunktionParallel arrangement of multiple perceptron networks with one or more weight layers and linear or non-linear transfer function

Um mehrere voneinander völlig unabhängige Sensorsignale verarbeiten zu können, dabei jedoch nicht mehrfach denselben Hardwareaufwand betreiben zu müssen, bietet sich mit dem FPSA die Möglichkeit, parallele, voneinander völlig unabhängige Netze zu implementieren. Dabei können die verwendeten Topologien auch völlig unterschiedlich sein.Around several of each other completely independent To process sensor signals, but do not operate the same hardware effort several times to have to, With the FPSA, it is possible to parallel, completely independent networks to implement. It can the topologies used may also be completely different.

12 zeigt ein Implementierungsbeispiel für das angeführten FPSA-Beispiel, wenn man zwei topologisch gleiche Netze mit je 2 Eingängen (INA1,INA2 bzw. INA3, INA4), je einer versteckten Schicht bestehend aus 4 Synapsen (SA1..2,1..2 bzw. SA3...4,3...4) und 2 Neuronen (HNR1, HNR2 bzw. HNR3, HNR4) je einer Ausgangsschicht bestehend aus 4 Synapsen (SB1...2,1...2 bzw. SB3...4,3...4) und 2 Ausgängen (OHNA1, OHNA2 bzw. OHNA3, OHNA4) betreiben möchte. Die Netze können wahlweise mit oder ohne Biasneuronen und -synapsen bzw. linearer oder nichtlinearen Aktivierungsfunktion betrieben werden. Die Biasneuronen können auch als zusätzliche Eingangsneuronen verwendet werden. 12 shows an implementation example for the cited FPSA example, if you have two topologically identical networks with 2 inputs (INA1, INA2 or INA3, INA4), each of a hidden layer consisting of 4 synapses (SA1..2,1..2 resp SA3 ... 4,3 ... 4) and 2 neurons (HNR1, HNR2 or HNR3, HNR4) per one output layer consisting of 4 synapses (SB1 ... 2,1 ... 2 or SB3 .. .4,3 ... 4) and 2 outputs (OHNA1, OHNA2 or OHNA3, OHNA4) would like to operate. The networks can be operated with or without bias neurons and synapses, or linear or nonlinear activation function. The bias neurons can also be used as additional input neurons.

Will man zwei Netze mit unterschiedlicher Topologie im angeführten FPSA-Beispiel betreiben, zeigt 13 eine mögliche Implementierungsvariante. Dort ist ein erstes Netz mit 2 Eingängen (INA1, INA2), einer versteckten Schicht bestehend aus 4 Synapsen (SA1...2,1...2) und 2 Neuronen (HNR1, HNR2) einer Ausgangsschicht bestehend aus 4 Synapsen (SB1...2,1...2) und 2 Ausgängen (OHNA1, OHNA2) und ein zweites Netz mit 2 Eingängen (INA3, INA4), einer ersten versteckten Schicht bestehend aus 4 Synapsen (SA3...4,3...4) und 2 Neuronen (HNR3, HNR4), einer zweiten versteckten Schicht bestehend aus 4 Synapsen (SB3...4,3...4) und 2 Neuronen (HNO3, HNO4) und einer Ausgangsschicht bestehend aus 4 Synapsen (SC3...4,3...4) und 2 Ausgängen (OHNA3, OHNA4) enthalten. Beim zweiten Netz wird in den Neuronenblöcken HNL3 und HNL4 die Aktivierung durchgeführt. Die Synapsen SD3,3 und SD4,4 dienen nur zur Signalumlenkung. In ihnen wird keine Gewichtung vorgenommen. Beide Netze können wahlweise mit oder ohne Biasneuronen und -synapsen bzw. linearer oder nichtlinearen Aktivierungsfunktion betrieben werden. Die Biasneuronen können auch als zusätzliche Eingangsneuronen verwendet werden.If you want to operate two networks with different topology in the cited FPSA example, shows 13 a possible implementation variant. There is a first network with 2 inputs (INA1, INA2), a hidden layer consisting of 4 synapses (SA1 ... 2,1 ... 2) and 2 neurons (HNR1, HNR2) of an output layer consisting of 4 synapses (SB1 ... 2,1 ... 2) and 2 outputs (OHNA1, OHNA2) and a second network with 2 inputs (INA3, INA4), a first hidden layer consisting of 4 synapses (SA3 ... 4,3 .. .4) and 2 neurons (HNR3, HNR4), a second hidden layer consisting of 4 synapses (SB3 ... 4,3 ... 4) and 2 neurons (HNO3, HNO4) and an output layer consisting of 4 synapses (SC3 ... 4,3 ... 4) and 2 outputs (OHNA3, OHNA4). In the second network, the activation is performed in the neuron blocks HNL3 and HNL4. The synapses SD3,3 and SD4,4 are only for signal redirection. There is no weighting in them. Both networks can be operated either with or without bias neurons and synapses or linear or non-linear activation function. The bias neurons can also be used as additional input neurons.

Nearest-Neighbour-TypNearest neighbor type

Beim „Nearest Neighbour -Typ" wird die Differenz zwischen Eingangssignal und Gewicht gebildet und diese anschließend quadriert. Es wird dann die Summe der Quadrate gebildet.At the "Nearest Neighbor type "will the difference between input signal and weight is formed and this subsequently squared. The sum of the squares is then formed.

Zieht man noch die Quadratwurzel aus der Summe, entspricht dies der Berechnung des Abstandes (euklidische Distanz) zwischen anliegendem Signal und gespeichertem Gewichtsvektor (daher der Name „Nearest Neighbour"). Dies ist für die Funktion des Netzes aber nicht entscheidend. Es hätte aber den Vorteil, dass dieser Wert bei 1 bis 3-dimensionalen Vektoren geometrisch interpretierbar ist, wie etwa im 3-dimensionalen Farbraum.attracts if you add the square root of the sum, this corresponds to the calculation the distance (Euclidean distance) between adjacent signal and stored weight vector (hence the name "Nearest Neighbor "). This is for the function of the network but not crucial. It would have the advantage of having this value in 1 to 3-dimensional vectors is geometrically interpretable, such as in 3-dimensional color space.

Mit Netzen vom „Nearest Neighbour" eröffnen sich eine ganze Reihe von Netzvarianten.With Networks from the "Nearest Neighbor "open a whole series of network variants.

An dieser Stelle sollen exemplarisch nur zwei einfache Vertreter von Netzen vom Nächster-Nachbar-Typ aufgeführt werden, an denen die wesentlichen Eigenschaften deutlich werden.At By way of example, only two simple representatives of Next neighbor type networks listed where the essential characteristics become clear.

Einfacher KlassifiziererEasier classifier

Dieses Netz hat nur eine Schicht und keine spezielle Übertragungsfunktion. Es kann direkt die Summe der euklidischen Abstände am Ausgang ausgewertet werden. In den Gewichten werden die sogenannten Prototypen einer Klasse gespeichert. Durch die Berechnung des Netzes entsteht am Ausgang des Netzes ein Vektor, der die quadratischen Abstände des Eingangssignals zu den gespeicherten Klassenprototypen repräsentiert. Durch eine Bestimmung des minimalen Ausgangssignals ist die passende Klasse gefunden. Im Idealfall ist das Minimum Null, weil Eingangssignal und Prototyp identisch sind.This Network has only one layer and no special transfer function. It can evaluated directly the sum of the Euclidean distances at the exit become. In the weights, the so-called prototypes of a Class stored. Due to the calculation of the network arises on Output of the network a vector representing the square intervals of the Represents input to the stored class prototypes. By determining the minimum output signal is the appropriate one Class found. Ideally, the minimum is zero because input signal and prototype are identical.

Dieser Netztyp eignet sich sehr gut für Klassifikationsaufgaben, bei denen Klassenprototypen angegeben werden können und wo keine weitere Umdeutung (mapping) der Ausgangssignale notwendig ist. Ein bekanntes Beispiel ist die Klassifizierung von Farben.This Net type is very good for Classification tasks that specify class prototypes can and where no further re-interpretation (mapping) of the output signals necessary is. A well-known example is the classification of colors.

Ein praktisch zu realisierendes Netz für das angeführte FPSA-Beispiel zur einfachen Klassifizierung ist in 14 dargestellt. Der Klasifizierer besitzt 3 Eingänge (INA1, INA2, INA3) und 4 Ausgänge (OHNA1, OHNA2, OHNA3, OHNA4). Bei der einfachen Klassifizierung wird zunächst die Differenz zwischen den Eingangssignalen und den Gewichten gebildet. Dies geschieht in den Hiddenneuronenblöcken (HNR1...4, HNL1...4, HNO1...4). Als Biaswert (BNR, BNL, BNO) wird -1 eingestellt. Dadurch wird der Gewichtswert (wi) in den Synapsen (SR1...4, SL1...4,SO1...4), die in den Hiddenneuronenblöcken (HNR1...4, HNL1...4, HNO1...4) enthalten sind mit-1 multipliziert (-wi). Zu diesem Wert wird nun das Eingangssignal (xi) addiert (xi – wi). Anschließend wird diese Summe quadriert((xi – wi)2). An den nachgeschalteten Input-Hidden-Output-Neuronenblöcken (OHNA1, OHNA2, OHNA3, OHNA4) wird dann die Summe der Quadrate gebildet (Summe((xi – wi)2)). Die Synapsen SB1,1, SB2,2, SB3,3, SB4,4, SC1,1, SC2,2, SC3,3, SC4,4, SD1,1 SD2,2 SD3,3 und SD4,4 dienen nur zur Signallenkung. In ihnen wird keine Gewichtung vorgenommen.A practical network for the cited FPSA example for simple classification is in 14 shown. The classifier has 3 inputs (INA1, INA2, INA3) and 4 outputs (OHNA1, OHNA2, OHNA3, OHNA4). In the simple classification, first the difference between the input signals and the weights is formed. This happens in the hidden neuron blocks (HNR1 ... 4, HNL1 ... 4, HNO1 ... 4). The bias value (BNR, BNL, BNO) is set to -1. This results in the weight value (wi) in the synapses (SR1 ... 4, SL1 ... 4, SO1 ... 4), which are stored in the hidden neuron blocks (HNR1 ... 4, HNL1 ... 4, HNO1 .. .4) are multiplied by -1 (-wi). The input signal (xi) is added to this value (xi - wi). Then this sum is squared ((xi - wi) 2). The sum of the squares is then formed at the downstream input hidden output neuron blocks (OHNA1, OHNA2, OHNA3, OHNA4) (sum ((xi - wi) 2)). The synapses SB1,1, SB2,2, SB3,3, SB4,4, SC1,1, SC2,2, SC3,3, SC4,4, SD1,1 SD2,2 SD3,3 and SD4,4 are only for signal routing. There is no weighting in them.

RBF-NetzRBF network

Das RBF-Netz hat zwei Schichten. Die erste Schicht ist eine Hiddenschicht wie beim einfacher Multilayerperzeptron. Allerdings werden die gewichteten Summen in einer speziellen Funktion berechnet, die die Form einer Glockenkurve hat. Damit liefert die Schicht für Testmuster die außerhalb der Trainingsmuster liegen nur geringe Aktivitäten, da nur Bereiche, die innerhalb der jeweiligen Glocken liegen zu Aktivitäten der Neuronen führen. Die zweite Schicht des RBF-Netzes ist vom Perzeptrontyp mit linearer Ausgangsfunktion. Daher lassen sich die Gewichte dieser Stufe analytisch berechnen, so dass kein statistischer iterativer Minimierungsprozess erforderlich ist.The RBF network has two layers. The first layer is a hidden layer like the simple multilayer perceptron. However, the weighted ones Calculates sums in a special function that takes the form of a Bell curve has. Thus, the layer for test patterns provides the outside The training patterns are only minor activities, as only areas within The respective bells are leading to activities of the neurons. The second layer of the RBF network is of the perceptron type with linear Output function. Therefore, the weights of this stage can be analytically so that no statistical iterative minimization process is required.

Die zweite Schicht kann verschiedene Aufgaben realisieren. Eine Funktion ist das „Mappen". Dabei wird jedem Ausgangsvektor der ersten Schicht ein bestimmter Vektor am Ausgang der zweiten Schicht zugeordnet um z.B. Klassen zu definieren. Weiterhin kann durch die zweite Schicht ermöglicht werden, dass sich das RBF-Netz für allgemeine Funktionsapproximationen verwenden lässt.The second layer can realize different tasks. A function is the "folder" First layer output vector a particular vector at the output associated with the second layer by e.g. Define classes. Farther can be made possible by the second layer that the RBF network for use general function approximations.

Vorteilhaft ist hier die Eigenschaft, dass prinzipbedingt keine unvorhersehbaren Reaktionen des Netzes auf unbekannte Eingangssignale entstehen können, da das Netz immer nur zwischen den gespeicherten Stützstellen interpoliert.Advantageous Here is the property that inherently no unpredictable Reactions of the network can arise on unknown input signals, since the network is always interpolated only between the stored nodes.

Ein Implementierungsbeispiel für das angeführte FPSA könnte ein RBF-Netz mit 3 Eingängen (INA1, INA2, INA3), einer versteckten Schicht bestehend aus 6 Synapsen (SB1,1,SB2,2, SC1,1, SC2,2, SD1,1, SD2,2) und 2 Neuronen (OHNB1, OHNB2) und einer Ausgangsschicht bestehen aus 4 Synapsen (SB1,4, SB2,4, SC1,4, SC2,4) und 2 Neuronen (OHNA1 OHNA2), welches 15 zeigt, sein Das Netz arbeitet wie ein einfacher Klassifizierer mit nachgeschalteter Ausgangsschicht. Die zwei versteckten Neuronen (OHNB1, OHNB2) arbeiten mit der Gaußschen Funktion als Aktivierung. Die Biasneuronen (BNL, BNO, BNR) dienen zur Referenzzierung der Gewichtswerte, die in den Synapsen SL1, SL2, SO1, SO2, SR1 und SR2 gespeichert sind. Die Synapsen SA1,1, SA1,2, SA2,1, SA2,2, SA3,1, SA3,2, SA1,4 und SA2,4 sowie die Neuronenblöcke HNL4 und HNR4 dienen zur Signallenkung. In diesen Blöcken wird keine Gewichtung bzw. Aktivierung vorgenommen.An implementation example for the cited FPSA could be a 3-input RBF network (INA1, INA2, INA3), a hidden layer consisting of 6 synapses (SB1,1, SB2,2, SC1,1, SC2,2, SD1,1, SD2,2) and 2 neurons (OHNB1, OHNB2) and an initial layer consist of 4 synapses (SB1,4, SB2,4, SC1,4, SC2,4) and 2 neurons (OHNA1 OHNA2) 15 The network works like a simple classifier with downstream output layer. The two hidden neurons (OHNB1, OHNB2) work with the Gaussian function as activation. The bias neurons (BNL, BNO, BNR) are used to reference the weight values stored in the synapses SL1, SL2, SO1, SO2, SR1 and SR2. The synapses SA1,1, SA1,2, SA2,1, SA2,2, SA3,1, SA3,2, SA1,4 and SA2,4 as well as the neuron blocks HNL4 and HNR4 are for signal steering. In these blocks, no weighting or activation is made.

Rückgekoppelte NetzeFeedback networks

Bisher wurden ausschließlich Netztopologien ohne Rückkopplungen betrachtet. Die Verarbeitung durch Propagation erfolgt von der Eingabeschicht zur Ausgabeschicht. Bei rückgekoppelten Netzen hingegen müssen die Zustände der Neuronen solange neu berechnet werden, bis das Netz in einen Ruhezustand konvergiert ist, in dem sich keine Änderung der Aktivierungszustände mehr ergibt. Ein stabiler Zustand wird daher durch die Eingabe, die Gewichtsmatrix und die Schwellenwerte der Neuronen bestimmt.So far became exclusive Network topologies without feedback considered. Propagation processing is done from the input layer to the output layer. When fed back Networks, on the other hand, have to the conditions the neurons are recalculated until the net into one Hibernation is converged in which no change in the activation states more results. A stable state is therefore due to the input, the weight matrix and determines the thresholds of the neurons.

Im Folgenden sollen drei typische Vertreter rückgekoppelter Netze kurz dargestellt werden.in the Below are three typical representatives of feedback networks briefly presented become.

Winner Take All (WTA)Winner Take All (WTA)

Beim Wettbewerbslernen (Lernen durch Konkurrenz, competition learning) treten die Einheiten des Netzes in Kokurrenz miteinander um das „Recht" für eine Eingabe eine Ausgabe zu erzeugen. Nur eine darf eine Ausgabe abliefern und hindert gleichzeitig alle anderen daran es zu tun.At the Competitive learning (learning through competition, competition learning) The units of the network compete with each other for the "right" to enter to produce an output. Only one is allowed to deliver an issue and At the same time, stop everyone else from doing it.

Beim unüberwachten Lernen werden die n-dimensionalen Eingaben mit genau so vielen Recheneinheiten verarbeitet, wie Cluster bestimmt werden sollen. Für drei Cluster wird ein Netz von drei kompetitiven Einheiten benötigt.At the unsupervised Learning the n-dimensional inputs with just as many arithmetic units processes how clusters are to be determined. For three clusters a network of three competitive units is needed.

Ein praktisch zu realisierendes WTA-Netz für das angeführte FPSA, welches 16 zeigt, besitzt 3 Eingänge (INA1, INA2, INA3) und 3 Ausgänge (OHNA1, OHNA2, OHNA3). Das Netz ist einschichtig und mit 9 Synapsen (SA1,1...3, SA2,1...3, SA3,1...3) voll vernetzt. Die Ausgänge jedes Neurons (HNR1, HNR2, HNR3) werden mit 6 Synapsen (SB1,2, SB1,3, SB2,1, SB2,3, SB3,1, SB3,2) zusätzlich auf die Eingänge aller anderen Neuronen geschaltet. Die Synapsenblöcke SD1,4, SD2,4 und SD3,4 werden nicht als Synapsen verwendet, sondern dienen lediglich zum durchschalten der Ausgänge der Neuronen auf die FPSA-Ausgänge.A practical to implement WTA network for the cited FPSA, which 16 shows, has 3 inputs (INA1, INA2, INA3) and 3 outputs (OHNA1, OHNA2, OHNA3). The network is single-layered and fully networked with 9 synapses (SA1,1 ... 3, SA2,1 ... 3, SA3,1 ... 3). The outputs of each neuron (HNR1, HNR2, HNR3) are additionally switched to the inputs of all other neurons with 6 synapses (SB1,2, SB1,3, SB2,1, SB2,3, SB3,1, SB3,2). The synapse blocks SD1,4, SD2,4 and SD3,4 are not used as synapses, but are merely for switching the outputs of the neurons to the FPSA outputs.

Kohonen Feature MapsKohonen feature Maps

Kohonen Feature Maps arbeiten ähnlich wie WTA-Netze. Der Unterschied ist jedoch, dass die Ausgabe nicht auf eine Einheit beschränkt ist und die Anzahl der Cluster vor dem Lernen nicht feststeht. Die Clusterung wird also während des Lernens erzeugt.Kohonen Feature maps work similarly like WTA networks. The difference, however, is that the output is not limited to one unit and the number of clusters is not known before learning. The So clustering will be during of learning.

Ein Beispiel, wie man ein Kohonen-Netz mit 3 Eingängen und 3 Ausgängen im angeführten FPSA-Beispile implementiert, ist in 16 dargestellt. Das Netz ist genau so aufgebaut wie beim WTA-Beispiel. Die dargestellten rückgekoppelten Verbindungen durch die Synapsen SB1,2, SB1,3, SB2,1, SB2,3, SB3,1 und SB3,2 können aber müssen sich nicht während des Belehrens ausbilden.An example of how to implement a Kohonen network with 3 inputs and 3 outputs in the cited FPSA example is in 16 shown. The network is exactly the same as in the WTA example. However, the illustrated feedback connections through the synapses SB1,2, SB1,3, SB2,1, SB2,3, SB3,1 and SB3,2 may not be formed during the teaching.

Hopfield- NetzeHopfield nets

Hopfield-Netze beruhen auf den folgenden Annahmen:

  • – Das Netz besteht aus einer einzigen Schicht von n Neuronen.
  • – Die n Neuronen sind untereinander total vernetzt, d.h. jedes Neuron besitzt eine Verbindung zu jedem anderen Neuron (Rückkopplung, Rekursion).
  • – Kein Neuron ist direkt mit sich selbst verbunden (keine unmittelbare Rückkopplung).
  • – Das Netz ist symmetrisch gewichtet, d.h. das Gewicht der Bindung zwischen Neuron i und Neuron j ist gleich dem Gewicht der Verbindung zwischen Neuron j und Neuron i.
  • – Den einzelnen Neuronen ist jeweils eine lineare Schwellenwertfunktion als Aktivierungsfunktion zugeordnet.
  • – Eingabe ist die übliche gewichtete Summe.
Hopfield networks are based on the following assumptions:
  • - The network consists of a single layer of n neurons.
  • - The n neurons are totally interconnected, ie each neuron has a connection to every other neuron (feedback, recursion).
  • - No neuron is directly connected to itself (no immediate feedback).
  • The network is symmetrically weighted, ie the weight of the bond between neuron i and neuron j is equal to the weight of the connection between neuron j and neuron i.
  • - Each neuron is assigned a linear threshold function as an activation function.
  • - Input is the usual weighted sum.

Hopfield-Netze sind daher einschichtige neuronale Netze, die ausschließlich indirekte Rückkopplungen zwischen je zwei verschiedenen Knoten i,j (i ≠ j) des Netzes besitzen, aber keine direkte Rückkopplung zum gleichen Knoten. Alle Verbindungen zwischen zwei Neuronen sind symmetrisch, d.h. wij = wij. Dies kann auch so interpretiert werden, dass zwischen zwei Neuronen nur eine bidirektionale Leitung besteht.Hopfield networks are therefore single-layer neural networks that are exclusively indirect feedback between each two different nodes i, j (i ≠ j) of the network, but no direct feedback to the same node. All connections between two neurons are symmetric, i.e. wij = wij. This can also be interpreted as being between two neurons only one bidirectional line exists.

Das Hopfield-Netz konvergiert – unter gewissen Voraussetzungen – nach einer endlichen Zeit zu einem Ruhezustand. Wenn ein Teil der Ausgabeleitungen auf den Eingang zurückgeführt wird, kann der entsprechende Teil des Ausgabemusters y zum Eingabemuster x beitragen. y = x, d.h. Eingang der Neuronen = Ausgang der Neuronen (Autoassoziation).The Hopfield network converges - under certain conditions - after a finite time to a resting state. If part of the output lines is attributed to the entrance, the corresponding part of the output pattern y can be the input pattern contribute x. y = x, i. Input of the neurons = output of the neurons (Autoassociation).

Bietet man diesem rückgekoppelten System, in dem solche Musterpaare gespeichert sind, ein unvollständiges Eingabemuster an, so ergibt sich erst einmal ein entsprechend unvollständiges Ausgabemuster. Dessen richtige Gebiete können ausreichen, um bei Rückführung auf den Eingang die fehlenden Anteile teilweise zu ergänzen. Das verbesserte Ausgabemuster wird dem Netz erneut als Eingabe präsentiert, so dass das System mit einer erneut verbesserten Ausgabe reagieren wird. Jeder Ausgang eines Neurons wirkt durch die Rückkopplung auf die Eingänge aller Neuronen zurück.provides one fed back this one System in which such pattern pairs are stored, an incomplete input pattern At first, this results in a correspondingly incomplete output pattern. Whose right areas can suffice to return to partially to supplement the input the missing shares. The improved output patterns are again presented to the network as input, so the system will respond with a further improved output becomes. Each output of a neuron acts through the feedback on the entrances all neurons back.

Das Hopfield-Netz in 17 mit 3 Eingängen (INA1, INA2, INA3) und 3 Ausgängen (OHNA1, OHNA2, OHNA3) stellt eine weitere Implementierungsmöglichkeit einer Topologie im FPSA dar. Das Netz ist einschichtig und mit 6 Synapsen (SB1,2, SB1,3, SB2,1, SB2,3, SB3,1, SB3,2) vollständig rückgekoppelt. Jedes Neuron (HNR1, HNR2, HNR3) besitzt eine Verbindung zu jedem anderem Neuron. Kein Neuron ist jedoch direkt mit sich selbst verbunden. Die Synapsenblöcke SA1,1, SA2,2, SA3,3, SB1,1, SB2,2 und SB3,3 werden nicht als Synapsen verwendet, sondern dienen lediglich zum durchschalten der Ein- bzw. Ausgänge der Neuronen auf die FPSA-Ein- bzw. – Ausgänge.The Hopfield network in 17 with 3 inputs (INA1, INA2, INA3) and 3 outputs (OHNA1, OHNA2, OHNA3) represents another implementation possibility of a topology in FPSA. The network is single-layered and has 6 synapses (SB1,2, SB1,3, SB2,1 , SB2,3, SB3,1, SB3,2) are completely fed back. Each neuron (HNR1, HNR2, HNR3) has a connection to every other neuron. No neuron, however, is directly connected to itself. The synapse blocks SA1,1, SA2,2, SA3,3, SB1,1, SB2,2 and SB3,3 are not used as synapses, but serve only to switch the inputs or outputs of the neurons to the FPSA input. or - outputs.

Anwendungapplication

Mit der Integration mehren neuronaler Netztopologien sind auch andere Lernalgorithmen verwendbar. Die Paarung von Modularität, Geschwindigkeit und einer großen Zahl von Verarbeitungseinheiten macht den Chip zu einem Novum, das viele Anwendungen in der Sensorsiganlverarbeitung erst ermöglicht. Die Applikationen für die Erfindung finden sich vorrangig im Sensorik-Bereich (sensor signal processing, adaptation), in der Industrieautomation, sowie anderen Bereichen, in denen es um sehr schnelle Steuerungsfunktionen geht. Das betrifft vor allem Systeme mit wechselnden Umgebungsbedingungen. Hier ist eine Lernfähigkeit für Ereigniszustände erforderlich (Teach-In-Funktionalität). Das Training erfolgt über einen host computer mit einer speziellen Trainingssoftware.With the integration of multiple neural network topologies, other learning algorithms can be used. The combination of modularity, speed and a large number of processing units makes that Chip is a novelty that enables many applications in sensor processing. The applications for the invention are primarily in the field of sensor technology (sensor signal processing, adaptation), in industrial automation, as well as other areas in which very fast control functions are involved. This mainly affects systems with changing environmental conditions. Here, a learning ability for event states is required (teach-in functionality). The training takes place via a host computer with a special training software.

Auf Grund der technischen Parameter des Produktes werden, da viele Eingänge zur Verfügung stehen, parallele Auswertungen von Multisensorarrays in einem Bauteil ermöglicht.On Reason of the technical parameters of the product are, as many inputs to disposal stand, parallel evaluations of multi-sensor arrays in one component allows.

Der Sensormarkt ist eines der am stärksten wachsenden Segmente innerhalb des gesamten Mikroelektronik-Marktes. Auf Basis genormter Schnittstellen wird es möglich, Sensoren problemlos mit Netzwerken zu verknüpfen.Of the Sensor market is one of the strongest growing segments within the entire microelectronics market. Based on standardized interfaces, it becomes possible sensors without problems to link with networks.

Dieser Trend entsteht aus qualitativ neuen Anforderungen an die Sensor-Signalverarbeitung, z.B.:

  • – zunehmende Miniaturisierung
  • – wachsende Chip-Integration
  • – intelligente Verfahren
  • – dezentrale Verarbeitung
  • – steigende Echtzeit-Anforderungen
  • – zunehmende Komplexität zu erfassender Zustände/Situationen
This trend arises from qualitatively new requirements for the sensor signal processing, eg:
  • - increasing miniaturization
  • - growing chip integration
  • - intelligent procedures
  • - decentralized processing
  • - increasing real-time requirements
  • - Increasing complexity of detected states / situations

Der überwiegende Wertschöpfungsanteil liegt damit neben den Sensorelementen selbst, vor allem in der nachfolgenden sensornahen Signalverarbeitung. Die Sensor-Elemente werden immer kleiner, besser, integrierter, robuster und kostengünstiger.The predominant value added lies next to the sensor elements themselves, especially in the following sensor-related signal processing. The sensor elements are always smaller, better, more integrated, more robust and less expensive.

Denkbare Anwendungen finden sich in den Hauptbereichen Wireless Communication, Automotive Industrie und industrielle Prozessautomation. Dabei sind beispielsweise in den Anwendungsfeldern Aufgaben zu lösen wie Kanalentzerrung, Klassifikation, und Adaptive Regelung, wobei diese Aufzählung nicht abschließend ist.conceivable Applications can be found in the main areas of wireless communication, Automotive industry and industrial process automation. There are for example, in the application fields to solve tasks such as Channel equalization, classification, and adaptive control, these being enumeration not final.

Claims (43)

Feld Programmierbares Synapsen Array dadurch gekennzeichnet, dass eine optimierte Anordnung in sich optimierter Verbindungen (Synapsen) topologielos als „sea of synapses" auf einem integrierten System mit modularer Struktur realisiert wird, welche ein generisches Netz von Dendriten und Axonen realisiert, wodurch Prozessoren (Neuronen) derart verschaltet werden, dass sie geschichtet werden und eine Vielzahl von Topologien neuronaler Netze abbilden.Field programmable synapse array is characterized in that an optimized arrangement of optimized connections (synapses) is realized topologielos as "sea of synapses" on an integrated system with modular structure, which realizes a generic network of dendrites and axons, whereby processors (neurons) are interconnected so that they are layered and map a variety of topologies neural networks. Feld Programmierbares Synapsen Array nach Anspruch 1 dadurch gekennzeichnet, dass die Synapsen so gestaltet werden, dass sie in einem Feld modular angeordnet sind und von außen über Programmierung mit jedem Neuron verbunden werden, so dass sowohl die Anzahl der benötigten Synapsen mit variablen Algorithmus und skalierbarer Netzgröße als auch die Form der Neuronen-Aktivierungsfunktionen variieren, wodurch eine variable Anzahl von versteckten Schichten ermöglicht wird und mehrere Netze unterschiedlicher oder gleichartiger Topologie parallel und unabhängig voneinander implementierbar sind.Field Programmable synapse array according to claim 1 characterized in that the synapses are shaped that they are arranged modularly in a field and from the outside via programming with be connected to each neuron, so that both the number of synapses needed with variable algorithm and scalable network size as well the form of the neuron activation functions vary, creating a variable number of hidden layers allows and multiple networks of different or similar topology parallel and independent can be implemented from each other. Feld Programmierbares Synapsen Array nach einem der Ansprüche 1 oder 2 dadurch gekennzeichnet, dass die Synapsen in Blöcken zu jeweils vier und zwischen den oberen und unteren sowie zwischen den rechten und linken zwei Synapsen je vier Doppeldrahtleitungen angeordnet sind, wobei die Ein- und Ausgänge der Synapsen durch variable Programmierung von Transistorgates oder feste Programmierung durch Fuses auf diese Leitungen beliebig aufgeschaltet werden.Field Programmable synapse array after one of the claims 1 or 2, characterized in that the synapses in blocks to four each and between the top and bottom and between the right and left two synapses four pairs each are arranged, wherein the inputs and outputs of the synapse by variable Programming of transistor gates or fixed programming by Fuses be switched on any of these lines. Feld Programmierbares Synapsen Array nach einem der Ansprüche 1 bis 3 dadurch gekennzeichnet, dass die Synapsen im Synapsenarray gleich aufgebaut und adressierbar sind und die gleichen Funktionen realisieren.Field Programmable synapse array after one of the claims 1 to 3, characterized in that the synapses in the synapse array are the same structure and addressable and the same functions realize. Feld Programmierbares Synapsen Array nach Anspruch 4 dadurch gekennzeichnet, dass in den Synapsen die Speicherung eines Gewichtswertes in Form einer Spannung durch Speicherung in der C-Unit (Poly-Poly-Cap oder Gate-Cap) oder in einem digitalen Register erfolgt und die Multiplikation des gespeicherten Gewichtswertes mit dem an der Synapse anliegenden Eingangswert durchgeführt (wi·xi) wird.Field programmable synapse array according to claim 4, characterized in that in the synapses, the storage of a weight value in the form of a voltage by storage in the C-unit (poly-poly-cap or gate-cap) or in a digital register and the multiplication of stored weight value is performed with the input to the synapse input value (w i · x i ). Feld Programmierbares Synapsen Array nach einem der Ansprüche 1 bis 5 dadurch gekennzeichnet, dass für die Programmierung in jedem Synapsenblock ein Register vorgesehen ist, in dem die Schalterstellung kodiert gespeichert wird.Field Programmable synapse array after one of the claims 1 to 5, characterized in that for programming in each Synapse block is provided a register in which encodes the switch position is stored. Feld Programmierbares Synapsen Array nach einem der Ansprüche 1 bis 6 dadurch gekennzeichnet, dass für die Neuronen die lineare, sigmoide, gaußsche und quadratische Funktionen bereitgestellt werden, wobei diese einzeln ausgewählt werden oder eine Kombination von mehreren vorgenommen wird.Field Programmable synapse array after one of the claims 1 to 6, characterized in that for the neurons the linear, sigmoide, gaussian and quadratic functions are provided, these being individual selected or a combination of several is made. Feld Programmierbares Synapsen Array nach Anspruch 7 dadurch gekennzeichnet, dass die lineare und die sigmoide Funktion die Standardfunktionen sind und in der Eingangs-, Hidden- und Ausgangsschicht zur Verfügung gestellt werden.Field Programmable synapse array according to claim 7 characterized in that the linear and the sigmoidal function the standard functions are and in the input, hidden and output layers to disposal be put. Feld Programmierbares Synapsen Array nach Anspruch 7 dadurch gekennzeichnet, dass die quadratische Funktion nur in der Hiddenschicht eingesetzt wird.Field Programmable synapse array according to claim 7 characterized in that the quadratic function only in the hidden layer is used. Feld Programmierbares Synapsen Array nach Anspruch 7 dadurch gekennzeichnet, dass die gaußsche Funktion nur in der Ausgangsschicht eingesetzt wird.Field Programmable synapse array according to claim 7 characterized in that the Gaussian function only in the starting layer is used. Feld Programmierbares Synapsen Array nach einem der Ansprüche 7 bis 9 dadurch gekennzeichnet, dass für die Hiddenneuronenblöcke jeweils ein Block mit linearen, einer mit der sigmoiden und einer mit der quadratischen Funktion zusammen mit einer Synapse implementiert sind.Field Programmable synapse array after one the claims 7 to 9 characterized in that for the hidden neuron blocks respectively a block with linear, one with the sigmoiden and one with the square Function are implemented together with a synapse. Feld Programmierbares Synapsen Array nach einem der Ansprüche 7 bis 11 dadurch gekennzeichnet, dass die Neuronenblöcke am linken, rechten und oberem Rand des Netzes platziert sind, wobei am unteren Rand Blöcke mit Eingangsneuronen und zwei Ausgangs-Hiddenneuronen angeordnet sind.Field Programmable synapse array after one the claims 7 to 11, characterized in that the neuron blocks on the left, the right and top edges of the net are placed, being at the bottom blocks arranged with input neurons and two output hidden neurons are. Feld Programmierbares Synapsen Array nach Anspruch 12 dadurch gekennzeichnet, dass spezielle Ausgangs-Hiddenneuronenblöcke angeordnet sind, die eine Kombinationen aus entweder linearer und sigmoider Funktion oder linearer und gaußscher Funktion enthalten.Field Programmable synapse array according to claim 12 characterized in that special output hidden neuron blocks arranged that are a combination of either linear and sigmoider Function or linear and gaussian Function included. Feld Programmierbares Synapsen Array nach einem der Ansprüche 12 bis 13 dadurch gekennzeichnet, dass spezielle Ausgangs-Hiddenneuronenblöcke angeordnet sind, die eine zuschaltbare Funktion enthalten, die externe Lasten treiben können.Field Programmable synapse array after one the claims 12 to 13, characterized in that special output hidden neuron blocks arranged which contain a switchable function, the external loads can drive. Feld Programmierbares Synapsen Array nach einem der Ansprüche 1 bis 14 dadurch gekennzeichnet, dass die Neuronen zu Blöcken zusammengefasst sind und die Verdrahtung durch Programmierung eines Registers erfolgt.Field Programmable synapse array after one the claims 1 to 14, characterized in that the neurons are combined into blocks and the wiring is done by programming a register. Feld Programmierbares Synapsen Array nach einem der Ansprüche 1 bis 15 dadurch gekennzeichnet, dass mehrere Netze parallel und unabhängig voneinander implementierbar sind.Field Programmable synapse array after one the claims 1 to 15, characterized in that several networks in parallel and independently can be implemented from each other. Feld Programmierbares Synapsen Array nach einem der Ansprüche 1 bis 16 dadurch gekennzeichnet, dass die Neuronen und die Synapsen jeweils vorstrukturiert sind und diese vorstrukturierten Schaltungen über Switches verschaltet werden.Field Programmable synapse array after one the claims 1 to 16 characterized in that the neurons and the synapses each pre-structured and these prestructured circuits via switches be interconnected. Feld Programmierbares Synapsen Array nach einem der Ansprüche 1 bis 17 dadurch gekennzeichnet, dass die Signalübertragung zwischen Neuronen, Synapsen, Ein- und Ausgängen durch differenzielle Ströme erfolgt.Field Programmable synapse array after one the claims 1 to 17, characterized in that the signal transmission between neurons, Synapses, inputs and outputs done by differential currents. Feld Programmierbares Synapsen Array nach einem der Ansprüche 1 bis 18 dadurch gekennzeichnet, dass sie einen zuschaltbaren Treiber enthält, der es ermöglicht, externe Lasten anzusteuern, ohne zusätzlichen schaltungstechnischen Aufwand zwischen der Anordnung und angeschlossenen Aktuatoren zu betreiben.Field Programmable synapse array after one the claims 1 to 18, characterized in that they have a switchable driver contains which makes it possible to control external loads without additional circuitry Expense between the arrangement and connected actuators operate. Feld Programmierbares Synapsen Array nach Anspruch 19 dadurch gekennzeichnet, dass der Einfluss zusätzlicher Fehlerquellen auf die Ausgangssignale der Anordnung vermieden wird, da der Signalfluss zwischen Sensor und Aktuator extrem kurz gehalten wird. Es erfolgt keine Analog/Digital- oder Digital/Analog-Wandlung. Außerdem werden im optimalen Fall keine weiteren Treiber und Wandler benötigt.Field Programmable synapse array according to claim 19, characterized in that the influence of additional sources of error the output signals of the arrangement is avoided, since the signal flow between sensor and actuator is kept extremely short. It takes place no analog / digital or digital / analog conversion. In addition, the optimal Case no further drivers and converters needed. Verfahren zur Programmierung eines Feld Programmierbares Synapsen Arrays dadurch gekennzeichnet, dass eine Anordnung in sich optimierter Verbindungen (Synapsen) topologielos als „sea of synapses" auf einem integrierten System mit modularer Struktur realisiert wird, welche ein generisches Netz von Dendriten und Axonen realisiert, wodurch Prozessoren (Neuronen) derart verschaltet werden, dass sie geschichtet werden und eine Vielzahl von Topologien neuronaler Netze abbilden und das Belehren des Systems durch einen Automatismus erfolgt, mit dem ein selbstständiges Anpassen des neuronalen Netzes möglich ist.Method of programming a field Programmable synapse arrays thereby characterized net, that an arrangement of self-optimized connections (synapses) is realized topologielos as "sea of synapses" on an integrated system with modular structure, which realizes a generic network of dendrites and axons, whereby processors (neurons) are connected in such a way that they layered and map a variety of topologies neural networks and the teaching of the system is carried out by an automatic mechanism with which an independent adjustment of the neural network is possible. Verfahren nach Anspruch 21 dadurch gekennzeichnet, dass die Synapsen in einem Feld modular angeordnet sind und von außen über Programmierung mit jedem Neuron verbunden werden, so dass sowohl die Anzahl der benötigten Synapsen mit variablen Algorithmus und skalierbarer Netzgröße als auch die Form der Neuronen-Aktivierungsfunktionen variieren, wodurch eine variable Anzahl von versteckten Schichten ermöglicht wird und mehrere Netze unterschiedlicher oder gleichartiger Topologie parallel und unabhängig voneinander implementierbar sind.A method according to claim 21, characterized that the synapses are arranged in a modular array and by outside via programming be associated with each neuron, so that both the number of required Synapses with variable algorithm and scalable network size as well the shape of the neuron activation functions vary, thereby a variable number of hidden layers is enabled and multiple networks of different or similar topology parallel and independent can be implemented from each other. Verfahren nach Anspruch 21 oder 22 dadurch gekennzeichnet, dass für das Belehren der Anordnung eine lineare Funktion, eine Sigmoid-Funktion, eine quadratische Funktion und eine gaußsche Funktion entweder einzeln oder in Kombination von mehreren verwendet wird.A method according to claim 21 or 22, characterized that for teaching the array a linear function, a sigmoid function, a quadratic function and a Gaussian function either individually or used in combination of several. Verfahren nach Anspruch 23 dadurch gekennzeichnet, dass die Sigmoid-Funktion und die linearen Funktion als Standardaktivierungsfunktionen in der Hidden- und Ausgangsschicht zur Verfügung gestellt werden.Method according to claim 23, characterized that the sigmoid function and the linear function as standard activation functions be made available in the hidden and outgoing layers. Verfahren nach Anspruch 24 dadurch gekennzeichnet, dass die Standardaktivierungsfunktionen beim Multilayerperzeptron verwendet werden.Method according to claim 24, characterized that the standard activation functions in the multilayer perceptron be used. Verfahren nach Anspruch 23 dadurch gekennzeichnet, dass die quadratische Funktion nur in der Hiddenschicht eingesetzt wird, wobei die Funktionsverläufe jeweils über verschiedene Parameter eingestellt werden.Method according to claim 23, characterized that the quadratic function is used only in the hidden layer becomes, whereby the function courses each over different parameters are set. Verfahren nach einem der Ansprüche 23 oder 26 dadurch gekennzeichnet, dass die gaußsche Funktion nur in der Ausgangsschicht verwendet wird, wobei die Funktionsverläufe jeweils über verschiedene Parameter eingestellt werden.Method according to one of claims 23 or 26, characterized that the gaussian Function is used only in the output layer, wherein the function curves each have different Parameters are set. Verfahren nach einem der Ansprüche 21 bis 27 dadurch gekennzeichnet, dass die Hiddenneuronenfunktionen eine synaptische Funktionsaufgabe übernehmen, indem durch eine Synapse die Funktion zur Berechnung des euklidschen Abstandes (wi – xi)2 ausgeführt durch die Summe von (wi 2 – 2·wi·xi + x2) umgesetzt wird, wobei der Wert wi 2 in einer Biassynapse, der Wert – 2·wi·xi in einer allgemein verwendbaren Synapse und der Wert x2 in einem Hiddenneuron erzeugt wird und die Ausgänge auf einem Knoten zu (wi-xi)2 addiert werden.A method according to one of claims 21 to 27 characterized in that, the hidden neurons functions play a synaptic function task by through a synapse, the function for calculating the Euclidean distance (w i - x i) is carried out 2 by the sum of (w i 2 - 2 · w i * x i + x 2 ), where the value w i 2 is generated in a biassynapse, the value - 2 · w i · x i in a general purpose synapse, and the value x 2 in a hidden neuron and the outputs on a node to (wi-xi) 2 are added. Verfahren nach Anspruch 21 oder 22 dadurch gekennzeichnet, dass Eingangssignale mit einem Gewichtswert multipliziert werden, anschließend eine Summation der gewichteten Eingangssignale (Skalarprodukt) und nach der Skalarbildung eine Übertragung der Summe durch eine spezielle Funktion, insbesondere durch eine lineare, eine sigmoide oder eine sprungförmige Funktion, erfolgt.A method according to claim 21 or 22, characterized that input signals are multiplied by a weight value, subsequently a summation of the weighted input signals (scalar product) and after the scalar formation a transmission the sum by a special function, in particular by a linear, a sigmoide or a jump-shaped function, takes place. Verfahren nach Anspruch 29 dadurch gekennzeichnet, dass mit einer Gewichtsschicht und linearer Übertragungsfunktion die Gewichte analytisch berechnet werden und genau ein globales Minimum existiert.A method according to claim 29, characterized that with a weight layer and linear transfer function, the weights calculated analytically and exactly one global minimum exists. Verfahren nach Anspruch 29 dadurch gekennzeichnet, dass mit einer Gewichtsschicht und nichtlinearer Übertragungsfunktion die Gewichte bedingt analytisch berechnen werden und mit einem einfachen iterativen Minimierungsverfahren ein globales Minimum gefunden wird.A method according to claim 29, characterized that with a weight layer and nonlinear transfer function the weights will conditionally be calculated analytically and with a simple iterative minimization method a global minimum is found. Verfahren nach Anspruch 31 dadurch gekennzeichnet, dass die Netze je nach Anforderung an die Topologie mit oder ohne Biasneuronen und -synapsen betrieben werden und/oder die Biasneuronen dabei als zusätzliche Eingangsneuronen verwendet werden.A method according to claim 31, characterized that the networks depending on the request to the topology with or without Biasneuronen and synapses are operated and / or the Biasneuronen as an additional Input neurons are used. Verfahren nach Anspruch 29 dadurch gekennzeichnet, dass mit ein oder mehreren Gewichtsschichten und linearer oder nichtlinearer Übertragungsfunktion die Gewichte für die zu lösende Aufgabe mit einem statistischen iterativen Minimierungsverfahren bestimmt werden, wobei eine Vielzahl lokaler Minima existiert.A method according to claim 29, characterized that with one or more weight layers and linear or non-linear transfer function the weights for the to be solved Task with a statistical iterative minimization method be determined, where a plurality of local minima exists. Verfahren nach Anspruch 29 dadurch gekennzeichnet, dass mit einer parallelen Anordnung von mehreren Perzeptron-Netzen mit einer oder mehreren Gewichtsschichten und linearer bzw. nichtlinearer Übertragungsfunktion mehrere voneinander völlig unabhängige Sensorsignale verarbeiten werden, wobei die verwendeten Topologien völlig unterschiedlich sein können.A method according to claim 29, characterized in that with a parallel arrangement of meh Rere perceptron networks with one or more weight layers and linear or non-linear transfer function will process several completely independent sensor signals, the topologies used may be completely different. Verfahren nach Anspruch 21 oder 22 dadurch gekennzeichnet, dass eine Differenz zwischen Eingangssignal und Gewicht gebildet, diese anschließend quadriert und die Summe der Quadrate gebildet wird, wobei der Abstand (euklidische Distanz) durch Ziehen der Quadratwurzel aus der Summe berechnet wird und dies der Berechnung des zwischen anliegendem Signal und gespeichertem Gewichtsvektor entspricht.A method according to claim 21 or 22, characterized that formed a difference between input signal and weight, this afterwards squared and the sum of the squares is formed, with the distance (Euclidean distance) by dragging the square root of the sum is calculated and this is the calculation of the intervening Signal and stored weight vector corresponds. Verfahren nach Anspruch 35 dadurch gekennzeichnet, dass nur eine Schicht und keine spezielle Übertragungsfunktion verwendet wird, in der direkt die Summe der euklidischen Abstände am Ausgang ausgewertet und in den Gewichten die sogenannten Prototypen einer Klasse gespeichert werden, wodurch am Ausgang des Netzes ein Vektor entsteht, der die quadratischen Abstände des Eingangssignals zu den gespeicherten Klassenprototypen repräsentiert und durch eine Bestimmung des minimalen Ausgangssignals ist die passende Klasse gefunden wird.A method according to claim 35, characterized that only one layer and no special transfer function used in which is directly the sum of the Euclidean distances at the exit evaluated and in the weights the so-called prototypes of a Class are stored, creating at the output of the network a vector arises, which adjusts the square intervals of the input signal represents the stored class prototypes and by a determination of the minimum output signal, the matching class is found. Verfahren nach Anspruch 35 dadurch gekennzeichnet, dass zwei Schichten verwendet werden, wobei die erste Schicht eine einfache Gewichtsschicht ist, deren Summen anschließend in einer speziellen Funktion in Form einer Glockenkurve berechnet werden und die zweite Schicht vom Perzeptrontyp mit linearer Ausgangsfunktion ist, deren Gewichte analytisch berechnet werden, so dass kein statistischer iterativer Minimierungsprozess erforderlich ist.A method according to claim 35, characterized that two layers are used, wherein the first layer is a simple weight layer, whose sums are subsequently in a special function in the form of a bell curve and the second layer of the perceptron type with linear output function is whose weights are calculated analytically, so that no statistical iterative minimization process is required. Verfahren nach Anspruch 21 oder 22 dadurch gekennzeichnet, dass rückgekoppelte Netze verwendet werden, bei denen die Zustände der Neuronen solange neu berechnet werden, bis das Netz in einen Ruhezustand konvergiert ist, in dem sich keine Änderung der Aktivierungszustände mehr ergeben.A method according to claim 21 or 22, characterized that fed back Networks are used in which the states of the neurons are new as long as calculated until the network converges to a sleep state is in which there is no change the activation states more results. Verfahren nach Anspruch 38 dadurch gekennzeichnet, dass ein stabiler Zustand durch die Parameter Eingabe, Gewichtsmatrix und Schwellenwerte der Neuronen bestimmt wird.A method according to claim 38, characterized that a stable state through the parameters input, weight matrix and thresholds of the neurons is determined. Verfahren nach Anspruch 38 oder 39 dadurch gekennzeichnet, dass die n-dimensionalen Eingaben mit genau so vielen Recheneinheiten verarbeitet werden, wie Cluster bestimmt werden sollen und nur eine Einheit des Netzes eine Ausgabe abliefert und gleichzeitig alle anderen daran hindert es zu tun.A method according to claim 38 or 39, characterized that the n-dimensional inputs with just as many arithmetic units how clusters should be determined and only one Unit of the network delivers an issue and at the same time all preventing others from doing so. Verfahren nach Anspruch 38 oder 39 dadurch gekennzeichnet, dass die n-dimensionalen Eingaben mit genau so vielen Recheneinheiten verarbeitet werden, wie Cluster bestimmt werden sollen und die Ausgabe nicht nur von einer Einheit abgeliefert wird und die Clusterung während des Lernens erzeugt wird.A method according to claim 38 or 39, characterized that the n-dimensional inputs with just as many arithmetic units are processed, how clusters should be determined and the output is not is delivered by only one unit and the clustering during the Learning is generated. Verfahren nach Anspruch 38 oder 39 dadurch gekennzeichnet, dass das Netz aus einer einzigen Schicht von n Neuronen besteht, welche untereinander total vernetzt sind, d.h. jedes Neuron besitzt eine Verbindung zu jedem anderen Neuron, kein Neuron direkt mit sich selbst verbunden ist, das Netz symmetrisch gewichtet ist, den einzelnen Neuronen jeweils eine lineare Schwellenwertfunktion als Aktivierungsfunktion zugeordnet ist und als Eingabe die übliche gewichtete Summe erfolgt.A method according to claim 38 or 39, characterized that the network consists of a single layer of n neurons, which are totally networked with each other, i. every neuron possesses a connection to every other neuron, no neuron directly with itself connected, the network is symmetrically weighted, the individual neurons each have a linear threshold function as Activation function is assigned and as input the usual weighted Total is done. Verfahren nach Anspruch 38 oder 39 dadurch gekennzeichnet, dass ein unvollständiges Eingabemuster in das rückgekoppelte System eingegeben wird und bei Rückführung auf den Eingang die fehlenden Anteile teilweise ergänzt werden und das verbesserte Ausgabemuster dem Netz erneut als Eingabe präsentiert wird, so dass das System mit einer erneut verbesserten Ausgabe reagiert.A method according to claim 38 or 39, characterized that an incomplete Input pattern in the feedback System is entered and when returning to the input the missing shares are partially replenished and the improved Output pattern is presented to the network again as input, so that the System responded with a further improved output.
DE102005014323A 2005-03-24 2005-03-24 Field Programmable synapse Array and method for its programming Ceased DE102005014323A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102005014323A DE102005014323A1 (en) 2005-03-24 2005-03-24 Field Programmable synapse Array and method for its programming
PCT/EP2006/060831 WO2006100209A2 (en) 2005-03-24 2006-03-17 Field programmable synapses array and method for programming the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005014323A DE102005014323A1 (en) 2005-03-24 2005-03-24 Field Programmable synapse Array and method for its programming

Publications (1)

Publication Number Publication Date
DE102005014323A1 true DE102005014323A1 (en) 2006-09-28

Family

ID=36910905

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005014323A Ceased DE102005014323A1 (en) 2005-03-24 2005-03-24 Field Programmable synapse Array and method for its programming

Country Status (2)

Country Link
DE (1) DE102005014323A1 (en)
WO (1) WO2006100209A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019105985A1 (en) * 2019-03-08 2020-09-10 Bundesdruckerei Gmbh Method and device for automatic quality assessment

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9269042B2 (en) 2010-09-30 2016-02-23 International Business Machines Corporation Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices
DE102020113088A1 (en) 2020-05-14 2021-11-18 Universität Stuttgart Körperschaft des öffentlichen Rechts Method for analog multiplication and / or calculation of a scalar product with a circuit arrangement, in particular for artificial neural networks

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5892962A (en) * 1996-11-12 1999-04-06 Lucent Technologies Inc. FPGA-based processor
US20040039717A1 (en) * 2002-08-22 2004-02-26 Alex Nugent High-density synapse chip using nanoparticles

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155802A (en) * 1987-12-03 1992-10-13 Trustees Of The Univ. Of Penna. General purpose neural computer
DE19833822A1 (en) * 1998-07-28 2000-02-03 Frank Stuepmann Self-learning neuronal network in a hybrid VLSI technology for monitoring learning patterns and controlling learning processes adjusts automatically to learning patterns.

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5892962A (en) * 1996-11-12 1999-04-06 Lucent Technologies Inc. FPGA-based processor
US20040039717A1 (en) * 2002-08-22 2004-02-26 Alex Nugent High-density synapse chip using nanoparticles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019105985A1 (en) * 2019-03-08 2020-09-10 Bundesdruckerei Gmbh Method and device for automatic quality assessment

Also Published As

Publication number Publication date
WO2006100209A2 (en) 2006-09-28
WO2006100209A3 (en) 2007-08-30

Similar Documents

Publication Publication Date Title
DE112016003245T5 (en) Resistive processing unit
US9082079B1 (en) Proportional-integral-derivative controller effecting expansion kernels comprising a plurality of spiking neurons associated with a plurality of receptive fields
DE112018005726B4 (en) COUNTER-BASED RESISTIVE PROCESSING UNIT FOR PROGRAMMABLE AND RECONFIGURABLE ARTIFICIAL NEURAL NETWORKS
US9189730B1 (en) Modulated stochasticity spiking neuron network controller apparatus and methods
US20220012564A1 (en) Resilient Neural Network
DE60024582T2 (en) NEURONAL PROCESSING ELEMENT FOR USE IN A NEURONAL NETWORK
Malavé et al. Neural network-based design of cellular manufacturing systems
WO2014047142A1 (en) Spiking neuron network adaptive control apparatus and methods
KR20180028966A (en) Neural network hardware accelerator architectures and operating method thereof
DE112018003231T5 (en) NEUROMORPHE PROCESSING DEVICE
DE112019000226T5 (en) NEUROMORPHER CHIP FOR UPDATING PRECISE SYNAPTICAL WEIGHT VALUES
KR20170025715A (en) Synapse and neuromorphic device including the same
DE60125536T2 (en) ARRANGEMENT FOR GENERATING ELEMENT SEQUENCES
DE102005014323A1 (en) Field Programmable synapse Array and method for its programming
KR102514931B1 (en) Expandable neuromorphic circuit
Kozlova et al. The use of neural networks for planning the behavior of complex systems
Sharma et al. Study of artificial neural networks
Weng A 5-chunk developmental brain-mind network model for multiple events in complex backgrounds
Wilamowski Understanding neural networks
DE112020005613T5 (en) Neuromorphic unit with crossbar array structure
Murtagh Neural networks and related'massively parallel'methods for statistics: A short overview
Maravall et al. Fusion of learning automata theory and granular inference systems: ANLAGIS. Applications to pattern recognition and machine learning
DE112021002939T5 (en) EFFICIENT TILE MAPPING FOR LINE-BY-ROW MAPPING IN CONVOLUTIONAL NEURAL NETWORKS TO ANALOG INFERENCE IN ARTIFICIAL INTELLIGENCE NETWORKS
DE3607241C2 (en)
Maren A logical topology of neural networks

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection