DE102005014323A1 - Field Programmable synapse Array and method for its programming - Google Patents
Field Programmable synapse Array and method for its programming Download PDFInfo
- Publication number
- DE102005014323A1 DE102005014323A1 DE102005014323A DE102005014323A DE102005014323A1 DE 102005014323 A1 DE102005014323 A1 DE 102005014323A1 DE 102005014323 A DE102005014323 A DE 102005014323A DE 102005014323 A DE102005014323 A DE 102005014323A DE 102005014323 A1 DE102005014323 A1 DE 102005014323A1
- Authority
- DE
- Germany
- Prior art keywords
- function
- synapses
- neurons
- network
- field programmable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Abstract
Die Erfindung ist ein Feld Programmierbares Synapsen Array für die Integration eines neuronalen Netzes und ein Verfahren zur Programmierung des FPSA. DOLLAR A Die Aufgabe der Erfindung ist die Bereitstellung eines modularen analogen neuronalen integrierten Systems, welches sowohl sehr flexible als auch sehr komplexe Blöcke neuronaler Netze für Erkennungs- und Klassifikationsprobleme enthält. Durch ein Verfahren sollen mehrere Netztopologien auf einer integrierten Anordnung vereint werden. Die Anordnung soll von außen kontrolliert und strukturiert werden können und trotzdem nach der Konfiguration ein autark arbeitendes Klassifikationssystem sein, welches selbstständig lernt. DOLLAR A Das FPSA ist durch eine optimierte Anordnung in sich optimierter Verbindungen (Synapsen) topologielos als "sea of synapses" auf einem integrierten System mit modularer Struktur gekennzeichnet, welche ein generisches Netz von Dendriten und Axonen realisiert. DOLLAR A Für das Belehren der Anordnung wird eine lineare Funktion, eine Sigmoid-Funktion, eine quadratische Funktion und eine gaußsche Funktion entweder einzeln oder in Kombination von mehreren verwendet.The invention is a field programmable synapse array for the integration of a neural network and a method for programming the FPSA. DOLLAR A The object of the invention is to provide a modular analog neural integrated system which contains both very flexible and very complex blocks of neural networks for recognition and classification problems. One method is to combine several network topologies in an integrated arrangement. The arrangement should be able to be controlled and structured from the outside and still be an autonomous classification system after the configuration, which learns independently. DOLLAR A The FPSA is topologically characterized by an optimized arrangement of optimized connections (synapses) as "sea of synapses" on an integrated system with a modular structure, which realizes a generic network of dendrites and axons. DOLLAR A For teaching the arrangement, a linear function, a sigmoid function, a quadratic function, and a Gaussian function are used either singly or in combination of several.
Description
Die Erfindung ist ein Feld Programmierbares Synapsen Array (FPSA), ein intelligenter Prozessor und eine Chiplösung für die Integration eines neuronalen Netzes und ein Verfahren zur Programmierung des FPSA.The Invention is a Field Programmable Synapse Array (FPSA) intelligent processor and a chip solution for the integration of a neural Network and a method for programming the FPSA.
Künstliche neuronale Netze sind Modelle der Gehirnfunktion. Sie versuchen in Struktur und Funktionsweise Gehirnzellenkomplexe nachzubilden und dadurch eine tragfähige Simulation komplexer Denkvorgänge zu erzielen. Sie bieten ein Rechenmodell für die Informationsverarbeitung und sind damit eine Alternative zu den Computerrechenmodellen. Diese basieren weitgehend auf der Von-Neumann-Architektur. In der Literatur ist die Art der neuronalen Informationsverarbeitung sehr ausführlich dargestellt u.a. in [Rojas, R.; Neural Networks, Springer Verlag, Berlin u.a. 2002], [Zell, A.; Simulation neuronaler Netze; Oldenbourg-Verlag, Wien, 1994].artificial Neural networks are models of brain function. They try in Structure and functioning of replicating brain cell complexes and thereby a sustainable Simulation of complex thinking processes too achieve. They provide a computational model for information processing and are thus an alternative to the computer computer models. These are based largely on the von Neumann architecture. In the literature is the Type of neural information processing shown in great detail et al in [Rojas, R .; Neural Networks, Springer Verlag, Berlin and others. 2002], [Zell, A .; Simulation of neural networks; Oldenbourg-Verlag, Vienna, 1994].
Lernfähigkeit und Parallelität der Verarbeitung zählen zu den wichtigsten Merkmalen neuronaler Netze. Fehlertoleranz und Generalisierungsfähigkeit werden oft erreicht, hängen allerdings von der Wahl des Netzwerkmodells, der Netzwerkgröße und der Kodierung verarbeitenden Informationen (Ein- und Ausgabemuster) ab.learning ability and parallelism counting the processing to the most important features of neural networks. Fault tolerance and generalization are often reached, hang However, the choice of network model, the network size and the Coding processing information (input and output pattern) from.
Es gibt verschiedene Lernansätze für neuronale Netze: überwacht, unüberwacht und verstärkend.It are different learning approaches for neural Networks: supervised, unsupervised and reinforcing.
Beim überwachten Lernen (supervised learning) wird der Fehler zwischen berechnetem und gewünschtem Output minimiert. Bei der überwachten Lernphase wird einem Eingangsvektor (z.B. Symptome, Messwerte oder Bilder) ein Ausgangsvektor zugeordnet. Beim Einsatz eines neuronalen Netzes als Klassifikator erfolgt das Training ausschließlich mit den zu klassifizierenden Mustern. Nicht gelernte Muster und Störungen werden im späteren Einsatz als unbekannt klassifiziert.When supervised Learning (supervised learning) is the error between calculated and desired Output minimized. In the supervised Learning phase is given to an input vector (e.g., symptoms, readings, or Images) assigned to an output vector. When using a neural Netzes as a classifier, the training is done exclusively with the patterns to be classified. Not learned patterns and glitches later Use classified as unknown.
Unüberwachtes Lernen (unsupervised learning) ist Lernen ohne im Voraus bekannte Zielwerte. Dabei können verschiedene Dinge gelernt werden. Beliebt sind die automatische Klassifikation (Clustering) oder die Komprimierung von Daten zur Dimensionsreduktion. Es ist die Optimierung von Gewichten basierend auf Kriterien, die das Netz selber hat.unsupervised Learning (unsupervised learning) is learning without prior knowledge Target values. It can different things are learned. Popular are the automatic Classification (clustering) or the compression of data for Dimensionality reduction. It is the optimization of weights based on criteria that the network itself has.
Der Lernalgorithmus des bestärkenden Lernens (reinforcement learning) adaptiert Gewichte basierend auf Maximierung einer Belohnung (reward) bzw. Minimierung einer Bestrafung (punishment), die aufgrund des berechneten Outputs ausgesprochen wird.Of the Learning algorithm of the empowering Reinforcement learning adapts weights based on Maximizing a reward or minimizing a punishment (punishment) expressed on the basis of the calculated output becomes.
Ein Problem beim Einsatz neuronaler Netze ist die recht aufwendige Ermittlung der optimalen Netzstruktur und der Parameter, wie Ausgangsfunktionen der Neuronen, Schwelle, Minimum, Maximum, Lernregel, Lernrate und Anzahl der Lernschritte. Deshalb werden bei vielen Aufgaben aufwändige herkömmliche Verfahren (z.B. statistische oder regelbasierte Verfahren) eingesetzt, obwohl der Einsatz neuronaler Netze einfacher, schneller und preiswerter wäre.One Problem with the use of neural networks is the quite complex investigation the optimal network structure and parameters, such as output functions neurons, threshold, minimum, maximum, learning rule, learning rate and Number of learning steps. That is why many tasks are complicated conventional Methods (e.g., statistical or rule-based methods), although the use of neural networks is simpler, faster and cheaper would.
Neben der eigentlichen algorithmischen Aufgabe besteht noch die Anforderung der Implementierung. Wenn für eine gegebene Aufgabe eine bestimmte neuronale Struktur und Topologie gefunden wurde, ist es bei den Anforderungen an eine Embedded-Implementierung wichtig, eine geeignete Zielhardware zu finden. Hier spielen die Hardwareimplementierungen von neuronalen Netzen eine Rolle.Next the actual algorithmic task is still the requirement the implementation. If for a given task has a specific neural structure and topology found, it is in the requirements of an embedded implementation important to find a suitable target hardware. Here are the ones playing Hardware implementations of neural networks play a role.
Bei der Untersuchung von bestehenden Neurohardware-Lösungen wird deutlich, dass die digitalen Realisierungen den Hauptteil der kommerziellen Produkte stellen. Das ist zum einen dadurch begründet, dass digitale Schaltungstechnik einfacher zu beherrschen ist als analoge. Zum anderen sind die Designtools für digitale Schaltungstechnik deutlich komfortabler und weiter automatisiert als vergleichbare Tools für analoge Schaltungsentwicklung. Durch die längeren Enfinricklungszyklen in der Analog- im Vergleich zur Digitaltechnik, sind die Entwicklungskosten entsprechend höher.at The investigation of existing neurohardware solutions will clearly show that the digital realizations the main part of the commercial products put. This is due to the fact that digital circuit technology easier to master than analogue. Second, the design tools for digital Circuitry much more comfortable and further automated as comparable tools for analog circuit development. Due to the longer development cycles in the analogue compared to digital technology, are the development costs correspondingly higher.
Analoge Schaltungstechnik ist besonders für die Implementierung bestimmter Funktionen des neuronalen Netzes deutlich effektiver als ihr digitales Pendant. Dazu zählen Multiplikationen und Aktivierungsfunktionen. Es ist zu erwarten, dass neben den digitalen Implementierungen auch die analogen Ansätze in Zukunft leistungsfähige Realisierungen neuronaler Netze hervorbringen werden.analog Circuitry is special for the implementation of certain Functions of the neural network much more effective than their digital Counterpart. These include Multiplication and activation functions. It is to be expected that in addition to the digital implementations, the analog approaches will also be powerful in the future neuronal networks.
Bisherige Implementierungen haben gezeigt, dass mit der analogen Realisierungsvariante von Multilayerperzeptren mit einem Hidden-Layer Informationsverarbeitungsgeschwindigkeiten in der Reproduktionsphase vom Eingang zum Ausgang des Netzes von unter 5 μs erreicht werden. Der nicht lernfähige Analogchip von INTEL, der ETANN, benötigt für eine Reproduktion 8 μs. Die Gewichtsgenauigkeit liegt bei 6 Bit.Previous Implementations have shown that with the analog implementation variant of multilayer percepts with a hidden layer of information processing speeds in the reproduction phase from the entrance to the exit of the network of below 5 μs be achieved. The non-adaptive Analog chip from INTEL, the ETANN, requires 8 μs for a reproduction. The weight accuracy is 6 bits.
In
dem Patent
Nachteil der Erfindung ist, dass die Implementierung fest ist. Eine Skalierung ist nur über ein Neudesign möglich. Die Implementierung ist auf ein Netzwerk mit Backpropagation begrenzt. Es ist kein anderer Algorithmus verwendbar.disadvantage The invention is that the implementation is fixed. A scaling is only over a new design possible. The implementation is limited to a network with backpropagation. There is no other algorithm usable.
In der Patentanmeldung WO 2003015027 A2 erfolgt das Lernen rein analog, die Gewichtsspeicherung erfolgt während der Lernphase analog kapazitiv in einem Kondensator und in der Arbeitsphase lokal digital in Registern hinter MDACs um nicht refreshen zu müssen. Hinzu kommt die globale Gewichtsspeicherung in einem Speicherblock und Überwachung, welche digital erfolgen. Es ist ein externer Controller notwendig, sodass dies keine reine On-Chip-Learning-/Self-Learnig-Implementierung darstellt. Die Analog-zu-Digital-Wandlung erfolgt durch 16 implementierte ADCs zeilenweise auf dem Chip. Auf dem Chip ist die Struktur des Multilayerperzeptrons frei wählbar. Der BPA mit Lernen ist hart verdrahtet. Es können keine anderen Algorithmen benutzt werden.In In patent application WO 2003015027 A2, learning takes place in a purely analogue manner. Weight storage is analogous during the learning phase Capacitive in a capacitor and in the working phase locally digital in registers behind MDACs in order not to have to refresh. in addition comes the global weight storage in a memory block and monitoring, which are done digitally. It is necessary to have an external controller so this is not a pure on-chip learning / self-learning implementation. The Analog-to-digital conversion is performed by 16 implemented ADCs line by line on the chip. On the chip is the structure of the multilayer perceptron freely selectable. The BPA with learning is hard-wired. There can be no other algorithms to be used.
Aus
der Patentveröffentlichung
Nachteil dieser Veröffentlichung ist es, dass es sich um eine 2- oder 3-dimensionale Gitterstruktur handelt, in der die Prozessoren angeordnet sind. Es ist keine Struktur mit frei wählbarer Netztopologie. Die Prozessoren agieren nur in einer finiten Nachbarschaft miteinander. Damit bleibt die Anordnung auf wenige Algorithmen beschränkt.disadvantage this publication it is that it is a 2- or 3-dimensional lattice structure, in which the processors are arranged. It is not a structure with freely selectable Network topology. The processors only work in a finite neighborhood together. Thus, the arrangement is limited to a few algorithms.
In
Nachteilig ist hier, dass es eine sehr allgemeine Beschaltung von analogen und digitalen Schaltungsblöcken zur Umsetzung von Signalverarbeitungsfunktionen gibt. Für lernende Strukturen, wie sie für ein neuronales Netz benötigt werden, ist ein großer Aufwand vonnöten. Es bestehen keine vorbelegten Aktivierungsfunktionen, die entsprechend der Netztopologie und der verwendeten Neuronentypen ausgewählt werden kann.adversely Here is that there is a very general wiring of analog and digital circuit blocks to implement signal processing functions. For learners Structures as they are for a neural network is needed be, is a big one Required effort. There are no pre-assigned activation functions that correspond accordingly network topology and neuron types used.
Die Nachteile der vorgenannten Lösungen sind, dass
- – Der Anwendungsingenieur die Chips bis in das kleinste Detail genau kennen muss, damit er die Schaltkreise einsetzen kann.
- – Ein sehr großer schaltungstechnischer Aufwand betrieben werden muss, um diese Chips in einer Anwendung zu integrieren.
- – Entweder nur eine Netz-Topologie umgesetzt werden kann oder die Netztopologie von außen nicht programmierbar ist.
- – Ein sehr großer schaltungstechnischer Aufwand betrieben werden muss, um die nichtlinearen Aktivierungsfunktionen zu integrieren.
- - The application engineer must know the chips to the smallest detail so that he can use the circuits.
- - A very large circuit complexity must be operated to integrate these chips in one application.
- - Either only one network topology can be implemented or the network topology is not programmable from the outside.
- - A very large circuitry effort must be made to the nonlinear activity integration functions.
[Aufgabe der Erfindung]OBJECT OF THE INVENTION
Die Aufgabe der Erfindung ist die Bereitstellung eines modularen analogen neuronalen intergrierten Systems, welches sowohl sehr flexible, als auch sehr komplexe Blöcke neuronaler Netze für Erkennungs- und Klassifikationsprobleme enthält. Die neuronale Struktur auf der Anordnung soll schaltungstechnisch so gestaltet werden, dass eine möglichst große Anzahl von Netztopologien implementiert werden kann.The The object of the invention is to provide a modular analog neural integrated system, which is both very flexible, as well as very complex blocks neural networks for Contains recognition and classification problems. The neural structure on the arrangement should be designed circuitically so that one possible size Number of network topologies can be implemented.
Es ist weiterhin die Aufgabe durch ein Verfahren mehrere Netztopologien auf einer intergrierten Anordnung zu vereinen, so dass der Anwender durch Programmierung in der Lage ist, eine neuronale Netzwerk-Topologie zu wählen. Die Anordnung soll von außen kontrolliert und strukturiert werden können und trotzdem nach der Konfiguration ein autark arbeitendendes Klassifikationssystem sein, welches selbstständig lernt.It is still the task by a method multiple network topologies to unite on an integrated arrangement, allowing the user by programming is capable of a neural network topology to choose. The arrangement should be from the outside can be controlled and structured and still after the Configuration be a self-sufficient classification system which independently learns.
Die Lösung der Aufgabe erfolgt durch das erfindungsgemäße Feld-Programmierbare Synapsen Array und ein Verfahren zur Programmierung des FPSA, wie es in den Ansprüchen beschrieben wird.The solution The object is achieved by the field programmable synapse array according to the invention and a Method of programming the FPSA as described in the claims becomes.
Das Feld Programmierbare Synapsen Array ist dadurch gekennzeichnet, dass eine optimierte Anordnung in sich optimierter Verbindungen (Synapsen) topologielos als „sea of synapses" auf einem integrierten System mit modularer Struktur realisiert wird, welche ein generisches Netz von Dendriten und Axonen realisiert, wodurch Prozessoren (Neuronen) derart verschaltet werden, dass sie geschichtet werden und eine Vielzahl von Topologien neuronaler Netze abbilden.The Field Programmable Synapses Array is characterized that an optimized arrangement in optimized connections (Synapses) topologielos as "sea of synapses " an integrated system with a modular structure is realized, which realizes a generic network of dendrites and axons, whereby processors (neurons) are connected in such a way that they be layered and a variety of topologies neural networks depict.
Für das Belehren der Anordnung wird eine lineare Funktion, eine Sigmoid-Funktion, eine quadratische Funktion und eine gaußsche Funktion entweder einzeln oder in Kombination von mehreren verwendet.For teaching The arrangement becomes a linear function, a sigmoid function, a quadratic function and a gaussian Function used either singly or in combination of several.
Vorteileadvantages
Die bestehenden Entwicklungen sind mit der hier dargestellten Erfindung nicht zu vergleichen. Der wesentliche Vorteil dieser Lösung ist es, dass nach Produktion eines Standardchip-Releases festgelegt werden kann, welche konkrete Topologie (=Anwendung) implementiert werden soll.The Existing developments are with the invention presented here Not comparable. The main advantage of this solution is it set that after producing a standard chip release which implements concrete topology (= application) shall be.
Das neuronale Netz auf der integrierten Anordnung ist schaltungstechnisch so gestaltet, dass eine möglichst große Anzahl von Netztopologien implementiert werden kann.The Neural network on the integrated array is circuit technology designed to be as possible size Number of network topologies can be implemented.
Dazu werden die Synapsen so gestaltet, dass sie in einem Feld angeordnet sind und von außen über Programmierung nach Möglichkeit mit jedem Neuron verbunden werden können.To The synapses are designed so that they are arranged in a field are and externally about programming if possible can be connected to any neuron.
Die Anordnung besitzt, im Gegensatz zu anderen herkömmlichen neuronalen Hardwarelösungen, eine modulare Struktur. Damit können sowohl die Anzahl der benötigten Synapsen als auch die Form der Neuronen-Aktivierungsfunktionen variiert werden. In Abhängigkeit vom Lernprozess und der jeweils gewählten Netztopologie sowie den vorgegebenen Mustern lassen sich Toleranz und Trennschärfe direkt trainieren. Diese Eigenschaften führen dazu, dass eine Vielzahl von Embedded-Lösungen für komplexe Klassifikationsaufgaben überhaupt erst möglich wird.The Arrangement has, in contrast to other conventional neural hardware solutions, a modular structure. With that you can both the number of needed Synapses as well as the shape of the neuron activation functions varies become. Dependent on from the learning process and the selected network topology as well as the given patterns allow tolerance and selectivity directly work out. These properties cause a variety of embedded solutions for complex Classification tasks at all only possible becomes.
So wird der Forderung nach sowohl hochgradig flexiblen, als auch immer komplexeren Komponenten für Erkennungs- und Klassifikationsprobleme genügt.So meets the requirement for both highly flexible, and always more complex components for Recognition and classification problems are sufficient.
Die gleichzeitige Integration einer digitalen Standard-Schnittstelle erhöht die Flexibilität und die Handhabbarkeit der Anorgnung. Im Zusammenhang mit der steigenden Akzeptanz neuronaler Lösungen für technische Klassifikationsprobleme öffnen sich dem geplanten Produkt breite Anwendungsmöglichkeiten. Selbst nach Produktion eines Chip-Releases können Netztopologien mit modernen Verfahren (z.B. evolutionäre, genetische und statistische Algorithmen) optimiert werden und in die zuvor produzierte Charge implementiert werden. Während bisher Fehler in einzelnen Blöcken des zu implementierenden neuronalen Netzes zum Verwerten der gesamten Chip-Produktion führen, ist der Erfolg der Chip-Produktion nun nicht mehr abhängig von der Qualität des implementierten Netzes, da defekte Synapsen oder Neuronen abgeschaltet werden können.The simultaneous integration of a standard digital interface elevated the flexibility and the handling of the Anorgnung. In connection with the rising Acceptance of neural solutions for technical Open classification problems the planned product wide application possibilities. Even after production of a chip release can Network topologies with modern methods (e.g., evolutionary, genetic and statistical algorithms) and in the previously produced batch can be implemented. While previously errors in individual blocks of the neural network to be implemented for exploiting the whole Chip production to lead, the success of the chip production is no longer dependent on the quality of the implemented network because defective synapses or neurons are switched off can be.
Mit diesen Eigenschaften kann die Entwicklungsarbeit (von Abhängigkeiten) entflechtet und parallelisiert werden, da
- • durch das modulare Systemkonzept Modulentwickler parallel arbeiten können und der Abstimmungsaufwand reduziert wird.
- • die Entwicklung der Netztopologien parallel und unabhängig von der Chip-Entwicklung erfolgen kann.
- • die Anwendungsentwicklung nicht auf die Fertigstellung bestimmter Chips (ASICs) angewiesen ist, sondern auf standardisierte Produkt-Releases zurückgreifen kann.
- • be able to work in parallel with the modular system concept module developers and reduce the coordination effort.
- • the development of network topologies can be parallel and independent of the chip development.
- • application development does not rely on the completion of certain chips (ASICs), but can rely on standardized product releases.
Mit einer variablen Anzahl von Verarbeitungseinheiten besitzt die Anordnung eine Struktur, die der Anwender selbst wählen kann.With a variable number of processing units has the arrangement a structure that the user can choose himself.
Mit einer Verarbeitungsgeschwindigkeit im Nanosekundenbereich benötigt der Schaltkreis nur einen Bruchteil der Zeit, die die bislang schnellsten Produkte für die Reproduktion benötigen.With a processing speed in the nanosecond range requires the Circuit only a fraction of the time, which is the fastest so far Products for need the reproduction.
Die Modularität der Netzwerktopologie führt zu einer einfacheren Handhabung durch den Anwendungsingenieur. Dadurch wird die Hemmschwelle zum Umstieg auf eine neuronale Lösung gesenkt.The modularity the network topology leads for easier handling by the application engineer. Thereby the inhibition threshold for switching to a neuronal solution is lowered.
Es sind neuartige Anwendungen in den Bereichen Auswertung von Sensorarrays in der Automotiv-Industrie, in der Druckindustrie sowie in der Luft- und Raumfahrt denkbar.It are novel applications in the field of sensor array evaluation in the automotive industry, in the printing industry and in the air- and space travel conceivable.
Die Erfindung wird anhand von Beispielen näher erläutert. Dabei zeigen die Figuren:The The invention will be explained in more detail by means of examples. The figures show:
Voraussetzung für die Umsetzung ist ein streng objekt-orientiertes (modulares und hierarchisches) Systemkonzept mit klar definierten Schnittstellen zwischen den Hierarchie- und Modul-Ebenen und den Instanzen einer Modul-Ebene, z.B.
- – System
- – Funktionsblöcke
- – Netz
- – Topologie (bzw. Parallelprozessor-Anordnung)
- – Segmente
- – Neuron (bzw. Prozessor) • Dendrit • Axon
- – Synapse
- - System
- - Function blocks
- - Network
- - topology (or parallel processor arrangement)
- - Segments
- - neuron (or processor) • dendrite • axon
- - Synapse
Dieses Systemkonzept hat den Vorteil, dass die verschiedenen Modul-Ebenen unabhängig voneinander optimiert und standardisiert werden können.This System concept has the advantage that the different module levels independently be optimized and standardized from each other.
Unter dieser Voraussetzung kann auf dem Chip eine optimierte Anordnung in sich optimierter Verbindungen (Synapsen) zunächst topologielos als „sea of synapses" realisiert werden.Under This requirement can be optimized on-chip in optimized connections (synapses), initially topologyless as "sea of synapses "realized become.
Mit dieser Anordnung wird ein generisches Netz von Dendriten und Axonen realisiert, welches Prozessoren (Neuronen) derart verschaltet, dass sie geschichtet werden können und eine Vielzahl von Topologien neuronaler Netze abbilden können.With This arrangement becomes a generic network of dendrites and axons realized which processors (neurons) interconnected in such a way that they can be layered and map a variety of neural network topologies.
Die Anordnung erfolgt so, dass nach der Produktion des Chips eine konkrete anwendungsspezifische Topologie in den Chip „gebrannt" werden kann.The Arrangement takes place so that after the production of the chip a concrete application-specific topology can be "burned" into the chip.
In Analogie zu FPGAs und FPAAs lässt sich diese Anordnung als FPSA (Field-Programmable Synapses-Array) bezeichnen.In Analogy to FPGAs and FPAAs leaves this arrangement is called FPSA (Field Programmable Synapses Array).
Die auf dieser einheitlichen Technologie basierenden FPSA-Schaltkreise lassen sich in unterschiedlichen Skalierungsstufen für verschiedene Anwendungsgebiete produzieren und so ein diversifiziertes Portfolio von Standard-Produkten erzeugen, die für die jeweilige Anwendung maßgeschneidert werden können.The on this single technology based FPSA circuits can be used in different scaling levels for different Application areas produce and so a diversified portfolio of Produce standard products tailored for each application can be.
Für das Belehren des Chips wird ein Verfahren entwickelt, mit dem ein selbstständiges Anpassen des neuronalen Netzes möglich ist. Der Reproduktionspfad kann voll integriert sein. Die Gewichte werden in dieser Variante extern auf einem Rechner gelernt und dann komplett geladen.For teaching The chip is a process developed with a self-adjusting of the neural network possible is. The reproduction path can be fully integrated. The weights are learned externally on a computer in this variant and then completely charged.
Der modulare Chip ist ein neuronaler Klassifikator, der selbstständig lernt. Das Lernen wird beim überwachten Lernen jedoch von einem Trainer überwacht. Beim unüberwachten Lernen werden u.a. Ähnlichkeiten gesucht und entsprechenden Clustern zugeordnet.Of the modular chip is a neural classifier that learns independently. The learning becomes supervised However, learning supervised by a coach. When unsupervised Learning will be i.a. Similarities wanted and corresponding clusters.
Die Abmessungen dieser Einheit ermöglichen erstmals den Einsatz verschiedener Topologien neuronaler Netze in einem sensornahen System für mobile und autonome Anwendungen und Geräte. Diese einfachere und schnellere Realisierung eines neuronalen Netzes auf der Basis eines derartigen Chips soll bisherige Implementierungsvarianten ablösen und künstlichen neuronalen Netzen u.a. für Entscheidungsaufgaben in Verbindung mit Sensoren und Messwertaufnehmern wesentlich vereinfachen.The Allow dimensions of this unit For the first time the use of different topologies of neural networks in a sensor-related system for mobile and autonomous applications and devices. This easier and faster Realization of a neural network based on such Chips should replace previous implementation variants and artificial neural networks, etc. For Decision tasks in connection with sensors and transducers considerably simplify.
Eigenschaften des Netzes:
- – allgemeine Strukturvariabilität, d. h. variabler Algorithmus und skalierbare Netzgröße (Grenze: Anzahl der Synapsen)
- – variable Anzahl von versteckten Schichten möglich (max. 4)
- – mehrere Netze parallel und unabhängig voneinander implementierbar
- General structure variability, ie variable algorithm and scalable network size (limit: number of synapses)
- - variable number of hidden layers possible (max 4)
- - Multiple networks can be implemented in parallel and independently of each other
Die Signalübertragung zwischen Neuronen, Synapsen, Ein- und Ausgängen erfolgt durch differenzielle Ströme.The signal transmission between neurons, synapses, inputs and outputs is done by differential Streams.
Synapsensynapses
Alle
Synapsen im Synapsenarray sind gleich aufgebaut und realisieren
die gleichen Funktionen (
Zum anderen wird in der Synapse die Multiplikation des gespeicherten Gewichtswertes mit dem an der Synapse anliegenden Eingangswert durchgeführt (wi·xi).On the other hand, in the synapse the multiplication of the stored weight value is carried out with the input value applied to the synapse (w i * x i ).
Wird der Gewichtswert digital gespeichert, muss in der Synapse ein DAC implementiert sein. Die Umwandlung der analogen Gewichtswerte in digitale Bitmuster erfolgt durch ein Netz aus geschalteten:Becomes The weight value stored digitally must have a DAC in the synapse be implemented. The conversion of the analog weight values in digital bit pattern is done through a network of switched:
- 1. Kapazitäten,1. capacities,
- 2. Widerständen oder2. resistances or
- 3. Stromquellen.3. Power sources.
Die Synapsen sind adressierbar, so dass Gewichtswerte hinein geschrieben oder heraus gelesen werden können.The Synapses are addressable, so weight values are written into it or can be read out.
Die funktionale Sonderform Biassynapse ist genau wie die Synapse aufgebaut und kann auch als solche vewendet werden.The functional special form Biassynapse is built exactly like the synapse and can also be used as such.
Die Synapsen sind in Blöcken zu jeweils vier angeordnet. Zwischen den oberen und unteren sowie zwischen den rechten und linken beiden sind je vier Doppeldrahtleitungen angeordnet. Die Ein- und Ausgänge der Synapsen können durch:
- 1. variable Programmierung von Transistorgates oder
- 2. feste Programmierung durch Fuses
- 1. variable programming of transistor gates or
- 2. Fixed programming by fuses
Um die Programmierung vornehmen zu können, ist in jedem Synapsenblock ein Register vorgesehen, in dem die Schalterstellung kodiert gespeichert wird.Around programming is possible in every synapse block a register provided in which stores the switch position coded becomes.
Neuronenneurons
Im Netz gibt es unterschiedliche Neuronen-Formen. Allgemein haben sie jedoch die Aufgabe, die Berechnung eines Funktionswertes aus der Summe der an ihrem Eingang anliegenden Signale zu berechnen.in the Net, there are different neuron forms. Generally they have however, the task of calculating a function value from the To calculate the sum of the signals present at its input.
Es
werden vier Funktionen (
- 1. die lineare Funktion,
- 2. die sigmoide Funktion,
- 3. die quadratische Funktion und
- 4. die gaußsche Funktion.
- 1. the linear function,
- 2. the sigmoid function,
- 3. the quadratic function and
- 4. the gaussian function.
Die Sigmoid-Funktion ist neben der linearen Funktion die Standardaktivierungsfunktion. Beide werden topologisch betrachtet in den Hiddenschichten und der Ausgangsschicht zur Verfügung gestellt. Die Sigmoid Funktion wird insbesondere beim Multilayerperzeptron verwendet.The Sigmoid function is the default activation feature in addition to the linear function. Both are considered topologically in the hidden layers and the Starting layer available posed. The sigmoid function becomes especially with the Multilayerperzeptron used.
Die quadratische Funktion kann nur in den Hiddenschichten eingesetzt werden, während die gaußsche Funktion (Nearest Neighbour) nur in der Ausgangsschicht verwendet werden kann Die Funktionsverläufe können jeweils über verschiedene Parameter eingestellt werden (z.B. Sigmoid-Funktion – Steilheit über Arbeitsstrom veränderbar).The quadratic function can only be used in the hidden layers while the gauss The function curves can each be set via various parameters (eg sigmoid function - slope can be changed via working current).
Von den vier Funktionen kann entweder eine ausgewählt oder eine Kombination von mehreren vorgenommen werden.From The four functions can either select one or a combination of several be made.
Die Hiddenneuronenfunktionen können in besonderen Fällen auch eine synaptische Funktionsaufgabe übernehmen. Soll, wie z.B. beim Nearest-Neighbor-Netz, durch eine Synapse die Funktion zur Berechnung des euklidischen Abstandes (wi – xi)2 ausgeführt werden, kann dies hier mit durch die Summe von (wi 2 – 2·wi·xi + x2) umgesetzt werden. Dabei wird der Wert wi 2 in einer Biassynapse, der Wert –2·wi – xi in einer allgemein verwendbaren Synapse und der Wert xi 2 in einem Hiddenneuron erzeugt und die Ausgänge auf einem Knoten zu (wi – xi)2 addiert.The hidden neuron functions can also assume a synaptic function task in special cases. If, as in the nearest neighbor web, through a synapse, the function for calculating the Euclidean distance (w i - x i), for example, be carried out 2, this may here by the sum of (w i 2 - 2 · w i · x i + x 2 ) are implemented. The value w i 2 is generated in a biassynapse, the value -2 · w i - x i in a generally usable synapse and the value x i 2 in a hidden neuron and the outputs on a node are added to (wi - xi) 2 ,
Die
Neuronenfunktionen sind zu Blöcken
zusammengefasst. Die Verdrahtung erfolgt wie bei den Synapsen durch
Programmierung eines Registers. Für die Hiddenneuronenblöcke (
Am
unteren Rand sind Blöcke
mit drei Eingängen
und je zwei Neuronen angeordnet. Diese Output-Hidden-Neuronenblöcke (
In
Mit diesem Typ lassen sich alle möglichen Vernetzungstopologien realisieren, die dann z.B. zum sogenannten Multilayerperzeptron werden.With This type can be all possible Realize mesh topologies, which are then e.g. to the so-called Become a multilayer perceptron.
Zieht man noch die Quadratwurzel aus der Summe, entspricht dies der Berechnung des Abstandes (eukliedische Distanz) zwischen anliegendem Signal und gespeichertem Gewichtsvektor (daher der Name „Nächster Nachbar"). Dies ist für die Funktion des Netzes aber nicht entscheidend. Es hätte aber den Vorteil, dass dieser Wert bei 1 bis 3-dimensionalen Vektoren geometrisch interpretierbar ist, wie etwa im 3-dimensionalen Farbraum.attracts if you add the square root of the sum, this corresponds to the calculation the distance (Euclidean distance) between adjacent signal and stored weight vector (hence the name "nearest neighbor"). This is for the function of the network but not crucial. But it would have the advantage that this value can be interpreted geometrically with 1 to 3-dimensional vectors is, as in the 3-dimensional color space.
Mit dem „Nearest-Neighbour-Typ" eröffnen sich (durch einige Zusätze) eine ganze Reihe von Netzvarianten, die bekannt sind als:
- – Radial Basisfunktionen Netze (RBF)
- – Generalized Regression Networks (GRNN)
- – Probabilistic Neural Networks (PNN)
- – Self-Organizing Maps (SOM) (auch Kohonen Feature Maps)
- – Learning Vector Quantization Networks (LVQ)
- - Radial Basis Functions Networks (RBF)
- - Generalized Regression Networks (GRNN)
- - Probabilistic Neural Networks (PNN)
- - Self-Organizing Maps (SOM) (also Kohonen Feature Maps)
- - Learning Vector Quantization Networks (LVQ)
Perzeptronnetze – eine Schicht und lineare ÜbertragungsfunktionPerceptronnets - one layer and linear transfer function
Dies ist der einfachste Fall eines Perzeptronnetzes. Das Interessante hieran ist, dass die Gewichte analytisch berechnet werden können. Es existiert genau ein globales Minimum. Nutzen kann man diese Netzform z.B. für lineare Farbraumtransformationen etwa zur Sensorkorrektur oder für Umrechnungen zwischen verschiedenen Farbmonitortypen.This is the simplest case of a perceptronnetzes. The interesting thing This is because the weights can be calculated analytically. It Exactly one global minimum exists. You can use this network form e.g. For linear color space transformations such as for sensor correction or for conversions between different color monitor types.
Perzeptronnetze – Eine Schicht und nichtlineare ÜbertragungsfunktionPerceptronnets - one layer and non-linear transfer function
Die Gewichte lassen sich bedingt analytisch berechnen. Mit einem einfachen iterativen Minimierungsverfahren findet man ein globales Minimum.The Weights can be calculated analytically. With a simple one iterative minimization techniques provide a global minimum.
Perzeptronnetze – Mehrere SchichtenPerceptronnets - multiple layers
Die Bestimmung der Gewichte für die zu lösende Aufgabe kann nur noch mit einem statistischen iterativen Minimierungsverfahren erfolgen (Lernen). Es existiert im Allgemeinen eine Vielzahl lokaler Minima. Daher ist der Erfolg der Gewichtsfindung nicht vorhersagbar sondern zufällig. Es ist auch nicht möglich, die geeignete Topologie der Vernetzung für eine bestimmte Aufgabe anzugeben, da keine analytischen Zusammenhänge zwischen Aufgabentyp und Topologieeigenschaften existieren. Der Minimierungsprozess kann evtl. sehr viele Iterationen erfordern und daher (je nach Rechenleistung) viel Zeit erfordern.The Determination of weights for the to be solved Task can only be done with a statistical iterative minimization method done (learning). There are generally a variety of local ones Minima. Therefore, the success of weight determination is unpredictable but by chance. It is also not possible indicate the appropriate topology of networking for a particular task, there are no analytical connections exist between task type and topology properties. Of the Minimization process may require very many iterations and therefore (depending on the computing power) require a lot of time.
Prinzipiell können mit mehrschichtigen Perzeptronnetzen Klassifikations- und Funktionsapproximationsaufgaben gelöst werden. Anzumerken ist allerdings, dass eine wirkliche Klassifikation erst durch eine Zusatzschicht möglich wird, aus der nämlich aus dem Ausgangsvektor des Netzes durch z.B. eine Maximumsbestimmung die Klasse hervorgeht.in principle can with multi-layered perceptron networks classification and function approximation tasks solved become. It should be noted, however, that a real classification only possible with an additional layer becomes, from the fact from the output vector of the network by e.g. a maximum determination the class emerges.
Die Qualität einer Funktionsapproximation ist schwer zu überprüfen, da nicht der gesamte (mehrdimensionale) Signalbereich durchgefahren werden kann. Es ist daher möglich, dass die Reaktion des Netzes auf ein bestimmtes Eingangssignal unvorhersehbar vom gewünschten Verhalten abweicht.The quality a function approximation is difficult to verify because not the whole (multidimensional) Signal range can be driven through. It is therefore possible that the reaction of the network to a specific input signal unpredictable of the desired Behavior deviates.
Nearest-Neighbour-Typ – einfacher KlassifiziererNearest Neighbor type - easier classifier
An dieser Stelle sollen exemplarisch nur zwei einfache Vertreter aufgeführt werden, an denen die wesentlichen Eigenschaften deutlich werden.At By way of example, only two simple representatives will be listed here. where the essential characteristics become clear.
Dieses Netz hat nur eine Schicht und keine spezielle Übertragungsfunktion. Es kann direkt die Summe am Ausgang ausgewertet werden. In den Gewichten werden die sogenannten Prototypen einer Klasse gespeichert. Durch die Berechnung des Netzes entsteht am Ausgang des Netzes ein Vektor, der die (quadratischen) Abstände des Eingangssignals zu den gespeicherten Klassenprototypen repräsentiert. Durch eine Bestimmung des minimalen Ausgangssignals ist die passende Klasse gefunden. Im Idealfall ist das Minimum Null, weil Eingangssignal und Prototyp identisch sind.This Network has only one layer and no special transfer function. It can directly the sum at the output can be evaluated. In the weights The so-called prototypes of a class are stored. By the calculation of the network creates a vector at the output of the network, the (square) distances represents the input signal to the stored class prototypes. By determining the minimum output signal is the appropriate one Class found. Ideally, the minimum is zero because input signal and prototype are identical.
Dieser Netztyp eignet sich sehr gut für Klassifikationsaufgaben, bei denen Klassenprototypen angegeben werden können und wo keine weitere Umdeutung (mapping) der Ausgangssignale notwendig ist. Ein bekanntes Beispiel ist die Klassifizierung von Farben.This Net type is very good for Classification tasks that specify class prototypes can and where no further re-interpretation (mapping) of the output signals necessary is. A well-known example is the classification of colors.
Vorteilhaft ist, dass durch die Topologie (Anzahl der Ein- und Ausgänge) genau feststeht, was der Chip leistet und was nicht. Es kann also schon vorher gesagt werden, ob eine Aufgabe lösbar ist oder nicht.Advantageous is that through the topology (number of inputs and outputs) exactly It is clear what the chip does and what does not. So it can be be told in advance whether a task is solvable or not.
Nearest-Neighbour-Typ-RBF-NetzNearest neighbor type RBF network
Das RBF-Netz hat zwei Schichten. Die erste Schicht ist mit dem Eingang vollverdrahtet, wie beim einfachen Multilayerperzeptron. Allerdings werden die gewichteten Summen in einer speziellen Funktion berechnet, die eine Glockenform hat. Damit liefert die Schicht für Testmuster die außerhalb der Trainingsmuster liegen nur geringe Aktivitäten, da nur Bereiche, die innerhalb der jeweiligen Glocken liegen zu Aktivitäten der Neuronen führen. Die zweite Schicht des RBF-Netzes ist vom Perzeptrontyp mit linearer Ausgangsfunktion. Daher lassen sich die Gewichte dieser Schicht analytisch berechnen, so dass kein statistischer iterativer Minimierungsprozess erforderlich ist.The RBF network has two layers. The first layer is with the entrance fully wired, as with the simple multilayer perceptron. Indeed the weighted sums are calculated in a special function, which has a bell shape. This provides the layer for test patterns the outside The training patterns are only minor activities, as only areas within The respective bells are leading to activities of the neurons. The second layer of the RBF network is of the perceptron type with linear Output function. Therefore, the weights of this layer can be calculate analytically, so that no statistical iterative minimization process is required.
Die zweite Schicht kann verschiedene Aufgaben realisieren (alles, was ein einschichtiges Netz eben kann). Eine Funktion ist das „Mappen". Dabei wird jedem Ausgangsvektor der ersten Schicht ein bestimmter Vektor am Ausgang der zweiten Schicht zugeordnet um z.B. Klassen zu definieren.The second layer can realize different tasks (everything a single-layered network can). One function is the "mapping" First layer output vector a particular vector at the output associated with the second layer by e.g. Define classes.
Weiterhin kann durch die zweite Schicht ermöglicht werden, dass sich das RBF-Netz für allgemeine Funktionsapproximationen verwenden lässt.Farther can be made possible by the second layer that the RBF network for general function approximations can be used.
Vorteilhaft ist hier die Eigenschaft, dass prinzipbedingt keine unvorhersehbaren Reaktionen des Netzes auf unbekannte Eingangssignale entstehen können, da das Netz immer nur zwischen den gespeicherten Stützstellen interpoliert.Advantageous Here is the property that inherently no unpredictable Reactions of the network can arise on unknown input signals, since the network is always interpolated only between the stored nodes.
Die Hiddenneuronenfunktionen können in besonderen Fällen auch eine synaptische Funktionsaufgabe übernehmen. Soll, wie z.B. beim Nearest-Neighbor-Netz, durch eine Synapse die Funktion zur Berechnung des euklidschen Abstandes (wi – xi)2 ausgeführt werden, kann dies hiermit durch die Summe von (wi 2 – 2·wi·xi + x2) umgesetzt werden. Dabei wird der Wert wi 2 in einer Biassynapse, der Wert –2·wi·xi in einer allgemein verwendbaren Synapse und der Wert xi 2 in einem Hiddenneuron erzeugt und die Ausgänge auf einem Knoten zu (wi – xi)2 addiert.The hidden neuron functions can also assume a synaptic function task in special cases. If, as in the nearest neighbor web, through a synapse, the function for calculating the Euclidean distance (w i - x i), for example, be carried out 2, this may be incorporated by the sum of (w i 2 - 2 · w i · x i + x 2 ) are implemented. In this case, the value w i 2 is generated in a biassynapse, the value -2 · w i · x i in a generally usable synapse, and the value x i 2 in a hidden neuron, and the outputs on a node are added to (wi - xi) 2 ,
Das
Synapsen-Neuronen-Array ist streng modular aufgebaut um eine nahezu
frei wählbare
Form und Größe eines
neuronalen Netzes zu erzeugen. Ein Vorschlag zum Aufbau des FPSA
zeigt
Die Neuronen sind zu Blöcken zusammengefasst. Die Verdrahtung erfolgt wie bei den Synapsen durch Programmierung eines Registers. Für die Hiddenneuronenblöcke sind jeweils ein Block mit der linearen, einer mit der sigmoiden und einer mit der quadratischen Funktion zusammen mit einer Synapse implementiert. Die Synapse kann dabei z.B. als Bias- oder Rückkopplungssynapse eingesetzt werden, was bei rückgekoppelten Netzen erforderlich ist. Diese Neuronenblöcke sind am linken, rechten und oberem Rand des Netzes platziert. Am unteren Rand sind Blöcke mit vier Neuronen, die die Sigmoid-Funktion ausführen, angeordnet. Man kann diese z.B. in jeweils drei Eingangs- und einem Ausgangsneuron aufteilen.The Neurons are in blocks summarized. The wiring is done as synapses through Programming a register. For the hidden neuron blocks are one block each with the linear, one with the sigmoiden and one one implemented with the quadratic function along with a synapse. The Synapse can be e.g. used as a bias or feedback synapse what is fed back at Nets is required. These neuron blocks are on the left, right and the top of the net. At the bottom are blocks with four neurons that perform the sigmoid function, arranged. One can this e.g. each split into three input and one output neuron.
In Fig. 7 bezeichnet In Fig. 7 designates
Im Beispiel ist ein Netz mit 64 Synapsen, 12 Biassynapsen, 16 Hiddenneuronen, 12 Inputneuronen, 4 Ausgangsneuronen und 3 Biasneuronen dargestellt.in the Example is a network with 64 synapses, 12 biassynaps, 16 hidden neurons, 12 input neurons, 4 output neurons and 3 bias neurons.
Ein praktisch zu realisierendes Netz könnte 1088 (1024 Synapsen + 64 Biassynapsen) Synapsen und 131 (48 Eingangsneuronen+64 Hiddenneuronen+16 Ausgangsneuronen+3 Biasneuronen) Neuronen enthalten.One A network that could be implemented in practice could be 1088 (1024 synapses + 64 biassynaps) synapses and 131 (48 input neurons + 64 hidden neurons + 16 Output neurons + 3 bias neurons) neurons.
Perzeptron-NetrePerceptron Netre
Bei Perzeptron-Netzen werden die Eingangssignale mit einem Gewichtswert multipliziert. Anschließend erfolgt eine Summation der gewichteten Eingangssignale. Dies entspricht mathematisch dem Skalarprodukt. Nach der Skalarbildung erfolgt die Übertragung der Summe durch eine spezielle Funktion (linear, sigmoid, sprungförmig).at Perceptron networks are the input signals with a weight value multiplied. Subsequently there is a summation of the weighted input signals. This matches with mathematically the scalar product. After the scalar formation, the transmission takes place the sum by a special function (linear, sigmoid, jump).
Mit diesem Typ lassen sich alle möglichen Vernetzungstopologien realisieren, die dann z.B. zum sogenannten Multilayerperzeptron werden.With This type can be all possible Realize mesh topologies, which are then e.g. to the so-called Become a multilayer perceptron.
Im Nachfolgenden sollen beispielhaft einfache Vertreter von Perzeptron-Netzen aufgeführt werden.in the Below are examples of simple representatives of perceptron networks listed become.
Perzeptron-Netz mit einer Gewichtsschicht und linearer ÜbertragungsfunktionPerceptron network with one Weight layer and linear transfer function
Dies ist der einfachste Fall eines Perzeptronnetzes. Das Interessante hieran ist, dass die Gewichte analytisch berechnet werden können. Es existiert genau ein globales Minimum. Genutzt werden kann diese Netzform z.B. für lineare Farbraumtransformationen etwa zur Sensorkorrektur oder für Umrechnungen zwischen verschiedenen Farbmonitortypen.This is the simplest case of a perceptronnetzes. The interesting thing This is because the weights can be calculated analytically. It Exactly one global minimum exists. This network form can be used e.g. For linear color space transformations such as for sensor correction or for conversions between different color monitor types.
Ein
praktisch zu realisierendes Perzeptron-Netz mit einer Gewichtsschicht
und linearer Übertragungsfunktion
für das
angeführte
FPSA-Beispiel ist in
Einschichtiges Perzeptron-Netz mit nichtlinearer ÜbertragungsfunktionSingle-layer perceptron network with non-linear transfer function
Die Gewichte lassen sich bedingt analytisch berechnen. Mit einem einfachen iterativen Minimierungsverfahren findet man ein globales Minimum.The Weights can be calculated analytically. With a simple one iterative minimization techniques provide a global minimum.
Ein
praktisch zu realisierendes Perzeptron-Netz mit einer Ausgangsschicht
und nichtlinearer Übertragungsfunktion
für das
angeführte
FPSA-Beispiel ist in
Perzeptron-Netze mit mehreren Hiddenschichten und linearer bzw. nichtlinearer ÜbertragungsfunktionPerceptron networks with several Hidden layers and linear or nonlinear transfer function
Die Bestimmung der Gewichte für die zu lösende Aufgabe kann nur noch mit einem statistischen iterativen Minimierungsverfahren erfolgen (Lernen). Es existiert im Allgemeinen eine Vielzahl lokaler Minima. Daher ist der Erfolg der Gewichtsfindung nicht vorhersagbar sondern zufällig. Es ist auch nicht möglich, die geeignete Topologie der Vernetzung für eine bestimmte Aufgabe anzugeben, da keine analytischen Zusammenhänge zwischen Aufgabentyp und Topologieeigenschaften existieren. Der Minimierungsprozess kann evtl. sehr viele Iterationen erfordern und daher (je nach Rechenleistung) viel Zeit erfordern.The Determination of weights for the to be solved Task can only be done with a statistical iterative minimization method done (learning). There are generally a variety of local ones Minima. Therefore, the success of weight determination is unpredictable but by chance. It is also not possible indicate the appropriate topology of networking for a particular task, there are no analytical connections exist between task type and topology properties. Of the Minimization process may require very many iterations and therefore (depending on the computing power) require a lot of time.
Prinzipiell können mit mehrschichtigen Perzeptronnetzen Klassifikations- und Funktionsapproximationsaufgaben gelöst werden.in principle can with multi-layered perceptron networks classification and function approximation tasks solved become.
Ein Perzeptron-Netz für das angeführte FPSA-Beispiel mit einer, zwei, oder sogar drei versteckten Schichten und mit auch in den einzelnen Schichten wahlweise einsetzbaren linearen oder nichtlinearen Übertragungsfunktion ist somit realisierbar. Die Netze können, je nach Anforderung an die Topologie, mit oder ohne Biasneuronen und – synapsen betrieben werden. Die Biasneuronen können dabei auch als zusätzliche Eingangsneuronen verwendet werden.One Perceptron network for the cited FPSA example with one, two, or even three hidden layers and with also in the individual layers optionally usable linear or non-linear transfer function is thus feasible. The networks can, depending on the requirement the topology, with or without bias neurons and synapses. The bias neurons can also as additional Input neurons are used.
Ein
Netz mit 4 Eingängen
(INA1, INA2, INA3, INA4), einer versteckten Schicht bestehend aus
16 Synapsen (SA1...4,1...4) und 4 Neuronen (HNR1, HNR2, HNR3, HNR4)
und einer Ausgangsschicht bestehend aus 16 Synapsen (SB1...4,1...4)
und 4 Ausgängen
(OHNA1, OHNA2, OHNA3, OHNA4) ist in
4
Eingänge
(INA1, INA2, INA3, INA4), eine erste versteckte Schicht bestehend
aus 16 Synapsen (SA1...4,1...4) und 4 Neuronen (HNR1, HNR2, HNR3,
HNR4), eine zweite versteckte Schicht bestehend aus 16 Synapsen
(SB1...4,1...4) und 4 Neuronen (HNO1, HNO2, HNO3, HNO4) und eine
Ausgangsschicht bestehend aus 16 Synapsen (SC1...4,1...4) und 4
Ausgängen
(OHNA1, OHNA2, OHNA3, OHNA4) besitzt das Netz, welches
Ein
Beispiel für
ein Netz mit 4 Eingängen
(INA1, INA2, INA3, INA4), einer ersten versteckten Schicht bestehend
aus 16 Synapsen (SA1...4,1...4) und 4 Neuronen (HNR1, HNR2, HNR3,
HNR4), einer zweiten versteckten Schicht bestehend aus 16 Synapsen
(SB1...4,1...4) und 4 Neuronen (HNO1, HNO2, HNO3, HNO4), einer dritten
versteckten Schicht bestehend aus 16 Synapsen (SC1...4,1...4) und
4 Neuronen (HNL1, HNL2, HNL3, HNL4) und einer Ausgangsschicht bestehend
aus 16 Synapsen (SD1...4,1...4) und 4 Ausgängen (OHNA1, OHNA2, OHNA3,
OHNA4) gibt
Die drei Beispiele zeigen bereits, wie groß die Variationsmöglichkeiten allein für Perzeptron-Netze sind, die mit dem angeführten FPSA-Beispiel möglich sind.The three examples already show how big the possibilities of variation alone for Are perceptron networks that are possible with the cited FPSA example.
Parallele Anordnung von mehreren Perzeptron-Netzen mit einer oder mehreren Gewichtsschichten und linearer bzw. nichtlinearer ÜbertragungsfunktionParallel arrangement of multiple perceptron networks with one or more weight layers and linear or non-linear transfer function
Um mehrere voneinander völlig unabhängige Sensorsignale verarbeiten zu können, dabei jedoch nicht mehrfach denselben Hardwareaufwand betreiben zu müssen, bietet sich mit dem FPSA die Möglichkeit, parallele, voneinander völlig unabhängige Netze zu implementieren. Dabei können die verwendeten Topologien auch völlig unterschiedlich sein.Around several of each other completely independent To process sensor signals, but do not operate the same hardware effort several times to have to, With the FPSA, it is possible to parallel, completely independent networks to implement. It can the topologies used may also be completely different.
Will
man zwei Netze mit unterschiedlicher Topologie im angeführten FPSA-Beispiel betreiben,
zeigt
Nearest-Neighbour-TypNearest neighbor type
Beim „Nearest Neighbour -Typ" wird die Differenz zwischen Eingangssignal und Gewicht gebildet und diese anschließend quadriert. Es wird dann die Summe der Quadrate gebildet.At the "Nearest Neighbor type "will the difference between input signal and weight is formed and this subsequently squared. The sum of the squares is then formed.
Zieht man noch die Quadratwurzel aus der Summe, entspricht dies der Berechnung des Abstandes (euklidische Distanz) zwischen anliegendem Signal und gespeichertem Gewichtsvektor (daher der Name „Nearest Neighbour"). Dies ist für die Funktion des Netzes aber nicht entscheidend. Es hätte aber den Vorteil, dass dieser Wert bei 1 bis 3-dimensionalen Vektoren geometrisch interpretierbar ist, wie etwa im 3-dimensionalen Farbraum.attracts if you add the square root of the sum, this corresponds to the calculation the distance (Euclidean distance) between adjacent signal and stored weight vector (hence the name "Nearest Neighbor "). This is for the function of the network but not crucial. It would have the advantage of having this value in 1 to 3-dimensional vectors is geometrically interpretable, such as in 3-dimensional color space.
Mit Netzen vom „Nearest Neighbour" eröffnen sich eine ganze Reihe von Netzvarianten.With Networks from the "Nearest Neighbor "open a whole series of network variants.
An dieser Stelle sollen exemplarisch nur zwei einfache Vertreter von Netzen vom Nächster-Nachbar-Typ aufgeführt werden, an denen die wesentlichen Eigenschaften deutlich werden.At By way of example, only two simple representatives of Next neighbor type networks listed where the essential characteristics become clear.
Einfacher KlassifiziererEasier classifier
Dieses Netz hat nur eine Schicht und keine spezielle Übertragungsfunktion. Es kann direkt die Summe der euklidischen Abstände am Ausgang ausgewertet werden. In den Gewichten werden die sogenannten Prototypen einer Klasse gespeichert. Durch die Berechnung des Netzes entsteht am Ausgang des Netzes ein Vektor, der die quadratischen Abstände des Eingangssignals zu den gespeicherten Klassenprototypen repräsentiert. Durch eine Bestimmung des minimalen Ausgangssignals ist die passende Klasse gefunden. Im Idealfall ist das Minimum Null, weil Eingangssignal und Prototyp identisch sind.This Network has only one layer and no special transfer function. It can evaluated directly the sum of the Euclidean distances at the exit become. In the weights, the so-called prototypes of a Class stored. Due to the calculation of the network arises on Output of the network a vector representing the square intervals of the Represents input to the stored class prototypes. By determining the minimum output signal is the appropriate one Class found. Ideally, the minimum is zero because input signal and prototype are identical.
Dieser Netztyp eignet sich sehr gut für Klassifikationsaufgaben, bei denen Klassenprototypen angegeben werden können und wo keine weitere Umdeutung (mapping) der Ausgangssignale notwendig ist. Ein bekanntes Beispiel ist die Klassifizierung von Farben.This Net type is very good for Classification tasks that specify class prototypes can and where no further re-interpretation (mapping) of the output signals necessary is. A well-known example is the classification of colors.
Ein
praktisch zu realisierendes Netz für das angeführte FPSA-Beispiel zur einfachen
Klassifizierung ist in
RBF-NetzRBF network
Das RBF-Netz hat zwei Schichten. Die erste Schicht ist eine Hiddenschicht wie beim einfacher Multilayerperzeptron. Allerdings werden die gewichteten Summen in einer speziellen Funktion berechnet, die die Form einer Glockenkurve hat. Damit liefert die Schicht für Testmuster die außerhalb der Trainingsmuster liegen nur geringe Aktivitäten, da nur Bereiche, die innerhalb der jeweiligen Glocken liegen zu Aktivitäten der Neuronen führen. Die zweite Schicht des RBF-Netzes ist vom Perzeptrontyp mit linearer Ausgangsfunktion. Daher lassen sich die Gewichte dieser Stufe analytisch berechnen, so dass kein statistischer iterativer Minimierungsprozess erforderlich ist.The RBF network has two layers. The first layer is a hidden layer like the simple multilayer perceptron. However, the weighted ones Calculates sums in a special function that takes the form of a Bell curve has. Thus, the layer for test patterns provides the outside The training patterns are only minor activities, as only areas within The respective bells are leading to activities of the neurons. The second layer of the RBF network is of the perceptron type with linear Output function. Therefore, the weights of this stage can be analytically so that no statistical iterative minimization process is required.
Die zweite Schicht kann verschiedene Aufgaben realisieren. Eine Funktion ist das „Mappen". Dabei wird jedem Ausgangsvektor der ersten Schicht ein bestimmter Vektor am Ausgang der zweiten Schicht zugeordnet um z.B. Klassen zu definieren. Weiterhin kann durch die zweite Schicht ermöglicht werden, dass sich das RBF-Netz für allgemeine Funktionsapproximationen verwenden lässt.The second layer can realize different tasks. A function is the "folder" First layer output vector a particular vector at the output associated with the second layer by e.g. Define classes. Farther can be made possible by the second layer that the RBF network for use general function approximations.
Vorteilhaft ist hier die Eigenschaft, dass prinzipbedingt keine unvorhersehbaren Reaktionen des Netzes auf unbekannte Eingangssignale entstehen können, da das Netz immer nur zwischen den gespeicherten Stützstellen interpoliert.Advantageous Here is the property that inherently no unpredictable Reactions of the network can arise on unknown input signals, since the network is always interpolated only between the stored nodes.
Ein
Implementierungsbeispiel für
das angeführte
FPSA könnte
ein RBF-Netz mit 3 Eingängen
(INA1, INA2, INA3), einer versteckten Schicht bestehend aus 6 Synapsen
(SB1,1,SB2,2, SC1,1, SC2,2, SD1,1, SD2,2) und 2 Neuronen (OHNB1,
OHNB2) und einer Ausgangsschicht bestehen aus 4 Synapsen (SB1,4, SB2,4,
SC1,4, SC2,4) und 2 Neuronen (OHNA1 OHNA2), welches
Rückgekoppelte NetzeFeedback networks
Bisher wurden ausschließlich Netztopologien ohne Rückkopplungen betrachtet. Die Verarbeitung durch Propagation erfolgt von der Eingabeschicht zur Ausgabeschicht. Bei rückgekoppelten Netzen hingegen müssen die Zustände der Neuronen solange neu berechnet werden, bis das Netz in einen Ruhezustand konvergiert ist, in dem sich keine Änderung der Aktivierungszustände mehr ergibt. Ein stabiler Zustand wird daher durch die Eingabe, die Gewichtsmatrix und die Schwellenwerte der Neuronen bestimmt.So far became exclusive Network topologies without feedback considered. Propagation processing is done from the input layer to the output layer. When fed back Networks, on the other hand, have to the conditions the neurons are recalculated until the net into one Hibernation is converged in which no change in the activation states more results. A stable state is therefore due to the input, the weight matrix and determines the thresholds of the neurons.
Im Folgenden sollen drei typische Vertreter rückgekoppelter Netze kurz dargestellt werden.in the Below are three typical representatives of feedback networks briefly presented become.
Winner Take All (WTA)Winner Take All (WTA)
Beim Wettbewerbslernen (Lernen durch Konkurrenz, competition learning) treten die Einheiten des Netzes in Kokurrenz miteinander um das „Recht" für eine Eingabe eine Ausgabe zu erzeugen. Nur eine darf eine Ausgabe abliefern und hindert gleichzeitig alle anderen daran es zu tun.At the Competitive learning (learning through competition, competition learning) The units of the network compete with each other for the "right" to enter to produce an output. Only one is allowed to deliver an issue and At the same time, stop everyone else from doing it.
Beim unüberwachten Lernen werden die n-dimensionalen Eingaben mit genau so vielen Recheneinheiten verarbeitet, wie Cluster bestimmt werden sollen. Für drei Cluster wird ein Netz von drei kompetitiven Einheiten benötigt.At the unsupervised Learning the n-dimensional inputs with just as many arithmetic units processes how clusters are to be determined. For three clusters a network of three competitive units is needed.
Ein
praktisch zu realisierendes WTA-Netz für das angeführte FPSA, welches
Kohonen Feature MapsKohonen feature Maps
Kohonen Feature Maps arbeiten ähnlich wie WTA-Netze. Der Unterschied ist jedoch, dass die Ausgabe nicht auf eine Einheit beschränkt ist und die Anzahl der Cluster vor dem Lernen nicht feststeht. Die Clusterung wird also während des Lernens erzeugt.Kohonen Feature maps work similarly like WTA networks. The difference, however, is that the output is not limited to one unit and the number of clusters is not known before learning. The So clustering will be during of learning.
Ein
Beispiel, wie man ein Kohonen-Netz mit 3 Eingängen und 3 Ausgängen im
angeführten
FPSA-Beispile implementiert, ist in
Hopfield- NetzeHopfield nets
Hopfield-Netze beruhen auf den folgenden Annahmen:
- – Das Netz besteht aus einer einzigen Schicht von n Neuronen.
- – Die n Neuronen sind untereinander total vernetzt, d.h. jedes Neuron besitzt eine Verbindung zu jedem anderen Neuron (Rückkopplung, Rekursion).
- – Kein Neuron ist direkt mit sich selbst verbunden (keine unmittelbare Rückkopplung).
- – Das Netz ist symmetrisch gewichtet, d.h. das Gewicht der Bindung zwischen Neuron i und Neuron j ist gleich dem Gewicht der Verbindung zwischen Neuron j und Neuron i.
- – Den einzelnen Neuronen ist jeweils eine lineare Schwellenwertfunktion als Aktivierungsfunktion zugeordnet.
- – Eingabe ist die übliche gewichtete Summe.
- - The network consists of a single layer of n neurons.
- - The n neurons are totally interconnected, ie each neuron has a connection to every other neuron (feedback, recursion).
- - No neuron is directly connected to itself (no immediate feedback).
- The network is symmetrically weighted, ie the weight of the bond between neuron i and neuron j is equal to the weight of the connection between neuron j and neuron i.
- - Each neuron is assigned a linear threshold function as an activation function.
- - Input is the usual weighted sum.
Hopfield-Netze sind daher einschichtige neuronale Netze, die ausschließlich indirekte Rückkopplungen zwischen je zwei verschiedenen Knoten i,j (i ≠ j) des Netzes besitzen, aber keine direkte Rückkopplung zum gleichen Knoten. Alle Verbindungen zwischen zwei Neuronen sind symmetrisch, d.h. wij = wij. Dies kann auch so interpretiert werden, dass zwischen zwei Neuronen nur eine bidirektionale Leitung besteht.Hopfield networks are therefore single-layer neural networks that are exclusively indirect feedback between each two different nodes i, j (i ≠ j) of the network, but no direct feedback to the same node. All connections between two neurons are symmetric, i.e. wij = wij. This can also be interpreted as being between two neurons only one bidirectional line exists.
Das Hopfield-Netz konvergiert – unter gewissen Voraussetzungen – nach einer endlichen Zeit zu einem Ruhezustand. Wenn ein Teil der Ausgabeleitungen auf den Eingang zurückgeführt wird, kann der entsprechende Teil des Ausgabemusters y zum Eingabemuster x beitragen. y = x, d.h. Eingang der Neuronen = Ausgang der Neuronen (Autoassoziation).The Hopfield network converges - under certain conditions - after a finite time to a resting state. If part of the output lines is attributed to the entrance, the corresponding part of the output pattern y can be the input pattern contribute x. y = x, i. Input of the neurons = output of the neurons (Autoassociation).
Bietet man diesem rückgekoppelten System, in dem solche Musterpaare gespeichert sind, ein unvollständiges Eingabemuster an, so ergibt sich erst einmal ein entsprechend unvollständiges Ausgabemuster. Dessen richtige Gebiete können ausreichen, um bei Rückführung auf den Eingang die fehlenden Anteile teilweise zu ergänzen. Das verbesserte Ausgabemuster wird dem Netz erneut als Eingabe präsentiert, so dass das System mit einer erneut verbesserten Ausgabe reagieren wird. Jeder Ausgang eines Neurons wirkt durch die Rückkopplung auf die Eingänge aller Neuronen zurück.provides one fed back this one System in which such pattern pairs are stored, an incomplete input pattern At first, this results in a correspondingly incomplete output pattern. Whose right areas can suffice to return to partially to supplement the input the missing shares. The improved output patterns are again presented to the network as input, so the system will respond with a further improved output becomes. Each output of a neuron acts through the feedback on the entrances all neurons back.
Das
Hopfield-Netz in
Anwendungapplication
Mit der Integration mehren neuronaler Netztopologien sind auch andere Lernalgorithmen verwendbar. Die Paarung von Modularität, Geschwindigkeit und einer großen Zahl von Verarbeitungseinheiten macht den Chip zu einem Novum, das viele Anwendungen in der Sensorsiganlverarbeitung erst ermöglicht. Die Applikationen für die Erfindung finden sich vorrangig im Sensorik-Bereich (sensor signal processing, adaptation), in der Industrieautomation, sowie anderen Bereichen, in denen es um sehr schnelle Steuerungsfunktionen geht. Das betrifft vor allem Systeme mit wechselnden Umgebungsbedingungen. Hier ist eine Lernfähigkeit für Ereigniszustände erforderlich (Teach-In-Funktionalität). Das Training erfolgt über einen host computer mit einer speziellen Trainingssoftware.With the integration of multiple neural network topologies, other learning algorithms can be used. The combination of modularity, speed and a large number of processing units makes that Chip is a novelty that enables many applications in sensor processing. The applications for the invention are primarily in the field of sensor technology (sensor signal processing, adaptation), in industrial automation, as well as other areas in which very fast control functions are involved. This mainly affects systems with changing environmental conditions. Here, a learning ability for event states is required (teach-in functionality). The training takes place via a host computer with a special training software.
Auf Grund der technischen Parameter des Produktes werden, da viele Eingänge zur Verfügung stehen, parallele Auswertungen von Multisensorarrays in einem Bauteil ermöglicht.On Reason of the technical parameters of the product are, as many inputs to disposal stand, parallel evaluations of multi-sensor arrays in one component allows.
Der Sensormarkt ist eines der am stärksten wachsenden Segmente innerhalb des gesamten Mikroelektronik-Marktes. Auf Basis genormter Schnittstellen wird es möglich, Sensoren problemlos mit Netzwerken zu verknüpfen.Of the Sensor market is one of the strongest growing segments within the entire microelectronics market. Based on standardized interfaces, it becomes possible sensors without problems to link with networks.
Dieser Trend entsteht aus qualitativ neuen Anforderungen an die Sensor-Signalverarbeitung, z.B.:
- – zunehmende Miniaturisierung
- – wachsende Chip-Integration
- – intelligente Verfahren
- – dezentrale Verarbeitung
- – steigende Echtzeit-Anforderungen
- – zunehmende Komplexität zu erfassender Zustände/Situationen
- - increasing miniaturization
- - growing chip integration
- - intelligent procedures
- - decentralized processing
- - increasing real-time requirements
- - Increasing complexity of detected states / situations
Der überwiegende Wertschöpfungsanteil liegt damit neben den Sensorelementen selbst, vor allem in der nachfolgenden sensornahen Signalverarbeitung. Die Sensor-Elemente werden immer kleiner, besser, integrierter, robuster und kostengünstiger.The predominant value added lies next to the sensor elements themselves, especially in the following sensor-related signal processing. The sensor elements are always smaller, better, more integrated, more robust and less expensive.
Denkbare Anwendungen finden sich in den Hauptbereichen Wireless Communication, Automotive Industrie und industrielle Prozessautomation. Dabei sind beispielsweise in den Anwendungsfeldern Aufgaben zu lösen wie Kanalentzerrung, Klassifikation, und Adaptive Regelung, wobei diese Aufzählung nicht abschließend ist.conceivable Applications can be found in the main areas of wireless communication, Automotive industry and industrial process automation. There are for example, in the application fields to solve tasks such as Channel equalization, classification, and adaptive control, these being enumeration not final.
Claims (43)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005014323A DE102005014323A1 (en) | 2005-03-24 | 2005-03-24 | Field Programmable synapse Array and method for its programming |
PCT/EP2006/060831 WO2006100209A2 (en) | 2005-03-24 | 2006-03-17 | Field programmable synapses array and method for programming the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005014323A DE102005014323A1 (en) | 2005-03-24 | 2005-03-24 | Field Programmable synapse Array and method for its programming |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102005014323A1 true DE102005014323A1 (en) | 2006-09-28 |
Family
ID=36910905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005014323A Ceased DE102005014323A1 (en) | 2005-03-24 | 2005-03-24 | Field Programmable synapse Array and method for its programming |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102005014323A1 (en) |
WO (1) | WO2006100209A2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019105985A1 (en) * | 2019-03-08 | 2020-09-10 | Bundesdruckerei Gmbh | Method and device for automatic quality assessment |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9269042B2 (en) | 2010-09-30 | 2016-02-23 | International Business Machines Corporation | Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices |
DE102020113088A1 (en) | 2020-05-14 | 2021-11-18 | Universität Stuttgart Körperschaft des öffentlichen Rechts | Method for analog multiplication and / or calculation of a scalar product with a circuit arrangement, in particular for artificial neural networks |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5892962A (en) * | 1996-11-12 | 1999-04-06 | Lucent Technologies Inc. | FPGA-based processor |
US20040039717A1 (en) * | 2002-08-22 | 2004-02-26 | Alex Nugent | High-density synapse chip using nanoparticles |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5155802A (en) * | 1987-12-03 | 1992-10-13 | Trustees Of The Univ. Of Penna. | General purpose neural computer |
DE19833822A1 (en) * | 1998-07-28 | 2000-02-03 | Frank Stuepmann | Self-learning neuronal network in a hybrid VLSI technology for monitoring learning patterns and controlling learning processes adjusts automatically to learning patterns. |
-
2005
- 2005-03-24 DE DE102005014323A patent/DE102005014323A1/en not_active Ceased
-
2006
- 2006-03-17 WO PCT/EP2006/060831 patent/WO2006100209A2/en not_active Application Discontinuation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5892962A (en) * | 1996-11-12 | 1999-04-06 | Lucent Technologies Inc. | FPGA-based processor |
US20040039717A1 (en) * | 2002-08-22 | 2004-02-26 | Alex Nugent | High-density synapse chip using nanoparticles |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019105985A1 (en) * | 2019-03-08 | 2020-09-10 | Bundesdruckerei Gmbh | Method and device for automatic quality assessment |
Also Published As
Publication number | Publication date |
---|---|
WO2006100209A2 (en) | 2006-09-28 |
WO2006100209A3 (en) | 2007-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112016003245T5 (en) | Resistive processing unit | |
US9082079B1 (en) | Proportional-integral-derivative controller effecting expansion kernels comprising a plurality of spiking neurons associated with a plurality of receptive fields | |
DE112018005726B4 (en) | COUNTER-BASED RESISTIVE PROCESSING UNIT FOR PROGRAMMABLE AND RECONFIGURABLE ARTIFICIAL NEURAL NETWORKS | |
US9189730B1 (en) | Modulated stochasticity spiking neuron network controller apparatus and methods | |
US20220012564A1 (en) | Resilient Neural Network | |
DE60024582T2 (en) | NEURONAL PROCESSING ELEMENT FOR USE IN A NEURONAL NETWORK | |
Malavé et al. | Neural network-based design of cellular manufacturing systems | |
WO2014047142A1 (en) | Spiking neuron network adaptive control apparatus and methods | |
KR20180028966A (en) | Neural network hardware accelerator architectures and operating method thereof | |
DE112018003231T5 (en) | NEUROMORPHE PROCESSING DEVICE | |
DE112019000226T5 (en) | NEUROMORPHER CHIP FOR UPDATING PRECISE SYNAPTICAL WEIGHT VALUES | |
KR20170025715A (en) | Synapse and neuromorphic device including the same | |
DE60125536T2 (en) | ARRANGEMENT FOR GENERATING ELEMENT SEQUENCES | |
DE102005014323A1 (en) | Field Programmable synapse Array and method for its programming | |
KR102514931B1 (en) | Expandable neuromorphic circuit | |
Kozlova et al. | The use of neural networks for planning the behavior of complex systems | |
Sharma et al. | Study of artificial neural networks | |
Weng | A 5-chunk developmental brain-mind network model for multiple events in complex backgrounds | |
Wilamowski | Understanding neural networks | |
DE112020005613T5 (en) | Neuromorphic unit with crossbar array structure | |
Murtagh | Neural networks and related'massively parallel'methods for statistics: A short overview | |
Maravall et al. | Fusion of learning automata theory and granular inference systems: ANLAGIS. Applications to pattern recognition and machine learning | |
DE112021002939T5 (en) | EFFICIENT TILE MAPPING FOR LINE-BY-ROW MAPPING IN CONVOLUTIONAL NEURAL NETWORKS TO ANALOG INFERENCE IN ARTIFICIAL INTELLIGENCE NETWORKS | |
DE3607241C2 (en) | ||
Maren | A logical topology of neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |