DE60033535T2 - Geldechtheitsprüfer - Google Patents

Geldechtheitsprüfer Download PDF

Info

Publication number
DE60033535T2
DE60033535T2 DE60033535T DE60033535T DE60033535T2 DE 60033535 T2 DE60033535 T2 DE 60033535T2 DE 60033535 T DE60033535 T DE 60033535T DE 60033535 T DE60033535 T DE 60033535T DE 60033535 T2 DE60033535 T2 DE 60033535T2
Authority
DE
Germany
Prior art keywords
function
subset
values
currency
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60033535T
Other languages
English (en)
Other versions
DE60033535D1 (de
Inventor
Gaston Baudat
Fatiha Exton Anouar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Crane Payment Innovations Inc
Original Assignee
MEI Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MEI Inc filed Critical MEI Inc
Publication of DE60033535D1 publication Critical patent/DE60033535D1/de
Application granted granted Critical
Publication of DE60033535T2 publication Critical patent/DE60033535T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D5/00Testing specially adapted to determine the identity or genuineness of coins, e.g. for segregating coins which are unacceptable or alien to a currency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • G06F18/21355Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis nonlinear criteria, e.g. embedding a manifold in a Euclidean space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Description

  • Die Erfindung bezieht sich auf Geldechtheitsprüfer und Verfahren zum Einrichten und Betreiben von Geldechtheitsprüfern. In dieser Beschreibung sollen die Begriffe Geld und Geldstücke, Münzen, Wertmarken und ähnliches, Banknoten und Scheine, andere Wertpapiere wie etwa Schecks, Gutscheine, Schuldscheine beinhalten und sowohl echte Stücke als auch Fälschungen wie Rohlinge und Scheiben bezeichnen.
  • Zur Bestimmung des Nennwerts eines Geldstücks und zum Unterscheiden zwischen echten und gefälschten Geldstücken sind viele Verfahren bekannt. Gewöhnlicherweise wird ein Geldstück durch einen oder mehrere Sensoren wie etwa elektromagnetische oder optische Sensoren überprüft, um Signale zu erzeugen, die für gewisse charakteristische Eigenschaften des Geldstücks repräsentativ sind, wie etwa die Münzendicke, das Münzenmaterial oder das Muster auf einer Banknote. Die gemessenen Signale werden dann mit gespeicherten Referenzdaten verglichen, die für bekannte Geldstücke repräsentativ sind, und je nach Ergebnis des Vergleichs wird das gemessene Geldstück klassifiziert, zum Beispiel als ein echtes Geldstück eine bestimmten Nennwerts, eine bekannte Fälschung oder einfach als unbekannt.
  • Zum Beispiel ist es bekannt, Referenzdaten für bekannte Geldstücke in der Form von Sätzen von "Fenstern" zu speichern, die aus oberen und unteren Grenzwerten bestehen. Wenn jedes der gemessenen Signale für ein bestimmtes Geldstück in die entsprechenden Fenster für einen bestimmten Nennwert fällt, wird es als zu dem bestimmten Nennwert gehörend klassifiziert. Dieser Ansatz kann allgemein so betrachtet werden, dass Grenzen in dem Raum verwendet werden, der Achsen aufweist, die den gemessenen charakteristischen Eigenschaften entsprechen, wobei diese als Akzeptanzgrenzen bekannt sind, die linear sind (oder äquivalent für höhere Dimensionen). Wie etwa in GB 2 238 152A beschrieben sind zahlreiche Entwicklungen dieses Ansatzes bekannt.
  • Üblicherweise sind Verteilungen von Populationen bestimmter Nennwerte von Geldgegenständen nicht-linear, sodass lineare Akzeptanzgrenzen nicht hinreichend genau sind, um zwischen verschiedenen Nennwerten zu unterscheiden. Ein anderes bekanntes Verfahren speichert Referenzdaten, die elliptische Grenzen beschreiben, die spezifischen Nennwerten von Geldstücken entsprechen. Ähnlich dem oben erwähnten Ansatz werden gemessene Geldstücke demgemäß klassifiziert, ob die gemessenen charakteristischen Eigenschaften innerhalb dieser elliptischen Grenzen liegen oder außerhalb. Ein solches Verfahren ist zum Beispiel in GB 2 254 949A beschrieben.
  • In vielen Fällen sind die Grenzen zwischen verschiedenen Nennwerten von Geldstücken kompliziert und lassen sich nicht hinreichend genau durch lineare oder elliptische Grenzen Wiederspiegeln. Bekannte Techniken zum Auffinden von nicht-linearen Akzeptanzgrenzen können zu schlechteren als idealen Ergebnissen für Geldechtheitsprüfer führen. Natürlich ist es besonders wichtig, Geldstücke genau zu klassifizieren und deren Echtheit zu prüfen, zum Beispiel in einer Verkaufsmaschine, bei der möglicherweise ein Verlust des Erlöses eintritt. In solchen Fällen ist es bekannt, neuronale Netze zu verwenden, um Geldklassifikation, wie zum Beispiel in EP 0 671 040A beschrieben, auszuführen.
  • B. Schölkopf at al., "Input Space vs. Feature Space in Kernel-Based Methods", Nr. 5, September 1999, IEEE Trans. On Neural Networks, S. 1000-1017, bezieht sich auf verschiedene Aspekte kernbasierter Verfahren, die Stützvektor-Mustererkennung beinhalten. Eine Diskussion von Verfahren mit reduzierten Mengen ist enthalten, bei der die Anzahl von Vektoren in einer Entwicklung eines Beispiels im Merkmalsraum unter Verwendung von Optimierungstechniken reduziert ist.
  • Aspekte der Erfindung sind in den beiliegenden unabhängigen Ansprüchen 1, 26-28 beschrieben.
  • Die Erfindung wird zur Herleitung einer Klassifizierungsfunktion verwendet. Die Erfindung kann zum Herleiten einer "Signaturfunktion" verwendet werden, die charakteristische Eigenschaft und Verhalten eines bestimmten Echtheitsprüfers unter Bezugnahme auf eine Referenz repräsentiert. Eine Signaturfunktion kann wiederum im Kontext einer Klassifizierungsfunktion verwendet werden.
  • Bevorzugte Merkmale der oben genannten Erfindung sind in den abhängigen Ansprüchen ausgeführt.
  • Im Ergebnis können durch die Erfindung bessere, genauere Ergebnisse, insbesondere bei der Klassifizierung, im Vergleich zu den Ansätzen des Standes der Technik erhalten werden.
  • Ausführungsbeispiele der Erfindung werden unter Bezugnahme auf die begleitenden Zeichnungen beschrieben, von denen:
  • 1 ein Graph einer sinc (2 pi x)-Funktion ist;
  • 2 ein Graph ist, der Abtastwerte einer Funktion zeigt;
  • 3 ein Graph ist, der eine Teilmenge der in 2 gezeigten Abtastwerte zeigt;
  • 4a ein Graph einer Approximation der Funktion aus 1 ist;
  • 4b ein Graph ist, der der 4a entsprechende Fehlerwerte zeigt;
  • 5 ein Graph ist, der Clusterdaten zeigt;
  • 6 ein Graph ist, der ausgewählte Elemente der Clusterdaten aus 5 zeigt;
  • 7 ein 3-D-Graph ist, der der 5 entspricht;
  • 8 eine Gruppe von Graphen ist, die Entscheidungsgrenzen für die in 5 gezeigten Cluster zeigen;
  • 9a ein Graph einer anderen Approximation der Funktion aus 1 ist;
  • 9b ein Graph ist, der der 9a entsprechende Fehlerwerte zeigt;
  • 10 ein anderer Graph ist, der ausgewählte Elemente der Clusterdaten aus 5 zeigt;
  • 11 ein anderer der 5 entsprechender 3-D-Graph ist;
  • 12 eine andere Gruppe von Graphen ist, die andere Entscheidungsgrenzen für die Cluster aus 5 zeigen;
  • 13 ein anderer der 5 entsprechender 3-D-Graph ist;
  • 14 eine andere Gruppe von Graphen ist, die weitere Entscheidungsgrenzen für die Cluster aus 5 zeigen;
  • 15 ein weiterer der 5 entsprechender 3-D-Graph ist;
  • 16 eine weitere Gruppe von Graphen ist, die weitere Entscheidungsgrenzen für die Cluster aus 5 zeigen;
  • 17 ein Blockdiagramm eines Münzechtheitsprüfers ist.
  • Gemäß einem bevorzugten Ausführungsbeispiel verwendet die vorliegende Erfindung Kernfunktionen, um von Geldstücken und Geldsensoren hergeleitete Daten zu analysieren, um Klassifikationsfunktionen oder Akzeptanzgrenzen für Echtheitsprüfer herzuleiten. Genauer sind die Daten von Geldstücken wie etwa Münzen und Banknoten abgeleitete Messdaten, wobei die Daten für charakteristische Eigenschaften der Geldstücke repräsentativ sind, wie etwa die Münzdicke, das Material, das Gewicht, die Breite oder das Muster auf einer Banknote.
  • Der Klarheit und des leichteren Verständnisses wegen werden wir mit einer verallgemeinerten Beschreibung der der Erfindung zugrunde liegenden Theorie unter Bezugnahme auf relativ einfache Datenverteilungen beginnen. Die Erfindung wird dann detaillierter in Verbindung mit Ausführungsbeispielen beschrieben, die sich auf die Klassifizierung und Echtheitsprüfung von Geldstücken beziehen.
  • Ein erster Aspekt der Erfindung bezieht sich auf die Verwendung von Kernfunktionen zum Herleiten einer Approximation einer Funktion zwischen Mengen von Variablen. Dieser Aspekt der Erfindung kann auf die Verwendung von Kernfunktionen zum Herleiten von Klassifizierungsfunktionen und Verfahren zum Ausführen von Klassifizierung insbesondere für Geldstücke ausgedehnt werden.
  • Ein zweiter Aspekt der Erfindung bezieht sich auf die Verwendung von Kernfunktionen zur Auswahl einer Teilmenge aus einer Datenmenge, wobei die Teilmenge für die Datenmenge im Kontext des Kernfunktionsansatzes repräsentativ ist. Genauer ist die Teilmenge repräsentativ für die Datenmenge im Bildraum einer Abbildung ϕ, die einer Kernfunktion k entspricht. Der zweite Aspekt der Erfindung ermöglicht die Ausführung von Datenanalyse mittels Kernfunktionen unter Verwendung von weniger Daten, was die Komplexität der Analyse und daher, zum Beispiel, Rechenarbeit und folglicherweise Kosten verringert, wenn Klassifizierungsfunktionen für Geldechtheitsprüfer hergeleitet werden. Der zweite Aspekt der Erfindung kann in Verbindung mit jeglichem Datenanalyseansatz mittels einer Kernfunktion wie etwa der kernbasierten verallgemeinerten Diskriminanzanalyse, wie es in unserer ebenfalls anhängigen Anmeldung WO 00/33262 beschrieben ist, deren Inhalt hier durch Bezugnahme eingeschlossen ist oder der kernbasierten Principal Component Analysis (siehe "Non-linear component analysis as a kernel eigenvalue problem" von Schölkopf, Smola und Müller, Neural Computation 10, 1299-1319 (1998)) verwendet werden. Der zweite Aspekt der Erfindung wird hier in Zusammenhang mit dem ersten Aspekt der Erfindung detailliert beschrieben werden.
  • Im Folgenden werden Unterstreichungen für Vektorgrößen verwendet, und der Begriff Vektor soll allgemein skalare Größen beinhalten (d. h. ein Vektor von Dimension 1).
  • Zuerst werden wir die Auswahl einer repräsentativen Teilmenge einer Menge von Vektoren beschreiben, was den oben erwähnten zweiten Aspekt der Erfindung widerspiegelt.
  • Sei X eine Menge von Vektoren der Größe M. X = {x 1, x 2, ..., x M
  • Angenommen, wir bilden jeden Vektor aus dem Eingaberaum X durch eine nicht-lineare Abbildungsfunktion ϕ auf einen Hilbertraum F ab:
    ϕ: X → F x → ϕ(x)
  • Sei S eine Teilmenge von X der Größe L S = {x s,1, x s,2, ..., x s,L}
  • Wir nehmen an, dass es eine Teilmenge S gibt, die das Bild der Elemente von X in F approximieren oder wiederherstellen kann. In anderen Worten wirkt S wie eine Basis, die X im F-Raum ausdrückt.
    Figure 00070001
    (ϕ(x i) ist die Approximation von ϕ(x i) unter Verwendung des Bildes von S in F.)
  • Zur Vereinfachung werden wir die folgende Notation verwenden: ϕ i = ϕ(x i) ϕ s,i = ϕ(x s,i)dann kann Gleichung (1) geschrieben werden als:
    Figure 00070002
    wobei
    Φs = ⌊ϕ s,1, ϕ s,2, ..., ϕ s,L⌋ eine aus dem Bild von S in F gebildete Matrix ist.
    Figure 00070003
    ein Vektor ist, der ϕ i unter Verwendung des Bildes von S in F beschreibt.
  • Wir möchten Werte für α i finden, die die relativen Differenzen δi zwischen dem Bild des i-ten Elements von X, ϕ i und seiner Rekonstruktion mittels der S-Menge, ϕ i, minimieren.
  • Figure 00080001
  • Minimierung der δi führt zu:
    Figure 00080002
  • S tΦS)–1 existiert, falls die Elemente des Bildes von S in F linear unabhängig sind. In anderen Worten ist der Rang von ΦS L.
  • Unter Verwendung der Gleichungen (3) und (4) können wir schreiben:
    Figure 00080003
    wobei βi der Winkel zwischen den Vektoren ϕ i und
    Figure 00080004
    ist, was impliziert, dass wir ebenfalls |βi| minimiert haben.
  • Führen wir nun die Kernnotation ein:
    Figure 00080005
    dann kann Gleichung (5) als
    Figure 00090001
    ausgedrückt werden, wobei
    Figure 00090002
    was eine quadratische L×L-Matrix der Skalarprodukte des Bildes von S in F ist,
    Figure 00090003
    was ein Vektor der Skalarprodukte zwischen den Bildern von S und x i in F ist.
  • Wie bekannt und oben beschrieben ist, drückt die Kernfunktion k die Skalarprodukte in F unter Bezugnahme auf X aus.
  • Die Minimierung von δi kann durch Maximierung von:
    Figure 00090004
    ausgeführt werden.
  • Ji kann als eine lokale Anpassungsfunktion zum Schätzen der Rekonstruktionsgüte für das Element x i angesehen werden. Eine geeignete Menge S wird mittels eines heuristischen Ansatzes konstruiert. In einem Beispiel wird dies unter Verwendung einer globalen Anpassungsfunktion JS angestellt, die repräsentativ dafür ist, wie genau das Bild von S das gesamte Bild von X in F darstellt. Ein Beispiel einer globalen Anpassungsfunktion ist:
    Figure 00100001
  • Genauer sieht ein Beispiel dafür, wie S konstruiert wird, wie folgt aus.
  • Zuerst wird das Element aus X ausgewählt, mit dem sich das beste globale Anpassungsergebnis ergibt. In anderen Worten wird das Element gewählt, das den größten globalen Anpassungswert JS mittels Gleichung (8) in diesem Beispiel aufweist. Alternativ kann ein erstes Element zufällig oder durch Hinschauen gewählt werden, um das erste Element von S, xS,1, zu bilden.
  • Als Nächstes wird ein anderes Element aus X gewählt und zu einem vorläufigen Element von S gemacht, und der Wert von JS wird auf dieser Grundlage für alle anderen Elemente aus X berechnet. Dann wird das vorläufige Element von S durch ein anderes Element aus X ersetzt und JS wird wieder berechnet. Diese Schritte werden für alle verbleibenden Elemente von X wiederholt. Das Element aus X, für das die globale Anpassungsfunktion maximiert wird, wird als permanentes zweites Element von S gewählt.
  • Die im vorigen Absatz ausgeführten Schritte werden wiederholt, um darauf folgende Elemente von S zu finden, wobei jedesmal nach dem größten Wert der Anpassungsfunktion geschaut wird. Die Prozedur wird beendet, wenn die Anpassungsfunktion einen vorgegebenen Wert überschreitet. Alternativ wird die Prozedur beendet, wenn S eine vorgegebene Anzahl von Elementen hat oder wenn S eine vollständige Basis für das Bild von X in F ist. Es ist notwendig, den Rang der KS,S-Matrix zu ü berprüfen, um sicherzustellen, dass es möglich ist, sie zu invertieren.
  • Auch andere komplexere Heuristiken können verwendet werden. Ebenfalls können alternative Anpassungsfunktionen verwendet werden. Zum Beispiel kann die globale Anpassungsfunktion den Mittelwert, den Median oder das Minimum der lokalen Anpassungsfunktion oder andere Strategien verwenden. Alternativ können die Anpassungsfunktionen, die lokale und die globale, zum Beispiel unter Verwendung von Gleichung (6) auf einem "Fehler" basieren, wobei in diesem Fall die Optimierung von S durch eine Reduktion des globalen Fehlers angezeigt wird. In jedem Fall wird allerdings ein Kernausdruck wie etwa in Gleichung (7) verwendet.
  • Auf diese Weise kann eine Teilmenge S von X gefunden werden, bei der das Bild aller Elemente von X in F unter einer Abbildung ϕ näherungsweise als Linearkombinationen der Bilder von Elementen von S in F ausgedrückt werden kann.
  • Die Menge S kann zur Verringerung des Rechenaufwands verwendet werden, den zahlreiche Kernfunktionsansätze zur Datenanalyse wie etwa Kern-PCA und Kern-GDA mit sich bringen. Als Nächstes werden wir beschreiben, wie S in Verbindung mit einem Verfahren zur Approximation einer Funktion mittels eines Kernfunktionsansatzes, das wir Kernregression nennen, verwendet wird.
  • Seien X und S wie oben definiert Mengen von Vektoren. Wir nehmen an, dass f(x), x∊X, eine Funktion der Elemente von X ist und f(x) ein skalarer Wert ist. Dann sei y ein Vektor, der die erwarteten oder beobachteten Werte von f(x) für X ausdrückt. In anderen Worten ist die i-te Komponente von y für 1≤i≤M f(x i).
  • Wir nehmen an, dass die Funktion f in F näherungsweise als eine lineare Beziehung ausgedrückt werden kann. In anderen Worten nehmen wir an, dass es eine näherungsweise lineare Beziehung zwischen f(x) und ϕ(x) gibt.
  • Die Erfahrung hat gezeigt, dass die Annahme einer linearen Beziehung zwischen dem Bild von X in F und f(x), x∊X, für eine vernünftige Wahl eines Kerns vernünftig ist, insbesondere da F ein unendlicher Raum sein kann.
  • Unter der Annahme dieser linearen Beziehung kann y mittels eines klassischen linearen Regressionsansatzes geschätzt werden. Daher: ŷ = Φ'x·u (9). wobei:
    Φx = ⌊ϕ 1, ϕ 2, ..., ϕ M⌋ eine Matrix des Bildes von X in F ist und u ein Vektor ist, der die lineare Beziehung zwischen X und ŷ beschreibt.
  • Allgemein gesagt hat eine lineare Regression die Form yi = a·x i + b, wobei a und b Konstanten sind, die durch die Beispielsdatenmenge geschätzt sind, zum Beispiel mittels des Ansatzes kleinster Quadrate (LMS). Es ist jedoch wohlbekannt, solch eine Gleichung zur Form yi = a' i·x' i durch Addieren einer konstanten Komponente (Bias) zum x i-Vektor zu reduzieren, sodass x i zu x'i wird, wobei x'i = (xli, ... xNi, C)T und a zu a' = (a1, a2 ... aN, aN+1) wird, wobei b = aN+1C ist.
  • Da S eine gute Approximation von X in F ist, können wir mit S fortfahren.
  • Dann: u = Φs·α (9a)wobei α ein Vektor mit L Parametern ist, die zu optimieren sind, um die beste Anpassung zu erhalten.
  • Eine Kombination von 9 und 9a ergibt:
    Figure 00130001
  • Wir führen wieder die Kernnotation für die Gleichung (10) ein und schreiben sie als: ŷ = KX,S·α (11)wobei
    Figure 00130002
    eine M×L-Matrix ist, die aus den Skalarprodukten zwischen X und S gebildet ist. (11a)
  • Die Minimierung von ||yŷ||2 gemäß einem klassischen Ansatz "kleinster Quadrate" zur linearen Regression ergibt: α = K+X,S ·y (12)wobei
    Figure 00130003
    die Pseudo-Inverse ist, angenommen, dass
    Figure 00130004
    invertiert werden kann, was wiederum impliziert, dass der Rang von ΦS L sein muss. (12a)
  • Für einen neuen Vektor z kann der Wert ŷz mittels Gleichung (10) wie folgt berechnet werden:
    Figure 00130005
    wobei αi das i-te Element des gemäß Gleichung (12) berechneten Vektors α ist.
  • Ein ähnlicher Ansatz kann verwendet werden, wenn f(x) ein Vektor ist. Sei Y eine Matrix der erwarteten Werte, wobei jede Spalte ein einzelner y k-Vektor ist, wobei die i-te Komponente des k-ten Vektors die k-te Komponente von f(x i) ist, wobei Y = ⌊y 1, y 2, ..., y N⌋, eine M×N-Matrix ist, wobei jede Spalte ein einzelner y k-Vektor und M die Dimension von f(x) ist. A = [α 1, α 1, ..., α N] ist eine L×N-Matrix, wobei jede Spalte ein einzelner α k-Vektor ist.
  • Die optimale lineare Lösung für A ergibt sich ebenfalls mittels der Pseudo-Inversen: A = K+X,S ·Y (14)
  • Durch Umformung der Gleichung (13) erhalten wir für jedes Ŷk,z:
    Figure 00140001
    für einen neuen Vektor z.
  • Daher zeigen Gleichungen (13) und (15), wie Näherungswerte von f(z) für neue Werte von z, die nicht im ursprünglichen "Lern"-Beispieldatensatz enthalten sind, herzuleiten sind.
  • Die folgenden Beispiele illustrieren den Kernregressionsansatz und die Auswahl einer Datenmenge, die oben beschrieben worden sind. Im ersten Beispiel sind sowohl x als auch y = f(x) skalare Werte. Um den Ansatz zu illustrieren, verwenden wir eine bekannte Funktion, f(x)=sin(x)/x. Im Beispiel wird Gauss-Rauschen addiert, sodass y=f(x)=sinc(2πx)+N(0;0,05). 1 zeigt die Funktion y=sinc(2πx) (d. h. ohne Rauschen).
  • Die Datenmenge X besteht aus entlang der x-Achse verteilten Beispielwerten von x, wie in 2 gezeigt. 2 zeigt ebenfalls die entsprechenden gemessenen Werte von f(x) (d. h. ohne Rauschen). In diesem Beispiel gibt es 31 Beispielwerte, sodass X 31 Elemente hat oder M=31 ist.
  • Zuerst wird die Teilmenge S von X ausgewählt.
  • Dies wird mit einem Gauss-Kern
    Figure 00150001
    mit σ=0,2, einer wie in Gleichung (8) ausgeführten Anpassungsfunktion JS und einem wie oben beschriebenen heuristischen Ansatz erledigt.
  • Als Ergebnis wird eine Menge {2,4,6,9,10,12,14,17,18,20,22, 24,27,28,30} gefunden, wobei sich die Zahl auf die Position des entsprechenden Beispielwerts in der X-Menge bezieht, unter der Annahme, dass die Elemente in X in der Reihenfolge ansteigender Werte vom ersten Beispielwert (maximal negativ) bis zum letzten Beispielwert (maximal positiv) nummeriert sind. Hier hat S 15 Elemente (L=15) und JS beträgt 0,91. Während es interessant ist, zu vergleichen, in welcher Beziehung die Elemente von S zur Gesamtform von f(x) stehen, sei angemerkt, dass f(x) nicht zur Bestimmung von S verwendet wird, und dass S aus einer Menge von eindimensionalen x-Werten besteht.
  • 3 zeigt die ausgewählten Elemente, das heißt, die Elemente von S, zusammen mit ihren assoziierten Werten von f(x).
  • Als Nächstes verwenden wir den oben beschriebenen Kernregressionsansatz unter der Annahme, dass es eine lineare Regression zwischen f(x) und dem Bild von X in einem Raum F unter einer Abbildung ϕ gibt, die durch den Gauss-Kern, den wir gewählt und für die Auswahl von S verwendet haben, widergespiegelt wird.
  • Zuerst bestimmen wir KX,S mittels Gleichung (11a) und der X- und S-Mengen und dann berechnen wir K+ X,S (siehe Gleichung 12a). Als Nächstes wird α, das die lineare Regression repräsentiert, mittels der gemessenen Werte von f(x) für jedes der Elemente von X berechnet, um y und K+ X,S gemäß Gleichung (12) zu bestimmen. Nun kann Gleichung (13) verwendet werden, um den Wert der Approximation von f(x) für Werte von x einschließlich neuer Werte zu bestimmen. Es sei angemerkt, dass Gleichung (13) über xi∊S läuft, was den erforderlichen Berechnungsaufwand im Vergleich zu xi∊X verringert.
  • 600 gleichmäßig entlang der x-Achse verteilte Werte von x werden ausgewählt und die entsprechenden Werte von ŷ werden mittels Gleichung (13) berechnet. Diese Punkte werden gesetzt und verbunden, um wie in 4a gezeigt eine stetige Funktionsapproximation zu ergeben. 4a zeigt ebenfalls fett gedruckt die der X-Menge entsprechenden Punkte mit den assoziierten ursprünglich gemessenen Werten für y=f(x). 4b ist ein Graph, der die Differenz zwischen ŷ und y=sinc(2πx) für jeden der 600 x-Werte zeigt.
  • Das nächste Beispiel wendet die Kernregressionstechnik zur Klassifizierung an.
  • 5 zeigt ein Datenfeld, das die Form von drei 2-D-Clustern hat.
  • Clusterbeschreibung
    Figure 00160001
  • Figure 00170001
  • Die X-Menge weist insgesamt 75 zufällig genommene Beispielwerte, 25 von jedem Cluster, (1/8 der gesamten Datenmenge) auf.
  • Der erste Schritt bestand darin, die X-Daten (Mittelwerte = 0 und Standardabweichungen = 1) zu zentrieren und zu skalieren.
  • Die Auswahl der S-Menge wurde mit einem Gauss-Kern mit einem σ von 1 ausgeführt. Die Anpassungsfunktion nach Gleichung (8) wurde verwendet und die Auswahl beendet, sobald JS 0,99 erreicht hat.
  • Dies ergab eine Menge S = {4,5,6,7,10,12,13,15,1,23,25,27,31, 34,42,49,52,66,68} mit 19 Elementen, wobei sich die Nummer auf die Position des Elements in der X-Menge bezieht. Die Elemente von S sind in 6 gezeigt.
  • Das endgültige FVS JS war 0,992.
  • Es sei angemerkt, dass die Menge S die "Form" jedes Clusters einfängt. Im Gegensatz zum vorherigen Beispiel ist die "Form" der Daten in der Menge S zumindest daher bedeutsam, da die Elemente von X und S zweidimensional sind. Ebenfalls anzumerken ist, dass S 11 Elemente aus dem Cluster #1 und nur 8 aus den Clustern #2 und #3 enthält.
  • Zum Zwecke der Klassifizierung entsprechend den durch Anschauung ersichtlichen Clustern definieren wir eine Vektorfunktion auf X und S wie folgt:
    Figure 00180001
  • In diesem Beispiel ist 1≤K≤3 und wir erhalten drei Vektoren y 1, y 2 und y 3, die jeweils 75 Elemente haben, wobei das i-te Element jedes y k wie oben definiert ist.
  • Unter Verwendung des gleichen Kerns wie für die Auswahl von S und von Gleichungen (14) und (15) erhalten wir Schätzungen für ŷ 1, ŷ 2, und ŷ 3, von denen jedes 75 Elemente hat, wobei das i-te Element jedes y k wie oben definiert ist.
  • Unter Verwendung des gleichen Kerns wie für die Auswahl von S und von Gleichungen (14) und (15) erhalten wir Schätzungen für ŷ 1, ŷ 2, und ŷ 3, die im wesentlichen als Klassifizierungsfunktionen angesehen werden können. Wenn in anderen Worten yk(z) hinreichend "nahe an" (wie noch zu definieren wäre) 1 für ein vorgegebenes z=(x1,x2) ist, dann gehört z zum Cluster K, andererseits gehört es nicht dazu.
  • 7 zeigt berechnete Werte für ŷ 1 für verschiedene Werte von (x1,x2)
  • Angenommen, wir definieren die Klassifizierungsfunktion mittels eines Schwellwerts von 0,5. In anderen Worten sei z∊Cluster k für z=(x1,x2), wenn ŷ k,z≤0,5 ist. Dies entspricht der Definition von Entscheidungsgrenzen für die Cluster im (x1,x2)-Raum.
  • 8 zeigt die Entscheidungsgrenzen für die drei Cluster in diesem Beispiel unter der Annahme eines Schwellwerts von 0,5 für jedes ŷi.
  • Als Nächstes beschreiben wir einen alternativen Ansatz, bei dem der Regressionsfehler verwendet wird, um S aufzubauen, anstatt S vor der Ausführung der Regression aufzubauen. Dieser Ansatz kann einen ähnlichen heuristischen Ansatz wie den oben beschriebenen verwenden, benutzt aber den Regressionsfehler als die Anpassungsfunktion.
  • Die Gleichung (16) drückt diesen Fehler ||d k||2 für einen gegebenen Vektor y k aus. Gleichung (17) gibt ein Beispiel einer geeigneten Anpassungsfunktion εs.
    Figure 00190001
  • Hierbei ist εs eine "Fehler"-Anpassungsfunktion und wir werden daher versuchen, sie zu minimieren.
  • In einem dritten Beispiel verwenden wir den alternativen Ansatz bei den Daten des ersten Beispiels.
  • 9a und 9b zeigen die Ergebnisse mit derselben sin(x)/x-Funktion wie im obigen ersten Beispiel. 9 zeigt die Ap proximation von f(x) für 600 Beispielwerte und 9b zeigt den Fehler zwischen der Approximation und y=sinc2πx/x für die Beispiele.
  • S = {1,6,8,9,10,12,14,16,19,20,22,23,25,27,28}, wobei die Nummer sich auf die Position des Elements in der Menge X bezieht, mit einem Regressionsfehler von 0,00169 unter Verwendung desselben Gauss-Kerns (σ=0,2) wie im ersten Beispiel.
  • 9a, 9b und 4a, 4b sind ähnlich, was zeigt, dass die alternativen Ansätze zu sehr ähnlichen Lösungen führen.
  • Ähnlicherweise führen wir in einem vierten Beispiel den alternativen Ansatz mit dem Klassifizierungsfall des zweiten Beispiels mit genau den gleichen drei Clustern aus. Gemäß der Gleichung (17) wurde die Heuristik beendet, sobald der Regressionsfehler 0,001 erreicht hat (derselbe Gauss-Kern mit σ=1).
  • Dies ergibt S = {1,2,6,7,9,10,13,18,23,33,36,48,52,60,73}, sodass L = 15.
  • S wird in 10 gezeigt.
  • Dies ähnelt ebenfalls den Ergebnissen des zweiten Beispiels. 11 und 12 zeigen die Regression, die für das Cluster #1 gefunden wurde, und die drei Entscheidungsgrenzen mit einem Schwellwert von 0,5 für jedes ŷi.
  • Es ist sehr schwierig, irgendwelche Unterschiede zwischen den 7 und 11 oder 8 und 12 zu finden.
  • In den obigen Beispielen wird ein Gauss-Kern verwendet. Es können jedoch viele andere Kerne verwendet werden, wie etwa der Polynomkern k(x,y)=[(x·y)+c]d, wobei d eine natürliche Zahl und c ein Skalar, oft +1, ist. Wenn d=1 und c=0 ist, dann sind wir wieder bei der klassischen linearen Regression. Ein anderer interessanter Kern ist das Sigmoid, wie es für neuronale Netze mit Back-Propagation verwendet wird:
    Figure 00210001
    wobei a klassischerweise gleich +1,0 ist, aber auch andere Werte annehmen kann.
  • Ein anderer Kern ist die hyperbolische Tangente k(x,y) = tanh[(x y) + θ]
  • In jedem Fall können x und y vektorielle oder skalare Größen wieder unter Verwendung der Bias-Technik sein, θ kann weggelassen werden.
  • Es gibt viele andere Kernfunktionen, die den Satz von Mercer (siehe WO 00/33262) erfüllen und die Skalarprodukte in F darstellen und für die Erfindung verwendet werden können.
  • Der Spline-Kern, wobei x und y Skalare sind, ist ein weiteres interessantes Beispiel:
    Figure 00210002
  • Als ein fünftes Beispiel wurde ein Sigmoid-Kern
    Figure 00210003
    mit a=1 auf die Clusterdaten des zweiten
  • Beispiels mittels des zweiten Ansatzes angewendet. Die Lösung führt zu S = {1,2,3,6,8,10,18,21,23,71}, L=10, bei einem Regressionsfehler von 0,0033. 13 zeigt einen Graph von ŷ, wobei ŷ im Bereich [0;1] hart begrenzt ist (das heißt, wenn ŷ1 kleiner als Null ist, wird es als Null behandelt, und wenn es größer als 1 ist, wird es als 1 behandelt), und zeigt daher die Regression für das erste Cluster.
  • 14 zeigt die entsprechenden Entscheidungsgrenzen jeweils für ŷ1, ŷ2 und ŷ3 bei einem Schwellwert von 0,5.
  • Aus 14 ist ersichtlich, dass die Grenzen nicht mehr abgeschlossen sind; sie spiegeln die Sigmoid-Eigenschaft wieder und wirken wie ein neuronales Netz mit back-propagation. Es sei angemerkt, dass wir für das gleiche Regressionsfehlerniveau auch weniger Elemente von S benötigen (10 anstelle von 15 oder sogar 19).
  • Als ein sechstes Beispiel wurde ein Polynomkern dritter Ordnung k(x,y)=(xt y)d (d=3; C=0) auf die Clusterdaten angewendet. Für dieses Problem ist er der am wenigsten komplexe Kern, der die Aufgabe noch ohne jeglichen Klassifikationsfehler bewältigen kann.
  • Dies ergibt S = {1,6,8,9,17,21,23,33,72}, L=9, bei einem Regressionsfehler von 0,006. 15 zeigt den Graph für ŷ1, wobei ŷ1 im Bereich [0,1] hart begrenzt ist.
  • 16 zeigt die entsprechenden Entscheidungsgrenzen bei einem Schwellwert von 0,5.
  • Die vorherigen Beispiele zeigen gute Ergebnisse bei der Generalisierung, was bedeutet, dass sie gut mit neuen Vektoren umgehen, die nicht im ursprünglichen Datensatz X waren.
  • Um dieses Ziel zu erreichen, ist es notwendig, den Kern, seine(n) Parameter (wie σ) und das Fehlerniveau sorgfältig auszuwählen.
  • Die Auswahl eines geeigneten Kerns kann durch Experimente und Ausprobieren und Korrigieren bewerkstelligt werden, wobei getestet wird, welcher die besten Ergebnisse für die zu analysierenden Daten ergibt. Alternativ kann die Auswahl durch Erfahrung und Anschauen der Verteilung der Daten gemacht werden.
  • Zum Beispiel kann ein Polynomkern für Daten mit einer polynomartigen Verteilung gute Ergebnisse bringen. Es ist ebenfalls notwendig, verschiedene Parameter sorgfältig auszuwählen, wie etwa σ im Gauss-Kern und das vorgegebene Niveau für die Anpassungsfunktion. Experimente, Erfahrung und die Form der Daten können wiederum Anhaltspunkte sein.
  • Es ist möglich, Kerne wie den Gauss-Kern zu verwenden, um herauszufinden, dass alle Vektoren in X fast linear unabhängig in F sind (zumindest numerisch).
  • Wenn S=X ist, ergibt die Regression eine exakte Lösung für all die Lernbeispiele, was bedeutet: Y = Ŷ
  • Sobald der Rang von KS,S M erreicht, haben wir tatsächlich und offensichtlich KS,S = KX,X und: A = K–1 X,X Y
  • Allerdings bedeutet kein Fehler bei den Lernbeispielen oftmals weniger gute Eigenschaften bei der Generalisierung. Wir haben begonnen, das Rauschen zu lernen, was zu Overfitting führt. Dies ist ein klassisches Problem; die Lösung ergibt sich aus einem Abwägen zwischen Lernfehlerrate und Testfehlerrate.
  • In den oben gegebenen Beispielen wurden die Klassifizierungsaufgaben durch mehrfache Regression mittels binärer Funktionen (wie unsere 3 Clusterbeispiele oben) erledigt, wobei Gleichungen 14 und 15 verwendet wurden. Eine alternative Möglichkeit besteht darin, die Cluster individuell auszuwerten. Bei solch einem Ansatz haben wir soviele einzelne Regressionen wie Cluster (N). Für ein gegebenes Cluster nehmen wir an, dass all die anderen gerade zu einem allgemeinen gehören. Daher haben wir ein Klassifizierungsproblem mit zwei Klassen. Dieses dichotomische Schema könnte besonders hilfreich bei der Verwendung von Gauss-Kernen sein. Für jedes Cluster Ci berechnen wir eine Klassifizierungsfunktion (mittels einfacher Regression) zwischen ihr und den anderen, allerdings wählen wir S nur aus Ci aus. Selbst wenn die Optimierung mit allen Daten erledigt ist, wird die Lösung mit solchen aus Ci beschrieben.
  • Das bedeutet, dass die Ci-Klassifizierungsfunktion keine Daten von anderen Clustern teilt, während zum Beispiel das neuronale Netz mit back-propagation die gleiche Menge von Gewichten verwendet, um alle Klassifizierungsfunktionen zu bekommen. Daher ist es nicht möglich, die Gewichte durch Cluster zu separieren, und alle werden selbst zur Verarbeitung von nur einer einzelnen Klassifizierung benötigt. Auf der anderen Seite erlaubt KR die Minimierung der für eine Teilmenge von Clustern in Frage kommenden Daten, da alles, was für jede einzelne Klassifizierungsfunktion benötigt wird, bekannt ist.
  • Wir haben gesehen, dass bei der Verwendung von Gauss-Kernen die Ergebnisse denen bei der mehrfachen Regression sehr ähnlich sind. Es sei angemerkt, dass wir uns mit RBF-ähnlichen Funktionen als Kerne beschäftigen müssen, um gut zu arbeiten.
  • Gemäß den bevorzugten Ausführungsbeispielen der Erfindung werden allgemeine Prinzipien der oben beschriebenen Ansätze auf Geldstücke und Geldechtheitsprüfer angewendet. In anderen Worten werden die Ansätze auf Daten angewendet, die von Sensoren zum Ableiten von für charakteristische Eigenschaften von Geldstücken repräsentativen Messungen abgeleitet werden. In Bezug auf das zweite Beispiel können die Achsen von 5 dahingehend interpretiert werden, dass sie Münzdicke und Münzmaterial von drei verschiedenen Nennwerten von Münzen oder einen echten Nennwert und zwei Fälschungen repräsentieren, obwohl die in 5 gezeigten Verteilungen tatsächlich nicht notwendigerweise real vorkommende Verteilungen repräsentieren. In vielen Fällen ist, wie in einem Banknotenechtheitsprüfer, die Dimension des durch die Kombination von Messungen der Banknote gebildeten Merkmalsvektors höher als 3 und kann daher nicht zeichnerisch gezeigt werden.
  • Ein Ausführungsbeispiel der Erfindung bezieht sich auf einen Münzechtheitsprüfer wie in Blockdiagrammform in 17 gezeigt.
  • In 17 bezeichnet Kasten 1 ein Messsystem, das einen Einlass 2, ein Transportsystem in Form eines Münzeinlasses und eines Münztransportpfads (nicht gezeigt) zum Fördern eines Musters 3 sowie ein Sensorsystem (nicht gezeigt) zum Messen von physikalischen Größen des Musters enthält. Das Messsystem 1 ist mit einem Verarbeitungssystem 4 mittels eines Datenbusses 5 verbunden. Das Verarbeitungssystem 4 ist mittels eines Datenbusses 7 mit einem Klassifikator 6 verbunden. Die Ausgabe des Klassifikators 6 ist mittels eines Datenausgabebusses 9 mit einem Verwendungssystem 8 verbunden. Das Verwendungssystem 8 ist in diesem Beispiel eine Verkaufsmaschine, kann aber auch zum Beispiel eine Geldwechselmaschine sein.
  • Das Messsystem 1 misst Merkmale einer eingesteckten Münze 3. Die gemessenen Merkmale werden in einen Merkmalsvektor mit n Elementen zusammengestellt, wobei jedes Element einen vom Verarbeitungssystem 4 gemessenen Merkmal entspricht. Im vorliegenden Beispiel misst das Sensorsystem mittels bekannten Techniken (siehe zum Beispiel GB 2 254 949 A ) Werte, die das Material, die Dicke und den Durchmesser einer eingesteckten Münze repräsentieren, und diese Werte sind die drei Elemente des entsprechenden Merkmalsvektors. Kurz gesagt umfasst jeder Sensor eine oder mehrere Spulen in einem frei schwingenden Schaltkreis. Im Falle der Durchmesser- und Dickensensoren bewirkt eine durch die Nähe einer eingesteckten Münze verursachte Änderung in der Induktivität jeder Spule eine Änderung der Frequenz des Oszillators, wodurch eine digitale Darstellung der jeweiligen Eigenschaft der Münze abgeleitet werden kann. Im Falle des Leitfähigkeitssensors bewirkt eine durch die Nähe einer eingesteckten Münze verursachte Änderung des Q der Münze eine Änderung der Spannung über die Spule hinweg, wodurch eine die Leitfähigkeit der Münze repräsentierende digitale Ausgabe hergeleitet werden kann. Obwohl die Struktur, Positionierung und Orientierung jeder Spule sowie die Frequenz der darauf angewendeten Spannung so ausgelegt sind, dass die Spule eine Ausgabe gibt, die vorwiegend von einer bestimmten der Eigenschaften Leitfähigkeit, Durchmesser und Dicke abhängig ist, wird anzuerkennen sein, dass jede Messung in einem gewissen Maße durch die anderen Münzeneigenschaften beeinflusst werden wird.
  • Natürlich können viele verschiedene für Geldstücke repräsentative Merkmale gemessen und als Elemente des Merkmalsvektors verwendet werden, wobei zahlreiche Sensoren wie etwa optische Sensoren, magnetische Sensoren und andere Arten von Sensoren im Stand der Technik wohlbekannt sind. Zum Beispiel können die gemessenen Merkmale im Falle einer Banknote beispielsweise die Breite der Banknote, die Länge der Banknote und die Intensität von reflektiertem oder durchgelassenem Licht für die gesamte Banknote oder einem Teil davon beinhalten. Beispielsweise kann ein Messsystem so ausgelegt sein, dass es eine Banknote entlang von N Linien mittels optischen Sensoren scannt. Jede Scan-Linie enthält L einzelne Bereiche, die nacheinander gescannt werden. In jedem Bereich gibt es Messungen von M verschiedenen Merkmalen. Genauer werden für jeden Bereich Messungen des Reflexionsfaktors für Intensitäten von roter, grüner und infraroter Strahlung vorgenommen. Die Gesamtanzahl von Messungen für eine Banknote ist daher L × M × N. Diese Merkmale bilden die Komponenten eines Merkmalsvektors für die jeweilige Probe, sodass der Merkmalsvektor L × M × N Komponenten hat. Alternativ können die Merkmale auf verschiedene Weise verarbeitet werden, um einen für die gemessene Probe repräsentativen Merkmalsvektor zu erhalten. Zum Beispiel können lokale Merkmalsvektoren für jeden gemessenen Bereich aus den M Messungen für diesen Bereich gebildet werden, sodass jeder lokale Merkmalsvektor M Komponenten hat. Die lokalen Merkmalsvektoren können dann über den Bereich der Banknote aufsummiert werden, um einen M-dimensionalen Merkmalsvektor zu erhalten, der für die gesamte Probe repräsentativ ist.
  • Der Merkmalsvektor wird dann in den Klassifikator 6 eingegeben. Der Klassifikator 6 bestimmt mittels des Merkmalsvektors und vorgegebener Klassifizierungskriterien einschließlich einer Trennungsfunktion, ob die Probe zu irgendeiner der vorgegebenen Klassen gehört. Wenn die Probe als zu einem akzeptablen Nennwert gehörend identifiziert wird, wird sie akzeptiert und der entsprechende Wert wird gutgeschrieben. Wenn die Pro be als zu einer bekannten Fälschungsgruppe gehörend identifiziert wird, wird sie zurückgewiesen.
  • Bei diesem Beispiel dient das System zur Klassifizierung zweier Nennwerte von Münzen sowie einer bekannten Fälschung.
  • Die Herleitung der Trennungsfunktion wird unten beschrieben.
  • Die Populationsverteilung der Nennwerte werden wie unten diskutiert analysiert.
  • Anfangs werden Proben jeder der interessierenden Nennwerte und jeder der bekannten Fälschungen gemessen und entsprechende Merkmalsvektoren werden gebildet. Die Proben können mittels des Sensorsystems des interessierenden Echtheitsprüfers gebildet werden, in diesem Ausführungsbeispiel werden die Proben aber aus mehreren entsprechenden Sensorsystemen hergeleitet, um Variationen und Herstellungstoleranzen wie bei in diesem Bereich verkauften und installierten Sensorsystemen von verschiedenen Echtheitsprüfern zu berücksichtigen. Wenn die Merkmalsvektoren aus den Proben zum Beispiel in einem n-dimensionalen Streudiagramm geplottet werden (wobei n die Anzahl von gemessenen Merkmalen ist), fallen sie grob in Cluster. Diese gemessenen Proben werden dann analysiert und zum Herleiten einer Trennungsfunktion verwendet. In diesem Beispiel werden 50 Proben für jeden Nennwert und 50 Proben der Fälschung verwendet und über 10 Beispiele von Sensorsystemen gemessen. Die sich ergebenden Clusterdaten werden analysiert und zum Herleiten einer Klassifizierungsfunktion mittels des oben in Bezug auf Beispiel 2 beschriebenen Ansatzes verwendet. Die Klassifizierungsfunktion wird dann in einem Speicher des Verarbeitungssystems 4 eines bestimmten Echtheitsprüfers gespeichert.
  • Klassifizierung von Münzen eines unbekannten Nennwerts wird dann wie folgt ausgeführt. Eine Münze wird in den Echtheitsprüfer eingeworfen. Die eingeworfene Münze wird gemessen und für das Material, die Dicke und den Durchmesser repräsentative Messungen werden erhalten. Das Verarbeitungssystem führt dann die folgenden Schritte aus. Ein Merkmalsvektor z wird aus den gemessenen Werten hergeleitet. Die Werte von yk,z werden dann mittels Gleichung (15) berechnet und mit einem vorgegebenen Schwellwert, hier 0,5, verglichen. Wenn ŷk,z≤0,5 ist, dann wird die Münze als zum Cluster K gehörend angesehen und entsprechend akzeptiert oder zurückgewiesen.
  • Gemäß diesem Ansatz muss der Echtheitsprüfer sehr wenige Daten speichern (z. B. die für Gleichung (15) erforderlichen Daten, das heißt S, K und αk,i sowie den Schwellwert), um die Klassifizierungsaufgabe mit einem hohen Grad an Genauigkeit auszuführen. Dies verringert Kosten und Rechenleistung und erhöht die Geschwindigkeit der Klassifizierung.
  • Die Analyse der Beispielwerte für die anfängliche Datenanalyse und die Herleitung der Trennungsfunktion können zum Beispiel mittels eines Mikroprozessors erledigt werden. Ähnlicherweise kann der Klassifikator 6 ein Mikroprozessor sein.
  • Die Verfahren des oben beschriebenen Ausführungsbeispiels sind gleichermaßen anwendbar auf eine Banknote oder andere Geldstücke oder tatsächlich zur Klassifizierung anderer Sorten von Gegenständen, die durch einen Gegenstandssensor gemessen werden, um gemessene Werte zu erzeugen.
  • Im oben beschriebenen Ausführungsbeispiel wird eine Klassifizierungsfunktion für einen Geldechtheitsprüfer gemäß der Erfindung hergeleitet. Die Erfindung kann ebenfalls zur Herleitung anderer nützlicher Funktionen, besonders für die Verwen dung mit Geldechtheitsprüfern, verwendet werden. Zum Beispiel kann die Erfindung zum Herleiten einer "Signatur" für einen Echtheitsprüfer oder eine Gruppe von Echtheitsprüfern verwendet werden. Die Signaturdaten eines Echtheitsprüfers repräsentieren die charakteristischen Eigenschaften eines Echtheitsprüfers oder einer Gruppe von Echtheitsprüfern. Die Signatur eines Echtheitsprüfers kann zum Beispiel so angesehen werden, dass sie die Messungen angibt, die von einem gegebenen Echtheitsprüfer zu erwarten sind, wenn er einen Gegenstand testet, verglichen mit den Messungen, die von einem bekannten Echtheitsprüfer für den Gegenstand erhalten wurden. Zum Beispiel kann ein bestimmter Echtheitsprüfer aufgrund des Aufbaus des Geräts immer Messungen hervorbringen, die doppelt so groß wie die entsprechenden von einem bekannten Echtheitsprüfer erhaltenen Messungen sind, und das ist dann als Signatur bekannt. Die vorliegende Erfindung kann zum Erhalten einer Funktion verwendet werden, die die Signatur eines bestimmten Echtheitsprüfers repräsentiert, in dem aus der Messung mehrerer Geldstücke im Echtheitsprüfer erhaltene Daten analysiert und mit Referenzdaten verglichen werden, die zum Beispiel durch Messung mehrerer Geldstücke in einem anderen vorgegebenen Echtheitsprüfer oder einer Gruppe von Echtheitsprüfern erhalten wurden, die als eine Referenz zur Bestimmung der Signaturen von Echtheitsprüfern verwendet werden. Die Signatur kann verwendet werden, wenn der Echtheitsprüfer in der Fabrik hergestellt wird oder wenn es im Betrieb angepasst wird, um zum Beispiel eine neue Münze in die Menge der akzeptablen Münzen einzuführen. Die Signatur kann im Münzechtheitsprüfer gespeichert werden.
  • Im beschriebenen Ausführungsbeispiel werden Beispiele von interessierenden Nennwerten verwendet, um die Klassifizierungs funktion herzuleiten. Andere Gegenstände können ebenfalls verwendet werden, wie etwa Wertmarken oder Scheiben.
  • In den oben gegebenen Beispielen wird eine lineare Regression in F ausgeführt. Es ist ebenfalls möglich, andere, nicht-lineare, Regressionen, wie beispielsweise quadratische zu verwenden. Solche Techniken sind komplizierter als die Ausführung einer linearen Regression, können aber immer noch einfacher als eine auf X basierende Regression sein.

Claims (28)

  1. Verfahren zum Herleiten einer Klassifizierungsfunktion zum Klassifizieren von Zahlungsmitteln in einer Geldwährung, wobei das Verfahren umfaßt: das Erstellen mehrerer Messungen von zumindest einem Geldwährungssensor und mehrerer Zahlungsmittel und das Bilden einer Datenmenge aus den Messungen, wobei die Elemente der Datenmenge Punkten in einem ersten Raum entsprechen, das Auswählen einer Kernfunktion, die einer Abbildung des ersten Raums in einen zweiten Raum entspricht, wobei das Verfahren das Auswählen einer Teilmenge der Datenmenge umfaßt, wobei die Teilmenge so beschaffen ist, daß das Bild der Teilmenge unter der Abbildung im zweiten Raum als Grundlage zur approximativen Darstellung des Bildes der Datenmenge unter der Abbildung im zweiten Raum verwendet wird, und das Verfahren das anschließende Verwenden der Bilder der Teilmenge zum Herleiten einer Klassifizierungsfunktion umfaßt.
  2. Verfahren nach Anspruch 1, wobei die Teilmenge so beschaffen ist, daß das Bild jedes Elements der Datenmenge approximativ als eine Linearkombination des Bildes von Elementen der Teilmenge ausgedrückt werden kann.
  3. Verfahren nach Anspruch 2, wobei die Teilmenge so beschaffen ist, daß eine Messung der Approximation eine vorgegebene Bedingung erfüllt.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das Auswählen einer Teilmenge umfaßt: (a) das Herleiten einer Anfangsteilmenge, (b) das vorläufige Hinzufügen zumindest eines Elements aus der Datenmenge zur Teilmenge, um eine vorläufige Teilmenge zu bilden, (c) Berechnen des Werts einer Anpassungsfunktion, die die Nähe einer Approximation der übrigen Elemente der Daten menge mit dem Bild der vorläufigen Teilmenge ausgedrückt darstellt, (d) Ersetzen der vorläufigen Elemente in der vorläufigen Teilmenge durch andere Elemente und Wiederholen von Schritt (c), und (e) Vergleichen der Werte der Anpassungsfunktion für jede vorläufige Teilmenge und Auswählen der vorläufigen Teilmenge, für den der Wert der Anpassungsfunktion die nächste Approximation anzeigt, und Setzen der ausgewählten vorläufigen Teilmenge als eine Anfangsteilmenge.
  5. Verfahren nach Anspruch 4, bei dem Schritte (a) bis (e) wiederholt werden, um eine Folge von vorläufigen Teilmengen ansteigender Größe zu bilden.
  6. Verfahren nach Anspruch 4 oder 5, wobei die Schritte (a) bis (e) wiederholt werden, bis eine Anpassungsfunktion eine vorgegebene Bedingung erfüllt.
  7. Verfahren nach Anspruch 6, wobei die vorgegebene Bedingung die ist, daß der Wert der Anpassungsfunktion kleiner oder gleich einem vorgegebenen Wert ist.
  8. Verfahren nach Anspruch 6, wobei die vorgegebene Bedingung die ist, daß der Wert der Anpassungsfunktion größer oder gleich einem vorgegebenen Wert ist.
  9. Verfahren nach einem der Ansprüche 4 bis 8, wobei die Anpassungsfunktion die Kernfunktion verwendet.
  10. Verfahren nach einem der Ansprüche 1 bis 9, ferner umfassend das Durchführen einer kernbasierten verallgemeinerten Diskriminanzanalyse, einer kernbasierten Hauptkomponentenanalyse oder einer Kernregression mittels der ausgewählten Teilmenge.
  11. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Datenmenge aus Lerndaten besteht.
  12. Verfahren nach Anspruch 11, wobei die Auswahl der Teilmenge nur mittels Lerndaten ausgeführt wird.
  13. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend das Bestimmen einer Menge von Werten, die den gemessenen Werten entsprechen, und das Herleiten eines Ausdrucks, der die Funktion der gemessenen Werte mit der Kernfunktion ausgedrückt darstellt und dessen Verwendung zur Herleitung einer Klassifizierungsfunktion.
  14. Verfahren nach Anspruch 13, umfassend das Herleiten einer Menge von Werten, die die Funktion als eine lineare Beziehung zwischen den Bildern zumindest einiger Elemente der Datenmenge unter der Abbildung darstellt.
  15. Verfahren nach Anspruch 13 oder 14, wobei die Funktionswerte skalar sind.
  16. Verfahren nach Anspruch 13 oder 14, wobei die Funktionswerte Vektoren sind.
  17. Verfahren nach einem der Ansprüche 13 bis 16, das die hier zuvor definierte Beziehung für vektorielle oder skalare Größen verwendet.
  18. Verfahren nach einem der Ansprüche 13 bis 17, wobei in einem ersten Raum eine nicht lineare Beziehung zwischen der Menge von Messungen und der Menge von Werten besteht, und das Verfahren das Herleiten eines Ausdrucks der nicht linearen Beziehung im ersten Raum durch das Durchführen einer Regression auf dem Bild der Daten unter der Abbildung in einem zweiten Raum umfaßt.
  19. Verfahren nach Anspruch 18, wobei die Funktion eine Signaturfunktion ist, die die Antwort der Geldwährungsprüfungseinrichtung unter Bezug auf eine Referenz darstellt.
  20. Verfahren nach Anspruch 18 oder 19, wobei die Herleitung des Ausdrucks das Durchführen linearer Regression im zweiten Raum beinhaltet.
  21. Verfahren nach einem der vorhergehenden Ansprüche, wobei einzelne Elemente der Datenmenge mehrere Messungen umfassen, die mehreren charakteristischen Eigenschaften der geprüften Zahlungsmittel entsprechen.
  22. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Geldwährungssensor ein Dokumentensensor ist.
  23. Verfahren nach Anspruch 22, wobei der Dokumentensensor ein Geldscheinsensor ist.
  24. Verfahren nach einem der Ansprüche 1 bis 21, wobei der Geldwährungssensor ein Münzsensor ist.
  25. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Kernfunktion ein Gauss-, Polynom-, Sigmoid-, Hyperbeltangens- oder Splinekern ist.
  26. Verfahren zum Anpassen einer Geldwährungsprüfeinrichtung, umfassend das Speichern einer Darstellung einer Funktion, die gemäß einem Verfahren nach einem der Ansprüche 1 bis 25 hergeleitet wurde.
  27. Verfahren zum Klassifizieren eines Geldwährungszahlungsmittels in einer Geldwährungsklassifikationseinrichtung, umfassend das Herleiten zumindest einer Messung des Zahlungsmittels aus zumindest einem Geldwährungssensor, das Bestimmen des Werts einer Funktion, die gemäß einem Verfahren nach einem der Ansprüche 1 bis 25 hergeleitet wurde und das Klassifizieren des Zahlungsmittels gemäß dem bestimmten Wert.
  28. Prüfeinrichtung, umfassend eine Einrichtung (1) zum Überprüfen von Geldwährungszahlungsmitteln (3) zum Erzeugen gemessener Werte, die charakteristische Eigenschaften der Zahlungsmittel darstellen, eine Einrichtung (4, 6), die eine Darstellung einer Funktion speichert, die gemäß einem Verfahren nach einem der Ansprüche 1 bis 25 hergeleitet wurde, sowie eine Einrichtung (4, 6) zum Prüfen eines Geldwährungszahlungsmittels mittels der gemessenen Werte und der Funktion.
DE60033535T 2000-12-15 2000-12-15 Geldechtheitsprüfer Expired - Lifetime DE60033535T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP00311253A EP1217589B1 (de) 2000-12-15 2000-12-15 Geldechtheitsprüfer

Publications (2)

Publication Number Publication Date
DE60033535D1 DE60033535D1 (de) 2007-04-05
DE60033535T2 true DE60033535T2 (de) 2007-10-25

Family

ID=8173451

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60033535T Expired - Lifetime DE60033535T2 (de) 2000-12-15 2000-12-15 Geldechtheitsprüfer

Country Status (5)

Country Link
US (1) US6899215B2 (de)
EP (1) EP1217589B1 (de)
JP (1) JP4413461B2 (de)
DE (1) DE60033535T2 (de)
ES (1) ES2280179T3 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT509022A3 (de) * 2009-08-14 2012-06-15 Ait Austria Inst Of Technology Gmbh Verfahren zur qualitätsprüfung eines digitalbilds

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2344446A (en) * 1998-12-02 2000-06-07 Mars Inc Classifying currency items
AUPQ136299A0 (en) * 1999-07-02 1999-07-22 Microsystem Controls Pty Ltd Coin validation
US7677969B2 (en) * 2001-12-12 2010-03-16 Aristocrat Technologies Australia Pty. Limited Bill acceptor for a gaming machine
US7648016B2 (en) * 2002-06-19 2010-01-19 Mei, Inc. Currency validator
EP1376484A1 (de) * 2002-06-25 2004-01-02 Mars Incorporated Verfahren und Vorrichtung zur Signalverarbeitung in der Geldprüfung
EP1730705A1 (de) * 2004-03-09 2006-12-13 Council Of Scientific And Industrial Research Verbesserter falschgelderkenner mittels visueller und reflektiver spektralresponse
BRPI0508631A (pt) 2004-03-12 2007-08-07 Ingenia Technology Ltd aparelho para determinar uma assinatura de um artigo arranjado em um volume de leitura, uso do aparelho, métodos para identificar um artigo feito de papel ou papelão, um artigo feito de plástico, um produto pela sua embalagem, um documento, um item de vestuário ou calçado, e um disco, método para etiquetar um artigo, e, artigo etiquetado
WO2005088517A1 (en) 2004-03-12 2005-09-22 Ingenia Technology Limited Methods and apparatuses for creating authenticatable printed articles and subsequently verifying them
US20070140551A1 (en) 2005-12-16 2007-06-21 Chao He Banknote validation
EP1969525A1 (de) 2005-12-23 2008-09-17 Ingenia Holdings (UK)Limited Optische authentifizierung
AU2006346894B2 (en) * 2006-07-28 2012-01-19 Mei, Inc. Classification using support vector machines and variables selection
DE102006053788A1 (de) * 2006-11-15 2008-05-21 Giesecke & Devrient Gmbh Verfahren zur Erkennung von Verschmutzungen im Bereich von Farbübergängen auf Wertdokumenten und Mittel zur Durchführung des Verfahrens
US8611665B2 (en) 2006-12-29 2013-12-17 Ncr Corporation Method of recognizing a media item
US8503796B2 (en) 2006-12-29 2013-08-06 Ncr Corporation Method of validating a media item
KR101397782B1 (ko) 2007-05-29 2014-05-20 주식회사 엘지씨엔에스 지폐이미지 추출 장치 및 방법
CN101755290B (zh) * 2007-06-01 2012-11-28 卡巴-诺塔赛斯有限公司 对安全文件特别是钞票的鉴定
GB2466311B (en) 2008-12-19 2010-11-03 Ingenia Holdings Self-calibration of a matching algorithm for determining authenticity
GB2466465B (en) 2008-12-19 2011-02-16 Ingenia Holdings Authentication
CN101504781B (zh) * 2009-03-10 2011-02-09 广州广电运通金融电子股份有限公司 有价文件识别方法及装置
GB2476226B (en) * 2009-11-10 2012-03-28 Ingenia Holdings Ltd Optimisation
JP5468401B2 (ja) * 2010-01-28 2014-04-09 グローリー株式会社 硬貨センサ、実効値算出方法および硬貨識別装置
TWI423175B (zh) * 2010-09-01 2014-01-11 Univ Nat Sun Yat Sen 基於多核心支援向量機之偽鈔辨識方法
DE102010047948A1 (de) * 2010-10-08 2012-04-12 Giesecke & Devrient Gmbh Verfahren zum Prüfen eines optischen Sicherheitsmerkmals eines Wertdokuments
JP5460658B2 (ja) * 2011-08-05 2014-04-02 エムイーアイ インコーポレーテッド サポート・ベクタ・マシン及び変数選択を使用する方法
DE102011114410A1 (de) * 2011-09-26 2013-03-28 Giesecke & Devrient Gmbh Verfahren zum Prüfen der Herstellungsqualität eines optischen Sicherheitsmerkmals eines Wertdokuments
US9036890B2 (en) 2012-06-05 2015-05-19 Outerwall Inc. Optical coin discrimination systems and methods for use with consumer-operated kiosks and the like
US8739955B1 (en) * 2013-03-11 2014-06-03 Outerwall Inc. Discriminant verification systems and methods for use in coin discrimination
US9443367B2 (en) 2014-01-17 2016-09-13 Outerwall Inc. Digital image coin discrimination for use with consumer-operated kiosks and the like

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4733765A (en) * 1985-11-14 1988-03-29 Kabushiki Kaisha Toshiba Cash handling machine for handling mixtures of notes and coins introduced together
GB2238152B (en) 1989-10-18 1994-07-27 Mars Inc Method and apparatus for validating coins
JP2936752B2 (ja) * 1991-03-04 1999-08-23 富士電機株式会社 硬貨選別装置
GB2254949B (en) 1991-04-18 1994-09-28 Mars Inc Method and apparatus for validating money
CH684856A5 (de) 1992-11-30 1995-01-13 Mars Inc Verfahren zur Klassifizierung eines Musters - insbesondere eines Musters einer Banknote oder einer Münze - und Einrichtung zur Durchführung des Verfahrens.
US6580819B1 (en) * 1993-11-18 2003-06-17 Digimarc Corporation Methods of producing security documents having digitally encoded data and documents employing same
US6128402A (en) * 1994-03-08 2000-10-03 Cummins-Allison Automatic currency processing system
US5757001A (en) * 1996-05-01 1998-05-26 The Regents Of The University Of Calif. Detection of counterfeit currency
US6134344A (en) * 1997-06-26 2000-10-17 Lucent Technologies Inc. Method and apparatus for improving the efficiency of support vector machines
GB2344446A (en) 1998-12-02 2000-06-07 Mars Inc Classifying currency items
US6078698A (en) * 1999-09-20 2000-06-20 Flir Systems, Inc. System for reading data glyphs

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT509022A3 (de) * 2009-08-14 2012-06-15 Ait Austria Inst Of Technology Gmbh Verfahren zur qualitätsprüfung eines digitalbilds
AT509022B1 (de) * 2009-08-14 2012-09-15 Ait Austrian Inst Technology Verfahren zur qualitätsprüfung eines digitalbilds
DE102010032806B4 (de) * 2009-08-14 2015-02-12 Ait Austrian Institute Of Technology Gmbh Verfahren zur Qualitätsprüfung eines Digitalbilds

Also Published As

Publication number Publication date
DE60033535D1 (de) 2007-04-05
EP1217589A1 (de) 2002-06-26
US20020117375A1 (en) 2002-08-29
ES2280179T3 (es) 2007-09-16
US6899215B2 (en) 2005-05-31
JP4413461B2 (ja) 2010-02-10
EP1217589B1 (de) 2007-02-21
JP2002279478A (ja) 2002-09-27

Similar Documents

Publication Publication Date Title
DE60033535T2 (de) Geldechtheitsprüfer
DE69925155T2 (de) Verfahren und Vorrichtung zum Klassifizieren von Gegenständen
DE69034216T2 (de) Verfahren und Vorrichtung zur Echtheitsprüfung von Geld
EP0560023B1 (de) Einrichtung zur Klassifizierung eines Musters, insbesondere von einer Banknote oder von einer Münze
EP0671040B1 (de) Verfahren und vorrichtung zur artikelklassifizierung
DE69405105T3 (de) Echtheitsprüfung von wertträgern
DE2844156A1 (de) Verfahren zum verifizieren eines sprechers
EP2795589B1 (de) Verfahren und vorrichtung zur prüfung eines sicherheitsmerkmals eines wertdokuments
WO1980001963A1 (en) Device for the discrimination of objects to be inspected
EP1516293B1 (de) Währungsvalidierer
EP1897067B1 (de) Verfahren und vorrichtung zur erkennung einer münze unter verwendung ihres prägebildes
DE102013015224A1 (de) Verfahren und Vorrichtung zum Prüfen von Wertdokumenten auf Irregularitäten
EP1673736A1 (de) System zur prüfung von sicherheitsmerkmalen von wertdokumenten
EP0553402B1 (de) Einrichtung zur Klassifizierung eines Musters, insbesondere von einer Banknote oder von einer Münze
DE102011121876A1 (de) Verfahren für die Kompensation von Störungen
WO2011082792A1 (de) Verfahren zur prüfung von wertdokumenten
DE69828437T2 (de) Münzprüfvorrichtung
DE69503383T3 (de) Vorrichtung zum prüfen von wertgegenständen und verfahren zum kalibrieren einer solchen vorrichtung
EP0602474B1 (de) Verfahren zum Eichen eines Münzprüfers
DE69821083T2 (de) Vorrichtung und Verfahren zur Gültigkeitsprüfung von Zahlungsmitteln
DE102009058439A1 (de) Verfahren zur Prüfung von Wertdokumenten
DE102023107278B3 (de) Verfahren zum Authentifizieren einer auf ihrem Substrat mindestens eine bedruckte Fläche aufweisenden Banknote
EP2786356A2 (de) System und verfahren zum bearbeiten von banknoten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition