nano-search – die etwas andere Suche

Der von der it-Plan GmbH entwickelte Suchalgorithmus nano-search verbindet zwei Anforderungen an einen Suchalgorithmus, die sich bisher in dieser Form nicht kombinieren liesen: Performance und Unschärfe.


Die Forderung nach hoher Performance lässt sich am besten mit einer Index-basierten Suche in Datenbanken abdecken. Leider sind hier die Grenzen an die ebenfalls gewünschte Unschärfe eng gesteckt.
Auf der anderen Seite bieten die Fuzzy Algorithmen sehr gute Ergebnisse, wenn es darum geht, unscharf zu suchen. Wobei hier die Performance für große Datenmengen inakzeptabel ist.


NANO-SEARCH
VEREINT DAS BESTE AUS BEIDEN ANSÄTZEN.


Eine sehr schnelle Suche, mit einer hohen Toleranz gegen das Vertauschen beziehungsweise Entfernen von Wörtern, Silben und Buchstaben.


Die Suche arbeitet dabei mit mehreren1 Suchparametern, die einzeln zu gewichten sind und einer definierbaren Unschärfe für die Suche im Ganzen. Über die Gewichtung der Suchparameter erfolgt dabei die Priorisierung der Einzelparameter für die Gesamtsuche, z.B. kann der Parameter Name mit 80% und der Parameter Wohnort2 mit 20% gewichtet werden.
Die Toleranzschwelle ist dabei das Maß für die Unschärfe.
Ein Treffer wird generiert, wenn die Summe der Übereinstimmungen aller Suchparameter, gemäß ihrer Gewichtung, über dieser Schwelle liegt.



Haben Sie Interesse oder Fragen?
Dann klicken Sie bitte hier: nano-search(at) wir wollen keinen Spam it-plan(dot)de



1 Standard sind zurzeit 10 Suchparameter, eine Erweiterung ist aber problemlos möglich.

2 Name und Wohnort sind hier als Beispiel für zwei beliebige Suchparameter zu verstehen.

FUNKTIONEN UND MERKMALE IM ÜBERBLICK:
  • 10 Millionen Vergleichsoperationen pro Sekunde*
  • Tolerant gegen das Vertauschen von Worten, Silben und Buchstaben
  • Tolerant gegen Wort-, Silben- und Buchstabenlücken
  • Konfigurierbare Toleranzschwelle (wie „unscharf“ soll die Suche sein)
  • Konfigurierbare Parametrisierung für mehrere1 Suchbegriffe
  • Integrierter load balancer sorgt für eine optimale Auslastung der vorhandenen Hardware- Ressourcen.
  • Ausgelegt auch für das Screening von sehr großen, eigenen, Datenbanken mit mehr als 50 Millionen Datensätzen.
  • Das Screening gegen sehr große Vergleichsdatenbestände wie z.B. PEP-Datenbanken, mit teilweise über 1 Mio. Einträgen ist ebenfalls möglich.

* ermittelt im IBM Testcenter in Stuttgart auf einem IBM System P5 mit 4 Dual-Prozessoren und 8 GB RAM, bei 2 Mio. Kundendaten gegen 8.000 Embargo-Datensätze. Daraus ergeben sich 16.000 Mio. Vergleiche die innerhalb von ca. 25 Minuten abgearbeitet wurden.

MÖGLICHE ANWENDUNGSGEBIETE:
  • Dublettensuche
  • Beliebiger „Black-List“-Abgleich
  • Compliance-Check
  • Prüfung der EU-Sanktionsliste / Embargo-Liste zur Terrorismusbekämpfung nach EU-Richtlinie 2580/2001
  • Einfach integrierbar in bestehende Anwendungen