Back to top

Kognitive Suche – warum ist das für mich wichtig?

Laurent Fanichet
Laurent Fanichet
Vice President, Marketing at Sinequa

Als anbieterunabhängiges Consultingunternehmen für Suche und Analyse bieten wir unseren Kunden Informationen und Ressourcen, um diesen eine breite Auswahl an innovativen Fortschritten unseres Fachbereichs näherbringen. Einer der kommenden Trends ist die „kognitive Suche“.

Heutzutage ist die Suche nicht mehr einfach nur noch ein Abgleich von Stichwörtern. Sie ist inzwischen kognitiv geworden, kann selbst „denken“ – sie bietet die Möglichkeit, die relevantesten Antworten auf Fragen zu liefern, die in natürlicher Sprache gestellt werden. In diesem Beitrag wird unser Gastblogger Laurent Fanichet von Sinequa besprechen, wie die kognitive Suche eingesetzt werden kann und welchen Einfluss sie auf einzelne Nutzungsfälle der modernen Geschäftswelt nehmen kann.


Was ist kognitive Suche?

Wir befinden uns hier noch in einem frühen Stadium eines sich entwickelnden Marktes, in dem viele Akteure versuchen, ihr Angebot als „kognitiv“ zu vermarkten. Das Cognitive Computing Consortium versucht aktuell, eine Definition auszuarbeiten, mit der alle glücklich sind, damit potenzielle Benutzer einen objektiveren Eindruck davon bekommen, was kognitive Verarbeitung überhaupt ist. Die Definition kurzgefasst: Ein kognitives Informationssystem ist fähig, für den Benutzer in einem Arbeitskontext relevante Informationen aus großen und diversen Datensätzen zu gewinnen.

Wir bewegen uns immer mehr in die Ära dieser „kognitiven Verarbeitung“, in der neue Suchlösungen leistungsfähige Indextechnologien mit fortgeschrittenen Fähigkeiten der Erkennung natürlicher Sprache und Algorithmen maschineller Lernverfahren kombinieren, um einen immer tieferen Wissenskorpus aufzubauen, aus welchem dem Benutzer relevante Informationen und 360-Grad-Ansichten in Echtzeit angeboten werden. Das ist, was führende Analysten als „kognitive Suche“ oder „Insight Engines“ bezeichnen. Diese „denkfähigen“ Plattformen interagieren in natürlicherer Art mit dem Benutzer. Sie lernen durch Fortschritt, indem sie mehr Erfahrung mit den Daten und dem Benutzerverhalten ansammeln und proaktiv Verbindungen zwischen verwandten Daten aus verschiedenen Quellen einrichten, sowohl intern als auch extern.

Forrester definierte kognitive Suche in einer kürzlich versandten Mitteilung folgendermaßen:

„Technologien für Indexierung, Verarbeitung natürlicher Sprache und maschinelle Lernverfahren werden kombiniert, um einen immer relevanteren Wissenskorpus aus allen Quellen strukturierter und unstrukturierter Daten zu erstellen, der natürliche oder verborgene Abfrageschnittstellen nutzt, um dem Menschen Wissen zu liefern, über Text, Sprachausgabe, Visualisierung und/oder sensorisches Feedback.“

Wie funktioniert die kognitive Suche für die Lieferung relevanter Wissensartikel?

Wertvolle Informationen werden aus großen Volumen komplexer und diverser Datenquellen extrahiert. Es ist von entscheidender Bedeutung, alle verfügbaren Daten des Unternehmens einzusetzen, egal, ob sie intern oder extern liegen, egal, ob sie strukturiert oder unstrukturiert sind. So bietet man dem Benutzer tiefere Einblicke, die ihm helfen, bessere Geschäftsentscheidungen zu treffen. Kognitive Suche bietet die Verbindung, um umfassende Einblicke anzubieten.

Kontextbezogene und relevante Informationen werden geboten. Um relevante Wissensartikel aus allen verfügbaren Daten des Unternehmens zu finden braucht man kognitive Systeme mit der Möglichkeit der Verarbeitung natürlicher Sprache, die in der Lage sind, zu „verstehen“, worum es in unstrukturierten Daten aus Texten (Dokumente, E-Mail, Blogs und Social Media, Ingenieursberichte, Marktforschung usw.) und Mediencontent (Videos, Aufnahmen aus dem Call Center usw.) geht. Algorithmen maschineller Lernverfahren helfen dabei, die aus den Daten gewonnenen Einblicke zu verfeinern. Branchen- und unternehmensspezifische Wörterbücher und Ontologien helfen mit Synonymen und zum Herstellen von Beziehungen zwischen den Begriffen und Konzepten. Das erfordert eine Menge Intelligenz und „PS unter der Haube“, die das System benötigt, das die relevanten Wissensartikel oder Einblicke liefern soll.

Maschinelle Lernverfahren werden genutzt, um kontinuierlich die Relevanz der Ergebnisse zu verbessern. Algorithmen maschineller Lernverfahren bieten Wertsteigerung durch die kontinuierliche Anreicherung und Verbesserung der Suchergebnisse, mit dem Ziel, dem Benutzer die beste Relevanz zu bieten. Die folgenden Algorithmen maschineller Lernverfahren gehören zu den Beliebtesten: 

  • Klassifizierung durch Beispiel – ein überwachter Lernalgorithmus, der genutzt wird, um Regeln zu extrahieren (ein Modell zu erstellen), über welche neuen Daten Kategorien zugeordnet werden, entsprechend einem Trainingsset aus vordefinierten Daten. So werden beispielsweise in der Bioinformatik Proteine gemäß ihrer Struktur und/oder Sequenz klassifiziert. In der Medizin kann die Klassifizierung genutzt werden, um die Art eines Tumors zu bestimmen und einzuschätzen, ob er schädlich ist oder nicht. Im Marketing kann die Klassifizierung durch Beispiel helfen, vorherzusehen, ob Kunden auf eine Werbekampagne ansprechen werden, durch den Vergleich mit historischen Daten, wie Kunden in der Vergangenheit auf ähnliche Kampagnen reagiert haben.
  • Clusterbildung – ein Lernalgorithmus ohne Überwachung, in dem Teilmengen der Dokumente nach gleichen Eigenschaften sortiert werden. Wenn wir die Suche nicht immer über den gesamten Index einsetzen müssen wollen, verwenden wir die Clusterbildung. Die Idee dahinter ist es, unsere Suche auf spezielle Dokumentengruppen in einem Cluster zu beschränken. Anders als bei der Klassifizierung sind die Gruppen nicht vordefiniert, daher kann diese Aufgabe ohne Überwachung vorgenommen werden. Die Clusterbildung wird oft für die erforschende Analyse eingesetzt. So können Mitarbeiter im Marketing etwa die Clusterbildung nutzen, um unterschiedliche Gruppen in der Datenbank ihrer Kunden/Zielpersonen aufzufinden und diese Einblicke dann nutzen, um zielgerichtete Werbekampagnen zu entwerfen. Im Fall der Pharmaforschung können Projektberichte der Forschung und Entwicklung nach ähnlichen in den Berichten erwähnten Medikamenten, Krankheiten, Molekülen und/oder Nebenwirkungen in Cluster zusammengestellt werden.
  • Regression – ein überwachter Algorithmus, der kontinuierliche numerische Werte aus Daten vorhersagt, indem er die Beziehung zwischen den Variablen für Input und Output verstehen lernt. So kann beispielsweise in der Finanzwelt die Regression genutzt werden, um Aktienpreise vorherzusagen, basierend auf Faktoren wie dem Wirtschaftswachstum, aktueller Trends und demografischen Faktoren. Die Regression kann auch genutzt werden, um Anwendungen zu erstellen, die Verkehrsaufkommen in Relation zu Witterungsbedingungen vorhersagen.
  • Ähnlichkeit – kein Algorithmus maschineller Lernverfahren, sondern einfach nur ein Prozess, der hohe Rechenleistung erfordert und hilft, eine Matrix zu erstellen, welche die Interaktionen jedes Datensamples mit anderen Samples abgleicht. Dieser Prozess dient oft als Grundlage für die oben genannten Algorithmen und kann genutzt werden, um Ähnlichkeiten zwischen Personen in einer bestimmten Gruppe zu identifizieren. So kann beispielsweise die Forschung und Entwicklung in der Pharmaindustrie sich auf Anwendungen der Ähnlichkeit verlassen, um weltweit Teams von Experten bei Forschungsprojekten zu unterstützen, die sich auf ihre Fähigkeiten und die Daten früherer Forschungsberichte und/oder wissenschaftliche Publikationen stützen.
  • Empfehlungen – einer der zahlreichen Nutzungsfälle besteht darin, verschiedene Grundalgorithmen zu verbinden, um Empfehlungsdienste zu erstellen, die Content vorgeschlagen, der für den Benutzer von Interesse sein könnte. Man nennt dies „contentbasierte Empfehlungen“. Diese bieten personalisierte Empfehlungen für Benutzer, indem deren Interessen mit der Beschreibung und den Attributen der Dokumente abgeglichen werden.

Der Fortschritt der Technik ermöglicht eine neue Generation der kognitiven Suche für datengestützte Unternehmen, die mehr liefert, als das traditionelle Suchfeld je konnte. Die Benutzer werden in die Lage versetzt, direkt relevantes Wissen zu erlangen, zur rechten Zeit am rechten Gerät.



Über den Autor: Laurent Fanichet ist Vizepräsident Marketing bei Sinequa. Von seinem Büro in New York aus ist Laurent zuständig für die allgemeine Marketingstrategie des Unternehmens, einschließlich Feld- und Produktmarketing, Marketingkommunikation und Markenwahrnehmung. Sinequa, ein Partner von Search Technologies, ist einer der Marktführer im Bereich kognitiver Suche und Analyse.

0