+++ 19.01.2020 | 09:18
Epic legt Beschwerde gegen Apple auch in Großbritannien ein
+++ 18.01.2021 | 12:01
Amazon macht Alexa-Technik für Partner verfügbar
+++ 15.01.2021 | 11:09
Google schließt Fitbit-Übernahme ab
+++ 14.01.2021 | 12:04
Chinas mächtiger Milliardär verschwunden
Die Anzahl der Datenquellen, in denen relevante Infos liegen, wächst beständig.
Ein Such- und Analysewerkzeug im Big-Data-Umfeld muss strukturierte ebenso wie unstrukturierte Daten indizieren. Erst die Kombination beider Analysearten liefert brauchbare Ergebnisse. Techniken des „Natural Language Processing“ (oder auch Computerlinguistik) helfen, unter allen Ergebnissen die entscheidenden zu erfassen. Wird das Erkennen semantischer Zusammenhänge mit statistischen Analysen und Algorithmen für maschinelles Lernen verbunden, erhält der Suchende bessere, weil kontextbezogene Informationen.
Die Anzahl der Datenquellen, in denen relevante Informationen liegen, wächst beständig. Eine Plattform muss daher möglichst viele Quellen anbinden, idealerweise alle. Tritt eine neue Datenquelle hinzu, muss sich die Plattform schnell mit ihr verbinden lassen können. Multiple Anschlüsse für strukturierte und unstrukturierte Datentöpfe bewältigen die Datenvielfalt.
Um mit großen Datenmengen umzugehen, muss die Plattform so skalierbar sein, dass sich statistische Analysen strukturierter und unstrukturierter Daten mit linguistischen und semantischen Analyse von Texten in mehreren Hauptsprachen kombinieren lassen. Nur so können Ergebnisse in Realzeit zur Verfügung stehen; bei überbordenden Datenmengen würden sonst die Antwortzeiten inakzeptabel lang.
* Sales Director DACH bei Sinequa
Bildquelle: Thinkstock/iStock