Big Data

So lassen sich Sprach- und Videodaten auswerten

Machine Learning: Wie sich Sprach- und Videoinhalte im Rahmen von Big-Data-Analysen durchsuchen, klassifizieren und verarbeiten lassen, erläutert Axel Schäfer von Adobe im Interview.

Axel Schäfer, Adobe

Axel Schäfer, Senior Manager, Product & Industry Marketing EMEA bei Adobe

IT-DIRECTOR: Herr Schäfer, mit welchen Technologien lassen sich Sprach- und Videoinhalte im Rahmen von Big-Data-Analysen durchsuchen, klassifizieren und letztlich in Bezug zu anderen (strukturierten) Datenquellen setzen?
A. Schäfer:
Grundsätzlich können mittels entsprechender APIs viele der ähnlichen Messkriterien wie bei „traditionelleren“ Datenformaten angewendet werden. Dank Machine Learning lassen sich etwa individuelle sprachliche Eigenheiten normalisieren, die so verlässlicher messbar werden. Durch intelligentes Tagging von Bild-und Videoinhalten können zudem bessere Einsichten in die (mögliche weitere) Nutzung von Assets gegeben werden. In Verbindung mit den Nutzungsdaten aus unterschiedlichen Kommunikationskanälen sind Unternehmen mithilfe prediktiver Algorithmen in der Lage, relevante Inhalte bereitzustellen und auszuspielen.

IT-DIRECTOR: Bei der Analyse von Fotos oder Videos wird häufig mit Gesichtserkennung gearbeitet. Wie funktioniert dies insbesondere bei Bewegbildern?
A. Schäfer:
Wir arbeiten bei der Erkennung von Gesichtern wie bei allen anderen Elementen mit Algorithmen innerhalb des Adobe Sensei Frameworks und bieten so bereits integrierte Funktionen wie zum Beispiel Smart Tagging an. Dabei wird eine Vielzahl von Referenzpunkten zusammengeführt und mittels Künstlicher Intelligenz (KI) mit den vorhandenen Bilddaten abgeglichen. Auch hier fokussiert sich Adobe auf die Nutzung der Technologie für die Kommunikation mit den Konsumenten und deren Markenerlebnis.

IT-DIRECTOR: Wie funktioniert im nächsten Schritt die intelligente Verknüpfung von Bewegtbildern mit den Standortdaten von Personen oder von Geräten im Internet der Dinge (z.B. vernetzte Fahrzeuge)? Können Sie Beispiele nennen?
A. Schäfer:
Grundsätzlich gilt auch hier der ganzheitliche Ansatz wertstiftender Kommunikation mit dem Konsumenten als Richtlinie – dabei kann es sich sowohl um In-Car-Kommunikation (etwa während des autonomen Fahrens) oder auch um Bewegtbild auf Displays entlang des Weges handeln. Bei diesen und allen anderen möglichen Anwendungsfällen gilt, das vorhandene Nutzerprofil mit den Standortdaten zusammenzuführen und so Relevanz für die zeit-und ortsgenaue Ausspielung der Bewegtbilder sicherzustellen.

IT-DIRECTOR: Inwieweit geht die Entwicklung dabei von der Analyse immer mehr in Überwachung über?
A. Schäfer:
Elementarer Bestandteil bei der Nutzung der fortschreitenden Innovationen in diesem Bereich ist die transparente Nutzung derselben und die Möglichkeiten zur Selbstbestimmung bzw. Einschränkung durch den analysierten Besucher oder Kunden. Dabei gilt es stets, ein wertstiftendes und respektvolles Verhältnis bei der Nutzung der persönlichen Daten in den Mittelpunkt zu stellen – und so den Eindruck einer Übervorteilung im Sinne von „Überwachung“ zu vermeiden. Konsumenten, die sich wie gläserne Kunden fühlen, sind bereits so gut wie verloren. Vor dem Hintergrund der EU-Datenschutz-Grundverordnung (DSGVO) kann jeder Konsument ab Mai dieses Jahres ohnehin selbst bestimmen, wem er wie viel „Datenvertrauen“ schenkt – oder auch nicht.

IT-DIRECTOR: Häufig wird im Rahmen der Video-Analyse nach Unregelmäßigkeiten im Verhalten oder innerhalb von Abläufen – beispielsweise beim Verkehrsfluss – gesucht und im Zuge dessen auch mit Technologien der Künstlichen Intelligenz gearbeitet. Welche Vorteile kann man sich davon versprechen? Und welche Risiken sind gleichzeitig damit verbunden?
A. Schäfer:
Wir arbeiten hier weniger in infrastrukturellen Bereichen wie der Verkehrsführung. Unsere KI-Kompetenzen im Rahmen des „Sensei Frameworks“ fokussieren sich bei der Videoanalyse vielmehr auf die Nutzung von Videos, der Optimierung von Videos zur Darstellung relevanter Inhalte und Übermittlung relevanter Botschaften für die entsprechenden Nutzersegmente. Die Vorteile: Für den Konsumenten der Videos ergeben sich eine erhöhte Relevanz und ein erhöhter Nutzen, für den Produzenten der Videos ein effektiveres Content-Management und der effiziente Einsatz seines Budgets und seiner Ressourcen.

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok