.st0{fill:#FFFFFF;}

Neue Rivalen für Alexa und Siri: Large Language Models im Vormarsch 

von  Michael Wichterich

07.06.2023


Der langjährige Wettkampf um die fortschrittlichste KI-Technologie zwischen Amazon Alexa, Siri und dem Google Assistant bekommt nun einen neuen und beeindruckenden Rivalen in Form von ChatGPT und anderen aufstrebenden Large Language Models (LLM). Besonders ChatGPT hat enormes Interesse in der Welt der Künstlichen Intelligenz geweckt und neue Maßstäbe in der Sprachverarbeitung gesetzt.

Es stellt sich eine berechtigte Frage: Wann werden wir die Erfolgsfaktoren von ChatGPT auch in Alexa und Siri sehen? Diese Frage wird immer relevanter, und wir können bereits sagen, dass sowohl Amazon als auch Apple daran arbeiten, ihre eigenen Sprachassistenten durch die Entwicklung eigener LLM-Modelle zu verbessern. Amazon plant, sein LLM vor allem für Alexa einzusetzen, um die „weltbeste persönliche Assistenz“ zu schaffen. Auch Apple arbeitet an ähnlichen Verbesserungen für Siri. Aber was werden diese neuen LLM-Modelle für Sprachassistenten bewirken? Die Fähigkeit, allgemeine Fragen besser zu beantworten, ist nur der Anfang. In diesem Artikel möchten wir genauer betrachten, wie LLM-Modelle den Bereich verändern werden und welche Vorteile sie sowohl für Verbraucher als auch für Unternehmen bieten. 

Wie Large Language Models die Grenzen von Sprachassistenten neu definieren

Der Einsatz neuer Large Language Models wird einen bedeutenden Einfluss auf die Weiterentwicklung von Sprachassistenten haben. Einer der wohl größten Vorteile besteht darin, dass Sprachassistenten in Zukunft den Kontext der Interaktion mit dem Nutzer besser verstehen können. Was bedeutet das genau? Mit den neuen LLM-Modellen wird die Notwendigkeit von Trigger-Sätzen für Sprachanwendungen reduziert. Trigger-Sätze sind vordefinierte Beispiele, die der KI helfen, die passende Antwort zu finden. Früher mussten unzählige dieser Sätze erstellt werden, um eine breite Palette von Nutzeranfragen abzudecken. 

Um dies an einem Beispiel zu verdeutlichen: Wenn jemand über einen Sprachassistenten eine Probefahrt vereinbaren möchte, mussten bisher unterschiedlichste Variationen wie „Probefahrt“, „Testfahrt“, „Probe fahren“ usw. als Trigger-Sätze hinterlegt werden. Mit den neuen LLM-Modellen ist es nun möglich, dass nur eine einzige Frage gestellt werden kann. Man gibt der KI also z.B. die Aufgabe: „Lese aus der Anfrage des Nutzers heraus, ob er eine Probefahrt machen möchte, einen Werkstatt-Termin vereinbaren will oder die Öffnungszeiten benötigt“. Mit nur dieser einen Eingabe können nun Gespräche viel besser verarbeitet und zufriedenstellender beantwortet werden.

Für Anfragen wie zum Beispiel „Mein Auto ist nun 20 Jahre alt und bereits zum 3. Mal in diesem Jahr in der Werkstatt. Ich würde gerne einmal mit einem neuen Auto eine Probefahrt machen“, erinnern wir uns daran, wie mühsam es war, all die unzähligen Beispielsätze hinzuzufügen. Wahrscheinlich hätte kein Programmierer diesen spezifischen Satz vorab in das System eingepflegt, weshalb die Fehlerquote bei solchen Anfragen bisher sehr hoch war. In diesem Fall würde der Nutzer vermutlich gerne ein neues Auto kaufen, aber Alexa würde wahrscheinlich einen Werkstatt-Termin anbieten, da das Wort „Werkstatt“ relativ am Anfang gefallen ist. 

Die neuen Sprachmodelle ermöglichen eine präzisere und verständnisvollere Interaktion und würden verstehen, dass es dem Nutzer um ein neues Auto und nicht um einen Werkstatt-Termin geht. Dadurch können Absichten und Bedürfnisse besser erkannt werden. Dieser Vorteile würde Unternehmen auch im Bereich Voice Commerce helfen, da er das Einkaufsverhalten positiv beeinflussen wird.

Vorteile für den Voice-Commerce Markt

In Zukunft werden vordefinierte Produktinformationen, die dem Nutzer vollständig vorgelesen werden müssen, überflüssig sein. Nutzeranfragen werden schnell und präzise beantwortet, da die KI relevante Informationen aus der Produktbeschreibung filtert und extrahiert und somit gezielt die passende Antwort geben kann. Darüber hinaus werden Zusammenhänge beim Einkaufen noch besser verstanden und das Einkaufsverhalten kann berücksichtigt werden. Dadurch können noch bessere Produktvorschläge gemacht werden. Dies erweist sich insbesondere bei Sprachassistenten als äußerst erfolgreich, da kurze und beiläufige Interaktionen den Nutzer häufiger zu zusätzlichen Käufen und einer Erweiterung seines Warenkorbs verleiten. (In diesem Beitrag erfahren Sie noch mehr zum Thema Voice Commerce). Nicht zuletzt wird die Interaktion mit Unternehmen über Sprachassistenten in Zukunft eine andere Form annehmen. Obwohl dieser Bereich noch sehr theoretisch ist, werden Sprachassistenten nicht nur die Fähigkeit haben, automatisch in der Sprache des Nutzers zu interagieren, sondern auch ihren eigenen Sprachstil an den Nutzer anpassen und somit für ein noch natürlicheres Interaktionserlebnis sorgen.

Die Zukunft der Sprachassistenten mit LLMs

Zusammenfassend lässt sich sagen, dass neue Large Language Models (LLMs) wie ChatGPT das Potenzial haben, den Bereich der Sprachassistenten nachhaltig zu verändern. Durch ihre fortschrittliche Sprachverarbeitung bieten sie personalisierte Interaktionserlebnisse und minimieren die Anzahl der „Fallbacks“. Sprachassistenten werden also besser in der Lage sein, Anfragen zu bearbeiten. Zudem verspricht der Bereich Voice Commerce auch für Unternehmen im E-Commerce aufregende Veränderungen in der Zukunft. Nahtlosere und personalisierte Einkaufserfahrungen werden unseren Alltag vereinfachen.Bei der Umsetzung solcher Lösungen kann Voisento als Ansprechpartner behilflich sein.

Um einen allgemeinen Überblick über die neuesten Entwicklungen und Änderungen in der KI-Welt zu erhalten, empfehlen wir Ihnen die Seite des AI Training Institute. Dort finden Sie umfangreiche Informationen und Ressourcen, um auf dem Laufenden zu bleiben.

Wenn Sie mehr zum Thema Voice Commerce erfahren möchten, besuchen Sie die Website von Voisento. Dort finden Sie detaillierte Informationen und Einblicke in diese aufregende Technologie.