Recap: Chatbot Summit 2017 in Berlin
Am 26. Juni 2017 fand in Berlin der zweite Chatbot Summit statt: Eine Konferenz, die alle Aspekte moderner Konversationstechnologie zusammenfasst – von Chatbot User Interfaces und Geschäftsmodellen bis hin zum Maschinellen Lernen für die Verarbeitung natürlicher Sprache.
Um für alle Interessensgruppen spannende Themen bereitstellen zu können, war die Konferenz in diesem Jahr dreigeteilt: Neben einer Hauptbühne gab es eine weitere für Produkt- und UX-Design sowie eine Bühne, auf der die Entwicklung von Chatbots und Künstliche Intelligenz im Mittelpunkt standen.
Nach einer kurzen Eröffnungsrede von Aviv Frenkel (Co-Founder und CEO von ENROUTE, einer personalisierten Entertainment-Plattform für Nutzer von Ride-Sharing-Angeboten) startete die erste Panel-Diskussion. Unternehmen, wie die Deutsche Post, die Deutsche Telekom und Zalando, berichteten über ihre ganz persönlichen Erfahrungen mit Chatbots und welche Herausforderungen die ersten Gehversuche mit sich bringen. Kurz zusammengefasst lässt sich festhalten: Chatbots brauchen Aufmerksamkeit und müssen stetig weiterentwickelt und optimiert werden. Es ist ein laufender Prozess, ganz ähnlich dem einer Mitarbeiterentwicklung.
In der darauf folgenden Keynote erzählte uns Adam Orentlicher (IBM) von den beeindruckenden Möglichkeiten der IBM Watson Entwicklungsumgebung für tiefergehende Lernalgorithmen: zum Beispiel für die Krebsdiagnose, Konjunkturprognosen und natürlich zur Optimierung der natürlichen Sprachverarbeitung.
Die anschließende morgendliche Kaffeepause nutzten wir, um Energie zu tanken und Networking zu betreiben. Dann begann auch schon die nächste Session über die aktuelle Medienpräsenz von Chatbots. Franz Buchenberger (CEO von WhatsBroadcast) teilte mit uns den interessanten Gedanken, dass es für Online-Unternehmen heutzutage nur noch zwei Erlösmodelle gibt: Abonnementgebühren oder Werbung. Während das erste Modell einige Einschränkungen mit sich bringt und nicht immer auf alle Projekte übertragbar ist, muss Online-Werbung mittlerweile so zielorientiert wie möglich platziert werden, um von den Nutzern nicht einfach blockiert zu werden. Und genau an dieser Stelle kommen Chatbots ins Spiel: Sie erlauben Unternehmen, ihre Konsumenten bzw. Nutzer besser zu verstehen und eine größere Menge an Nutzerdaten zu generieren. Diese können dazu verwendet werden, um Werbeanzeigen noch zielgerichteter auszustrahlen.
Als Entwickler war ich natürlich vor allem an dem Entwicklungs- und IT-Bereich der Konferenz interessiert. Schon morgens gab es dazu die Panel-Diskussion „How to Build Smarter Bots?“. Die Teilnehmer gaben zu, dass die Chatbots, die heute auf dem Markt existieren, noch ziemlich rudimentär sind. Sie diskutierten darüber, welche Bereiche und Funktionen man in Zukunft noch stärker ins Auge fassen sollte: Datenakquise, verbesserte UX und Lernalgorithmen.
Der spannendste Talk im IT-Bereich fand aber erst nach dem Lunch statt: „Frontiers of Natural Language Understanding“. Als Speaker konnten exzellente Wissenschaftler und Entwickler aus dem Natural-Learning-Processing-Sektor (kurz NLP) gewonnen werden: Alan Nichol (Open-Source-Projekt RASA), Ivan Yamshchikov (KI-Forscher vom Max-Plank-Institut), Kate McCurdy (Ingenieurin der Computerlinguistik bei Babbel.com) und Alice Coucke (Data Scientist bei Snips).
In der Diskussion befassten wir uns eingehender mit der natürlichen Sprachverarbeitung. Die Experten debattierten darüber, wie wir die menschliche Sprache mithilfe von mathematischen Modellen simulieren und dadurch automatisieren könnten. Im Verlauf des Vortrags zeigte sich wieder einmal, dass es aktuell zwar schon einige limitierte Methoden gibt, um die Syntax natürlicher Sprache über gewisse Satz- und Wortabhängigkeiten zu erfassen. Aber wir sind noch weit davon entfernt, das menschliche Bewusstsein tatsächlich verstehen und nachbilden zu können. Es war lustig mit anzusehen, wie hunderte Besucher sich vorgestellt haben, wie ihre Gedankengänge und ihr Bewusstsein wohl funktionieren.
In der Zwischenzeit stellte das Nestlé-Team auf der UX-Bühne ihren Facebook Chatbot „Maggi Kochstudio“ vor und sprach über die Vorteile, die Chatbots mit sich bringen. Neben ihrem smarten Textverständnis, das ständig weiterentwickelt wird, können sie Nutzer auch leichter in eine gewünschte Richtung lenken. Und es muss nicht bei der reinen Texteingabe und -ausgabe bleiben: Bilder, Videos, Auswahl-Buttons, Umfragen – im Grunde genommen sind fast alle Interaktionsarten vorstellbar, die von der entsprechenden Plattform und dem jeweiligen Endgerät unterstützt werden.
Auf der Hauptbühne stellte Justine Cassell (Professorin an der Carnegie Mellon Universität) den beeindruckenden Chatbot SARA vor. Dieser wurde für die soziale Interaktion mit Menschen entwickelt. Cassells Erfahrung zeigt nämlich, dass Nutzer während der Kommunikation mit einem Chatbot vor allem vor allem auf die Emotionalität des Gesprächsablaufs positiv reagieren und weniger von seiner logischen Struktur beeindruckt sind. Das bestätigte auch die Forschungsarbeit ihres Teams an der Carnegie Mellon Universität. Spannend sind auch die weiteren Ergebnisse: Demnach ist ein gut designter Chatbot tatsächlich fähig, verschiedene menschliche Kommunikationsarten zu verstehen und eine Beziehung zum Nutzer aufzubauen.
Wenn es möglich wäre, wäre ich während der Konferenz gerne überall gleichzeitig gewesen. Neben einigen Start-up-Ständen gab es einige spannende Inspirationsquellen für meine Arbeit bei Cocomore. Mich beeindruckte zum Beispiel das Analyse-Tool Botanalytics, das viele interessante Chatbot-Messungen durchführen kann, wie Engagement, Retention und Nutzerverhalten. Und auch das oben erwähnte Projekt RASA, das Open-Source-KI und -Dialogtechnik anbietet, hat einen bleibenden Eindruck hinterlassen.
Am Ende des Tages habe ich die Konferenz mit vielen frischen Ideen und neuen Plänen verlassen – vor allem wegen des tollen Austauschs mit den anderen Teilnehmern.