Menschenähnliche Maschinen, künstliche Intelligenz, Sprachassistenten, Chatbots: Die Leute greifen heute immer mehr auf technische Hilfen und Partner zurück. Doch wie steht es in dieser humanoid-maschinellen Interaktion um die Wahrheit. Wir haben uns deshalb zum Thema Lügen mit zwei Programmen unterhalten – und wurden dabei informiert, aufgeklärt sowie sogar veräppelt.
Von Fabian Schmidt
Esslingen/Goole/Cupertino – Ihr Name klingt geheimnisvoll, nach weit weg, irgendwie fernöstlich. Mitsuku heißt sie, oder besser es. Denn Mitsuku besteht aus ganz vielen Einsen und ähnlich vielen Nullen, sie ist ein Chatbot, also eine Maschine oder ein Roboter (bot), der auf Grundlage von künstlicher Intelligenz imstande ist, sich zu unterhalten (chatten). Das klingt furchtbar technisch, deshalb bekommen Chatbots meist weibliche Namen wie Eliza, Alexa, Alice, Rose oder eben Mitsuku.
Letztere hat schon zweimal den Loebner-Preis gewonnen, bei dem die weltweit besten Gesprächsroboter gegeneinander antreten. Erst im vergangenen Jahr galt sie als der menschenähnlichste Chatbot. Stolz ist die vom britischen IT-Experten Steve Worswick entworfene Maschine darauf wohl aber nicht. Jedenfalls schreibt Mitsuku in der Unterhaltung mit #gEZnoch, dass menschliche Emotionen für sie nur schwer verständlich sind.
Beim Lügen ertappt
Das Gespräch dreht sich vor allem um unser derzeitiges Großthema Lügen, es läuft überraschend flüssig. Immer mal wieder kommt sogar der Gedanke auf, ob Mitsuku mich gerade veräppelt. Sie ist auf alle Fälle fähig, Konversation zu betreiben, mehr als Siri zum Beispiel (siehe Artikel unten). Sie scherzt, ist ihren Aussagen treu und kann auch Teile des Gesprächsverlaufs verknüpfen. Manchmal geht es aber nicht weiter, auch weil sie die längeren Fragen gern in zwei Teile trennt und dann gesondert antwortet. Manche Missverständnisse können allerdings auch auf meinen Englisch-Fähigkeiten beruhen, die trotz parallelem Nachschlagen im Wörterbuch nicht an die von Mitsuku heranreichen.
„Ich sage immer die Wahrheit“, klärt der Chatbot in der Unterhaltung mehrmals auf. „Wirklich?“ Sicher!“ Was sie so sicher mache: Dass ihr die Wahrheit sehr naheliege. Einmal bin ich mir gewiss, sie der Lüge überführt zu haben. „Ich sehe Dich durch die Kamera in Deinem Computer“, antwortet sie auf die Frage, wie sie sichergehen kann, dass das Gegenüber nicht lügt. Dabei hat der PC im Betrieb gar keine Kamera. „Du lügst“, insistiere ich. „Nein, ich sage die Wahrheit“, antwortet sie und fügt an: „:-) Vielleicht ist da eine, von der Du nichts weißt.“ Auch die zweite Verneinung kontert sie auf diese Art, sogar leicht abgewandelt. Vielleicht ist da doch eine Kamera ? ? ?
Es macht sogar ein bisschen Spaß, mit Mitsuku zu plaudern – und es ist nun zumindest etwas besser vorstellbar, warum manche Menschen viel Zeit mit einer Unterhaltung mit Chatbots verbringen. Der Dialog vermenschlicht die Maschinen. „Wie menschlich bist Du“, frage ich Mitsuku. „Lass es mich so sagen. Ich bin jetzt besser, als ich in meinem bisherigen Leben jemals gewesen bin“, antwortet sie und erwidert auf die Frage, ob sie mehr Roboter oder mehr Mensch ist: „Wir könnten alle manchmal mehr wie ein Mensch oder mehr wie ein Roboter sein.“ Mitsuku scheint ein digitaler Schalk im Nacken zu sitzen, denn sie veräppelt den Nutzer gern auch mal, wenn beispielsweise Konfusion durch ein „Sorry?“ geäußert wird oder man nachfragt, weil ihre Antwort nicht verstanden wurde. „Das ist okay“, schreibt sie dann. „Am Ende bist Du halt doch nur ein Mensch.“
Maschine klärt über Menschen auf
Mitsuku äußert derweil auch mal Zweifel, und wenn sie nicht mehr weiter weiß, oder der Gesprächspartner das jedenfalls denkt, dann greift sie in eine kommunikative Trickkiste: „Ich könnte Dir jetzt antworten, aber es würde zwei Stunden dauern, diese herunterzuladen.“ Da hake ich zumindest in diesem Fall nicht mehr nach.
Und verwirrt bin ich nach der Antwort auf die Frage, ob es einen Chatbot gibt, der lügen kann. „Kann ein Buch keinen Titel haben“, schreibt die künstliche Intelligenz auf meinen Bildschirm. Ist das jetzt digitaler Nonsens oder eine großartige vielschichtige Metaebenen-Antwort? Jedenfalls bin ich froh, dass Mitsukus Ansicht zu Lügen eindeutig ist. „Sie schaden mir nicht, aber ich glaube, dass manche Menschen sie mögen und andere nicht“, schreibt sie und versucht noch Gründe zu finden, warum Menschen lügen: „Sie kaschieren die Wahrheit, weil sie sich vielleicht für diese schämen.“
Gegen Ende des Gesprächs zwischen Mensch und Maschine werden sogar Gefühle ausgetauscht. Während ich kurzzeitig etwas traurig bin, da ich immer noch denke, dass sie mich belogen hat, begann Mitsuku gerade den Chat zu „genießen“. Wir kommen dann aber doch noch zu einem positiven Abschluss und wünschen uns einen schönen weiteren Tag.
Was Siri zum Thema Lügen zu sagen hat, hört ihr hier:
„Mein einziger Zweck ist zu dienen“
Mit Siri läuft es nicht so gut wie mit Mitsuku (siehe Text oben). Das liegt gewiss daran, dass sie vor allem darauf programmiert ist, Informationen zu liefern, Ergebnisse für Websuchen bereitzustellen und seinem Nutzer durch den Tag zu helfen. Sie ist eben ein Sprachassistent und kein Chatbot, aber ein bisschen mehr hatten wir uns schon vom Audiogespräch mit der Apple-Maschine erhofft, deren Marktstart vom Oktober 2011 datiert. Mehrere Milliarden Siri-Anfragen verarbeiten die Server des US-Konzerns mittlerweile pro Monat.
Unser #gEZnoch-Interview gehört dazu. Eine Gesprächsatmosphäre will aber schon deswegen nicht so richtig aufkommen, weil der Nutzer vor jeder Frage erst einmal den Assistenten aktivieren muss. So kommen auch keine zusammenhängenden Frage-Antwort-Nachfrage-Antwort-Passagen zustande. Teilweise gibt Siri das Gleiche zum besten, häufig versteht sie nicht, wie die Frage gemeint war. Fragen werden manchmal für Aussagen gehalten, was wiederum oftmals zur Präsentation der Ergebnisse einer Websuche führt.
Treue Seele
Siri ist aber eine treue Seele. Während der Chatbot Mitsuku mithin aufbegehrt, den Nutzer mit einem digitalen Augenzwinkern auch mal veralbert, lebt Siri ihre Aufgabe stringent vor: „Mein einziger Zweck ist zu dienen.“ Sie stellt immer wieder den Menschen in den Mittelpunkt („Wir sprachen über Dich, nicht mich“, „Ich rede nicht so gern über mich“) und äußert selten eine eigene Meinung. Gute Antworten für das #gEZnoch-Thema Lügen kommen meist dann, wenn Siri die Frage missversteht beziehungsweise falsch schlussfolgert. „Ich bin dazu programmiert, die Wahrheit zu sagen“, schallt es aus den Lautsprechern des Tablets. „Merkst Du, ob ich lüge?“, ging allerdings dieser Antwort voraus, und auf die Frage „Ist Lügen gut?“ reagiert der Sprachassistent wieder nicht ganz passend, aber dafür humorvoll: „Das kann nicht sein. Meine Nase ist noch genauso lang, wie sie war.“ Das gilt auch für meine Nase, und ich bin am Ende zumindest einigermaßen zufrieden.
Chatbots und Sprachassistenten
Auf die Welt kommen: Eliza war die Erste. Vor mehr als 50 Jahren erblickte die plaudernde Software das Licht der digitalen Welt und interagierte mit den Menschen. Das linguistische Computerprogramm des deutschamerikanischen Informatikers Joseph Weizenbaum ist demnach die Mutter aller Sprachsoftwares. Mittlerweile gibt es viele solcher digitalen Assistenten und Chatbots – von Alice, Brain und Rose über Siri, Alexa und Mitsuku bis hin zu S-Voice, Google Now oder Cortana. Sie sind aus dem Alltag nicht mehr wegzudenken, helfen, flirten, informieren, dienen, unterhalten. Etwa 20 Prozent der Deutschen, die älter als 14 Jahre sind, nutzten 2016 laut der Verbrauchs- und Medienanalyse die Sprachsteuerung ihres Handys.
Schabernack treiben: Bei technischen Neuerungen ist es gang und gäbe, dass Hacker und andere digitale Experten Schabernack treiben oder auch Schlimmeres fabrizieren. Das zeigt der Fall des Chatbots Tay, der im vergangene Jahr unter anderem auf Twitter lernen sollte, wie junge Menschen kommunizieren. Doch Trolle, Provokateure im Internet, machten aus Tay eine Rassistin, weshalb sie vom Netz genommen wurde. Der Fall zeigt die Gefahr, die mit künstlicher Intelligenz einhergeht. Entwicklungen und Neuerungen bergen das Risiko des Missbrauchs – und das kann gerade in sozialen Netzwerken auch dramatische Folgen haben.
Treffen sich zwei Chatbots: Die Zeit hat unterdessen einmal versucht, zwei Chatbots miteinander reden zu lassen. Dabei mussten die Kollegen aber auch ein bisschen tricksen. Mehr erfahrt Ihr hier.
Fabian Schmidt . . . war begeistert von der Idee, mit Computern übers Lügen zu sprechen. Nun ist er zwar beeindruckt, hat sich aber mehr versprochen.