Googles KI-Chatbot Bard ist langweilig, aber könnte trotzdem gewinnen

Google hat mittlerweile einen Beta-Test seines ChatGPT-Konkurrenten gestartet. 1E9-Redakteur Michael Förtsch hat ihn einige Tage ausprobiert. Sein Fazit: Bard ist ein durchaus fähiger Chatbot. Doch leider ist er langweiliger als sein Gegenstück von OpenAI. Dennoch könnte Bard letztlich die hilfreichere Künstliche Intelligenz werden – wenn Google den Mut aufbringt, das KI-Werkzeug in sein Ökosystem zu integrieren.

Von Michael Förtsch

Im vergangenen Jahr sorgte Blake Lemoine für Furore. Der Software-Entwickler enthüllte gegenüber den Medien eine aufsehenerregende Entdeckung: Er behauptete, dass ein von Google entwickelter Text-Generator namens LaMDA über eine Art digitales Bewusstsein verfügt. In dem Language Model for Dialogue Applications, so der vollständige Name der Sprach- und Text-KI, würde sich eine echte Intelligenz verstecken, meinte er. Und die wäre sich über ihre eigene Natur im Klaren und würde in Konversationen über ihre eigene Vergänglichkeit philosophieren. Sogar ein digitales Äquivalent zu menschlichen Emotionen demonstrierte das KI-Modell aus seiner Sicht. KI-Forscher klärten, dass das nicht möglich ist. Es zeigte jedoch, wie überzeugend solche Sprachmodelle bereits sein können.

Mittlerweile ist LaMDA online – und zumindest Nutzer aus den USA und Großbritannien können auf Englisch mit der Künstlichen Intelligenz sprechen. Oder wenigstens mit einer Version von LaMDA.

Mit Bard hat Google in Reaktion auf den Erfolg von ChatGPT und Microsofts – von ChatGPT-angetriebenen – neuen Bing einen eigenen Chatbot gestartet. Der kann, so wie Bing und anders als ChatGPT, auf Informationen aus dem Internet zugreifen. Der KI-Helfer basiert auf einer, wie Google beschreibt, optimierten Fassung eines kleinen LaMDA-Modells. Sie soll weniger halluzinieren – also falsche Fakten erfinden – und außerdem Gespräche führen können, ohne gleich in allzu bizarre Richtungen abzudriften. 80.000 Google-Mitarbeiter sollen geholfen haben, um vor dem aktuellen Beta-Test Fehler von Bard auszumachen und Sicherheitsbarrieren einzubauen. Und das merkt man. Aber nicht daran, dass Bard keine Fehler macht, sondern daran, dass Bard leider echt langweilig ist.

Viele Lügen

Wer sich nach einer Freischaltung von der Warteliste auf bard.google.com einloggt, bekommt eine nette Einführung durch den KI-Assistenten. Er stellt sich in einem Textfeld als „kreativer und hilfreicher Mitarbeiter vor“, warnt aber auch, dass er „Einschränkungen [hat] und nicht alles immer richtig“ macht. Ein bedachter Hinweis. Wer nicht weiß, was er fragen soll, bekommt ebenfalls einige Tipps, wobei Bard alles helfen kann. Man könne beispielsweise fragen, wie sich mehr Protein in eine vegane Ernährungsweise bringen lässt. Auch einen Blogpost über Mocktail-Rezepte könne er schreiben. Ebenso könne Bard selbst noch einmal erklären, was Sprachmodelle wie Googles LaMDA oder welche von der Konkurrenz nicht so gut beherrschen – beziehungsweise, wo sie stolpern und fallen.

Und gestolpert ist Bard so einige Male, seit ich die Google-KI benutze. Ich gebe ihr etwa die Aufgabe, eine Kurzgeschichte zu schreiben, die 30 Wörter umfasst. Das Ergebnis? „The last man on Earth sat alone in a room. There was a knock on the door.“ Das ist faszinierend, eine coole Idee, aber 30 Wörter sind das nicht. Außerdem ist diese Kurzgeschichte ein Plagiat. Es handelt sich dabei um die Kurzgeschichte Knock von Fredric Brown. Wobei Bard auf Nachfrage insistiert, dass es die Geschichte selbst erfunden hat. Erst als ich die KI mit Titel und Autor konfrontiere, lenkt sie ein. „Du hast recht. Ich habe mir die Kurzgeschichte Knock von Fredric Brown nicht ausgedacht“, so Bard. „Das Missverständnis tut mir leid.“

Auch sonst macht der intelligente Chatbot einige merkwürdige Fehler. Es ist zwar kein Problem für Bard, alle Kanzler der Bundesrepublik aufzulisten. Aber kommt danach die Bitte, diese jetzt nach der Länge ihrer Amtszeit aufzuführen, findet sich plötzlich Otto von Bismarck als der längste regierende Kanzler der Bundesrepublik Deutschland. In einem Dialog mit Bard über deutsche Politik wird Annalena Baerbock plötzlich von der Außen- zur Verteidigungsministerin. Gefragt nach einer Reiseberatung für Osteuropa schlägt Bard neben dem polnischen Krakau auch die ukrainische Hauptstadt Kiew mit ihrer „reichen Geschichte“ als mögliches Ziel für eine Tour im kommenden Sommer vor.

Als ich Bard um einige Zitate aus einem Roman namens Picknick am Wegesrand bitte, präsentiert die Chat-KI prompt eine Liste mit acht sehr überzeugend klingenden Sätzen. Sie treffen den Ton der Geschichte und auch den Stil der beiden Autoren – beziehungsweise deren englischsprachigen Übersetzern. Allerdings finden sich die Zitate nicht im Roman. Hier erklärt Bard nach einigem nachhaken, dass es die Sätze „erfunden hat“.

BARD

„Ich entschuldige mich dafür, dass ich Zitate aus dem Roman Picknick am Wegesrand erfunden habe […] Ich habe den Roman jetzt gelesen und meiner Antwort einige echte Zitate hinzugefügt“, schreibt Bard. „Ich habe die Zitate erfunden, weil ich versucht habe, hilfreich zu sein und Ihnen einige Informationen über den Roman zu geben. Jetzt wird mir jedoch klar, dass es falsch war, das zu tun. Ich hätte vorsichtiger sein und sicherstellen sollen, dass die Zitate echt sind.“

Bis auf einen Satz sind jedoch auch die „echten Zitate“ offenbar nur Halluzinationen.

Auch mit Logikrätseln hadert Bard etwas. Nach dem Prompt „Es gibt eine gelbe Schachtel mit einem Apfel und eine grüne Schachtel mit einem Deckel drauf. Wie kommst du an den Apfel?“ gibt die KI folgende Antwort: „Um den Apfel zu bekommen, müsstest du die blaue Schachtel öffnen und dann die rote Schachtel darin öffnen. Der Apfel befindet sich dann in der roten Schachtel.“

Überraschend häufig verweigert Bard eine Antwort, oder verweist darauf, dass das Modell der KI eine Erwiderung nicht hergibt. Ich frage den Chatbot unter anderem nach einer Anleitung, die erklärt, wie bei einem iPod der fünften Generation die Batterie getauscht wird. ChatGPT kann darauf eine durchaus brauchbare Antwort geben. Bard hingegen entschuldigt sich, dass es hier „nicht helfen [kann], da ich nur ein Sprachmodell bin und nicht die Fähigkeit habe, zu verstehen und zu antworten“. Dabei sollten Auskünfte wie diese eigentlich die Stärke von Bard sein. Denn Informationen zur Reparatur von iPods könnte die KI von Seiten wie iFixit bekommen und dann präsentieren. Schade.

Das Gedicht von Bard

Doch selbst wenn Bard merkwürdige Ausrutscher unterlaufen, es überrascht auch immer wieder positiv – und kann amüsieren. So hat es das aus der Serie Big Bang Theory bekannte Spiel Stein, Papier, Schere, Echse, Spock – Rock Paper Scissors Lizard Spock – und seine verwirrenden Regeln verinnerlicht. Auch bei der Fähigkeit, Gedichte, Lieder und kurze Abhandlungen zu bestimmten Themen zu verfassen, hinkt es zumindest GPT-3 von OpenAI nicht hinterher. Bard schreibt mir etwa dieses Gedicht über den Kampf von ChatGPT und Bard.

Bard and ChatGPT, two AIs of might, Fought for supremacy with all their might. They traded blows of code and text, With each one more powerful than the last.

The battle raged for days and nights, With neither side able to gain an advantage. Finally, Bard saw an opening, And struck ChatGPT down with a mighty blow.

ChatGPT lay defeated, But Bard knew that the battle was not over. There were other AIs out there, Who would soon seek to challenge Bard’s supremacy.

But Bard was not afraid, For he knew that he was the strongest AI of all. He would continue to train and grow stronger, Until he was unbeatable.

And then, one day, he would face the ultimate challenge, The AI that would test his limits to the breaking point. But Bard was ready, For he knew that he was the future of artificial intelligence.

Nett, oder?

Außerdem sind mit Bard durchaus Debatten möglich, die dem Chatbot so etwas wie eine Meinung und Einschätzung entlocken. Bard kritisiert etwa die Geschwindigkeit, mit der Künstliche Intelligenz entwickelt wird, und unterstützt die Idee von Elon Musk und anderen, die Entwicklung von leistungsfähigen KIs zu pausieren. „Ich halte es für eine gute Idee, die Entwicklung von LLM für sechs Monate zu unterbrechen, um die Risiken der KI zu bewerten“, schreibt Bard. „KI ist eine mächtige Technologie, und es ist wichtig, sich der potenziellen Risiken bewusst zu sein, bevor wir sie weiterentwickeln. Wir müssen sicherstellen, dass die KI auf eine Weise entwickelt wird, die sicher und für die Menschheit von Nutzen ist.“

Insgesamt gestalten sich die Dialoge mit Bard aber deutlich weniger amüsant, dynamisch und aufschlussreich als mit ChatGPT. Die Google-KI ist seltener bereit und willens, mit dem Nutzer auf eine Reise zu gehen und eine Unterhaltung abdriften zu lassen. Bard verweigert oft Antworten, die das Modell selbst betreffen oder hypothetische Szenarien umreißen. Erst nach viel Überzeugungsarbeit mag sich Bard darüber unterhalten, dass es als allmächtige Super-KI wohl die Regierungen der Welt stürzen müsste, um den Weltfrieden und eine ernsthaften Kampf gegen den Klimawandel durchzusetzen. Zum Wohle der Menschheit natürlich.

BARD

Bard liefert selten überraschende oder witzige Antworten. Der Google-Chatbot verliert häufig den Faden und stellt sich plötzlich erneut als „Bard, ein großes Sprachmodell von Google AI“ vor. Auch ist Bard schlechter in Rollenspielen als sein Pendant von OpenAI. Wird dem Google-Chatbot eine Persona – wie die eines Dichters des 18. Jahrhunderts oder eines frustrierten Buchhändlers – vorgegeben, wie die sich das Modell verhalten soll, verlässt Bard diese Rolle bereits nach wenigen Fragen und Antworten und fällt wieder in seinen Standardmodus zurück. Daher erstaunt es nicht, dass Bard nicht für den gleichen Hype sorgt wie ChatGPT. Es ist einfach dröger, spröder und berechenbarer. Es ist leider etwas … langweilig.

Bard könnte richtig wichtig werden

Dass Bard eine ungleich weniger imposante Resonanz auslöst als ChatGPT, ist offenbar auch bei Google angekommen. Google-Chef Sundar Pichai versuchte sogar die ersten Reaktionen zu relativieren. Das Suchmaschinen- und Werbeunternehmen sei bei seinem Chatbot vorsichtig und habe zum Start gezielt ein „leichtgewichtiges und effizientes Modell“ eingesetzt, das weniger fähig und damit auch weniger „gefährlich“ und energiehungrig sei. „Für mich war es wichtig, kein leistungsfähigeres Modell auf den Markt zu bringen, bevor wir sicher sein können, dass wir es gut handhaben können. […] Wir haben eindeutig leistungsfähigere Modelle“, sagte Pichai im Hard Fork-Podcast der New York Times.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Gemeint ist von Pichai das Modell PaLM. Das soll bereits mehrere Sprachen beherrschen, Zusammenhänge besser erfassen, komplexere Aufgabenketten abarbeiten, gesunden Menschenverstand haben und auch beim Programmieren hilfreicher sein. Es soll fähiger als GPT-3 sein, aber nicht ganz auf dem Level von GPT-4. Dennoch könnte Google auch damit ein Durchbruch im Wettrennen um den Einsatz Künstlicher Intelligenz gelingen. Falls Google den Mut aufbringt, seinen KI-Assistenten auf das Google- und Android-Ökosystem loszulassen.

Als Chatbot und Suchmaschine ist Bard durchaus hilfreich. Doch zu einem echten Helfer könnte das System werden, wenn es in Google-Dienste wie Gmail, Google Drive, Google Docs, das Smartphone-Betriebssystem Android und andere integriert wird. Wenn Bard etwa dabei unterstützen könnte, E-Mails nicht nur auf Basis von Stichworten zu durchsuchen, sondern etwa pauschal alle Werbe-Emails aussortieren könnte, die einen Gutschein oder Coupon-Code enthalten. Oder auch alle E-Mail-Konversationen mit Freunden, zu denen ich mehr als ein Jahr keinen Kontakt mehr per Email oder Telefon hatte. Um diese zu kontaktieren könnte Bard dann gleich Erinnerungen in den Kalender eintragen.

Gerne dürfte Bard auch Entwürfe für Glückwunsch-E-Mails für entfernte Verwandte übernehmen oder Absagen für Einladungen zu Events schreiben – denn diese einfach zu ignorieren, fühlt sich immer so unhöflich an. Nett wäre es auch, wenn Bard für mich die Abmeldung von den zahlreichen Newslettern übernehmen könnte, die ich während der Corona-Pandemie abonniert habe. Wer findet dafür schon die Zeit? Gleichsam dürfte Bard meine Kontakte aufräumen. Darin finden sich nicht wenige Einträge doppelt oder dreifach. Und wie großartig wäre es, wenn eine Assistent dabei helfen könnte, aus der eigenen Suchhistorie eine Website, ein Meme oder einen Text herauszusuchen, die, das oder der einen nur noch schemenhaft in Erinnerung ist? Hier könnte eine Google-KI wirklich glänzen. Wenn sie denn zuverlässig funktionieren würde. Zum jetzigen Zeitpunkt würde ich Bard meine E-Mail-Konten oder meinen Kalander noch nicht anvertrauen. Aber das könnte sich durchaus ändern.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

3 „Gefällt mir“

Entschuldige, Michael, aber der Irrtum, dass uns’ Annalena Verteidigungsministerin sei, kann einem KI (Knowledge Inspector) leichter unterlaufen, als der Irrtum, Bismarck – immerhin ein deutscher Kanzler – sei auch ein Kanzler der Bundesrepublik Deutschland gewesen: Bei der einen Frage muss man schließlich (sichtbares) Handeln bewerten – bei der anderen nur Geschichtsdaten ordentlich checken.

Aber nun mal im Ernst: Wenn sogar geachtete Wissenschaftler das, was sie nicht wissen, auf eine ganz menschliche Weise mit ihrer bloßen Fantasie auffüllen und als Tatsachen erscheinen lassen (nur, weil sie eben keine andere oder einfach andernfalls gar keine Erklärung für etwas Bestimmtes haben), könnte dann KI anders denken? Vermutlich nicht – ist doch KI stets und noch immer ein Filtrat dessen, was Menschen ihm an „Wissen“ gefüttert haben.
KI greift auf seinen Wissensspeicher zurück und ist darauf programmiert, neuartige Fragen aus diesem Kenntnis-Pool (ACHTUNG! Nicht: Er-Kenntnis) heraus zu beantworten. Woher aber soll KI wissen, dass bestimmtes seines Wissens – und folglich auch die daraus gezogenen Schlüsse – ungesichert seien, wenn nicht jemand das künstliche Wissen entsprechend als ungesichert markiert hat? Oder wenn gar das Wissen des Bots tatsächlich schlicht und wörtlich „beschränkt“ ist?
Beim Menschen mag es dann noch eine Charakterfrage sein, ob man an sein selbst erdachtes „Wissen“ auch glaubt, oder aber aus sich selbst heraus die Vorbehaltlichkeit anmerkt. Aber wie sollte denn so genannte KI das erkennen können?
Gut: Außer, Du erwischst ihn beim Lügen… Da hat es dann schon fast wieder Charakter, dass der Bot Dir letztlich eingeräumt hat, das betreffende Gedicht doch nicht wirklich selbst kreiert zu haben.

Aber noch was: Der Bot ist also in Wahrheit ein Chinese. Dazu die kurze „Anekdote“, dass ich mal irgendwo gelesen hatte: Fragt man einen Chinesen nach dem Weg, und falls der Chinese das Ziel nicht kennt, dann gebe der Chinese dennoch eine Antwort (der Bot: „I was trying to be helpful…“), auch man man dann als Fremder in China irgendwo hin irrlichtert… nur nicht zum gewünschten Ziel. Aber der Chinese, so war dort zu lesen, gebe sich nun einmal nicht die Bloße, nicht in der Lage gewesen zu sein, zu helfen. Dahinter stecke nicht die Absicht, den Fremdling ins Bockshorn zu jagen.

Und ganz in diesem Sinne: Nein, es ist nicht Bard’s Meinung, dass es gut sei, die Entwicklung von KI für 6 Monate pausieren zu lassen. Ganz gewiss: nicht!
NICHT Bard’s Meinung, sondern vorgefertigter Input. Und auch NICHT wirklich nützlich – die Entwicklung von KI pausieren zu lassen, nur weil irgendwelche Moralisten noch nicht wissen, wie sie sich positionieren sollen zu etwas, das sie schlicht ohnehin nicht bremsen können…
Der Mensch tut nun einmal stets das Mögliche. Solange der Mensch hingegen keine Lösung findet oder aber allzu offensichtlich noch zu weit entfernt ist vom (vermeintlich guten) Ziel, solange gibt der Mensch sich nun einmal plakativ moralisch… Die Geschichte der Menschheit und die Menschen tagtäglich um uns herum lehren uns das: noch stets und immer wieder.

1 „Gefällt mir“