Alpaca: Die Universität Stanford hat einen ChatGPT-Konkurrenten entwickelt, der auf Billig-Computern läuft

Ein Team der Universität Stanford hat für weniger als 600 US-Dollar einen Konkurrenten zu OpenAIs GPT-3-Modell erstellt. Dieser basiert auf einem Open-Source-Sprachmodell von Meta. Die Alpaca 7B getaufte KI soll auf normalen PCs lauffähig sein und bald veröffentlicht werden.

Von Michael Förtsch

Erst vergangene Woche hat OpenAI GPT-4 vorgestellt, das Nachfolgemodell zu GPT-3.5, auf dem der erfolgreiche KI-Chatbot ChatGPT basiert. Wie das Unternehmen zwischenzeitlich klargestellt hat, will es nicht länger offen und transparent über seine Entwicklungen kommunizieren. So soll nicht offengelegt werden, wie und mit welchen Daten die KI-Systeme trainiert, wie sie abgesichert oder vor Missbrauch geschützt werden. Das hat für viel Kritik gesorgt und auch Befürchtungen geweckt, dass sich OpenAI mit der finanziellen Unterstützung durch Microsoft zu einem Monopolisten im Bereich der Künstlichen Intelligenz entwickeln könnte. Denn für die Erstellung von großen KI-Sprachmodellen und ihre Bereitstellung sind gigantische Summen notwendig. Wobei, vielleicht auch nicht, wie nun ein Team der Universität Stanford demonstriert. Denn das hat ein eigenes KI-Modell vorgestellt.

Das Sprachmodell der Stanford-Forscher nennt sich Alpaca 7B und umfasst sieben Milliarden Parameter, also Datenpunkte. Zumindest laut den Entwicklern sei das Modell hinsichtlich seiner Fähigkeiten und Geschwindigkeit mit text-davinci-003 vergleichbar, einer der früheren Zwischenversionen von GPT-3 beziehungsweise GPT-3.5. Entwickelt wurde Alpaca jedoch nicht von Grund auf. Stattdessen basiert es auf einem LLaMA getauften Sprachmodell, das die Facebook-Firma Meta in den vergangenen Jahren aufgebaut und für Forschungs- und Bildungseinrichtungen freigeben hat. Wie die Stanford-Forscher in einer Ankündigung ausführen, haben sie das Modell getuned – also mit weiteren Texten und Konversationen trainiert.

Konkret sei das Modell mit 52.000 Beispielen für Frage-Antwort-Konversationen und das Befolgen von Instruktionen gefüttert worden, um die Fähigkeit des Basismodells zu verbessern, auf Fragen und Befehle konkrete Antworten und Ergebnisse zu liefern. Darunter seien etwa Aufforderungen, eine E-Mail zu schreiben, einen Text zusammenzufassen und Ähnliches. Um das Trainingsmaterial zu erzeugen, hat das Team auf die Werkzeuge der Konkurrenz zugegriffen – nämlich GPT-3.5. Lediglich drei Stunden habe das fine tuning auf den Servern eines Cloud-Computing-Anbieters gedauert und weniger als 600 US-Dollar gekostet.

Läuft auf günstigen Geräten

Alpaca 7B könne für zahlreiche Anwendungen genutzt werden, für die derzeit GPT-3 und GPT-3.5 eingesetzt werden. Es zeige sogar „viele ähnliche Verhaltensweisen wie OpenAIs text-davinci-003“. Jedoch hat Alpaca 7B einen großen Vorteil, wie die Entwickler sagen. Im Gegensatz zu den GPT-3-Modellen ist die KI der Stanford-Forscher deutlich weniger hungrig, was Rechenkraft betrifft. Das lediglich 3,9 Gigabyte große Alpaca 7B könne in zufriedenstellender Geschwindigkeit auf günstiger Hardware laufen, schreiben die Entwickler. Gemeint sind damit klassische Laptops, PCs und wohl auch Smartphones. Dass das realistisch ist, hat sich in den vergangenen Wochen bereits gezeigt. Denn das LLaMA-Modell von Meta wurde geleaked. Einige Entwickler haben daraufhin demonstriert, dass es mit entsprechenden Tools auf PCs, auf einem Smartphone und sogar einem Raspberry Pi 4 betrieben werden kann.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Wie die Stanford-Forscher angekündigt haben, soll Alpaca 7B in „in der nahen Zukunft“ auf Github veröffentlicht werden. Jedoch soll es allein für „die akademische Forschung“ freigegeben werden. Eine kommerzielle Nutzung soll nicht erlaubt sein. „Wir glauben, dass die Freigabe die akademische Gemeinschaft in die Lage versetzen wird, kontrollierte wissenschaftliche Studien über instruktionsgeleitete Sprachmodelle durchzuführen“, so das Team. Die Forscher warnen zudem, dass Alpaca 7B über keinerlei Beschränkungen und Sicherheitsbarrieren verfüge, die einen Missbrauch verhindern könnten.

Ebenso habe das Stanford-Modell die gleichen Probleme wie andere Sprachmodelle. Es halluziniere, erfinde beispielsweise Daten und Fakten, gebe teils sehr rüde und beleidigende Antworten und lüge den Nutzer selbstsicher an.

Wer Alpaca testen will, der kann das in einer ChatGPT-artigen Web-Anwedungen tun, die derzeit jedoch vollkommen überlastet ist und von den Entwicklern notdürftig mit einem Inhaltefilter gegen Missbrauch gesichert wurde.

Update: Das Entwicklerteam hat die Web-Demo von Alpaca offline genommen, die zuletzt aufgrund vieler Anfragen kaum nutzbar war. „In Anbetracht der Hosting-Kosten und der Unzulänglichkeiten unserer Inhaltsfilter haben wir beschlossen, die Demo einzustellen“, erklärte das Team gegenüber The Register. Der Quellcode ist jedoch weiter auf GitHub verfügbar. Auch das Modell soll weiterhin wie angekündigt erscheinen.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

3 „Gefällt mir“

Schade, auch zwei Tage danach geht die Seite noch immer nicht, hätte gerne etwas herumgespielt :confused:

2 „Gefällt mir“

Ja, … hab die mittlerweile auch mal angeschrieben, was da los ist ; )

3 „Gefällt mir“

Von der LoRa-Variante von Alpaca 7B, von der im Tweet die Rede ist, gibt’s eine Demo als Google Colab. Darüber hinaus gibt es auch schon Alpaca.cpp (auch mit dem 7B Model), dass man bequem auf seinem Macbook installieren kann: Link :tada:

@Sp1eLmaNn Im ChatGPT Interface Stil gibt’s Alpaca hier.

2 „Gefällt mir“

Toller Artikel @Michael ! :clap:

Die $600 beziehen sich allerdings nicht auf die Hardware, auf der Alpaca laufen kann, sondern auf die entstandenen Kosten zum Aufbau & Trainieren des Models: $500 für das Generieren das 53k Frage-Antwort-Materials mittels davinci-003 und dann nochmal $100 für cloud-basiertes Fine-tuning.

2 „Gefällt mir“

Danke! Bereits gefixt.

1 „Gefällt mir“

Bin jedes Mal aufs neue erstaunt, wie schnell die Community ist. Hab gerade das Colab am laufen und bin durchaus beeindruckt.

3 „Gefällt mir“

Besten Dank! @ThomasK

2 „Gefällt mir“

man kommt kaum hinterer :joy:

Auf Alpaca aufbauend: GPT4All, mit 400k Instruktions-Trainingsdaten (per GPT-3.5), läuft in abgespeckter Version auch schon auf dem Macbook

1 „Gefällt mir“

Ja, ich hoffe, dass ich mir das im Laufe des Wochenendes anschauen kann.

2 „Gefällt mir“