Zum Inhalt springen

BIKI: Sprachmodelle

Aus BIS-Hilfe-Wiki

Das Ziel von BIKI ist es verschiedene Sprachmodelle verfügbar zu machen. Sprachmodelle haben unterschiedliche Stärken, Schwächen und Kosten und durch die Wahl des Modells können Sie das Verhalten von BIKI beeinflussen. Zum Start werden dabei die ChatGPT Modelle von OpenAI angeboten und von der GWDG betriebene Open-Source-Modelle. Am Ende dieser Seite finden Sie eine Beschreibung dazu, worin sich Sprachmodelle unterscheiden können.

Verfügbare Sprachmodelle

Diese Modelle werden aktuell in BIKI angeboten:

Sprachmodelle von OpenAI

Die ChatGPT Sprachmodelle werden von dem US Unternehmen OpenAI angeboten und betrieben. In Hinblick auf den Datenschutz bedeutet dies, dass die in BIKI eingegebenen Daten an Server in den USA übertragen werden. Siehe dazu auch den Abschnitt 'Datenschutz' weiter unten.

Modellname Anbieter Größe des Kontextfensters (Tokens) Maximale Antwortgröße (Tokens) Aktualität Kosten Geschwindigkeit Reasoning Fähigkeit Anmerkungen zum Modell Besondere Hinweise
ChatGPT 5.2 Chat OpenAI 128.000 16.384 31. August 2025 Mittlere Kosten Mittel nein Beschreibung des Modells von OpenAI (englisch) Die Temperatureinstellung spielt bei diesem Modell keine Rolle
ChatGPT 5.1 Chat OpenAI 128.000 16.384 30. September 2024 Mittlere Kosten Mittel nein Beschreibung des Modells von OpenAI (englisch) Die Temperatureinstellung spielt bei diesem Modell keine Rolle
ChatGPT 5.2 OpenAI 400.000 128.000 31. August 2025 Hohe Kosten, höher als das 5.1 Modell Langsam, soll aber den Denkaufwand und damit die Geschwindigkeit dynamisch anpassen. Über die Einstellung zum Denkaufwand kann dies beeinflusst werden ja Beschreibung des Modells von OpenAI (englisch) Die Temperatureinstellung spielt bei diesem Modell keine Rolle
ChatGPT 5.1 OpenAI 400.000 128.000 30. September 2024 Mittlere Kosten Langsam, soll aber den Denkaufwand und damit die Geschwindigkeit dynamisch anpassen. Über die Einstellung zum Denkaufwand kann dies beeinflusst werden ja Beschreibung des Modells von OpenAI (englisch) Die Temperatureinstellung spielt bei diesem Modell keine Rolle
ChatGPT 5 Chat OpenAI 128.000 16.384 30. September 2024 Mittlere Kosten Mittel nein Beschreibung des Modells von OpenAI (englisch) -
ChatGPT 5 OpenAI 400.000 128.000 30. September 2024 Mittlere Kosten Langsam ja Beschreibung des Modells von OpenAI (englisch) Die Temperatureinstellung spielt bei diesem Modell keine Rolle
ChatGPT 5 mini OpenAI 400.000 128.000 31. Mai 2024 Geringe Kosten mittel ja Beschreibung des Modells von OpenAI (englisch) Die Temperatureinstellung spielt bei diesem Modell keine Rolle
ChatGPT 5 nano OpenAI 400.000 128.000 31. Mai 2024 Sehr geringe Kosten schnell ja Beschreibung des Modells von OpenAI (englisch) Die Temperatureinstellung spielt bei diesem Modell keine Rolle
ChatGPT 4.1 OpenAI 1.047.576 - Juni 2024 Potentiell hohe Kosten, insbesondere wenn umfangreiche Inhalte verarbeitet werden Mittel nein Beschreibung des Modells von OpenAI (englisch) -
ChatGPT 4.1 mini OpenAI 1.047.576 - Juni 2024 Verspricht geringe Kosten, aber umfangreiche Inhalte können auch hier die Kosten treiben Hoch nein Beschreibung des Modells von OpenAI (englisch) -
ChatGPT 4.1 nano OpenAI 1.047.576 - Juni 2024 Verspricht geringe Kosten, aber umfangreiche Inhalte können auch hier die Kosten treiben Hoch nein Beschreibung des Modells von OpenAI (englisch) -
ChatGPT 4o OpenAI 128.000 - Oktober 2023 Potentiell hohe Kosten, insbesondere wenn umfangreiche Inhalte verarbeitet werden Mittel nein Beschreibung des Modells von OpenAI (englisch) -
ChatGPT 4o mini OpenAI 128.000 - Oktober 2023 Verspricht geringe Kosten, aber umfangreiche Inhalte können auch hier die Kosten treiben Hoch nein Beschreibung des Modells von OpenAI (englisch) -
ChatGPT o3-mini OpenAI 200.000 - Oktober 2023 Mittel Langsam ja Beschreibung des Modells von OpenAI (englisch) Die Temperatureinstellung spielt bei diesem Modell keine Rolle

Von der GWDG betriebene Sprachmodelle

Die Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen (GWDG) betreibt für wissenschaftliche Einrichtungen eine Reihe von Sprachmodellen. In Hinblick auf den Datenschutz bedeutet dies, dass die in BIKI eingegebenen Daten an Server in Deutschland übertragen und dort verarbeitet werden. Siehe auch die Nutzungsbedingungen (PDF) und die Datenschutzerklärung (PDF).

Die Sprachmodelle kommen dabei von unterschiedlichen Herstellern, aber auch wenn ein Sprachmodell ursprünglich zum Beispiel von Meta (Facebook) entwickelt wurde, so findet bei der Nutzung in BIKI über die GWDG keinerlei Datenübertragung an diese Hersteller statt.

Modellname Anbieter Größe des Kontextfensters Maximale Antwortgröße Aktualität Kosten Geschwindigkeit Reasoning Fähigkeit Anmerkungen zum Modell Besondere Hinweise
Apertus 70B GWDG 65.000 - September 2025 Aktuell keine schnell nein Modellseite der ETH Zürich -
Llama 3.1 (8B) GWDG 128.000 - Juli 2024 Aktuell keine schnell nein Modellseite von Meta -
Llama 3.3 (70B) GWDG 128.000 - Dezember 2024 Aktuell keine hoch nein Modellseite von Meta -
Qwen3 (32B) GWDG 32.768 - Aktuell keine langsam ja Hersteller: Alibaba / Modellseite bei HuggingFace Das Modell gibt seine Reasoningphase mit aus
Qwen2.5 (72B) GWDG 128.000 - September 2024 Aktuell keine mittel nein Hersteller: Alibaba -
Qwen 3 Coder 30B GWDG 256.000 - Juli 2025 Aktuell keine schnell nein Modellseite von Alibaba -
DeepSeek R1 Distill Llama 70B GWDG 128.000 - Januar 2025 Aktuell keine langsam ja Modellseite von DeepSeek Das Modell gibt seine Reasoningphase mit aus

Archivierte Sprachmodelle

Diese Modelle wurden früher in BIKI angeboten:

  • Qwen2: Wurde am 28.10.2024 durch das 2.5 Modell abgelöst
  • Llama 3.1 (70B): Wurde am 29.01.2025 durch das 3.3 Modell abgelöst
  • Llama 3 (8B) und Llama 3 (70B): Wurden am 21.08.2024 durch die 3.1 Modelle abgelöst
  • Mistral Large: Wurde im August 2025 aus BIKI entfernt
  • Codestral 22B: Wurde im Oktober 2025 aus BIKI entfernt

Referenzen darauf können weiterhin in alten Konversationen auftauchen.

Eigenschaften von Sprachmodellen

Die Modelle unterscheiden sich in ihren Eigenschaften und je nach Einsatzzweck kann das eine oder das andere Sprachmodelle das am besten geeignete sein:

Datenschutz

Generell bieten wir natürlich nur Sprachmodelle an, mit denen eine datenschutzkonforme Nutzung möglich ist. In unserer Datenschutzerklärung finden Sie Hinweise dazu, wie genau die jeweilige Vertragsgestaltung mit den Anbietern der Sprachmodelle aussieht. Sie sind bei der Nutzung trotzdem verpflichtet bei der Nutzung von BIKI die generellen Regelungen zum Datenschutz und zur Vertraulichkeit zu beachten.

Da BIKI verschiedene Betreiber*innen von Sprachmodellen nutzt gibt es aber durchaus Unterschiede zum Beispiel bei der Frage, ob die eingegebenen Daten Deutschland bzw. die EU verlassen, oder nicht.

Generelle Leistungsfähigkeit (Größe)

Die Modelle unterscheiden sich darin, mit wie vielen Daten sie trainiert und wie stark diese Daten verdichtet wurden (welcher Anteil der Trainingsdaten also nicht 1-zu-1 gespeichert wurde). Es ist nicht einfach dafür einen direkt verständlichen Parameter zu benennen, hier muss man selbst einen Eindruck davon gewinnen, wie gut ein bestimmtes Modell auf Fragestellungen reagiert.

Eine grobe Einschätzung ist über die Größe bzw. die Anzahl der sogn. Parameter eines Sprachmodells möglich: Mehr Parameter bedeuten normalerweise auch eine größer Leistungsfähigkeit bzw. eine bessere Faktentreue. Diese wird aber auch meist durch geringere Geschwindigkeit und höhere Nutzungskosten erkauft.

Bitte beachten Sie aber, dass Sprachmodelle generell nicht zuverlässig sind bei der fehlerfreien Wiedergabe von Fakten. Lesen Sie dazu auch den Artikel 'Warum halluzinierst Du, BIKI?' im Frag BIKI Blog.

Reasoning Fähigkeit

In BIKI gibt es verschiedene Modell mit der sogn. Reasoning Fähigkeit. Im Blog haben wir hier eine Beschreibung dazu. Kurz gesagt legen Reasoning Modelle eine 'Nachdenkphase' ein, bevor sie ihre Antwort geben. Bei einigen Modellen kann man zuschauen, wie dieses Nachdenken aussieht. Durch die Nachdenkphase verbessert sich in einigen Fällen die Qualität der Antworten, dafür werden die Antworten langsamer generiert.

Trainingsdaten

Sprachmodelle werden auf großen Mengen von Trainingsdaten aufgebaut. Die Datengrundlage variiert dabei stark, zum Beispiel beim Umfang der zum Training verwendeten deutsch-sprachigen Texte. Manche Modelle, die im Englischen sehr gut funktionieren, können auf deutschsprachigen Anfragen deutlich schlechtere Ergebnisse zeigen.

Inhaltliche Zensur

Mit Erscheinen der Sprachmodelle von DeepSeek - siehe diese Meldung - entstand eine intensive, öffentliche Diskussion über die Frage, in wie weit der Hersteller oder in diesem Fall chinesische Behörden Einfluss auf die Trainingsdaten bzw. das Antwortverhalten der Sprachmodelle genommen haben.

Generell ist es durch die Intransparenz der Funktionsweise von Sprachmodellen nicht ohne weiteres möglich zu erkennen, in wie weit z. B. bei der Auswahl der zum Training eines Modells verwendeten Daten oder bei der Optimierung des Antwortverhaltens Einfluss in die eine oder andere Richtung genommen wurde.

Diesen Aspekt muss man zusätzlich zum Problem des Halluzinierens berücksichtigen, wenn man die Antworten von Sprachmodellen bewertet.

Aktualität / Reichweite des Wissensstands

Sprachmodelle werden einmal trainiert und lernen dann nichts mehr dazu. Sie können also kein Wissen enthalten, welches nach dem Ende des Trainings erst entstanden ist. Hierfür gibt es den Begriff des 'Knowledge Cutoff Dates', den man im Deutschen mit Wissensstichtag" oder "Wissensstand-Datum" übersetzen kann.

Kein Sprachmodell kann daher Wissen über Ereignisse der letzten Wochen und Monate enthalten bzw. generell über Ereignisse, die nach diesem Stichtag passiert sind. Trotzdem wird ein Sprachmodell auf Fragen nach solchen Ereignissen antworten, als ob es davon Kenntnisse hätte, also 'halluzinieren'.

Größe des Kontextfensters (das Gedächtnis)

Sprachmodelle können die Inhalte einer Konversation für folgende Fragen verwenden (sich diese Inhalte also 'merken') und bei der Generierung neuer Antworten nutzen. Allerdings ist dieses Gedächtnis nicht unbegrenzt. Die Größe des sogenannten Kontextfensters definiert, in welchem Umfang die vorherige Konversation berücksichtigt werden kann.

Alle Inhalte einer Konversation, die nicht mehr in das Kontextfenster passen, sind faktisch 'vergessen' für das Sprachmodell. Die Größe wird dabei in sogn. Tokens festgelegt. Es ist nicht ganz einfach Tokens in Buchstaben oder Worte umzurechnen, als Faustformel kann von ca. 2 Tokens für ein Wort ausgehen. Von OpenAI gibt es hier eine Seite, in der man sich für einen gegebenen Text anzeigen lassen kann, wie dieser in Tokens unterteilt wird.

Kosten

Die Modelle werden von den Sprachmodellanbietern mit unterschiedlichen Kosten versehen. Zusätzlich fallen immer Kosten an für die Tokens, die zur Fortführung einer Konversation erneut an das Sprachmodell geschickt werden. Sprachmodelle mit einem großen Kontextfenster können hier also deutlich höhere Kosten pro Frage verursachen, da jedes Mal der gesamte Kontext mitgeschickt wird.

Eine genauere Behandlung des individuellen Nutzungskontingents und wie die Kosten der Modelle hier berechnet werden finden Sie in diesem Artikel.

Geschwindigkeit

Sprachmodelle haben immer eine gewisse Wartezeit bzw. Generierungsgeschwindigkeit, da die Ergebnisse bei jeder Anfrage neu erzeugt werden. Je nach Größe, Anbieter und Komplexität kann es hier zu unterschiedlichen Wartezeiten / Geschwindigkeiten kommen.

Bei den reasoning models - zu denen das DeepSeek R1 Modell gehört - kommt noch die 'Nachdenkphase' hinzu, die das Antwortverhalten weiter verlangsamt.

Berücksichtigung der Temperatur

In den Einstellungen kann die sogn. Temperatur gesetzt werden, die die 'Kreativität' der Antwortgenerierung beeinflusst. Es gibt aber Modelle, bei denen die Einstellung keine Rolle spielt.