BIKIStart: Unterschied zwischen den Versionen
Keine Bearbeitungszusammenfassung |
Keine Bearbeitungszusammenfassung |
||
Zeile 9: | Zeile 9: | ||
* Aktualität: Sprachmodelle werden einmal trainiert und lernen dann nichts mehr dazu. Sie können als kein Wissen enthalten, was nach dem Ende des Trainings erst entstanden is, z. B. kann kein Wissen über Ereignisse der letzten Wochen und Monate enthalten sein | * Aktualität: Sprachmodelle werden einmal trainiert und lernen dann nichts mehr dazu. Sie können als kein Wissen enthalten, was nach dem Ende des Trainings erst entstanden is, z. B. kann kein Wissen über Ereignisse der letzten Wochen und Monate enthalten sein | ||
* Größe des Kontextfensters: Sprachmodelle können die Inhalte einer Konversation für folgende Fragen verwenden (sich 'merken') und auf diese zurückgreifen für die Generierung neuer Antworten. Allerdings ist dieses Gedächtnis nicht unbegrenzt und die Größe des sogenannten Kontextfensters definiert, in welchem Umfang die vorherige Konversation berücksichtigt werden kann. Alle Inhalte einer Konversation, die nicht mehr in das Kontextfenster passen, sind faktisch 'vergessen' für das Sprachmodell. Die Größe wird dabei in sogn. ''Tokens'' festgelegt. Es ist nicht ganz einfach Tokens in Buchstaben oder Worte umzurechnen, als Faustformel kann von ca. 2 Tokens für ein Wort ausgehen. Von OpenAI gibt es [https://platform.openai.com/tokenizer hier eine Seite], in der man sich für einen gegebenen Text anzeigen lassen kann, wie dieser in Tokens unterteilt wird | * Größe des Kontextfensters: Sprachmodelle können die Inhalte einer Konversation für folgende Fragen verwenden (sich 'merken') und auf diese zurückgreifen für die Generierung neuer Antworten. Allerdings ist dieses Gedächtnis nicht unbegrenzt und die Größe des sogenannten Kontextfensters definiert, in welchem Umfang die vorherige Konversation berücksichtigt werden kann. Alle Inhalte einer Konversation, die nicht mehr in das Kontextfenster passen, sind faktisch 'vergessen' für das Sprachmodell. Die Größe wird dabei in sogn. ''Tokens'' festgelegt. Es ist nicht ganz einfach Tokens in Buchstaben oder Worte umzurechnen, als Faustformel kann von ca. 2 Tokens für ein Wort ausgehen. Von OpenAI gibt es [https://platform.openai.com/tokenizer hier eine Seite], in der man sich für einen gegebenen Text anzeigen lassen kann, wie dieser in Tokens unterteilt wird | ||
Diese Modelle werden aktuell in BIKI angeboten: | |||
=== ChatGPT 4o === | === ChatGPT 4o === |
Version vom 11. Juni 2024, 07:09 Uhr
BIKI: ..Worum geht es hier...
...Der eigentliche Hilfetext...
Verfügbare Sprachmodelle
Das Ziel von BIKI ist es verschiedene Sprachmodelle verfügbar zu machen, zum Start werden dabei bekannten ChatGPT Modelle von OpenAI angeboten. Die Modelle unterscheiden sich in ihren Eigenschaften:
- Aktualität: Sprachmodelle werden einmal trainiert und lernen dann nichts mehr dazu. Sie können als kein Wissen enthalten, was nach dem Ende des Trainings erst entstanden is, z. B. kann kein Wissen über Ereignisse der letzten Wochen und Monate enthalten sein
- Größe des Kontextfensters: Sprachmodelle können die Inhalte einer Konversation für folgende Fragen verwenden (sich 'merken') und auf diese zurückgreifen für die Generierung neuer Antworten. Allerdings ist dieses Gedächtnis nicht unbegrenzt und die Größe des sogenannten Kontextfensters definiert, in welchem Umfang die vorherige Konversation berücksichtigt werden kann. Alle Inhalte einer Konversation, die nicht mehr in das Kontextfenster passen, sind faktisch 'vergessen' für das Sprachmodell. Die Größe wird dabei in sogn. Tokens festgelegt. Es ist nicht ganz einfach Tokens in Buchstaben oder Worte umzurechnen, als Faustformel kann von ca. 2 Tokens für ein Wort ausgehen. Von OpenAI gibt es hier eine Seite, in der man sich für einen gegebenen Text anzeigen lassen kann, wie dieser in Tokens unterteilt wird
Diese Modelle werden aktuell in BIKI angeboten:
ChatGPT 4o
Dieses Sprachmodell von OpenAI wurde im Mai 2024 veröffentlicht