Fachbegriffe rund um die Künstliche Intelligenz

Beim Thema Künstliche Intelligenz tauchen eine Menge Fachbegriffe auf. Hier kannst du nachschlagen und dich informieren.

Was ist GPT


GPT steht für „Generative Pretrained Transformer“. Es handelt sich dabei um ein spezielles Sprachmodell, das auf der Methode des Deep Learning basiert. Entwickelt wurde es von OpenAI – und es ist die technische Grundlage für Chatbots wie ChatGPT.

Wofür ist GPT gedacht?

Das Ziel von GPT ist es, menschenähnliche Texte zu erzeugen. Das Modell kann Fragen beantworten, Texte zusammenfassen, Geschichten schreiben, Programmcode erklären und vieles mehr. Dabei wirken die Antworten oft erstaunlich natürlich – fast so, als hätte ein Mensch sie geschrieben.

Wie funktioniert GPT?

GPT analysiert riesige Mengen an Texten aus dem Internet und lernt dabei die Struktur, den Wortschatz und typische Muster der Sprache. Es erkennt, welche Wörter häufig zusammen vorkommen, wie Sätze aufgebaut sind und welche Formulierungen in welchem Zusammenhang stehen.
Wenn du eine Frage stellst, berechnet GPT die wahrscheinlich sinnvollste Antwort – Wort für Wort.

Was macht GPT besonders?

Im Vergleich zu früheren Sprachmodellen ist GPT:

Gibt es verschiedene Versionen?

Ja. GPT wurde ständig weiterentwickelt. Es gibt inzwischen mehrere Versionen. In meinem Artikel: Die verschiedenen Sprachmodelle von ChatGPT erfährst du, welche Sprachmodelle zur Zeit nutzbar sind.

« Zurück zum Inhaltsverzeichnis