Anzeige
Anzeige
Für Links auf dieser Seite erhält GIGA ggf. eine Provision vom Händler, z.B. für mit oder blauer Unterstreichung gekennzeichnete. Mehr Infos.
  1. GIGA
  2. Tech
  3. Digital Life
  4. Was bedeutet GPT bei ChatGPT?

Was bedeutet GPT bei ChatGPT?

© IMAGO / NurPhoto
Anzeige

Seit über einem Jahr kommt man in der digitalen Welt nicht mehr an „ChatGPT“ vorbei. Dabei handelt es sich um einen Chatbot mit einem sehr umfangreichen Wissensschatz. Wofür steht die Abkürzung „GPT“?

 
Netzkultur
Facts 

„GPT“ taucht nicht nur bei ChatGPT auf, sondern an vielen weiteren Stellen. So haben die Entwickler im Januar 2024 mit dem „GPT Store“ zum Beispiel eine Download-Plattform für modifizierte Chatbots gestartet.

Anzeige

GPT: Das bedeutet die Abkürzung

„GPT“ ist die Abkürzung für den Begriff „Generative Pretrained Transformer“. Auf Deutsch übersetzt bedeutet das so viel wie „erstellender, trainierter Transformator“. Der Ausdruck fasst die Technologie und Arbeitsweise der Chatbots zusammen. Die Künstliche Intelligenz bei ChatGPT und Co. greift auf eine umfangreiche Datenbank zu. Dabei wurde das Sprachmodell vorab mit Millionen von Dokumenten und Daten aus verschiedenen Quellen antrainiert. Verschiedene Befehle wandelt das Tool dann um und erstellt (=generiert) daraus gewünschte Ergebnisse. Die Ergebnisse werden dabei in eine Antwort übersetzt (=transformiert).

Anzeige

Was ist „GPT-4“?

Die Basis von GPT ist ein Sprachmodell. Aktuell handelt es sich dabei um GPT-4. ChatGPT arbeitet dabei nicht wie eine Suchmaschine wie Google oder wie ein Lexikon wie Wikipedia. Es werden also nicht bloß bereits gespeicherte Ergebnisse wiedergegeben. Stattdessen wird jede Antwort auf einen Befehl neu generiert. Die Technologie bewertet dabei einen eingegangenen Befehl und gibt eine Antwort Wort für Wort wieder. Das heißt, bei jedem neuen Wort wird auf Grundlage der antrainierten Daten neu analysiert, was am besten danach folgen könnte. Unter anderem aus diesem Grund werden ChatGPT-Antworten auch nicht direkt und auf einen Schlag, sondern nur schrittweise ausgegeben.

Anzeige

GPT-Modelle können nicht nur Texteingaben verarbeiten, sondern auch Sprachbefehle verstehen. Auch Inhalte auf Bildern lassen sich analysieren und verwerten. Das gilt nicht nur für das Training des KI-Wissens, sondern auch für die Ausgabe. Das heißt, GPT-Anwendungen geben nicht nur Texte wieder, sondern erstellen auch Bilder oder sogar Musik aus entsprechenden Vorgaben.

Hat dir der Beitrag gefallen? Folge uns auf WhatsApp und Google News und verpasse keine Neuigkeit rund um Technik, Games und Entertainment.

Anzeige