Generative Pre-Trained Transformer (GPT) sind eine Art großes Sprachmodell (Large Language Model, LLM) und ein wichtiger Rahmen für generative künstliche Intelligenz. Dabei handelt es sich um künstliche neuronale Netze, die bei der Verarbeitung natürlicher Sprache eingesetzt werden.
« Zurück zum Glossar IndexGenerative Pre-Trained Transformer
« Zurück zum Glossar Index