Perplexity ist eine Metrik aus dem Bereich der Künstlichen Intelligenz und speziell der Sprachmodellierung. Sie misst, wie gut ein Sprachmodell (z. B. GPT) darin ist, den nächsten Begriff in einem Text vorherzusagen. Formal betrachtet ist Perplexity der exponentielle Kehrwert der durchschnittlichen Wahrscheinlichkeiten, die ein Modell für die tatsächlichen Wörter in einem Testdatensatz vergibt. Je niedriger die Perplexity, desto besser „versteht“ das Modell den Sprachkontext. Eine hohe Perplexity weist auf Unsicherheiten oder Fehlanpassungen im Modell hin. In der Praxis wird Perplexity oft zur Bewertung und zum Vergleich von Sprachmodellen verwendet.