Vektorwörter (auch: Wortvektoren) sind mathematische Repräsentationen von Wörtern in einem mehrdimensionalen Raum. Jedes Wort wird dabei durch einen Zahlenvektor beschrieben, der seine Bedeutung und Beziehung zu anderen Wörtern ausdrückt.
Solche Vektoren werden durch maschinelles Lernen erzeugt – typischerweise mithilfe von Modellen wie Word2Vec, GloVe oder modernen Sprachmodellen wie GPT.
Ziel ist es, semantische Ähnlichkeiten mathematisch erfassbar zu machen: Wörter mit ähnlicher Bedeutung liegen im Vektorraum nahe beieinander. Dadurch kann KI Sprache nicht nur lesen, sondern auch kontextuell interpretieren, clustern oder weiterverarbeiten.</p>