Dictionary.com kürt „halluzinieren“ zum Wort des Jahres 2023

Dictionary.com hat sein Wort des Jahres für 2023 bekannt gegeben und in einem Schritt, der nur wenige überraschen dürftees hängt mit dem zusammen Boom der künstlichen Intelligenz.

Der Wort des Jahres ist „halluzinieren“. Auf den ersten Blick vielleicht nicht erscheinen KI-bezogen. Sie haben vielleicht Wörter wie „künstlich“ oder „KI“ selbst erraten. Aber „halluzinieren“, wie Dictionary.com erklärt, ist ein wichtiges Wort in der KI-Welt und eines, das die Website mit einem bestimmten Ziel gewählt hat.

Wie Dictionary.com es definiert, bedeutet Halluzinieren in KI-Begriffen „falsche Informationen entgegen der Absicht des Benutzers zu produzieren und sie so darzustellen, als ob sie wahr und sachlich wären“.

In einem Jahr, in dem KI zum Mainstream wurde, war Halluzinat ein besonders wichtiges Wort. Dictionary.com stellte fest, dass es im Jahr 2023 einen Anstieg der Suchvorgänge um 46 Prozent und einen Anstieg der Mediennutzung um 85 Prozent verzeichnete.

“Halluzinieren ist unter den Begriffen, die KI populär gemacht hat, besonders bemerkenswert, da er sich nicht auf einen Aspekt der Funktionsweise von KI bezieht, sondern auf eine ihrer Möglichkeiten Fehlfunktion,“ Dictionary.com schrieb in einer Erklärung Bekanntgabe des Wortes des Jahres. „In dieser Hinsicht ähnelt es anderen warnenden technischen Begriffen, wie z Spam Und Virusdie mittlerweile in unserer Sprache verankert sind.

Dies ist nur einer der Gründe, warum unsere Lexikographen erwarten, dass das Wort relevant bleibt – zumindest in naher Zukunft.“

Im Guten wie im Schlechten werden wir alle in absehbarer Zukunft KI-bezogene Begriffe lernen und verwenden. Tatsächlich ist Cecily Mauran von Mashable hat ein umfassendes Glossar aller KI-Begriffe geschrieben du musst wissen. Zu den Wörtern im Glossar gehört: Halluzination. Wie Mauran anmerkt, denken einige Leute vielleicht, dass KI allwissend und überaus fähig ist, aber die Tatsache, dass es diesen Begriff gibt, beweist das Gegenteil.

Mauran schrieb: „(Halluzination) geschieht, weil generative KI-Modelle Wörter basierend auf einer probabilistischen Beziehung zum vorherigen Wort vorhersagen. Sie ist nicht in der Lage zu verstehen, was sie erzeugt. Dies soll eine Erinnerung daran sein, dass ChatGPT empfindungsfähig sein könnte, aber.“ es ist nicht.”

Scroll to Top