In der Übersicht
Viele Unternehmungen probieren generative KI bzw. Large-Language-Models (LLMs) aus oder entwickeln neue Dienstleistungen damit, insbesondere im Bereich Marketing, Kommunikation und neuerdings auch Marktanalyse. Eine einheitliche und umfassende Qualitätsbewertung der Resultate fehlt, wie die Literaturrecherche und Gespräche mit Experten aus der Wirtschaft zeigen. Darum soll ein einfach anwendbares, interdisziplinäres LLM-Evaluationsframework basierend auf State-of-the-Art Methoden, Austausch mit Anwendern und Experten aus der Wirtschaft wie auch wegweisender Literatur entwickelt und getestet werden. Im hier angefragten Projekt soll ein Minimum Viable Concept (MVC) des Evaluationsframeworks entwickelt und mit einem Datensatz getestet werden, um damit ein Folgeprojekt akquirieren zu können im welchem das Framework ggfs. erweitert, verfeinert und validiert werden soll.